MyLinguistics - Marguerite Leenhardt's Web Log

Aller au contenu | Aller au menu | Aller à la recherche

dimanche 24 janvier 2010

Parution : note de lecture dans la revue TAL

Le numéro 50:1 Varia 2009 de la revue TAL vient de paraître.

Un petit mot très rapide pour vous annoncer la publication de l'une de mes notes de lectures dans cette revue de référence du domaine!

Vous y aviez eu accès en avant première, via un billet de septembre dernier : Opinion Mining and Sentiment Analysis, Pang and Lee (2008). Un grand merci à Denis Maurel, qui a supervisé cette rubrique!

Je vous invite à aller consulter le sommaire de ce numéro, dirigé par Béatrice Daille, Yves Lepage, Éric Villemonte de La Clergerie et François Yvon.

Vous pouvez accéder directement à la rubrique ''Notes de lecture'' de la revue TAL : bonne lecture!

jeudi 10 septembre 2009

Opinion Mining and Sentiment Analysis, Pang and Lee (2008)

Pang_Lee2008.jpg Une instructive lecture sur la dernière somme de référence en date sur l'opinion mining et la sentiment analysis. J'avais eu à en faire une note, que j'ai ressortie de mes cartons : cela mérite d'être partagé! On comprendra sans doute mieux en quoi (j'y reviendrai sans doute ultérieurement) la problématique de la modélisation linguistique est cruciale et constitue l'une des clés de l'évolution des systèmes d'opinion mining et de sentiment analysis. Ma petite note de lecture, donc...

Synopsis
Cet ouvrage consiste en une étude fondée sur plus de trois cent travaux de recherche, donnant un aperçu des évolutions dans le domaine de la fouille de données orientée opinion (opinion mining) et de l’analyse des sentiments (sentiment analysis). Il présente les techniques et approches développées et fournit un panorama de l’effort de recherche ainsi que des ressources existantes.

  • Historique, types d’applications et enjeux

L’émergence du World Wide Web et l’utilisation, aujourd’hui répandue, des applications issues des Technologies de l’Information et de la Communication (TIC), ont suscité l’apparition de nouveaux modes de communication, ce faisant, contribué à instaurer de nouveaux espaces de propagation de l’information. Pouvoir accéder, et partant, élaborer une métrique pour évaluer « ce qui est dit », « comment on le dit » et « sur qui/quoi on le dit », est alors devenu un objet de recherche, ainsi qu’un enjeu stratégique pour les entreprises et les institutions.

Si des chercheurs se sont penchés sur le sujet avant l’an 2000, c’est véritablement à partir de 2001 que le nombre de travaux s’accroît. La jeunesse de ce domaine suscite des instabilités terminologiques importantes. En effet, l’effort de recherche s’est essentiellement orienté sur des problématiques applicatives, laissant les aspects épistémologiques de côté. Les travaux traitant de questions purement linguistiques sont par ailleurs peu nombreux.

Quatre grands types d’applications sont mis en exergue par les auteurs : (i) les applications liées aux sites d’avis de consommateurs, par exemple sur les films ou les jeux vidéos ; (ii) l’intégration de modules spécifiques dans des systèmes de e-commerce, de GRC (Gestion de la Relation Clientèle) ou encore de Questions/Réponses ; (iii) les applications de veille stratégique et de veille institutionnelle ; (iv) enfin, l’analyse de discours politiques.

Bien qu’elles découlent de la fouille de données et de l’analyse de textes, les technologies d’opinion mining et de sentiment analysis posent des problèmes spécifiques, qui les distinguent et les rendent plus complexes, à plusieurs égards, que les premières.

  • Problématiques de classification et d’extraction de l’information

La classification documentaire et l’extraction d’information sont les principaux domaines sur lesquels s’est concentré l’effort de recherche : les auteurs y consacrent d’ailleurs une analyse détaillée. Cet effort, lié à la mise au point d’algorithmes, donne lieu à la discussion de nouveaux concepts et méthodes, comme en témoigne l’élaboration de modèles de langage dédiés.

Des problématiques variées sont exposées. L’intégration des traits linguistiques – en particulier les propriétés syntaxiques et le traitement de la négation – et statistiques – l’impact de la présence et de la fréquence des occurrences de formes dans les textes – dans le processus d’analyse, constituent un enjeu important pour l’amélioration des systèmes.

L’adaptation au domaine de ces derniers, tout comme l’impact de l’utilisation de données manuellement annotées, est aussi largement traité. De ce point de vue, c’est avant tout le problème de la réutilisabilité des ressources qui est considéré. Par ailleurs, les technologies de classification et d’extraction sont abordées selon les approches d’apprentissage supervisé et non supervisé.

Améliorer la prise en compte du contexte dans l’analyse, en particulier par l’intégration de la structure discursive, impacte autant la classification que l’extraction. Cependant, l’identification des attributs d’un produit ou d’une opinion dans l’avis des consommateurs, comme celle des foyers de l’expression de l’opinion – la question des opinion holders –, sont plus spécifiquement liées à des problématiques d’extraction.

  • Problématiques de résumé automatique de l’information

Deux paradigmes de résumé automatique, qui prennent soit pour objet un seul texte, soit un ensemble de textes, sont successivement abordés par les auteurs. En effet, les améliorations de l’un impactent celles de l’autre. Les problématiques sont communes, même s’il faut distinguer entre les techniques de résumé fondées sur l’identification automatique de thématiques de celles qui ne le sont pas.

Corrélativement, certains systèmes peuvent intégrer une dimension temporelle pour la représentation graphique de l’information. Observer l’évolution de l’opinion en fonction du temps s’avère utile lors de l’étude de thématiques ou d’avis de consommateurs sur une marque, un produit ou un service. L’analyse du discours politique est également enrichie par des considérations diachroniques.

Les données utilisées provenant le plus souvent de sites d’avis de consommateurs, les applications de résumé automatique peuvent aussi tirer parti de la réputation des utilisateurs, par le biais de scores qui leur sont associés par la communauté, qui évalue ainsi leur crédibilité et donc, indirectement, leur pouvoir d’influence, de recommandation.

  • Domaines d’applications variés, problématiques élargies

Les travaux confirmant les corrélations entre les ventes de produits et la tendance positive ou négative des avis de consommateurs se sont multipliés. Le principe de la recommandation d’achat « de bouche à oreille », que les avis publiés en ligne permettent de suivre et d’analyser, donc la question de l’influence des leaders d’opinion sur les consommateurs, a un impact économique important.

De manière générale, les applications de fouille de données visant à étudier les préférences des individus, posent parfois un problème de confidentialité, en particulier lorsqu’il s’agit de données récoltées à partir de sources non accessibles publiquement.

Un autre aspect mentionné par les auteurs concerne la manipulation de l’information. En effet, la participation des acteurs économiques, voire institutionnels, aux conversations en ligne, peut avoir pour objectif d’introduire un biais dans la diffusion de l’information. Certaines études ont en effet révélé que ces acteurs sont attentifs à la façon dont tirer profit de cette diffusion.

  • Ressources publiquement accessibles

Cette section traite en premier lieu des banques de données textuelles, annotées ou non, dont la plupart ont été élaborées à partir de 2005. D’autre part, 2006 marque l’entrée de tâches d’opinion mining ou de sentiment analysis dans les campagnes d’évaluation TREC et NTCIR. Plusieurs ressources lexicales, par exemple des dictionnaires annotés ou des lexiques d’adjectifs, sont également pris en compte.

Il faut souligner que les ressources mentionnées sont en anglais. Loin d’être un biais initié par les auteurs, la bibliographie met en exergue le fait que peu de chercheurs européens se sont penchés sur le problème jusqu’à présent. En conséquence, les tutoriaux, banques bibliographiques et autres listes de diffusion – en particulier la liste SentimentAI – sont mises en ligne par quelques universitaires nord-américains.

Cet ouvrage est, à l’heure actuelle, l’un des premiers à donner accès à une telle compilation de travaux, problématiques et ressources, dans le domaine de l’opinion mining et de la sentiment analysis.

Référence complète : Bo PANG, Lillian LEE, Opinion Mining and Sentiment Analysis, Now Publishers Inc., 2008, 135 pages, ISSN 1554-0669.

lundi 4 mai 2009

SEM'09// Les présentations sont en ligne!

Comme prévu, les présentations faites au Search Engine Meeting sont en ligne ici. Merci à toute l'équipe d'Infonortics!

Bonne lecture!

jeudi 30 avril 2009

SEM'09// le programme en images, plus quelques mots sur l'audience

Le secret d'un événement de qualité? L'organisation, le lieu et l'audience. Avec une centaine de personnes rassemblées dans l'ambiance feutrée des salons du Copley Plaza à Boston, il est intéressant de remarquer que plusieurs représentants d'institutions étaient présents parmi les attendees. De la web & enterprise search à l'institutional search?

En tous cas, comme promis, voici les scans du programme en détails, pour vous donner un aperçu de la façon dont se sont déroulés les deux jours du SEM'09.

L'équipe de Infornortics - parmi lesquels Madame Anne Girard, qui avait par exemple présidé la conférence Les apports de l'Intelligence Economique et Concurrentielle à la compétitivité des entreprises à l'i-expo 2004 -, emmenée avec brio par Monsieur Harry Collier, a mis en place une organisation irréprochable!

La jolie couverture du programme de cette année

program1.jpg

Les speakers du premier jour

program_day1.jpgMicrosoft, Nstein et une superbe intervention de Stephen E. Arnold sur ses fameuses Google Studies. En prime, un speech qualifié par la rumeur des couloirs de "provocative" par Frank Bandach (Eeggi).



Les speakers du second jour

program_day2.jpgTrès intéressante, la présentation de David Milward (Linguamatics); des interventions riches d'enseignement sur les problèmes de sécurité en contexte d'enterprise search, par l'équipe de New Idea Engineering, et sur la faceted search, par Daniel Tunkelang (Endeca). Cherry on top : Peter Noerr (MuseGlobal) a présenté son approche de l'underground information.

Tout ceci n'est, bien entendu, qu'un rapport non exhaustif de la richesse qui a été exposée dans les salons du Fairmont Copley Palza pendant les deux jours du SEM'09. Je vous enjoins donc fortement à vous ruer ici dès le 4 mai : toutes les présentations seront disponibles en ligne.

dimanche 26 avril 2009

The Search Engine Meeting : ne cherchez plus, ça se passe ici...

Tout commence en 1987, quand Monsieur Harry Collier a fondé Infonortics...

Harry Collier, diplômé de Oxford en Histoire Moderne, a beaucoup travaillé dans le domaine de l'édition scientifique, entre autres. Cela explique sans nul doute pourquoi Infonortics Ltd., structure spécialisée dans l'organisation de conférences, séminaires, publications et mise en oeuvre de projets liés à l'information électronique, est l'une des références dans le domaine.

Les conférences organisées par Monsieur Collier - le Search Engine Meeting et l'ICIC -, sont reconnues par les professionnels et les chercheurs d'un large panel de secteurs liés à l'information électronique, pour leur sérieux. En effet, Monsieur Collier s'est toujours refusé à faire de ces événements des "foire-à-tout" : l'objectif des meetings qu'il organise est de générer un véritable échange, et non pas de donner un lieu supplémentaire à la superficialité de l'avant-vente de solutions logicielles.

Monsieur Everett Brenner, l'autre père du Search Engine Meeting, a activement contribué au développement de cette conférence. Je vous invite à en apprendre davantage sur cet éminent personnage, qui a pressenti "the Information Age" il y a près d'un demi-siècle. Visionnaire.

Monsieur Stephen E. Arnold - dont je parle plus longuement dans un billet suivant - a publié une fort instructive interview de Monsieur Collier sur son blog, arnoldit. Extraits.

The conference, more than a decade into in-depth explorations of search and content processing, is one of the most substantive search and content processing programs. The speakers have come from a range of information retrieval disciplines. The conference organizing committee has attracted speakers from the commercial and research sectors. Sales pitches and recycled product reviews are discouraged.

Conferences about search, search engine optimization, and Intranet search have proliferated in the last decade. Some of these shows focus on the “soft” topics in search and wrap the talks with golf outings and buzzwords.

The Infonortics search conference has remained sharply focused and content centric.

Voilà pour la mise en bouche. Monsieur Collier donne explicite davantage l'esprit de cet évènement.

we wanted serious talks on serious search domain challenges (...) we have tried to avoid areas such as SEO and product puffs and to keep to the path of meaty, research talks for either search engine developers, or those in an enterprise environment charged with implementing search technology. The meetings tread a line between academic research meetings (lots of equations) and popular search engine optimization meetings (lots of commercial exhibits).

Search — and the problems of search — remains central, but we are also interested in areas such as data or text mining (extracting sense from masses of data) as well as visualization and analysis (making search results understandable and useful). We feel the center of attention is moving away from “can I retrieve all the data?” to that of “how can I find help in making sense out of all the data I am retrieving?”

It’s a meeting without too much razzmatazz; we only have a small, informal exhibition, no real sponsorship, and we try to downplay the commercialized side of the search world.

Because of Infonortics international background, we have a pretty high international attendance compared with most meetings in the United States: many Europeans, Koreans and Asians. I’ve already used the word “serious”, but this is how I would characterize our typical attendee.

A l'heure où nombreux sont ceux qui croient qu'il faut "buzzer pour exister", la sérieuse longévité du Search Engine Meeting rime aussi avec "discrétion". Parce que dans une "foire-à-tout", il y a trop de bruit pour réfléchir.

Le Search Engine Meeting, édition 2009, commence aujourd'hui à 13h30, au Fairmont Copley Plaza, Boston (MA).

samedi 25 avril 2009

SEM'09//The Search Engine Meeting 2009 : le programme

Where search engine developers, academics and corporate professionals learn from each other

Pour sa 14ème édition, le Search Engine Meeting 2009 propose un superbe programme de speechs, qui se tiendront lundi et mardi.

Nous commencerons avec de prestigieux intervenants au petit déjeuner, en particulier des acteurs majeurs du développement de systèmes pour l'analyse sémantique automatisée (Microsoft, Nstein), qui initieront la première journée du SEM'09.

Je vous prépare des revues plus complètes et fouillées de ce qui se sera passé depuis le 26, et vous enjoins à consulter le programme, pour vous donner une idée du beau monde qui se trouve ici, et du beau lieu qui accueille l'évènement. Je manque un peu d'équipement, étant en déplacement, mais vous aurez une liste exhaustive des participants au meeting dès que j'aurai de quoi scanner sous la main.

Cela vaut le coup, et fera de belles opportunités de contact pour ceux qui cherchent à obtenir davantage d'informations sur les acteurs majeurs du segment des search engines, de la semantic search et de l'enterprise search aujourd'hui.

mercredi 25 mars 2009

Blog mining through opinionated words, (Attardi and Simi, 2006)

Dans un article publié dans les actes de TREC'06, (Attardi and Simi, 2006) présentent une expérimentation pilote sur un système d'opinion mining appliqué aux blogs.

Il s'agit d'une application de catégorisation automatique du contenu d'un panel de blogs : si la procédure est analogue à celle d'un moteur de recherche plein texte, elle implémente une fonction de classement qui exploite un index enrichi d'étiquettes marquant l'opinion, de "marqueurs de l'opinion", pourrait-on dire.

En clair, des "mots" définis comme porteurs de subjectivité forment une couche supplémentaire d'information pour l'indexation, en plus des éléments traditionnellement utilisés pour l'indexation documentaire. Le module de recherche s'appuie sur ces "mots" pour effectuer le calcul des scores associés aux documents, lesquels scores permettent de fournir des résultats classés par ordre de pertinence.

C'est en somme une méthode d'expansion de requête intégrée "en dur" dans l'index. C'est aussi une application qui procède d'une ontologie de l'opinion, s'inscrivant donc dans le sillon des approches lexicales du sens.

L'hypothèse forte de cette expérimentation est que l'utilisation des étiquettes marquant l'opinion permet de surpondérer les scores pour les documents qui ne ressortiraient pas avec un simple calcul statistique sur les fréquences d'occurrence de formes. Cette enrichissement de l'index permet d'améliorer le rappel (i.e. de rapatrier un plus grand nombre de documents pertinents parmi les résultats du moteur). Les auteurs l'expliquent ainsi :

Integrating opinion mining within search has also the possible advantage of avoiding missing documents that the IR engine might overlook, not having a sufficiently high score. For example a document that only mentions an entity once, but then provides a lot of opinionated remarks, might achieve a lower score than a document that mentions the entity often, without expressing any opinion. Since the relevant documents may be hundred thousands, the postprocessing stage might not have a chance to consider it.

Il faut noter que les auteurs ne donnent aucun exemple de l'index utilisé et s'appuient sur la ressource SentiWordNet, une ontologie qui synthétiserait tous les mots avec lesquels une opinion, un sentiment, un avis, une évaluation, une appréciation... pourrait être exprimée.

L'une des pistes que l'on pourrait proposer serait d'avoir recours à de l'extraction de termes à partir d'un corpus annoté, pour constituer l'ensemble des étiquettes marquant l'opinion, afin d'enrichir l'index utilisé.

De tels travaux devraient dépasser le stade expérimental, lorsque l'on sait tout le bénéfice qu'en tireraient les analystes d'opinion online intégrant les blogs dans le champ de leur étude.

jeudi 12 juin 2008

L'e-réputation expliquée à l'i-expo

De l'image de marque à l'e-réputation
I-expo 2008 - Salon de l'Information Numérique
Conférence plénière
Jeudi 29 mai 2008 - 10h00-11h30

Présentation sur le site

Aujourd'hui se développe sur le Web une communication horizontale - c'est-à-dire une communication où chacun, quel que soit son statut, peut s'exprimer via les blogs, forums de discussions, réseaux sociaux, etc. Les consommateurs parlent des marques et des entreprises comme bon leur semble, sans bien évidemment demander la permission à qui que ce soit, et ce avec des conséquences qui peuvent s'avérer très lourdes. Il est dès lors très délicat de parler d'image de marque, ce concept renvoyant trop à un système où l'entreprise pouvait exercer sur elle un contrôle réel. Au contraire, le concept d'e-réputation qui est au cœur même du web 2.0 devient plus approprié car il inclut une dimension relationnelle que ne possédait pas nécessairement celle d'image de marque. Il devient indispensable pour toute entreprise de suivre sa réputation pour la comprendre, l'analyser, voire la mesurer ... ce qui demande de nouveaux outils et de nouveaux moyens.

Programme & intervenants

Responsable de session : François Laurent, Directeur, ConsumerInsight, CoPrésident, ADETEM

La notion de réputation sur Internet Par Yves Duron, Directeur, Nextmodernity

Le cas concret du Train-Train Quotidien Par Xavier Moisant, Directeur stratégique des médias numériques, DraftFCB

L'adaptation des annonceurs à cette nouvelle donne Georges-Edouard Dias, Directeur Internet et e-business, L'Oréal

Avant tout, un excellent panorama de l'i-expo sur SER.

L’avènement d’internet a chamboulé les pratiques et usages des internautes consommateurs, si bien qu’on assiste à une mutation des relations entre les marques et leurs consommateurs. Selon François Laurent, c’est aujourd’hui le temps de l’empowered consumer. La réputation de la marque se construit désormais par l’intelligence collective : les technologies du Web 2.0 permettent la mise en place d’espaces participatifs qui sont le lieu de l’expression des opinions de consommateurs sur les marques. Et partant, les consommateurs font ou défont la réputation d’une marque par la sédimentation de leur discours. On passe d’une communication verticale à une communication horizontale.

Yves Duron souligne l’importance pour une entreprise d’avoir une identité numérique qu’il distingue de la personnalité numérique des internautes, dont la tonalité est beaucoup plus personnelle. Selon lui, l’e-réputation est construite par le regard des autres. Se pose alors la question : comment analyser, travailler et élaborer des stratégies de communication en tant que marque ? Un des aspects de l’e-réputation relève des systèmes de recommandation (LinkedIn ou Wengo, par exemple) où les internautes émettent des jugements les uns sur les autres et où il est possible de déterminer les acteurs de cette réputation. L’idée est, pour les entreprises, est de constituer un réseau e-réputationnel, de mettre en place des mécanismes de confiance pour faciliter les comportements d’achat. Il évoque également l’e-réputation de groupe : il faut que tous les membres d’un groupe aient une bonne réputation. Adaptée à l’entreprise, cette perspective veut que tous les acteurs de l’entreprise participent de la bonne réputation de celle-ci. Il faut que la stratégie de communication interne soit en phase avec la stratégie de communication externe.

Par ailleurs, certaines technologies du Web 2.0 donnent une persistance à l’information publiée sur le Net : certaines plateformes telles que Archives.org permettent de traquer l’information sur les individus et de vérifier leur réputation au fil du temps. En conséquence, l’entreprise doit être transparente, cohérente dans ses discours adressés aux clients et en interne. En conclusion, pour développer et gérer l’e-réputation, l’entreprise doit se pourvoir d’une identité numérique et d’un réseau communautaire pour faire remonter les évaluations la concernant. Elle doit mettre à profit l’ensemble des technologies 2.0 pour accéder à une large audience et susciter l’intérêt de ses clients à un faible coût.

Un exemple d’espace participatif où les internautes échangent autour d’une problématique de la vie quotidienne, à partir duquel l’information disséminée a impacté la communication d’une entreprise publique : Le Train Train Quotidien.

Dans ce contexte, la SNCF n’est pas apparue comme une bonne gestionnaire de sa communication interne et externe, dans la mesure où, la Direction, après avoir refusé de s’exprimer, a délégitimé le mécontentement des usagers ; parallèlement, des salariés se sont exprimés dans le cadre de cet espace participatif sur des aspects que la Direction a du confirmer par la suite. L’e-réputation de l’entreprise en a pâti, du fait de l’incohérence entre le discours externe et interne.

Georges-Edouard Dias est intervenu sur le thème du rapport entre la réputation et les marques sur le Web social. Il est, selon lui, primordial pour l’entreprise d’analyser sa réputation et de l’accompagner. Cela sous-tend, pour une marque, de connaître son territoire, sa dimension sociale et son positionnement. En termes de positionnement, l’alternative est d’apparaître soit comme une marque d’autorité, soit comme une marque conversationnelle. Cette dichotomie introduite par Dias renvoie aux stratégies de communication adoptées :

  • la marque d’autorité, dont Adidas est un exemple, correspond au premier modèle du Web, c’est-à-dire aux stratégies de push marketing ;
  • la marque conversationnelle, par exemple représentée par Patagonia, élabore sa stratégie marketing dans un mouvement dialectique entre les consommateurs et l’entreprise ; à cet égard, ce type de stratégie correspond au second modèle du Web, un modèle participatif où le consommateur est pleinement intégré au processus décisionnel.

Quant au cas spécifique de L’Oréal, s’il est certain que le monde de la beauté appelle un positionnement d’autorité de la marque, son secteur d’activité est relatif à une pratique sociale qui se partage. En effet, les internautes se transmettent les bonnes adresses, communiquent sur leurs « trucs ». L’Oréal fait donc le choix d’explorer les espaces participatifs pour analyser le feedback et le comportement des internautes sur et par rapport à la marque, pour adapter une stratégie de communication variable en fonction des différentes enseignes du groupes pour la diffusion de contenus en ligne. Aux enseignes phares est associée la diffusion de contenus publicitaires, visant une démonstration de puissance. Le groupe comprend des enseignes dont le positionnement est plus conversationnel, Kiehl’s par exemple, dont la stratégie marketing repose sur des témoignages de consommateurs, avec un côté résolument participatif.

Dias met en exergue trois étapes pour accompagner l’e-réputation du groupe :

  • l’observation du Web social pour comprendre le positionnement social de ses marques ;
  • cette observation permet d’établir une cartographie le réseau conversationnel de la marque ; il illustre son propos par une démonstration de Linkfluence, une application développée par le groupe RTGI, qui permet de schématiser les réseaux de dissémination de l’information autour du groupe L’Oréal et partant, d’identifier les acteurs majeurs au sein de ce réseau ;
  • au terme de ce processus, l’analyse du réseau et des acteurs d’influence permet de cibler les médiateurs mobilisables pour activer les lancements de produits dans la communauté des bloggeurs.

Il insiste également sur la fin de l’invincibilité du marketing, plaidant pour l’avènement d’un marketing itératif, social : « il faut humaniser le marketing », affirme-t-il. Il fait mention d’un retour d’expérience sur l’édition d’un faux blog constitué à l’occasion du lancement d’un produit. Du fait d’une mauvaise intégration des pratiques des bloggeurs, la supercherie a été très rapidement pointée du doigt par la communauté des internautes. A la différence de la stratégie de communication adoptée par la SNCF, L’Oréal a fait le choix de se mettre à l’écoute des internautes, pour contrecarrer le buzz négatif généré par cette tentative ratée, en lançant un appel à suggestion aux consommateurs. Cette prise de position active a été bien perçue : un blog a été recréé en fonction des attentes des utilisateurs et l’e-réputation de la marque n’en a pas pâti, l’idée majeure étant de soumettre les créations au vote des contributeurs.

Son image en a même tiré bénéfice, en ce sens que le groupe L’Oréal en est ressorti perçu comme volontaire pour adapter sa communication et intégrer le consommateur. Il faut « faire de nos consommateurs nos meilleurs avocats », soutient Dias. Les meilleurs consommateurs sont les meilleurs garants de l’e-réputation d’une marque. L’objectif est donc d’utiliser les technologies 2.0 pour faire participer le consommateur et le réintégrer dans le parcours décisionnel sur les campagnes publicitaires et la création produit.

Deux stratégies doivent donc être développées en parallèle, en mettant à profit les technologies et les contributeurs 2.0 : diffuser l’information et l’analyser. Le bloggeur doit être perçu comme un porte-parole de la marque, qui fait état de son point de vue par l’intermédiaire du réseau social.

Dias conclut son intervention en rappelant quatre points forts :

  • la nécessité de travailler avec les consommateurs ;
  • le passage à un marketing par itération ;
  • la nécessité de connaître et de pondérer son image ;
  • établir un contrat relationnel spécifique entre les marques et les consommateurs.

En somme, l’identification des sources mentionnant la marque n’est plus un enjeu majeur, mais le point de départ pour la mise en place d’une stratégie visant à cibler le potentiel d’influence des acteurs du Web participatif, à être attentif au feedback du réseau social en y observant la structuration dynamique des conversations sur le Web social. La véritable influence e-réputationnelle est aujourd’hui horizontale.

Une petite digression finale : à la question de savoir quel statut les intervenants accordaient aux bloggeurs payés pour créer de l’émulation autour de leurs produits, la réponse, il me le faut dire, taillée dans une langue de bois de rose, a essentiellement consisté à ne pas admettre qu’identifier les acteurs influents et les payer est un procédé intégré à la stratégie marketing de ces grandes enseignes.

lundi 9 juin 2008

Une analyse de del.icio.us

Understanding the Efficiency of Social Tagging Systems using Infomation Theory
Proceedings of ICWSM’08, Poster session
E. H. Chi and T. Mytkowicz
Palo Alto Research Center

(Chi and Mytkowicz, 2008) proposent une analyse d’un site de social tagging, del.icio.us. L’objectif de ce travail est de proposer une évaluation de ce type de systèmes quant à leur pertinence pour « encoding navigation paths to information sources ».

Si certains ont publié à la faveur de l’utilité de tels systèmes en tant que dispositifs de communication contribuant à lier les collections documentaires aux représentations mentales qu’ont les utilisateurs de ces collections, (Chi and Mytkowicz, 2008) entendent étudier la pertinence du vocabulaire formé par les tags associés à un document pour en décrire le contenu.

fig1-avecLégende

Les analyses de distribution en fonction du temps effectuées sur leur corpus de travail, reportées en Figure 1, montrent que, si les courbes de documents associés aux utilisateurs ont une croissance similaire, la courbe des tags descripteurs de ces documents évolue de façon exponentielle. De ce point de vue, le vocabulaire n’est pas stabilisé. Deux facteurs sont à prendre en compte : les popular tags proposés par ces systèmes ont pour effet de réduire la variété des tags ; au contraire, les tags choisis par les utilisateurs en dehors de ces listes en font exploser la quantité.

Deux questions sont alors soulevées : les tags les plus populaires sont-ils pertinents pour décrire les contenus ? Peut-on vraiment concevoir que les utilisateurs s’accordent sur leur représentation mentale d’un contenu informationnel ? A cela, les auteurs n’apportent pas de réelle réponse, concluant simplement : « Rather than providing popular tags for user’s, tagging sites should ask them to think of tags that describe the document that are not in the popular list ».