MyLinguistics - Marguerite Leenhardt's Web Log

Aller au contenu | Aller au menu | Aller à la recherche

Tag - search engine

Fil des billets - Fil des commentaires

samedi 12 novembre 2011

"Better filters will play a big part"... towards an "expert + system" model in content analysis solutions

During the last couple of years, there has been some brief bursts of content issues here and there, impacting search as well as content analysis. In a recent tribune for Sparksheet.com, Karyn Campbell (The IdeaList) took an interesting stand, saying whatever 3.0 looks like, better filters will play a big part. professional, human filters will play an integral role in the next web after all. I bet she has hollow nose !

Well, indeed, this makes sense and resonates with some other clues around there. 

Remember : two years ago, Yahoo! patented human intervention through a "human editor ranking system" in its engine. At that time, their point was that such a process obtained more refined results. The idea that, for qualitative results with high expectations concerning accuracy and preciseness, it is needed to have human experts in the game, well, this idea made its way. Better filters.

About one year later, one of the Pew Internet studies emphasized that :

Information overload is here, which means anyone with an interest in making sure their news reaches people has to pay close attention to how news now flows and to the production and usage of better filters.

Better filters, again ! In a march 2010 Researcher's tribune by Martin Hayward, some ideas bring water to our mill :

the real stars will be those who can make sense of, and draw insight from, vast amounts of data quickly and reliably. we have to move from being an industry where value was derived from providing scarce information, to one where value is derived from connecting and interpreting the vast amounts of infomation available, to help clients make better business decisions faster

What could this mean for content analysis now, which has a foot in search issues and the other in qualitative content analysis and curation issues ? More specifically, what would this mean for the business applications of content analysis, such as trend monitoring solutions, sentiment analysis and other types of applications dealing with one of the biggest amount of information available - say User Generated Content from the social media areas of the web ?

Back in 2009, Asi Sharabi made a realistic but critical portrait of social media monitoring solutions. The systems may have improved by now, but several raised issues still are more relevant than ever :
  • "Unreliable data" : where do the most part of your brand's mentions come from ? is there any feature allowing you to make a distinction between spam messages, deceptive reviews and the spontaneous conversational material you'd like to meaningfully draw insights from ? Rhetoric question, of course there's not such a feature.
  • "Sentiment analysis is flawed" : even if there is progress on the subject, the idea that fully-automated systems are costly to set up, train and adapt from a domain to another has also made its way, which benefits to a different approach : defining a methodology where the software and the analyst collaborate to get over the noise and deliver accurate analysis.
  • "Time consuming" : Asi Sharabi put it well, saying it may take "hours and days" to accurately configure a dashboard. Is this time-consuming step a proper and adequate one to put on any end-user working in a social media, communication or marketing department ?  As suggested by the author, at some point, it would be more profitable for the client to pay an analyst to do the job.
No, unfortunately, the situation has not tremendously evolved since then. Just ask some social media analysts dealing with dashboards and qualitative insight to provide well maybe I attract the bad tempered ones a lot. So, what can be said after that ? 
A few more words. Making faster but accurate and congruent business decisions and recommandations using content analysis solutions is not the core of the problem. The core of the problem more likely lies in setting up an appropriate workflow, with a single main idea : expert systems need experts, and they need them upstream and downstream of the data analysis process. Data scientists skills are without any doubt one of the keys to a "better filtering" of content, to provide, curate and analyse real qualitative content.

mardi 2 novembre 2010

Blekko : aimables échos ?

Début novembre, après avoir frissonné d'Halloween, une partie de la sphère web FR et US s'émeut à la sortie de Blekko. Passons sur le principe du slashtag c'est vrai qu'on manquait d'un useless buzzword de plus qui est, m'est avis, la partie la moins intéressante de l'outil.

Blekko HomepageBlekko, c'est le fruit d'un projet débuté en 2007 et porté par une levée de fonds de 24 millions de dollars US. Si on le présente le pauvre comme un n-ième outsider dans la "who's the next G-killer race", il est fort probable que les termes de la question ne soient pas optimalement posés par le marronnier des tech journals online, comme ç'avait déjà été le cas pour Wolfram Alpha. Passons, c'est un point de détail dans la tendance à laquelle on assiste.

Bon, premier modulo : la sphère web FR ne s'émule pas vraiment sur le sujet. La news est diffusée dans les rubriques Tech ici et là, mais les internautes ne sont pas impliqués au point de laisser un avis, tout du moins sur LeMonde.fr, France24.com et ActuAbondance.com.

Bon, second modulo : comparer n'importe quel search engine à Google c'est facile pour la rhétorique, mais c'est un point de détail qui suscite des réactions pas toujours aimables chez les webbeurs qui se creusent sur la question :

Why have slashtags when you can perform such an advanced search on Google? There are startups that want to become big companies, and there are startups that want to be bought out by the likes of Google. Blekko is squarely in the latter: they want to excite a certain user base to create smart lists, and then sell their lists and users to Google.

ou encore :

Remember: Google News uses its own factors for rankings, while Bing appears to use sophisticated criteria for its cool recipes results. Users need to remember that Blekko slashtags like "news" and "techblogs" won't necessarily return the kind of recent, relevant results you'd expect when you search them. Instead, it returns the highest ranking results from a certain bucket of sites.

peut-on par exemple lire sur le site de Ryan Beale , là où les commentaires ont une tonalité représentative de l'accueil fait à Blekko, malgré l'avis plutôt positif de l'auteur. Un autre internaute, commentant la news de BusinessInsider sur le sujet, ajoute très justement :

The problem with "transparency" in a search engine is that it invites manipulation.

Un rapport avec la tendance dont je parle plus haut ? Précisément, je vous disais qu'il y avait une scission dans les stratégies d'accès pertinent à l'information :

Le recours à l'humain pour garantir la qualité des informations, les structurer, les enrichir et ainsi en faire des connaissances : voilà le sillon dans lequel s'inscrit Blekko, comme Yahoo! l'a fait en 2005, comme Google l'a mis en place un temps pour optimiser les performances de Google Translate, comme l'industrie de la veille web et des études web quali est en train d'en prendre conscience. Mais si, mais si, tout arrive !

dimanche 19 septembre 2010

R.I.P Cuil

Search engine qui avait retenu l'attention dès sa sortie en 2008, parce qu'il mettait en avant ses fonctionnalités de content search, Cuil.com nous a quittés aujourd'hui.

Avec une communication complètement hyperbolique sur l'étendue de son index - dont la rumeur disait qu'il outrepassait celui du moteur de Mountain View -, ce bien joli projet avait d'emblée été présenté comme un Google killer de plus et ainsi fait parler de lui en 2nd quarter 2008. Fondé par des anciens Googlers, il avait aussi participé à la SearchRace relayée par AltSearchEngine.

En septembre dernier, un petit comparatif maison entre quelques moteurs de recherche laissait déjà voir un webservice en perte de vitesse par rapport à Wolfram, sorti en mai 2009. Les utilisateurs n'ont pas accroché, manifestement. Et pourtant, l'appareil de communication était là : même le Technology Blog du Guardian en avait parlé, un pourtant bien joli médium mainstream pour attirer le webber lambda.

On lui reprochait tantôt des faiblesses sur le plan ingénierie - résistance à la montée en charge pas toujours optimale -, tantôt sur la pertinence - sans doute la qualité du moteur de classification automatique n'était-elle pas au rendez-vous.

En ce moment, nombre de Twitterrers lui font leurs condoléances.

mercredi 17 février 2010

Bing Maps : un coup de maître en préparation

Ce n'est pas à une vieille guenon qu'on apprend à faire la grimace... ou comment Microsoft Bing prend des allures de kishi face à Google Search.

L'upgrade de Bing Maps, annoncée le 10 novembre 2009 sur le blog de Bing avait été fort bien reçue. On note en particulier Frogz, GénérationNT, le JdG, pour les échos francophones, en décembre dernier. TechCrunch US en parlait dès novembre, Mashable US n'était pas en reste et a notamment fourni de très bons insights, en particulier sur les features de synchronisation avec la géolocalisation de tweets.

Je découvre fort tardivement, non sans délices - merci à l'ami A.G. d'avoir comblé ma part d'inculture - les nouveautés annoncées pour la mouture de Bing Maps à venir. Une exclamation d'agréable surprise m'a échappé en découvrant cette boîte de Pandore, de mon petit point de vue de novice en fonctionnalités de recherche géographique. La découverte a commencé chez MacGeneration - A.G. est un pure Apple fanboy ;) - et très vite, les onglets de navigation ont poppé. Ici, , , et , entre autres liens plus ou moins bien heureusement arrangés dans ce billet.

Un nouvel algorithme intégrant des données sur la géométrie des immeubles pour un rendu plus réaliste, les bénéfices de SilverLight pour le rendu vectoriel, avec, cherry on top, la fameuse synchronisation avec l'API de géolocalisation Twitter. Voyez donc :

Les tweets géolocalisés sur Bing Maps (piqué chez Mashable) Une très belle illustration, piquée de l'un des très bons billets de Ben Parr chez Mashable

Enfin, ne renoncez pas à ce plaisir des mirettes qu'est ce talk de Blaise Aguera y Arcas (Microsoft Labs) :


La démo de Blaise Aguera y Arcas pendant son talk au dernier TED.

Autant dire qu'après avoir vu ça, on a juste envie de donner un pot de co-enzyme Q10 à Google Street View, ce que formule délicieusement Ben Parr chez Mashable:

Clearly Bing wants to make Google Maps (Google Maps) seem prehistoric with its Silverlight-based interface. And from what we’ve seen in today’s demo at Bing’s San Francisco headquarters, it’s incredibly impressive.

Sans doute la firme de Mountain View prépare-t-elle une mise à jour de Street View, sans fesses à l'air et qui lui fera un meilleur Buzz ;)

A voir pour tout savoir sur les technos Microsoft et .NET, le blog d'un ami vrai spécialiste du sujet : BlogMyMind. Avis aux éclairés qui veulent suivre l'actu des frameworks Microsoft, avec liens à l'appui, sur SilverLight 3 ou Visual Studio, par exemple. De la bonne lecture pour dév, tout ça!

samedi 13 février 2010

Emulations et Google killing II

Le keynote 2010 de Steve Jobs inaugure un climax qui tiendra en haleine les webbeurs pour les semaines et mois à venir. Apple diversifie son offre avec sa tablette, mais ce que tient Steve Jobs en main n'est peut-être rien de plus qu'un arbre qui cache la forêt. Allons donc nous promener dans les bois, là où s'augure une guerre de territoires bien plus globale qu'il n'y paraît. Cela va ressembler à une partie de Risk en live et en 3D...

Un des grands maux de la Pomme ? Ne pas souffrir de se faire croquer un autre morceau par l'arrivée du Google Phone. Car c'est bien là le grand malheur de ce beau fruit : alors que la concurrence s'intensifie sur le marché des terminaux dédiés au web mobile, Apple offre encore au moteur de recherche de Mountain View une superbe fenêtre d'exposition. Les iPhoners passent, entre autres, par Google Search pour explorer le web, tandis que Google structure une flotte de terminaux mobiles à sa couleur, qui confine les utilisateurs dans GoogleLand! Déloyale concurrence, n'est-il pas ?

Et pourtant, Steve Jobs pourrait rendre la monnaie de leur pièce à Larry Page et Sergey Brin.

Réfléchissons-y un instant. Tout d'abord, les fonctionnalités de recherche de contenus sous Mac OS X sont extrêmement robustes. La solution d'indexation et de recherche de ce système d'exploitation permet déjà d'outrepasser des verrous, tels que le passage de la recherche plein-texte à la recherche de contenus multimédia. Ensuite, la popularité croissante d'Apple, qui entraîne de plus en plus le grand public, assure à la Pomme une très forte pénétration du marché. Troisième point, la fidélisation d'au moins 75 millions d'utilisateurs emportés par Mac OS X si Wikipédia ne ment pas via les différents terminaux (iPhone, iPodTouch, postes fixes, et maintenant l'iPad) offre un pool de cibles qualifiées plutôt très étendu. Enfin, les applications iPhone, notamment, constituent une entrée privilégiée sur les données utilisateurs, donc sur l'étude et l'évolution des moeurs sociodigitales.

Après cet instant de réflexion, on distingue un peu mieux ce qui se trame dans la forêt, n'est-il pas ? Un Apple Search, pardi! L'idée n'est pas si farfelue, et le temps infirmera (ou pas) si la Pomme entre dans la guerre des Search Engines. Ce me semble en tous cas une perspective logique, dont le nez fin de Steve Jobs n'a pu manquer les effluves.

samedi 19 décembre 2009

Avec Guru et Browser Size, Google fait un pas de plus dans l'analyse de nos (inter)actions

Parmi les derniers produits mis en place sur l'étagère Google Labs, ActuAbondance annonçait cette semaine l'apparition de Guru et de Brower Size.

Le principe de Guru rappelle tout de même à notre bon souvenir le pitch du service ChaCha, dont j'avais parlé en octobre 2008 : l'échange entre deux humains pour collaborer à une interaction de type "Requête/Réponse".

Chacha_1.png

On comprend mieux pourquoi en allant lire quelques-uns des ''Fast Facts'' de ChaCha, par exemple :

ChaCha is one of the largest and fastest growing text-based services. ChaCha recently passed Google and is the #1 SMS search service according to Nielsen Mobile.

ChaCha is the fastest growing Top 100 website according to Quantcast and has over 10 Million monthly U.S. unique visitors.

Beau bout de chemin parcouru, pour un service qui concurrait, il y a maintenant plus d'un an, à TheSearchRace by AltSearchEngines - événement dont vous trouverez un excellent wrap-up ici. Pas si surprenant, donc, que ce type de service suscite l'intéret d'un Google qui se met à la téléphonie. Pourquoi pas une évolution vers un service de Questions/Réponses avec de l'expert humain dedans, et qui de sucroît tire parti des nouveaux usages des terminaux de téléphonie mobile?

Quant à Browser Size, comme le disent nos amis d'ActuAbondance :

Le système est simple : vous tapez l'URL d'une page et vous voyez immédiatement, en transparence, les zones les plus vues sur la page par vos visiteurs. Intéressant...

browsersize4.png

                                 Source : Google

Intéressant ? Certainement. Dans un contexte d'exposition web, pour évaluer la qualité ergonomique de la conception d'un site, au moins. Pour du ciblage comportemental, au plus. Google légitime donc quasiment son intérêt pour l'analyse des petits internautes devant leur ordinateur comportements dans le cadre des interactions homme-machine - dont le premier contact est visuel lorsqu'on navigue en ligne - en ouvrant un webservice dédié.

En somme...

Laisser des experts humains gérer la demande de connaissances spécifiques, sans doute en profiter pour appuyer son arrivée sur le secteur de la téléphonie avec Guru +
ouvrir au public des services liés à des technologies qui ne représentent plus un avantage concurrentiel avec Browzer Size =

                     la prochaine bonne équation de Google

vendredi 27 novembre 2009

Le cas "Michelle Obama" : qualité des algorithmes vs. qualité éthique, le nouvel enjeu des moteurs de recherche

Et si la qualité technique des algorithmes ne suffisait plus à assurer la qualité éthique des résultats?

C'est une question-ricochet à l'information relayée hier par ActuAbondance, dans un article explicitement intitulé Google Images renvoie des photos racistes sur Michelle Obama. Point d'utilité à trop discourir sur la nature de ces contenus, voyez plutôt :

michelle-obama-1.jpg

Quand bien même à l'heure actuelle le caractère politiquement correct des résultats de recherche d'image sur la first lady est rétabli, ActuAbondance rapporte clairement la position de Google sur la question :

Google, tout en s'excusant auprès de la femme de chef de l'état, a expliqué qu'il ne supprimerait pas cette image et qu'il ne modifierait pas son algorithme en conséquence car ce dernier ne fait que refléter le contenu du Web.

Je ne peux m'empêcher de trouver là un écho au précédent billet posté ici, qui traitait du dépôt de brevet par Yahoo! d'un algorithme de recherche incluant une intervention humaine, et ce dans le but d'améliorer la qualité des résultats de recherche.

Alors qu'une réflexion profonde sur l'éthique du Net fait couler les chaînes de caractères un peu partout sur le Web, du fait de son impact sur la circulation et la qualité de l'information, le positionnement de Yahoo! - donc les conséquences sur les algorithmes de recherche implémentés dans Bing, le moteur de Microsoft - prend une toute autre envergure.

Le tollé venu des internautes US annonce clairement la couleur : outre les performances de rapidité ou encore de facilité de navigation, l'un des prochains enjeux sera pour eux d'avoir une véritable qualité éthique des résultats de recherche. Parce que la qualité du contenu diffusé fait aussi la qualité du support... l'on attend d'un moteur presque autant que d'un journal. Et les feuilles de chou ne seront probablement pas plébiscitées.

mercredi 11 novembre 2009

Siri : le 'Perfect Search Engine' de Marissa?

On avait consacré un billet à l'assistant virtuel Siri, qui a un peu fait parler de lui en mai dernier. Sans plus de bruit que cela, faut-il préciser : Siri avait trouvé un Web un peu sourd à ses potentialités.

Sorti par la porte, il revient par l'une des plus belles fenêtres, sous la forme allégorique d'une définition du Perfect Search Engine by Marissa Mayer herself!

A la question :

What is the perfect search engine? If you had a magic wand and could create it, what would it look like? What would it do?

la blonde Vice President of Search Product and User Experience de Google, dont on suppute deci-delà qu'elle pourrait aller voir ailleurs si le Perfect Search Engine y est, a répondu :

It would be a machine that could answer that question, really. It would be one that could understand speech, questions, phrases, what entities you’re talking about, concepts. It would be able to search all of the world’s information, (find) different ideas and concepts, and bring them back to you in a presentation that was really informative and coherent.

Fort bien, c'est précisément l'objectif de Siri, bien accueilli par la Technology Review du MIT en mars/avril. Cet assistant virtuel, fait de la reconnaissance vocale, implémente sans doute nombre ontologies, mais exploite surtout fort bien les algorithmes d'apprentissage, qui lui confèrent souplesse et autonomie.

Petit Siri ne devrait pas tarder à devenir très grand, comme je le laissais entendre dans le billet de mai qui lui était consacré. Une User Experience à faire, Marissa?

samedi 12 septembre 2009

Emulations et Google-killing (by M & Q)

  • Solutions grand public : pourquoi confondre "search" et "computational" engines?

Courant mai, la sortie de Wolfram Alpha avait fait son bruit, de bonne qualité m'est avis, comme on le disait ici. Wolfram incarnait alors l'archétype de l'outil de niche, l'outil "geek-profiled", pas forcément compatible avec la recherche grand public telle qu'on la connaît depuis une bonne décennie. Et à raison, parce que Wolfram n'a pas vocation à indexer l'Internet, mais à fournir des calculs complexes sur une pléiade de domaines de connaissances calculables.

ZDNet.fr publiait, début juin, un intéressant comparatif sur les performances de Bing vs. Google, lequel mettait en exergue avantages et faiblesses de chacun des protagonistes. On retiendra, entre autres, que Google a toujours de l'avance sur la pertinence des réponses, même si Bing apporte quelques fonctionnalités intéressantes (display de la recherche d'images, par exemple). J'ajouterais que la gestion de l'appariement est assez raffinée chez Google, ceci contribuant sans doute à expliquer cela.

Un peu plus tardivement dans le mois, TechCrunch US titrait :

When It Comes To Search Trends, Google Is Lagging Behind Bing

On pouvait lire, un peu plus loin dans l'article :

On Google, you can create charts showing the popularity of keywords using Google Trends. On Bing, this feature is called xRank. For all but the most popular terms, Google Trends shows a lag of about three days, whereas xRank shows data that is up to date as of today.

Et Eric Shonfeld de souligner que This may not be a major feature, but it shows a weakness in Google’s armor : cela auguré par le co-auteur de TechCrunch-Us, ça valait le coup d'être quoté!

Toutes choses égales par ailleurs, Bing est plutôt bien accueilli, malgré des habitudes de recherche généralistes fortement liées à Google : Bing gagnait 8% de VU sur le mois de juin 2009, et Google le reconnaissait fin juillet comme l'alternative à la Google-search.

Septembre. Pour la rentrée, Cuil - dont on a parlé ici il y a plus d'un an maintenant et qui s'est modestement rebaptisé "the world's biggest search engine" - a étendu son indexation aux contenus d'actualité, comme l'annonçait ActuAbondance il y a quelques jours de cela. Yuba, - qui vole pour le moment en dessous des radars du web et dont on ne reparlera pas dans ce billet - refait parler de lui, avec une année de plus également. Ils avaient participé au concours TheSearchRace l'an dernier - remporté par iSeek pour la petite histoire -, et soufflent donc leur première bougie en 2009.

  • Mais qu'en dit Alexa?

Un petit tour sur Alexa devrait permettre de se donner un point de vue sur l'évolution de ces différents acteurs de la recherche en ligne. Voyons donc...

alexa-big_three-google_yahoo_bing_wolfram.PNG

A première vue, rien de trop nouveau sous le soleil : Google est toujours la référence, suivi de relativement près par Yahoo!. Quant à Bing, il a trouvé une place et s'y tient malgré tout.

alexa-wolfram_cuil.PNG

Cuil, stable sur les 6 derniers mois tout du moins, n'a pas pâti de l'arrivée de Wolfram Alpha. A noter tout de même que sur le mois d'août, leurs mouvements respectifs en termes de pagerank sont assez synchrones, ce qui conforte l'idée de non concurrence entre ces nouveaux moteurs.

Décidément, comme on avait commencé à le dire ici, Wolfram Alpha ne devrait pas être inclus dans le paradigme des "search engines", puisqu'il n'en est pas un : son positionnement est explicable par son statut de "computational engine". L'ami Q a d'ailleurs une bonne métaphore sur la question :

Wolfram Alpha est à Google et consorts ce qu'une équipe de rugby est à une équipe de football : des gens qui ne jouent pas du tout le même jeu et n'ont rien à faire sur le même terrain.

A noter qu'environ un an après l'acquisition de Powerset par Microsoft, la firme de Steve Ballmer initie un rapprochement entre Bing et Wolfram Alpha. Bing entrerait donc dans l'innovation par la porte du "natural language + computational search inside". Et Q de rajouter :

Mais qu'est-ce qu'une équipe de foot va bien pouvoir faire avec des rugbymen? L'avenir nous le dira, mais on peut d'ores et déjà prévoir des confrontations musclées...

Le point de vue de Q d'après les statistiques Alexa :

parts_google-yahoo-bing.PNG

La diversification des activités de Google et Yahoo! fait que ces statistiques ne peuvent être prises pour argent comptant. En effet, sur la totalité des visiteurs de Yahoo! et Google, une partie non négligeable ne visite pas le moteur de recherche en propre, mais bien le webmail. Or, les statistiques de Bing ne reflètent qu'une pure utilisation de recherche, la fréquentation du webmail de Microsoft -mail.live.com- étant bien séparée de la fréquentation de Bing -bing.com-.

On aurait donc Google qui sur 35% d'internautes en attire 65% (21,78% une fois les comptes effectués) sur la recherche, là où Yahoo, sur ses 26% du total des internautes, n'en voit qu'un petit 10,5% visiter son moteur de recherche (soit 2,72%). Et Bing devancerait donc Yahoo en affichant 3,3% des internautes, tous en recherche.

Si les stats d'Alexa sont un tant soit peu fiables, et si mon raisonnement n'est pas faussé par le jéroboam de palinka qu'on vient de descendre, Bing pourrait être déjà le numéro 2 de la recherche en ligne.


  • Et après...

... une tendance qui devrait s'intensifier. Le récent rapprochement de Yahoo! et Microsoft - fruit d'une négociation longue et riche en rebondissements - a suscité des interrogations chez certains, des réactions sur les perspectives de développement de cette union chez d'autres. L'avis de Fanck Watson chez SearcEnhineWatch.com :

What impact will it really have? OK, Microsoft's market share will be the combined number of the two companies. Add this to the slight rise Bing has received through the new branding and advertising, and Microsoft may be able to start grabbing a little more of the market from Google.

La très sérieuse étude comScore de juillet dernier, fait le tour de la question :

The analysis reveals that while the two companies’ combined search share still lags Google by a wide margin, their combined search audience offers opportunity to become more competitive in the search marketplace.

Si Bing et Yahoo! parviennent à mieux fidéliser leur audience - point fort à la faveur de Google -, ce dernier pourrait céder une plus grosse part de cake à la concurrence.

Merci à Q pour ses croustillants et pertinents insights sur la question!

lundi 17 août 2009

Mozbot/Twitter : un bon combo

Image_1.png Mozbot proposait déjà des possibilités fort sympathiques pour tout utilisateur de moteur de recherche en quête de fonctionnalités peu banales. On se souvient du Mozcloud, qui permettait par exemple de paramétrer la fréquence d'occurrence des formes à représenter dans le nuage de mots. Plusieurs fonctions avaient malheureusement été "purgées" à la demande de Google, tout récemment, en février 2009. On compte parmi ces pertes, précieuses m'est avis, de bien pratiques features :

  • la possibilité de blacklister un lien lors de recherches ultérieures,
  • le choix du domaine de recherche par défaut,
  • l'affichage des copies d'écran des sites,
  • la restitution d'informations connexes sur le site (statistiques d'Alexa),
  • les statistiques sur la fréquence de saisie d'une requête donnée.

Et encore, je fais l'impasse sur d'autres petites choses agréables, mais qui touchent davantage à la customization, comme le choix de la couleur de l'interface; sans parler non plus de fonctions largement répandues depuis que Mozbot a pointé son nez en 2006, typiquement la proposition de requêtes connexes ou encore la correction orthographique.

En bref, il était vraiment dommage de voir Mozbot déplumé de son beau ramage de fonctionnalités innovantes par le plumeur Google. C'est donc avec plaisir que j'ai ouï parler du nouveau temps d'avance de Mozbot : retourner des résultats provenant aussi de Twitter, dans le frame gauche de l'interface.

Image_2.png

Et de trépigner à la lecture des futures moutures annoncées par ActuAbondance sur le sujet :

les deux listes de résultats ont chacune leur utilité : les liens "organiques", issus de Google, proposent sur la gauche les résultats "de confiance", souvent issus de sites importants en dehors de l'actualité "chaude", alors que les résultats Twitter donnent, pour leur part, une vision du "buzz" autour du domaine demandé. Ainsi, par exemple, la requête "3 Suisses" proposera sur Google des liens "corporate", alors que Twitter fournira des infos sur le "Google bombing" subi actuellement par la société

Que nous réserve l'outil du consortium frenchie Abondance, Raynette et Brioude Internet ?

D'autres fonctionnalités suivront dans les semaines et mois qui viennent.

On n'en saura pas plus pour l'instant, mais c'est décidément une affaire à suivre!

- page 1 de 2