MyLinguistics - Marguerite Leenhardt's Web Log

Aller au contenu | Aller au menu | Aller à la recherche

jeudi 11 novembre 2010

Refine, la brique Google dans la mare de la gestion des grands ensembles de données

Google annonçait hier la sortie de Google Refine, 'a power tool for data wranglers'. Panorama des réactions dans les webtech rédactions.

Dans la sphère web FR, c'est Zorgloob qui a la primeur de l'info et présente les grandes lignes de l'outil dans un post frais de quelques heures. Dans la sphère web US, qui a reçu la news avec quelques heures d'avance, les retombées sont un peu plus nombreuses. Voyons voir...

Data is the new oil, data is the new soil

quelques mots d'un récent talk du data journalist David McCandless, rapportés par Chinmoy Kanjilal pour TechieBuzz.com, sur lesquels il s'appuie pour on ne peut mieux résumer l'objectif du dernier Google move :

Data is raw and unusable without proper management and handling. Google has stepped into this business with its service Google Refine 2.0.

Un business bien juteux et qui augure un changement de paradigme décisif dans les industries de l'information, comme le disait Martin Hayward dans une tribune pour Researchers en mars dernier, et dont je vous parlais dans un précédent billet :

we have to move from being an industry where value was derived from providing scarce information, to one where value is derived from connecting and interpreting the vast amounts of infomation available, to help clients make better business decisions faster

A noter que le post de Klint Finley pour ReadWriteWeb présente rapidement l'outil et insiste surtout sur son caractère opensource. Pour mémoire, un petit rappel historique sur la (re)naissance de Google Refine, que j'emprunte au dernier post de Jolie O'Dell pour Mashable sur le sujet :

Google Refine is a project born of Freebase Gridworks, a data-cleaning tool Google acquired when it bought Metaweb over the summer. Google has since renamed Gridworks and relaunched it as Refine.

Google Refine builds on its Gridworks roots by helping its users correct inconsistencies, changing data formats, extending data sets with data from web sources and other databases and much more.

ajoute-t-elle pour rappeler les principaux avantages de l'outil. Avantages que Chinmoy Kanjilal met en perspective :

Google Refine 2.0 will serve an excellent back-end for data visualization services. It has been well received by the Chicago Tribune and open-government data communities. Along with Google Squared, Refine 2.0 can create a powerful research tool.

C'est bien vrai : en tirant profit de cette nouvelle brique basée sur la faceted search, qui gère les regular expressions et la structuration à la volée de données extraites de pages web et incluant un Twitter Tracker en gestation, entre autres possibilités, Google frappe fort sur le text-mining grand public. Une belle opportunité pour évangéliser les analystes et chargés d'étude et les exhorter à rénover leurs traditions méthodologiques !

Text-mining only ? Of course not ! On trouve aussi des features pour le Screencast Transcript pour la prise en charge des Textual transcripts for the speech over the screencasts. Moutain View est déjà dans le multimodal search !

Ah ! J'oubliais ! Des vidéos de démo de l'outil sont disponibles ici, ici et :)

mardi 2 novembre 2010

Blekko : aimables échos ?

Début novembre, après avoir frissonné d'Halloween, une partie de la sphère web FR et US s'émeut à la sortie de Blekko. Passons sur le principe du slashtag c'est vrai qu'on manquait d'un useless buzzword de plus qui est, m'est avis, la partie la moins intéressante de l'outil.

Blekko HomepageBlekko, c'est le fruit d'un projet débuté en 2007 et porté par une levée de fonds de 24 millions de dollars US. Si on le présente le pauvre comme un n-ième outsider dans la "who's the next G-killer race", il est fort probable que les termes de la question ne soient pas optimalement posés par le marronnier des tech journals online, comme ç'avait déjà été le cas pour Wolfram Alpha. Passons, c'est un point de détail dans la tendance à laquelle on assiste.

Bon, premier modulo : la sphère web FR ne s'émule pas vraiment sur le sujet. La news est diffusée dans les rubriques Tech ici et là, mais les internautes ne sont pas impliqués au point de laisser un avis, tout du moins sur LeMonde.fr, France24.com et ActuAbondance.com.

Bon, second modulo : comparer n'importe quel search engine à Google c'est facile pour la rhétorique, mais c'est un point de détail qui suscite des réactions pas toujours aimables chez les webbeurs qui se creusent sur la question :

Why have slashtags when you can perform such an advanced search on Google? There are startups that want to become big companies, and there are startups that want to be bought out by the likes of Google. Blekko is squarely in the latter: they want to excite a certain user base to create smart lists, and then sell their lists and users to Google.

ou encore :

Remember: Google News uses its own factors for rankings, while Bing appears to use sophisticated criteria for its cool recipes results. Users need to remember that Blekko slashtags like "news" and "techblogs" won't necessarily return the kind of recent, relevant results you'd expect when you search them. Instead, it returns the highest ranking results from a certain bucket of sites.

peut-on par exemple lire sur le site de Ryan Beale , là où les commentaires ont une tonalité représentative de l'accueil fait à Blekko, malgré l'avis plutôt positif de l'auteur. Un autre internaute, commentant la news de BusinessInsider sur le sujet, ajoute très justement :

The problem with "transparency" in a search engine is that it invites manipulation.

Un rapport avec la tendance dont je parle plus haut ? Précisément, je vous disais qu'il y avait une scission dans les stratégies d'accès pertinent à l'information :

Le recours à l'humain pour garantir la qualité des informations, les structurer, les enrichir et ainsi en faire des connaissances : voilà le sillon dans lequel s'inscrit Blekko, comme Yahoo! l'a fait en 2005, comme Google l'a mis en place un temps pour optimiser les performances de Google Translate, comme l'industrie de la veille web et des études web quali est en train d'en prendre conscience. Mais si, mais si, tout arrive !

samedi 30 octobre 2010

Caution : NLP age incoming

Les faits

Conversation about content is king, nous disait en avril la dernière étude Pew Internet.

Premier constat : cela change la donne des stratégies pour sortir vainqueur de la guerre de l'attention et impacter sa cible ; autrement dit :

Information overload is here, which means anyone with an interest in making sure their news reaches people has to pay close attention to how news now flows and to the production and usage of better filters.

L'autre volet de la question est mis en avant par Martin Hayward dans une tribune pour Researchers du mois de mars dernier :

the real stars will be those who can make sense of, and draw insight from, vast amounts of data quickly and reliably

constate-t-il, avant de conclure :

we have to move from being an industry where value was derived from providing scarce information, to one where value is derived from connecting and interpreting the vast amounts of infomation available, to help clients make better business decisions faster

L'analyse des contenus en ligne : vers une rénovation des expertises

Quel impact pour les acteurs du marché de la veille et des études quanti/quali online ? En premier lieu, la nécessité de rénover profondément l'expertise de leurs équipes : la qualité d'analyse dépend de la qualité du veilleur. Un veilleur mal formé ou n'ayant pas les compétences adéquates pour l'analyse qualitative des données web représente une perte de valeur ajoutée.

D'un autre côté, les solutions d'analyse "clé en main" que certains éditeurs proposent aux agences de veille et d'étude - pour l'analyse des parcours d'information, des opinions, etc... - ne feront illusion qu'un temps : une analyse qualitative tire toujours sa valeur ajoutée de l'analyste, in fine.

Mais si ! Et ce n'est même pas moi qui le dit, c'est l'amie Christelle Ayache, Spécialiste TAL chez CapDigital, qui argumente en ma faveur dans un article de Cyrille Chausson pour LeMagIT, tout frais du 29 octobre :

La validation humaine sera toujours nécessaire. C’est même ce qu’on doit aujourd’hui faire comprendre au grand public.

A la bonne heure ! L'expertise humaine au coeur de la recherche pertinente, propos d'un précédent billet, prend une nouvelle dimension : celle d'une invitation à la pluridisciplinarité méthodologique et technique chez les acteurs du secteur. Qui se fera certainement par l'intégration dans les équipes de profils initiés aux outils et méthodes du NLP. Non ! pas le Neuro Linguistic Programming, le Natural Language Processing ! Oui, l'autre nom du TAL en anglais :)

lundi 11 octobre 2010

Goggles jette le flou

Après sa sortie sur l'Apple AppStore cette semaine, Goggles est prétexte à l'expression de l'incompréhension de certains Google Fanboys sur la stratégie web mobile de ce dernier face à la pomme. Allons voir.

I don't get Google at all sometimes. Some of their apps like Google Maps and Google Goggles are actually better on the iPhone than on Android. If I were google, I would have purposely made the iPhone version slightly worse, which would make Android more appealing to current iPhone users.

Ce commentaire d'un internaute sur le post d'Engadget du 5 octobre dernier est un bon résumé de la réaction de certains à la parution de la news : Google Goggles reaches the App Store, only supported on iPhone 3GS and iPhone 4. Eh oui, parce que Goggles, dont on avait parlé en février dernier pour aborder des features de Traduction Automatique en prototypage, est une application vraiment très sympa.

Pourquoi Google irait-il donc donner ses perles aux suidés et qu'a-t-il donc fait de son bon sens concurrentiel ? Une part de la réponse est certainement dans ce commentaire, d'un autre lecteur d'Engadget

Google simply doesn't care. Google Goggles would ultimately send the users to Google's sites, which is the motive behind since the beginning. Remember, Android is free also. Frankly, I found it silly for a company to believe in such uncertain way of making profit, but hey, Google said it's already making a profit from Android, so who knows.

Sûr qu'avec les premiers retours sur le potentiel d'Android - sur lequel Jorodan de FrAndroid.com fait un point clair dans un billet d'août dernier en insistant sur le nerf de la guerre : Les utilisateurs Android sont plus rentables - la prairie de la pomme est un peu moins verte.

Le tout avec les compliments de NewsWeek, dont l'une des bonnes formules rend bien compte du petit changement de paradigme :

Apple’s momentum has stalled.

Hormis le fait que les équipes de com web globale qui n'ont pas encore l'Android sur le bout de la langue sont en retard, on peut continuer à se demander si la réponse d'Apple n'est pas dans son intérêt à ne pas éclater son identité et cela avant tout, pour faire contrepied au foisonnement des secteurs d'activité chez Google. Sans compter qu'un moteur custom Apple trouverait son public, une idée que je traîne depuis quelques temps et qui ne veut pas partir.

dimanche 19 septembre 2010

R.I.P Cuil

Search engine qui avait retenu l'attention dès sa sortie en 2008, parce qu'il mettait en avant ses fonctionnalités de content search, Cuil.com nous a quittés aujourd'hui.

Avec une communication complètement hyperbolique sur l'étendue de son index - dont la rumeur disait qu'il outrepassait celui du moteur de Mountain View -, ce bien joli projet avait d'emblée été présenté comme un Google killer de plus et ainsi fait parler de lui en 2nd quarter 2008. Fondé par des anciens Googlers, il avait aussi participé à la SearchRace relayée par AltSearchEngine.

En septembre dernier, un petit comparatif maison entre quelques moteurs de recherche laissait déjà voir un webservice en perte de vitesse par rapport à Wolfram, sorti en mai 2009. Les utilisateurs n'ont pas accroché, manifestement. Et pourtant, l'appareil de communication était là : même le Technology Blog du Guardian en avait parlé, un pourtant bien joli médium mainstream pour attirer le webber lambda.

On lui reprochait tantôt des faiblesses sur le plan ingénierie - résistance à la montée en charge pas toujours optimale -, tantôt sur la pertinence - sans doute la qualité du moteur de classification automatique n'était-elle pas au rendez-vous.

En ce moment, nombre de Twitterrers lui font leurs condoléances.

jeudi 27 mai 2010

Des nouvelles de Wolfram

Wolfram, notre ami le moteur computationnel dont on a déjà eu l'occasion de parler sur ce petit carnet web - ici, ici et notamment - a refait pulser certaines régions du web en premier Quarter 2010. Par quoi cette émulation fut-elle générée ? Par un prix, pardi !

Incipit. Wolfram participe au South by Southwest (SXSW, Inc.), un événement culturel global (cinéma, musique, technologies digitales) actif depuis 1987, au Texas (USA). Sélectionnée pour figurer parmi les finalistes le 12 février, c'est l'annonce des lauréats des SXSW web awards 2010 le 14 mars qui coiffe la famille d'outils Wolfram de succès.

La brève AFP qui en découle est relayée par Le Figaro le 15 mars 2010. Un billet de Motrech sur le prix SXSW remporté par Wolfram Alpha, en parle également dès le 18 mars.

Ce retour sur le devant de la scène est fort bénéfique à Wolfram, qui fait l'objet d'une excellente présentation, parue le 26 mai, dans la Tribune de Genève :

une pléiade de sites Web, parmi lesquels un compendium de connaissances mathématiques (Wolfram Math World, mathworld.wolfram.com), un répertoire de visualisations interactives (Demonstrations Project, demonstrations.wolfram.com) et le moteur «computationnel» Wolfram Alpha (lire ci-dessus). Plus léger et amusant, Wolfram Tones (tones.wolfram.com) permet de composer sa propre musique à partir de modèles sonores et de formules mathématiques. Bluffant!

Ce qui est sûr, c'est que le moteur a bénéficié d'une nette amélioration des résultats : la base de données computables s'est considérablement étendue.

Seule petite ombre : Wolfram a d'emblée pâti de verrous en Traitement Automatique des Langues, ce que nous expliquait Tom Krazit de chez CNET News en août 2009, dans un billet republié sur la version US de ZDNet où il rapportait les propos de Stephen Wolfram :

linguistic problems are to blame for half of the occasions when Wolfram Alpha does not return a result. That percentage is changing as Wolfram refines the science behind Wolfram Alpha, but it will take some time.

Voyons-voir, avec un petit test simple. La base en Traitement Automatique des Langues, c'est avant tout de travailler avec des unités textuelles "propres", i.e. bien isolées et pour lesquelles on a observé une grande quantité de phénomènes d'occurrence afin d'identifier des problèmes d'ambiguïté, de silence (ce qui est pertinent et que l'on n'arrive pas à capter) et de bruit (ce que l'on capte et qui n'est pas pertinent) potentiels.

Voyons donc :

Etape 1 : WolframAlpha_test_1.png

Constat 1 > Le moteur ne sait pas comment interpréter.

Etape 2 : WolframAlpha_test_2.png

Constat 2 > Le moteur interprète et retourne une réponse. Il m'explique ce qu'est un astérisque.

Etape 3 : WolframAlpha_test_3.png

Constat 3 > Le moteur interprète et retourne une réponse. Il m'explique à nouveau ce qu'est un astérisque.

Qu'en dire ? Le blanc (espace entre deux caractères alphanumériques) n'est pas un critère distinctif pour le moteur, il retourne donc la même réponse pour la séquence "a*" et "a *". On suppute dans l'oreillette que la segmentation du texte saisi par l'utilisateur ne fait probablement pas trop cas de ce qui se trouve à gauche ou à droite pour y isoler des unités.

Oui, je l'avoue, si la réponse du Test 3 me paraît pertinente et riche en informations sur le caractère qu'est l'astérisque, j'espérais secrètement que Wolfram mette en rapport la recherche du Test 2 avec l'écriture conventionnelle de l'étoile de Kleene, souvent notée V*. En regexp, c'est proche (recherche d'un caractère alphabétique en casse majeure ou mineure suivi d'une astérisque).

Par contre, regardez : Wolfram_whatisalinguist.png

Et oui, Wolfram est un moteur bien cultivé :) Les ressources encyclopédiques du système sont en constante expansion, et même si des remarques plus consistantes sont possibles - sur la segmentation par exemple - je pense que ces points sont en cours de résolution et que Wolfram Alpha est véritablement à la hauteur des retours positifs suite au SXSW.

A voir pour en savoir plus sur l'ensemble des initiatives Wolfram :

  • http://www.wolfram.com/solutions/france/
  • http://blog.wolframalpha.com/
  • http://www.wolframalpha.com/
  • http://www.wolfram.com/

samedi 3 avril 2010

Quelles perspectives pour les systèmes de Q/A ?

Les systèmes de Questions/Answers - Q/A pour les intimes - ne sont pas nés de la dernière pluie, et arrosent le grand public depuis plusieurs décennies déjà. Véritables moteurs de recherche évolués, ce sont des solutions clairement adaptées aux problématiques de Data Journalism et sans doute à certaines attentes des utilisateurs de Search Engines grand public. Tentative de panorama.

Les mythes véhiculés par les médias audiovisuels prenant comme sujet la machine détentrice de connaissance absolue ne se comptent plus : le paradigme s'étend de 3PO dans Star Wars à Ziggy dans Code Quantum. Une bonne part de ces mythes sont matérialisés par les systèmes de Q/A - ou Q/R pour "Questions/Réponses" en français dans le texte. N'étant pas spécialiste de mythocritique, je vous propose quelques pistes pour vous faire une idée de ce qu'est un système de Q/A.

Q/A, c'est quoi ? Très simplement, un système de Q/A est un moteur de recherche, en ce qu'on adresse une question (une requête) au système et qu'on en attend un ou plusieurs résultats pertinents quant à une requête donnée. Comme un moteur de recherche, un système de Q/A fait appel à des fonctionnalités de recherche documentaire - pour fouiller un ensemble de documents - et inclut des calculs de pertinence - pour retourner à l'utilisateur des documents susceptibles de contenir la/les réponse(s) adéquate(s).

Pourquoi donc parler de "moteur de recherche évolué" ? Parce qu'à la différence d'un moteur de recherche traditionnel, un système de Q/A intègre des modules de traitement linguistique un peu plus complexes : d'une part, il doit traiter des questions, et non des séries de mots-clés; d'autre part, il doit retourner soit une réponse (ou une série de réponses) pertinente, soit un passage textuel (ou une série de passages) comportant la réponse à la question. Par exemple, imaginons le scénario suivant, dans le cadre d'un système de Q/A basé sur Wikipédia en français :
Question :

Quand Jacques Chirac est-il né ?

Réponse (basée sur la page Wikipédia en français dédiée à Jacques Chirac) :

Jacques Chirac est né le 29 novembre 1932

On imagine bien la complexité des traitements impliqués, étant donnée la variété des formulations possibles pour une même question, la sélection de sources documentaires fiables, sans même parler de points plus spécifiques (traitement des Entités Nommées, typage des questions,...), sans même se placer dans un contexte multilingue. Bref, la conception de tels système est bien loin d'être une mince affaire!

Et aujourd'hui, quels exemples concrets ? Reprenons un peu l'actualité de quelques acquisitions, par exemple, des firmes de Redmond et de Mountain View :

Qu'en dire ? Au moins que les systèmes de Q/A intégralement automatiques ne sont pas viables dans un contexte de "real life", et ne sont qu'encore partiellement efficaces sur des bases documentaires fermées et thématiquement homogènes (i.e. des ensembles de documents liés au même domaine, par exemple le domaine médical). Les algorithmes implémentés pour cibler des besoins grand public sont donc plutôt conçus pour router les questions vers des humains qui ont le plus de probabilités de pouvoir répondre correctement.

Les intiatives à la Orange ou certaines tentatives de Google (non, je ne bondirai pas une énième fois sur l'emploi plus ou moins impropre de la lexie "sémantique"), illustrent parfaitement l'avenir des systèmes de Q/A : restituer de l'information encyclopédique. Dommage, moi aussi j'aurais aimé continuer à nourrir le fantasme d'avoir un jour un 3PO ou un Ziggy ;)

dimanche 21 février 2010

Goggles : un oeil neuf sur la Traduction Automatique

Goggles, le bien nommé, c'est le type d'application qui représente le mieux ce que Google peut avoir d'idées innovantes pour mettre au point un applicatif qui change (positivement) l'expérience utilisateur sur les terminaux mobiles. M'est avis, bien entendu.

L'Official Google Translate Blog dévoilait, le 17 février dernier, le prototype de Goggles. Le principe ? (1) On prend une portion de texte en photo (2) l'application transmet la photo à un module d'OCR (3) le résultat de l'OCRisation est transmise à un module de traduction automatique (TA), (4) qui renvoie le texte traduit à l'utilisateur final. Une façon judicieuse de mettre au point un procédé en phase avec les besoins utilisateur, en s'appuyant sur des technologies robustes telles que l'OCR. L'application s'appuie, bien entendu, sur Google Translate pour la TA. Le prototype présenté est fonctionnel de l'Allemand vers l'Anglais.

Loin de centrer le propos sur la TA - l'Allemand et l'Anglais, couple de langues entre lesquelles les proximités linguistiques sont fortes, me semble un choix logique pour valider un processus expérimental -, c'est plutôt le caractère innovant, au sens d'innovation dans l'expérience utilisateur, de Goggles qui retient l'attention.

Un procédé efficace, qui concrétise un peu plus l'ouverture au grand public des technologies de TAL : à quand la suite ? En attendant, vous pouvez voir la présentation du prototype de Goggles par Hartmut Neven, Google Scientist , pour concrétiser votre idée sur tout ça :


La démo de Goggles, par Hartmut Neven, Google Scientist

mercredi 17 février 2010

Bing Maps : un coup de maître en préparation

Ce n'est pas à une vieille guenon qu'on apprend à faire la grimace... ou comment Microsoft Bing prend des allures de kishi face à Google Search.

L'upgrade de Bing Maps, annoncée le 10 novembre 2009 sur le blog de Bing avait été fort bien reçue. On note en particulier Frogz, GénérationNT, le JdG, pour les échos francophones, en décembre dernier. TechCrunch US en parlait dès novembre, Mashable US n'était pas en reste et a notamment fourni de très bons insights, en particulier sur les features de synchronisation avec la géolocalisation de tweets.

Je découvre fort tardivement, non sans délices - merci à l'ami A.G. d'avoir comblé ma part d'inculture - les nouveautés annoncées pour la mouture de Bing Maps à venir. Une exclamation d'agréable surprise m'a échappé en découvrant cette boîte de Pandore, de mon petit point de vue de novice en fonctionnalités de recherche géographique. La découverte a commencé chez MacGeneration - A.G. est un pure Apple fanboy ;) - et très vite, les onglets de navigation ont poppé. Ici, , , et , entre autres liens plus ou moins bien heureusement arrangés dans ce billet.

Un nouvel algorithme intégrant des données sur la géométrie des immeubles pour un rendu plus réaliste, les bénéfices de SilverLight pour le rendu vectoriel, avec, cherry on top, la fameuse synchronisation avec l'API de géolocalisation Twitter. Voyez donc :

Les tweets géolocalisés sur Bing Maps (piqué chez Mashable) Une très belle illustration, piquée de l'un des très bons billets de Ben Parr chez Mashable

Enfin, ne renoncez pas à ce plaisir des mirettes qu'est ce talk de Blaise Aguera y Arcas (Microsoft Labs) :


La démo de Blaise Aguera y Arcas pendant son talk au dernier TED.

Autant dire qu'après avoir vu ça, on a juste envie de donner un pot de co-enzyme Q10 à Google Street View, ce que formule délicieusement Ben Parr chez Mashable:

Clearly Bing wants to make Google Maps (Google Maps) seem prehistoric with its Silverlight-based interface. And from what we’ve seen in today’s demo at Bing’s San Francisco headquarters, it’s incredibly impressive.

Sans doute la firme de Mountain View prépare-t-elle une mise à jour de Street View, sans fesses à l'air et qui lui fera un meilleur Buzz ;)

A voir pour tout savoir sur les technos Microsoft et .NET, le blog d'un ami vrai spécialiste du sujet : BlogMyMind. Avis aux éclairés qui veulent suivre l'actu des frameworks Microsoft, avec liens à l'appui, sur SilverLight 3 ou Visual Studio, par exemple. De la bonne lecture pour dév, tout ça!

samedi 13 février 2010

Emulations et Google killing II

Le keynote 2010 de Steve Jobs inaugure un climax qui tiendra en haleine les webbeurs pour les semaines et mois à venir. Apple diversifie son offre avec sa tablette, mais ce que tient Steve Jobs en main n'est peut-être rien de plus qu'un arbre qui cache la forêt. Allons donc nous promener dans les bois, là où s'augure une guerre de territoires bien plus globale qu'il n'y paraît. Cela va ressembler à une partie de Risk en live et en 3D...

Un des grands maux de la Pomme ? Ne pas souffrir de se faire croquer un autre morceau par l'arrivée du Google Phone. Car c'est bien là le grand malheur de ce beau fruit : alors que la concurrence s'intensifie sur le marché des terminaux dédiés au web mobile, Apple offre encore au moteur de recherche de Mountain View une superbe fenêtre d'exposition. Les iPhoners passent, entre autres, par Google Search pour explorer le web, tandis que Google structure une flotte de terminaux mobiles à sa couleur, qui confine les utilisateurs dans GoogleLand! Déloyale concurrence, n'est-il pas ?

Et pourtant, Steve Jobs pourrait rendre la monnaie de leur pièce à Larry Page et Sergey Brin.

Réfléchissons-y un instant. Tout d'abord, les fonctionnalités de recherche de contenus sous Mac OS X sont extrêmement robustes. La solution d'indexation et de recherche de ce système d'exploitation permet déjà d'outrepasser des verrous, tels que le passage de la recherche plein-texte à la recherche de contenus multimédia. Ensuite, la popularité croissante d'Apple, qui entraîne de plus en plus le grand public, assure à la Pomme une très forte pénétration du marché. Troisième point, la fidélisation d'au moins 75 millions d'utilisateurs emportés par Mac OS X si Wikipédia ne ment pas via les différents terminaux (iPhone, iPodTouch, postes fixes, et maintenant l'iPad) offre un pool de cibles qualifiées plutôt très étendu. Enfin, les applications iPhone, notamment, constituent une entrée privilégiée sur les données utilisateurs, donc sur l'étude et l'évolution des moeurs sociodigitales.

Après cet instant de réflexion, on distingue un peu mieux ce qui se trame dans la forêt, n'est-il pas ? Un Apple Search, pardi! L'idée n'est pas si farfelue, et le temps infirmera (ou pas) si la Pomme entre dans la guerre des Search Engines. Ce me semble en tous cas une perspective logique, dont le nez fin de Steve Jobs n'a pu manquer les effluves.

- page 2 de 12 -