OWNI
http://owni.fr
News, AugmentedTue, 17 Sep 2013 12:04:49 +0000http://wordpress.org/?v=2.9.2frhourly1Recherche sérendipité désespérement [3/3]
http://owni.fr/2011/08/15/recherche-serendipite-desesperement-urbanisme/
http://owni.fr/2011/08/15/recherche-serendipite-desesperement-urbanisme/#commentsMon, 15 Aug 2011 08:35:28 +0000Ethan Zuckermanhttp://owni.fr/?p=76265Suite et fin de l’article d’Ethan Zuckerman autour du concept de sérendipité, qui peut être définie comme la capacité à découvrir des choses par hasard. Après s’être attardé dans la première partie sur les liens entre urbanité et sérendipité, et avoir analysé dans la seconde partie la manière dont nous cherchons l’information en ligne, l’auteur explore ici les diverses façons de découvrir une ville en valorisant la sérendipité et s’interroge sur comment s’en inspirer sur le Web.
Les liens de cet article sont en anglais.
L’urbanisme au service de la sérendipité
Si nous voulons créer des espaces en ligne qui encouragent la sérendipité, nous devons commencer par nous inspirer des villes. Au début des années 1960, une bataille virulente a éclaté au sujet du futur de New York City. À l’origine le débat s’est concentré sur le Lower Manhattan Expressway, un projet d’autoroute suspendue à dix voies qui aurait connecté le Holland Tunnel aux ponts de Manhattan et de Williamsburg . Les plans de l’autoroute prévoyaient la démolition de 14 blocks le long de Broome Street dans Little Italy et Soho, délogeant à peu près 2 000 familles et 800 commerces.
Le principal avocat du projet était Robert Moses, urbaniste à l’influence légendaire à l’origine d’une grande partie du système autoroutier new-yorkais. En face, son adversaire la plus virulente Jane Jacobs était une activiste, auteure et, en 1962, la présidente du « Joint Committee to Stop the Lower Manhattan Expressway » . Broome Street doit sa survie à Jacobs. Mais de son travail contre Moses est aussi né un chef-d’oeuvre : The Death and Life of Great American Cities , à la fois une critique de la planification urbaine rationaliste et un manifeste pour la préservation et la conception de communautés urbaines vivantes.
Dans ses critiques de la planification urbaine, Jacobs se demande pour qui, des gens ou des automobiles, la ville doit être conçue. Elle pointe du doigt l’indifférence de Moses envers les individus qu’il souhaitait déplacer. Un cadre d’analyse moins biaisé serait de considérer que Moses avait adopté un point de vue global et aérien de la planification urbaine, alors que celui de Jacobs se plaçait au niveau des piétons et de la rue. Pour Moses, l’un des défis importants de la ville est de permettre aux habitants de se déplacer rapidement de leur domicile de banlieue jusqu’au quartier d’affaires du centre ville, puis de nouveau vers l’extérieur et le « collier » de parcs qu’il avait laborieusement fait construire dans les quartiers excentrés.
Le principe de la séparation des tâches – avec des quartiers résidentiels séparés des quartiers d’affaires, eux-mêmes séparés des zones de loisirs – était un élément majeur de la critique de Jacobs. Ce sont les rencontres hasardeuses que l’on fait dans la rue, et qu’a observées Jacobs à Greenwich Village, qui rendent une ville vivable, créative, vivante et finalement sûre. Dans les quartiers aux blocks peu étendus, où les piétons sont les bienvenus et où l’on trouve un mélange d’éléments résidentiels, commerciaux ou récréatifs, on retrouve une vitalité largement absente des quartiers exclusivement résidentiels ou des centres d’affaires qui se vident une fois les bureaux fermés. Cette vitalité vient de la possibilité pour des individus utilisant le quartier pour différentes raisons de se rencontrer par hasard.
La vision de Jacobs de ce qu’est une ville vivable a été très influente sur l’urbanisme depuis le début des années 1980, avec la montée du « New Urbanism » et le mouvement des villes pensées pour les piétons. Ces villes – et Vancouver où se déroule notre conférence en est un très bon exemple – ont tendance à favoriser les transports en commun plutôt que les voitures et créent des espaces qui encouragent les gens à se mélanger et à interagir, dans des quartiers multi-usages et des rues commerçantes adaptées aux piétons. Comme l’explique l’urbaniste David Walters, ces villes sont étudiées pour faciliter les rencontres et les mélanges entre les individus :
Les rencontres fortuites dans les espaces partagés sont le cœur de la vie en communauté, et si les espaces urbains sont mal conçus, les gens les traverseront aussi vite que possible.
S’il y a bien un principe général dans la conception des rues, c’est d’organiser l’espace pour minimiser l’isolation. Les villes pensées pour les piétons font qu’il est plus difficile de s’isoler dans sa maison ou dans sa voiture, et plus facile d’interagir dans les espaces publics. Ce procédé demande de faire un compromis – pouvoir garer sa voiture devant chez soi est pratique, mais les villes pensées pour les piétons nous recommandent d’être méfiants devant trop de commodité. Les quartiers célébrés par Jacobs ne sont certainement pas les plus efficaces lorsqu’il s’agit de se déplacer rapidement et de manière autonome. La vitalité et l’efficacité ne sont peut-être pas diamétralement opposées mais des tensions peuvent apparaître entre ces deux forces.
Les décisions politiques derrière les réseaux sociaux
Les villes incarnent les décisions politiques prises par ceux qui les ont conçues. C’est aussi le cas des espaces en ligne. Mais les urbanistes ont tendance à afficher leurs intentions avec plus de transparence. Ils déclareront leur volonté de créer une ville pensée pour les piétons parce qu’ils estiment qu’une utilisation accrue de l’espace public améliore le civisme.
Et, dans le meilleur des cas, les urbanistes font des essais pour voir ce qui fonctionne et font part des échecs quand ils surviennent – par exemple, l’utilisation obstinée de la voiture dans des villes qui ont été pensées pour les piétons. Il est bien plus difficile de demander aux architectes à l’origine de Facebook ou Foursquare d’expliquer les attitudes qu’ils essaient de favoriser et les croyances politiques qui sous-tendent leurs décisions.
Je pense que beaucoup de ceux qui conçoivent des espaces en ligne essaient d’augmenter l’exposition à plusieurs niveaux d’informations et de cultiver la sérendipité. Mais je m’inquiète aussi de la difficulté à accomplir cela. Un urbaniste qui veut modifier une structure est contraint par une matrice de forces : un désir de préserver l’histoire, les besoins et les intérêts des commerces et des résidents des communautés existantes, les coûts associés à l’exécution de nouveaux projets. Le progrès est lent, et en résulte une riche histoire des villes que nous pouvons étudier pour voir comment les citoyens, les architectes et les urbanistes précédents ont résolu certains problèmes.
Nous pouvons imaginer le futur de Lagos en parcourant les rues de Boston ou de Rome.
Pour ceux qui planifient le futur de Facebook, il est difficile d’étudier ce qui a été un succès ou un échec pour MySpace, en partie parce que l’exode de ses utilisateurs vers Facebook transforme peu à peu le site en ville fantôme. Il est encore plus compliqué d’étudier des communautés plus anciennes comme LambdaMOO ou Usenet, qui date du début des années 1980. Je suis souvent nostalgique de Tripod, le réseau social que j’avais aidé à construire à la fin des années 1990.
L’admirable site Internet Archive comprend plusieurs douzaines de clichés des pages du site entre les années 1997 et 2000. Ils offrent un aperçu de l’évolution de l’allure du site, mais ne donnent pas d’idée du contenu créé par les 18 millions d’utilisateurs en 1998. Geocities, concurrent plus à succès de Tripod, a entièrement disparu du Web en 2010 – son héritage représente moins de 23 000 pages conservées et accessibles par la Wayback Machine, qui a finalement abandonné l’archivage en 2001 face à l’ampleur de la tâche.
Si l’on s’inspire des vraies villes plutôt que des villes numériques abandonnées, quelles leçons apprend-on ?
Le débat entre Jacobs et Moses nous suggère de faire attention aux architectures qui favorisent l’aspect pratique au dépend de la sérendipité. C’est l’inquiétude exprimée par Eli Pariser dans son – excellent – nouveau livre « The Filter Bubble ». Il s’inquiète pour notre expérience en ligne : entre la recherche personnalisée de Google et l’algorithme de Facebook qui détermine quelles informations de nos amis afficher, elle pourrait devienne de plus en plus isolée, empêchant les rencontres liées à la sérendipité. Les bulles de filtrage sont confortables, rassurantes et pratiques, elles nous donnent une marge de contrôle et nous isolent de la surprise. Ce sont des voitures, plutôt que des transports en commun ou des trottoirs animés.
De nouveaux filtres qui empêchent la sérendipité
Avec l’apparition des boutons « like/j’aime » de Facebook sur des sites tout autour du Web, nous commençons à voir une personnalisation apparaître même sur des sites très généraux comme le New York Times. J’ai toujours accès à tous les articles que je souhaite, mais je peux aussi voir quels articles mes amis ont aimé. Il n’est pas difficile d’imaginer un futur où les « like/j’aime » occuperont encore plus d’espaces d’information. Dans un futur proche je pense pouvoir obtenir un carte de Vancouver sur le Web et y voir apparaître les restaurants préférés de mes amis. (Je peux déjà utiliser Dopplr mais je m’attends à bientôt voir apparaître cette fonctionnalité sur Mapquest, voir même sur Google Maps.)
Ce scénario peut être aussi bien inquiétant qu’excitant. Ce qui fait la différence ici c’est de voir seulement les préférences de ses amis ou aussi celles des autres communautés. Comme le dit Eli, les filtres qui doivent vraiment nous inquiéter sont ceux qui sont obscurs sur leurs opérations et qui s’activent par défaut. Une carte de Vancouver recouverte des recommandations de mes amis est une chose ; une carte qui recommande des restaurants parce qu’ils ont payé pour avoir accès à cette publicité en est une autre complètement différente. La carte que je veux voir est celle qui me laisse parcourir non seulement les préférences de mes amis mais aussi les annotations de différents groupes : des visiteurs qui découvrent la ville, des natifs de Vancouver, des foodies, ou des touristes japonais, chinois ou coréens.
Lorsque nous parcourons une ville, nous rencontrons des milliers de signaux sur la façon dont les autres personnes utilisent l’espace. La foule qui attend de rentrer dans un bar et les tabourets vides dans un autre ; une aire de jeu avec terrain de basket très vivant, une autre remplie de mères avec des enfants en bas âge, une dernière remarquable pour ses bancs désertés. Les actions des individus inscrivent leurs intentions dans la ville. Le gazon récemment planté dans un parc sera bientôt parcouru de chemins, dessinés jusqu’à la terre par les pas des passants. Ces « lignes désirées » sont frustrantes pour les paysagistes, mais elles envoient des signaux précieux aux urbanistes. À savoir : d’où les gens viennent, vers où ils se dirigent et comment ils souhaitent utiliser l’espace.
Les espaces en ligne sont souvent si soucieux de me montrer comment mes amis occupent l’espace qu’ils masquent la façon dont les autres audiences l’utilisent. Dans les moments précédant les révolutions tunisiennes et égyptiennes, une quantité importante d’informations a été diffusée sur Facebook. Si vous n’aviez pas d’amis dans ces pays, et spécifiquement dans ces mouvements, ces activités vous étaient complètement inconnues. Il est possible de voir les sujets populaires sur Facebook pour une audience plus large que vos seuls amis. Le sommaire des « Pages » montre les stars, les groupes et les marques qui ont des centaines de milliers, voire des millions, de fans. Le parcourir offre un tour d’horizon assez fascinant des pages populaires aux Philippines, en Colombie, au Nigeria ou aux Etats-Unis et au Canada.
Facebook a donc des données sur ces « lignes désirées » mais il les enterre dans le site au lieu de les mettre en avant. Les « Trending Topics » de Twitter rendent ces « lignes désirées » visibles. Nous ne savons peut-être pas ce qu’est « Cala Boca Galvao » quand cela apparaît dans les « trending topics », ou nous ne nous intéressons pas au tag #welovebieber, mais nous avons au moins des indications sur les sujets importants pour ceux qui ne sont pas dans notre liste d’amis. Lorsque nous cliquons sur un tag inconnu sur Twitter ou lorsque nous explorons les annotations de quelqu’un sur une carte, nous choisissons de nous éloigner de notre chemin habituel.
Trouver un guide à ses errances
Les villes offrent plusieurs façons d’errer et permettent une position philosophique : celle du flâneur qui chérit l’errance et les possibilités qu’elle lui donne de rencontrer la ville. Je pense que deux formes d’errances structurées pourraient être très utiles pour errer dans les espaces en ligne.
Il y a quelques semaines, j’ai retrouvé un vieil ami pour un déjeuner à New York. Durant les 20 années qui se sont écoulées depuis notre dernière rencontre il est devenu une figure de premier plan du parti communiste américain (une organisation que je pensais disparue depuis la fin des années 1960). Alors que nous marchions du restaurant jusqu’à son bureau, en passant face au légendaire Chelsea Hotel, il a attiré mon attention sur des immeubles d’apparence ordinaire et m’a tout raconté sur les unions qui les avaient bâtis, la bataille autour des droits des locataires qui y avait eu lieu et sur les activistes communistes, socialistes et syndicalistes qui y avaient dormi, travaillé et fait la fête.
Notre marche longue de vingt blocks s’est transformée en tour personnalisé de la ville et en carte idiosyncratique qui m’a poussé à observer attentivement des bâtiments qui n’auraient normalement été qu’une partie du décor. Je l’ai supplié de transformer sa visité guidée de la ville en carte annotée ou en visite en podcast, tout ce qui pourrait permettre à une audience plus large de profiter de sa vision de la ville. J’espère qu’il le fera.
L’une des raisons pour lesquelles il est tellement utile d’être guidé dans ses errances est que cela révèle le maximum de la communauté. Savoir que Times Square est la destination new-yorkaise la plus populaire auprès des touristes peut servir pour l’éviter. Mais savoir où un chauffeur de taxi haïtien va pour manger de la soupe de chèvre est une indication utile sur l’endroit où l’on peut trouver la meilleure nourriture haïtienne. Vous ne savez pas si vous aimez la nourriture haïtienne ? Essayez les « maximum locaux » – les lieux les plus importants pour la communauté haïtienne – et vous trouverez une réponse à cette question assez vite. Il est peu probable que vous n’aimiez pas la cuisine parce qu’elle est mal préparée, puisqu’il s’agit de la destination favorite de la communauté – il est plus probable que vous n’aimiez tout simplement pas la soupe de chèvre. (Eh bien, ça en fera plus pour moi.) Si vous souhaitez explorer au delà des lieux appréciés par vos amis, et de ceux appréciés par le public en général, il vous faut trouver des guides assez éloignés de vous culturellement et qui connaissent la ville à leur façon.
Une autre façon d’errer dans une ville et de la considérer comme un plateau de jeu de société. Je suis moins susceptible d’explorer Vancouver en suivant une carte définie par un guide qu’en cherchant des geocaches. Dans un rayon de cinq kilomètres autour de ce centre de conférences, il y a 140 paquets cachés, chacun contenant un logbook où s’enregistrer et, probablement, des « mementos » à échanger avec d’autres joueurs. Pour un geocacher, c’est presque un impératif moral que de trouver autant de paquets que possible lorsque l’on visite une ville inconnue.
Ce processus va probablement vous emmener en dehors des sites touristiques de la ville, ne serait-ce que parce qu’il est difficile de cacher ces paquets dans des endroits si fréquentés. Au lieu de ça, vous découvrirez des coins oubliés, et souvent des lieux que la personne qui a caché le paquet voudra vous faire découvrir, parce qu’il s’agit d’endroits inattendus, historiques ou beaux. Geocaching est une forme à part entière d’annotation communautaire. Le but premier est de laisser sa signature sur le logbook de quelqu’un d’autre, mais un objectif plus profond est de nous encourager à explorer un lieu d’une manière inédite.
Des mécanismes ludiques pour (re)découvrir la ville
D’autres jeux établissent une connexion explicite entre l’exploration et l’expansion du capital civique. Le jeu SFO, fondé par un trio originaire de Chicago et transplanté à San Francisco, a été conçu pour encourager les joueurs à découvrir des choses qu’ils n’avaient jamais vues ou faites dans la ville, afin d’encourager l’exploration et l’autonomie. Le jeu nous invite à gagner des points en accomplissant des tâches, souvent absurdes, stupides ou surprenantes. On marque des points en documentant nos « praxis » et en postant des photos, des vidéos ou d’autres preuves de nos interventions.
Ce qui est vraiment excitant dans ce jeu, à mon avis, c’est le nombre de tâches conçues spécifiquement pour encourager les rencontres avec des lieux et des personnes inconnus – une épreuve nous pousse à convaincre des inconnus à nous inviter chez eux pour dîner. Les joueurs qui ont réussi cette épreuve racontent qu’elle était étonnamment facile et que leurs hôtes ont semblé apprécier cette rencontre inattendue autant que les joueurs. (Plus de réflexions sur SFO sur ce post de blog.)
Tous les jeux ne sont pas collectifs. Il y a plusieurs années, Jonathan Gold a créé un mécanisme ludique pour illustrer son exploration des restaurants de Pico Boulevard à Los Angeles. L’article sur cet expérience, intitulé L’année où j’ai mangé Pico Boulevard (The Year I Ate Pico Boulevard) offre un aperçu captivant de la diversité des nourritures ethniques accessibles en ville. Ce travail a permis à Gold de lancer sa colonne dans le Los Angels Weekly pour laquelle il a finalement remporté le prix Pulitzer, pour la première fois remis à un critique culinaire.
Je retrouve des mécanismes similaires dans le projet merveilleusement étrange intitulé International Death Metal Month, qui propose aux curateurs d’explorer YouTube pour trouver des groupes de death metal dans chacune des 195 nations reconnues par l’ONU. Le death metal du Botswana ne deviendra probablement pas votre tasse de thé, mais utiliser ses passions comme un objectif au travers duquel on voit le monde est une tactique cosmopolite célébrée par Anthony Bourdain ou Dhani Jones.
Il est risqué de trop utiliser ces métaphores géographiques. Même si les mécanismes de jeu sont attrayants et l’intervention de curateurs fascinante, aller du Bronx jusqu’à Staten Island demande toujours du temps. L’espace numérique offre la possibilité de changer les proximités – nous pouvons organiser les bits comme nous le souhaitons, et nous pouvons réorganiser nos villes en suivant notre imagination. Nous pouvons créer uniquement des quartiers en front de mer, ou seulement des parcs, uniquement des bâtiments de briques rouges ou des immeubles de huit étages bâtis dans les années 1920 et découvrir ce que nous rencontrons dans ces endroits.
Mes amis du Harvard Library Innovation Lab expérimentent une réorganisation des étagères de la bibliothèque, qui sont parmi les structures les plus puissantes à notre portée pour encourager l’exploration d’un paysage informatif. Les ouvrages sont classés par sujet et nous commençons par parcourir ce que nous pensons vouloir connaître, puis nous étendons notre recherche visuellement, élargissant notre champs de recherche alors que nos yeux se détachent de notre recherche initiale. En parcourant les rayons nous obtenons des informations sur un livre selon son apparence – son âge, sa taille. Son épaisseur nous dit si le volume est court ou long, sa taille est souvent un indice du nombre d’illustrations (les grands livres contiennent la plupart du temps des photographies).
ShelfLife, le nouvel outil développé par le laboratoire de la bibliothèque d’Harvard, permet de réorganiser les étagères de livres en utilisant ces caractéristiques physiques – taille, épaisseur, âge – mais aussi de les classer en utilisant des données comme le sujet, l’auteur ou la popularité auprès d’un groupe de professeurs ou d’étudiants. L’objectif du projet est de récupérer les données utiles qui apparaissent dans les formes d’organisations physiques et de les combiner avec les possibilités de l’organisation numérique de l’information. Si l’on combinait les conclusions tirées d’une étude de l’organisation des villes avec les possibilités de réorganisation numérique, nous pourrions peut-être concevoir différemment des espaces en ligne favorisant la sérendipité.
Cet essai ne se finit pas par une conclusion – il se termine par des questions. Je ne sais pas exactement de quelles idées issues de l’étude des villes nous pouvons nous inspirer pour les espaces virtuels – à mon sens, seules des expériences peuvent répondre correctement à ces questions :
* Comment concevoir des espaces physiques pour encourager la sérendipité ?
* Quelles leçons tirer de la sérendipité dans les espaces physiques pouvons-nous appliquer au domaine du virtuel ?
* Comment pouvons-nous annoter numériquement le monde physique pour faciliter nos rencontres avec le monde, plutôt que de les limiter.
]]>http://owni.fr/2011/08/15/recherche-serendipite-desesperement-urbanisme/feed/134Recherche sérendipité désespérement [2/3]
http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/
http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/#commentsSun, 14 Aug 2011 15:38:57 +0000Ethan Zuckermanhttp://owni.fr/?p=76211Suite de l’article d’Ethan Zuckerman autour du concept de sérendipité, qui peut être définie comme la capacité à découvrir des choses par hasard. Après s’être attardé dans la première partie sur les liens entre urbanité et sérendipité, l’auteur analyse ici la manière dont nous cherchons l’information en ligne et revient sur les origines du terme “sérendipité”.
Les liens de cet article sont en anglais.
Information en ligne: une chambre d’échos?
En 1993, Pascal Chesnais, chercheur au laboratoire Médias du MIT, a conçu un logiciel appelé “Freshman Fishwrap”. Utilisant un ensemble de sources en ligne disponibles à l’époque, Fishwrap permettait aux individus de produire un journal numérique personnalisé, comprenant la mention de leur ville d’origine ou leur sport préféré et filtrant les nouvelles moins intéressantes. Nicholas Negroponte encensa le projet dans son livre Being Digital, le considérant comme partie intégrante du futur personnalisé envisageable dans l’ère du numérique.
L’universitaire Cass Sunstein considérait le “Daily Me” comme une menace plutôt qu’une promesse [PDF]. Dans son livre, Republic.com, il redoute qu’Internet fonctionne comme une chambre d’échos où les individus ne rencontreraient que des vues en accord avec les leurs. Sunstein s’inquiète que dans un tel environnement nous puissions assister à une polarisation politique accrue et à un déplacement des opinions modérées vers les extrêmes.
Beaucoup des réponses académiques à la critique de Sunstein ne se sont pas efforcées de contredire l’argument selon lequel l’isolation mène à la polarisation, mais ont plutôt essayé de démontrer qu’Internet n’est pas aussi polarisant qu’il ne le croit. Matthew Gentzkow et Jesse Shapiro ont étudié les lectures en ligne de milliers d’internautes américains et ont conclu que même si certains sites sont très partisans, les sites d’information les plus visités par les internautes (Yahoo ! News, CNN, AOL News, MSNBC) le sont à la fois par des utilisateurs de droite et de gauche. Leur conclusion tend à démontrer qu’Internet est peut être plus polarisé que la plupart des médias mais suggère que cette polarisation est moins importante que ce que l’on pourrait craindre, et moins importante que ce que l’on rencontre dans nos communautés physiques.
Je m’intéresse moins à la polarisation droite/gauche américaine qu’à la polarisation nous/eux au niveau mondial. À partir des données collectées par Gentzkow et Shapiro, l’équipe de Slate a développé une infographie qui montre la polarisation partisane des petits sites, alors que les plus grands ciblent un public plus large. Je l’ai complétée avec quelques légendes et des cadres jaunes qui montrent quelles sources d’information proviennent d’autres pays que les États-Unis. Vous noterez qu’il n’y a pas beaucoup de jaune sur cette image – la plus grande source d’information internationale, en nombre de pages vues, est la BBC, qui est probablement le site d’information le plus visité sur tout le Web. (Vous noterez aussi que la BBC attire surtout des lecteurs de gauche – avec 22% de lecteurs conservateurs pour 78% de libéraux.)
Les Américains ne privilégient pas particulièrement les sources d’informations locales aux sources internationales. J’ai analysé les préférences médiatiques de 33 pays en utilisant les données de Doubleclick Ad Planner et j’ai découvert que la préférence américaine pour les sources d’informations domestiques (93% contre 7% lorsque en mai 2010) est en réalité assez basse comparée aux 9 autres pays avec le plus grand nombre d’internautes. Les pays avec plus de 40 millions d’internautes ont généralement un biais très important pour les sources d’informations locales – en moyenne 95% des gens les préfèrent. En comparaison, les Américains ont presque l’air cosmopolites.
Ces données ne disent rien de notre appétit pour les informations traitant de l’international mais montrent plutôt notre préférence pour des contenus pensés pour nous et nos compatriotes. Il est possible que nous recevions énormément d’informations sur l’international par Yahoo ou CNN, même si nous avons de bonnes raisons de penser le contraire. (Ces 30 dernières années, l’organisation anglaise Media Standards Trust a observé une forte baisse dans le pourcentage de journaux anglais spécialisés sur des sujets internationaux, et une recherche menée par Alisa Miller de Public Radio International suggère que les médias américains se concentrent bien plus sur les sujets de divertissement que sur l’actualité internationale.)
Ce qui me frappe dans ces données c’est que des sites d’informations internationaux comme la BBC, le Times of India ou le Mail and Guardian sont faciles d’accès (il suffit de cliquer) et ne posent pas le problème de la barrière de la langue. Le biais “local” pour des supports d’informations nationaux semble donc très fort.
Les réseaux sociaux comme mécanismes de sérendipité?
Le risque de ce genre d’isolation est de passer à côté d’informations importantes. J’ai la chance, grâce à mon travail sur Global Voices, d’avoir des amis tout autour du globe, et j’entends souvent parler d’actualités importantes, soit grâce à notre travail sur le site, soit au travers des préoccupations de mes amis sur les réseaux sociaux. Fin décembre 2010, il devint clair que quelque chose de très inhabituel se produisait en Tunisie – des amis comme Sami Ben Gharbia couvraient les manifestations qui se déroulaient à Sidi Bouzid et se propageaient dans le reste du pays. Ces amis s’interrogeaient sur les raisons pour lesquelles aucun média extérieur à la région ne couvrait la révolution en cours. Je suis entré en action avec l’un de mes article de blog publié au moment le plus opportun – le 12 janvier, j’ai écrit “Et si la Tunisie vivait une révolution, alors que personne n’y prête attention ?” (“What if Tunisia had a revolution, but nobody watched ?“)… beaucoup de personnes m’ont appelé après que Ben Ali a fui le pays deux jours plus tard.
La révolution tunisienne a pris par surprise les services secrets et diplomatiques autour de la planète. Ça n’aurait pas du être le cas – une multitude d’informations avait été publiée sur les pages Facebook tunisiennes, et rassemblées par des groupes comme Nawaat.org et diffusée sur Al Jazeera (d’abord sur ses services en arabe). Mais ce passage d’un monde où l’information est dominée par des super-puissances à un monde multi-polaire est difficile à assimiler pour les diplomates, les militaires, la presse et les individus. Et si je suis honnête quant à ma vision du monde, je doit reconnaître que je n’aurais jamais entendu parler de cette révolution naissante si je n’avais pas eu des amis tunisiens.
Comme tout le monde, je vis un changement dans ma façon de m’informer sur le reste de la planète. Avant Internet et pendant ses premières heures, les nouvelles internationales provenaient surtout des médias traditionnels – télévision, presse quotidienne et magazines. Il y avait – et il y a toujours – des raisons de se méfier des “curateurs” , mais il y a un aspect fondamental de leur travail qui, à mon sens, doit être préserver alors que nous inventons de nouveaux modèles d’organisation de l’information. Implicitement, les “curateurs” décident de ce que nous devons savoir sur le monde. Les très bons “curateurs” ont souvent une vision du monde plus ouverte que la plupart des individus, et les médias dirigés par de bons “curateurs” nous forcent souvent à nous intéresser à certaines personnes, certains lieux et problèmes que nous aurions autrement ignorés.
D’un autre côté, les “curateurs” sont forcément biaisés, et la possibilité de trouver des informations qui correspondent à nos centres d’intérêts et à nos préférences est l’une des choses que le Web moderne a rendu possible. Les moteurs de recherche me permettent d’apprendre beaucoup de choses sur des sujets qui m’intéressent – le sumo, la politique africaine, la cuisine vietnamienne – mais il est fort possible que je ne prenne pas connaissance de sujets importants parce que je prête plus attention à mes intérêts qu’aux informations sélectionnées par des professionnels. Il nous faut des mécanismes qui permettent d’ajouter de la sérendipité à nos recherches.
Une nouvelle tendance est apparue. Celle de créer des outils qui nous guident vers des nouveaux contenus selon les intérêts de nos amis. Des outils tels que Reddit, Digg et Slashdot forment des communautés autour d’intérêts communs et nous dirigent vers des sujets considérés comme intéressants et valant le coup d’être partagés par la communauté. Twitter, et surtout Facebook, fonctionnent à un niveau bien plus personnel. Ils nous montrent ce que nos amis savent et ce qu’ils considèrent important. Comme l’explique Brad DeLong, Facebook offre une nouvelle réponse à la question “Que dois-je savoir ?”; à savoir : “Tu dois connaître ce que tes amis et tes amis d’amis savent déjà et que tu ignores.”
Le problème, bien entendu, est que si vos amis ne savent pas qu’une révolution a lieu en Tunisie ou ne connaissent pas de super nouveau restaurant vietnamien, vous n’en entendrez probablement pas parler non plus. Connaître ce que vos amis connaissent est important. Mais à moins que vous ayez un réseau d’amis remarquablement divers et bien informé, il y a des chances pour que leur intelligence collective ait des failles. L’éditorialiste du Guardian Paul Carr a raconté une anecdote intéressante qui s’est produite lors d’un séjour à San Francisco. Alors qu’il rentrait à son hôtel il fut stupéfait de voir que sa chambre, comme le reste de l’immeuble, n’avait pas été
nettoyée. Les employés de l’hôtel protestaient contre la loi sur l’immigration SB1070 en Arizona. Alors que le sujet était largement couvert sur Twitter, Carr n’en avait pas eu vent par son flux. Cela lui fit réaliser qu’il vivait dans “[sa] propre petite bulle Twitter composée de personnes comme [lui] : ethniquement, politiquement, linguistiquement et socialement.” On peut se demander si cette bulle est capable de nous apporter la sérendipité que nous espérons rencontrer sur le Web.
Aux origines de la sérendipité
D’où vient le terme de “serendipité”? Robert K. Merton lui a dédié un livre, écrit avec sa collaboratrice Elinor Barber et publié après sa mort. Cela peut sembler étrange pour un sociologue de renom de s’y intéresser, mais il faut se souvenir que l’une de ses contributions à la sociologie a justement été l’examen des “conséquences inattendues”. Au premier abord, la sérendipité semble être le côté positif de ces conséquences : l’heureux accident. Mais ça n’est pas ce que ce terme voulait dire à l’origine. Le mot a été forger par Horace Walpole, un aristocrate britannique du 18e siècle, 4e comte d’Oxford, romancier, architecte et célèbre commère. On se souvient surtout de lui pour ses lettres, rassemblées en 48 volumes, qui donnent une idée de ce à quoi ressemblait le monde à travers les yeux d’un aristocrate.
Dans une lettre écrite en 1754, Walpole raconte à son correspondant, Horace Mann, comment il fit une découverte inattendue mais utile, grâce à sa grande connaissance de l’héraldique. Pour expliquer son expérience, il fait référence à un conte perse, Les Trois Princes de Serendip, dans lequel les trois principaux personnages “faisaient continuellement des découvertes par accident et grâce à la sagacité, de choses qu’ils ne cherchaient pas.” Le néologisme de Walpole est un compliment – il se congratule à la fois pour son ingénieuse découverte et pour la sagacité qui a permis cette trouvaille.
Bien que le concept soit utile, le terme “sérendipité” n’est devenu courant que ces dernières décennies. Jusqu’en 1958, d’après Merton, le mot n’est apparu que 135 fois sur papier. Durant les quatre décennies suivantes, il est apparu à 57 reprises dans des titres de livres et il a été utilisé 13 000 fois par des magazines rien que dans les années 1990. Une recherche Google fait apparaître 11 millions de pages avec ce terme. Des restaurants, des films et des boutiques de souvenirs arborent ce nom. Mais très peu de pages sur les découvertes inattendues faites grâce la sagacité.
Merton était l’un des plus grands promoteurs du mot, décrivant “le schéma de la sérendipité” en 1946 comme une façon de comprendre les découvertes scientifiques inattendues. La découverte de la pénicilline par Fleming en 1928 a été provoquée par une spore de champignons Penicilium qui avaient contaminé une boîte de Petri dans laquelle se développaient des bactéries de Staphylococcus. Si l’apparition de spores de moisissure dans la boîte était un accident, la découverte, elle, était le fait de la sérendipité – si Fleming n’avait pas cultivé les bactéries, il n’aurait pas remarqué les spores de moisissure isolées. Et si Fleming n’avait pas eu une connaissance approfondie du développement des bactéries – la sagacité – il est fort peu probable qu’il aurait relevé les propriétés antibiotiques des Penicilium et ainsi générée l’avancée la plus importante de la première moitié du 20e siècle dans le domaine de la santé.
Selon Louis Pasteur, “dans les champs de l’observation, le hasard ne favorise que les esprits préparés.” Pour Merton la sérendipité émerge à la fois d’un esprit préparé et de circonstances et structures qui mènent à la découverte. Dans le livre The Travels and Adventures of Serendipity , Merton et Barber explore les procédés de découverte dans un laboratoire de General Electric dirigé par Willis Whitney qui encourageait un environnement de travail fondé autant sur l’amusement que sur la découverte. Un mélange positif d’anarchie et de structure apparaît nécessaire à la découverte et une planification exagérée devient une abomination puisque “la règle de ne rien laisser au hasard est vouée à l’échec.” (L’analyse du livre de Merton et Barber par Riccardo Campa est conseillée à ceux intéressés par les questions de sérendipité et de structure.)
L’idée que la sérendipité est un produit à la fois d’un esprit ouvert et préparé et des circonstances qui mènent à la découverte se retrouve dans l’histoire racontée par Walpole en 1754. Les trois princes étaient très instruits sur les questions de “moralité, de politique et sur toutes les connaissances convenues en général” mais ils ne firent pas de découvertes inattendues avant que leur père, l’Empereur Jafar, ne les envoyât “parcourir le Monde entier pour qu’ils puissent apprendre les manières et les coutumes de chaque nation.” Une fois que ces princes bien préparés rencontrèrent les circonstances favorisant la découverte, ils firent des trouvailles sagaces et inattendues. (Pour plus d’informations sur la traduction de 1722 en anglais des Trois Princes de Serendip vous pouvez lire ce post de blog.)
Lorsque nous utilisons le terme “sérendipité” aujourd’hui c’est souvent pour parler d’un “heureux accident”. La partie de la définition qui se concentre sur la sagacité, la préparation et l’aspect structurel a sombré, du moins en partie, dans l’obscurité. Nous avons perdu l’idée que nous pouvons nous préparer à la sérendipité à la fois personnellement et structurellement.
J’ai peur que nous comprenions mal comment nous préparer. Et comme mon amie Wendy Seltzer me l’a fait remarquer, si nous ne comprenons pas les structures de la sérendipité, le phénomène devient aussi peu probable que le simple hasard.
]]>http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/feed/7Recherche sérendipité désespérement [1/3]
http://owni.fr/2011/08/13/recherche-serendipite-desesperement-villes-reseaux-sociaux/
http://owni.fr/2011/08/13/recherche-serendipite-desesperement-villes-reseaux-sociaux/#commentsSat, 13 Aug 2011 15:07:05 +0000Ethan Zuckermanhttp://owni.fr/?p=76118La sérendipité peut être définie comme la capacité à découvrir des choses par hasard. Start upper à succès, futur reponsable de recherche au MIT… Ethan Zuckermann est d’abord un fou de web qui y a trouvé la matrice de découvertes non voulues, ouvertures de l’esprit et nouveaux horizons… En un mot, des choses qu’il ne cherchait pas, trouvés par sérendipité. Pour explorer la profondeur de ce mécanisme, OWNI vous propose en un feuilleton de trois parties, un condensé d’une conférence sur le sujet, des origines des heureux hasards urbains jusqu’aux interconnexions aléatoires des réseaux.
“Je suis ravi d’avoir la chance de partager des idées avec certains des chercheurs et des spécialistes les plus brillants sur les questions des interactions humaines et numériques, et peut être d’en convaincre certains de réfléchir avec moi sur un sujet qui m’obsède de plus en plus: la création de structures en ligne et hors ligne pour augmenter les chances de sérendipité. Je suis particulièrement honoré de partager la scène, virtuellement, avec Howard Rheingold, qui a ouvert la conférence cette semaine en parlant d’apprentissage et d’éducation numérique.
Je sais d’expérience qu’il est impossible de faire le tour d’un sujet en 40 minutes, même en parlant aussi vite qu’un New Yorkais sous speed. Cet article de blog est une version augmentée de mon discours.”
Les liens de cet article sont en anglais.
En 2008, la majorité de la population mondiale vivaient dans des villes. Dans les pays les plus développés (selon l’OCDE), le chiffre s’élève à 77%, alors que dans les pays les moins développés (tels que définis par l’ONU), 29% de la population est urbaine. En simplifiant beaucoup, on peut voir le développement économique comme un passage d’une population rurale, qui subvient à ses besoins grâce à une agriculture de subsistance, à une population urbaine qui se consacre aux industries de transformation et de services, nourrie par une minorité restée concentrée sur l’agriculture.
Ça n’est peut être pas évident pour un habitant d’un pays développé, mais la ville de Lagos, avec ses 8 millions d’habitants, sa croissance démographique supérieure à 4% par an et son agglomération bondée, est une destination très séduisante pour les Nigérians des zones rurales. Dans les villes des pays en développement, les écoles et les hôpitaux ont tendance à être bien meilleurs que dans les zones rurales. Même avec des taux élevés de chômage, les opportunités économiques sont largement supérieures dans les zones urbaines. Mais il existe une explication plus prosaïque : les villes sont excitantes. Elles offrent un choix d’endroits où se rendre, et des choses à faire et à voir. Les individus quitteraient la campagne pour la ville afin d’éviter l’ennui. Il est facile de qualifier cette idée de triviale. Mais elle ne l’est pas. Comme l’explique Amartya Sen dans son livre « Development as Freedom », les gens ne veulent pas seulement être moins pauvres, ils veulent aussi plus d’opportunités et plus de libertés. Les villes promettent du choix et des opportunités, et donnent souvent satisfaction.
Ce qui est plus difficile à comprendre, pour moi en tous cas, sont les raisons pour lesquelles n’importe qui aurait emménagé à Londres entre 1500 et 1800, pendant les années où la ville a vécu une croissance rapide et continue et est devenue la plus grande métropole du 19e siècle. D’abord, la ville avait une malheureuse tendance à partir en flammes. Le Grand Feu de 1666, qui a provoqué quelques 200 000 sans-abris, était seulement le plus important d’une série d’incendies, tous assez graves pour se distinguer des incendies quotidiens qui menaçaient les maisons et les chaumières. Les Londoniens auraient dû être plus touchés par ces incendies, mais 100 000 d’entre eux – soit un cinquième de la population – avaient été tués l’année précédente par une épidémie de peste bubonique, qui s’était rapidement propagée dans la ville infestée de rats.(L’ordre du maire de Londres de tuer tous les chats et les chiens de peur qu’ils ne transmettent l’épidémie n’avait rien arrangé, puisqu’ils auraient pu, au contraire, tuer des rats infestés.)
À l’époque du Londres de Dickens, la menace ne venait plus des incendies mais plutôt du système d’apprivoisement en eau de la ville. Des égouts à ciel ouvert, remplis de déchets ménagers, ainsi que le crottin des milliers de chevaux, utilisés pour tirer les bus et les taxis, se déversaient dans la Tamise, principale source d’eau pour les habitants. Nous nous souvenons de la vague de choléra particulièrement grave de 1854 parce qu’elle conduisit à la découverte par John Show de l’origine de l’épidémie, lors de son enquête sur la pompe à eau de Broad Street.
Mais les épidémies de choléra étaient fréquentes entre les années 1840 et 1860 à cause de la combinaison d’égouts à ciel ouvert et de fosses creusées à l’arrière des résidences privées, qui débordaient souvent après l’abandon des pots de chambres au profit de toilettes à chasse d’eau plus modernes, ce qui augmentait considérablement le volume de déchets à éliminer. La puanteur de Londres durant l’été caniculaire de 1858 était telle qu’une série d’enquêtes parlementaires avaient été lancées – « The Great Stink » (« La grande puanteur »), comme les historiens appelle l’événement a mené à la construction du système de canalisations londonien dans les années 1860.
Aux 18e et 19e siècles, les gens qui s’amassaient dans les villes ne le faisaient pas pour leur santé. Dans les années 1850, l’espérance de vie d’un homme né à Liverpool était de 26 ans, contre 57 ans pour un homme en zone rurale. Mais les villes comme Londres avaient un attrait assez similaire à celui de Lagos aujourd’hui. La ville offrait des opportunités économiques aux pauvres sans terre, et un éventail d’emplois nés du commerce international généré par l’activité des ports. Pour certains, les opportunités intellectuelles apportées par les universités et les cafés étaient une attraction, quand pour d’autres il s’agissait de la possibilité de courtiser et de se marier en dehors des communautés rurales restreintes qui les poussaient à se relocaliser. Amsterdam a construit sa puissance au 17e siècle en permettant aux Huguenots français, aux juifs espagnols et portugais et aux catholiques néerlandais de pratiquer leurs religions librement – une telle tolérance religieuse aurait été bien plus difficile à trouver dans les zones rurales.
On venait alors en ville pour rencontrer des gens qu’on n’aurait pas rencontrés à la campagne : pour commercer avec eux, pour apprendre d’eux, pour se marier avec eux ou pour prier avec eux. On venait en ville pour devenir un comospolite, un citoyen du monde.
Le terme « cosmopolite » vient de l’association des mots grecs « monde » (Cosmos – Κόσμος) et « ville » (Polis – Πόλις). Il a été forgé par le philosophe cynique Diogène, qui s’enfuit de sa Sinope natale pour rejoindre Athènes (fuyant probablement les autorités, puisque certaines sources disent qu’il quittait sa ville pour échapper à des accusations de contrefaçons). Là, il vécut dans un tonneau dans l’agora, provoquant des combats avec d’importants philosophes, et faisant tout son possible pour violer toutes les normes sociétales imaginables. (Les chiens du portrait ci-dessus sont une référence à son surnom, « Diogène le chien, » les historiens affirment que comme eux Diogène mangeait, dormait, se lavait, urinait et déféquait en public.) Sa déclaration où il affirme ne pas être un citoyen d’Athènes ou de Sinope, mais un citoyen du monde – aussi bien en tant que transgression sociale, qu’identité vécue – vaut la peine d’être lue.
Le philosophe Kwame Appiah remarque que vivre comme un citoyen du monde n’est devenu possible que depuis ces cents dernières années. Les 97% de la population vivant dans des zones rurales en 1800 était très peu susceptible de rencontrer quelqu’un qui ne partageait pas leur langue, leur culture ou leur système de croyance. Une des raisons pour lesquelles nous avons des difficultés à vivre de manière vraiment cosmopolite, selon Appiah, est que nous sommes beaucoup plus habitués à l’esprit de clocher qu’au cosmopolitisme.
Les villes, moteurs de sérendipité ?
Avant l’apparition des télécommunications, si vous vouliez être confronté à une façon de penser radicalement différente de la votre – par exemple celle d’un clochard agitateur qui dort dans une benne – votre plus grande chance était de déménager en ville. Les villes sont des machines pour le commerce, l’apprentissage, la religion, mais ce sont aussi de puissantes machines de communication. Les villes permettent une communication en temps réel entre différents individus et groupes et la diffusion rapide d’idées et de pratiques nouvelles à de nombreuses communautés. Même à l’âge de la communication numérique instantanée, les villes gardent leur fonction en tant que technologie de la communication qui permet des contacts permanents avec l’étrange et le différent.
Puisque la ville est une technologie de la communication, il n’est pas surprenant que les premières descriptions d’Internet utilisent l’espace urbain comme métaphore. Les premiers auteurs cyberpunk, comme William Gibson et Neal Stephenson, étaient fascinés par les façons dont Internet pouvait amener l’étrange, le dangereux et l’inattendu (mais aussi le trivial et le quelconque) à constamment se disputer notre attention. Pour ces auteurs, la façon dont l’Internet du futur se présenterait aux internautes devrait se rapprocher de la logique urbaine ; ce qui est assez étrange si l’on considère que Gibson avait peu d’expérience en informatique (il a écrit Neuromancer sur une machine à écrire) alors que Stephenson était un programmeur aguerri, développant des logiciels Macintosh dans l’espoir de transposer Snow Crash en film animé. Et puis, après tout, il n’y a pas de raison pour que les données ne soient pas représentées sous forme de forêts ou de mers de bits.
Mais Gibson et Stephenson s’intéressaient aux espaces virtuels en tant qu’espaces où les gens étaient forcés d’interagir parce que beaucoup d’entre eux voulaient être au même endroit au même moment, et se rencontraient sur leur chemin vers une même destination. D’un côté c’est une façon absurde de visualiser des données – pourquoi forcerions-nous des gens à être en contacts rapprochés alors que nous bâtissons des espaces qui peuvent être infinis ? Tous les deux pensaient que nous voudrions interagir sur ces cyberespaces comme nous le faisons dans des villes, expérimentant une surcharge de sensations, une compression de l’échelle, un défi dans la sélection des signaux et des bruits des informations qui rivalisent pour capter notre attention.
Nous voulons que les villes soient des moteurs à sérendipité. En rassemblant différentes sortes de personnes et de choses dans un espace confiné, nous augmentons les chances de tomber sur quelques chose d’inattendu. Une question mérite d’être posée : les villes fonctionnent-elles vraiment comme cela ?
En 1952, le sociologue français Paul-Henry Chombart de Lauwe demanda à une étudiante en science politique de tenir un journal référençant ses déplacements quotidiens pour une étude intitulée Paris et l’agglomération parisienne. Il retranscrivit ses déplacements sur une carte de Paris et aperçut l’émergence d’un triangle qui reliait l’appartement de la jeune femme, son université et le domicile de son professeur de piano. Ses mouvements illustraient “l’étroitesse du vrai Paris dans lequel chaque individu vit.”
Le schéma maison/travail/loisir – que ce soit une activité quelque peu solitaire comme l’étude du piano ou la fréquentation des “great good places” (“les bons endroits”) de socialisation publique célébrés par Ray Oldenburg – est familier aux sociologues. Nous sommes plutôt prévisibles. Nathan Eagle, qui a travaillé avec Sandy Pentland au laboratoire des médias du MIT sur l’idée de « l’exploitation de la réalité », utilisant des ensembles de données énormes comme les registres des téléphones portables, estime que l’on peut prédire la localisation d’un “individu de basse entropie” avec 90-95% d’exactitude en se basant sur ce genre de données. (Ceux d’entre nous avec des agendas et des déplacements plus incertains sont seulement prévisibles à 60%.)
Nous pouvons choisir d’être satisfait de notre prévisibilité et d’y voir une preuve de vies rondement menées. Ou nous pouvons réagir comme l’avait fait le critique culturel situationniste Guy Debord et décrier le “scandale qui fait que la vie d’une personne puisse être aussi pathétiquement limitée”.
Zach Seward, le community manager du Wall Street Journal [NDLR: son titre officiel au journal est "outreach editor"], est un grand utilisateur de Foursquare. Quand il s’enregistre dans des lieux new-yorkais il génère une carte thermographique de ses déplacements. On peut facilement observer une forte concentration autour du quartier de Manhattanville, ou il habite, et celui de Midtown, où il travaille. Avec un peu plus d’efforts, vous pouvez voir qu’il aime se balader dans East Village et s’aventure rarement hors de Manhattan, sauf pour prendre l’avion à LaGuardia et aller voir des match de baseball – le seul endroit du Bronx où il s’est enregistré est le Yankee Stadium.
La ville comme réseaux social
Si vous utilisez Foursquare, vous diffusez des données qui peuvent être utilisées pour faire une carte de ce genre. Yiannis Kakavas a développé un ensemble de logiciels appelés “Creepy“ [NDLR: que l'on pourrait traduire par "flippant"]conçus pour permettre aux utilisateurs – ou aux personnes qui souhaitent observer ces utilisateurs – de construire des cartes de ce type à l’aide des informations postées sur Twitter, Flickr et d’autres services géolocalisés. Une découverte peut être encore plus inquiétante : vous laissez échapper ces données simplement en utilisant un téléphone portable.
L’homme politique écologiste allemand Malte Spitz a intenté un procès à sa compagnie de téléphone, Deutsche Telecom, pour avoir accès aux données liées à sa pratique téléphonique. Il a finalement obtenu un document Excel de plus de 35 000 lignes de données, chacune enregistrant sa position géographique et ses activités. En collaboration avec le journal allemand Die Zeit, il a transformé ces données en une carte de ses déplacements pendant six mois qu’il a publiée en ligne. Même si vous ne voulez pas intenter un procès à votre compagnie téléphonique, il est probable qu’elle dispose de données similaires sur vos déplacements, qui pourraient être communiquées aux autorités sur demande … ou qui pourraient être utilisées pour construire votre profile comportemental pour cibler les publicités à vous adresser.
Après avoir étudié attentivement ses enregistrements sur Foursquare, Seward s’est aperçu qu’ils offraient une information qu’il n’avait pas conscience de fournir : sa couleur de peau. Il a superposé ses “checks-in” à Harlem avec une carte de la composition raciale de chaque block et a découvert que “son” Harlem est presque exclusivement composé de blocks à majorité blanche. Comme il l’explique : “les données de recensement peuvent décrire la ségrégation de mon block, mais quant est-il de la ségrégation de ma vie ? Les données de localisation nous mènent vers cette direction.”
Il est important de préciser que Seward n’est n’est pas raciste et qu’il n’est pas non plus ”pathétiquement limité” comme le suggère Debord. Nous filtrons les endroits où nous vivons, ceux que nous fréquentons, ceux que nous évitons, les endroits de la ville qui nous sont familiers et ceux où nous nous sentons étrangers. Nous faisons cela en fonction de là où nous vivons, de là où nous travaillons et des gens que nous aimons fréquenter. Si nous avions assez de données sur les new-yorkais nous pourrions construire les cartes du New York dominicain, du New York pakistanais, du New York chinois mais aussi du New York noir ou blanc.
Les schémas que nous dessinons en nous déplaçant dans nos villes ont tendance à refléter une réalité sociologique basique : qui se ressemble, s’assemble. Lazarsfeld et Merton ont observé les effets de l’homophilie sur les modèles d’amitiés à Hilltown (Pennsylvanie) et Craftown (New Jersey) où des voisins étaient plus susceptibles de devenir amis s’ils partageaient des caractéristiques démographiques communes (raciales, religieuses ou économiques), et de nombreuses recherches sociologiques [PDF] ont confirmé les effets de l’homophilie sur les réseaux sociaux.
Lorsque nous parlons des villes, nous savons qu’elles ne sont pas toujours les creusets cosmopolites que nous voudrions qu’elles soient. Nous reconnaissons le caractère ethnique des quartiers et nous sommes conscients que certains ghettos se forment en raison d’une combinaison de structures physiques et de comportements cumulatifs. (La carte des frontières de Chicago de Bill Rankin qui montre l’identification raciale par quartier rend ces structures désagréablement apparentes.) Nous espérons rencontrer par hasard des citoyens divers et nous créer un réseau de liens faibles qui accroissent notre sensation d’implication dans la communauté, comme le suggère Bob Putnam dans son livre Bowling Alone. Mais, comme le montrent les récentes recherches de Putnam [PDF], en situation d’outsider, nous craignons de nous isoler et de nous surprotéger.
Je suis moins intéressé par la façon dont nous limitons notre territoire dans la ville que par la manière dont nous contraignons nos actions et nos rencontres en ligne. Comme dans les villes où l’urbanisme et le design interagissent avec les comportements individuels, je ne pense pas que nos limitations se font seulement par choix. Mais dans le design des systèmes que nous utilisons et notre attitude envers ces systèmes, je vois des raisons de s’inquiéter que notre utilisation d’Internet soit peut être moins cosmopolite et plus isolée que ce que nous souhaiterions.
]]>http://owni.fr/2011/08/13/recherche-serendipite-desesperement-villes-reseaux-sociaux/feed/15Publish. Wait. Spray. Spray again
http://owni.fr/2010/06/15/publish-wait-spray-spray-again/
http://owni.fr/2010/06/15/publish-wait-spray-spray-again/#commentsTue, 15 Jun 2010 17:46:09 +0000Bibliobsessionhttp://owni.fr/?p=18811
J’écrivais ça il y a deux ans et c’est toujours vrai : “Tenir un blog est très frustrant ! Pourquoi ? Parce que cette forme est intrinsèquement centrée sur “le billet le plus récent”. Les autres disparaissent dans l’abîme des archives... Il faut donc trouver des moyens de naviguer dans la longue traîne des anciens billets. Ceci est d’autant plus important que ce blog traite des bibliothèques, où certes une actualité existe, mais elle n’est pas forcément obsolète très vite…
Il me semble donc essentiel de pouvoir proposer des parcours de lectures dans les divers thèmes que j’ai abordés depuis plus de deux ans. J’ai donc pris le temps de mettre des tags (ou d’indexer pour les puristes, avec une liste validée) pour l’ensemble des 750 articles de bibliobsession (voir ci-contre, le nuage)”. Une autre manière efficace de susciter des parcours est l’utilisation du plugin Linkwithin qui favorise les rebonds à la fin de chaque billet.
Sauf que les tags et les rebonds c’est utile pour une navigation lorsqu’on est déjà sur le site. Or le web d’aujourd’hui est un web des flux, un weben temps réel. Mais qu’est-ce que ce “web en temps réel” peut bien vouloir dire ?
Est-ce le fait d’accéder à aux mêmes informations en même temps que d’autres gens ? Non, ça c’est l’audience, le buzz, l’actualité. La fonction de mise à l’agenda propre aux médias existait bien avant le web (inventée en 1972 !). Même si les sources, les outils, les dispositifs et les acteurs changent, la logique d’un champ d’actualités par nature saturé et son corolaire, la fonction d’agenda sont toujours là.
Est-ce le fait de pouvoir échanger en temps réel ? Non, ça c’est le clavardage, et c’est pas nouveau. Bon c’est vrai que Twitter a apporté quelque chose de ce point de vue, mais Twitter, ce n’est pas l’ensemble du web…
Est-ce le fait de pouvoir d’envoyer en temps réel et en situation de mobilité des informations avec d’autres ? Peut-être, mais je ne vois pas en quoi ce temps qui serait plus réel qu’avant… tout ça ne serait-il qu’un effet de masse ?
Est-ce le fait que ces informations soient indexées immédiatement dans les moteurs de recherche ? Peut-être, mais alors pourquoi faire de tout ça une tendance alors qu’il ne s’agit que d’une accélération de quelques heures du passage des robots d’indexation… D’ailleurs, Google (et Bing aussi) a annoncé il y a un moment déjà qu’il indexe Twitter “en temps réel”.
Est-ce le fait de publier de l’information sur le web facilement et rapidement ? Non, ça existe depuis que les outils du web 2.0 existent, je vois pas ce que Twitter change par rapport au fait d’appuyer sur le bouton “publier” d’un blog…
Le web en temps réel… pas très clair comme expression ! Mon hypothèse :le “temps réel” du web indique un double sentiment :
l’accélération de la vitesse à laquelle s’échange l’information, notamment en situation de mobilité
l’accentuation de la pression exercée par le nouveau au détriment de l’ancien
C’est ce qui fait dire à Paul Virilio que nous vivons dans une tyrannie du temps réel (via Narvic) ce qui me semble inutilement catastrophiste et pessimiste (c’est le cas de le dire pour Virilio) là où les technologies sont des pharmaka, c’est à-dire à la fois le poison et le remède et où il nous faut mettre en œuvre une pharmacologie de l’attention. Il nous faut je crois proposer des sérendipités permettant de mettre en avant des contenus pertinents, des trouvailles, des pépites avec la part de subjectivité que cela comporte, renforcer les signaux faibles que sont les contenus dérivés des fonds des bibliothèques enfermés dans le web caché ou (même combat) dans un web hors flux.
Alors d’où vient cette omniprésence de l’actualité dans les flux ? À mon avis, en grande partie du fait suivant : sur les médias sociaux on assimile trop souvent la publication et la propulsion. Propulser écrit Thierry Crouzet, c’est bien plus que diffuser :
Comment s’y prennent les propulseurs ? Ils se connectent les uns avec les autres. Ils se passent le mot de bouche à oreille. Ils se passent l’info de la main à la main. « On propulse en se connectant. On se connecte en propulsant. » Pour propulser, il faut pouvoir transmettre à des destinataires, être connectés avec eux, être un des fils qui sous-tend le Flux, une ligne de vie. Il ne suffit pas d’injecter des contenus dans le Flux et de les laisser vivre seuls. Ils auraient toutes les chances de se scléroser. Mais pour se connecter, taper sur l’épaule de quelqu’un n’a pas beaucoup d’effet. Mieux vaut lui apporter quelque chose, au moins un bonheur passager. « Tiens, lis ça. C’est absolument génial. »
Un service comme Twitterfeed incite en effet à l’assimilation entre publication et propulsion puisqu’il pousse un flux RSS dans Twitter. Il agrège au flux global des nouveaux items d’un flux RSS, en temps réel. L’analogie est parfois poussée à l’extrême au point que certains abandonnent carrément leur agrégateur au profit du filtre social qu’est Twitter. Diffusion de fils RSS et rediffusion en temps réel de veilles à partir des agrégateurs avec un outil comme ping.fm (Read it, feed it) voilà qui explique que Twitter soit considéré comme le champion du temps réel… au détriment de la longue traîne des contenus.
Pourtant, si l’on accepte de séparer publication et propulsion, la question qui se pose n’est plus seulement comment je m’organise pour publier de l’information fraîche pour la mettre dans le flux, ni même sur quels canaux je dissémine mes contenus, mais bien COMMENT et QUAND je propulse dans les flux des informations pertinentes, éventuellement déjà publiées, pour m’adresser à une audience et engager des conversations.
Mais pourquoi est-ce aussi important important de rester dans le Flux ? Thierry Crouzet écrit :
Collectivement, nos amis forment le comité de rédaction de notre média personnalisé. Par le passé, nous avions tous le même rédacteur en chef. C’est terminé. Plus personne ne lit le même journal. La diversité des propulseurs garantit la diversité des informations qui nous parviennent.
Si l’on ajoute à cela qu’en mars dernier pour la première fois sur une semaine complète Facebook a devancé Googleen trafic, devenant ainsi le site web le plus visité aux États-Unis, nous sommes en quelque sorte appelés à devenir des mini-médias à fabriquer notre mise à l’agenda pour le public de nos amis (ou followers).
Il devient dès lors essentiel de désynchroniser publication et propulsion et de proposer des Re-flux, manière de réinjecter des contenus en différé sur le front du temps réel (belle idée non ?). C’est une manière de se jouer de la pression de l’actualité sur le temps réel présent.
Ok c’est bien joli mais comment faire ? Deux écoles existent pour remettre dans le flux (i.e. principalement Twitter et Facebook) d’anciens billets : de manière automatisée, ou pas. Grâce à Fabien (merci !), j’ai découvert ce plugin Wordpress : tweet old post qui permet de propulser vers Twitter un ancien billet de manière automatisée. Voilà l’interface de configuration :
Il est possible de définir l’intervalle de publication, l’âge maximum des billets remis en scène et leur catégorie. Attention, il ne faut pas abuser de ce genre d’outil… au risque de perdre la confiance de vos followers si vous proposez une fréquence trop importante. Il s’agit là d’un subtil équilibre qui vise à provoquer la sérendipité sans tomber dans un recyclage excessif. Ainsi, un tel dispositif ne peut fonctionner que sur un volume de billets importants et l’on pourrait même imaginer de consacrer une catégorie à ces billets re-publiables parce que DEliés (ou déliables) d’une actualité dominante. N’oublions pas non plus qu’il s’agit toujours de concevoir Twitter et Facebook, non pas seulement comme des canaux de diffusion, mais comme des outils interactifs. De manière générale, s’il n’y avait qu’un seul billet incontournable à citer sur les usages professionnels de Twitter, ce serait celui-ci. Loic Hay a publié un intéressant diagramme trouvé chez Useo qui indique bien les différents degrés d’engagements qui peuvent être mis en œuvre :
Si l’on considère qu’une diffusion efficace de contenus rédigés est un préalable indispensable à une stratégie d’engagement permettant de dialoguer avec des utilisateurs, alors il s’agit alors de trouver des outils permettant par exemple de programmer des tweets. Pourtant tous ces outils ne sont pas automatisés et obligent à programmer chaque tweet, ce qui est pour le moins fastidieux. Je n’en ai trouvé aucun qui permette de déterminer les meilleurs intervalles et les meilleurs moments pour pousser des billets en fonction de l’analyse de l’activité des followers donc de la probabilité qu’ils accèdent à l’information… (si vous en connaissez, je suis preneur). L’outil statistique le plus abouti que j’ai trouvé permet bien de savoir QUI vous RT le plus mais pas QUAND : il s’appelle Twoolr. Tout au plus ce logiciel, Tweetadder, permet de programmer des tweets aux heures de fréquentation du réseau. Avec Tweetoclock, vous pourrez savoir pour une personne le meilleur moment pour la contacter.
Alors que les bibliothèques investissent beaucoup de temps à rédiger des contenus sur leurs sites/blogs/univers Netvibes, si elles veulent vraiment construire des audiences et engager des conversations elles doivent travailler AUSSI sur la propulsion des contenus en différé.
Pour ma part, j’ai donc choisi d’utiliser tweet old post et d’indiquer les re-publications avec le tag : #REflux. Testé depuis plusieurs jours, la méthode est efficace et permet de pousser des billets vers le haut de la longue traîne de la consultation de mon site, tout en glanant des commentaires et des RT. Combiné à ping.fm, il est possible d’automatiser une publication simultanée sur Twitter et sur Facebook grâce à l’ajout d’un tag #fb.
Alors que la synchronisation de données les plus récentes dans les nuages est une sorte de Graal, on peut susciter la sérendipité et subvertir la forme même du blog en re-publiant d’anciens billets dans les flux communautaires. Sortir des rails de l’actualité, apporter des pépites, du recul et de la perspective en sérendipité dans le flux voilà pourquoi il me semble qu’il faut différer la propulsion de contenus dans le web du temps réel.
—
Billet initialement publié sur Bibliobsession ; image CC Flickr Stéfan
]]>http://owni.fr/2010/06/15/publish-wait-spray-spray-again/feed/0The Ultimate lolcatz boxes (by Brainz /-)
http://owni.fr/2010/04/01/the-ultimate-lolcatz-boxes-by-brainz/
http://owni.fr/2010/04/01/the-ultimate-lolcatz-boxes-by-brainz/#commentsThu, 01 Apr 2010 16:12:11 +0000Adminhttp://owni.fr/?p=11387C’est décidé, en ce premier avril 2010, Owni change de ligne éditoriale ! Terminé les “Heuristique et sérendipité”, les interviews, les manifestes teutons, les délires de danahboyd et la non-soumission au ramdam. Aujourd’hui, Sabine est arrivée en marcel moulant “I Luv lolcatz”, Guillaume a décidé de ne publier que des articles contenant au moins un lolcat ou une citation de la lolcatologue Aude Baron, et les développeurs se sont dit qu’ils allaient passer à Drupal, parce que quand même.
Tout cela autour d’une bonne salade de thon, et d’un coup de coeur collectif autour de cet article, que nous republions à la sauvage, sans demander l’autorisation de l’auteur, et en hotlinkant comme des porcs. On vous ledit, Owni tel que vous le connaissiez, c’est fini :-D
[NDLR] Heureusement que c’est pas tous les jours bouillabaisse.
]]>http://owni.fr/2010/04/01/the-ultimate-lolcatz-boxes-by-brainz/feed/4Le web sémantique en soutien à la sérendipité
http://owni.fr/2010/02/08/le-web-semantique-en-soutien-a-la-serendipite/
http://owni.fr/2010/02/08/le-web-semantique-en-soutien-a-la-serendipite/#commentsMon, 08 Feb 2010 13:30:46 +0000Sébastien Declercqhttp://owni.fr/?p=7778Comme j’ai tendance à l’observer auprès des autres étudiants de mon master, on tend à associer web sémantique et ordre, rigidité & froideur. Pourtant, rien n’indique que le web sémantique sera si « automatisé » que l’on le pense ! Je ne vais pas rentrer dans le débat du web socio-sémantique (en tout pas cette fois-ci), mais simplement tenter d’abolir ces idées d’un web sémantique robotisé, sans âme.
Pour commencer…
Quels liens peut-on voir entre web sémantique et sérédenpité ? D’une part, on retrouve une architecture de l’information très solide, aux liens durs, à la hiérarchie inébranlable. La rigidité par excellence : à chaque chose sa place, à chaque place sa chose. D’autre part, on assiste à une recherche hasardeuse, passant de lien en lien, offrant des résultats inattendus, non pertinents mais pourtant utiles. L’exemple même du désordre informationnel.
Comment donc associer ces deux concepts ? C’est assez simple : tout est une question de … concepts ! Le web sémantique, en effet, gère des concepts, les structure, les lie afin d’obtenir un ensemble construit : le graphe. Néanmoins, ce graphe n’a qu’une seule vocation : aider la machine à traiter l’information. Là où des liens seront créés, la machine pourra interpréter les informations, utiliser les ponts entre les concepts pour chercher l’information pertinente.
Par contre, le web sémantique ne changera rien (ou très peu) à la recherche humaine : celle-ci sera assez proche de ce qu’elle est maintenant. La grande différence, c’est qu’une recherche humaine via le graphe mènera à une forte augmentation de la sérendipité : quittant le saut de liens en liens, de serveurs en serveurs, on passera directement de concept à concept. Ceci va, sans aucun doute, nous mener à une plus grande divagation d’esprit : là où pour le moment on clique « pour voir ce que l’autre dit », le web sémantique nous fera cliquer pour voir quel lien existe entre deux concepts.
Pour rendre ça plus concret :
Sérendipité actuelle (via Wikipédia) :web sémantique → ontologie → RDF → XML → XHTML → PDA → etc. Sérendipité « sémantique » (avec Tabulator) : France → Fromage → Boycott des USA → Nucléaire iranien → etc.
On voit donc que, d’un côté, on saute de liens en liens, tout en restant dans un domaine tandis que, de l’autre, on peut quitter un thème très rapidement.
La sérendipité par concepts est effectivement accrue, car on n’est plus limité par une indexation manuelle. Les liens ténus émergent plus facilement grâce au sémantique, ce qui laisse une plus grande liberté d’action à l’internaute, contrairement à l’idée de rigidité préconçue.
]]>http://owni.fr/2010/02/08/le-web-semantique-en-soutien-a-la-serendipite/feed/1Ingénieries de la sérendipité
http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/
http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/#commentsThu, 04 Feb 2010 10:11:51 +0000Olivier Ertzscheidhttp://owni.fr/?p=7639
AU COMMENCEMENT …
Cela ressemble à de la sérendipité, ça à la goût de la sérendipité … mais ce n’est pas nécessairement de la sérendipité. Historiquement, c’est Google qui fut le premier moteur de recherche à instrumentaliser un processus de fortuité, via le bouton “Feeling Lucky” (lequel n’a d’ailleurs rien à voir avec une quelconque sérendipité littérale, puisque ledit bouton se contente de vous amener sur le premier résultat renvoyé par le moteur de recherche). Comme nous l’expliquions en détail dans ce remarquable article co-écrit avec mes excellents collègues (:-), ce bouton est avant tout un argument marketing et un élément fondateur de la sémiotique Googléenne.
1998 : Sérendipité année zéro. Bref, depuis Google, et avec l’arrivée du web contributif, la sérendipité est aujourd’hui partout réellement présente et systématiquement agissante. Mais cette capacité à trouver de nouveaux amis en ligne, ces liens passionnants qui semblent surgir aléatoirement au détour d’un raccourcisseur d’URL sur Twitter sont-ils réellement de la sérendipité en action ? Voici quelques-unes des questions auxquelles ce billet va tenter d’apporter des réponses (ah ben tiens, je crois que c’est la 1ère fois que je fais une vraie introduction dans un billet :-)
Basiquement, la sérendipité désigne la capacité à trouver des informations qui n’étaient pas celles que l’on recherchait initialement mais qui vont cependant s’avérer utile pour résoudre le problème ou la question à l’origine de notre recherche, ou d’une recherche/d’un problème antérieur.
Sérendipité et SIC. Avant que je ne me ré-attaque au problème avec mes gentils camarades, c’est le vénérable Jacques Perriault qui avait (ré)introduit la notion de sérendipité dans le corpus des SIC (sciences de l’information et de la communication … enfin, plus souvent de la communication que de l’information, mais ceci est un autre débat …). Jacques Perriault donc, au tout début des années 2000, avec ce texte in fine ô combien programmatique : “Effet diligence, effet serendip et autres défis pour les sciences de l’information“.
Dans notre approche (celle de mes petits camarades et de moi-même), la sérendipité est un concept moteur pour penser à la fois les stratégies (machiniques) à l’oeuvre derrière l’infinité de l’arbre des possibles navigations du Web (comportements), ainsi que les stratégies mémorielles à court et moyen terme présidant à nos activités de recherche et d’accès à l’information (aspect cognitif). Soit la très sainte trinité suivante : machine – cognition – comportements (usages) qui conditionne tout un tas de choses, dont la sériation des différents phénomènes de sérendipité. Si la littérature francophone sur la sérendipité est relativement maigre, le concept est en revanche depuis longtemps très développé outre-atlantique, notamment, depuis la fin des années 60 dans les travaux d’Eugène Garfield, “père fondateur” de la bibliométrie qui développe le concept de “systematic serendipity” (notamment dans cet article “Systematic serendipity : Finding the Undiscovered Answers to Science Questions” .pdf).
Notons qu’il est à première vue assez paradoxal de retrouver l’essentiel de la littérature scientifique sur la sérendipité dans un champ disciplinaire – les études bibliométriques et scientométriques – qui a pour objectif de ramener dans la rationalité de modèles mathématiques tout ce qui pourrait de près ou de loin ressembler à de l’aléatoire et à du fortuit :-)
Ayant déjà largement glosé sur la première de ces images (là, là, là, mais aussi par là), la seconde image (découverte fortuitement ici grâce à la fréquentation – cette fois non-fortuite – de ce monsieur là) m’a semblé parfaitement illustrer la manière dont les SIC se doivent d’approcher la sérendipité. C’est à dire sans se priver d’un cadre anthropologique global mais en se focalisant sur les “artefacts” de la sérendipité.
CHAPITRE PREMIER / De la mécanique du rebond à la dynamique du surgissement : sérendipitéS.
Dans un ancien billet (Nov. 2005), je m’efforçais en ces termes de décrire l’évolution de nos modes de navigation :
» “les développements du (web 2.0 + Social software + RSS) nous emmèneraient vers un “troisième âge” de la navigation : après le browsing et le searching voici venu le temps du “subscribing”**. On ne navigue plus, on ne recherche plus, on s’abonne, on “souscrit”. Notons d’ailleurs que l’étymologie de ce dernier vocable est intéressante : “souscrire”, “sub-scribere”, littéralement “écrire en dessous”, à moins qu’il ne s’agisse d’écriture “sous autorité” : en agrégeant les discours écrits ou postés par d’autres, on est, de facto, placé “sous” une “autorité” qui n’est plus notre.
Car comment faire autrement que de “souscrire” à ces contenus qui ne sont plus “inscrits” ?”
Corrélons maintenant la hiérarchie précédente (Browsing => Searching => Subscribing) à une autre typologie :
» Désintermédiation : au “browsing” (littéralement “feuilletage”), correspond une logique de type “Watching” : je regarde, surveille, inspecte et parfois découvre de l’information, des contenus avec comme seuls fils conducteurs ceux de mon propre intérêt (= “je suis à la recherche de quelques chose”) et des stratégies cognitives que je suis capable de mettre en place au cours de ladite navigation
» Médiation : au “searching” (littéralement “recherche”), correspond une autre logique, en rupture complète avec la précédente, qui est celle du “matching”, c’est à dire de l’adéquation entre un ou plusieurs termes (ceux de ma recherche) et une ou plusieurs pages de contenus. Il y a donc, dans ce cas, recours explicite à une médiation machinique (celle des moteurs “prescripteurs”, l’algorithmie de ces derniers devenant le fil conducteur presqu’exclusif de mes pérégrinations sur le web)
» Ré-intermédiation : enfin, au “subscribing”, à cette souscription désormais si fréquente (grâce aux ingénieries spécifiques du web contributif, fils RSS notamment), correspond une dernière logique, là encore en rupture avec les précédentes, celle de ce que l’on pourrait qualifier de “floating” (littéralement “flottement”), une navigation flottante, c’est à dire non-orientée, ni par l’adéquation entre un besoin exprimé et des contenus y répondant (“searching”), ni par un parcours volontariste de recherche (“browsing”). Une navigation flottante s’appuyant sur les seuls remous de la houle des signalements effectués par d’autres, et avec comme seule cardinalité, comme seul “horizon” de navigation, le fait que j’aie (ou non) à un moment donné fait le choix d’agréger ces “autres” au sein de mon panoptique personnel**
(** par “panoptique personnel” comprendre ici l’ensemble des outils fonctionnant comme autant de tableaux de bords quotidiens nous permettant de nous informer du monde comme il va : Twitter, Facebook et mon agrégateur RSS sont ainsi les 3 composantes de base de mon panoptique personnel)
La boucle (si fréquente dans les SIC) permettant de passer d’un dispositif désintermédié (= sans intermédiaires) à un dispositif réintermédié (= incluant de nouvelles médiations, de nouveaux médiateurs) permet de caractériser, au sein du processus même de sérendipité, un changement de nature important : la logique du rebond, propre aux deux premières étapes, s’efface pour laisser place à une dynamique du surgissement, dont l’efficacité – réelle – n’en demeure pas moins entièrement conditionnée à nos choix initiaux (réagencés en permanence) des contenus ou des personnes agrégées dans notre panoptique personnel.
Soit l’occasion de reposer l’éternelle question de la poule et de l’oeuf :
» la pertinence (objective dans un contexte donné) de nos navigations aléatoires est-elle la conséquence de nos choix (subjectifs) initiaux en termes de réseaux d’affiliation et de souscription ?
» ou bien en est-elle la cause, c’est à dire bâtissons-nous nos réseaux d’affiliation et de souscription en fonction de la pertinence (subjective) des contenus pertinents (objectivables) que d’autres proposent à des communautés déjà constituées ?
Comme le disait Fox Mulder, autre éminent chercheur en SIC, “la vérité est ailleurs“, et probablement entre les deux. Une chose reste certaine, toute réintermédiation – a fortiori ouverte et/ou participative - entraîne nécessairement et mécaniquement une part d’aléatoire, de sérendipité, et – pour autant que l’on soit convaincu de l’apport de cette part d’aléatoire – on serait assez bien inspiré de cesser de craindre les profondes et hétérogènes réintermédiations qui se pointent à l’horizon de l’édition, de la presse (et la presse en ligne), de la chaîne du livre, etc … pour au contraire s’en réjouir et accélérer d’autant les désintermédiations en cours comme autant de préalables parfois un peu douloureux mais pourtant si nécessaires et si urgents …
La “sérendipité contrôlée” de Madame Popova : “ça c’est kloug, Mme Popova. Pas sérendipité.” Un récent article des blogs du NYTimes parle de “sérendipité contrôlée” pour désigner je cite, ces personnes qui “filtrent des liens intéressants à destination de centaines d’inconnus pour épancher leur soif de curiosité“, citant l’exemple de Madame Popova :
» “Mrs. Popova uses a meticulously curated feed of Web sites and Twitter followers to find each day’s pot of gold. She said, “I scour it all, hence the serendipity. It’s essentially ‘metacuration’ — curating the backbone, but letting its tentacles move freely. That’s the best formula for content discovery, I find.” Ce qui donnerait à peu près ceci : “méticuleuse dans ses choix de fils RSS et d’amis sur Twitter – ce qui lui permet de découvrir chaque jour une nouvelle mine d’or. ‘J’épluche tout, dit-elle, d’où les heureux hasards. Il s’agit essentiellement d’un “méta-réseau” – organiser le coeur du réseau informatique, mais en laissant ses tentacules libres de tout mouvement. Je trouve que c’est le meilleur moyen de faire des trouvailles.” (Merci Suzanne et Audrey pour la traduction simultanée … si vous avez mieux, les commentaires sont ouverts …)
De fait, il n’y a ni contrôle, ni aléatoire dans le processus décrit dans ce billet du NYTimes. Juste des processus de filtrage en amont (les liens choisis par Mme Popova), et en aval (les Followers décidant de suivre le compte de Mme Popova). Si sérendipité il y a, il faut alors la chercher dans le pourcentage de chances qu’un individu X s’intéressant grosso modo aux mêmes thèmes que Mme Popova découvre son compte et s’y abonne. Mais cela est encore un autre processus … sur lequel nous reviendrons plus tard.
Ne pas confondre participatif et contributif. Notons simplement que si les outils changent, les modalités et typologies de la participation sur le web contributif ne varient guère : la distinction entre les suiveurs et les suivis sur Twitter, entre ceux qui signalent beaucoup dans différents domaines et ceux qui signalent un peu moins mais de manière plus qualifiée ou plus thématique renvoie à l’ancienne dichotomie entre Linkers et Publishers au début de l’essor de la blogosphère. La règle wikipédienne d’une immense majorité de commentateurs et d’un très petit nombre de rédacteurs, se décline également sur Twitter comme elle se déclinait encore hier sur la blogosphère. Bref, beaucoup les gens participent beaucoup (ils “suivent” sur Twitter, corrigent sur Wikipédia, agrègent ou commentent sur les blogs), mais peu de gens contribuent réellement (en produisant ou signalant des contenus originaux). Tout cela pour dire que la seule production et/ou diffusion de contenus à des communautés non-constituées ou très largement éparses et aléatoires, ne peut suffire à parler de sérendipité, a fortiori de sérendipité contrôlée … ou non-contrôlée.
La sérendipité chez les Jivaros : à propos des réducteurs d’URL. Le témoin emblématique de cette logique du surgissement est tout entier contenu dans l’affichage des URL réduites sur Twitter : à part quelques hashtags (mot-clés) eux-mêmes souvent délibéremment aléatoires, rien ne m’indique la nature réelle de la cible desdits liens dans une adresse du type : “http://bit.ly/Tdki5af”. Rien sinon le fait qu’ils émanent de l’un des prescripteurs que j’aurai choisi (et auquel j’aurai donc souscris), ou qu’ils bénéficient déjà d’une large boucle d’écho (= qu’ils sont déjà largement repris sous forme de RT – retweet – par d’autres contributeurs). Notons d’ailleurs de manière tout à fait empirique (rien de scientifique dans cette observation) que nombre d’utilisateurs de Twitter synchronisent leurs Tweets avec leur compte Facebook (et réciproquement) : une info pourra donc ainsi bénéficier d’une boucle d’écho internalisée (publiée ET reprise sur Twitter) ou externalisée (publiée sur Twitter et reprise sur Facebook par exemple).
Nouvelle(s) infobésité(s) ou échec du filtrage ? Telle est l’une des questions soulevées par Clay Shirky dans l’une de ses interventions (“Information overload versus filter failure” / Sept. 2008). S’inscrire à ces outils du web contributif implique, pour pouvoir profiter à plein de leur potentiel de “recommandation”, de sérendipité, s’inscrire à ces outils disais-je, implique – sous peine de s’effondrer sous le poids d’une infobésité galopante – de gérer très précautionneusement le potentiel de surgissement des mêmes outils, à savoir :
» isoler, en amont, les prescripteurs, les “‘autorités”, le “collège invisible” auxquels ou pourra accorder une confiance sinon aveugle, du moins sans grand risque de voir celle-ci déçue.
» et/ou jouer sur les fonctionnalités de “liste” et autres dispositifs de filtrage interne dont ils disposent (mais cela est nettement moins efficace que le point précédent)
» s’appuyer sur les filtres que d’autres ont déjà mis en place sur des thématiques ou des centres d’intérêt proches des miens (= suivre les personnes suivies par ceux qui je suis moi-même)
» bref … réapprendre à faire avec Twitter et les réseaux sociaux ce que l’on avait mis quelques années à apprendre à faire avec les blogs.
L’infobésité n’a pas changé de nature ni d’amplitude, elle a simplement contaminé de nouveaux outils, emprunté de nouveaux vecteurs. Et la sérendipité avec elle.
Bien plus que le nombre de contributeurs ou de producteurs d’informations, bien plus ques gigantesques écarts d’échelle entre le nombre d’emetteurs et le nombre de récepteurs, c’est la nature pervasive du web social qui est le principal facteur de l’accroissement – réel – de la sérendipité et de son corollaire, l’accroissement – supposé ou ressenti – du phénomène d’infobésité.
CHAPITRE SECOND / Quelles ingénieries pour la sérendipité ?
De fait, à observer et analyser un grand nombre de manifestations de la sérendipité dans les différents outils de recherche ou d’accès à l’information, la seule ingénierie manifeste est d’ordre relationnelle : soit en jouant sur le graphe – relationnel – d’un certain nombre d’éléments (les pages web par exemple) pour en faire remonter certains de manière plus ou moins aléatoire, soit – et c’est là le point le plus intéressant – en s’appuyant sur les recommandations ou signalements de notre réseau relationnel (ce qui est le principe même d’un site comme twitter). Ces ingénieries relationnelles peuvent alors se scinder en deux groupes :
» L’âge de pierre. Celui des premières pages web. Des premiers liens hypertextes codés en HTML et pour lesquels bien souvent l’ancre de départ ne laissait en rien présager la nature de la page sur laquelle on allait arriver …
» L’âge de fer. Celui de l’arrivée des machines, moteurs de recherche en tête, qui se font le relai tantôt revendiqué tantôt accidentel de phénomènes de sérendipité dans le couple alliant nos requêtes et nos navigations.
» L’âge d’or. Celui des réseaux sociaux au sens large, c’est à dire de la possibilité offerte de faire du conseil de nos proches un calcul, une “computation” comme les autres.
Le côté obscur de la sérendipité : Ingénieries relationnelles machiniques.
Elles relèvent uniquement du truquage : Les 5 exemples suivants en sont l’illustration sinon la preuve.
» Marketing Ornemental : le bouton “feeling lucky” de Google. Qui permet en fait d’escamoter la page de résultats pour directement boucler sur le site apparaissant en tête de ladite page,
» Ingénierie relationnelle : le FriendFinder de Facebook. Il s’agit de l’application coeur de Facebook, qui fait remonter des “amis” possibles en fonction des connexions déjà existantes sur le mode “les amis de mes amis sont – potentiellement – mes amis”. Ce qui en a l’apparence mais qui ne relève définitivement pas de la sérendipité. Simple ingénierie relationnelle. Mais – et c’est là toute l’habileté du dispositif – un effet de surgissement qui prend le masque de l’inattendu, du fortuit pour mieux séduire et amener l’usager exactement là où il (facebook) le souhaite : c’est à dire à enrichir son réseau relationnel pour mieux pouvoir le monétiser en créant une dépendance à ce service de “mise en relation”
» Ciblage comportemental industriel : les recommandations d’Amazon. Les recommandations de sites marchands comme Amazon sont avant tout du marketing industriel (ne reposant en tout état de cause que sur le profil des achats ou des consultations précédentes et sur l’organisation par thématique et par genre du site, quand elle ne sont pas simplement bidonnées … pour plus de détails et d’explications, se reporter à cet excellent diaporama ;-) “Les industries de la recommandation sont-elles recommandables ?“)
» Sérendipité embarquée (embedded serendipity) ou le packaging inversé : technique spécifique aux sites de vidéos permettant d’encapsuler, à la fin de la vidéo visionnée, d’autres séquences vidéo supposément “en rapport” avec la vidéo initiale. Soit l’inverse du packaging puisque c’est cette fois après avoir utilisé (visionné) le produit que l’on vous suggère d’en acheter (visionner) d’autres. Là encore il s’agit d’une intervention machinique qui ne doit pas grand chose à l’aléatoire même si elle est encore, et de loin, la moins bien contrôlée par ceux qui la mettent en oeuvre … qui n’a jamais été surpris à la fin du visionnage d’une vidéo de voir s’afficher d’autres vidéos pas franchement “en rapport” avec la vidéo initiale ? Ce qui explique que les sites hôtes travaillent d’arrache-pied à mettre en place des mécanismes pour mieux “contrôler” cette sérendipité embarquée.
» l’anti-sérendipité ou la sérendipité suggérée : représentée par les fonctions du type “suggest” sur les moteurs de recherche. C’est à dire les suggestions en cours de frappe. Là encore, force est de constater que l’aléatoire n’a qu’une part très relative puisque les requêtes ainsi “suggérées” sont celles les plus saisies par les internautes. On est donc davantage dans l’affichage d’une dynamique de “mainstream” que dans la recherche d’un surgissement aléatoire authentique. On ne cherche pas à suggérer à l’usager des pistes nouvelles ou a priori déconnectées de sa recherche initiale, on lui suggère les pistes les plus explorées, les sentiers les plus rebattus.
Ce sont là les industries de la recommandation à leur apogée, maximisant leur capacité à capter l’attention dans un écosystème clôt. Sauf dans le cas particulier de Google (pour des raisons évidentes liées à la nature même du moteur de recherche), tous les effets de rebond résultant de cette sérendipité se font à l’intérieur du site vecteur de sérendipité.
A noter également : si l’on croule sous les articles à la gloire de la sérendipité à propos de tout et de n’importe quoi (“sérendipité et DRH”, “marketing et sérendipité”, “culture de la pomme de terre et sérendipité”), on peine en revanche à trouver quelques sons de voix discordants. D’où l’intérêt de cet article du NYTimes : “Serendipity : Lost in the Digital Deluge“, qui pointe le danger d’une uniformisation des pratiques (“We are discovering what everyone else is learning, and usually from people we have selected because they share our tastes.“) au travers de la massification des accès et l’incapacité du numérique à rivaliser avec le monde réel sur le terrain de la sérendipité (prenant l’exemple du passant que l’on croise en train de lire un bouquin – et nous d’être surpris et attiré par ledit titre, association fortuite impossible si l’on croise quelqu’un en train de bouquiner sur un reader sony …). L’exemple me semble assez mal choisi mais, et les 5 ingénieries relationnelles machiniques décrites ci-dessus l’illustrent, il y a un risque réel d’affaiblissement de la fortuité derrière des pratiques et des ingénieries en fait de plus en plus normées et laissant le moins de place possible à l’aléatoire s’il n’est pas entièrement tourné vers le marketing et la publicité comportementale.
Heureusement il y a findus les ingénieries relationnelles humaines.
Le retour du Jedi : Ingénieries relationnelles humaines.
Si, pour les précédentes (ingénieries relationnelles machiniques), c’était l’intériorité qui primait (le système ne renvoyant qu’à lui-même ou à des sites tiers sous son contrôle), les secondes (ingénieries relationnelles humaines) peuvent d’abord se caractériser par leur extériorité. Leur principe même est de permettre de s’affranchir d’un espace de navigation dédié (tel site, tel réseau social) pour offrir au “taux de rebond” de la sérendipité une amplitude maximale. L’étau du rebond. Plus précisément, là où le taux de rebond est – en terme de référencement, de marketing et de SEO – une métrique qu’il faut s’efforcer de contenir à la baisse, on pourrait définir la sérendipité instrumentalisée (c’est à dire mise en place à dessein) comme “l’ensemble des techniques permettant, pour un individu, un site ou un écosystème de marque/produit, de pousser au maximum leur taux de rebond”.
Pour donner leur plein rendement, les ingénieries relationnelles humaines de la sérendipité ont besoin d’exister, sinon dans une obscurité, du moins dans un relatif clair-obscur numérique. A ce titre, l’hétérarchie de Twitter, son système à contrainte (140 caractères ne permettant généralement pas de caractériser suffisamment une information ou un signalement), l’opacité totale (au sens d’indéchiffrabilité) de ses URL raccourcies, et sa réticence à injecter du sens (de la hiérarchie) dans les relations “suivis-suiveurs” (following / followers), en font l’outil paradigmatique d’une sérendipité “primitive”.
On résume un peu ?
D’abord, la sérendipité “réelle”, telle que théorisée par Merton, trouve de moins en moins sa place dans le monde numérique. Twitter est, pour l’instant, la seule exception semblant confirmer cette règle. Ensuite, les ingénieries de la sérendipité sont en plein essor et tendent à structurer et à légitimer une “économie de la sérendipité” pour reprendre l’expression de Didier Durand. En d’autres termes …
» (temps 1) la stochastique initiale du web a progressivement fait place nette a une hiérarchisation organique, mise en mémoire et en accès par les moteurs de recherche.
» (temps 2) L’essor du web contributif a ensuite permis de dépasser et de transgresser littéralement cette hiérarchisation monolithique (et monopolistique) en y réinjectant de l’humain et du social, bref, de l’aléatoire.
» (temps 3) Par le biais de différentes fusions et/ou acquisitions (delicious pour Yahoo, Youtube pour Google, essor des entrepôts géants Amazon-like, etc …), certains des mécanismes aléatoires liés à l’humain sont devenus “calculables”, programmables, donnant alors naissance aux industries de la recommandation (cf ci-dessus le côté obscur de la sérendipité), revêtant ainsi des atours séduisants de l’aléatoire et du surgissement ce qui demeure pourtant très trivialement l’exploitation systématique (mais pour autant ingénieuse) d’une gigantesque base de donnée relationnelle.
Le moteur social, c’est comme la voiture électrique : ce sont les constructeurs qui décident. Pas les consommateurs, ni les technologies. Car le moteur social, qui semblait pourtant si prometteur à l’été 2005, n’existe toujours pas en 2010, et ce malgré les récentes annonces (Juillet 2009) de Google en la matière. Pour autant, l’ensemble des moteurs de premier plan se sont, chacun à leur manière, “socialisés”, en partie le biais des options de personnalisation, en partie grâce à l’interpénétration des différents outils de leurs écosystèmes, en partie grâce aux techniques de data-mining transférées dans l’immensité du web des données. Soit l’asservissement à une algorithmie de plus en plus englobante, de plus en plus “impliquante” du potentiel de fortuité des recommandations sociales telles qu’elles transparaissent dans les outils-supports de leurs médiations (ce qui n’est déjà pas si mal, je vous l’accorde).
“Sur Youtube, il y a toujours une réponse. La sérendipité est comme une pertinence seconde, qui vient se substituer à la réponse exacte.“
J’ajoute simplement, en paraphrasant Mallarmé, que la question est peut-être aujourd’hui de savoir si “Un coup de sérendipité, jamais, n’abolira la pertinence.” Ou pas. J’ajoute aussi que si “la sérendipité est une pertinence seconde“, et que si elle “se substitue à la réponse exacte“, ce n’est pas seulement lié au fait qu’il y ait “toujours une réponse“, mais – à mon avis – au moins autant à l’importance que les ingénieries de l’aléatoire occupent aujourd’hui dans le développement de l’écosystème des outils de recherche et d’accès à l’information. J’ajoute enfin qu’il serait intéressant de mener une étude sur la pregnance cognitive de cet état de fait dans les comportements de requêtage et de navigation des usagers (pour voir dans quelle mesure ils “intègrent” ou “rejettent” cet habitus).
» Photo d’illustration par jef safi (‘pictosophizing) sur Flickr
]]>
http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/feed/3Heuristique et sérendipité : un exemple en images
http://owni.fr/2010/01/21/heuristique-et-serendipite-un-exemple-en-images/
http://owni.fr/2010/01/21/heuristique-et-serendipite-un-exemple-en-images/#commentsThu, 21 Jan 2010 15:29:07 +0000Patrick Peccattehttp://owni.fr/?p=7161
Résumé
L’application de règles heuristiques explicites permet tout à la fois d’optimiser la recherche d’informations sur Internet et de favoriser la sérendipité. Un exemple de recherche documentaire concernant des images historiques illustre ce point de vue.
Recherche d’informations sur Internet, sérendipité et heuristique
Paru en 2008, l’article de Nick Carr Is Google Making us Stupid? critiquait les effets d’Internet sur nos facultés de cognition. Selon l’auteur, l’usage intensif du réseau et singulièrement des outils de recherche altèrerait nos capacités de concentration et de réflexion. L’article a été largement discuté dans les médias et la blogosphère. John Battelle lui a ainsi répondu dans un billet qui se termine par ces mots :
« Quand je suis plongé dans la recherche de connaissances sur le Web, sautant de lien en lien, lisant en profondeur à un certain moment, survolant des centaines de liens un peu plus tard, quand je suis amené à formuler et reformuler des requêtes et à dévorer de nouvelles connexions plus rapidement que Google et le Web ne sont capables de me les proposer, quand je réalise du bricolage en temps réel durant des heures, je « sens » que mon cerveau s’éclaire, c’est comme si je devenais plus intelligent ».
Chacun d’entre nous possède une telle expérience de la recherche sur le Web, mais on doit reconnaître aussi que le processus décrit ne conduit pas toujours à nous sentir plus intelligent. Si évidemment une véritable recherche est toujours plus complexe que l’obtention de réponses immédiates à une question immédiate (ceci sous la forme de quelques liens proposés selon un classement de hit-parade et dont on ne consulte que les premiers), on peut aussi s’y perdre et en sortir bredouille ou déçu. Une recherche est certes un « bricolage » construit en grande partie en découvrant des ressources inconnues permettant de rebondir sur d’autres requêtes, mais ce n’est pas seulement une question de chance ou de boulimie envers les liens retournés par Google.
L’idée optimiste selon laquelle une activité de recherche quelconque – ce processus de « bricolage » qui peut parfois s’installer dans le temps, cette flânerie sur le Web, cette « musarderie » comme on l’appelle parfois – serait systématiquement positive et incidemment rendrait plus intelligent renvoie au concept de sérendipité. Selon l’encyclopédie Wikipedia, la sérendipité est « l’effet de tomber par hasard sur quelque chose qui nous aide dans une tache ou un problème en cherchant quelque chose de totalement indépendant ». Je préfère pour ma part les définitions qui mettent moins l’accent sur le hasard que sur la « capacité de découvrir, d’inventer, de créer ou d’imaginer quelque chose de nouveau sans l’avoir cherché à l’occasion d’une observation surprenante qui a été expliquée correctement. » (présentation du Colloque de Cerisy sur la sérendipité, juillet 2009).
Appliquée à la recherche d’informations sur Internet, le concept de sérendipité a en effet donné lieu à plusieurs déclinaisons ou théorisations qui expliquent (ou essaient d’expliquer) en quoi ce processus doit être réfléchi, construit et pratiqué, pourquoi la sérendipité ne doit pas être confondue avec la découverte totalement fortuite : étude de ses relations éventuelles avec l’émergence ou l’abduction, « ingénierie de la sérendipité » conçue comme une démarche de recherche volontaire et organisée à l’aide de dispositifs techniques (Affordance), « sérendipité expérimentale » ou procédure d’essais et erreurs, « sérendipité embarquée » et intégrée aux processus de collecte d’information (Francis Pisani), « serendipity engine » (Chris Brogan), ou encore « sérendipité systématique » proposée dès 1964 par Julian F. Smith (voir le chapitre PageRank : entre sérendipité et logiques marchandes, par Olivier Ertzscheid, Gabriel Gallezot, Eric Boutin, dans L’Entonnoir, C&F éditions, 2009, pp. 113-136).
Dans le domaine de la recherche scientifique, ce concept est associé à celui d’heuristique. On attribue généralement à Pappus d’Alexandrie, mathématicien du IVème siècle après J.C, le premier exposé systématique de cette idée qui a pris diverses formes au long des siècles. À l’époque moderne, on retrouve ce terme dans de nombreuses disciplines, jusque dans la recherche opérationnelle où il désigne les méthodes approximatives pour résoudre un problème. L’heuristique a été particulièrement étudiée par George Pólya et Imre Lakatos dans le domaine des mathématiques. De quoi s’agit-il ? Dans le processus de découverte des lois ou des concepts, toutes les sciences – y compris les mathématiques – utilisent un raisonnement qualifié de plausible par Pólya et d’heuristique par Lakatos. Par contre, lorsqu’elles sont exposées dans les manuels (souvent dans les deux sens du terme « exposer »), les sciences deviennent discursives et font usage du raisonnement démonstratif (Pólya) ou euclidien (Lakatos). Au cours de ses études sur la logique du raisonnement plausible en mathématiques, Pólya avait dégagé des lois de l’induction et de l’heuristique de la découverte bien distinctes des lois de la logique déductive classique. Pour lui, un grand nombre de recherches fructueuses dans cette discipline ont leur origine dans l’observation attentive des objets mathématiques et utilisent divers arguments heuristiques, sous forme de généralisations, particularisations et analogies, afin de dégager et d’éprouver des hypothèses formulées à partir de ces observations. Le système de la logique du plausible de Pólya explicite en quelque sorte des pratiques heuristiques utilisées au cours de la recherche. Dans son ouvrage le plus connu, How to Solve It, il examine en détail les étapes nécessaires à la résolution d’un problème mathématique. Lakatos pour sa part développe une méthode des preuves et réfutations appuyée sur de véritables règles heuristiques.
Une règle heuristique est une stratégie qui s’appuie sur l’expérience. Elle permet d’optimiser la recherche de solutions mais ce n’est pas une procédure mécanique et infaillible. Il s’agit d’une règle générale (rule of thumb), c’est-à-dire un principe dont l’application est large et qui ne prétend pas être exact ou fiable dans toutes les situations. Elle ne garantit pas que les solutions trouvées soient optimales ni même toujours pertinentes.
L’objectif de ce billet est de proposer, dans l’esprit de Pólya et Lakatos, quelques règles heuristiques concernant une problématique précise de la recherche sur Internet. Le problème examiné est le suivant : rechercher des informations concernant une ou plusieurs photos historiques. L’application au champ historique rappelle d’ailleurs que l’un des sens spécialisé de l’heuristique, qui semble aujourd’hui un peu oublié, est celui décrit par Lalande dans son Vocabulaire technique et critique de la philosophie en ces termes : « partie de la science qui a pour objet les faits; spécialement en histoire la recherche des documents ». En ce sens, l’heuristique est une discipline auxiliaire de l’histoire traitant de la recherche de documents (v. Guy Zelis, Recherche documentaire en histoire – Initiation à une heuristique générale).
On proposera donc ici un ensemble de règles heuristiques conçu comme une méthodologie habituellement efficace, permettant d’aider à résoudre un problème de recherche précis, mais aussi, dans un second temps et de manière induite, de favoriser la sérendipité. Autrement dit, sur ce problème spécifique de la recherche documentaire, la sérendipité est pour nous subordonnée à l’application de règles heuristiques. Pour comprendre cette articulation et le primat accordé ici aux règles heuristiques explicites sur la sérendipité, examinons notre problème de recherche d’informations concernant une ou plusieurs photos historiques. Par « information », j’entends le lieu et la date de prise de vue, l’identification des personnages, la description de l’événement, son contexte, d’autres images fixes ou animées en relation, l’utilisation éventuelle des photos dans les médias, etc. La nature même de ce que l’on recherche va donc élargir ou au contraire rétrécir les possibilités de sérendipité lors de la recherche. Si vous recherchez uniquement un lieu de prise de vue, par exemple, les questions que vous posez seront orientées en ce sens et votre esprit sera en éveil essentiellement sur les noms de lieux. Vous serez principalement sensible aux signaux de type « localisation » dans le bruit irrémédiablement retourné par un moteur. Si par contre vous recherchez tout type d’information concernant la photo étudiée, vous ne poserez pas les mêmes questions et vous serez probablement aussi attentifs à de nombreuses autres informations. Vous réagirez à plus de formes nouvelles dissimulées dans les masses informationnelles et informes retournées.
Dans la seconde partie de ce billet, je décris un exemple précis de recherche concernant trois photos tirées de la collection Archives Normandie 1939-1945, en cours de redocumentarisation dans le cadre du projet PhotosNormandie. Si vous n’êtes pas intéressé par ces détails, si le fait que j’évoque toujours les mêmes exemples vous lasse, si vous n’aimez pas le sujet, si vous êtes très pressé, si vous êtes fâché avec l’histoire, si vous êtes un futur ingénieur actuellement en Terminale S, il n’est pas nécessaire de lire cette deuxième partie. Je pense cependant que cette étude de cas éclaire l’origine et l’applicabilité des règles heuristiques résumées ci-dessous.
Régles heuristiques pour la recherche d’informations sur une image
ne vous précipitez pas sur Internet, observez attentivement l’image et décrivez-la précisément
recherchez la même image publiée ailleurs sur le Web
si vous ne connaissez rien au sujet, effectuez quand même des recherches
recherchez des images similaires sur des corpus structurés analogues
recherchez l’image ou des images similaires sur des collections non structurées
recherchez des informations sur tout le spectre des documents qui ne sont pas des images : pages webs, blogs, forums, livres, journaux, magazines, etc.
reformulez les questions en fonction des résultats obtenus, modifiez les termes utilisés dans les recherches (variantes sémantiques, traductions en d’autres langues, etc.), rebondissez
repérez les nouvelles sources d’informations intéressantes et explorez-les systématiquement
après chaque recherche, dressez une liste des nouvelles questions apparues
utilisez la « force brute » sur certains résultats intermédiaires
publiez sur Internet vos résultats partiels
oubliez Internet, quittez le Web, passez « en jachère », lisez et recherchez des informations dans les livres, magazines, journaux, etc.
positionnez des alertes, et après cette « période de jachère », reprenez les mêmes recherches sur Internet
(métarègle) effectuez toujours deux examens des résultats obtenus : l’un centré sur la question posée, l’autre en essayant d’oublier la question.
Un exemple en images
Soit un ensemble de trois photos extraites du site Archives Normandie 1939-1945 et reproduites ci-dessous avec leurs références et légendes d’origine :
p011994 Légende : Une ambulance américaine est stationnée devant une maison à Balleroy. Des personnes du village ainsi que des soldats américains se sont réunis. Localisation : Balleroy, Calvados Crédit : Conseil Régional de Basse-Normandie / National Archives USA
p011995 Légende : Infirmière allemande capturée par les troupes américaines Localisation : Balleroy, Calvados Crédit : Conseil Régional de Basse-Normandie / National Archives USA
p011996 Légende : Infirmières allemandes capturées par les forces américaines Localisation : Balleroy, Calvados Crédit : Conseil Régional de Basse-Normandie / National Archives USA
On remarque tout d’abord qu’aucune des légendes ne mentionne l’existence des deux autres photos en relation, si bien qu’un visiteur peut facilement ignorer que le cliché qu’il examine appartient à un reportage ou à tout le moins à une série. La première légende est erronée puisqu’elle mentionne « des personnes du village » alors qu’il s’agit visiblement de prisonnières allemandes comme on le voit sur les deux autres photos. Nous avons là un exemple de la qualité très médiocre des légendes dans cette collection, ce qui a d’ailleurs motivé le projet PhotosNormandie (pour un exemple pire encore, voir la localisation de cette photo).
Avant toute recherche d’informations sur Internet, il est donc indispensable d’observer attentivement les images (règle 1), de les décrire aussi précisément que possible, ce qui permet de dresser une première liste des termes pertinents ou des expressions à rechercher. Bien évidemment, vous devrez formuler les questions en traduisant les termes dans les langues qui sont le plus appropriées à votre recherche ; dans notre exemple, nous effectuons toujours les recherches en français et anglais.
Règle 2 : recherchez la même image publiée ailleurs sur Internet
Il est évidemment possible que l’image soit déjà connue et ait fait l’objet d’une publication dans une page Web quelconque. L’utilisation du moteur de recherche inversé Tineye est conseillé à ce stade. Bien que la recherche ne porte que sur les images déjà indexées par le moteur, la simplicité d’utilisation et le fait qu’aucune connaissance particulière sur le sujet photographié ne soit nécessaire conduisent à effectuer cette opération au tout début du processus de recherche. En ce qui concerne les trois photos de notre exemple, la recherche est négative, mais nous avons obtenu des résultats sur d’autres photos du corpus PhotosNormandie.
Règle 3 : si vous ne connaissez rien au sujet, effectuez quand même des recherches
Les deux première règles n’exigeaient pas de connaître très précisément le sujet. À partir de cette étape, il est par contre conseillé de bien connaître le sujet pour effectuer des recherches pertinentes. Néanmoins, cela ne signifie pas qu’il soit nécessaire d’être un spécialiste chevronné pour s’essayer à découvrir des informations sur une photo. On ne doit pas oublier en effet que le processus est également formateur, qu’il permet d’apprendre sur le sujet ignoré, mais aussi bien sûr que la sérendipité peut se manifester lors de toute recherche, y compris celles qui semblent parfois vouées à l’échec faute de connaissances.
Règle 4 : recherchez des images similaires sur des corpus structurés analogues
Les corpus structurés analogues sont des bases de données ou des répertoires qui peuvent éventuellement contenir des images similaires à celle sur laquelle on recherche des informations. Les photos ne sont pas les seules images intéressantes et l’on doit aussi rechercher des séquences de films sur lesquels figure la même scène que sur l’image examinée. Comme mentionné précédemment, cette recherche suppose que l’on connaisse bien les gisements d’images qui peuvent être intéressants. Pour notre exemple, il s’agit de certaines agences photos, des collections d’archives ou de musées, des publications, des sites divers qui contiennent des photos ou des films réalisés lors de la Seconde Guerre Mondiale. Lorsque de telles images similaires sont retrouvées, on doit analyser leurs légendes, descriptions ou contextes de publication (article de journal par exemple).
Photo publiée dans le magazine Yank du 30 juillet 1944
Règle 5 : recherchez l’image ou des images similaires sur des collections non structurées (Google Images)
Pour rechercher des informations concernant une photo précise, Google Images n’est en général pas un outil très performant car il génère bien trop de bruit. Il peut arriver cependant que l’on puisse retrouver par ce moyen l’image telle qu’elle a été publiée ailleurs (cf. règle 2) ou des images similaires (cf. règle 4). Avec notre exemple, cette recherche n’a rien donné.
Règles 6 : recherchez des informations sur tout le spectre des documents qui ne sont pas des images : pages webs, blogs, forums, livres, journaux, magazines, etc.
Avec ces nouveaux clichés, il devenait clair que l’événement avait été largement couvert tant par des photographes militaires américains que par des correspondants de presse. Nous avons donc effectué des recherches sur les sites proposant des documents américains datant de 1944. Un rapport d’opérations de la First Army donne ainsi les précisions suivantes (résumé) :
Le 2 juillet, 9 infirmières allemandes, prisonnières venant de l’hôpital de Cherbourg, arrivent au 45th Evacuation Hospital., dans le secteur de La Cambe (Calvados). Elles vont être rendues aux Allemands, après un petit séjour de quelques heures dans l’hôpital, elles embarquent à bord d’une ambulance puis partent vers Balleroy. Vers 18h00, Après deux heures d’attente, un arrangement final est trouvé pour réaliser une trêve de quelques minutes pour permettre le franchissement des lignes en toute sécurité, elles rejoignent leurs lignes via la ligne de front située à Caumont-L’Eventé.
Des transcriptions de documents allemands concernant l’interrogatoire des infirmières après leur retour et les échanges radio qui ont initié le transfert existent également.
Les informations collectées à l’aide de ces sources sont succinctement résumées ci-dessous :
Le retour des infirmières a été organisé par le capitaine Quentin Roosevelt (fils du Brigadier General Theodore Roosevelt. Jr.) et le capitaine Fred Ghercke. Les infirmières avaient de 30 à 58 ans. Certains articles en mentionnent seulement 8. L’une des infirmières, une blonde au front large et à la mâchoire carrée, s’appelait Herta Wist et était originaire de Karlsruhe. Elle avait fait des études en Angleterre et parlait anglais. Son mari était capitaine de marine avait été fait prisonnier à l’Arsenal de Cherbourg. Avant d’être infirmière, quelques semaines plus tôt, elle avait été pianiste. Elle portait des bas de soie et un ruban à sa veste blanche.
Règle 7 : reformulez les questions en fonction des résultats obtenus, modifiez les termes utilisés dans les recherches (variantes sémantiques, traductions en d’autres langues, etc.), rebondissez
Il est à peine besoin de commenter cette règle heuristique que tout chercheur d’informations utilise abondamment. Elle est décrite par John Battelle de façon un peu « romantique » dans la citation du début de ce billet. Mentionnons simplement qu’il est judicieux de poser systématiquement de nouvelles questions à l’aide des nouveaux termes significatifs découverts lors de recherches précédentes, en particulier sur les entités nommées (noms de personnes, de lieux, d’entreprises, etc.).
En ce qui concerne notre exemple, le nom « Herta Wist » qui apparaît dans les articles de journaux retrouvés nous a permis de découvrir plusieurs informations concernant cette personne dans plusieurs sources : des forums et des livres allemands dont l’un a été traduit en français (Paul Carrell “Ils arrivent” [Sie kommen]).
Règle 8 : repérez les nouvelles sources d’informations intéressantes et explorez-les systématiquement
Même remarque que précédemment : tout chercheur d’informations sérieux se doit d’explorer les nouvelles sources. En utilisant les liens de navigations explicites sur les nouvelles pages repérées bien sûr, mais aussi en effectuant des recherches ciblées et limitées sur le nouveau site (à l’aide de l’opérateur site: sur Google) et en essayant de lister les répertoires en raccourcissant les URLs. Nous avons ainsi réussi à lister des répertoires contenant des photos sur lesquelles aucune page Web ne semble pointer (je ne donne pas de liens).
Règle 9 : après chaque recherche, dressez une liste des nouvelles questions apparues
La sérendipité ne se manifeste pas seulement lorsque l’on trouve une solution à une question que l’on ne se posait pas initialement. On peut considérer que c’est aussi l’un de ses effets que d’ouvrir le champ à d’autres questions, de susciter de nouvelles interrogations. Pour reprendre notre étude de cas par exemple, de nouvelles questions se posent concernant le fait que l’événement a été largement médiatisé et utilisé comme propagande (cf. le terme « chevaleresque » utilisé dans certaines relations alors qu’il s’agissait de la stricte observation des articles de la Convention de Genève concernant le personnel infirmier), l’apparition de noms connus comme Quentin Roosevelt ou Hemingway, le rôle exact de deux des femmes libérées qui en réalité n’étaient pas infirmières, la perception de cet événement par le côté allemand, etc.
Règle 10 : utilisez la « force brute » sur certains résultats intermédiaires
Lorsque les résultats fournis par une recherche semblent particulièrement intéressants et qu’ils ne sont pas trop nombreux (soit quelques unités pour des documents textuels, quelques centaines pour des photos), le chercheur doit « prendre son courage à deux mains » et examiner précisément tous les résultats un à un. Une recherche est rarement facile. C’est presque toujours un travail long et parfois fastidieux. Ajoutons que cette attitude augmente évidemment la probabilité de dénicher une information que l’on ne cherchait pas, autrement dit elle favorise la sérendipité.
Règle 11 : publiez sur Internet vos résultats partiels
D’autres chercheurs dans le monde travaillent sur des sujets similaires. En publiant sur Internet vos résultats, même partiels, vous attirez leur attention et ils peuvent ainsi prendre contact avec vous pour vous aider. C’est le principe même du projet PhotosNormandie ainsi que de l’expérience The Commons initiée par la Library of Congress et dont les objectifs sont d’accroître l’accès aux collections détenues par des institutions du monde entier et de fournir au public un moyen lui permettant de contribuer à l’amélioration de la description des collections.
Mais c’est aussi à vous de surveiller ce que publient en retour les autres chercheurs qui peuvent s’appuyer sur votre travail, pas obligatoirement en le plagiant, mais souvent plus simplement parce qu’ils disposent déjà de leurs habitudes et moyens d’expression ailleurs (forums ou listes de discussions publics notamment).
Règle 12 : oubliez Internet, quittez le Web, passez « en jachère », lisez et rechercher des informations dans les livres, magazines, journaux, etc.
Là encore c’est évident. Quand vous estimez que le travail de recherche sur Internet commence à « tourner en rond », passez à autre chose. Et surtout n’oubliez pas de lire et de rechercher des informations sur les supports qui ne sont pas (pas encore ?) disponibles sur Internet.
Pour revenir sur notre étude de cas par exemple, selon Antony Beevor dans son récent ouvrage D-Day et la bataille de Normandie, Calmann-Lévy, 2009, page 315 :
« Ce second transfert, et le traitement chevaleresque de ces infirmières, écrivit leur commandant, le général von Lüttwitz, [le commandant de la 2.Pz-Div] fit alors forte impression sur toute la division. Von Lüttwitz en informa Rommel, qui décida que cela pouvait être l’occasion d’un contact avec les Américains. »
Après avoir pris conscience que l’événement avait été largement couvert par les photographes et la presse de l’époque, et visiblement utilisé à des fins de propagande, nous sommes actuellement à la recherche de films qui auraient pu être tournés.
Règle 13 : positionnez des alertes, et après cette « période de jachère », reprenez les mêmes recherches sur Internet
Lorsque vous n’êtes plus en phase de recherche active, pensez à positionner des alertes Google sur des expressions pertinentes et discriminantes de façon à être averti lorsque une information nouvelle et potentiellement intéressante a été repérée par le robot.
Après avoir oublié votre sujet de recherche durant quelques mois, reprenez-le, relancez les mêmes requêtes. Pour repérer alors ce qu’il y a de nouveau, Google par exemple dispose d’une fonctionnalité intéressante permettant de filtrer les résultats les plus récents.
Recherchez aussi régulièrement les sites qui vous citent ; c’est un moyen assez efficace pour retrouvez des sources intéressantes qui travaillent sur des sujets similaires (et aussi des individus qui s’approprient sans honte votre travail…).
Règle 14 : (métarègle) effectuez toujours deux examens des résultats obtenus : l’un centré sur la question posée, l’autre en essayant d’oublier la question.
Il s’agit d’une sorte de « recommandation » qui s’applique à toute lecture de textes ou examen d’images en retour de résultats. En ce sens, c’est une manière de « métarègle ». Il ne s’agit pas de lire deux fois les documents trouvés, mais d’en prendre connaissance en essayant de ne pas focaliser totalement son attention sur la question posée, d’essayer de repérer également ce qui pourrait être intéressant et que l’on n’a pas cherché explicitement, en bref en tentant d’avoir toujours en éveil le sens de la sérendipité.
LAKATOS Imre, Proofs and Refutations. The logic of mathematical discovery. 1976. Cambridge University Press. Trad. fr. de N. Balacheff et J. M. Laborde: Preuves et réfutations. Essai sur la logique de la découverte mathématique. Paris : Hermann, 1984.
PÓLYA George, How to solve it. 1945. Princeton University Press. Doubleday Anchor Books. Réédition 1957.
PÓLYA George, Les mathématiques et le raisonnement plausible. 1954. Trad. fr. par L. Couffignal et R. Vallée. Paris : Gauthiers-Villars, 1958.
ROMANYCIA, M. & PELLETIER F.J. , What is a Heuristic? Computational Intelligence 1: 47-58., 1985
SIMONNOT Brigitte et GALLEZOT Gabriel (dirs.), L’Entonnoir. Google sous la loupe des sciences de l’information et de la communication. C&F éditions. Caen. 2009