Archives pour la catégorie éducation

big data, publication agile : et TOC !

Lorsque l’on revient d’une conférence comme le TOC (ou comme Digital Book World), s’ensuit toujours un moment un peu confus, où plusieurs interventions se mélangent dans votre mémoire, où l’impression globale est un peu floue, où l’on se demande «  mais finalement, que vais-je retenir de cette conférence ?  » La réponse, cette année, n’est pas très romantique : data, data, data. (Prononcer  à l’américaine : «  daita  », en trainant un peu sur le «  ai  »). Malgré ma légère tendance à l’ «  innumeracy  », j’ai été impressionnée par la présentation de Roger Magoulas, Directeur des études marketing chez O’Reilly. L’éditeur dispose en effet d’un outil de présentation de ses données qui semble à la fois simple et efficace, et Magoulas explique fort bien pendant sa présentation, que l’efficacité de cet outil dépend en quelque sorte de sa simplicité. Et la simplicité n’est jamais le résultat d’une approche rustique, elle est au contraire le fruit d’un travail très approfondi, d’une réflexion menée à son terme. Ce qui est vrai pour le design (la légendaire simplicité du design des objets produits par la firme Apple étant l’exemple le plus souvent cité, mais il en est d’autres), est vrai aussi pour la visualisation de données. Simple is beautiful ! Et pour construire un tel outil, il importe de se poser quantité de questions : quelles sont les données dont je dispose ? Quelles sont les données dont j’ai besoin ? Sous quelles formes ces données doivent-elles être restituées pour que je puisse en tirer des conclusions ? Quelles sont les prises de décisions qui pourraient être facilitées par des données, lesquelles, et sous quelle forme ? Magoulas évoque la nécessité d’utiliser le «  storytelling  » pour rendre ces données parlantes, lisibles, frappantes, faciles à mémoriser. Il faut que les données racontent une histoire (mais il est indispensable aujourd’hui de raconter une histoire, semble-t-il, si on veut retenir l’attention des gens, comme si nous vivions tous une enfance prolongée, et que toute information devait être précédée d’un «  il était une fois…  » )

Comment se vend tel titre ? Comment se vendent les autres titres sur le même thème ? Sur quel canal, à quel moment se vend-il le mieux ? Le moins bien ?  Quelles répercussions sur les ventes a eu tel ou tel événement ? Ces questions ne sont pas nouvelles, ni la fonction analyse de données dans les entreprises. Ce qui est plus nouveau, c’est la quantité de données disponibles et la sophistication des outils toujours croissante, la possibilité de mise en circulation de ces données, l’immédiateté de leur disponibilité. Après avoir montré quelques exemples de mise en forme des données, Roger Magoulas donne des conseils à ceux qui voudraient adopter une démarche proche : la clé, indique-t-il, c’est l’intégration des compétences. Le fait qu’il n’y ait pas une équipe isolée qui s’occupe des données dans l’indifférence générale, mais que chacun ait une «  culture des données  », qui passe par un peu d’apprentissage  mathématique. Il dit aussi «  sortez, allez voir dehors !  » ce qui signifie   : les données ne sont pas seulement dans vos systèmes, il est quantité de données que vous pouvez extraire du web, de Twitter, de Facebook, et traiter de plus en plus finement. Enfin, cette réflexion, déjà entendue certainement, mais qu’on ne répétera jamais assez : «  If you don’t run something, what are you learning ?  ». Oui : si vous ne bougez pas, si vous n’essayez pas, qu’allez-vous apprendre ?

Il est à noter que l’éditeur pour lequel travaille Roger Magoulas est un éditeur bien particulier, puisqu’il s’agit d’O'Reilly, qui édite principalement des livres destinés aux informaticiens. Cette maison d’édition est située au cœur de la Silicon Valley, dont Tim O’Reilly, son fondateur, est l’une des figures. C’est Tim O’Reilly qui a, dans un célèbre article, popularisé le concept de Web 2.0. C’est d’ailleurs ce qui donne à l’événement TOC sa tonalité particulière :  l’ancrage de ses organisateurs dans la culture web, sa proximité avec les idées qui ont cours parmi les entreprises du web, et la certitude d’y entendre exprimées des idées qui font bouger les lignes, et bousculent les habitudes des éditeurs. C’est d’autant plus important qu’aujourd’hui, les maisons d’édition, grandes et petites, sont amenées à travailler avec des entreprises issues de cette culture et maîtrisant parfaitement les savoir-faire dont nous parle Roger Magoulas,  les «  acteurs globaux  », comme on dit, Amazon, Google, Apple. Le framework utilisé par O’Reilly et cité dans la présentation,  Hadoop a été inspiré par les publications MapReduce, GoogleFS et BigTable de Google. Pour se familiariser avec cette thématique des big data, il existe d’excellents articles en français, celui d’Henri Verdier, ceux d’Hubert Guilllaud sur Internet Actu.

Une autre thématique qui a retenu l’attention en cette édition 2012, c’est celle de la publication agile (Agile Publishing). Là aussi, il s’agit d’importer dans le monde de l’édition un concept issu du monde informatique, celui de la méthode agile. Là aussi, l’un des intervenants de la session dédiée à ce thème travaille chez O’Reilly (Joe Wikert), et l’autre est la très dynamique  (et sympathique) Dominique Raccah, sans qui il semble aujourd’hui difficile de boucler la programmation d’une conférence sur l’édition numérique. La méthode agile, c’est une méthode de développement informatique itérative et incrémentale, basée sur un esprit collaboratif, intégrant le dialogue avec le client et l’acceptation du changement en cours de projet. Les principes du développement agile ont été publiés en 2001 dans un manifeste, le web adore les manifestes…

Il est intéressant de voir comment un concept résiste à la transplantation d’un univers à un autre, même si cela peut être aussi la porte ouverte à beaucoup d’à peu près. (Lire à ce sujet le livre ravageur de Jacques Bouveresse, Prodiges et vertiges de l’analogie : De l’abus des belles-lettres dans la pensée, Raisons d’Agir, 1999 - ou simplement cette conférence,  critiquant la légèreté avec laquelle certains philosophes se sont pris d’affection pour des concepts scientifiques et ont voulu les importer dans le monde de la philosophie, sans se donner la peine de chercher à comprendre ces concepts avec le minimum de rigueur.)

L’idée de publication agile repose bien sur une analogie   : au cœur de la méthode agile se trouve un logiciel, une application. Ce qui fait l’objet de la publication agile, c’est un livre. Un logiciel répond à un cahier des charges (même si avec la méthode agile, on peut s’attendre à un cahier des charges moins volumineux), un logiciel doit permettre à ses utilisateurs d’accomplir un certain nombre de tâches bien définies. Il n’en est pas tout à fait de même pour un livre, même dans le cas des livres pratiques, qui répondent à des besoins spécifiques. Le plus pratique des livres de cuisine ne «  fonctionne  » pas, au sens où il n’est pas doté de la moindre «  fonctionnalité  » (l’objet livre est doté de fonctionnalités, toutes les mêmes, liées à sa forme,  mais pas l’œuvre). Il peut permettre à celui qui le lit d’agir, mais il ne déclenche pas directement des actions, comme doit le faire un logiciel. Une application dérivée d’un livre de cuisine peut, elle, disposer de fonctionnalités. Elle peut calculer par exemple les quantités d’ingrédients en fonction du nombre de convives, générer votre liste de courses, suggérer une recette en fonction de critères (difficulté, temps de préparation etc.).  Le livre est avant tout destiné à être lu, même si la lecture peut prendre bien des  formes, immersive ou non, continue ou non, rapide ou lente, méditative ou superficielle, silencieuse ou à voix haute, solitaire ou partagée.  L’art de la mise en page est tout entier orienté vers l’agrément de la lecture, il ne s’agit pas d’une démarche totalement assimilable à la recherche ergonomique qui préside à la conception d’une interface. Ainsi, la nécessité de tests itératifs avec des utilisateurs en ce qui concerne un livre doit-elle se justifier par d’autres raisons que celles qui coulent de source lorsqu’on teste un logiciel : on doit alors vérifier que l’utilisateur comprend ce qu’il doit faire, et que les manipulations de celui-ci permettent le fonctionnement du logiciel, et ne conduisent pas à des fonctionnements inattendus. Cela demeure vrai lorsque l’on parle de livres numériques. Des problèmes ergonomiques doivent bien être résolus, mais par les concepteurs de moteurs de lecture. Ceux qui produisent les fichiers se posent essentiellement des problèmes d’affichage, de rendu, s’inquiètent de la manière dont l’intention du compositeur sera respectée avec tel et tel moteur de lecture. Nulle nécessité de tester techniquement chaque livre numérique auprès des utilisateurs, sauf si on utilise déjà EPUB3, et que les livres intègrent des éléments d’interactivité non portés par le moteur de lecture grâce à la balise «  canvas  » et à javascript.

De la méthode agile, lorsqu’elle l’a transposée dans l’univers de l’édition, Dominique Raccah a principalement retenu le principe de proximité entre client et équipe de développement, le transposant bien sûr en une proximité auteur / lecteurs. L’auteur, dans ce mode de publication, demeure celui qui écrit le livre, il ne s’agit pas de co-écrire le livre avec les lecteurs, mais il soumet le livre en cours d’écriture à la communauté de lecteurs, qui peuvent réagir au fur et à mesure, indiquer des manques, demander des précisions, réagir, soumettre des idées. L’auteur peut ensuite intégrer ou non les remarques en retravaillant les chapitres déjà publiés. L’écriture du livre n’est pas confiée à la communauté des lecteurs, mais cette communauté est associée au processus.

De même, Joe Wikert a cité des exemples de livres qui ont fait chez O’Reilly l’objet d’une méthode de publication agile, comme «  Books, a Futurist’s Manifesto  » de Hugh Mc Guire et Brian O’Leary. Ce livre a été rédigé et révisé sur PressBooks, l’outil de production en ligne développé par son auteur Hugh Mc Guire, et publié dès qu’un contenu «  juste suffisant  » a été disponible, puis les chapitres se sont ajoutés, et des mises à jour ont été faites.  Aujourd’hui, il est disponible en téléchargement payant et gratuitement en streaming sur le site PressBooks.  Joe Wikert a également cité une offre déjà ancienne chez O’Reilly, destinée aux utilisateurs de la bibliothèque en ligne Safari, nommée Rough Cuts, qui consiste à donner accès à des livres encore en cours d’écriture. Effectivement, c’est un peu ancien, car j’ai consacré l’un des premiers articles de ce blog à Rough Cut…  En 2007, j’étais déjà assez enthousiaste à l’idée de nouvelles formes de publication, même si le terme de publication agile n’est pas présent dans mon billet.

Et vous, croyez-vous que ce mode de publication va se répandre ? Jugez-vous pertinent l’emploi du terme de Publication Agile ?

Invités d’honneur

untitled-0-00-02-13Cette année, la France est l’invité d’honneur de la foire du livre de Séoul, et le BIEF (Bureau International de l’Edition Française) m’a demandé de participer aux journées professionnelles organisées à cette occasion.

J’ai donc fait le déplacement, pour intervenir au sujet des enjeux du numérique dans l’édition, en duo avec un représentant de l’Association des Publications Numériques de Corée, M. Chang Di Young. Bien qu’il m’arrive de plus en plus souvent de me livrer à cet exercice, je m’y prépare toujours avec le même soin, retouchant mes slides jusqu’à la dernière minute, soucieuse de présenter le plus clairement possible la manière dont les éditeurs français abordent les questions touchant au numérique, les défis auxquels ils sont confrontés, et les changements que cela implique dans leur manière de travailler.

Dans le salon lui-même, une petite allée de stands montrant des liseuses, dont la liseuse Samsung.  Je discute un moment avec un représentant de IN3tech, ( InCube Technologies), un prestataire proposant aux éditeurs ses services pour la numérisation et l’intégration de leur catalogue dans la librairie que Samsung met en place pour ses smartphones et sa nouvelle liseuse. Comme nous échangeons nos cartes (à la manière coréenne : tenir la carte à deux mains et s’incliner légèrement), il voit le nom du groupe qui m’emploie et tilte immédiatement, me parlant de vidéo, de YouTube, et je comprends qu’il a vu le film «  Possible ou Probable  » réalisé par Editis il y a quelques années. Il appelle ses collègues pour leur montrer le logo sur ma carte, et tous me font part de leur enthousiasme pour ce film, et je suis obligée malheureusement de leur dire qu’il a été réalisé avant que je n’arrive dans le groupe, et oui, je ne peux m’attribuer aucun mérite à propos de ce film que Bob Stein, plusieurs années après sa sortie, avait signalé à nouveau, lui redonnant visibilité.

J’assiste également à l’intervention d’Hugues Jallon, Directeur Editorial de La Découverte, qui fait une très belle synthèse sur l’édition de Sciences Humaines, abordant la question de manière thématique et en citant et resituant de nombreux titres et auteurs, dans le champ économique, dans celui du politique et celui de l’environnement. Auprès de lui, deux éditeurs de Sciences Humaines coréens, deux éditeurs véritables, passionnés, qui dirigent des petites maisons d’édition, expliquent l’extrême difficulté qu’il y a à trouver des traducteurs français-coréen capables de traduire de la philosophie ou de la sociologie de haut niveau. Il racontent aussi, de manière assez drôle, leurs difficultés à trouver des soutiens financiers, expliquant que lorsqu’ils essaient d’intéresser des industriels (ils citent l’exemple de Hyundaï, qui sponsorisent sans problème à coup de milliards- en won, le milliard est assez vite atteint, c’est environ 8750 euros – des clubs de sport, mais refusent ne serait-ce  que de recevoir ou regarder leurs livres… Il n’est pas facile, donc, de faire circuler la pensée française, mais certains s’y emploient avec une énergie et une passion qui font plaisir à voir, sans se décourager, ne se résignant pas à ce que les Coréens pensent que rien ne s’est passé chez nous depuis le structuralisme et les auteurs de la «  French Theory  ».

Très peu de temps pour découvrir la ville, même en se levant très tôt (facile avec le décalage horaire…).  Retrouvé Hugues Jallon ce matin pour prendre  le métro à la première heure. Nous quittons le quartier où a lieu la foire, quartier récent dédié au business, grandes avenues bordées de tours, mais dont les rues transversales révèlent des surprises : vous tournez au coin de la rue et l’échelle change brutalement, un fouillis de petites constructions, des restaurants bon marché, une ambiance très différente de celle de l’avenue qui n’est qu’à vingt mètres.

Nous avons ensuite marché plus de trois heures, le plan à la main, nous repérant grâce aux bâtiments, et réussi à trouver notre chemin jusqu’au palais Deoksugung, l’un de ces lieux qui permettent d’éprouver un sentiment d’architecture, cette émotion particulière et rare que l’on éprouve en voyant certains bâtiments, sans pouvoir toujours analyser d’où il provient : l’échelle ? le rapport entre les vides et les pleins ? la disposition des bâtiments, les couleurs, les matériaux ?

Il faudrait bien plus de temps, évidemment, pour se faire une idée de cette ville immense, et tel n’est pas, bien sûr l’objet de notre voyage. Il prend fin, d’ailleurs, et demain, onze heures d’avion m’attendent, et n’oublie pas, mon chéri, de venir me chercher à l’aéroport (c’est un test, pour savoir si oui ou non mon amoureux lit mon blog comme il le prétend…)

Encore le Cloud…

bleuQuel dommage de parler de «  clouds  » en ce beau premier week-end vraiment printanier… Mais je n’ai pas le choix. suite à une intervention que j’avais faite au TOC de Francfort en octobre dernier, on m’a demandé de participer, lors de la prochaine foire du livre de Londres, à une table ronde sur le thème «  Clouds : What are They Really About, and What is Their Impact on Publishers ?  »

Bonne occasion pour sortir mon blog de sa léthargie, et essayer de faire ce à quoi sert un blog : réfléchir tout haut, réfléchir avec vous, ouvrir la boîte, et m’aider de votre possible lecture pour avancer dans la préparation de cette table ronde.

Je suis loin d’être une spécialiste de la question, et c’est pour ça que ça m’intéresse… Les premières explications concernant le cloud computing, c’est au théâtre de la Colline, lors d’une conférence donnée dans le cadre d’Ars Industrialis que je les ai trouvées. J’ai approfondi cette affaire en lisant le livre co-écrit par Christian , Alain Giffard et Bernard Stiegler, intitulé «  Pour en finir avec la mécroissance«  .

A Francfort, je me suis demandé ce que pourrait bien devenir l’industrie du livre, si on se mettait à la définir non plus comme «  produisant  » des livres, mais comme proposant des services, en détournant l’un des sigles qui déclinent ceux que le cloud computing propose : «  PAAS = Publishing As A Service  ».

J’avais bien conscience, dans cette présentation, de jouer un peu sur les mots, en considérant comme «  dans les nuages  », toute l’activité qui entoure le livre et qui se situe en ligne. En effet, il ne suffit pas qu’un service soit proposé en ligne pour qu’il relève précisément  du «  cloud computing  », ou alors, on enlève à ce concept sa véritable substance, considérant chaque serveur comme un petit nuage…  Non, lorsque l’on parle de «  cloud computing  », on parle non pas de serveurs dispersés et gérés de façon autonome, tous reliés par internet. On parle de gigantesque installations industrielles, contenant des centaines de milliers de serveurs, offrant d’énormes capacités de stockage et de calcul. On parle aussi «  virtualisation  », et là, je cite Christian Fauré :

La virtualisation est un procédé qui consiste à dé-corréler la vision physique de la vision logique des infrastructures de machines. On peut ainsi avoir une seule machine physique qui est considérée comme étant une multiplicité de machines logiques. Bien que la technologie de virtualisation ne soit pas toute récente,  Amazon a relevé le défi non seulement de la mettre en place sur de très grandes quantités de machines, mais en plus d’automatiser l’allocation
de ses ressources logiques, permettant ainsi à tout internaute de mettre en place un serveur virtuel, en ligne et sans intermédiaire. Nombre de jeunes sociétés web s’appuient aujourd’hui sur les infrastructures d’Amazon pour disposer d’une puissance de calcul et de stockage « à la demande » et élastique, précisément pour ne pas s’effondrer en cas d’augmentation des consultations sur leur site.  »

La complexité et le gigantisme de ces installations industrielles, mises en place par des acteurs dont on imagine que, parce qu’ils opèrent sur le web, ils ne brassent que du virtuel, de l’immatériel, a été un réelle découverte. D’ailleurs, l’idée très bien implantée qui consiste à considérer que «  du moment que ça passe par Internet, cela ne coûte rien, c’est virtuel, ce sont des «  bits  », pas des atomes, alors n’allez pas nous faire croire que cela coûte cher  » s’appuie sur cette vision naïve d’une société de la connaissance qui serait post-industrielle, brassant uniquement de la matière grise à l’aide d’impulsions électroniques sans presque aucune inscription dans la matière. Amazon, Google, Microsoft, IBM, Apple, possèdent de telles installations, et continuent d’en construire. Où croyez-vous que sont stockés vos photos sur Flickr, vos vidéos sur YouTube, vos messages sur Twitter, vos publications sur Facebook, et vos billets de blog ?

Alors, l’édition dans les nuages ? Ce que j’avais eu envie de mettre en avant à Francfort, c’est le fait que le livre n’avait pas besoin d’être numérique pour avoir quelque chose à voir avec le cloud. Que déjà, alors que le livre numérique en France en est encore à ses balbutiements, le monde des livres avait déjà en partie migré sur le web, et probablement «  dans les nuages  » aussi. Que déjà, le concept de «  chaîne du livre  » était devenu inopérant, et cédait la place à quelque chose qui ressemblait bien plus à un réseau, dont bien des nœuds, déjà, étaient dépendants du cloud computing. Notre bouquinosphère, par exemple, mais aussi le web littéraire, avec lequel elle a des intersections. Auteurs-blogueurs, pro-am de la critique littéraire, certains libraires et éditeurs, tous utilisent des services et des plateformes qui bien souvent s’appuient sur ces infrastructures «  dans le nuage  ».

Du côté des éditeurs, les exemples de nouvelles offres éditoriales tout à fait susceptibles d’utiliser le cloud computing se multiplient également. Les sites proposant du «  pick and mix  », offrant la possibilité aux utilisateurs de composer eux-mêmes le livre qu’ils pourront ensuite consulter en ligne, télécharger ou imprimer à la demande se sont multipliés. Construits autour de thématiques comme la cuisine, ou bien édition scolaire et universitaire, ces sites s’appuient sur des plateformes permettant d’identifier et de sélectionner des éléments de contenu, textes et images, de les choisir et des les assembler. La plupart proposent aux utilisateurs de créer des ouvrages qui pourront mixer des contenus éditoriaux prééxistants et des contenus créés par l’utilisateur.

La vision de Bob Stein, celle d’une lecture connectée, communautaire, collective, de textes disponibles en ligne et accompagnés de dispositifs permettant annotation et échanges entre lecteurs, s’appuie également sur un concept de plateforme en ligne, offrant à la fois l’accès à un contenu et l’accès à des services qui vont au-delà du simple affichage du texte.

En vérité, chacun des services cités n’était pas nécessairement situé dans les nuages, au sens strict du terme. Susan Danzinger, la fondatrice de Daily-Lit, que j’avais questionnée à ce sujet m’avait répondu que l’offre qu’elle propose n’utilise pas le cloud computing, pour la raison simple que ces solutions ne permettaient pas de gérer comme elle le souhaitait les envois de mail, et que le service qu’elle propose (envoi à la demande d’un livre numérique sous forme d’extraits successifs, adressés soit par mail,  soit vers un agrégateur de fils RSS)  exigeait cela.

La grande idée du cloud, pour la résumer très sommairement,  c’est de demander aux dirigeants d’entreprise : de quoi avez-vous besoin ? de salles informatiques bourrées de serveurs pour héberger les applications que les salariés de votre entreprise utilisent ? ou bien que ceux-ci accèdent simplement à ces applications pour les utiliser ? Pourquoi vous embêter avec le stockage, l’installation, la maintenance, la mise à jour, le dimensionnement ? Nous pouvons faire tout cela pour vous. Vous n’avez pas besoin d’acquérir des licences et d’installer des logiciels. Vous avez besoin des services que ces logiciels  vous rendent.

À quoi bon être propriétaire ? À quoi bon vous embêter à entretenir votre bien, à réparer la toiture, à changer la plomberie, à refaire les peintures ? Avez-vous vraiment besoin de cela ? Ou bien plutôt d’un toit pour vous abriter, et que quelqu’un s’occupe pour vous de faire en sorte que ce toit ne prenne pas l’eau, ou vous propose une pièce supplémentaire le jour où la famille s’agrandit…

L’édition dans les nuages, selon Google, c’est Google Recherche de Livres, mais aussi Google Editions :  à quoi bon télécharger vos livres ? Laissez-les sur le nuage. A quoi bon les stocker sur votre disque dur, à la merci d’un plantage ? Votre bibliothèque entière sera dans le nuage, disponible en quelques clics (ou en quelques caresses sur l’écran de votre iPad…). Vous vous y faites très bien en ce qui concerne vos mails, utilisateurs de Gmail, Yahoo ou Hotmail… Est-ce que cela vous dérange vraiment de ne pas stocker vos mails sur votre disque dur ?

L’édition dans les nuages, selon Amazon, c’est ce livre que vous commencez à lire sur votre Kindle, et dont vous poursuivez la lecture sur votre iPhone, où il s’ouvre directement à la bonne page… La synchronisation se fait via le nuage d’Amazon, qui stocke et traque vos lectures. Mais c’est aussi ce livre que vous aviez acheté, et qu’Amazon efface de la mémoire de votre Kindle sans vous demander votre avis…

Olivier Ertzscheid, nous met en garde :

«  Pourtant, et maintenant que les grands acteurs du web sont bien positionnés dans les nuages, maintenant que chacun d’entre nous, particulier ou institution/entreprise dispose quotidiennement de ces services le plus souvent dans la plus parfaite transparence/ignorance, maintenant qu’au-delà des seuls accès ce sont également nos pratiques, nos médiations, qui prennent place dans la distance offerte par ces nuages, il est temps de sortir de l’imaginaire cotonneux dans lequel nous entraîne et que co-construit le vocable même «  d’informatique dans les nuages  ».

Sortir de l’imaginaire cotonneux, certes, et demeurer vigilant. Remplacer cet imaginaire cotonneux par une connaissance suffisante de ce que recouvre cette terminologie séduisante, une réflexion nourrie sur les conséquences des basculements qui s’effectuent déjà, pour autoriser des prises de décision qui ne se basent ni sur des peurs fantasmatiques ni sur des enthousiasmes naïfs.

Une maison d’édition est susceptible d’avoir affaire au «  cloud computing  » à plus d’un titre :

- en tant qu’entreprise, elle peut faire le choix d’offres «  XAAS  » pour son informatique de gestion.

- elle peut également développer de nouvelles offres éditoriales impliquant l’utilisation de services basés sur le «  cloud  », ce qui l’engage à repenser et transformer ses processus de production, comme l’ont fait les premiers les éditeurs scientifiques comme Elsevier, en partenariat avec MarkLogic.

- elle s’inscrit, je l’évoque déjà plus haut,  dans un écosystème qui utilise déjà largement des services basés sur le cloud computing, qu’il s’agisse de repérer des auteurs ou de promouvoir ses titres : l’usage des réseaux sociaux, tous adossés à des solutions «  cloud  », se développe considérablement.

Enfin, et c’est peut-être là le point le plus important, l’éditeur,  qui n’existerait pas sans ses lecteurs, se doit de s’interroger sur l’impact du «  cloud computing  » sur la lecture elle-même, et sur la définition de la lecture numérique à l’ère des lectures industrielles,  objet des recherches d’Alain Giffard, récemment invité des assises professionnelles du livre organisées par la commission numérique du SNE.

J’ai filmé avec ma petite flip caméra, en tremblotant un peu, un petit moment de cette intervention, qui n’est pas sans rapport avec ce dont il est question ici, le voici :

Que ferons-nous des nos livres, en effet, s’ils s’en vont sur les nuages, et que ne parvient pas à s’inventer un art de la lecture numérique ? J’arrête ce billet, plus que je ne le termine,  tant les questions sont loin d’être toutes abordées et traitées,  en citant Alain Giffard :

«  Les faiblesses des robots de lecture permettent d’établir ce point que je crois décisif : le dispositif actuel de lecture numérique suppose un lecteur doté à la fois d’une grande responsabilité et d’une grande compétence. Il est responsable non seulement de l’établissement du texte pour la lecture, mais aussi de la technologie, de sa propre formation, et de sa participation au réseau des lecteurs. Il ne confond pas pré-lecture et lecture, « hyper-attention » et attention soutenue, lecture d’information et lecture d’étude, acte de lecture et exercice de lecture. Il sait identifier et rectifier le travail des robots. Même l’industrie de lecture reconnaît que son activité suppose un tel lecteur. Pour se défendre à propos des erreurs relevées dans les moteurs de Google Books, les dirigeants de Google soutiennent que l’ampleur du texte numérique impose l’automatisation avec sa part d’erreur machinique inévitable et donc l’activité de correction des internautes. Autrement dit, à l’inlassable industrie de lecture du robot doit correspondre l’interminable activité de rectification du lecteur compétent.  »

Je ne suis pas un robot, mais je fais appel aux lecteurs compétents que vous êtes, pour apporter corrections et rectifications à ce billet…

Première messe

messeJ’en ai croisé qui disaient : c’est ma 42ème, l’un en est même à sa 53ème. Moi, c’était ma première Foire de Francfort, ma première « messe » disent les allemands.
Je n’aime pas beaucoup les foires et les salons, lumières artificielles, bruit de fond, kilomètres de moquette et de mobilier de stand. Mais à Francfort, étrangement, alors que tout est multiplié par dix  (plusieurs halls immenses, chacun sur plusieurs étages, et des kilomètres de couloirs que des tapis roulants tentent de raccourcir), je passe plusieurs jours passionnants, où s’enchainent les rencontres.

Entre les rendez-vous, je m’aventure :

- au pavillon de l’invité d’honneur, cette année la Chine, ou une belle expo nous rappelle l’histoire de l’écriture, et que les Chinois avaient inventé l’imprimerie bien avant notre Gutenberg. Je suis toujours émue d’une manière assez inexplicable devant les témoignages des premiers temps de l’écriture : signes gravés sur une carapace de tortue, un os, une pierre.

tortue

chinoisliseuses

Il suffit de tourner la tête, et on tombe sur une série de liseuses suspendues au dessus d’une rangée d’ordinateurs, toujours des signes, des mots, toujours du sens qui circule entre les gens.

- à l’étage des agents, dont quelqu’un m’a dit qu’il fallait que j’aille au moins y jeter un coup d’œil. Ici, pas de stands tape à l’œil, pas de livres exposés. Des rangées de tables étroites, avec des chaises de part et d’autre, et des dizaines de paires de gens en train de discuter.

agents01

- dans la grande cour centrale, entre les halls immenses, pour déjeuner de saucisses et de pain, emmitouflée dans mon manteau. Une éditrice me l’a bien dit ce matin : « Francfort, pour moi, ça veut dire que l’hiver arrive. »

- dans le Hall 8, celui des anglo-saxons, dont l’ambiance est bien différente du 6, où sont regroupés les français avec d’autres. Mais je ne suis pas là tellement pour comparer les stands impressionnants des uns et des autres, je cherche Mike Shatzkin, qui partage un stand avec quelques autres consultants, et après quelques tours de piste, car il est sans arrêt occupé à discuter avec quelqu’un, je finis par le trouver seul, et passe un bon moment à discuter avec lui. Il est si chaleureux que j’en ai oublié mon anglais hésitant. Il me glisse une pub pour un événement qu’il organise à New York en janvier,  j’aimerais bien y aller.

Avant la «  Messe  », il y a eu la journée TOC organisée par O’Reilly. J’ai entendu Sara Lloyd, dont j’avais aidé Hubert et Alain à traduire le « digital manifesto » l’an dernier. Elle est suivie par Cory Doctorow, dont l’intervention qui pourfend les DRM sera pas mal commentée le lendemain sur la foire, tout comme la conférence sur le piratage de Brian O’Leary, qui tend à démontrer, sur un nombre limité de titres d’O’Reilly, que la mise à disposition non autorisée par l’éditeur des fichiers des livres numériques sur des réseaux peer to peer, le piratage,  tendrait plutôt à favoriser les ventes. Certains (essentiellement un article de the Bookseller, qui est distribué sous format imprimé gratuitement partout dans la foire,  laisse entendre que des éditeurs accusent Andrew Savikas, qui a organisé l’événement, d’en avoir fait un événement plus orienté « informaticiens » que « éditeurs », et de mettre en avant les expériences d’O’Reilly qui édite des livres bien particuliers, essentiellement destinés aux développeurs, en laissant entendre abusivement que ses expériences pourraient fonctionner tout aussi bien pour l’édition grand public.

Je ne sais pas bien de quel côté j’aurai fait pencher la balance, avec mon intervention de l’après-midi : je suis bien quelqu’un «  de l’édition  », et je ne suis pas informaticienne. Pourtant, je dis,  entre autres choses, dans cette intervention : « éditeurs, il va vous  falloir être un peu plus proches de la technologie. Les livres vont devenir numériques, vous vivrez dans un univers un peu plus technique, et il faudra bien vous y mettre un peu, si vous voulez maîtriser ce qui s’en vient. »

Les critiques faites à Savikas me semblent bien peu justifiées. Les commentaires de Sara Lloyd ont été, elle le précise en commentaire sur le blog de TOC,  sortis de leur contexte. Je conçois que certains soient agacés par les prises de position de Cory Doctorow. Mais déformer la pensée de Sara et essayer de jeter le doute sur la qualité de l’événement organisé par les équipes d’O’Reilly me semble un procédé assez douteux. C’est tentant de trouver quelqu’un sur qui taper lorsque l’on réalise qu’il va falloir changer, et vite, si on ne veut pas se trouver complètement dépassé par un monde qui change à toute vitesse. C’est tentant de tomber à bras raccourcis sur celui qui essaie de regarder loin devant et dit « préparez-vous, accrochez-vous, ça va remuer ! ».

Les interventions auxquelles j’ai assistées au TOC n’étaient pas spécialement techniques. Même la présentation faite par Peter Brantley de l’OPDS n’était pas technique, ce qui est une prouesse lorsque l’on parle d’un sujet pareil. Et cette façon d’essayer de minorer l’intérêt d’un événement en stigmatisant ses intervenants et son public est vraiment assez désagréable. On dit « c’est un truc de geeks », et on retourne ne rien faire à propos du numérique, en se disant « il n’y a pas de marché ». On pourra ajouter quelques propos nostalgiques sur l’odeur de la colle et le toucher du papier…

Pour plus de détails, voir le blog TOC, avec les commentaires.

Pendant que je projetais des photos de nuages et essayais d’imaginer, en vilaine geek que je suis, ce que pourrait être le « Cloud Publishing », les rois du Cloud Computing faisaient, dans la salle à côté, l’annonce de l’ouverture prochaine de Google Editions. Cela avait été déjà annoncé il y a plusieurs mois, mais cette fois, même si aucune date d’ouverture n’est encore annoncée, cela semble plus proche, courant 2010.

Cela fait des années qu’on savait que cela allait arriver : les géants du web s’approchent à grand pas et font trembler le sol sous leurs bottes de sept lieues. Seront-ils aussi amicaux que les géants de Royal de Luxe qui ont investi Berlin à l’occasion du début des festivités liées à  l’anniversaire de la chute du mur ?

des métadonnées suffisamment bonnes ?

C’est une chose de critiquer la qualité des métadonnées du programme Livres de Google, c’en est une autre de le faire de façon systématique et argumentée. C’est l’exercice auquel s’est livré Geoff Nunberg et que l’on peut consulter ici.

La réponse de Jon Orwant, responsable des métadonnées chez Google, est intéressante. Loin de nier le problème ou de chercher à le minimiser, il examine une à une les erreurs pointées par Geoff Nunberg et explique leur origine, et la manière dont Google traite ses questions, à l’échelle des millions d’ouvrages qu’il a numérisés.

Joseph Esposito fait (dans la mailing list Read 2.0) un rapprochement entre le parti pris de Google concernant ce projet – privilégier l’accès rapide à une grande quantité d’ouvrages, et améliorer ensuite progressivement la qualité des métadonnées – et le  concept remis à l’honneur dans Wired cette semaine : celui de «  good enough«  . Francis Pisani traduit dans son billet sur le sujet «  good enough  » par «  pas mal  ». Je le traduirais plus littéralement par «  suffisamment bon  », me souvenant du terme  de «  mère suffiisamment bonne«    utilisé pour traduire le concept de «  good enough mother  » proposé par le psychanalyste anglais Winnicott. J’aime cette idée du «  good enough  », essentielleemnt déculpabilisante (pour les mères, qui résistent difficilement à l’envie  d’essayer de devenir des mères parfaites), mais dans beaucoup d’autres domaines aussi. Ça ressemble à première vue à un concept de feignant, celui qui se contenterait d’un «  assez bien  », qui bâclerait le travail, un candidat au «  peut mieux faire  ». En réalité, le désir de perfection est souvent paralysant. Ce concept de «  good enough  » permet au contraire de lever bien des inhibitions, permet d’oser faire un premier pas, celui qui coûte le plus.

Mais ce n’est pas en priorité à cause de la qualité de ses métadonnées que le projet Google Livres, et surtout  le projet de Règlement auquel le procès intenté à Google par les éditeurs et auteurs américains a abouti est violemment critiqué et combattu. Trois principaux reproches sont faits au Règlement Google Books Search  :

- le non respect par Google de la législation sur le droit d’auteur
- le danger de constitution d’un monopole sur l’exploitation des versions numérisées des œuvres orphelines
- le manque de garanties sur le respect de la vie privée

Le délai prévu par le Règlement pour déposer des objections a été prolongé jusqu’au 8 septembre. Et il faudra attendre le 7 octobre, l’audience de la cour de justice américaine chargée de se prononcer sur la validité du Règlement, pour savoir si celle-ci l’aura considéré comme… «  good enough  ».

Nova Spivack : Bienvenue dans le Flux

Entrepreneur, (Radar Networks, Lucid Ventures),  pionnier du web sémantique, Nova Spivack – à l’origine de twine.com – développe une vision stratégique des nouvelles technologies et des nouveaux médias. Il m’a autorisée – et je l’en remercie -  à publier la traduction d’un billet qu’il vient de faire paraître, Bienvenue dans le flux,  qui fait le point sur un phénomène que nous constatons tous, lié à l’apparition de nouvelles applications en temps réel et qu’il prend très au sérieux, considérant qu’il s’agit là d’un nouvel âge du web.

—-

Bienvenue dans le Flux : un nouvel âge pour le Web
Par Nova Spivack, fondateur de twine.com

Internet a commencé à évoluer plusieurs décennies avant l’apparition du Web. Et malgré le fait qu’aujourd’hui la plupart des gens pensent qu’Internet et le Web, c’est la même chose, en réalité ce sont deux choses bien distinctes. Le Web constitue le sommet de l’infrastructure Internet, un peu comme un logiciel ou un document est au sommet du système d’exploitation d’un ordinateur.

Et tout juste comme le Web a émergé à la pointe de l’internet, quelque chose de nouveau émerge à la pointe du Web : j’appelle cela le Flux. Le Flux est la prochaine phase de l’évolution d’Internet. C’est ce qui vient après le Web, ou bien au sommet du Web et que nous sommes tous en train de construire et d’utiliser.

La meilleure illustration actuelle du Flux est l’avènement de Twitter, Facebook et d’autres outils de microblogging. Ces services sont visiblement des flux, leurs interfaces montrent littéralement des flux, flux d’idées, flux de réflexions, de conversations. En réaction aux microblogs nous assistons aussi à la naissance d’outils pour gérer ces flux et pour nous aider à comprendre, rechercher, et suivre les tendances qui se propagent à travers eux.  Tout comme le Web n’induit pas un type particulier de site ou de service, le Flux n’est pas représenté par un site ou un service particulier, il se confond avec le mouvement collectif qui prend place à travers lui.

Pour relever le défi et saisir les opportunités du Flux un nouvel écosystème de services est en train d’émerger très rapidement : des éditeurs de flux, des outils de syndication de flux, des flux en temps réel, des moteurs de recherche, des moteurs d’analyse de statistiques de flux, des réseaux de publicité dédiés aux flux, et des portails de flux. Tous ces nouveaux services inaugurent l’ère du Flux.

Histoire du Web

La proposition originale de Tim Berners-Lee qui a donné naissance au Web date de 1989. Les deux premières décennies du Web, ( Web 1.0 de 1989 à 1999, et Web 2.0 de 1999 à 2009) ont été centrées sur le développement du Web lui-même. Le Web 3.0 ( 2009 – 2019) la troisième décennie du Web commence officiellement en mars de cette année et sera centrée sur le Flux.

  • Dans les années 90 avec l’avènement du protocole HTTP et du langage HTML, la métaphore du Web (la Toile), est née et les concepts des sites web ont capturé nos imaginations.
  • Au début des années 2000 l’intérêt s’est déplacé vers les réseaux sociaux et le web sémantique.
  • Maintenant, pour la troisième décennie qui commence, l’attention se focalise sur le déplacement vers le Flux, et on constate une abondance de métaphores qui tournent autour du flux, du courant et des ondulations.

Le web a toujours été un  flux. En fait il été un flux de flux. Tout site peut être vu comme un flux de pages qui évoluent dans le temps. Les branches d’un site peuvent être vues comme des courants de pages se développant dans différentes directions.

Mais avec l’arrivée des blogs, des flux d’alimentation RSS, des microblogs, la nature fluide du Web est devenue plus lisible et visible, parce que les nouveaux services sont à une seule dimension et conversationnels, et qu’ils se mettent à jour beaucoup plus fréquemment.

Définir le Flux

Tout comme le Web est formé de sites, de pages et de liens, le Flux est formé de flux.

Les flux font se succéder rapidement des séquences d’informations sur un thème. Il peut s’agir de microblogs, de hashtags, de flux d’alimentation RSS, de services multimédias ou de flux de données gérées via des API’s.

Le point clé est qu’ils changent rapidement, et ce changement est une part importante de la valeur qu’ils offrent. (contrairement aux sites web statiques, qui n’ont pas nécessairement besoin de changer pour fournir de la valeur). De plus, il est important de noter que les flux ont des URI- ce sont des entités que l’on peut adresser.

Alors, qu’est-ce qui définit un Flux, et le distingue d’un site web ordinaire ?

1. Le changement. Le changement est ce qui donne au flux toute sa valeur. Il n’en est pas toujours ainsi concernant les sites web. Les sites web n’ont pas besoin de changer constamment pour posséder de la valeur – ils pourraient par exemple être simplement statiques mais contenir des collections de références très nombreuses. Mais les flux, quant à eux, changent très fréquemment, et c’est ce changement permanent qui est leur caractéristique principale.

2. Indépendance vis à vis de l’interface. Les flux sont des flux de données,  et on peut y accéder et en prendre connaissance indépendamment d’une interface particulière, grâce à la syndication de leurs données à travers différents outils. Les sites web, eux, sont liés à leur propre interface utilisateur. À l’ère du web, le fournisseur de contenu contrôle l’interface. À l’ère du Flux, c’est l’utilisateur qui contrôle l’interface.

3 – Le règne de la conversation. Un point intéressant et important est que les flux sont reliés ensemble non par des liens, mais par des actes de conversation — par exemple la réponse à un  » tweet  », ou le «  retweet  », les commentaires, les évaluations, les «  follows  ». À l’ère du Web, le lien était roi. Mais à l’ère du Flux, c’est la conversation qui règne.

En termes de structure, les flux comprennent des agents, des messages et des interactions.
- les agents sont les gens ou les applications logicielles qui publient dans les flux.
- Les messages sont les publications faites par ces agents dans les flux – par exemple les courts billets postés sur les microblogs.
- Les interactions sont les actions de communication telles que l’envoi de messages direct ou de réponses, ou le fait de citer quelqu’un («  retweeting  ») qui connecte et transmet les messages entre les agents.

L’esprit global.

Si Internet est notre système nerveux collectif, et si le Web est notre cerveau collectif, alors le Flux est notre esprit collectif.  Le système nerveux et le cerveau sont  comme les strates de fondation hardware et software, mais l’esprit est ce que le système est en train de penser en temps réel. Ces trois couches sont interconnectées, et représentent différents aspects de notre éveil progressif à l’intelligence planétaire.

Le Flux c’est ce que le Web est en train de penser et de faire, là, maintenant. C’est le flux collectif de notre conscience.

Le Flux c’est l’activité dynamique du Web, qui ne cesse de se produire. Ce sont les conversations, le flux vivant d’audio et de vidéo, les changements qui se produisent sur les sites web, les idées et les tendances, les « memes », qui se produisent au travers de millions de pages Web,  d’applications et d’esprits humains.

Le « maintenant » est devenu plus bref

Le Web change plus vite que jamais, tout en devenant de plus en plus fluide. Les sites ne changent pas chaque semaine ou chaque jour, mais chaque heure, minute ou seconde. Si nous sommes hors ligne ne serait-ce que quelques minutes, nous risquons de rater quelque chose de vraiment important. La transition d’un Web lent à un Flux ultra rapide se produit à toute vitesse. Et tandis que cela se produit, nous déportons notre attention du passé vers le présent et notre « maintenant » devient plus bref.

L’ère du Web portait essentiellement sur le passé — les pages étaient publiées des mois, des semaines, des jours ou moins des heures avant que nous les regardions. Les moteurs de recherche indexent ce passé pour nous le rendre accessible : sur le Web nous avons tous l’habitude d’utiliser Google et de regarder les pages issues d’un passé récent ou parfois situées plus loin dans le temps. Mais à l’ère du Flux, tout s’est déplacé dans le présent – nous pouvons voir les nouveaux billets publiés au fur qu’ils apparaissent, et les conversations émerger autour d’eux, en direct, tant que nous y prêtons attention.

Oui, comme le rythme du Flux s’accèlère, ce que nous appelons « maintenant » se raccourcit. Au lieu d’être un jour, c’est une heure, ou quelques minutes. L’unité de mesure des changements a acquis plus de granularité.

Par exemple, si vous regardez la ligne de temps (timeline) publique de Twitter, ou même seulement celle de vos amis dans Twitter ou Facebook vous verrez que les choses disparaissent rapidement de votre vue, vers le passé. Notre attention se focalise sur le présent immédiat. : les quelques dernières minutes ou heures. Toute chose qui a été postée avant cette période de temps est « hors de vue, hors de l’esprit ».

Le Flux est un monde où les empans d’attention sont toujours plus réduits, un monde de sensations virales en ligne, de célébrité instantanée, de tendances subites, d’intense volatilité. C’est aussi un monde de conversations et de pensées à très court terme .

C’est le monde dans lequel nous entrons. C’est à la fois un grand défi et une grande opportunité que cette nouvelle décennie du Web…

Comment allons-nous nous accommoder du Flux ?

Le Web a toujours été un courant – il est toujours apparu en temps réel depuis qu’il a commencé, mais il était plus lent, les pages changeaient moins fréquemment, de nouvelles choses étaient publiées moins souvent, les tendances se développaient plus lentement. Aujourd’hui va tellement plus vite, aujourd’hui se nourrit de lui même, et nous le nourrissons et nous l’amplifions toujours plus.

Les choses ont aussi changé sur le plan qualitatif ces derniers mois. Les aspects de type « flux » du Web sont vraiment devenus le lieu central de notre principale conversation culturelle. Tout le monde s’est mis à parler de Facebook et de Twitter. Les célébrités. Les animateurs de talk-shows. Les parents. Les ados.

Et soudain nous nous retrouvons tous scotchés à diverses activités liées aux flux, microbloguant de façon maniaque, louchant à force de traquer les références aux choses  qui nous importent avant qu’elles soient emportées hors de vue. Le Flux est arrivé.

Mais allons-nous pouvoir supporter cette quantité toujours grandissante d’informations ? Allons-nous tous être renversés par nos propres lances d’arrosage personnelles, ou est-ce que des outils vont apparaître pour nous aider à filtrer nos flux et les rendre gérables ? Et si déjà aujourd’hui nous avons trop de flux et devons sauter de l’un à l’autre de plus en plus souvent, comment est-ce que cela va être quand nous devrons fonctionner avec dix fois plus de flux d’ici quelques année ?

L’attention humaine est un goulet d’étranglement considérable dans le monde du Flux. Nous pouvons être attentifs à une seule chose, ou à un petit nombre de choses en même temps. Comme l’information vient à nous depuis différentes sources, nous devons sauter d’un item au suivant. Nous ne pouvons l’absorber entièrement en une seule fois. Cette barrière fondamentale sera franchie par la technologie dans le futur, mais au moins pour la prochaine décennie cela demeurera un obstacle clé.

Nous pouvons suivre plusieurs courants, mais seulement un item à la fois, et cela requiert de pouvoir rapidement faire passer notre attention d’un article à l’autre et d’un flux à l’autre. Et il n’y a pas vraiment d’alternative : fusionner tous nos flux séparés en une seule grande activité de flux unifiée produirait vite beaucoup trop de bruit et nous serions submergés.

L’habileté à suivre différents flux dans différents contextes est essentielle et nous rend capables de filtrer et et de concentrer notre attention de manière efficace. Résultat, il n’y aura pas un flux unique d’activité – nous aurons de très nombreux flux.  Et nous devrons trouver le moyen de nous accommoder de cette réalité.

Les flux peuvent être unidirectionnels ou bidirectionnels. Quelques flux sont comme des « fils d’alimentation » qui vont de producteurs de contenu à des consommateurs de contenus. D’autres flux sont plus comme des conversations ou des canaux dans lesquels n’importe qui peut être indifféremment émetteur ou récepteur.

Comme les flux vont devenir les principaux modes de distribution de contenu et de communication, ils vont devenir de plus en plus conversationnels et ressembleront de moins en moins à des « flux d’alimentation ».  Et c’est important – parce que pour participer à un flux d’alimentation vous pouvez être passif, vous n’avez pas besoin d’être présent de façon synchrone. Mais pour participer à une conversation vous devez être présent et synchrone—vous devez être là au moment où ça se passe, ou vous manquez tout.

Un Flux de défis et d’opportunités.

Nous allons avoir besoin de nouvelles sortes d’outils pour manager nos flux, pour y participer, et nous commençons à voir l’émergence de certains d’entre eux. Par exemple, les clients Twitter comme Tweetdeck, les lecteurs de flux RSS, et les outils de suivi de flux comme Facebook ou Friendfeed. Il y a aussi de nouveaux outils pour filtrer nos flux en fonction de nos centres d’intérêt, comme Twine.com (précision : l’auteur de cet article est l’un des fondateurs de Twine.com). La recherche en temps réel émerge aussi pour offrir des moyens pour scanner le Flux en son entier. Et les outils de découverte de tendances nous aident à savoir ce qui est brûlant en temps réel.

Le plus difficile sera de savoir à quoi prêter attention dans le Flux ; les informations et les conversations disparaissent si rapidement que nous pouvons à peine suivre le présent, encore moins le passé. Comment savoir à quoi prêter attention, quoi lire, quoi ignorer, quoi lire peut-être plus tard ?

Récemment quelques sites ont émergé qui montrent les tendances en temps réel, par exemple en mesurant le nombre de retweets concernant diverses URL survenus dans Twitter.  Mais ces services montrent seulement les tendances les plus fortes et les plus populaires. Et les autres thématiques, celles qui n’entrent pas dans ces tendances massives ? Est-ce que les choses qui ne font pas l’objet d’un RT ou n’ont pas été distinguées par un « like » sont condamnées à l’invisibilité ? Est-ce que la popularité d’un document reflète son importance réelle ?

Certainement, l’une des mesures de la valeur d’un item dans le Flux est la popularité. Une autre unité de mesure est sa pertinence par rapport à un thème, ou, plus intéressant encore, par rapport à nos centres d’intérêts personnels. Pour vraiment faire face au Flux nous aurons besoin de nouvelles manière de filtrer qui combineront ces deux approches. Au fur et à mesure que notre contexte change au long de nos journées (par exemple du travail et de ses différents clients et projets au shopping ou à la santé, aux loisirs, à la famille) nous aurons besoins d’outils qui pourront s’adapter et filtrer le Flux différemment selon ce qui nous importera.

Un Internet orienté Flux offre aussi de nouvelles opportunités pour la monétisation. Par exemple, de nouveaux réseaux de publicité pourraient se former pour permettre aux annonceurs d’acheter des espaces juxtaposés aux URL portant sur des grandes  tendances  du Flux, ou sur différentes tranches de celui-ci.  Par exemple, un annonceur pourrait distribuer ses annonces sur les douzaines de pages qui sont retweetées à un moment précis. Lorsque ces pages commencent à décliner en ce qui concerne le nombre de RT par minute, les pubs pourraient bouger vers d’autres URL qui commencent à gagner en popularité.

Les réseaux publicitaires qui font un bon boulot de mesure des tendances de l’attention en temps réel  devraient être capable de capitaliser  sur ces tendances plus vite et permettre d’obtenir  de meilleurs résultats pour les annonceurs. Par exemple, un annonceur capable de détecter et de se positionner immédiatement sur la tendance du jour pourrait faire apparaître son annonce accolée aux leaders les plus influents qu’ils cherchent à atteindre, de manière presque instantanée. Et cela pourrait se traduire par des gains immédiats en sensibilisation et sur l’image de marque.

L’émergence du Flux est un changement de paradigme intéressant  qui pourrait se révéler une caractéristique de la prochaine évolution du Web pour la troisième décennie qui arrive. Même si le modèle de données sous-jacent  va  de plus en plus  ressembler à un graphe, ou même à un graphe sémantique, l’expérience utilisateur sera de plus en plus orientée flux.

Qu’il s’agisse de Twitter ou d’une autre application, le Web est en train de se transformer  de plus en plus en flux. Comment allons-nous filtrer ce flux ? Comment allons-nous y faire face ? Celui qui résoudra ce problème en premier va probablement devenir riche.

#sdl09ldd : mettre un dièse aux mots

Mettre un bémol, on voit bien ce que ça veut dire, sans connaître le solfège. Mais, «  mettre un dièse  » ?

Hier soir, Peter Brantley twittait en direct d’un symposium à la Columbia Law School concernant le Règlement Google, et ses répercussions à long terme. On peut suivre, moyennant décryptage de quelques raccourcis (BRR = Books Rights Registry), ses notes de conférence avec le hashtag #gbslaw.

Qu’est-ce qu’un «  hashtag  » ? C’est une série de caractères précédée du signe #, dont les utlisateurs conviennent du sens. Tout message sur twitter comportant ce hashtag pourra être ainsi considéré comme faisant partie d’un ensemble de messages, auquel est associé un contexte défini.

Cela permet d’effectuer des recherches, et aussi de donner en quelques caractères le contexte d’un tweet.
Souvent, il s’agit d’un événement, comme dans le cas de #gbslaw. Le premier qui commence à twitter un événement propose le hashtag. Il existe aussi des hashtag thématiques, comme #followfriday. Il sert simplement à indiquer à ses followers des personnes intéressantes à suivre sous twitter…

Nombreux sont mes «  Following people  » d’outre atlantique qui assistent ces jours-ci à  SXSW , et utilisent le tag #sxsw.

Mais ici en France, on twitte aussi !  Le hashtag pour «  Dem@in le livre  » au Salon du Livre est : #sdl09ldd.

Peut-être se trouvera-t-il quelques twitterers pour couvrir les deux débats organisés par Alain Pierrot, et que j’ai le plaisir d’animer ?

Dimanche à 17h30 :

Bibliothèques numériques, de la consultation en ligne au téléchargement
Où en est-on de la consultation en ligne et du prêt par les bibliothèques numériques ? Aspects sociologiques de la lecture numérique.

Daniel BOURRION, conservateur des bibliothèques, Bibliothèque Numérique de l’Université d’Angers
Alain GIFFARD, spécialiste des technologies de l’écrit, président de la Mission interministérielle pour l’accès public à l’Internet
Yannick MAIGNIEN, directeur du TGE (Très Grand Equipement) ADONIS.
Lundi à 14h :

Comment « rematérialiser » les livres numériques au gré des lecteurs ? Impression à l’unité, fichiers numériques, sont-ils opposés ou complémentaires ?

Pierre-Henri COLIN, responsable de l’offre e-paper chez 4D Concept
Hervé ESSA, directeur marketing et  commercial chez Jouve
Frédéric FABI, président et fondateur du groupe Dupliprint
Moritz HAGENMÜLLER, directeur de Books on Demand.

Tout change, mais pas tant que ça

Quiconque a vu une démonstration de tableau blanc interactif cite spontanément le film «  Minority report  » : on y voit Tom Cruise manipuler avec une étonnante dextérité des images virtuelles sur des panneaux transparents, les tirant vers lui, les éloignant, les agrandissant, les faisant apparaître ou disparaître. L’effet est renforcé lorsque l’utilisateur interagit avec le tableau directement avec les doigts, sans utiliser de stylet, ce contact direct du corps avec la surface affichant l’interface est puissamment évocateur : rapprochement homme / machine, machine qui prolonge le corps, main qui commande directement à des documents et des applications informatiques.Contrairement à la surface inerte utilisée habituellement pour la vidéo-projection, la surface verticale n’est pas seulement ce qui se substitue à l’écran de l’ordinateur, permettant un usage public de celui-ci. Elle est aussi lieu d’interaction, sans la médiation habituelle du curseur dirigé par la souris. Celui qui le manipule est proche de ce qu’il montre, il est aussi en représentation, dans la lumière, dans un dispositif similaire à celui du tableau noir avec ses usages bien connus, tous liés à la possibilité d’utiliser l’écrit, texte ou figure, en renfort d’un discours ou d’un échange oral.

Curieusement, lors des démonstrations de ces tableaux, les fonctionnalités qui remportent le pus grand succès sont celles qui présentent la simulation la plus réaliste des adjuvants de l’antique tableau noir : souvenez-vous de l’attirail du prof de math, cette grande règle souvent jaune qu’il appliquait à même le tableau pour tirer un trait droit, le rapporteur, aussi. Alors lorsque le programme intégré au tableau permet d’afficher virtuellement de tels outils, lorsque l’on voit la règle virtuelle guider le geste réel du manipulateur, l’enthousiasme de la salle est palpable. Si c’est un compas virtuel, figuré à l’écran, et que l’on voit tracer une courbe, les applaudissements fusent.

Quiconque a visité une agence d’architecture ces dernières années aura constaté que les traditionnels outils de l’architecte en ont pratiquement disparu.

Le té emblématique de la profession, l’équerre, la haute table inclinable… rien ne distingue plus aujourd’hui au premier coup d’œil une agence d’architecture d’une autre société : des gens devant des écrans. Approchez-vous de l’un d’entre eux. Regardez son écran. Le té est il encore présent, virtuel, à l’écran ? Lorsqu’il trace une droite, utilise-t-il une équerre virtuelle ? Evidemment pas. Le programme de dessin, autocad généralement, gère cela de façon transparente. Les habiletés du dessinateur ont changé. La précision du geste n’est plus nécessaire, elle est totalement prise en charge par la machine. Mais la gestion des calques, la structuration du plan, la façon de grouper les élements, de les dupliquer, de les répartir, de les mémoriser, de les échanger, demandant des habiletés différentes.

Ce qui nous impressionne, c’est la capacité du logiciel à simuler la réalité, à nous présenter quelque-chose que nous reconnaissons. Bien sûr, ces artefacts de compas et d’équerre, de rapporteur et de règle, n’ont d’autre utilité que pédagogique : rendre tangible, en se référant à des outils de tracés bien identifiables, et utilisés par ailleurs par les élèves, les conditions de construction de la figure géométrique. Mais je ne suis pas certaine que c’est la perspective de cet usage qui nous enchante. Même en n’ayant comme unique expérience graphique de l’ordinateur que les quelques fonctionnalité de Powerpoint, on comprend vite qu’un programme excelle à tracer des droites, cercles, arcs, et toutes figures géométriques. Je trace (avec une règle et une équerre virtuelle) un parallèle entre ces outils figurés à l’écran, et les artefacts de livres : ces tourne-pages, flipbooks et autres widgets nous réjouissent, parce qu’ils nous proposent une expérience familière, même si celle-ci, sur un écran d’ordinateur n’a pas vraiment lieu d’être, car l’écran n’est pas une page, et il n’existe pas de nécessité qu’il singe la page. Pas de nécessité autre que celle de nous rassurer, de nous dire : tout change, mais voyez, finalement, pas tant que ça.

deux point zéro

Avec les applications 2.0, je me demande si le concept de «  back office  » n’en a pas pris un petit coup. C’est l’article que publie Christian Fauré aujourd’hui qui me fait penser à ça. Il y reprend sa définition très ramassée du web 2.0 :

«  Une application Web 2.0 est un formulaire de saisie en ligne proposant des services adossés aux contenus saisis par les particuliers.”

Prenons FlickR ou Facebook : pour publier sur ces sites, nul besoin de passer dans l’arrière-cuisine : non, c’est une cuisine à l’américaine, ouverte sur le salon, et c’est dans la même pièce qu’on met les casseroles sur le feu, qu’on débouche la bouteille, qu’on s’assoit sur le canapé et qu’on mange les rondelles de saucisson… C’est dans le même espace qu’on saisit de l’information et que l’on consulte l’information, il n’y a pas de rupture.

Ce n’est pas vrai pour toutes les applications (il y a bien un espace d’administration, distinct de l’espace public, sur les plate-formes de blog par exemple, et celles-ci font partie intégrante des applis emblématiques du web 2.0). Lire la suite