Archives pour la catégorie manuel scolaire

Yoyo

photo 2Le Forum de Tokyo n’avait pas lieu à Tokyo : pour m’y rendre, je n’ai pas pris l’avion, mais le RER C, et je suis descendue au pont de l’Alma que j’ai traversé en saluant affectueusement la tour Eiffel au passage. Puis j’ai dirigé mes pas vers le Yoyo, et suis descendue dans une salle située au sous-sol du Palais de Tokyo,  qui abrita brièvement les projections de la Cinémathèque Française, et est devenue un «  Un nouvel espace contemporain modulable dédié à la scène artistique, culturelle et événementielle«  .

Le Forum de Tokyo, organisé à l’initiative de l’AFDEL et du think-tank renaissance numérique, rassemblait pour une demi journée des professionnels du «  monde de la culture  » et des «  acteurs numériques  ».

Je ne résumerai pas les débats, dont on peut se faire une idée avec le hashtag #forumtokyo sur Twitter, ou voir la vidéo ici. Mais je vais me livrer à l’exercice privilégié du blogueur : je vais essayer de réfléchir tout haut sur cet événement, et tenter de mettre au point un faisceau encore assez flou de pensées concernant la relation entre le «  monde de la culture  » et les «  acteurs du numérique  », qui me turlupine depuis un moment.

En quittant le Yoyo, je pensais que l’opposition de deux mondes, celui de la culture et celui du numérique, était vraiment curieuse. Nous avons tous besoin de repères, et il est commode de schématiser, et de mettre dans des petites boîtes faciles à empiler ce qui nous dépasse par sa complexité. On aurait ainsi d’un côté les acteurs traditionnels, tous ces gens qui s’occupent à plein temps de faire en sorte qu’existent des livres, des films, des œuvres musicales, des programmes de télévision, des journaux. Et de l’autre, les acteurs numériques, tous ceux qui s’occupent à plein temps de…  changer le monde, un pixel après l’autre.

Il me semble plutôt quant à moi vivre dans un monde en mouvement, où les métiers se complexifient, où les frontières deviennent poreuses, et où le numérique concerne chacun et pas seulement les startups ou les géants du web. Si on reproche au monde de la culture de se cramponner à ses anciens privilèges de gatekeepers, il faut prendre garde de ne pas créer de nouvelles barrières, de nouveaux privilèges, de ne pas laisser confisquer le numérique, l’innovation, le changement par quelques uns. J’essaye toujours, avec parfois de la fatigue, de plaider pour l’hybridation, pour l’échange et l’écoute, pour la curiosité. Nombreux malheureusement sont ceux qui n’aiment regarder le monde que de là où ils sont assis, et considèrent que leur  point de vue est le seul qui vaille.

Les acteurs traditionnels savent que les objets dont ils s’occupent à plein temps, livres, films, musique, programmes audio-visuels, journaux, ne sont pas des «  produits comme les autres  ». Jetés dans un monde marchand, ces objets sont effectivement susceptibles d’être achetés et vendus et l’activité de création de ces acteurs se double d’une activité commerciale qui constitue un secteur économique important. Cependant le statut de ces objets diffère de celui de bien d’autres : ils ne sont pas exactement «  consommés  ».  On en prend connaissance, et cette connaissance demeure dans les mémoires. Ils concernent les individus mais aussi les relations entre les individus, organisent la pensée, les échanges, la sociabilité, la politique. Ce sont des objets de conscience, des objets de pensée, des objets de rêve. Une autre caractéristique fait que ces objets ne sont pas comme les autres ; ils sont tous numérisables. On peut numériser un livre, un morceau de musique, un film, une série télévisée, et pas une montre, un camion ou une bouteille de vin.

On a cru un moment que cela signifierait que seuls ces domaines, ceux travaillant sur des objets numérisables allaient être bouleversés  par le numérique. On s’aperçoit depuis quelques années qu’il n’est nul besoin que l’objet dont vous faites commerce soit numérisable pour que le numérique impacte très fortement une activité. Amazon a plus d’impact aujourd’hui en France sur les libraires par son activité de vente en ligne de livres imprimés que par la vente de livres numériques. Les biens mis en location via AirBnb ou les voitures que vous pouvez commander via Uber sont composés d’atomes et non de bits, et pourtant l’activité hôtelière et celle des taxis sont touchés avec l’arrivée de ces entreprises par une concurrence bien réelle.

Pensée post Yoyo numéro un :

La révolution numérique ne concerne pas exclusivement les activités qui concernent des objets «  numérisables  ». Elle est une conséquence de la généralisation de l’usage du web (avec le turbo que constitue la mobilité) : un poids nouveau des clients / usagers / utilisateurs / consommateurs, la possibilité pour les gens comme vous et moi de faire entendre leur avis, et l’arrivée de plateformes qui rendent possible des actions autrefois impensables.

Pour ceux qui produisent des biens    »numérisables  », c’est un double changement   :
1) le même changement que tous les autres acteurs économiques, lié à l’usage du web qui se généralise et à la puissance des plateformes susceptibles d’en exploiter tous les  avantages.
2) le fait que les biens dont on parle sont numérisables, et susceptibles d’évoluer non seulement dans la manière dont ils sont commercialisés, mais aussi dans la manière dont ils sont conçus, fabriqués, acheminés et utilisés, voire dans leur statut ou leur définition.

Pensée post Yoyo numéro 2 :

Là où les acteurs traditionnels diffèrent très fortement les uns des autres, c’est dans les différences d’expériences que proposent leurs versions numériques respectives vis à vis de l’expérience analogique. Le degré de substituabilité varie très fortement, et ce degré conditionne fortement les conséquences de la numérisation sur les usages et sur les conditions de circulation de ces objets.

Bruno Patino indique que les expériences autour d’une œuvre ne sont pas substituables, et par expérience il entend le tryptique œuvre – interface – contexte d’utilisation.

Je suis d’accord sur sa définition de l’expérience autour d’une œuvre, mais je crois que cette expérience dispose d’un degré de substituabilité qui varie selon les types d’objets, et qui conditionne forcément la vitesse et la profondeur des bouleversements apportés par le numérique à l’activité concernée. Il me semble que ce degré est très élevé pour la musique, beaucoup moins pour le livre, et effectivement, beaucoup plus faible encore pour l’audio-visuel (dont parlait Bruno Patino).  Et que ceci explique que la musique a été la première touchée par la vague, que le livre a suivi, et que l’audio-visuel est concerné à son tour.

Je crois aussi que plus on est un amateur averti dans un domaine artistique, plus on est cultivé dans ce domaine, moins l’expérience est substituable. Le mélomane entend des différences que d’autres n’entendent pas, tout comme le cinéphile voit des détails que d’autres ne perçoivent pas. Il en est de même pour les livres : le lecteur savant s’enchantera de la présence d’un moteur de recherche,  l’amateur de littérature souffrira plus qu’un autre de la mise en page encore améliorable de nombreux livres numériques. Mais le fait que les expériences sont non substituables n’indique pas qu’il faille en rejeter certaines à priori : cela permet au contraire de les juxtaposer, de les additionner, ce qui peut convenir à l’amateur, au mélomane comme au cinéphile ou au lecteur cultivé.

Voilà quelques pensées post-yoyo, j’en ai eu quelques autres mais je suis à court de temps. Il y aurait  aussi beaucoup à dire sur le livre blanc publié à cette occasion (grâce à  Librinova pour la version numérique), mais non, non, je m’arrête là. Maintenant, c’est à vous de parler : quelles ont été vos pensées post-yoyo, si vous étiez là où si vous vu la vidéo ou lu le livre blanc ?

The Mongoliad : un monde fictif virtuel partagé massivement multi-lecteurs

mongoliad_w150Mardi 25 mai était dévoilée à San Francisco la version alpha du premier projet de  Subutaï Corporation, une équipe qui regroupe des écrivains, des développeurs, des game-designers et des directeurs artistiques.

Il y a longtemps, depuis la lointaine époque du cédérom, que j’ai l’intuition que c’est via un rapprochement entre les auteurs de l’écrit et le monde du jeu (développeurs, game designers, directeurs artistiques, réalisateurs ) que s’inventeront probablement de nouvelles formes narratives sachant tirer parti des hybridations que les technologies informatiques autorisent, ce que l’on appelait dans les années 90 le multimédia interactif.

La composition de l’équipe de Subutaï Corporation en est l’illustration : les auteurs, issus de l’univers de la SF, de la mouvance post-cyberpunk,  s’entourent de professionnels qui pourraient figurer dans un roman de Douglas Coupland,  l’un architecte de plateformes de jeux massivement multijoueurs, l’autre spécialiste des textures, tous familiers de la 3D et de l’univers du jeu.

Voici comment Subutaï présente son projet, dans un mail adressé à ceux qui se sont inscrits pour la version alpha sur son site :

«  Au centre du dispositif, une aventure médiévale contée par Neal Stephenson, Greg Bear, Nicole Gallan, Mark Teppo et d’autres auteurs renommés, qui se situe à une époque où l’Europe pensait que les hordes mongoles étaient sur le point de détruire son monde, et où une petite bande de mystiques et de combattants essaient de détourner le cours de l’histoire.

Nous avons travaillé de manière avec des artistes, des chorégraphes de combats et d’autres spécialistes des arts martiaux, des programmeurs, des réalisateurs, des game designers, et pas mal d’autres gens pour produire un flux constant de contenu non textuel, para et extra narratif, dont nous pensons qu’il donnera vie à l’histoire d’une manière inédite, et qui ne pourrait pas être envisagée sur un média unique.

Très prochainement, lorsque The Mongoliad contiendra une une masse suffisante de récits et de contenu, nous demanderons aux fans de nous rejoindre pour créer le reste du monde et créer de nouvelles histoires dans celui-ci. C’est là que débutera la partie réellement expérimentale du projet. Nous sommes en train de développer des technologies vraiment «  cool  » pour rendre cela facile et amusant, et nous espérons qu’un grand nombre d’entre vous les utiliseront.

Les gens pourront accéder à The Mongoliad sur le web et via des applcations pour mobile. Nous allons commencer avec l’iPad, l’iPhone, les terminaux sous Androïd, des applis Kindle, et nous ferons probablement plus encore dans un futur proche.  »

Cory Doctorow signale le projet sur boing-boing en ces termes :

«  Il  y a déjà eu quelques expériences notables de mondes partagés en ligne, du vénérable alt.cyberpunk.chatsubo à l’actuel Shadow Unit. Mais on dirait vraiment que ces types de the Mongoliad sont sur le point de charger encore la barque, et de pousser le concept plus loin que personne d’autre auparavant, et qu’ils le font d’une manière que seul le web autorise, impossible à traduire sur le papier.

J’ai vu une démo de The Mongoliad l’autre soir et c’était vraiment très excitant. Il n’y a pas encore grand chose d’accessible au public pour le moment, mais je vous tiendrai au courant.  »

Moi aussi, j’essaierai de vous tenir au courant.

(Via Peter Brantley )

Invités d’honneur

untitled-0-00-02-13Cette année, la France est l’invité d’honneur de la foire du livre de Séoul, et le BIEF (Bureau International de l’Edition Française) m’a demandé de participer aux journées professionnelles organisées à cette occasion.

J’ai donc fait le déplacement, pour intervenir au sujet des enjeux du numérique dans l’édition, en duo avec un représentant de l’Association des Publications Numériques de Corée, M. Chang Di Young. Bien qu’il m’arrive de plus en plus souvent de me livrer à cet exercice, je m’y prépare toujours avec le même soin, retouchant mes slides jusqu’à la dernière minute, soucieuse de présenter le plus clairement possible la manière dont les éditeurs français abordent les questions touchant au numérique, les défis auxquels ils sont confrontés, et les changements que cela implique dans leur manière de travailler.

Dans le salon lui-même, une petite allée de stands montrant des liseuses, dont la liseuse Samsung.  Je discute un moment avec un représentant de IN3tech, ( InCube Technologies), un prestataire proposant aux éditeurs ses services pour la numérisation et l’intégration de leur catalogue dans la librairie que Samsung met en place pour ses smartphones et sa nouvelle liseuse. Comme nous échangeons nos cartes (à la manière coréenne : tenir la carte à deux mains et s’incliner légèrement), il voit le nom du groupe qui m’emploie et tilte immédiatement, me parlant de vidéo, de YouTube, et je comprends qu’il a vu le film «  Possible ou Probable  » réalisé par Editis il y a quelques années. Il appelle ses collègues pour leur montrer le logo sur ma carte, et tous me font part de leur enthousiasme pour ce film, et je suis obligée malheureusement de leur dire qu’il a été réalisé avant que je n’arrive dans le groupe, et oui, je ne peux m’attribuer aucun mérite à propos de ce film que Bob Stein, plusieurs années après sa sortie, avait signalé à nouveau, lui redonnant visibilité.

J’assiste également à l’intervention d’Hugues Jallon, Directeur Editorial de La Découverte, qui fait une très belle synthèse sur l’édition de Sciences Humaines, abordant la question de manière thématique et en citant et resituant de nombreux titres et auteurs, dans le champ économique, dans celui du politique et celui de l’environnement. Auprès de lui, deux éditeurs de Sciences Humaines coréens, deux éditeurs véritables, passionnés, qui dirigent des petites maisons d’édition, expliquent l’extrême difficulté qu’il y a à trouver des traducteurs français-coréen capables de traduire de la philosophie ou de la sociologie de haut niveau. Il racontent aussi, de manière assez drôle, leurs difficultés à trouver des soutiens financiers, expliquant que lorsqu’ils essaient d’intéresser des industriels (ils citent l’exemple de Hyundaï, qui sponsorisent sans problème à coup de milliards- en won, le milliard est assez vite atteint, c’est environ 8750 euros – des clubs de sport, mais refusent ne serait-ce  que de recevoir ou regarder leurs livres… Il n’est pas facile, donc, de faire circuler la pensée française, mais certains s’y emploient avec une énergie et une passion qui font plaisir à voir, sans se décourager, ne se résignant pas à ce que les Coréens pensent que rien ne s’est passé chez nous depuis le structuralisme et les auteurs de la «  French Theory  ».

Très peu de temps pour découvrir la ville, même en se levant très tôt (facile avec le décalage horaire…).  Retrouvé Hugues Jallon ce matin pour prendre  le métro à la première heure. Nous quittons le quartier où a lieu la foire, quartier récent dédié au business, grandes avenues bordées de tours, mais dont les rues transversales révèlent des surprises : vous tournez au coin de la rue et l’échelle change brutalement, un fouillis de petites constructions, des restaurants bon marché, une ambiance très différente de celle de l’avenue qui n’est qu’à vingt mètres.

Nous avons ensuite marché plus de trois heures, le plan à la main, nous repérant grâce aux bâtiments, et réussi à trouver notre chemin jusqu’au palais Deoksugung, l’un de ces lieux qui permettent d’éprouver un sentiment d’architecture, cette émotion particulière et rare que l’on éprouve en voyant certains bâtiments, sans pouvoir toujours analyser d’où il provient : l’échelle ? le rapport entre les vides et les pleins ? la disposition des bâtiments, les couleurs, les matériaux ?

Il faudrait bien plus de temps, évidemment, pour se faire une idée de cette ville immense, et tel n’est pas, bien sûr l’objet de notre voyage. Il prend fin, d’ailleurs, et demain, onze heures d’avion m’attendent, et n’oublie pas, mon chéri, de venir me chercher à l’aéroport (c’est un test, pour savoir si oui ou non mon amoureux lit mon blog comme il le prétend…)

Encore le Cloud…

bleuQuel dommage de parler de «  clouds  » en ce beau premier week-end vraiment printanier… Mais je n’ai pas le choix. suite à une intervention que j’avais faite au TOC de Francfort en octobre dernier, on m’a demandé de participer, lors de la prochaine foire du livre de Londres, à une table ronde sur le thème «  Clouds : What are They Really About, and What is Their Impact on Publishers ?  »

Bonne occasion pour sortir mon blog de sa léthargie, et essayer de faire ce à quoi sert un blog : réfléchir tout haut, réfléchir avec vous, ouvrir la boîte, et m’aider de votre possible lecture pour avancer dans la préparation de cette table ronde.

Je suis loin d’être une spécialiste de la question, et c’est pour ça que ça m’intéresse… Les premières explications concernant le cloud computing, c’est au théâtre de la Colline, lors d’une conférence donnée dans le cadre d’Ars Industrialis que je les ai trouvées. J’ai approfondi cette affaire en lisant le livre co-écrit par Christian , Alain Giffard et Bernard Stiegler, intitulé «  Pour en finir avec la mécroissance«  .

A Francfort, je me suis demandé ce que pourrait bien devenir l’industrie du livre, si on se mettait à la définir non plus comme «  produisant  » des livres, mais comme proposant des services, en détournant l’un des sigles qui déclinent ceux que le cloud computing propose : «  PAAS = Publishing As A Service  ».

J’avais bien conscience, dans cette présentation, de jouer un peu sur les mots, en considérant comme «  dans les nuages  », toute l’activité qui entoure le livre et qui se situe en ligne. En effet, il ne suffit pas qu’un service soit proposé en ligne pour qu’il relève précisément  du «  cloud computing  », ou alors, on enlève à ce concept sa véritable substance, considérant chaque serveur comme un petit nuage…  Non, lorsque l’on parle de «  cloud computing  », on parle non pas de serveurs dispersés et gérés de façon autonome, tous reliés par internet. On parle de gigantesque installations industrielles, contenant des centaines de milliers de serveurs, offrant d’énormes capacités de stockage et de calcul. On parle aussi «  virtualisation  », et là, je cite Christian Fauré :

La virtualisation est un procédé qui consiste à dé-corréler la vision physique de la vision logique des infrastructures de machines. On peut ainsi avoir une seule machine physique qui est considérée comme étant une multiplicité de machines logiques. Bien que la technologie de virtualisation ne soit pas toute récente,  Amazon a relevé le défi non seulement de la mettre en place sur de très grandes quantités de machines, mais en plus d’automatiser l’allocation
de ses ressources logiques, permettant ainsi à tout internaute de mettre en place un serveur virtuel, en ligne et sans intermédiaire. Nombre de jeunes sociétés web s’appuient aujourd’hui sur les infrastructures d’Amazon pour disposer d’une puissance de calcul et de stockage « à la demande » et élastique, précisément pour ne pas s’effondrer en cas d’augmentation des consultations sur leur site.  »

La complexité et le gigantisme de ces installations industrielles, mises en place par des acteurs dont on imagine que, parce qu’ils opèrent sur le web, ils ne brassent que du virtuel, de l’immatériel, a été un réelle découverte. D’ailleurs, l’idée très bien implantée qui consiste à considérer que «  du moment que ça passe par Internet, cela ne coûte rien, c’est virtuel, ce sont des «  bits  », pas des atomes, alors n’allez pas nous faire croire que cela coûte cher  » s’appuie sur cette vision naïve d’une société de la connaissance qui serait post-industrielle, brassant uniquement de la matière grise à l’aide d’impulsions électroniques sans presque aucune inscription dans la matière. Amazon, Google, Microsoft, IBM, Apple, possèdent de telles installations, et continuent d’en construire. Où croyez-vous que sont stockés vos photos sur Flickr, vos vidéos sur YouTube, vos messages sur Twitter, vos publications sur Facebook, et vos billets de blog ?

Alors, l’édition dans les nuages ? Ce que j’avais eu envie de mettre en avant à Francfort, c’est le fait que le livre n’avait pas besoin d’être numérique pour avoir quelque chose à voir avec le cloud. Que déjà, alors que le livre numérique en France en est encore à ses balbutiements, le monde des livres avait déjà en partie migré sur le web, et probablement «  dans les nuages  » aussi. Que déjà, le concept de «  chaîne du livre  » était devenu inopérant, et cédait la place à quelque chose qui ressemblait bien plus à un réseau, dont bien des nœuds, déjà, étaient dépendants du cloud computing. Notre bouquinosphère, par exemple, mais aussi le web littéraire, avec lequel elle a des intersections. Auteurs-blogueurs, pro-am de la critique littéraire, certains libraires et éditeurs, tous utilisent des services et des plateformes qui bien souvent s’appuient sur ces infrastructures «  dans le nuage  ».

Du côté des éditeurs, les exemples de nouvelles offres éditoriales tout à fait susceptibles d’utiliser le cloud computing se multiplient également. Les sites proposant du «  pick and mix  », offrant la possibilité aux utilisateurs de composer eux-mêmes le livre qu’ils pourront ensuite consulter en ligne, télécharger ou imprimer à la demande se sont multipliés. Construits autour de thématiques comme la cuisine, ou bien édition scolaire et universitaire, ces sites s’appuient sur des plateformes permettant d’identifier et de sélectionner des éléments de contenu, textes et images, de les choisir et des les assembler. La plupart proposent aux utilisateurs de créer des ouvrages qui pourront mixer des contenus éditoriaux prééxistants et des contenus créés par l’utilisateur.

La vision de Bob Stein, celle d’une lecture connectée, communautaire, collective, de textes disponibles en ligne et accompagnés de dispositifs permettant annotation et échanges entre lecteurs, s’appuie également sur un concept de plateforme en ligne, offrant à la fois l’accès à un contenu et l’accès à des services qui vont au-delà du simple affichage du texte.

En vérité, chacun des services cités n’était pas nécessairement situé dans les nuages, au sens strict du terme. Susan Danzinger, la fondatrice de Daily-Lit, que j’avais questionnée à ce sujet m’avait répondu que l’offre qu’elle propose n’utilise pas le cloud computing, pour la raison simple que ces solutions ne permettaient pas de gérer comme elle le souhaitait les envois de mail, et que le service qu’elle propose (envoi à la demande d’un livre numérique sous forme d’extraits successifs, adressés soit par mail,  soit vers un agrégateur de fils RSS)  exigeait cela.

La grande idée du cloud, pour la résumer très sommairement,  c’est de demander aux dirigeants d’entreprise : de quoi avez-vous besoin ? de salles informatiques bourrées de serveurs pour héberger les applications que les salariés de votre entreprise utilisent ? ou bien que ceux-ci accèdent simplement à ces applications pour les utiliser ? Pourquoi vous embêter avec le stockage, l’installation, la maintenance, la mise à jour, le dimensionnement ? Nous pouvons faire tout cela pour vous. Vous n’avez pas besoin d’acquérir des licences et d’installer des logiciels. Vous avez besoin des services que ces logiciels  vous rendent.

À quoi bon être propriétaire ? À quoi bon vous embêter à entretenir votre bien, à réparer la toiture, à changer la plomberie, à refaire les peintures ? Avez-vous vraiment besoin de cela ? Ou bien plutôt d’un toit pour vous abriter, et que quelqu’un s’occupe pour vous de faire en sorte que ce toit ne prenne pas l’eau, ou vous propose une pièce supplémentaire le jour où la famille s’agrandit…

L’édition dans les nuages, selon Google, c’est Google Recherche de Livres, mais aussi Google Editions :  à quoi bon télécharger vos livres ? Laissez-les sur le nuage. A quoi bon les stocker sur votre disque dur, à la merci d’un plantage ? Votre bibliothèque entière sera dans le nuage, disponible en quelques clics (ou en quelques caresses sur l’écran de votre iPad…). Vous vous y faites très bien en ce qui concerne vos mails, utilisateurs de Gmail, Yahoo ou Hotmail… Est-ce que cela vous dérange vraiment de ne pas stocker vos mails sur votre disque dur ?

L’édition dans les nuages, selon Amazon, c’est ce livre que vous commencez à lire sur votre Kindle, et dont vous poursuivez la lecture sur votre iPhone, où il s’ouvre directement à la bonne page… La synchronisation se fait via le nuage d’Amazon, qui stocke et traque vos lectures. Mais c’est aussi ce livre que vous aviez acheté, et qu’Amazon efface de la mémoire de votre Kindle sans vous demander votre avis…

Olivier Ertzscheid, nous met en garde :

«  Pourtant, et maintenant que les grands acteurs du web sont bien positionnés dans les nuages, maintenant que chacun d’entre nous, particulier ou institution/entreprise dispose quotidiennement de ces services le plus souvent dans la plus parfaite transparence/ignorance, maintenant qu’au-delà des seuls accès ce sont également nos pratiques, nos médiations, qui prennent place dans la distance offerte par ces nuages, il est temps de sortir de l’imaginaire cotonneux dans lequel nous entraîne et que co-construit le vocable même «  d’informatique dans les nuages  ».

Sortir de l’imaginaire cotonneux, certes, et demeurer vigilant. Remplacer cet imaginaire cotonneux par une connaissance suffisante de ce que recouvre cette terminologie séduisante, une réflexion nourrie sur les conséquences des basculements qui s’effectuent déjà, pour autoriser des prises de décision qui ne se basent ni sur des peurs fantasmatiques ni sur des enthousiasmes naïfs.

Une maison d’édition est susceptible d’avoir affaire au «  cloud computing  » à plus d’un titre :

- en tant qu’entreprise, elle peut faire le choix d’offres «  XAAS  » pour son informatique de gestion.

- elle peut également développer de nouvelles offres éditoriales impliquant l’utilisation de services basés sur le «  cloud  », ce qui l’engage à repenser et transformer ses processus de production, comme l’ont fait les premiers les éditeurs scientifiques comme Elsevier, en partenariat avec MarkLogic.

- elle s’inscrit, je l’évoque déjà plus haut,  dans un écosystème qui utilise déjà largement des services basés sur le cloud computing, qu’il s’agisse de repérer des auteurs ou de promouvoir ses titres : l’usage des réseaux sociaux, tous adossés à des solutions «  cloud  », se développe considérablement.

Enfin, et c’est peut-être là le point le plus important, l’éditeur,  qui n’existerait pas sans ses lecteurs, se doit de s’interroger sur l’impact du «  cloud computing  » sur la lecture elle-même, et sur la définition de la lecture numérique à l’ère des lectures industrielles,  objet des recherches d’Alain Giffard, récemment invité des assises professionnelles du livre organisées par la commission numérique du SNE.

J’ai filmé avec ma petite flip caméra, en tremblotant un peu, un petit moment de cette intervention, qui n’est pas sans rapport avec ce dont il est question ici, le voici :

Que ferons-nous des nos livres, en effet, s’ils s’en vont sur les nuages, et que ne parvient pas à s’inventer un art de la lecture numérique ? J’arrête ce billet, plus que je ne le termine,  tant les questions sont loin d’être toutes abordées et traitées,  en citant Alain Giffard :

«  Les faiblesses des robots de lecture permettent d’établir ce point que je crois décisif : le dispositif actuel de lecture numérique suppose un lecteur doté à la fois d’une grande responsabilité et d’une grande compétence. Il est responsable non seulement de l’établissement du texte pour la lecture, mais aussi de la technologie, de sa propre formation, et de sa participation au réseau des lecteurs. Il ne confond pas pré-lecture et lecture, « hyper-attention » et attention soutenue, lecture d’information et lecture d’étude, acte de lecture et exercice de lecture. Il sait identifier et rectifier le travail des robots. Même l’industrie de lecture reconnaît que son activité suppose un tel lecteur. Pour se défendre à propos des erreurs relevées dans les moteurs de Google Books, les dirigeants de Google soutiennent que l’ampleur du texte numérique impose l’automatisation avec sa part d’erreur machinique inévitable et donc l’activité de correction des internautes. Autrement dit, à l’inlassable industrie de lecture du robot doit correspondre l’interminable activité de rectification du lecteur compétent.  »

Je ne suis pas un robot, mais je fais appel aux lecteurs compétents que vous êtes, pour apporter corrections et rectifications à ce billet…

Première messe

messeJ’en ai croisé qui disaient : c’est ma 42ème, l’un en est même à sa 53ème. Moi, c’était ma première Foire de Francfort, ma première « messe » disent les allemands.
Je n’aime pas beaucoup les foires et les salons, lumières artificielles, bruit de fond, kilomètres de moquette et de mobilier de stand. Mais à Francfort, étrangement, alors que tout est multiplié par dix  (plusieurs halls immenses, chacun sur plusieurs étages, et des kilomètres de couloirs que des tapis roulants tentent de raccourcir), je passe plusieurs jours passionnants, où s’enchainent les rencontres.

Entre les rendez-vous, je m’aventure :

- au pavillon de l’invité d’honneur, cette année la Chine, ou une belle expo nous rappelle l’histoire de l’écriture, et que les Chinois avaient inventé l’imprimerie bien avant notre Gutenberg. Je suis toujours émue d’une manière assez inexplicable devant les témoignages des premiers temps de l’écriture : signes gravés sur une carapace de tortue, un os, une pierre.

tortue

chinoisliseuses

Il suffit de tourner la tête, et on tombe sur une série de liseuses suspendues au dessus d’une rangée d’ordinateurs, toujours des signes, des mots, toujours du sens qui circule entre les gens.

- à l’étage des agents, dont quelqu’un m’a dit qu’il fallait que j’aille au moins y jeter un coup d’œil. Ici, pas de stands tape à l’œil, pas de livres exposés. Des rangées de tables étroites, avec des chaises de part et d’autre, et des dizaines de paires de gens en train de discuter.

agents01

- dans la grande cour centrale, entre les halls immenses, pour déjeuner de saucisses et de pain, emmitouflée dans mon manteau. Une éditrice me l’a bien dit ce matin : « Francfort, pour moi, ça veut dire que l’hiver arrive. »

- dans le Hall 8, celui des anglo-saxons, dont l’ambiance est bien différente du 6, où sont regroupés les français avec d’autres. Mais je ne suis pas là tellement pour comparer les stands impressionnants des uns et des autres, je cherche Mike Shatzkin, qui partage un stand avec quelques autres consultants, et après quelques tours de piste, car il est sans arrêt occupé à discuter avec quelqu’un, je finis par le trouver seul, et passe un bon moment à discuter avec lui. Il est si chaleureux que j’en ai oublié mon anglais hésitant. Il me glisse une pub pour un événement qu’il organise à New York en janvier,  j’aimerais bien y aller.

Avant la «  Messe  », il y a eu la journée TOC organisée par O’Reilly. J’ai entendu Sara Lloyd, dont j’avais aidé Hubert et Alain à traduire le « digital manifesto » l’an dernier. Elle est suivie par Cory Doctorow, dont l’intervention qui pourfend les DRM sera pas mal commentée le lendemain sur la foire, tout comme la conférence sur le piratage de Brian O’Leary, qui tend à démontrer, sur un nombre limité de titres d’O’Reilly, que la mise à disposition non autorisée par l’éditeur des fichiers des livres numériques sur des réseaux peer to peer, le piratage,  tendrait plutôt à favoriser les ventes. Certains (essentiellement un article de the Bookseller, qui est distribué sous format imprimé gratuitement partout dans la foire,  laisse entendre que des éditeurs accusent Andrew Savikas, qui a organisé l’événement, d’en avoir fait un événement plus orienté « informaticiens » que « éditeurs », et de mettre en avant les expériences d’O’Reilly qui édite des livres bien particuliers, essentiellement destinés aux développeurs, en laissant entendre abusivement que ses expériences pourraient fonctionner tout aussi bien pour l’édition grand public.

Je ne sais pas bien de quel côté j’aurai fait pencher la balance, avec mon intervention de l’après-midi : je suis bien quelqu’un «  de l’édition  », et je ne suis pas informaticienne. Pourtant, je dis,  entre autres choses, dans cette intervention : « éditeurs, il va vous  falloir être un peu plus proches de la technologie. Les livres vont devenir numériques, vous vivrez dans un univers un peu plus technique, et il faudra bien vous y mettre un peu, si vous voulez maîtriser ce qui s’en vient. »

Les critiques faites à Savikas me semblent bien peu justifiées. Les commentaires de Sara Lloyd ont été, elle le précise en commentaire sur le blog de TOC,  sortis de leur contexte. Je conçois que certains soient agacés par les prises de position de Cory Doctorow. Mais déformer la pensée de Sara et essayer de jeter le doute sur la qualité de l’événement organisé par les équipes d’O’Reilly me semble un procédé assez douteux. C’est tentant de trouver quelqu’un sur qui taper lorsque l’on réalise qu’il va falloir changer, et vite, si on ne veut pas se trouver complètement dépassé par un monde qui change à toute vitesse. C’est tentant de tomber à bras raccourcis sur celui qui essaie de regarder loin devant et dit « préparez-vous, accrochez-vous, ça va remuer ! ».

Les interventions auxquelles j’ai assistées au TOC n’étaient pas spécialement techniques. Même la présentation faite par Peter Brantley de l’OPDS n’était pas technique, ce qui est une prouesse lorsque l’on parle d’un sujet pareil. Et cette façon d’essayer de minorer l’intérêt d’un événement en stigmatisant ses intervenants et son public est vraiment assez désagréable. On dit « c’est un truc de geeks », et on retourne ne rien faire à propos du numérique, en se disant « il n’y a pas de marché ». On pourra ajouter quelques propos nostalgiques sur l’odeur de la colle et le toucher du papier…

Pour plus de détails, voir le blog TOC, avec les commentaires.

Pendant que je projetais des photos de nuages et essayais d’imaginer, en vilaine geek que je suis, ce que pourrait être le « Cloud Publishing », les rois du Cloud Computing faisaient, dans la salle à côté, l’annonce de l’ouverture prochaine de Google Editions. Cela avait été déjà annoncé il y a plusieurs mois, mais cette fois, même si aucune date d’ouverture n’est encore annoncée, cela semble plus proche, courant 2010.

Cela fait des années qu’on savait que cela allait arriver : les géants du web s’approchent à grand pas et font trembler le sol sous leurs bottes de sept lieues. Seront-ils aussi amicaux que les géants de Royal de Luxe qui ont investi Berlin à l’occasion du début des festivités liées à  l’anniversaire de la chute du mur ?

des métadonnées suffisamment bonnes ?

C’est une chose de critiquer la qualité des métadonnées du programme Livres de Google, c’en est une autre de le faire de façon systématique et argumentée. C’est l’exercice auquel s’est livré Geoff Nunberg et que l’on peut consulter ici.

La réponse de Jon Orwant, responsable des métadonnées chez Google, est intéressante. Loin de nier le problème ou de chercher à le minimiser, il examine une à une les erreurs pointées par Geoff Nunberg et explique leur origine, et la manière dont Google traite ses questions, à l’échelle des millions d’ouvrages qu’il a numérisés.

Joseph Esposito fait (dans la mailing list Read 2.0) un rapprochement entre le parti pris de Google concernant ce projet – privilégier l’accès rapide à une grande quantité d’ouvrages, et améliorer ensuite progressivement la qualité des métadonnées – et le  concept remis à l’honneur dans Wired cette semaine : celui de «  good enough«  . Francis Pisani traduit dans son billet sur le sujet «  good enough  » par «  pas mal  ». Je le traduirais plus littéralement par «  suffisamment bon  », me souvenant du terme  de «  mère suffiisamment bonne«    utilisé pour traduire le concept de «  good enough mother  » proposé par le psychanalyste anglais Winnicott. J’aime cette idée du «  good enough  », essentielleemnt déculpabilisante (pour les mères, qui résistent difficilement à l’envie  d’essayer de devenir des mères parfaites), mais dans beaucoup d’autres domaines aussi. Ça ressemble à première vue à un concept de feignant, celui qui se contenterait d’un «  assez bien  », qui bâclerait le travail, un candidat au «  peut mieux faire  ». En réalité, le désir de perfection est souvent paralysant. Ce concept de «  good enough  » permet au contraire de lever bien des inhibitions, permet d’oser faire un premier pas, celui qui coûte le plus.

Mais ce n’est pas en priorité à cause de la qualité de ses métadonnées que le projet Google Livres, et surtout  le projet de Règlement auquel le procès intenté à Google par les éditeurs et auteurs américains a abouti est violemment critiqué et combattu. Trois principaux reproches sont faits au Règlement Google Books Search  :

- le non respect par Google de la législation sur le droit d’auteur
- le danger de constitution d’un monopole sur l’exploitation des versions numérisées des œuvres orphelines
- le manque de garanties sur le respect de la vie privée

Le délai prévu par le Règlement pour déposer des objections a été prolongé jusqu’au 8 septembre. Et il faudra attendre le 7 octobre, l’audience de la cour de justice américaine chargée de se prononcer sur la validité du Règlement, pour savoir si celle-ci l’aura considéré comme… «  good enough  ».

Nova Spivack : Bienvenue dans le Flux

Entrepreneur, (Radar Networks, Lucid Ventures),  pionnier du web sémantique, Nova Spivack – à l’origine de twine.com – développe une vision stratégique des nouvelles technologies et des nouveaux médias. Il m’a autorisée – et je l’en remercie -  à publier la traduction d’un billet qu’il vient de faire paraître, Bienvenue dans le flux,  qui fait le point sur un phénomène que nous constatons tous, lié à l’apparition de nouvelles applications en temps réel et qu’il prend très au sérieux, considérant qu’il s’agit là d’un nouvel âge du web.

—-

Bienvenue dans le Flux : un nouvel âge pour le Web
Par Nova Spivack, fondateur de twine.com

Internet a commencé à évoluer plusieurs décennies avant l’apparition du Web. Et malgré le fait qu’aujourd’hui la plupart des gens pensent qu’Internet et le Web, c’est la même chose, en réalité ce sont deux choses bien distinctes. Le Web constitue le sommet de l’infrastructure Internet, un peu comme un logiciel ou un document est au sommet du système d’exploitation d’un ordinateur.

Et tout juste comme le Web a émergé à la pointe de l’internet, quelque chose de nouveau émerge à la pointe du Web : j’appelle cela le Flux. Le Flux est la prochaine phase de l’évolution d’Internet. C’est ce qui vient après le Web, ou bien au sommet du Web et que nous sommes tous en train de construire et d’utiliser.

La meilleure illustration actuelle du Flux est l’avènement de Twitter, Facebook et d’autres outils de microblogging. Ces services sont visiblement des flux, leurs interfaces montrent littéralement des flux, flux d’idées, flux de réflexions, de conversations. En réaction aux microblogs nous assistons aussi à la naissance d’outils pour gérer ces flux et pour nous aider à comprendre, rechercher, et suivre les tendances qui se propagent à travers eux.  Tout comme le Web n’induit pas un type particulier de site ou de service, le Flux n’est pas représenté par un site ou un service particulier, il se confond avec le mouvement collectif qui prend place à travers lui.

Pour relever le défi et saisir les opportunités du Flux un nouvel écosystème de services est en train d’émerger très rapidement : des éditeurs de flux, des outils de syndication de flux, des flux en temps réel, des moteurs de recherche, des moteurs d’analyse de statistiques de flux, des réseaux de publicité dédiés aux flux, et des portails de flux. Tous ces nouveaux services inaugurent l’ère du Flux.

Histoire du Web

La proposition originale de Tim Berners-Lee qui a donné naissance au Web date de 1989. Les deux premières décennies du Web, ( Web 1.0 de 1989 à 1999, et Web 2.0 de 1999 à 2009) ont été centrées sur le développement du Web lui-même. Le Web 3.0 ( 2009 – 2019) la troisième décennie du Web commence officiellement en mars de cette année et sera centrée sur le Flux.

  • Dans les années 90 avec l’avènement du protocole HTTP et du langage HTML, la métaphore du Web (la Toile), est née et les concepts des sites web ont capturé nos imaginations.
  • Au début des années 2000 l’intérêt s’est déplacé vers les réseaux sociaux et le web sémantique.
  • Maintenant, pour la troisième décennie qui commence, l’attention se focalise sur le déplacement vers le Flux, et on constate une abondance de métaphores qui tournent autour du flux, du courant et des ondulations.

Le web a toujours été un  flux. En fait il été un flux de flux. Tout site peut être vu comme un flux de pages qui évoluent dans le temps. Les branches d’un site peuvent être vues comme des courants de pages se développant dans différentes directions.

Mais avec l’arrivée des blogs, des flux d’alimentation RSS, des microblogs, la nature fluide du Web est devenue plus lisible et visible, parce que les nouveaux services sont à une seule dimension et conversationnels, et qu’ils se mettent à jour beaucoup plus fréquemment.

Définir le Flux

Tout comme le Web est formé de sites, de pages et de liens, le Flux est formé de flux.

Les flux font se succéder rapidement des séquences d’informations sur un thème. Il peut s’agir de microblogs, de hashtags, de flux d’alimentation RSS, de services multimédias ou de flux de données gérées via des API’s.

Le point clé est qu’ils changent rapidement, et ce changement est une part importante de la valeur qu’ils offrent. (contrairement aux sites web statiques, qui n’ont pas nécessairement besoin de changer pour fournir de la valeur). De plus, il est important de noter que les flux ont des URI- ce sont des entités que l’on peut adresser.

Alors, qu’est-ce qui définit un Flux, et le distingue d’un site web ordinaire ?

1. Le changement. Le changement est ce qui donne au flux toute sa valeur. Il n’en est pas toujours ainsi concernant les sites web. Les sites web n’ont pas besoin de changer constamment pour posséder de la valeur – ils pourraient par exemple être simplement statiques mais contenir des collections de références très nombreuses. Mais les flux, quant à eux, changent très fréquemment, et c’est ce changement permanent qui est leur caractéristique principale.

2. Indépendance vis à vis de l’interface. Les flux sont des flux de données,  et on peut y accéder et en prendre connaissance indépendamment d’une interface particulière, grâce à la syndication de leurs données à travers différents outils. Les sites web, eux, sont liés à leur propre interface utilisateur. À l’ère du web, le fournisseur de contenu contrôle l’interface. À l’ère du Flux, c’est l’utilisateur qui contrôle l’interface.

3 – Le règne de la conversation. Un point intéressant et important est que les flux sont reliés ensemble non par des liens, mais par des actes de conversation — par exemple la réponse à un  » tweet  », ou le «  retweet  », les commentaires, les évaluations, les «  follows  ». À l’ère du Web, le lien était roi. Mais à l’ère du Flux, c’est la conversation qui règne.

En termes de structure, les flux comprennent des agents, des messages et des interactions.
- les agents sont les gens ou les applications logicielles qui publient dans les flux.
- Les messages sont les publications faites par ces agents dans les flux – par exemple les courts billets postés sur les microblogs.
- Les interactions sont les actions de communication telles que l’envoi de messages direct ou de réponses, ou le fait de citer quelqu’un («  retweeting  ») qui connecte et transmet les messages entre les agents.

L’esprit global.

Si Internet est notre système nerveux collectif, et si le Web est notre cerveau collectif, alors le Flux est notre esprit collectif.  Le système nerveux et le cerveau sont  comme les strates de fondation hardware et software, mais l’esprit est ce que le système est en train de penser en temps réel. Ces trois couches sont interconnectées, et représentent différents aspects de notre éveil progressif à l’intelligence planétaire.

Le Flux c’est ce que le Web est en train de penser et de faire, là, maintenant. C’est le flux collectif de notre conscience.

Le Flux c’est l’activité dynamique du Web, qui ne cesse de se produire. Ce sont les conversations, le flux vivant d’audio et de vidéo, les changements qui se produisent sur les sites web, les idées et les tendances, les « memes », qui se produisent au travers de millions de pages Web,  d’applications et d’esprits humains.

Le « maintenant » est devenu plus bref

Le Web change plus vite que jamais, tout en devenant de plus en plus fluide. Les sites ne changent pas chaque semaine ou chaque jour, mais chaque heure, minute ou seconde. Si nous sommes hors ligne ne serait-ce que quelques minutes, nous risquons de rater quelque chose de vraiment important. La transition d’un Web lent à un Flux ultra rapide se produit à toute vitesse. Et tandis que cela se produit, nous déportons notre attention du passé vers le présent et notre « maintenant » devient plus bref.

L’ère du Web portait essentiellement sur le passé — les pages étaient publiées des mois, des semaines, des jours ou moins des heures avant que nous les regardions. Les moteurs de recherche indexent ce passé pour nous le rendre accessible : sur le Web nous avons tous l’habitude d’utiliser Google et de regarder les pages issues d’un passé récent ou parfois situées plus loin dans le temps. Mais à l’ère du Flux, tout s’est déplacé dans le présent – nous pouvons voir les nouveaux billets publiés au fur qu’ils apparaissent, et les conversations émerger autour d’eux, en direct, tant que nous y prêtons attention.

Oui, comme le rythme du Flux s’accèlère, ce que nous appelons « maintenant » se raccourcit. Au lieu d’être un jour, c’est une heure, ou quelques minutes. L’unité de mesure des changements a acquis plus de granularité.

Par exemple, si vous regardez la ligne de temps (timeline) publique de Twitter, ou même seulement celle de vos amis dans Twitter ou Facebook vous verrez que les choses disparaissent rapidement de votre vue, vers le passé. Notre attention se focalise sur le présent immédiat. : les quelques dernières minutes ou heures. Toute chose qui a été postée avant cette période de temps est « hors de vue, hors de l’esprit ».

Le Flux est un monde où les empans d’attention sont toujours plus réduits, un monde de sensations virales en ligne, de célébrité instantanée, de tendances subites, d’intense volatilité. C’est aussi un monde de conversations et de pensées à très court terme .

C’est le monde dans lequel nous entrons. C’est à la fois un grand défi et une grande opportunité que cette nouvelle décennie du Web…

Comment allons-nous nous accommoder du Flux ?

Le Web a toujours été un courant – il est toujours apparu en temps réel depuis qu’il a commencé, mais il était plus lent, les pages changeaient moins fréquemment, de nouvelles choses étaient publiées moins souvent, les tendances se développaient plus lentement. Aujourd’hui va tellement plus vite, aujourd’hui se nourrit de lui même, et nous le nourrissons et nous l’amplifions toujours plus.

Les choses ont aussi changé sur le plan qualitatif ces derniers mois. Les aspects de type « flux » du Web sont vraiment devenus le lieu central de notre principale conversation culturelle. Tout le monde s’est mis à parler de Facebook et de Twitter. Les célébrités. Les animateurs de talk-shows. Les parents. Les ados.

Et soudain nous nous retrouvons tous scotchés à diverses activités liées aux flux, microbloguant de façon maniaque, louchant à force de traquer les références aux choses  qui nous importent avant qu’elles soient emportées hors de vue. Le Flux est arrivé.

Mais allons-nous pouvoir supporter cette quantité toujours grandissante d’informations ? Allons-nous tous être renversés par nos propres lances d’arrosage personnelles, ou est-ce que des outils vont apparaître pour nous aider à filtrer nos flux et les rendre gérables ? Et si déjà aujourd’hui nous avons trop de flux et devons sauter de l’un à l’autre de plus en plus souvent, comment est-ce que cela va être quand nous devrons fonctionner avec dix fois plus de flux d’ici quelques année ?

L’attention humaine est un goulet d’étranglement considérable dans le monde du Flux. Nous pouvons être attentifs à une seule chose, ou à un petit nombre de choses en même temps. Comme l’information vient à nous depuis différentes sources, nous devons sauter d’un item au suivant. Nous ne pouvons l’absorber entièrement en une seule fois. Cette barrière fondamentale sera franchie par la technologie dans le futur, mais au moins pour la prochaine décennie cela demeurera un obstacle clé.

Nous pouvons suivre plusieurs courants, mais seulement un item à la fois, et cela requiert de pouvoir rapidement faire passer notre attention d’un article à l’autre et d’un flux à l’autre. Et il n’y a pas vraiment d’alternative : fusionner tous nos flux séparés en une seule grande activité de flux unifiée produirait vite beaucoup trop de bruit et nous serions submergés.

L’habileté à suivre différents flux dans différents contextes est essentielle et nous rend capables de filtrer et et de concentrer notre attention de manière efficace. Résultat, il n’y aura pas un flux unique d’activité – nous aurons de très nombreux flux.  Et nous devrons trouver le moyen de nous accommoder de cette réalité.

Les flux peuvent être unidirectionnels ou bidirectionnels. Quelques flux sont comme des « fils d’alimentation » qui vont de producteurs de contenu à des consommateurs de contenus. D’autres flux sont plus comme des conversations ou des canaux dans lesquels n’importe qui peut être indifféremment émetteur ou récepteur.

Comme les flux vont devenir les principaux modes de distribution de contenu et de communication, ils vont devenir de plus en plus conversationnels et ressembleront de moins en moins à des « flux d’alimentation ».  Et c’est important – parce que pour participer à un flux d’alimentation vous pouvez être passif, vous n’avez pas besoin d’être présent de façon synchrone. Mais pour participer à une conversation vous devez être présent et synchrone—vous devez être là au moment où ça se passe, ou vous manquez tout.

Un Flux de défis et d’opportunités.

Nous allons avoir besoin de nouvelles sortes d’outils pour manager nos flux, pour y participer, et nous commençons à voir l’émergence de certains d’entre eux. Par exemple, les clients Twitter comme Tweetdeck, les lecteurs de flux RSS, et les outils de suivi de flux comme Facebook ou Friendfeed. Il y a aussi de nouveaux outils pour filtrer nos flux en fonction de nos centres d’intérêt, comme Twine.com (précision : l’auteur de cet article est l’un des fondateurs de Twine.com). La recherche en temps réel émerge aussi pour offrir des moyens pour scanner le Flux en son entier. Et les outils de découverte de tendances nous aident à savoir ce qui est brûlant en temps réel.

Le plus difficile sera de savoir à quoi prêter attention dans le Flux ; les informations et les conversations disparaissent si rapidement que nous pouvons à peine suivre le présent, encore moins le passé. Comment savoir à quoi prêter attention, quoi lire, quoi ignorer, quoi lire peut-être plus tard ?

Récemment quelques sites ont émergé qui montrent les tendances en temps réel, par exemple en mesurant le nombre de retweets concernant diverses URL survenus dans Twitter.  Mais ces services montrent seulement les tendances les plus fortes et les plus populaires. Et les autres thématiques, celles qui n’entrent pas dans ces tendances massives ? Est-ce que les choses qui ne font pas l’objet d’un RT ou n’ont pas été distinguées par un « like » sont condamnées à l’invisibilité ? Est-ce que la popularité d’un document reflète son importance réelle ?

Certainement, l’une des mesures de la valeur d’un item dans le Flux est la popularité. Une autre unité de mesure est sa pertinence par rapport à un thème, ou, plus intéressant encore, par rapport à nos centres d’intérêts personnels. Pour vraiment faire face au Flux nous aurons besoin de nouvelles manière de filtrer qui combineront ces deux approches. Au fur et à mesure que notre contexte change au long de nos journées (par exemple du travail et de ses différents clients et projets au shopping ou à la santé, aux loisirs, à la famille) nous aurons besoins d’outils qui pourront s’adapter et filtrer le Flux différemment selon ce qui nous importera.

Un Internet orienté Flux offre aussi de nouvelles opportunités pour la monétisation. Par exemple, de nouveaux réseaux de publicité pourraient se former pour permettre aux annonceurs d’acheter des espaces juxtaposés aux URL portant sur des grandes  tendances  du Flux, ou sur différentes tranches de celui-ci.  Par exemple, un annonceur pourrait distribuer ses annonces sur les douzaines de pages qui sont retweetées à un moment précis. Lorsque ces pages commencent à décliner en ce qui concerne le nombre de RT par minute, les pubs pourraient bouger vers d’autres URL qui commencent à gagner en popularité.

Les réseaux publicitaires qui font un bon boulot de mesure des tendances de l’attention en temps réel  devraient être capable de capitaliser  sur ces tendances plus vite et permettre d’obtenir  de meilleurs résultats pour les annonceurs. Par exemple, un annonceur capable de détecter et de se positionner immédiatement sur la tendance du jour pourrait faire apparaître son annonce accolée aux leaders les plus influents qu’ils cherchent à atteindre, de manière presque instantanée. Et cela pourrait se traduire par des gains immédiats en sensibilisation et sur l’image de marque.

L’émergence du Flux est un changement de paradigme intéressant  qui pourrait se révéler une caractéristique de la prochaine évolution du Web pour la troisième décennie qui arrive. Même si le modèle de données sous-jacent  va  de plus en plus  ressembler à un graphe, ou même à un graphe sémantique, l’expérience utilisateur sera de plus en plus orientée flux.

Qu’il s’agisse de Twitter ou d’une autre application, le Web est en train de se transformer  de plus en plus en flux. Comment allons-nous filtrer ce flux ? Comment allons-nous y faire face ? Celui qui résoudra ce problème en premier va probablement devenir riche.

Guerre et paix

Guerre :

«  A la différence de la confrontation des majors avec le numérique, la guerre à venir à toutes les chances d’être plus brutale, plus rapide et plus efficace que celle que mène encore l’industrie du disque. Le plan de bataille édicté par le SNE est d’ailleurs un constat d’échec tant il n’est guère qu’un plan de défense face à une attaque qu’il devine, lui aussi, imminente. Si l’industrie du livre n’a de toute évidence rien appris de l’expérience des majors du disque, qui peut imaginer un instant que dans le camps adverse, aucune leçon n’at été apprise afin de mettre au point les stratégies de la guerre à venir ?  » (Fabrice Epelboin – ReadWriteWeb)

tags : confrontation guerre brutale bataille défense attaque adverse

Paix :

«  Dans un univers numérique, la clé du succès, c’est le dialogue. Dans le monde du livre, cela suggère le dialogue avec un auteur vivant, certes, mais aussi avec d’autres lecteurs, ou d’autres participants à l’écosystème qui prend forme autour d’une œuvre. Par conséquent, par delà les infrastructures, les formats, les modèles commerciaux, etc. ceux qui réussiront le mieux seront ceux sauront tirer profits des dialogues — par tous les moyens ; par ceux qui leur conviennent, ne serait-ce que par courriel, par un blogue, etc. Qu’ils soient auteurs, éditeurs, libraires, bibliothécaires, etc. Je m’émerveille d’ailleurs en voyant apparaître, chaque jour, de nouvelles initiatives qui s’inscrivent dans cette dynamique conversationnelle.  » (Clément Laberge – du cyberespace à la cité éducative)

tags : dialogue émerveille apparaître dynamique-conversationnelle

Je sais pas, vous, mais moi, je préfère la paix. Je préfère le travail de Clément auprès des éditeurs, en France pendant plusieurs années et maintenant au Québec, à l’agressivité d’Epelboin envers les éditeurs. Nous n’en sommes qu’au tout début d’un changement qui modifie la manière dont nous lisons, écrivons, publions, apprenons, nous informons, échangeons. Les modalités de ce changement, ses conséquences, méritent autre chose que les sempiternelles vociférations contre «  les éditeurs  ». Ce n’est pas un secteur que je défends ici, c’est une manière d’être.  Je préfère saluer les expérimentations plutôt que souligner les maladresses, aider à la compréhension plutôt que me gausser des retardataires. Accompagner le changement, et non le jeter à la face de ceux qu’il concerne.

PaaS : Publishing as as Service

Déjà mentionnée dans ce blog, la société SharedBooks propose une site sur lequel il est possible de personnaliser un livre, et d’en commander une version imprimée. SharedBooks vient de conclure un partenariat stratégique avec Mark Logic Corporation, une société qui propose des solutions pour la structuration XML des contenus éditoriaux. L’un fournit le «  workflow  » éditorial, ( la chaîne de production informatisée ), l’autre l’interface permettant d’assembler les contenus et offrant l’accès à l’impression à la demande, ainsi que la possibilité de toucher directement le client final : et voilà un service de création et de distribution de contenu complètement orienté «  plateforme  ».

<explication>Que siginifie «  structurer en XML des contenus éditoriaux  » ? Très schématiquement, cela signifie ajouter une couche d’informations à un texte, au moyen de balises insérées dans le fichier du texte. Quiconque a approché le langage HTML sait ce que sont des balises. Il s’agit de mentions qui se présentent précédées et suivies de chevrons. Les balises ne sont pas censées être affichées, le lecteur ne les verra pas. Elles portent une information destinée à être interprétée par des machines. Elles spécifient tout le texte situé entre une balise ouvrante <commeCeci> et une balise fermante </commeCeci> .  La différence entre les deux ? le signe «  /  » qui suit le chevron ouvrant d’une balise indique qu’il s’agit d’une balise fermante. Les balises peuvent fournir de l’information sur la structure du texte, de type : «  tout ce qui est situé entre ces deux balises constitue le titre d’un chapitre  ». Elles peuvent aussi donner de l’information sur le sens du texte, indiquer de quoi il parle : «  tout ce qui se situe entre ces deux balises est un recette de cuisine  ». Voici une explication bien schématique, mais il n’est vraiment pas difficile d’en apprendre plus sur XML en se livrant à quelques recherches sur le web…

Avec ce système somme tout assez simple, il est ensuite possible d’adresser des portions de texte, de les désigner, de les retrouver, de les manipuler. On obtient ainsi de l’information structurée, un petit peu comme l’est l’information contenue dans une base de données, mais avec une structuration offrant plus de souplesse et de possibilités.

</explication>

Le métier de Mark Logic, c’est d’aider avec une gamme d’outils XML les éditeurs à structurer leurs contenus, pour une publication qui peut se faire sur papier mais aussi en numérique. Les flux XML ainsi créés peuvent alimenter par exemple des plateformes de e-learning, tout comme ils peuvent, moyennant certaines transformations, être mis en forme pour une publication imprimée. En regardant la liste de leurs clients, on voit que les éditeurs professionnels et universitaires y sont plus nombreux que les éditeurs de littérature générale.

Le métier de SharedBooks, c’est de proposer au client final une interface qui va lui permettre à la fois d’intervenir sur le contenu d’un livre, et d’en commander une version imprimée. Il s’agit d’une forme particulière d’impression à la demande, couplée à de la personnalisation.

On voit immédiatement l’intérêt du partenariat ainsi créé : la possibilité pour les clients de Mark Logic, des éditeurs pour certains d’entre eux, d’utiliser les développements de SharedBooks pour accéder à la fois aux outils de customisation, et à l’impression à la demande. Et, une fois qu’on dispose de contenu structuré, de tels outils ouvrent la porte à quantité de produits nouveaux, qui peuvent être diffusés directement sur le web.

Voici le communiqué de presse :

SharedBook Inc., la solution d’édition personnalisée en ligne, et Mark Logic Corporation, qui fournit la solution leader du marché XML server, ont conclu un accord de partenariat stratégique qui va faire de SharedBooks la solution privilégiée de commercialisation des contenus XML délivrés via Mark Logic Server.

L’accord va permettre aux deux compagnies de conjuguer leurs services pour permettre aux éditeurs et aux détenteurs de contenus d’exploiter leurs actifs numérques en déployant rapidement des produits à haute valeur ajoutée.

La plateforme de personnalisation éditoriale SharedBook offrira aux clients de Mark Logic, actuels et futurs, une solution SaaS (Software as a Service), permettant la réutilisation de contenus, leur ré-agencement dans des œuvres dérivées des contenus traités par MarkLogic server en utilisant les connecteurs de contenus développés par SharedBooks.

«  Ce partenariat démontre la flexibilité de notre plateforme technologique  », a déclaré Caroline Vanderlip, CEO de SharedBook. «  Les outils de «  front end  » de SharedBooks complètent MarkLogic server pour offrir une solution «  go-to-market  ».

«  SharedBool  offre à Mark Logic une interface  utilisateurs innovante  » a déclaré Jeff Faraday, directeur des partenariats chez Mark Logic Corporation. «  MarkLogic et SharedBook sont positionnés sur ce marché pour offrir aux clients un service formidable. Nous prévoyons un partenariat de longue durée, dont bénéficieront les deux parties.  »