Archives pour la catégorie édition électronique

Que pouvons-nous apprendre des webdesigners ?

Le livre numérique, c’est «  juste  » un fichier…

À la jonction entre les deux significations du terme “livre” (livre en tant qu’œuvre de l’esprit ou livre en tant qu’objet matériel), se situent des opérations de mise en forme qui sont transformées radicalement dès lors qu’il s’agit de produire un livre numérique : ces opérations à la fois intellectuelles et artistiques qui participent au sens et au propos du livre conditionnent également sa matérialité, son aspect. Contrairement à ce que certains imaginent, la fabrication d’un livre numérique est tout sauf triviale. Comment ça ? L’édition ne s’est elle pas déjà informatisée depuis de longues années ? N’est-ce pas déjà un fichier informatique qui est aujourd’hui adressé à l’imprimeur ? Qu’il n’y aurait plus qu’à mettre à disposition des e-libraires ?  En réalité,  le fichier destiné à l’imprimeur n’est en aucun cas utilisable tel quel pour la lecture numérique. Il a été mis en forme en vue d’une impression, et non d’un affichage sur des terminaux de différentes tailles, disposant de différents moteurs de lecture, supportant différents formats. La production de fichiers numériques susceptibles d’offrir  une expérience de lecture numérique satisfaisante nécessite le recours à des savoir-faire particuliers ainsi que la mise en place d’un process de production itératif (produire, tester sur différents terminaux, corriger, tester etc.) jusqu’à obtention d’un fichier, en réalité de plusieurs fichiers,  de la qualité requise. Que certaines de ces opérations soient ou non sous-traitées à des sociétés extérieures ne change rien à l’affaire : c’est l’éditeur qui est responsable, en particulier devant l’auteur, de la qualité du fichier qui va être mis en circulation. C’est lui qui signe le “bon à publier”.

Ça ressemble au web…

La réalisation d’un livre numérique n’est-elle pas, de ce fait, plus proche dans les compétences qu’elle requiert, de l’activité d’un webdesigner que de celles des maquettistes et des compositeurs du monde de l’imprimé ? Le webdesign est né dans dans un milieu technique très contraint : faible bande passante, performances médiocres et disparité dans l’interprétation des standards des navigateurs, outils frustes, écrans faiblement définis, affichages lents, nombre de polices de caractères limité. Même si les performances des écrans et de la bande passante ont évolué, le talent du webdesigner réside encore aujourd’hui dans sa capacité à intégrer des contraintes qui demeurent fortes pour créer des sites beaux et agréables à consulter, d’une navigation aisée, mais également  faciles à mettre à jour et à faire évoluer. Une séparation radicale a aussi eu lieu en ce qui concerne le webdesign : on a rapidement cessé de mélanger dans un même fichier la description et l’expression du contenu des instructions concernant sa mise en forme. Ce qui permet, en modifiant un fichier, de modifier l’aspect de tout un site web. Ce qui offre aussi la possibilité de faire circuler les éléments de contenu et de les afficher dans des environnements graphiques très différents les uns des autres.

À celui qui réalise des livres numériques, le webdesigner pourra enseigner une certaine humilité  :  ni l’un ni l’autre n’ont sur le résultat final de leur travail le même contrôle absolu que celui dont dispose le maquettiste dans le monde de l’imprimé. Cette philosophie du webdesigner, qui, ayant accepté une certaine perte de contrôle, met tout son talent à proposer cependant la meilleure expérience de lecture et de navigation possible, est très utile au e-book designer. Et les deux métiers ont ceci de commun que pour les pratiquer avec succès, il faut marier une grande sensibilité visuelle avec un intérêt pour la dimension “computationnelle”, le goût de l’image et celui du code.

…mais ce n’est pas le web.

Le webdesign ignore cependant presque tout de ce qu’est un livre, et apporte rarement des solutions satisfaisantes aux problèmes spécifiques posés au ebook designer. Comment  permettre le confort d’une lecture immersive ?  Cela passe par la réponse à une infinité de questions du type : “Comment gérer les notes en bas de pages ?” “ Comment obtenir un affichage convenable des lettrines ?”  “Quel repère dans l’avancement d’un texte si le numéro de page n’est plus attaché, selon la taille de l’écran utilisé pour le lire, à la même portion de texte ?”… Les réponses à ces questions ne sont pas toutes du ressort de celui qui travaille à produire le fichier numérique : certaines sont apportées au niveau du logiciel de lecture, d’autres au niveau du format de fichier. La personne en charge de la production du fichier  doit cependant être consciente de la latitude dont elle dispose, afin de l’exploiter au maximum. Les subtiles différences entre les plateformes de vente de livres numériques dans la manière d’accommoder les formats débouchent sur des différences dans l’affichage d’un même livre selon qu’il est acquis sur une ou l’autre plateforme, consulté sur l’un ou l’autre terminal. Le travail de préparation des fichiers ressemble fort aux tests que les développeurs web doivent accomplir sur les différents navigateurs (internet explorer, safari, firefox etc.) dont la plupart ne respectent qu’imparfaitement les spécifications publiées par le w3c. L’utilisation d’un unique fichier, qui procurerait une expérience de lecture parfaitement satisfaisante sur l’ensemble des plateformes et la totalité des dispositifs de lecture est aujourd’hui illusoire, ou bien oblige à s’aligner sur le moteur de lecture le moins performant. Pour qui reste attaché à la qualité, pour qui ne s’en remet pas au hasard pour décider de la forme d’un texte, plusieurs variantes numériques d’un même titre doivent être produites, chacune prenant en compte les spécificités de chaque plateforme.

Je suis loin d’avoir fait le tour de la question, et les modes d’organisation diffèrent grandement selon la taille des maisons d’édition, le nombre et le type de livres produits. Certains secteurs d’édition (guides de voyage par exemple) se prêtent plus que d’autres à la mise en place de process de production quasi automatisés, la structuration des textes se faisant dès l’amont (XML first), les auteurs appelés à  travailler directement sur des outils effectuant cette structuration de manière transparente.

J’aurai plaisir à lire vos réactions et témoignages sur ces questions dans les commentaires…

Bookcamp à New Work City

Non, il n’y a pas de faute de frappe dans mon titre, c’est bien New Work City avec un W et pas un Y que j’ai voulu écrire, NewWork City c’est le nom du lieu où se déroulait le Bookcamp où je me suis rendue aujourd’hui. Ce lieu ressemble à La Cantine, qui a abrité plusieurs Bookcamps à Paris, un lieu de coworking, qui offre espaces de réunion, postes de travail et connections aux startup. J’ai découvert assez tard l’existence de ce Bookcamp, et même si ça pourrait faire assez chic d’essayer de vous faire croire que j’ai fait le déplacement tout exprès depuis Paris, je sais bien que ce serait difficile de vous convaincre. Non, j’y suis allée parce qu’il se trouve que j’étais déjà à New York en prévision de la conférence Tools of Change qui commence demain. Me voici donc embarquée dans une «  non conférence«  en prélude à la «  conférence  ».

Première observation, le principe de la non conférence est ici mieux respecté que nous ne le faisons lors de nos Bookcamps parisiens : il n’y a vraiment pas de programme préparé. Une personne anime le Bookcamp (ce que fait Hubert Guillaud lors des bookcamps parisiens) : elle rappelle les principes, invite les participants à réfléchir aux sujets qu’ils aimeraient voir aborder et à les noter sur un papier. Puis chacun de ceux qui ont noté quelque chose lit son papier à voix haute, des regroupements peuvent s’effectuer si des thèmes sont très proches, et le planning de l’après-midi se remplit ainsi très vite : 4 lieux, 4 sessions, cela fait 16 sujets…

La première session à laquelle je me joins est consacrée à la «  lecture sociale  » et animée par Iris Blasi. Elle utilise pour lancer la discussion les distinctions proposées par Bob Stein pour distinguer les différents types de sociabilité liées à la lecture :

Catégorie 1 – Discuter d’un livre en personne avec des amis ou des connaissances
(hors ligne, informel, synchrone, éphémère)

Catégorie 2 – Discuter d’un livre en ligne
(en ligne, informel, synchrone ou asynchrone, éphémère)

Catégorie 3 – Discuter d’un livre en classe ou dans un club de lecture
(hors ligne, formel, synchrone ou asynchrone, éphémère)

Catégorie 4 – S’engager dans une discussion DANS les marges d’un livre
(en ligne, formel, synchrone ou asynchrone, persistent)

Lors de la discussion qui suit cette taxinomie est rapidement perdue de vue, et les arguments s’échangent sur un mode un peu «  pour ou contre  » sans que soit toujours bien précisé de quoi on est en train de parler exactement. Mais cela n’enlève pas tout intérêt à l’échange, qui fait émerger des questions pertinentes, la plus importante à mes yeux étant probablement   » avec qui souhaite-t-on partager ses lectures au sens de la catégorie 4 de Bob Stein ?  » . C’est une question qui renvoie à l’usage des réseaux sociaux, à cette notion d’ami-qui-n’en-est-pas-un introduite par Facebook, à cette sociabilité élargie à des inconnus que permet le web, inconnus qui ne restent pas vraiment des inconnus même si on ne les rencontre pas, parce que les échanges créent un lien et chacun montre de soi quelque chose dans ces échanges. On entend les arguments des sceptiques de la lecture sociale, ceux qui s’écrient «  ah non, moi, quand je lis, c’est justement pour vous oublier, tous tant que vous êtes !  », ceux des obsédés de la vente (ben ça nous intéresse pas ce que les gens font une fois qu’ils ont acheté un livre, nous, ce qui nous intéresse c’est le prochain livre qu’ils achèteront), ceux qui rappellent que ce qui marche dans les réseaux sociaux c’est la simplicité (on peut partager quantité de choses en ligne sans rien avoir à rédiger du tout, avec des outils comme Foursquare ou Pinterest). La difficulté de citer et de partager les livres protégés par des DRM est également mentionnée, ainsi que la disparité des systèmes de partage d’annotation, eux aussi dépendants des plateformes de lecture. La dichotomie «  parler d’un livre / se parler depuis l’intérieur d’un livre  » est bien soulignée.

L’atelier suivant se veut une réflexion sur les caractéristiques respectives du livre numérique et du livre imprimé. Nick Ruffilo qui l’anime est venu avec un Scrabble, et pendant que la discussion se poursuit, la moitié des participants joue contre l’autre moitié, plusieurs personnes représentant les équipes se succédant pour chercher et placer des mots. Je n’ai pas très bien saisi le pourquoi de cette mise en scène, je l’avoue, une analogie demeurée indéchiffrée, mais c’était assez plaisant… Sur les pratiques de lecture, rien de très nouveau pour qui, comme toi, lecteur bien-aimé, s’intéresse de près à ces questions. Différents sondages auprès des participants (qui lit comment ?), qui montraient une fois encore que personne n’abandonne complètement un type de lecture pour un autre, que certaines qualités du livre imprimé demeurent inégalées (en particulier sa manière d’être un objet que l’on peut reconnaître à sa forme, sa taille, sa couleur, alors que tous les livres numériques prennent la forme du terminal que l’on utilise pour les lire, demeurant hors de portée de la curiosité d’autrui.)

Une chose me frappe qui rend très différent ce bookcamp des expériences françaises, c’est  la manière d’échanger des Américains. On sent qu’ici l’expression orale est enseignée à l’école. Les élèves, les étudiants, sont encouragés à prendre la parole et à s’exprimer, et cela se sent. En conséquence, les personnes qui ne possèdent pas naturellement une aisance à parler en public sont capables cependant de prendre la parole. Chez les personnes au tempérament le plus introverti, on peut discerner un côté «  j’ai appris à m’exprimer  », avec une gestuelle et une diction  dont on voit bien qu’elles sont le fruit d’un entrainement. Les autres semblent parfaitement à l’aise.  Mais le résultat, ce sont des débats où la parole circule très librement, où l’écoute de l’autre est la règle, et où beaucoup de gens différents prennent la parole.

Chez nous, la timidité est plus forte, ainsi qu’une sorte de «  révérence  » pour les personnes auxquelles on prête une autorité, et qu’on va difficilement contredire ou questionner. Autre chose :  la peur de passer pour un idiot est très forte, on préfère ne rien dire que de risquer de dire une chose incongrue. Le résultat c’est que les ateliers de nos Bookcamps  ressemblent parfois plus à des mini conférences, et que ceux qui y prennent la parole sont le plus souvent ceux qui sont habitués à le faire en public.

Parmi les participants au troisième atelier, Joshua Tallent, de chez Ebooks Architects , un expert en formatage de livres numériques, conseille à l’assistance de participer au wiki eprdcton.org, et de suivre sur twitter le hashtag #eprdctn.

L’une des questions débattues ici est très familière à tes oreilles, cher lecteur : est-il possible de produire un fichier  EPUB «  single source  », qui servira de base à toutes les conversions vers les formats propriétaires ou vers les EPUB-qui-ne-sont-plus-tout-à-fait-des-EPUB ? Pour Joshua la réponse est non, car ce format unique, qui fait tant rêver les éditeurs, obligerait à des compromis sacrifiant trop la qualité, en usant du plus petit dénominateur commun. Mieux vaut accepter de produire plusieurs formats qui divergent, chacun tirant au mieux parti de la manière dont sont développés les moteurs de lecture. Ce n’est pas l’avis de plusieurs éditeurs présents qui considèrent que lorsque les titres à publier se comptent en milliers, il n’est pas possible de faire ce patient travail artisanal sur chacun des titres, et qu’il faut trouver des solutions duplicables favorisant le maximum d’automatisation. Tout le monde s’accorde à dire qu’il ne faut pas s’attendre à plus de stabilité, mais que l’adaptation à de perpétuels changements dans le domaine du formatage est désormais la règle.

Le dernier débat auquel j’assiste a pour thème «  crowdsourcing the perfect business model  » et,  je vous le dis tout de suite, la «  foule  » n’a pas réussi malgré ses efforts à trouver ce business model idéal. L’équation est un peu compliquée, mais tous s’accordent à dire que l’on est encore loin d’avoir tout inventé. Une personne de chez Harlequin indique que des modèles basés sur l’accès, qui permettent aux lecteurs de charger 6 livres de leur choix chaque mois choisis parmi un catalogue thématique, commencent à sérieusement concurrencer les modèles de vente à l’unité. La conversation tourbillonne, il est question du nombre de titres produits par les éditeurs, quelqu’un évoque le problème des retours, certains disent qu’il ne faut pas produire plus de livres qu’on ne peut en soutenir activement d’un point de vue marketing.

Après les ateliers, ce qui va se passer ressemble énormément à ce qui clôt habituellement nos Bookcamps parisiens : on entend le bruit des bouchons qui sautent, le pas des bookcampeurs qui se rapprochent des bouteilles et des verres. Un petit détail aussi, pratique et simple à mettre en œuvre : sur la table, à l’entrée, un tas de feutres de toutes les couleurs et des paquets d’étiquettes auto-collantes. La plupart des gens y ont inscrit en arrivant leur  leur nom et leur pseudo twitter, certains ajoutent le nom de leur société. C’est pratique, plus simple que les trucs en plastiques avec épingles à nourrice qui piquent, et ça simplifie bien les échanges. Cela me permet de mettre des visages sur de très nombreux habitants de ma timeline : les participants sont nombreux, et bon nombre d’entre eux viennent de grands groupes d’édition (Random House, Macmillan, Penguin…). Je n’ai pas besoin de regarder son étiquette pour reconnaitre Cristina Mussinelli, une consultante qui travaille pour  l’AIE (l’équivalent du SNE en Italie), et qui siège aussi à l’IDPF. Elle et moi sommes ici les deux seules européennes. Mais, dans mon souvenir, il n’y avait, me semble-t-il,  pas un seul Américain cet automne au Bookcamp Paris…   (Bon, il n’y avait pas non plus de TOC juste après, c’est vrai.)

Ceci n’est pas un iPad

Greg Knieriemen a adressé  une lettre ouverte à Jeff Bezos, le patron d’Amazon avant de rapporter en magasin  la tablette Kindle Fire qu’il venait d’acquérir. Pourtant Greg Knieriemen adore Amazon. Ce n’est pas lui qui aurait écrit, comme l’auteur du blog le journal d’une lectrice : Le Kindle ne passera pas par moi.

Non, Greg Knieriemen n’a rien contre Amazon. D’ailleurs, il travaille pour une société qui vend aux entreprises des services d’hébergement informatique qui s’appuient sur la solution AWS (Amazon Web Services), dite aussi Amazon S3. Acheter tous ses livres et sa musique sur Amazon ne le dérange pas, et il ne se sent pas le moins du monde concerné par la possible fin des librairies.

Alors, qu’est-ce qui a conduit Greg à renvoyer sa tablette Fire à Amazon ? Il l’explique à Jeff Bezos :

«  Comme tu le sais certainement, il est impossible de charger et d’utiliser une appli Google nécessitant un login sur une Kindle Fire. Cela signifie : pas de Gmail, pas de Google+, pas de Google Voice ni de Google Docs. J’aurais dû parcourir plus soigneusement l’app store d’Amazon avant d’acheter le Kindle Fire. J’assumais à tort que puisque vous aviez construit le Kindle Fire sur le système d’exploitation de Google, il n’y aurait aucun problème pour utiliser les applis Google avec. (…)

Malheureusement, je dois rapporter ma Kindle Fire chez Best Buy, et récupérer quelques cartes cadeau. J’espère sincèrement que tu vas reconsidérer ce fait de bloquer les applis Google sur le Kindle Fire.  »

Knieriemen n’est pas le seul à avoir noté l’absence des applis Google sur la tablette Fire. Walt Mossberg, dans le Wall Street Journal, écrit :

«  Finalement, alors que la Fire, comme beaucoup d’autres tablettes, est basée sur le système d’exploitation Androïd, Amazon a pris le parti de cacher Androïd. Il évite son interface utilisateur et presque toutes les applis et tous les services de Google, y compris l’app store Google.  »

Mais, pour Mossberg, la raison en est simple :

«  Le logiciel de la Fire est entièrement tourné vers le contenu, vers les applis qu’Amazon vous a déjà vendus et l’achat facile de nouveaux contenus.  »

En cela se confirme ce que j’écrivais il y a quelques semaines : la tablette Fire n’est pas exactement un concurrent de l’iPad, qui est utilisé par certains comme un substitut à l’ordinateur portable. Et ce doit être le cas de Greg Knieriemen, qui, alors, a toutes les raisons de rapporter sa tablette. Pour quelqu’un qui utilise quotidiennement un grand nombre des services de Google, en être privé sur un terminal qui doit rendre des services proches de ceux d’un laptop est insupportable.

Alors que le «  moment ebook  » est tout juste en train d’advenir en France, avec la mise en circulation probable d’un grand nombre de liseuses en cette fin d’année, celles d’Amazon, de Kobo, de Bookeen et d’autres, on voit que l’arrivée aux Etats-Unis des tablettes (Amazon, Kobo, Nook)  n’est pas seulement l’opportunité d’ouvrir la lecture numérique aux livres de jeunesse, aux livres pratiques, aux beaux livres et aux livres enrichis. La Kindle Fire propose non seulement le téléchargement de livres, mais également l’accès à de la musique, des jeux, des films.

La tablette Fire serait-elle simplement une «  machine à acheter  » ? Ce fut l’une des principales critiques adressées à l’iPad au moment de son lancement. Et tout comme l’iPad, elle en est une, bien entendu. Mais pourquoi la société Amazon aurait-elle investi, pour un tel objet, dans la création d’un navigateur web spécifique, Silk, s’il s’agissait  pour elle de proposer une simple  machine à acheter, branchée de manière privilégiée sur sa boutique en ligne ? La tablette d’Amazon est aussi indissociable de son cloud que le sont du sien les terminaux d’Apple. On s’aperçoit que les lignes bougent, encore une fois, et qu’il devient impossible de tracer clairement et surtout définitivement les contours des activités de ces acteurs globaux. Apple, fabricant d’ordinateurs et de logiciels, s’est intéressé à la musique, aux livres, à la presse, au téléphone, à la télévision. Amazon a commencé avec les livres, puis agrandi son magasin en ligne à quantité de produits, ouvert son service AWS, développé des terminaux mobiles, offert des services aux auteurs, embauché des éditeurs. L’opposition tuyaux / contenus perd de plus en plus de sa pertinence, et tout se restructure aujourd’hui d’une manière nouvelle, autour d’acteurs qui investissent toujours plus dans des infrastructures lourdes, d’immenses fermes de serveurs, qui permettent de stocker et  de faire circuler tout ce qui peut se transformer en bits toujours plus vite, toujours plus loin.

La tablette Fire est dotée d’un navigateur web développé par Amazon, Silk, qui inaugure  une nouvelle génération de navigateurs.

Comme l’explique Louis Nauguès :

«  Silk est le premier navigateur qui a été conçu dès le départ dans une logique Cloud Computing, par une entreprise, Amazon, qui est devenue en moins de 5 années le leader mondial des IaaS, Infrastructures as a Service, avec AWS, Amazon Web Services.

L’idée toute simple, mais révolutionnaire est de faire de Silk un « split browser », qui répartit l’ensemble des traitements liés à la navigation entre le poste de travail, Kindle fire, et le Cloud, AWS.

Ce qu’annonce Amazon, et qu’il faudra vérifier, est que cette répartition des traitements est totalement transparente pour les utilisateurs et s’adapte en permanence aux circonstances.

Il n’est pas très difficile de comprendre que les améliorations de performances, en particulier sur des objets mobiles tels que Kindle Fire, peuvent être spectaculaires. (…) le Cloud AWS d’Amazon dispose de connections fibres optiques très rapides permanentes et peut agréger des contenus venant des principaux sites Web en quelques millisecondes.

Si l’on y rajoute la possibilité pour AWS d’adapter le poids des pages et des images aux capacités d’affichage des objets d’accès, les transferts entre AWS et Kindle Fire seront beaucoup plus performants et rapides.

Plus l’utilisateur sera sur un réseau mobile lent, plus la perception d’amélioration de vitesse devrait être spectaculaire.

Le Web est le territoire parfait de la « coopétition », la collaboration entre compétiteurs et Silk le démontre une fois de plus. Amazon utilise pour Silk le protocole expérimental SPDY, substitut de HTTP, proposé par … Google !  »

Jusqu’à Silk, Amazon ne connaissait de vous que votre activité sur son site. Mais à partir du moment où vous laisserez le mode «  split  » du browser de votre tablette Fire activé, nombre d’informations concernant votre surf avec votre tablette transiteront par le cloud d’Amazon.  Jon Jenkins, directeur des développements de Silk, a répondu sur ce sujet  aux questions de l’Electronic Frontier Fondation

«  Amazon nous assure que les seuls éléments d’information concernant le terminal qui seront régulièrement enregistrés sont :

1. L’URL de la ressource demandée
2. La date et l’heure de la requête
2. Un jeton identifiant une session

Ces informations sont stockées 30 jours.  [le site d'Amazon ajoute "généralement"...] Le jeton ne contient aucune information permettant d’identifier un terminal ou un utilisateur, et est utilisé uniquement pour identifier une session. En effet, Jenkins déclare, «  les identifiants individuels tels que les adresses IP et MAC ne sont pas associés avec l’historique de navigation, et sont uniquement collectés pour le cas de problèmes de fonctionnement  ». Nous avons demandé à plusieurs reprises s’il y avait un moyen pour Amazon d’associer les logs avec un utilisateur particulier ou un compte Amazon, et il nous a été répondu que non, il n’en existait pas, et qu’Amazon n’était pas en position de pister les utilisateurs.  »

Selon le blog naked security, la déclaration suivante de Jenkins

«  Les requêtes sécurisées (SSL) sont routées directement depuis la Kindle Fire vers le serveur d’origine et ne passent pas par les serveurs EC2 d’Amazon  »

est  en contradiction avec la FAQ d’Amazon sur son site.

«  Nous établirons une connexion sécurisé depuis le cloud vers le site propriétaire en votre nom pour les requêtes de sites utilisant (SSL).  »

Voilà qui mériterait d’être éclairci. L’amélioration de l’expérience utilisateur est certainement un objectif important, et on sait que chaque milliseconde compte lorsqu’il s’agit d’afficher un site web. Et pour ceux qui n’ont pas confiance dans les déclarations d’Amazon, il est toujours possible de désactiver le mode «  split browser  ». On surfera moins vite alors…  Encore une fois, l’utilisateur se retrouvera devant ce dilemme auquel on a fini par s’habituer : ou bien je renonce à un service pratique, rapide, agréable et tentant, ou bien je laisse un tiers accéder potentiellement à mes données personnelles, un tiers qui me jure, la main sur le cœur, qu’il ne s’en servira pas.

Une bonne nouvelle pour la blogueuse du journal d’une lectrice, et pour tous ceux qui n’ont pas envie de devenir clients à vie d’un seul libraire : sur la tablette Fire, dixit Teleread,  il est possible de télécharger les applications Kobo, Aldiko et BlueFire, qui permettent de lire des epubs. La société Amazon permettra-t-elle à leurs utilisateurs l’achat in-app ? Sera-t-elle tentée de faire comme Apple et de l’empêcher en exigeant de prélever sur ces achats un pourcentage prohibitif ?

Greg Knieriemen

Books in Browsers : next gen publishing

Slide Brian 0'Leary - Books In Browsers 2011

Pas question, à peine revenue de mon intermède Polynésien et de trois jours à Francfort, de repartir presque aussitôt à San Francisco pour assister à la conférence Books In Browsers, qui se tenait les 27 et 28 octobre au siège d’Internet Archive, sous la houlette de Peter Brantley, avec la complicité de Kat Meyer, de chez O’Reilly. Mais, grâce à une diffusion vidéo de très bonne qualité, j’ai pu assister à la plupart des interventions, confortablement installée dans mon canapé.

L’écran de mon ordinateur était divisé en trois zones, l’une affichait la retransmission vidéo, une autre le fil Twitter avec le tag #bib11  – aujourd’hui, quelqu’un a posté l’ensemble des tweets sur Scribe – , et une troisième un traitement de texte, pour la prise de notes.

Le nom de cette conférence, «  Books In Browsers  » est un avertissement : ici, on aime les livres et on aime le web, et nul ne se sent obligé d’enterrer les uns pour célébrer l’autre, ou de sacraliser les premiers en méprisant le second. L’assistance (pas de Français, hélas, à part Hadrien Gardeur venu présenter la nouvelle version d’OPDS, mais des Espagnols, des Anglais, des Italiens, des Japonais, des Finlandais…) est composée d’éditeurs, de développeurs, de designers, de bibliothécaires, d’agents, d’auteurs, d’universitaires. L’ensemble est plutôt plus techno que dans les autres conférences, ainsi, lorsque Blaine Cook, un développeur venu présenter Newspaper Club demande à son auditoire combien d’entre ses membres savent ce qu’est Git, une forêt de mains se lèvent.

Je vous invite à consulter les présentations des différents intervenants, qui vont s’ajouter progressivement  ici, et à regarder de temps en temps l’une des vidéos : elles s’ajoutent actuellement sur la chaîne YouTube d’O-Reilly. Et je ne vais pas me lancer dans une recension de l’ensemble des interventions, il y a là un matériau pour une bonne cinquantaine de billets… Quelques impressions, comme souvent sur ce blog impressionniste…

Richard Nash a proposé un bilan de son projet Cursor, et du site pilote Red Lemonade. Avec une transparence impressionnante, il a analysé publiquement l’échec de Cursor. Je n’ai pas su, a-t-il expliqué, trouver la «  bonne histoire  » à raconter aux investisseurs (Venture Capitalists). Les VCs veulent une bonne histoire, ils veulent aussi une histoire qu’ils reconnaissent, qui les rassure. Autant un projet bien peu pertinent comme celui de BookTracks, qui consiste à ajouter des bandes son sur des livres, a pu les convaincre, sur la base du «  cela n’a jamais été fait  » (comme si tout ce qui n’avait jamais été fait, il fallait absolument le faire…), autant le fantasme si répandu de la désintermédiation rendait le projet Cursor incompréhensible pour les investisseurs. Belle démonstration, ce témoignage de Richard, d’une qualité qui nous manque cruellement en France : celle qui permet de ne pas considérer un échec comme un désastre honteux, mais comme la preuve  d’une capacité à innover, à sortir des sentiers battus et à prendre des risques.

Richard a décidé de continuer Red Lemonade sur une base bénévole, et, après avoir rencontré Valla Vakili, le fondateur de Small Demons, a été séduit par ce projet qui veut «  rapprocher les livres, sources les plus riches et les plus denses de la culture, des autres objets culturels  ». Le voici donc «  VP of Content and Community  » chez Small Demons, comme il l’explique ici.

La présentation de Small Demons par Valla Vakili m’a plutôt impressionnée. À première vue on se dit : «  encore un Libraryting like, un site communautaire de partage de bibliothèques  ». Il s’agit en réalité de tout autre chose, d’une plateforme qui extrait du web, se basant sur l’indexation du contenu des livres, des objets culturels en relation avec ces contenus. Ce n’est plus simplement l’algorithme d’Amazon qui dit : «  vous avez aimé tel livre, ceux qui l’ont acheté ont aussi acheté celui-là, pourquoi pas vous ?  ». C’est l’idée qu’un livre, y compris un roman,  est bourré de références à d’autres objets culturels, qu’il s’agisse de morceaux de musique, de films ou de séries, de plats, d’objets, de lieux, et de proposer des liens, pour chaque livre, vers tous ces objets, et de se servir de ces liens pour proposer des découvertes. Il semble que l’ajout de liens entre livres et objets soit à la fois algorithmique et le fait des internautes.  La démonstration donne réellement envie d’aller se perdre dans ce petit paradis de sérendipité que semble être Small Demons, pour l’instant en beta sur invitation. La vidéo de présentation est à voir.

photographie de Brian O'LearyJ’avais un peu de mal à garder les yeux ouverts au moment où Brian O’Leary, (Magellan Media) a pris la parole car, avec le décalage horaire, il était plus de deux heures du matin samedi. Mais l’adresse de Brian était si ambitieuse, et entre si fortement en résonance avec ce que nous pouvons observer ici en ce moment, que je me suis vite réveillée. Eric Hellman, le fondateur de Gluejar, qui a lui aussi présenté son activité lors de la conférence, résume le propos dans son blog ce matin.

Eric cite Brian O’Leary : «  Bien que les modèles économiques aient changé, les éditeurs et leurs intermédiaires continuent d’essayer de faire évoluer leur rôle sur le marché d’une manière qui suit typiquement la règle des négociations «  deux parties – un résultat  ».   » Il dit ensuite :

O’Leary a évoqué les changements qui sont en train d’intervenir dans l’écosystème de ce que l’on a appelé «  le monde du livre   » : auteurs, agents, éditeurs, distributeurs, libraires, bibliothèques, et bien sûr lecteurs. Il a fait remarquer que les relations à l’intérieur de cet écosystème étaient aujourd’hui renégociées entre les acteurs sans prise en compte des changements à l’œuvre dans le reste de l’écoystème.

«  En conséquence, les structures, les dispositions, les processus qui pourraient être bénéfiques pour l’ensemble de l’écosystème n’obtiennent pas toute la considération qu’ils méritent.

O’Leary a cité l’exemple de la Convention des Nations Unies sur le droit de la mer comme un modèle possible d’inspiration pour la redéfinition d’un écosystème de la lecture. La percée dans ces discussions a été permise par l’introduction de modèles tirés de la théorie des jeux qui ont aidé les parties à apercevoir  les effets des accords et des dispositions relatives à tous les intervenants dans le droit de la mer.  »

En effet, on trouve une note concernant la théorie des jeux dans ce rapport de la FAO, se rapportant à un chapitre où est évoquée cette Convention :

«  Si le même genre de modèle pouvait être développé pour les activités entourant l’édition, il pourrait être possible de faire beaucoup plus que «  sauver l’édition  ». Une application intelligente et  collaborative des technologies numériques devraient être en mesure d’accroître l’efficacité d’une industrie dont le but est de promouvoir la lecture, l’éducation, la culture et la connaissance.

Selon O’Leary, nous devons trouver des façons de financer le genre de recherche qui pourraient être la base de la modélisation de l’écosystème de lecture. Une possibilité serait de créer une organisation interprofessionnelle pour ce faire.  »

Et Richard Nash de twitter aussitôt malicieusement :

Il y a encore beaucoup à dire à propos de Books In Browsers 2011, et j’aurais aimé notamment revenir sur les interventions de Bill McCoy concernant EPUB3, d’Hadrien sur OPDS, de Mary Lou Jepsen (Pixel Qi) sur les écrans et l’accessibilité, de Bob Stein sur les lectures connectées, de Craig Mod, James Bridle, Joseph Pearson, Javier Celaya et quelques autres.

Les livres sont aujourd’hui, de plus en plus, traversés par le web, percutés par le web, générés par le web, diffusés sur et par le web, réinventés sur le web. Les projets présentés à Books In Browsers par plusieurs start-ups (liste ici ) explorent différentes dimension de cette réinvention, start-ups qui ont aussi profité de cette conférence pour tisser des liens les unes avec les autres, construisant, notait Peter Brantley sur Twitter ce matin, l’écosystème d’une édition nouvelle génération (next gen publishing).

sur  sur les écrans et l’accessibilitésur  sur les écrans et l’accessibilité

« We have removed the kobo store from the within application »

Apple l’avait annoncé, un changement devait se produire après le 30 juin, pour les applications de ses concurrents permettant l’achat et la lecture de livres numériques sur iPAd – iPhone – iPod Touch. Ces applications, qui permettent à des clients d’Amazon, de Kobo, de la Fnac, d’acheter, de télécharger et de lire leurs livres numériques directement depuis leur mobile, ne pourront plus conserver de fonction «  acheter  », sauf si elles proposent l’inApp Purchase, soit la solution de vente d’Apple, qui permet le paiement via le compte iTunes du client. Et Apple demande 30% du montant de la transaction à ceux qui utlisent l’inApp Purchase.  Jusqu’à présent, rien de concret ne s’était produit, mais voici qu’arrive la nouvelle version de l’application Kobo,  et, de fait, elle ne permet plus l’achat de livres numériques . Accepter de reverser à Apple 30% du montant des transactions effectuées via leur application iPad est hors de question : cela signifierait pour Kobo reverser à Apple la totalité ou plus du montant perçu pour chaque vente.

Coup dur pour Kobo, et les autres plateformes qui seront probablement contraintes de se soumettre à la même règle au fur et à mesure de leurs mises à jour. (mise à jour 25 juillet : c’est fait pour l’appli Kindle, et aussi pour Bluefire…)

On sait que la simplicité d’achat est un élément clef dans la fidélisation des clients, et pour tous ceux qui lisent en numérique exclusivement sur leur terminal Apple, l’obligation de quitter l’application de lecture, d’ouvrir le navigateur, d’acheter le livre numérique sur le site web, pour ensuite ouvrir ce fichier via l’application est un vrai handicap. Miser sur les tablettes non iOS ? Il semble qu’aucune d’elle ne décolle réellement pour le moment, et qu’Apple risque de continuer à dominer le marché pendant une longue période, réitérant la performance réalisée avec le couple iPod /iTunes.

La solution : à terme, probablement des applications web, écrites en HTML5, et sur lesquelles Apple ne pourra imposer cette règle, qui ne s’applique qu’aux applications soumises à son approbation, celles qui sont téléchargeables sur l’Appstore. Plus ça va, plus il semble qu’HTML5 va introduire de profonds changements sur le web, même si aujourd’hui le fait qu’il ne soit pas ou mal supporté par les versions encore largement utilisées d’Internet Explorer (IE8) constitue un problème. Il existe cependant déjà des applications de lecture, comme Ibis Reader, qui utilisent cette technologie.

La société Apple a fait beaucoup parler d’elle cette semaine, avec la publication de résultats records, et  le lancement de son nouvel OS,  Lion, que je n’ai pas encore trouvé le temps d’installer. Un petit fait intéressant qui indique peut-être une tendance qui pourrait bien se développer dans l’édition numérique : le long article de John Siracusa passant en revue l’ensemble des fonctionnalités de Lion, publié dans la revue en ligne Ars Technica, a  fait l’objet d’une «  Kindle Single édition  » : L’article est devenu un livre numérique en format court, vendu 5 $, alors qu’il est par ailleurs disponible gratuitement sur le web. Il semble que certains soient prêts à payer pour disposer de cet article en version Kindle, (le livre numérique a été téléchargé 3000 fois en 24h, comme l’indique cet article du Nieman Journalism Lab …)

Mais cet article/ebook, décrivant par le menu le dernier iOS d’Apple sera-t-il achetable directement via la prochaine version de l’application Kindle sur iPad ?

La puissance d’Apple lui permet de changer les règles en cours de route, d’imposer ses règles à d’autres acteurs (les premiers concernés par cette règle de l’inApp puchase ont été les acteurs de la presse, dont certains s’y sont pliés, d’autres ont cherché des échappatoires). Cette puissance, conquise par une firme qui a su créer des produits incroyablement attractifs, génère aussi des résistances : certains refusent de se laisser enfermer dans le confort des solutions Apple, les mêmes souvent qui résistent aux sirènes de Facebook et de Google, bien décidés à ne pas s’offrir en pâture publicitaire, bien décidés à conserver le contrôle de leurs données, de leur identité numérique. Karl Dubost fait partie de ceux qui résistent, et il s’en explique dans un billet joliment titré : «  pour une communication ouverte sublime«  .  François Bon, qui utilise machines et logiciels Apple, s’est emparé tôt de Facebook,  a ouvert sans tarder un compte Google+, François, qui aime aussi à penser tout haut sur Twitter dès les premières heures du matin, se défend de faire exactement une réponse à Karl, mais entre en résonance avec lui, dans un long billet intitulé, avec un clin d’œil à La Boétie, «  de la servitude réseaux«  . Par mes usages des réseaux sociaux  je crois bien que je suis moi aussi plutôt du côté de la «  servitude volontaire  », même si teXtes, auquel j’essaie vaillamment de redonner un peu vie ces jours-ci, est installé sur un serveur auquel j’ai accès chez mon hébergeur, et si je suis bien propriétaire de l’improbable nom de domaine archicampus.net.

Qu’avez-vous laissé faire ?

Ce qu’annonçait Jeremy Rifkin dans son livre «  l’âge de l’accès  » est en train de se réaliser, bien plus vite que je ne l’imaginais lorsque je l’ai lu il y a cinq ans. De plus en plus, le souhait d’être en mesure d’accéder à l’usage des biens culturels est en train de se substituer à celui de posséder les supports et même les fichiers qui les contiennent. Un responsable d’EMI France me le confirmait récemment en ce qui concerne la musique : l’accès est ce qui compte désormais, et la tendance à entreposer sur son disque dur des milliers de titres fait place à la volonté d’être en mesure d’accéder immédiatement, en tout lieu, à une offre illimitée, sans nécessité de stocker, de posséder des albums ou des morceaux. Des services comme Spotify (qui vient de modifier ses règles de fonctionnement)  ou Deezer ( qui a signé l’été dernier un accord avec Orange)  rencontrent un succès très important. L’annonce par Amazon d’un service d’écoute de musique en ligne, Amazon Cloud Drive,  confirme la tendance, et fâche les maisons de disques , qui considèrent que les accords conclus avec Amazon pour la vente en ligne de titres et d’albums en téléchargement n’autorisent pas la firme à offir l’accès en streaming à ces titres.

Le livre n’échappe pas à cette tendance : à partir du moment où il est numérique, que nous importe qu’il réside sur notre disque dur, ou bien sur un serveur distant, du moment que nous  sommes en mesure d’y accéder à chaque fois que nous le souhaitons ? Mieux, s’il est stocké en ligne, il peut nous suivre dans nos usages, nous le retrouvons à la page où nous l’avions abandonné, pour en lire quelques pages sur téléphone portable, et nous en reprendrons plus tard la lecture, sur tablette ou sur liseuse.

Des offres en accès existent déjà pour le livre, mais aucune offre de ce type n’agrège aujourd’hui la totalité des catalogues numériques français. Utilisé depuis des années par les éditeurs scientifiques en direction des bibliothèques universitaires, ce modèle n’est pas encore très développé en direction du public, à l’exception des tentatives de Cyberlibris, de l’offre de publie.net, ou de  celle d‘Izneo pour la bande dessinée. C’est le principe adopté et défendu par Google pour son offre Google Ebooks qui a ouvert aux USA début décembre 2010, mais pas encore en France. Une société espagnole annonce pour juin prochain l’ouverture du site 24symbols.com, qui se présente comme le «  Spotify du livre  » et propose un modèle freemium similaire, mais nul ne sait quel succès ce projet va rencontrer auprès des éditeurs. Les modèles économiques pour ces offres varient : paiement à l’acte pour Izneo et pour Google Ebooks, paiement d’un abonnement annuel chez publie.net permettant un accès illimité au catalogue, accès gratuit accueillant de la publicité ou payant sur abonnement pour le projet 24symbols. Certains libraires espèrent que  la mise en place de la vente de livres numériques en téléchargement se double bientôt d’un accès en streaming aux ouvrages achetés, sachant que cette offre ne peut être organisée par les libraires eux-mêmes, car ils ne disposent pas des fichiers.

La lecture en accès sera considérée par certains comme une insupportable dépossession, mais d’autres la vivront comme un allègement, et comme l’occasion d’accéder à de nouvelles fonctionnalités,  avec des possibilités d’échange et de partage, qu’il s’agisse de commentaires ou de citations.  Téléchargement et streaming coexisteront un long moment.

On peut imaginer que le pendant de cet accès global rendu possible aux livres, aux films, aux morceaux de musique, n’ira pas sans un développement parallèle de pratiques locales ; que cet accès formera probablement d’ici quelques années un substrat considéré comme minimum – accès facilité à l’ensemble des biens culturels sous forme numérisée -  mais qu’il conduira au développement complémentaire et indispensable de pratiques locales, impliquant de «  réelles présences  »,  dans les salles de concert et de cinéma, les librairies et les bibliothèques ; que le livre imprimé ne disparaîtra pas plus que les lieux où on peut l’acheter, l’emprunter ou le consulter, mais qu’il aura acquis une valeur nouvelle,  qu’il s’agira d’un objet plus précieux et plus durable. Il est probable aussi que se multiplieront les échanges entre global et local, l’accès au réseau se banalisant dans des objets toujours plus intégrés dans la vie quotidienne, et les possibilités de re-matérialisation comme l’impression à la demande reliant les lieux réels et les entrepôts virtuels.

L’infrastructure nécessitée par le développement de notre vie en ligne, qu’il s’agisse de nos échanges privés ou semi-privés, de nos partages de textes et d’images fixes et animées, de notre désir d’accéder à l’information, aux savoirs, au cinéma, à la musique, à la littérature depuis n’importe quel terminal relié au web est gigantesque. Le Cloud, malgré son nom qui évoque le lointain, l’impalpable, le vaporeux, n’a rien d’immatériel. Pour s’en convaincre, il suffit de regarder ces photos, prises la semaine dernière lors d’une visite organisée par Facebook dans son tout nouveau  datacenter à Prineville dans l’Oregon. Les datacenters sont d’énormes consommateurs d’électricité. Un rapport de Greenpeace fait le point sur cette question, Greenpeace qui a vivement dénoncé le choix par Facebook comme fournisseur d’une compagnie qui produit l’électricité via des centrales à charbon, notamment en publiant cette vidéo trouvée sur le blog Presse-Citron :

Facebook : Greenpeace vous invite à abandonner… par gpfrance

Le mouvement de numérisation nous fascine aujourd’hui par sa nouveauté et les possibilités qu’il offre. Mais  lorsque tout ce qui est possible de l’être aura été numérisé et que la plupart des biens culturels susceptibles de l’être seront produits directement en numérique et accessibles sur le web, ce même mouvement tendra probablement à rendre plus précieux tout ce qui lui résiste, tout ce qui ne peut en aucun cas se numériser, tout ce qui s’acharne à demeurer analogique, se refuse à la duplication, à la reproduction parfaite. Les mêmes qui exigent l’accès illimité à toute la musique demandent déjà à leurs parents de rebrancher leurs vieilles platines pour écouter les disques qu’ils achètent en vinyle. Peut-être que nos petits-enfants  supplieront les leurs d’installer dans leur chambre les vieilles étagères Billy entreposées dans la cave, pour épater leurs copains avec des livres imprimés… qui sait ?

Qu’avez-vous gardé ? Qu’avez-vous perdu ? A quoi avez-vous été vigilant ? Qu’avez-vous laissé faire ? Ce sont quelques unes des questions que chaque génération pose à la précédente. Il est à craindre que la question de notre  vigilance concernant les dépenses énergétiques, évoquées plus haut, sera de très loin la plus dérangeante.

Du spam sur les étagères d’Amazon

Vous détestez le spam. Vous avez appris, lorsque vous cherchez une information sur Google à détecter d’un coup d’œil dans la liste de résultats les «  faux sites  » des vrais. Vous vous êtes fait prendre une fois ou deux, puis vous avez mémorisé les URL à bannir, et les signes qui annoncent un site sans véritable contenu. Vous avez compris depuis longtemps qu’il existe quantité de sites sans auteurs, qui se contentent d’agréger sans objectif de service du texte aspiré ici et là, uniquement en fonction des requêtes les plus fréquentes, afin d’attirer l’internaute, peu importe s’il ne trouve pas de réponse sur le faux site, il a cliqué, il est venu, le compteur tourne, le nombre de visiteurs uniques augmente, le page rank grimpe, et voilà, le tour est joué.

Google vous donne un coup de main, modifiant son algorithme deux fois coup sur coup, une fois pour pénaliser dans ses résultats les sites produits par des fermes de contenu, réalisés par des volontaires sous-payés recrutés pour écrire le plus vite possible sur n’importe quel sujet, une autre pour pénaliser les «  scraper websites », qui ne contiennent aucun contenu original.

Vous avez en tête les déclarations maintes fois entendues, qui diabolisent le web et ce qui s’y écrit, les dangers d’un lieu non régulé, où tout un chacun peut publier.  Alors que les livres, disent souvent les mêmes personnes, sont infiniment plus dignes de confiance  : les auteurs sont sélectionnés, leurs textes sont relus, l’éditeur veille sur la qualité du fond et de la forme.

Mais, alors que vous avez appris à trier vous même les résultats de votre moteur de recherche, et à trouver les pépites parmi les cailloux sans intérêt, alors que Google vous aide désormais en veillant à reléguer loin dans son classement les sites sans intérêt, voici que les spammeurs ont trouvé une autre cible  : les ebooks.


Vous vous souvenez de Jack Nicholson dans Shining, tapant sans fin sur sa machine à écrire la phrase «  All work and no play makes Jack a dull boy  »  ?  Le personnage du film pourrait aujourd’hui sans problème (pour peu qu’il y ait du réseau dans son hôtel perdu dans la montagne) publier un livre composé uniquement de cette phrase répétée sur 500 pages. Il aurait facilement transformé le fichier en EPUB, puis mis en vente ce fichier dans la section ebooks d’Amazon. Je ne dis pas qu’il aurait pu l’y laisser très longtemps, ni qu’il en aurait vendu des quantités, mais l’essai a été tenté par Mike Essex, un spécialiste de la recherche en ligne de l’agence britannique de marketing numérique Impact Media. Il a copié puis collé des centaines de fois les paroles d’une chanson, en a fait un fichier numérique qu’il a publié sur Amazon, et a attendu. Rien. Rien n’est mis en place pour détecter un faux livre de ce type. Bien sûr, personne d’autre ne s’amuse à publier exactement ce type de faux livres, mais il en existe bien d’autres, fabriqués à partir de texte aspiré sur le web, ou bien reprenant sans aucun effort éditorial particulier des ouvrages du domaine public. Faites l’expérience  : tapez   »Manuel Ortiz Braschi  » dans le moteur de recherche d’Amazon US. Cet «  auteur  » a 3090 ebooks à son actif  à l’heure où j’écris , vendus le plus souvent 3,44 $…

Les quelques commentaires montrent le désarroi des acheteurs qui se font piéger, mais hésitent à se mobiliser pour une dépense de 3,44 $, et il est probable que la personne qui se cache derrière ce nom et perçoit 70% du prix de vente doit tirer un revenu régulier de ces centaines de titres.

Essex plaide pour la mise en place d’un minimum de contrôle de la part des plateformes de livres numériques, afin de détecter les «  faux livres  ». Amazon, très attaché à l’expérience utilisateur, devra apporter une réponse, avant que les spammeurs du livre numérique ne se multiplient, et encombrent les étagères virtuelles, noyant des livres de valeur parmi une masse de pseudo livres.

Futur du livre, et passé du web

Blogueurs, n’arrêtez jamais ! Moins vous publiez, plus il est difficile de le faire. Après plusieurs semaines d’interruption, me voici bêtement intimidée devant mon interface WordPress, comme quelqu’un qui, dans un dîner, aimerait prendre part à la conversation sans y parvenir : plus il tarde à s’y lancer, plus cette participation acquiert de l’importance à ses yeux, et tandis que les autres convives bavardent joyeusement sans arrières-pensées, il paufine mentalement son propos à l’infini, cherche désespérément le meilleur moment pour se lancer, et plus le temps passe, plus son inhibition augmente. Il est donc temps de se tourner vers ce malheureux, de remplir son verre, et de lui poser la question : alors, et toi, quoi de neuf ?

Quoi de neuf ?

Retour à New York, malheureusement sans la Dream Team, la valeureuse équipe avec laquelle j’avais participé l’an dernier à un voyage d’études du programme Courants, voyage blogué pratiquement au jour le jour (comme j’aimerais retrouver ce rythme !).

Séjour plus court cette fois-ci, à l’occasion de la conférence Digital Book World, qui commence demain soir. Pourquoi cette conférence et pas le TOC d’O'Reilly en février ? Mike Shatzkin, l’un des co-organisateurs de la conférence DBW explique comment il voit la différence entre les deux événements :

«  Tools of Change explore les développements technologiques qui ont un impact ou pourront en avoir un sur l’édition (en général) et aide les éditeurs (de toutes sortes) à les comprendre et à les appliquer. Digital Book World explore les défis économiques que le numérique adresse aux éditeurs «  trade  » (les éditeurs qui travaillent en priorité avec le réseau des revendeurs ) et les aide à les relever. Si j’organisais Tools of Change je scruterais l’horizon pour détecter les technologies susceptibles d’avoir un impact sur l’édition et poserais la question «  comment ?  ». Mais comme j’organise Digital Book World j’observe l’impact de la technologie sur l’environnement et les opérations commerciales de l’édition , et je me demande «  que devrions-nous faire  » ?  »

Bien sûr, j’aimerais bien assister aux deux conférences, mais il a fallu choisir, et cette année c’est DBW qui l’a emporté.

Je n’ai aucune chance de croiser là ni Evan Schnittman, ni Bob Stein rencontrés l’an dernier : ils participent  à l’édition 2011 de l’échange Franco-Américain qui nous avait permis de les rencontrer l’an dernier, et seront à Paris cette semaine.

Quoi de neuf par ailleurs ?

Une nouvelle version de l’Internet Wayback Machine, ce formidable service proposé par l’Internet Archive, qui permet de remonter dans le temps du web. Tapez l’adresse d’un site, et vous pourrez accéder à l’ensemble des versions qui en ont été archivées au fil des années. C’est intéressant pour observer l’évolution des sites en matière de design, mais c’est aussi un moyen, en recherchant des URL de titres de presse par exemple, de remonter le temps de l’actualité… mais pas beaucoup plus loin que 1995 ou 96 pour la plupart des titres… Un axe supplémentaire ajoutée à la sérendipité, et aussi un travail de préservation indispensable. La nouvelle version est très ergonomique ? J’ai toujours été fascinée par les trouvailles de design fonctionnel en matière d’exposition de données chronologiques, les «  time line  »..

Conférence autour du futur du livre, et voyage dans le passé du web, voilà qui va bien accompagner la lecture que je viens de commencer du dernier livre de Robert Darnton ; «  Apologie du livre, demain, aujourd’hui, hier  ». Je lui laisse la parole pour terminer, avec cet extrait d’une intervention sur France Culture au début du mois.


Les Matins – Robert Darnton

Changer nos manières de travailler – TOC – Francfort 2010 1/2

Intervention présentée à l’occasion de la conférence Tools of Change for Publishing à Francfort le 5 octobre 2010. J’ai parlé sur les images que je replace ci-dessous. Les parties indiquées en gras étaient également insérées dans des slides qui venaient s’intercaler entre les images. (Version française) -  Partie 1.

Je déteste le changement. Comme vous. Secrètement, profondément, je déteste devoir changer d’habitude. Je bénis secrètement l’ensemble des routines qui me permettent de ne pas réfléchir à chaque fois que je désire agir.  Et surtout, je  déteste le changement lorsqu’il m’est imposé, lorsque il vient de l’ extérieur.

Aujourd’hui, l’ensemble du secteur de l’édition est confronté à la nécessité de changer. Et c’est d’autant plus difficile, que ces changements viennent de l’extérieur.

Jusqu’à une date récente, le numérique, c’était pour les autres. Les autres industries culturelles, comme la musique ou le cinéma. Les autres secteurs de l’édition, comme le secteur STM.

Le changement, ce n’était pas pour nous. Nos lecteurs, de fiction et de non fiction, jamais ne souhaiteraient lire sur autre chose qu’un livre imprimé, cet objet parfait.


Aujourd’hui, Google est devenu un verbe, et si Facebook était un pays, ce serait le quatrième pays le plus peuplé du monde…

Qu’avons-nous à proposer aux habitants de ce pays sans frontière ? A ceux qui ont une vie en ligne, que la lecture sur écran ne rebute pas, qui prolongent sur le web leur existence avec le plus grand naturel ?

Aujourd’hui les terminaux sont là, qui permettent une lecture immersive suffisamment confortable.

Lorsque une offre de qualité est disponible en numérique, ainsi qu’un moyen simple d’y accéder, le marché peut démarrer.

C’est ce qui s’est passé aux USA  : le lancement du Kindle qui proposait à la fois une expérience de lecture suffisamment confortable, et une expérience d’achat très simple parmi un vaste catalogue de qualité , a été le signal de départ d’une augmentation rapide des ventes de livres numériques. L’arrivée d’autres offres, celles de Barnes & Noble,  celle de Borders, et enfin le lancement spectaculaire de l’iPad et de son iBook store, et les baisses de prix des liseuses qui ont suivi, ne vont qu’amplifier le phénomène.

En France, ce marché en est encore à faire ses tout premiers pas.

Plusieurs raisons à ce décalage  :

1) Il n’y a pas eu ici d’équivalent à «  l’effet Kindle  »  : il n’y a pas encore de liseuse e-Paper connectée.
2) le catalogue d’œuvres disponibles est encore limité
3) Ici, les groupes d’édition sont aussi des groupes de distribution, qui souhaitent développer chacun une activité de distribution numérique. Cela a abouti à une multiplicité de plateformes de distribution numérique, chacune liée à un groupe, et à une complexité dans la présentation de l’offre aux revendeurs.
4) Il existe un différentiel de TVA important entre le livre imprimé et le livre numérique. Du 5,5 % auquel les éditeurs étaient habitués, on passe à 19,6%, alors que le lecteur attend un livre numérique sensiblement moins cher que sa version imprimée. Même en pratiquant un prix identique à la version imprimée, ce qui n’est pas acceptable par le lecteur, le revenu net de l’éditeur diminue.
6) Nous vivons en France depuis 1981 sous le régime de la loi Lang, qui permet à l’éditeur de fixer lui même le prix des livres, et interdit aux revendeurs de pratiquer des ristournes supérieures à 5%. Une loi qui a permis, car telle était sa raison d’être, que la  librairie  puisse continuer d’exister face aux grandes surfaces culturelles et aux hypermarchés.

Depuis bientôt trente ans, les éditeurs fixent le prix des livres. Jusqu’à présent, le livre numérique n’entrait pas dans le cadre de cette loi.

Un projet de loi visant à réguler de la même manière le livre numérique vient d’être déposé au Sénat.

Quelques raisons de penser que les choses vont s’accélérer en 2011 :

- multiplication des canaux de vente
-  enrichissement de l’offre
- arrivée de l’iPad
- diffusion prochaine de plusieurs liseuses connectées
- ouverture d’un site des libraires indépendants
- accords en cours pour la mutualisation des catalogues
- ouverture d’un hub inter-plateformes
- projets de mise en place de librairies numériques par de nombreux acteurs
- proposition de loi sur le prix unique du livre numérique déposé au Sénat.
- loi concernant l’alignement de la TVA du livre numérique sur celle du livre imprimé également en projet.

Il est donc fort probable que nous allons connaître, nous aussi, notre «  moment ebook  ».

Le ‘moment ebook’ est le premier pas : construire une offre numérique est une opportunité pour les éditeurs d’initier le changement.

Cet effort doit s’inscrire dans une vision plus large du futur de la lecture, et doit s’accompagner d’une prise de conscience des profonds bouleversements qui modifient notre environnement.

Tous ceux qui parmi vous ont vécu ou vivent ce moment de mise en route savent que c’est un moment difficile, que les obstacles sont nombreux, de tous ordres, et qu’il faut une volonté forte et une conviction sans faille pour le réussir.

Pourquoi parler de «  moment ebook  »  ? Parce que le livre, une fois qu’il se sépare du support qui a été le sien depuis plusieurs siècles, va probablement connaître des transformations, de forme, d’usage, que nous ne soupçonnons pas aujourd’hui.

Mais le premier pas est celui-ci : offrir des versions numériques de nos livres à  nos lecteurs,  de sorte qu’ils puissent les lire sur le terminal de leur choix. Rien de bien révolutionnaire en apparence. En réalité, de très nombreuses évolutions dans la manière dont nous travaillons.

Pour donner un exemple, j’aimerais reprendre ici les paroles de Laura Dawson, citées sur son blog par Donn Linn : « When are we going to be able to go to meetings like this and not hear about someone beginning to use an XML workflow, setting up a Digital Asset Management system or getting their metadata organized properly without its being treated as something unusual and remarkable ?  »

Je partage tout à fait cette impatience de Laura. Et l’exemple de la mise en place d’un DAM illustre parfaitement ce que je veux dire quand je parle d’obstacles.

Il faut avoir une vision de l’avenir pour décider d’implanter un DAM : c’est un investissement important. Mais sa mise en place n’est rien, en comparaison de l’effort nécessaire pour que cet outil soit adopté et utilisé. Typiquement, il est nécessaire de former tous ces utilisateurs, pour qui l’utilisation du DAM va apparaître comme une gêne, une complication superflue, un de ces multiples tourments que les gens semblent inventer chaque jour pour vous compliquer le travail. Et les utilisateurs ont raison : la seule manière d’obtenir d’eux l’effort immense que constitue le fait de changer ses routines de travail, c’est de leur démontrer que cet effort, une fois devenu une nouvelle habitutde, comporte pour eux des bénéfices, qu’ils ne pourront apercevoir qu’une fois que l’ensemble des équipes aura effectué le changement.

Dans le groupe dans lequel je travaille,  des dizaines de formations ont été organisées, avant que l’archivage des projets dans le DAM commence à devenir systématique. Et ce n’est pas fini : je parlais l’autre jour avec une attachée de presse qui me disait ne jamais l’utiliser, alors même qu’elle avait reçu la formation. Elle n’avait tout simplement pas été assez loin dans la courbe d’apprentissage pour que lui apparaisse la réalité des bénéfices qu’elle pouvait y trouver. Ma conclusion dans ce cas est toujours de me dire, non pas «  mais ils ne comprennent rien  ». C’est de me dire : «  Visiblement, le message n’est pas passé, nous n’avons pas été assez loin, nous n’avons pas assez bien expliqué, montré, il faut accompagner encore.  »

Ce «   moment  ebook  » n’est pas très glamour. De l’extérieur, ça paraît assez simple. Vous qui êtes ici, vous savez tous qu’il n’en est rien. Deux actions doivent être menées en parallèle, l’une qui consiste à mettre en place de nouveaux process pour que chaque nouveauté sorte simultanément en version imprimée et en version numérique. L’autre consiste à numériser le fonds. Mon propos ici n’est pas de vous détailler les process, mais de témoigner de différentes options stratégiques qu’il est possible d’envisager pour ce faire.

L’une consiste à mettre en place une équipe dédiée, à faire intervenir des spécialistes, afin de ne pas perturber la filière traditionnelle. C’est cette équipe qui va se charger de contacter les auteurs afin d’obtenir les droits numériques. C’est elle qui va récupérer les fichiers des livres imprimés, décider du format, choisir la charte graphique numérique, contacter un sous-traitant pour la conversion, effectuer les contrôles de qualité.  C’est une jeune équipe brillante, ils vont vite. Ce sont « les gens de l’informatique ». Ils ont le vocabulaire. Ils connaissent le dédale des formats, les complications des DRM, ils parlent de CSS et de DTD.

Pendant ce temps, les équipes traditionnelles ne sont pas dérangées, et continuent de pratiquer leur métier sans se préoccuper des changements qui sont pris en charge par «  les gens du numérique  ».

Il existe une autre façon de procéder. Elle est plus lente. Elle demande infiniment plus d’efforts.

Elle consiste à ennuyer dès maintenant les éditeurs avec le numérique. Certains seront mécontents, dans un premier temps. et vous diront : j’ai des livres à faire. Depuis des années que je m’occupe de numérique, depuis la vieille époque du CD-Rom, c’est la phrase que j’ai entendue prononcée le plus souvent dans les différentes maisons d’édition où j’ai travaillé  : «  j’ai des livres à faire.  ».

Oui, vous avez des livres à faire. Je sais. Voulez-vous que vos livres soient lus ?  Savez-vous que demain, de plus en plus de lecteurs liront en numérique ?  Est-ce que vous ne vous sentez concerné que par les lecteurs qui préfèrent l’imprimé ? Est-ce que votre auteur n’a pas envie que vous veilliez à la qualité de présentation de son livre sur tous les supports  où il apparaîtra ?

Oui, l’autre option, c’est de faire en sorte que le changement vienne transformer de l’intérieur les pratiques des éditeurs. C’est de travailler à ce que la perception que chacun a de son métier évolue.

Il ne s’agit évidemment pas de transformer les éditeurs en développeurs. Ni de leur demander d’écrire une DTD. Et il y a bien sûr besoin, pendant une longue période, que des personnes spécialisées les accompagnent au quotidien dans la mise en place du changement.

Mais cette équipe est là, non pour se substituer aux éditeurs, mais pour transmettre les connaissances et les savoir-faire qui permettront, progressivement, aux éditeurs de changer leur façon de travailler, de s’approprier le changement.

Les éditeurs, par chance, sont habitués à vivre dans l’incertitude. Chaque projet éditorial est une aventure. Le succès n’est jamais garanti. Ils font des paris. Ils s’engagent. Ils prennent des risques. Si on prend  la peine de leur présenter et de leur expliquer les enjeux du numérique, si on leur donne une chance de s’en emparer, ils le font. Les choses ont déjà beaucoup bougé. Il n’est plus besoin de définir chaque acronyme, chaque mot technique. Le premier signe indiquant que l’appropriation du changement est en cours, c’est lorsque l’on constate que  le vocabulaire devient partagé, lorsque les mots qui faisaient peur se banalisent. Le virage se prend. (voir la partie 2)