Archives pour la catégorie ebook

Books in Browsers : next gen publishing

Slide Brian 0'Leary - Books In Browsers 2011

Pas question, à peine revenue de mon intermède Polynésien et de trois jours à Francfort, de repartir presque aussitôt à San Francisco pour assister à la conférence Books In Browsers, qui se tenait les 27 et 28 octobre au siège d’Internet Archive, sous la houlette de Peter Brantley, avec la complicité de Kat Meyer, de chez O’Reilly. Mais, grâce à une diffusion vidéo de très bonne qualité, j’ai pu assister à la plupart des interventions, confortablement installée dans mon canapé.

L’écran de mon ordinateur était divisé en trois zones, l’une affichait la retransmission vidéo, une autre le fil Twitter avec le tag #bib11  – aujourd’hui, quelqu’un a posté l’ensemble des tweets sur Scribe – , et une troisième un traitement de texte, pour la prise de notes.

Le nom de cette conférence, «  Books In Browsers  » est un avertissement : ici, on aime les livres et on aime le web, et nul ne se sent obligé d’enterrer les uns pour célébrer l’autre, ou de sacraliser les premiers en méprisant le second. L’assistance (pas de Français, hélas, à part Hadrien Gardeur venu présenter la nouvelle version d’OPDS, mais des Espagnols, des Anglais, des Italiens, des Japonais, des Finlandais…) est composée d’éditeurs, de développeurs, de designers, de bibliothécaires, d’agents, d’auteurs, d’universitaires. L’ensemble est plutôt plus techno que dans les autres conférences, ainsi, lorsque Blaine Cook, un développeur venu présenter Newspaper Club demande à son auditoire combien d’entre ses membres savent ce qu’est Git, une forêt de mains se lèvent.

Je vous invite à consulter les présentations des différents intervenants, qui vont s’ajouter progressivement  ici, et à regarder de temps en temps l’une des vidéos : elles s’ajoutent actuellement sur la chaîne YouTube d’O-Reilly. Et je ne vais pas me lancer dans une recension de l’ensemble des interventions, il y a là un matériau pour une bonne cinquantaine de billets… Quelques impressions, comme souvent sur ce blog impressionniste…

Richard Nash a proposé un bilan de son projet Cursor, et du site pilote Red Lemonade. Avec une transparence impressionnante, il a analysé publiquement l’échec de Cursor. Je n’ai pas su, a-t-il expliqué, trouver la «  bonne histoire  » à raconter aux investisseurs (Venture Capitalists). Les VCs veulent une bonne histoire, ils veulent aussi une histoire qu’ils reconnaissent, qui les rassure. Autant un projet bien peu pertinent comme celui de BookTracks, qui consiste à ajouter des bandes son sur des livres, a pu les convaincre, sur la base du «  cela n’a jamais été fait  » (comme si tout ce qui n’avait jamais été fait, il fallait absolument le faire…), autant le fantasme si répandu de la désintermédiation rendait le projet Cursor incompréhensible pour les investisseurs. Belle démonstration, ce témoignage de Richard, d’une qualité qui nous manque cruellement en France : celle qui permet de ne pas considérer un échec comme un désastre honteux, mais comme la preuve  d’une capacité à innover, à sortir des sentiers battus et à prendre des risques.

Richard a décidé de continuer Red Lemonade sur une base bénévole, et, après avoir rencontré Valla Vakili, le fondateur de Small Demons, a été séduit par ce projet qui veut «  rapprocher les livres, sources les plus riches et les plus denses de la culture, des autres objets culturels  ». Le voici donc «  VP of Content and Community  » chez Small Demons, comme il l’explique ici.

La présentation de Small Demons par Valla Vakili m’a plutôt impressionnée. À première vue on se dit : «  encore un Libraryting like, un site communautaire de partage de bibliothèques  ». Il s’agit en réalité de tout autre chose, d’une plateforme qui extrait du web, se basant sur l’indexation du contenu des livres, des objets culturels en relation avec ces contenus. Ce n’est plus simplement l’algorithme d’Amazon qui dit : «  vous avez aimé tel livre, ceux qui l’ont acheté ont aussi acheté celui-là, pourquoi pas vous ?  ». C’est l’idée qu’un livre, y compris un roman,  est bourré de références à d’autres objets culturels, qu’il s’agisse de morceaux de musique, de films ou de séries, de plats, d’objets, de lieux, et de proposer des liens, pour chaque livre, vers tous ces objets, et de se servir de ces liens pour proposer des découvertes. Il semble que l’ajout de liens entre livres et objets soit à la fois algorithmique et le fait des internautes.  La démonstration donne réellement envie d’aller se perdre dans ce petit paradis de sérendipité que semble être Small Demons, pour l’instant en beta sur invitation. La vidéo de présentation est à voir.

photographie de Brian O'LearyJ’avais un peu de mal à garder les yeux ouverts au moment où Brian O’Leary, (Magellan Media) a pris la parole car, avec le décalage horaire, il était plus de deux heures du matin samedi. Mais l’adresse de Brian était si ambitieuse, et entre si fortement en résonance avec ce que nous pouvons observer ici en ce moment, que je me suis vite réveillée. Eric Hellman, le fondateur de Gluejar, qui a lui aussi présenté son activité lors de la conférence, résume le propos dans son blog ce matin.

Eric cite Brian O’Leary : «  Bien que les modèles économiques aient changé, les éditeurs et leurs intermédiaires continuent d’essayer de faire évoluer leur rôle sur le marché d’une manière qui suit typiquement la règle des négociations «  deux parties – un résultat  ».   » Il dit ensuite :

O’Leary a évoqué les changements qui sont en train d’intervenir dans l’écosystème de ce que l’on a appelé «  le monde du livre   » : auteurs, agents, éditeurs, distributeurs, libraires, bibliothèques, et bien sûr lecteurs. Il a fait remarquer que les relations à l’intérieur de cet écosystème étaient aujourd’hui renégociées entre les acteurs sans prise en compte des changements à l’œuvre dans le reste de l’écoystème.

«  En conséquence, les structures, les dispositions, les processus qui pourraient être bénéfiques pour l’ensemble de l’écosystème n’obtiennent pas toute la considération qu’ils méritent.

O’Leary a cité l’exemple de la Convention des Nations Unies sur le droit de la mer comme un modèle possible d’inspiration pour la redéfinition d’un écosystème de la lecture. La percée dans ces discussions a été permise par l’introduction de modèles tirés de la théorie des jeux qui ont aidé les parties à apercevoir  les effets des accords et des dispositions relatives à tous les intervenants dans le droit de la mer.  »

En effet, on trouve une note concernant la théorie des jeux dans ce rapport de la FAO, se rapportant à un chapitre où est évoquée cette Convention :

«  Si le même genre de modèle pouvait être développé pour les activités entourant l’édition, il pourrait être possible de faire beaucoup plus que «  sauver l’édition  ». Une application intelligente et  collaborative des technologies numériques devraient être en mesure d’accroître l’efficacité d’une industrie dont le but est de promouvoir la lecture, l’éducation, la culture et la connaissance.

Selon O’Leary, nous devons trouver des façons de financer le genre de recherche qui pourraient être la base de la modélisation de l’écosystème de lecture. Une possibilité serait de créer une organisation interprofessionnelle pour ce faire.  »

Et Richard Nash de twitter aussitôt malicieusement :

Il y a encore beaucoup à dire à propos de Books In Browsers 2011, et j’aurais aimé notamment revenir sur les interventions de Bill McCoy concernant EPUB3, d’Hadrien sur OPDS, de Mary Lou Jepsen (Pixel Qi) sur les écrans et l’accessibilité, de Bob Stein sur les lectures connectées, de Craig Mod, James Bridle, Joseph Pearson, Javier Celaya et quelques autres.

Les livres sont aujourd’hui, de plus en plus, traversés par le web, percutés par le web, générés par le web, diffusés sur et par le web, réinventés sur le web. Les projets présentés à Books In Browsers par plusieurs start-ups (liste ici ) explorent différentes dimension de cette réinvention, start-ups qui ont aussi profité de cette conférence pour tisser des liens les unes avec les autres, construisant, notait Peter Brantley sur Twitter ce matin, l’écosystème d’une édition nouvelle génération (next gen publishing).

sur  sur les écrans et l’accessibilitésur  sur les écrans et l’accessibilité

« We have removed the kobo store from the within application »

Apple l’avait annoncé, un changement devait se produire après le 30 juin, pour les applications de ses concurrents permettant l’achat et la lecture de livres numériques sur iPAd – iPhone – iPod Touch. Ces applications, qui permettent à des clients d’Amazon, de Kobo, de la Fnac, d’acheter, de télécharger et de lire leurs livres numériques directement depuis leur mobile, ne pourront plus conserver de fonction «  acheter  », sauf si elles proposent l’inApp Purchase, soit la solution de vente d’Apple, qui permet le paiement via le compte iTunes du client. Et Apple demande 30% du montant de la transaction à ceux qui utlisent l’inApp Purchase.  Jusqu’à présent, rien de concret ne s’était produit, mais voici qu’arrive la nouvelle version de l’application Kobo,  et, de fait, elle ne permet plus l’achat de livres numériques . Accepter de reverser à Apple 30% du montant des transactions effectuées via leur application iPad est hors de question : cela signifierait pour Kobo reverser à Apple la totalité ou plus du montant perçu pour chaque vente.

Coup dur pour Kobo, et les autres plateformes qui seront probablement contraintes de se soumettre à la même règle au fur et à mesure de leurs mises à jour. (mise à jour 25 juillet : c’est fait pour l’appli Kindle, et aussi pour Bluefire…)

On sait que la simplicité d’achat est un élément clef dans la fidélisation des clients, et pour tous ceux qui lisent en numérique exclusivement sur leur terminal Apple, l’obligation de quitter l’application de lecture, d’ouvrir le navigateur, d’acheter le livre numérique sur le site web, pour ensuite ouvrir ce fichier via l’application est un vrai handicap. Miser sur les tablettes non iOS ? Il semble qu’aucune d’elle ne décolle réellement pour le moment, et qu’Apple risque de continuer à dominer le marché pendant une longue période, réitérant la performance réalisée avec le couple iPod /iTunes.

La solution : à terme, probablement des applications web, écrites en HTML5, et sur lesquelles Apple ne pourra imposer cette règle, qui ne s’applique qu’aux applications soumises à son approbation, celles qui sont téléchargeables sur l’Appstore. Plus ça va, plus il semble qu’HTML5 va introduire de profonds changements sur le web, même si aujourd’hui le fait qu’il ne soit pas ou mal supporté par les versions encore largement utilisées d’Internet Explorer (IE8) constitue un problème. Il existe cependant déjà des applications de lecture, comme Ibis Reader, qui utilisent cette technologie.

La société Apple a fait beaucoup parler d’elle cette semaine, avec la publication de résultats records, et  le lancement de son nouvel OS,  Lion, que je n’ai pas encore trouvé le temps d’installer. Un petit fait intéressant qui indique peut-être une tendance qui pourrait bien se développer dans l’édition numérique : le long article de John Siracusa passant en revue l’ensemble des fonctionnalités de Lion, publié dans la revue en ligne Ars Technica, a  fait l’objet d’une «  Kindle Single édition  » : L’article est devenu un livre numérique en format court, vendu 5 $, alors qu’il est par ailleurs disponible gratuitement sur le web. Il semble que certains soient prêts à payer pour disposer de cet article en version Kindle, (le livre numérique a été téléchargé 3000 fois en 24h, comme l’indique cet article du Nieman Journalism Lab …)

Mais cet article/ebook, décrivant par le menu le dernier iOS d’Apple sera-t-il achetable directement via la prochaine version de l’application Kindle sur iPad ?

La puissance d’Apple lui permet de changer les règles en cours de route, d’imposer ses règles à d’autres acteurs (les premiers concernés par cette règle de l’inApp puchase ont été les acteurs de la presse, dont certains s’y sont pliés, d’autres ont cherché des échappatoires). Cette puissance, conquise par une firme qui a su créer des produits incroyablement attractifs, génère aussi des résistances : certains refusent de se laisser enfermer dans le confort des solutions Apple, les mêmes souvent qui résistent aux sirènes de Facebook et de Google, bien décidés à ne pas s’offrir en pâture publicitaire, bien décidés à conserver le contrôle de leurs données, de leur identité numérique. Karl Dubost fait partie de ceux qui résistent, et il s’en explique dans un billet joliment titré : «  pour une communication ouverte sublime«  .  François Bon, qui utilise machines et logiciels Apple, s’est emparé tôt de Facebook,  a ouvert sans tarder un compte Google+, François, qui aime aussi à penser tout haut sur Twitter dès les premières heures du matin, se défend de faire exactement une réponse à Karl, mais entre en résonance avec lui, dans un long billet intitulé, avec un clin d’œil à La Boétie, «  de la servitude réseaux  ». Par mes usages des réseaux sociaux  je crois bien que je suis moi aussi plutôt du côté de la «  servitude volontaire  », même si teXtes, auquel j’essaie vaillamment de redonner un peu vie ces jours-ci, est installé sur un serveur auquel j’ai accès chez mon hébergeur, et si je suis bien propriétaire de l’improbable nom de domaine archicampus.net.

Qu’avez-vous laissé faire ?

Ce qu’annonçait Jeremy Rifkin dans son livre «  l’âge de l’accès  » est en train de se réaliser, bien plus vite que je ne l’imaginais lorsque je l’ai lu il y a cinq ans. De plus en plus, le souhait d’être en mesure d’accéder à l’usage des biens culturels est en train de se substituer à celui de posséder les supports et même les fichiers qui les contiennent. Un responsable d’EMI France me le confirmait récemment en ce qui concerne la musique : l’accès est ce qui compte désormais, et la tendance à entreposer sur son disque dur des milliers de titres fait place à la volonté d’être en mesure d’accéder immédiatement, en tout lieu, à une offre illimitée, sans nécessité de stocker, de posséder des albums ou des morceaux. Des services comme Spotify (qui vient de modifier ses règles de fonctionnement)  ou Deezer ( qui a signé l’été dernier un accord avec Orange)  rencontrent un succès très important. L’annonce par Amazon d’un service d’écoute de musique en ligne, Amazon Cloud Drive,  confirme la tendance, et fâche les maisons de disques , qui considèrent que les accords conclus avec Amazon pour la vente en ligne de titres et d’albums en téléchargement n’autorisent pas la firme à offir l’accès en streaming à ces titres.

Le livre n’échappe pas à cette tendance : à partir du moment où il est numérique, que nous importe qu’il réside sur notre disque dur, ou bien sur un serveur distant, du moment que nous  sommes en mesure d’y accéder à chaque fois que nous le souhaitons ? Mieux, s’il est stocké en ligne, il peut nous suivre dans nos usages, nous le retrouvons à la page où nous l’avions abandonné, pour en lire quelques pages sur téléphone portable, et nous en reprendrons plus tard la lecture, sur tablette ou sur liseuse.

Des offres en accès existent déjà pour le livre, mais aucune offre de ce type n’agrège aujourd’hui la totalité des catalogues numériques français. Utilisé depuis des années par les éditeurs scientifiques en direction des bibliothèques universitaires, ce modèle n’est pas encore très développé en direction du public, à l’exception des tentatives de Cyberlibris, de l’offre de publie.net, ou de  celle d‘Izneo pour la bande dessinée. C’est le principe adopté et défendu par Google pour son offre Google Ebooks qui a ouvert aux USA début décembre 2010, mais pas encore en France. Une société espagnole annonce pour juin prochain l’ouverture du site 24symbols.com, qui se présente comme le «  Spotify du livre  » et propose un modèle freemium similaire, mais nul ne sait quel succès ce projet va rencontrer auprès des éditeurs. Les modèles économiques pour ces offres varient : paiement à l’acte pour Izneo et pour Google Ebooks, paiement d’un abonnement annuel chez publie.net permettant un accès illimité au catalogue, accès gratuit accueillant de la publicité ou payant sur abonnement pour le projet 24symbols. Certains libraires espèrent que  la mise en place de la vente de livres numériques en téléchargement se double bientôt d’un accès en streaming aux ouvrages achetés, sachant que cette offre ne peut être organisée par les libraires eux-mêmes, car ils ne disposent pas des fichiers.

La lecture en accès sera considérée par certains comme une insupportable dépossession, mais d’autres la vivront comme un allègement, et comme l’occasion d’accéder à de nouvelles fonctionnalités,  avec des possibilités d’échange et de partage, qu’il s’agisse de commentaires ou de citations.  Téléchargement et streaming coexisteront un long moment.

On peut imaginer que le pendant de cet accès global rendu possible aux livres, aux films, aux morceaux de musique, n’ira pas sans un développement parallèle de pratiques locales ; que cet accès formera probablement d’ici quelques années un substrat considéré comme minimum – accès facilité à l’ensemble des biens culturels sous forme numérisée -  mais qu’il conduira au développement complémentaire et indispensable de pratiques locales, impliquant de «  réelles présences  »,  dans les salles de concert et de cinéma, les librairies et les bibliothèques ; que le livre imprimé ne disparaîtra pas plus que les lieux où on peut l’acheter, l’emprunter ou le consulter, mais qu’il aura acquis une valeur nouvelle,  qu’il s’agira d’un objet plus précieux et plus durable. Il est probable aussi que se multiplieront les échanges entre global et local, l’accès au réseau se banalisant dans des objets toujours plus intégrés dans la vie quotidienne, et les possibilités de re-matérialisation comme l’impression à la demande reliant les lieux réels et les entrepôts virtuels.

L’infrastructure nécessitée par le développement de notre vie en ligne, qu’il s’agisse de nos échanges privés ou semi-privés, de nos partages de textes et d’images fixes et animées, de notre désir d’accéder à l’information, aux savoirs, au cinéma, à la musique, à la littérature depuis n’importe quel terminal relié au web est gigantesque. Le Cloud, malgré son nom qui évoque le lointain, l’impalpable, le vaporeux, n’a rien d’immatériel. Pour s’en convaincre, il suffit de regarder ces photos, prises la semaine dernière lors d’une visite organisée par Facebook dans son tout nouveau  datacenter à Prineville dans l’Oregon. Les datacenters sont d’énormes consommateurs d’électricité. Un rapport de Greenpeace fait le point sur cette question, Greenpeace qui a vivement dénoncé le choix par Facebook comme fournisseur d’une compagnie qui produit l’électricité via des centrales à charbon, notamment en publiant cette vidéo trouvée sur le blog Presse-Citron :

Facebook : Greenpeace vous invite à abandonner… par gpfrance

Le mouvement de numérisation nous fascine aujourd’hui par sa nouveauté et les possibilités qu’il offre. Mais  lorsque tout ce qui est possible de l’être aura été numérisé et que la plupart des biens culturels susceptibles de l’être seront produits directement en numérique et accessibles sur le web, ce même mouvement tendra probablement à rendre plus précieux tout ce qui lui résiste, tout ce qui ne peut en aucun cas se numériser, tout ce qui s’acharne à demeurer analogique, se refuse à la duplication, à la reproduction parfaite. Les mêmes qui exigent l’accès illimité à toute la musique demandent déjà à leurs parents de rebrancher leurs vieilles platines pour écouter les disques qu’ils achètent en vinyle. Peut-être que nos petits-enfants  supplieront les leurs d’installer dans leur chambre les vieilles étagères Billy entreposées dans la cave, pour épater leurs copains avec des livres imprimés… qui sait ?

Qu’avez-vous gardé ? Qu’avez-vous perdu ? A quoi avez-vous été vigilant ? Qu’avez-vous laissé faire ? Ce sont quelques unes des questions que chaque génération pose à la précédente. Il est à craindre que la question de notre  vigilance concernant les dépenses énergétiques, évoquées plus haut, sera de très loin la plus dérangeante.

Du spam sur les étagères d’Amazon

Vous détestez le spam. Vous avez appris, lorsque vous cherchez une information sur Google à détecter d’un coup d’œil dans la liste de résultats les «  faux sites  » des vrais. Vous vous êtes fait prendre une fois ou deux, puis vous avez mémorisé les URL à bannir, et les signes qui annoncent un site sans véritable contenu. Vous avez compris depuis longtemps qu’il existe quantité de sites sans auteurs, qui se contentent d’agréger sans objectif de service du texte aspiré ici et là, uniquement en fonction des requêtes les plus fréquentes, afin d’attirer l’internaute, peu importe s’il ne trouve pas de réponse sur le faux site, il a cliqué, il est venu, le compteur tourne, le nombre de visiteurs uniques augmente, le page rank grimpe, et voilà, le tour est joué.

Google vous donne un coup de main, modifiant son algorithme deux fois coup sur coup, une fois pour pénaliser dans ses résultats les sites produits par des fermes de contenu, réalisés par des volontaires sous-payés recrutés pour écrire le plus vite possible sur n’importe quel sujet, une autre pour pénaliser les «  scraper websites », qui ne contiennent aucun contenu original.

Vous avez en tête les déclarations maintes fois entendues, qui diabolisent le web et ce qui s’y écrit, les dangers d’un lieu non régulé, où tout un chacun peut publier.  Alors que les livres, disent souvent les mêmes personnes, sont infiniment plus dignes de confiance  : les auteurs sont sélectionnés, leurs textes sont relus, l’éditeur veille sur la qualité du fond et de la forme.

Mais, alors que vous avez appris à trier vous même les résultats de votre moteur de recherche, et à trouver les pépites parmi les cailloux sans intérêt, alors que Google vous aide désormais en veillant à reléguer loin dans son classement les sites sans intérêt, voici que les spammeurs ont trouvé une autre cible  : les ebooks.


Vous vous souvenez de Jack Nicholson dans Shining, tapant sans fin sur sa machine à écrire la phrase «  All work and no play makes Jack a dull boy  »  ?  Le personnage du film pourrait aujourd’hui sans problème (pour peu qu’il y ait du réseau dans son hôtel perdu dans la montagne) publier un livre composé uniquement de cette phrase répétée sur 500 pages. Il aurait facilement transformé le fichier en EPUB, puis mis en vente ce fichier dans la section ebooks d’Amazon. Je ne dis pas qu’il aurait pu l’y laisser très longtemps, ni qu’il en aurait vendu des quantités, mais l’essai a été tenté par Mike Essex, un spécialiste de la recherche en ligne de l’agence britannique de marketing numérique Impact Media. Il a copié puis collé des centaines de fois les paroles d’une chanson, en a fait un fichier numérique qu’il a publié sur Amazon, et a attendu. Rien. Rien n’est mis en place pour détecter un faux livre de ce type. Bien sûr, personne d’autre ne s’amuse à publier exactement ce type de faux livres, mais il en existe bien d’autres, fabriqués à partir de texte aspiré sur le web, ou bien reprenant sans aucun effort éditorial particulier des ouvrages du domaine public. Faites l’expérience  : tapez   »Manuel Ortiz Braschi  » dans le moteur de recherche d’Amazon US. Cet «  auteur  » a 3090 ebooks à son actif  à l’heure où j’écris , vendus le plus souvent 3,44 $…

Les quelques commentaires montrent le désarroi des acheteurs qui se font piéger, mais hésitent à se mobiliser pour une dépense de 3,44 $, et il est probable que la personne qui se cache derrière ce nom et perçoit 70% du prix de vente doit tirer un revenu régulier de ces centaines de titres.

Essex plaide pour la mise en place d’un minimum de contrôle de la part des plateformes de livres numériques, afin de détecter les «  faux livres  ». Amazon, très attaché à l’expérience utilisateur, devra apporter une réponse, avant que les spammeurs du livre numérique ne se multiplient, et encombrent les étagères virtuelles, noyant des livres de valeur parmi une masse de pseudo livres.

Que se passe-t-il quand…

Que se passe-t-il lorsque (environ) 10% des livres vendus sont des livres numériques ? C’est la question que je me posais en arrivant à la conférence Digital Book World en début de semaine dernière. Car c’est bien ce qui se passe aujourd’hui aux USA, où les ventes d’ebooks ont connu une croissance très rapide depuis deux ans.

La première chose à laquelle pensent les professionnels du livre, avec la perspective d’un prochain décollage du marché du livre numérique, c’est à la possibilité d’une mise en difficulté des librairies. Celles-ci n’ont pas attendu le livre numérique aux USA, l’arrivée des chaînes de librairie puis celle d’Amazon avaient déjà fait chuter dramatiquement  leur nombre. Le basculement d’un nombre de plus en plus important de lecteurs vers la lecture numérique va-t-il venir à bout de celles qui ont survécu ? C’est l’avis de Mike Shatzkin, qui annonce une réduction de 90% des rayonnages en librairie dans les dix prochaines années. Jane Friedman, ex CEO d’Harper Collins et fondatrice d’Open Road Media n’est pas d’accord : il y a, dit-elle, un avenir pour les libraires : au contact direct des lecteurs, ils ont l’opportunité de jouer un rôle de médiation au niveau local, et alors qu’il est sans arrêt question d’écouter ses clients, d’animer des communautés, de se rapprocher des lecteurs, ils sont très bien placés pour ce faire, en sachant prolonger en ligne l’activité de leur magasin. L’enquête Verso révèle par ailleurs que «  80.7% des participants ont déclaré qu’ils préfèreraient acheter des livres numériques en ligne chez leur libraire local indépendant si les livres y étaient vendus à un prix compétitif.  »

Quid des bibliothèques ? Le président de Macmillan s’est fait interpeller, dès le débat d’ouverture de la conférence, par la blogueuse Sarah Wendell (du blog dédié au roman sentimental Smart Bitches ), qui lui a demandé pourquoi, alors qu’il semblait si désireux d’atteindre tous les lecteurs, ses livres numériques n’étaient pas disponibles en bibliothèque. La réponse de Brian Napack (avant de mettre en circulation des versions numériques de nos livres en bibliothèques, nous recherchons le business model  qui conviendra ) n’a pas satisfait  Jane Friedman, qui considère qu’il est temps de prendre au sérieux le public des bibliothèques, et que celui qui emprunte un livre numérique est tout près de l’acte d’achat. Pas de business model ? Steve Potash, le CEO d’OverDrive, n’est pas d’accord : plus de 13000 clients, bibliothèques, collèges, universités utilisent ses services pour le prêt de livres numériques, selon un modèle qui, dit-il, a fait ses preuves.  A la bibliothèque publique de New York, un bouton «  acheter  » est présent depuis quelques semaines dans l’application, mais il est encore trop tôt pour savoir dans quelles proportions ce bouton est utilisé. La simple présence des livres numériques dans les catalogues des bibliothèques leur donne de la visibilité, ce dont les livres ont le plus grand besoin. Ruth Liebmann, directrice du marketing direct chez Random House, s’intéresse de très près aux bibliothèques. Elle y effectue ce qu’elle appelle un «  Library Listening Tour  », afin de recueillir l’avis et les attentes des lecteurs de livres numériques.

La grande vedette de cette édition de DBW, ce sont les métadonnées. Il semble bien que plus les éditeurs voient grandir la part numérique de leur activité, plus ils prennent au sérieux les métadonnées.  Deux sessions leur sont entièrement consacrées, mais on en parle dans de nombreuses autres, et c’est bien. Les métadonnées ne sont pas nées avec le livre numérique, bien évidemment. Il était déjà indispensable de fournir des informations détaillées concernant les livres imprimés, pour rendre possible la commercialisation d’objets qu’il était nécessaire d’identifier convenablement et de décrire, d’une part, et aussi pour constituer des catalogues utilisables en bibliothèque. Cependant les  métadonnées demeuraient l’affaire des spécialistes de la distribution, de la diffusion, de la vente, ou du catalogage en bibliothèque : le livre un fois posé sur l’étagère d’une librairie expose lui même aux yeux des clients ses propres métadonnées. Sa localisation dans tel ou tel rayon,  informe le lecteur potentiel de la catégorie à laquelle il appartient, de la thématique qu’il aborde, sa tranche donne le titre, l’auteur, l’éditeur, et il suffit à quiconque de se saisir du livre pour découvrir sa couverture, de le retourner pour lire un résumé, de le feuilleter pour lire un extrait et se faire une idée de son contenu. Lorsque le livre est un livre numérique, cette expérience de manipulation est exclue. L’œuvre doit être présentée au lecteur sur un écran, celui d’un PC, d’une liseuse, d’un smartphone ou d’une tablette, et pour que cette présentation permette au lecteur de découvrir le livre, chacune des informations affichées doit avoir été saisie et transmise : titre, auteur(s), éditeur, ISBN, prix, type de fichier, indication de la présence ou non d’une protection (DRM), et nature de celle-ci,  argumentaire descriptif…

Et là, on est dans le cas où le livre numérique a déjà été trouvé… Mais comment a-t-il été trouvé ?
Comment en arrive-t-on à ce stade où la description d’un livre numérique se trouve affichée sur notre écran, accompagnée du bouton qui va nous permettre de l’acheter ? De bien des manières, selon que l’on est à la recherche d’un titre précis ou que l’on souhaite parcourir les rayons d’une librairie en ligne à la recherche d’une lecture, sans savoir encore laquelle,  ou bien que l’on cherche la réponse à une question ou un problème que l’on se pose, les possibilités sont nombreuses. Selon le cas, on utilisera un moteur de recherche générique, on naviguera parmi les rayons virtuels de la e-librairie que l’on préfère ou on se servira de son moteur de recherche interne, on aura suivi un lien présent sur un site, blog, réseau social. Quelles que soient les actions qui auront précédé l’affichage des informations concernant un livre particulier, ces actions, pour nous conduire vers ce livre, mettent en jeu les métadonnées. De leur qualité, de leur richesse, de la manière dont elles sont exprimées, dépend en grande partie la probabilité que le lien vers le livre en question apparaisse dans la liste des résultats générée par une requête sur un moteur, que le livre soit classé de manière pertinente dans la rubrique qui lui convient sur le site d’une librairie.

Un exemple tout simple donné par un éditeur : en passant un livre de la catégorie «  fiction  » à la catégorie «  policier  », et en lui affectant un ISBN (ce qui n’est pas toujours le cas aux USA où les ISBN sont payants et où nombre de revendeurs disposent de leur propre code d’identificaiton), les ventes de celui-ci ont augmenté aussitôt de 300%. Pour obtenir ce résultat, il a simplement fallu que quelqu’un se préoccupe de renseigner convenablement un champ de description, et pour que cela soit fait systématiquement, il faut que chacun comprenne l’importance des métadonnées, l’enjeu essentiel qu’elles représentent aujourd’hui, et leur impact direct sur le «  découverabilité  » d’un livre, et donc sur les ventes de celui-ci.

J’ai parlé de deux panels consacrés aux métadonnées : l’un concernait les «  core metadata  » – les métadonnées essentielles, indispensables à la commercialisation d’un livre, et le second les «  enhanced metada  », ou métadonnées enrichies, qui visent à augmenter encore la possibilité pour un livre de rencontrer son public, en donnant plus d’informations à son sujet : biographie de l’auteur, interviews (texte, audio ou vidéo), critiques et recensions parues dans la presse,  possibilité de feuilleter un extrait, indications géographiques lorsque cela est pertinent, et permet de cibler des clients géolocalisés, liens vers d’autres ouvrages ou vers des sites web, mots clé, tags… Ainsi les métadonnées deviennent un véritable outil de marketing, et non plus seulement des informations destinées à la «  chaîne du livre  » ou aux catalogues bibliographiques. Elles sont ce que les lecteurs potentiels verront des livres avant de se décider ou non à les acquérir, elles sont ce qui permettra à ses clients de savoir que ce livre existe. Et on sait comme il est difficile pour un livre d’arriver à simplement faire connaître son existence à ses lecteurs potentiels. Fran Toolan, CEO de Firebrand technologies, ajoute que la manière dont les jeunes générations cherchent et trouvent leurs lectures est différente de celle de leurs aînées, et qu’il est nécessaire, lorsque l’on travaille sur ses métadonnées, de s’entourer de jeunes pour intégrer les métadonnées qui répondront à leurs attentes. Cette réflexion démontre à quel point la création des métadonnées ne peut être un geste machinal, d’ordre administratif, mais bien un processus réfléchi, fruit d’une décision, reflet d’une stratégie.

Enfin, je terminerai par le début, la remise des prix de l’innovation du livre numérique :

Dans la catégorie fiction :  DRACULA : The Official Stoker Family Edition (PadWorx Digital Media)
Finalistes :  Letters From Father Christmas (HarperCollins) ; War of the Worlds (Smashing Ideas)

Dans la catégorie Non fiction : Logos Bible Software (Logos Bible Software, Inc.)
Finalistes :  10 Greatest Card Tricks of All Time (Vook & Workman Publishing) ; Ansel Adams (Hachette Book Group, Inc.)

Dans la catégorie Jeunesse :  A Story Before Bed (Jackson Fish Market)
Finalistes : Cozmo’s Day Off (Ayars Animation, Inc.) ; The Pedlar Lady of Gushing Cross (Moving Tales)

Dans la catégorie Référence :  Star Walk for iPad (Vito Technology Inc.)
Finalistes : Let’s Eat Out with Celiac / Coeliac and Food Allergies ! (R & R Publishing) ; The Solar System (Touch Press)

Dans la catégorie BD : Robot 13 (Robot Comics)
Finalistes : Operation Ajax (Tall Chair, Inc.) ; Tumor (Archaia Studios Press)

Concernant les «  enhanced books  », dont je ne sais toujours comment les désigner en français, livres enrichis, augmentés ou bien prolongés (?), plusieurs sessions leur ont été consacré, et il a été question également de la prochaine version d’EPUB, toujours en développement, EPUB 3, qui autorisera l’ajout d’éléments multmédia et d’éléments d’interactivité dans des livres numériques.

Je reviendrai plus tard sur cette question, ce billet est déjà d’une longueur épouvantable, non ?

Futur du livre, et passé du web

Blogueurs, n’arrêtez jamais ! Moins vous publiez, plus il est difficile de le faire. Après plusieurs semaines d’interruption, me voici bêtement intimidée devant mon interface WordPress, comme quelqu’un qui, dans un dîner, aimerait prendre part à la conversation sans y parvenir : plus il tarde à s’y lancer, plus cette participation acquiert de l’importance à ses yeux, et tandis que les autres convives bavardent joyeusement sans arrières-pensées, il paufine mentalement son propos à l’infini, cherche désespérément le meilleur moment pour se lancer, et plus le temps passe, plus son inhibition augmente. Il est donc temps de se tourner vers ce malheureux, de remplir son verre, et de lui poser la question : alors, et toi, quoi de neuf ?

Quoi de neuf ?

Retour à New York, malheureusement sans la Dream Team, la valeureuse équipe avec laquelle j’avais participé l’an dernier à un voyage d’études du programme Courants, voyage blogué pratiquement au jour le jour (comme j’aimerais retrouver ce rythme !).

Séjour plus court cette fois-ci, à l’occasion de la conférence Digital Book World, qui commence demain soir. Pourquoi cette conférence et pas le TOC d’O'Reilly en février ? Mike Shatzkin, l’un des co-organisateurs de la conférence DBW explique comment il voit la différence entre les deux événements :

«  Tools of Change explore les développements technologiques qui ont un impact ou pourront en avoir un sur l’édition (en général) et aide les éditeurs (de toutes sortes) à les comprendre et à les appliquer. Digital Book World explore les défis économiques que le numérique adresse aux éditeurs «  trade  » (les éditeurs qui travaillent en priorité avec le réseau des revendeurs ) et les aide à les relever. Si j’organisais Tools of Change je scruterais l’horizon pour détecter les technologies susceptibles d’avoir un impact sur l’édition et poserais la question «  comment ?  ». Mais comme j’organise Digital Book World j’observe l’impact de la technologie sur l’environnement et les opérations commerciales de l’édition , et je me demande «  que devrions-nous faire  » ?  »

Bien sûr, j’aimerais bien assister aux deux conférences, mais il a fallu choisir, et cette année c’est DBW qui l’a emporté.

Je n’ai aucune chance de croiser là ni Evan Schnittman, ni Bob Stein rencontrés l’an dernier : ils participent  à l’édition 2011 de l’échange Franco-Américain qui nous avait permis de les rencontrer l’an dernier, et seront à Paris cette semaine.

Quoi de neuf par ailleurs ?

Une nouvelle version de l’Internet Wayback Machine, ce formidable service proposé par l’Internet Archive, qui permet de remonter dans le temps du web. Tapez l’adresse d’un site, et vous pourrez accéder à l’ensemble des versions qui en ont été archivées au fil des années. C’est intéressant pour observer l’évolution des sites en matière de design, mais c’est aussi un moyen, en recherchant des URL de titres de presse par exemple, de remonter le temps de l’actualité… mais pas beaucoup plus loin que 1995 ou 96 pour la plupart des titres… Un axe supplémentaire ajoutée à la sérendipité, et aussi un travail de préservation indispensable. La nouvelle version est très ergonomique ? J’ai toujours été fascinée par les trouvailles de design fonctionnel en matière d’exposition de données chronologiques, les «  time line  »..

Conférence autour du futur du livre, et voyage dans le passé du web, voilà qui va bien accompagner la lecture que je viens de commencer du dernier livre de Robert Darnton ; «  Apologie du livre, demain, aujourd’hui, hier  ». Je lui laisse la parole pour terminer, avec cet extrait d’une intervention sur France Culture au début du mois.


Les Matins – Robert Darnton

Ça ne se fait pas…

Ça ne se fait pas tellement de parler d’argent en pleine période de Noël, mais bon, ça y est, c’est fait, le sapin va bientôt perdre ses aiguilles, et j’ai trouvé dans mon agrégateur,  sur le blog du cabinet Market Partners International, Publishing Trends, un aperçu intéressant des résultats d’une enquête menée par MPI en collaboration avec The Idea Logical Company, la société de consulting animée par Mike Shatzkin, auprès de 135 agents américains.

Rappelons deux  éléments importants pour la compréhension des chiffres et de certaines déclarations de ces agents :

1) Aux Etats-Unis, les pourcentages de droits d’auteurs ne peuvent, comme c’est le cas en France, être calculés sur le prix de vente au public, puisque en l’absence de loi ou d’accord sur le prix unique du livre, celui-ci varie d’un libraire à l’autre. L’assiette de calcul est dont le «  net receipt  », soit le «  revenu net éditeur  », c’est à dire un montant inférieur, ( ce qui revient à l’éditeur une fois déduites les remises accordées aux distributeurs et aux revendeurs.) Ainsi les 25% dont il est question, comme montant courant pour les droits, correspondent environ à 12%, si on calcule sur le prix de vente au public.

2) Le modèle d’agence concerne le contrat qui lie l’éditeur au revendeur. Dans un modèle d’agence, le revendeur agit en son nom mais pour le compte de l’éditeur, et le prix de vente du livre est fixé par l’éditeur. Dans un modèle «  revendeur  », l’éditeur indique un prix de référence, mais le revendeur peut fixer lui-même le prix de vente au public, et pratiquer le rabais de son choix. Aux Etats-Unis, le modèle d’agence a été imposé en février dernier à Amazon par 5 des 6 plus grands éditeurs,  Apple ayant accepté ce modèle de contrat peu avant le lancement de l’iPad.

Rappelons aussi qu’il est là bas quasiment impossible d’être édité sans passer par un agent, ce qui n’est pas (encore) le cas en France, où cette pratique demeure minoritaire.

Publishing Trends fournit les résultats suivants :

«  - 50% des agents considèrent que «  l’impact global des livres numériques et des royalties qui y sont associées  » améliorent les revenus de leurs auteurs sur les contrats de leurs livres déjà publiés (fonds). 25% pensent que les livres numériques favorisent les revenus sur les nouveaux contrats.

- un tiers n’a pas de préférence entre les deux modèles, «  agence  » ou «  revendeur  », alors que 27% préfèrent le modèle d’agence, et 17% préfèrent le modèle «  revendeur  ».

- Les deux tiers considèrent que si les droits numériques ne sont pas spécifiquement accordés à l’éditeur dans le contrat, ils sont réservés par l’auteur pour l’exploitation, indépendamment de toute clause de non-concurrence.

- La majorité considère que 50% ou plus est le «  juste  » taux pour les royalties, et plus de 80% croient que le taux de 25% – la taux standatd actuellement pratiqué (25% sur le revenu net éditeur, qui correspond environ à 12% sur le prix public), va connaître une augmentation dans les trois ans qui viennent, 25% pensant qu’il s’agira d’une forte hausse.

- Plus d’un tiers déclarent qu’ils ont négocié des taux de royalties supéreiur à 25%, incluant des paliers et des bonus, sur les nouveaux contrats de leurs auteurs avec des gros éditeurs.

- Prés de la moitié disent qu’une «  backlist  » non encore publiée au format numérique aide à obtenir un meilleur deal sur les nouveaux contrats. Un groupe plus restreint a négocié des taux supérieurs à 25% sur les nouveaux contrats.

- La moitié des agents s’attendent à ce que les grands groupes d’édition cherchent à acquérir les droits numériques mondiaux dans les trois prochaines années.

- près de 90% des agents qui ont répondu disent que leurs auteurs ont manifesté de l’intérêt pour l’auto-édition, au fur et à mesure que les ventes de livres numériques progressent.

- Un tiers sont tentés par l’idée  de mettre en place leur propre programme de publication électronique, alors que 25% pensent que c’est une très mauvaise idée.

- Et heureusement pour tous, plus de 75% des agents interrogés croient que la meilleure situation est lorsque  l’éditeur des versions imprimés et des versions numériques des livres de leurs auteurs est un seul et même éditeur, si les auteurs perçoivent une juste rémunération.  »

Ici en France, alors que les ventes de livres numériques commencent à frémir, les droits numériques et les conditions de leur exploitation sont aussi l’occasion de débats et de questionnements, et il n’est pas inintéressant de connaître la position des agents américains sur ces questions, dans un pays où le marché numérique atteint les 10%. En parallèle de cette enquête, Shatzkin s’est entretenu avec des CEOs de plusieurs groupes d’édition US, pour connaître le sentiment des éditeurs. Il réserve le résultat de ces entretiens pour la conférence Digital Book World en janvier, mais en a tiré un article sur un sujet connexe, également abordé par ces chefs d’entreprise lors de ces rencontres, que je vous invite à consulter : «  A modest proposal for book marketing«  .

Comme j’aurai la chance d’assister à la conférence DGB, je pourrai vous en dire plus fin janvier, sur les résultats de cette étude.

En attendant, replongeons dans le monde des cadeaux, des vœux, des chocolats et des bisous sous le gui… je vous souhaite à tous de bonnes fêtes..

Changer nos manières de travailler – TOC – Francfort 2010 (2/2)

Intervention présentée à l’occasion de la conférence Tools of Change for Publishing à Francfort le 5 octobre 2010. J’ai parlé sur les images que je replace ci-dessous. Les parties indiquées en gras étaient également insérées dans des slides qui venaient s’intercaler entre les images. Version française -  Partie 2 – (voir la partie 1 )

Si l’éditeur n’est pas informé convenablement de l’enjeu que représente aujourd’hui le numérique, s’il en a une vision lointaine ou floue, s’il n’est pas à l’aise avec ce sujet, comment pourra-t-il être en mesure d’établir avec les auteurs qu’il publie un dialogue constructif à propos du numérique ?

Bien sûr, aujourd’hui, les contrats intègrent tous une clause qui concerne le numérique. Mais ce n’est pas le cas de tous les contrats plus anciens. Et pour être en mesure de construire une offre numérique suffisante, il est impératif d’obtenir la gestion de ces droits. Pour être en mesure de convaincre les auteurs de lui confier ces droits, il faut, à tout le moins, que l’éditeur soit capable de les convaincre qu’il est le le mieux placé pour les exploiter. Et si, dans nos entreprises, le numérique était l’affaire d’un petit groupe d’experts, et que les éditeurs continuaient  de «  faire des livres  » en se réjouissant que d’autres s’occupent de la cuisine numérique, que pourraient-ils dire aux auteurs sur ces questions ? Quelle crédibilité auraient-ils auprès des auteurs sur le numérique ?

La numérisation des livres, cela concerne essentiellement un changement dans leur matérialité, et cela touche donc de plein fouet les métiers qui ont affaire le plus directement à cette matérialité, ceux qui ont en charge la maquette, la mise en page, et pilotent la fabrication.

C’est dans ces métiers que le nombre «  d’heures de vol  » d’un acteur a le plus d’importance. C’est dans ces métiers que se sont accumulés au fil des siècles, depuis l’invention de l’imprimerie, quantité de savoirs-faire directement liés au support.

La page, ils connaissent. Leur métier a pour en parler quantité de mots spécialisés. La relation entre le blanc et le texte, l’écart entre les lettres, entre les mots, la taille de la marge, la manière dont les mots se coupent en fin de ligne… Chaque détail se règle avec minutie, dans les logiciels de mise en page.

Et voici le texte numérique. Capricieux comme un torrent. Qui se moque de la page. Qui s’adapte au terrain. Dont l’affichage ne peut plus se régler aussi finement, aussi définitivement, dans un logiciel. Apprendre à le maîtriser est un art qui s’apparente plus au rafting qu’à la natation en piscine.

Il est encore fréquent que les maquettistes vivent comme des contraintes insupportables les indications qui leur sont données pour que leur travail soit directement utilisable pour un export XML. Leurs habitudes de travail privilégient le résultat  : peu importe ce qui se passe du côté invisible du code. Mais tout manquement à la règle qui veut qu’aujourd’hui on sépare rigoureusement le contenu et la mise en forme se répercute immédiatement sur le fichier XML, sous forme d’erreurs innombrables.

Dans le monde de l’imprimé, l’œil et la main suffisent, pour régler chaque détail de mise en page, même si le logiciel exécute la commande. Dans le monde numérique, le code vient s’intercaler entre l’œil et la main. Code du système d’exploitation du terminal, code du moteur d’affichage utilisé, code du logiciel de lecture, code pour la mise en forme du texte. Peu de  professionnels de l’industrie du livre aiment le code  : mais pour maîtriser la présentation des livres numériques, ils doivent se mettre à l’aimer…

Cette présentation aurait pu être très simple, si, pour réussir à faire passer une entreprise d’édition du XXe au XXIe siècle, il suffisait de faire évoluer chacun des métiers, d’analyser quels changements spécifiques sont attendus concernant chacune des tâches traditionnelles, et d’accompagner le changement à tous ces endroits. Mais les choses ne sont pas aussi simples. Non, il ne suffit pas que chacun des métiers fasse sa petite mutation dans son coin, adopte quelques changements de procédure, quelques nouvelles habitudes.

C’est pourquoi l’accompagnement dans ces changements ne peut prendre la forme d’une simple formation, métier par métier, à de nouvelles procédures ou de nouveaux outils.

Bien sûr, il est nécessaire d’acquérir de nouveaux savoir-faire. Mais il est tout aussi nécessaire d’acquérir de nouvelles connaissances, et de partager le plus largement possible quelque chose que l’on pourrait nommer, sans trop bien savoir ce que c’est la «  culture web  ».

Pourquoi, me direz-vous, réunir des éditeurs toute une matinée pour leur montrer ce qu’est un fil RSS, comment s’installer un agrégateur, comment s’abonner à des blogs  ? Cela ne servira pas à tous «  directement  » dans leur métier. En même temps, quelle façon plus concrète de faire comprendre la puissance de diffusion du web, les possibilités offertes à un document quand on sépare clairement le texte de sa mise en forme  ?

Pourquoi organiser, comme nous l’avons fait cette année, un événement comme le «  printemps du numérique  », 11 rencontres, 16 intervenants, 300 participants  ? Pour que se diffuse parmi l’ensemble des collaborateurs un savoir commun autour des questions liées au numérique, une connaissance des enjeux, des problématiques, des actions menées, des prochaines étapes.

Le changement, cela passe aussi par cela  : des actions simples visant à informer et à expliquer, à susciter le dialogue, à accueillir les questions, les objections, les interrogations de chacun.

Pourquoi réunir régulièrement les responsables marketing de différentes entreprises du groupe, qui pour certaines entrent en compétition les unes avec les autres, et leur proposer de partager leurs pratiques en ce qui concerne l’usage qu’ils font de notre widget (un outil de feuilletage en ligne qui peut s’afficher sur n’importe quel site ou blog)  ? Parce que, passées les premières réticences à l’idée de dévoiler à d’autres des idées qu’ils pourraient bien utiliser eux aussi, l’idée qui finit par prévaloir est que c’est un jeu gagnant / gagnant, et que dans des domaines d’innovation, partager les apprentissages et les idées enrichit tout le monde. Une brèche dans la culture du secret qui est si présente dans de nombreuses entreprises, et un pas vers cette idée que l’on s’enrichit à chaque fois que l’on contribue…

Les avancées technologiques et les changements dans les usages ont un impact considérable sur le destin de tous les livres.

Chacun, au sein d’une maison d’édition, inscrit mentalement son travail dans une chaîne, dont chaque maillon est bien identifié. Ce qu’on appelle la «  chaîne du livre  », une ligne chronologique qui va de l’auteur au lecteur, avec des étapes bien délimitées. Le numérique et le web superposent à cette chaîne qui continue de structurer l’édition de livres imprimés, une structure nouvelle, non linéaire, en réseau. Des acteurs nouveaux apparaissent, et des connexions nouvelles entre l’ensemble des acteurs.

Si encore tous les acteurs de cette nouvelle configuration étaient des êtres humains, il serait possible de s’entendre avec eux sur de nouvelles façons de travailler. Mais aujourd’hui, certains maillons du réseau sont automatisés  : le web et le numérique font intervenir à chaque instant l’algorithme, le logiciel.

Cela concerne aujourd’hui, à cause du développement du e-commerce, non seulement la part numérique de la production, mais également les livres imprimés.

Qu’il s’agisse de livres imprimés,  de livres numériques, de livres augmentés,  le défi est le même  : surnager dans l’océan du web, attirer et retenir l’attention de leurs lecteurs potentiels en rivalité avec une infinité d’autres produits, informations, divertissements, jeux, films, activités qu’il est possible de trouver sur le web.

On dit souvent que le web a fait sauter les barrières à la diffusion pour tous les biens susceptibles d’être numérisés, en supprimant la difficulté liée à l’acheminement de produits physiques. Et c’est vrai. Cependant, une autre barrière se substiitue à celle, très élevée, que constituait la distribution du livre physique  : et c’est tout simplement la difficulté à assurer la visibilité des livres, physiques ou numériques, sur le web.

La meilleure manière d’abaisser cette barrière, c’est d’apporter le plus grand soin à la qualité des métadonnées de nos livres. La condition sine qua non de la visibilité. Cette importance des métadonnées n’est pas encore suffisamment perçue dans les maisons d’édition.

Qu’est-ce qui fait la qualité des métadonnées  :  c’est à la fois leur richesse et la manière dont elles sont présentées. Ce qui est nécessaire,  c’est d’exposer ces données, pour les rendre susceptibles d’être acheminées vers toutes les destinations où elles offriront aux livres qu’elles décrivent la visibilité dont chaque livre a besoin.

Pour cela, les métadonnées doivent être structurées d’une manière standardisée. C’est parce qu’il est bourré de protocoles, de normes, de standards, que le web est un environnement ouvert, et c’est dans cet environnement ouvert que doit s’installer le nouvel écosystème de l’édition et de la diffusion des livres.

Les métadonnées se réduisent-elles  à l’information bibliographique minimale décrivant un livre  : titre, auteur, date de publication, ISBN etc.  ? Ces informations constituent effectivement des métadonnées, c’est à dire des «  données à propos des données  ». Mais les métadonnées peuvent être infiniment plus riches.

Si vous voulez élargir votre vision des métadonnées, consultez la documentation qui accompagne la norme ONIX, qui est LA norme en ce qui concerne les métadonnées. Il est possible de fournir quantité d’informations concernant un livre, et qui vont bien au delà de l’information minimale qui vous vient à l’esprit lorsque l’on évoque les métadonnées.

Si vos métadonnées sont insuffisantes, si elles ne respectent pas les standards en vigueur, vous pouvez publier le meilleur livre qui soit, personne ne le saura, il demeurera invisible sur le web.

Le tournant du numérique ne concerne pas exclusivement le fait de mettre à la disposition de nos lecteurs nos livres en version numérique.

Elle vient bouleverser la manière dont chacun accède à l’information, partage ses goûts, apprend l’existence d’un livre. Tout le dispositif traditionnel qui vise à promouvoir les livres, qu’ils soient disponibles sous forme imprimée ou sous forme numérique mérite d’être revu.
Là aussi, il ne s’agit pas de substituer brutalement les nouvelles pratiques aux anciennes. Les voies traditionnelles utilisées par les équipes marketing et les attachés de presse ne peuvent être abandonnées. Ces équipes continuent de se battre pour obtenir une critique dans un journal, le passage d’un auteur dans une émission de télévision. On continue de faire de la publicité sur les supports traditionnels. Simplement, à ces moyens traditionnels de promouvoir les livres s’en ajoutent d’autres, qui nécessitent des savoir-faire nouveaux. Les médias ne sont plus seuls à être en mesure de mobiliser l’attention du public. Le web permet aujourd’hui à chacun de publier très facilement de l’information. L’époque du «  un parle à beaucoup  » n’est pas révolue, mais celle du «  beaucoup parlent à beaucoup  » a commencé. Cela a commencé avec les blogs, cela continue avec les réseaux sociaux comme Facebook et Twitter, pour citer les plus connus. D’innombrables conversations s’engagent à chaque instant sur le web : pour y participer, une connexion internet suffit. Mais pour parvenir à mettre en place une stratégie d’utilisation pertinente des réseaux sociaux, il ne suffit pas d’engager un community manager, ce qui présente déjà quelques difficultés, car la fonction est si récente que les community managers sont pour le moment autoproclamés, et qu’aucun ne peut se targuer d’une longue expérience et aligner des références.

Les meilleurs community managers ne sortent pas d’une école. Leur école, c’est le web. Les meilleurs communitiy managers pratiquent le web depuis longtemps. Ils ont tenu un blog dès le début des années 2000. Ils ont découvert Facebook avant vos enfants. Ils ont testé Twitter sans bien savoir à quoi Twitter allait bien pouvoir servir. Ils ont appris les codes, la simplicité de ton, la familiarité respectueuse, la manière de parler de soi sans exposer sa vie privée, le mix idéal entre échanges sérieux et plaisanteries sans conséquence. Ils ont appris que pour être entendu il faut écouter, que pour recevoir il faut donner, que pour être suivi il faut suivre, que pour que les gens s’intéressent à vous il faut s’intéresser aux gens.

Ce dont tout éditeur peut rêver, c’est que l’un de ses auteurs se reconnaisse dans cette description du community manager idéal, ainsi l’auteur sera en mesure d’animer lui même la communauté de ses lecteurs, et ira probablement au delà, créant des connnexions avec d’autres auteurs, développant en ligne une activité parallèle à son activité liée à la publication de son livre.

Ce que tout éditeur peut craindre également, c’est qu’un tel auteur choisisse, si son éditeur n’est pas en mesure de lui offrir quelque chose de plus que ce qu’il crée lui même, de se passer de lui, et de se tourner vers d’autres acteurs pour distribuer, diffuser et vendre ses prochains livres.

Le défi est là aujourd’hui :  être en mesure d’entrer en résonance avec la présence en ligne que certains auteurs ont naturellement développée, en leur proposant des services qui leur feront gagner du temps et de la visibilité, tout en mettant en place des pratiques de community management au service de ceux des auteurs qui ne se préoccupent pas de ce qui se passe sur le web, ou ne désirent pas y passer du temps.

Les questions demeurent nombreuses : chercher à développer et animer des communautés peut se faire autour d’un auteur, d’une collection, d’une marque. Quelle granularité adopter ? Faut-il faire un travail fin de segmentation des publics de nos publications, et partir à la recherche de ces publics ? Combien peut-on animer de communautés en même temps ? Combien de conversations simultanées ?  A chacun, selon le genre de livre qu’il publie, selon la connaissance qu’il a de ses lecteurs, de choisir sa stratégie. Mais la règle demeure, quelle que soit la nature de la communauté que l’on souhaite animer : donner, s’engager, être sincère, et surtout laisser tomber le langage formaté du marketing traditionnel.

Le risque existe : si l’éditeur ne se soucie pas de son existence en ligne, s’il ne fait pas partie de la conversation,  il s’exclut lui-même, il tourne le dos à son avenir, et prend le risque que ses auteurs lui tournent le dos, tôt out tard.

Changer nos manières de travailler, c’est aussi s’interroger sur ce qui, dans notre travail, doit absolument être préservé.

Innover, cela ne signifie pas abandonner ce qui fait la valeur et la beauté de ce métier.

Notre curiosité, notre écoute, notre sensibilité, qui nous mettent sur la piste des meilleurs auteurs.

Notre capacité à les reconnaître et à opérer des choix.

Notre savoir-faire éditorial, qui accompagnera ces auteurs vers le meilleur de leur art, et leur manuscrit vers sa forme définitive.

Notre habileté à donner ensuite au texte la forme qui lui convient, et à apporter le plus grand soin à ce qui sera proposé au regard du lecteur.

Notre volonté de permettre la rencontre entre ce travail et le plus grand nombre possible de lecteurs.

Nous avons longtemps été des «  gate keepers  »  : sans nous, il était très difficile pour un auteur d’atteindre son public. Ce temps est révolu, avec l’avènement du web. Si nous ne voulons pas donner raison à ceux qui nous appellent des dinosaures, nous devons plonger dans cet univers et en apprendre les méandres et les arcanes, nous devons être en mesure d’y transposer nos savoir-faire.

La forte complexité des formats et des enjeux, nous en faisons un atout si nous la comprenons et la maîtrisons.

Les nouvelles formes de médiation, les nouvelles instances de validation, nous pouvons travailler avec elles si nous les identifions et apprenons à les comprendre et à les respecter.

Mais nous ne faisons rien de tout cela tout seuls  : il est indispensable de travailler en partenariat avec des acteurs qui possèdent des compétences complémentaires aux nôtres, en particulier dans le domaine des technologies.

Changer, cela ne nous oblige en rien à cesser d’être nous-mêmes  : notre seule chance de continuer à exister dans l’univers culturel et technologique qui est en train d’advenir, c’est bien de demeurer nous-mêmes et de savoir changer, et  c’est aussi de savoir nous ouvrir aux collaborations, échanges, partenariats qui enrichiront notre expérience et nos offres.

Changer nos manières de travailler – TOC – Francfort 2010 1/2

Intervention présentée à l’occasion de la conférence Tools of Change for Publishing à Francfort le 5 octobre 2010. J’ai parlé sur les images que je replace ci-dessous. Les parties indiquées en gras étaient également insérées dans des slides qui venaient s’intercaler entre les images. (Version française) -  Partie 1.

Je déteste le changement. Comme vous. Secrètement, profondément, je déteste devoir changer d’habitude. Je bénis secrètement l’ensemble des routines qui me permettent de ne pas réfléchir à chaque fois que je désire agir.  Et surtout, je  déteste le changement lorsqu’il m’est imposé, lorsque il vient de l’ extérieur.

Aujourd’hui, l’ensemble du secteur de l’édition est confronté à la nécessité de changer. Et c’est d’autant plus difficile, que ces changements viennent de l’extérieur.

Jusqu’à une date récente, le numérique, c’était pour les autres. Les autres industries culturelles, comme la musique ou le cinéma. Les autres secteurs de l’édition, comme le secteur STM.

Le changement, ce n’était pas pour nous. Nos lecteurs, de fiction et de non fiction, jamais ne souhaiteraient lire sur autre chose qu’un livre imprimé, cet objet parfait.


Aujourd’hui, Google est devenu un verbe, et si Facebook était un pays, ce serait le quatrième pays le plus peuplé du monde…

Qu’avons-nous à proposer aux habitants de ce pays sans frontière ? A ceux qui ont une vie en ligne, que la lecture sur écran ne rebute pas, qui prolongent sur le web leur existence avec le plus grand naturel ?

Aujourd’hui les terminaux sont là, qui permettent une lecture immersive suffisamment confortable.

Lorsque une offre de qualité est disponible en numérique, ainsi qu’un moyen simple d’y accéder, le marché peut démarrer.

C’est ce qui s’est passé aux USA  : le lancement du Kindle qui proposait à la fois une expérience de lecture suffisamment confortable, et une expérience d’achat très simple parmi un vaste catalogue de qualité , a été le signal de départ d’une augmentation rapide des ventes de livres numériques. L’arrivée d’autres offres, celles de Barnes & Noble,  celle de Borders, et enfin le lancement spectaculaire de l’iPad et de son iBook store, et les baisses de prix des liseuses qui ont suivi, ne vont qu’amplifier le phénomène.

En France, ce marché en est encore à faire ses tout premiers pas.

Plusieurs raisons à ce décalage  :

1) Il n’y a pas eu ici d’équivalent à «  l’effet Kindle  »  : il n’y a pas encore de liseuse e-Paper connectée.
2) le catalogue d’œuvres disponibles est encore limité
3) Ici, les groupes d’édition sont aussi des groupes de distribution, qui souhaitent développer chacun une activité de distribution numérique. Cela a abouti à une multiplicité de plateformes de distribution numérique, chacune liée à un groupe, et à une complexité dans la présentation de l’offre aux revendeurs.
4) Il existe un différentiel de TVA important entre le livre imprimé et le livre numérique. Du 5,5 % auquel les éditeurs étaient habitués, on passe à 19,6%, alors que le lecteur attend un livre numérique sensiblement moins cher que sa version imprimée. Même en pratiquant un prix identique à la version imprimée, ce qui n’est pas acceptable par le lecteur, le revenu net de l’éditeur diminue.
6) Nous vivons en France depuis 1981 sous le régime de la loi Lang, qui permet à l’éditeur de fixer lui même le prix des livres, et interdit aux revendeurs de pratiquer des ristournes supérieures à 5%. Une loi qui a permis, car telle était sa raison d’être, que la  librairie  puisse continuer d’exister face aux grandes surfaces culturelles et aux hypermarchés.

Depuis bientôt trente ans, les éditeurs fixent le prix des livres. Jusqu’à présent, le livre numérique n’entrait pas dans le cadre de cette loi.

Un projet de loi visant à réguler de la même manière le livre numérique vient d’être déposé au Sénat.

Quelques raisons de penser que les choses vont s’accélérer en 2011 :

- multiplication des canaux de vente
-  enrichissement de l’offre
- arrivée de l’iPad
- diffusion prochaine de plusieurs liseuses connectées
- ouverture d’un site des libraires indépendants
- accords en cours pour la mutualisation des catalogues
- ouverture d’un hub inter-plateformes
- projets de mise en place de librairies numériques par de nombreux acteurs
- proposition de loi sur le prix unique du livre numérique déposé au Sénat.
- loi concernant l’alignement de la TVA du livre numérique sur celle du livre imprimé également en projet.

Il est donc fort probable que nous allons connaître, nous aussi, notre «  moment ebook  ».

Le ‘moment ebook’ est le premier pas : construire une offre numérique est une opportunité pour les éditeurs d’initier le changement.

Cet effort doit s’inscrire dans une vision plus large du futur de la lecture, et doit s’accompagner d’une prise de conscience des profonds bouleversements qui modifient notre environnement.

Tous ceux qui parmi vous ont vécu ou vivent ce moment de mise en route savent que c’est un moment difficile, que les obstacles sont nombreux, de tous ordres, et qu’il faut une volonté forte et une conviction sans faille pour le réussir.

Pourquoi parler de «  moment ebook  »  ? Parce que le livre, une fois qu’il se sépare du support qui a été le sien depuis plusieurs siècles, va probablement connaître des transformations, de forme, d’usage, que nous ne soupçonnons pas aujourd’hui.

Mais le premier pas est celui-ci : offrir des versions numériques de nos livres à  nos lecteurs,  de sorte qu’ils puissent les lire sur le terminal de leur choix. Rien de bien révolutionnaire en apparence. En réalité, de très nombreuses évolutions dans la manière dont nous travaillons.

Pour donner un exemple, j’aimerais reprendre ici les paroles de Laura Dawson, citées sur son blog par Donn Linn : « When are we going to be able to go to meetings like this and not hear about someone beginning to use an XML workflow, setting up a Digital Asset Management system or getting their metadata organized properly without its being treated as something unusual and remarkable ?  »

Je partage tout à fait cette impatience de Laura. Et l’exemple de la mise en place d’un DAM illustre parfaitement ce que je veux dire quand je parle d’obstacles.

Il faut avoir une vision de l’avenir pour décider d’implanter un DAM : c’est un investissement important. Mais sa mise en place n’est rien, en comparaison de l’effort nécessaire pour que cet outil soit adopté et utilisé. Typiquement, il est nécessaire de former tous ces utilisateurs, pour qui l’utilisation du DAM va apparaître comme une gêne, une complication superflue, un de ces multiples tourments que les gens semblent inventer chaque jour pour vous compliquer le travail. Et les utilisateurs ont raison : la seule manière d’obtenir d’eux l’effort immense que constitue le fait de changer ses routines de travail, c’est de leur démontrer que cet effort, une fois devenu une nouvelle habitutde, comporte pour eux des bénéfices, qu’ils ne pourront apercevoir qu’une fois que l’ensemble des équipes aura effectué le changement.

Dans le groupe dans lequel je travaille,  des dizaines de formations ont été organisées, avant que l’archivage des projets dans le DAM commence à devenir systématique. Et ce n’est pas fini : je parlais l’autre jour avec une attachée de presse qui me disait ne jamais l’utiliser, alors même qu’elle avait reçu la formation. Elle n’avait tout simplement pas été assez loin dans la courbe d’apprentissage pour que lui apparaisse la réalité des bénéfices qu’elle pouvait y trouver. Ma conclusion dans ce cas est toujours de me dire, non pas «  mais ils ne comprennent rien  ». C’est de me dire : «  Visiblement, le message n’est pas passé, nous n’avons pas été assez loin, nous n’avons pas assez bien expliqué, montré, il faut accompagner encore.  »

Ce «   moment  ebook  » n’est pas très glamour. De l’extérieur, ça paraît assez simple. Vous qui êtes ici, vous savez tous qu’il n’en est rien. Deux actions doivent être menées en parallèle, l’une qui consiste à mettre en place de nouveaux process pour que chaque nouveauté sorte simultanément en version imprimée et en version numérique. L’autre consiste à numériser le fonds. Mon propos ici n’est pas de vous détailler les process, mais de témoigner de différentes options stratégiques qu’il est possible d’envisager pour ce faire.

L’une consiste à mettre en place une équipe dédiée, à faire intervenir des spécialistes, afin de ne pas perturber la filière traditionnelle. C’est cette équipe qui va se charger de contacter les auteurs afin d’obtenir les droits numériques. C’est elle qui va récupérer les fichiers des livres imprimés, décider du format, choisir la charte graphique numérique, contacter un sous-traitant pour la conversion, effectuer les contrôles de qualité.  C’est une jeune équipe brillante, ils vont vite. Ce sont « les gens de l’informatique ». Ils ont le vocabulaire. Ils connaissent le dédale des formats, les complications des DRM, ils parlent de CSS et de DTD.

Pendant ce temps, les équipes traditionnelles ne sont pas dérangées, et continuent de pratiquer leur métier sans se préoccuper des changements qui sont pris en charge par «  les gens du numérique  ».

Il existe une autre façon de procéder. Elle est plus lente. Elle demande infiniment plus d’efforts.

Elle consiste à ennuyer dès maintenant les éditeurs avec le numérique. Certains seront mécontents, dans un premier temps. et vous diront : j’ai des livres à faire. Depuis des années que je m’occupe de numérique, depuis la vieille époque du CD-Rom, c’est la phrase que j’ai entendue prononcée le plus souvent dans les différentes maisons d’édition où j’ai travaillé  : «  j’ai des livres à faire.  ».

Oui, vous avez des livres à faire. Je sais. Voulez-vous que vos livres soient lus ?  Savez-vous que demain, de plus en plus de lecteurs liront en numérique ?  Est-ce que vous ne vous sentez concerné que par les lecteurs qui préfèrent l’imprimé ? Est-ce que votre auteur n’a pas envie que vous veilliez à la qualité de présentation de son livre sur tous les supports  où il apparaîtra ?

Oui, l’autre option, c’est de faire en sorte que le changement vienne transformer de l’intérieur les pratiques des éditeurs. C’est de travailler à ce que la perception que chacun a de son métier évolue.

Il ne s’agit évidemment pas de transformer les éditeurs en développeurs. Ni de leur demander d’écrire une DTD. Et il y a bien sûr besoin, pendant une longue période, que des personnes spécialisées les accompagnent au quotidien dans la mise en place du changement.

Mais cette équipe est là, non pour se substituer aux éditeurs, mais pour transmettre les connaissances et les savoir-faire qui permettront, progressivement, aux éditeurs de changer leur façon de travailler, de s’approprier le changement.

Les éditeurs, par chance, sont habitués à vivre dans l’incertitude. Chaque projet éditorial est une aventure. Le succès n’est jamais garanti. Ils font des paris. Ils s’engagent. Ils prennent des risques. Si on prend  la peine de leur présenter et de leur expliquer les enjeux du numérique, si on leur donne une chance de s’en emparer, ils le font. Les choses ont déjà beaucoup bougé. Il n’est plus besoin de définir chaque acronyme, chaque mot technique. Le premier signe indiquant que l’appropriation du changement est en cours, c’est lorsque l’on constate que  le vocabulaire devient partagé, lorsque les mots qui faisaient peur se banalisent. Le virage se prend. (voir la partie 2)