Archives pour la catégorie édition

Le Cap : congrès de l’UIE

J’ai la chance de participer au congrès de l’UIE, l’Union Internationale des Editeurs. Ce congrès a lieu tous les deux ans, et se tient à chaque fois dans une ville différente. Cette année, et pour la première fois, il se tient en Afrique, au Cap, et il réunit des éditeurs du monde entier. 
Pour l’instant, je n’ai presque rien vu de la ville, car il n’y a qu’une rue à traverser pour rejoindre le centre de conférences depuis l’hôtel. En attendant, avec quelque impatience, de pouvoir partir un peu à la découverte de la ville, je fais d’autres découvertes, en suivant les débats de la conférence, et en profitant de chacune des pauses pour échanger avec des délégués et des participants de différents pays.

Je suis arrivée dans ce pays avec une bien piètre connaissance de son histoire, de sa littérature, et même de son actualité. J’ai, comme tous ceux de ma génération, le souvenir de l’écho des luttes de l’ANC, et de l’abolition de l’apartheid, de la figure exceptionnelle de Nelson Mandela. Et j’ai également le souvenir de la lecture, vers mes dix-huit ans, de la saga  de Doris Lessing, les enfants de la violence, dont on me dit ici qu’il s’agit maintenant d’un classique étudié dans les universités. D’autres images sud-africaines me viennent de la lecture des romans policiers de Deon Meyer, auteur sud-africain de langue afrikaans, ainsi que de celle des auteurs plus classiques que sont André Brink et Nadine Gordimer.  

C’est la question de la langue qui a été pour moi le fil conducteur de la première journée des débats, avec en particulier la conférence introductive donnée par Ngugi Wa Thiong’o, un écrivain kenyan de langue kikuyu et anglaise, un vibrant plaidoyer pour les langues africaines. Pour cet auteur, aujourd’hui professeur à l’Université de Californie,  qui a cessé d’écrire en anglais et utilise aujourd’hui le kikuyu, le fait de devenir progressivement étranger à sa langue maternelle relève d’un processus de colonisation de l’esprit.  Si la proportion de lecteurs est si faible en Afrique du Sud – environ 1% de la population lit régulièrement des livres – cela est dû à de nombreux facteurs, mais selon Thiong’o, la principale barrière est celle de la langue. Les 99% qui ne lisent pas le feraient plus volontiers si les livres disponibles dans les librairies étaient écrits dans leur langue, et non, comme c’est le cas aujourd’hui, en anglais ou en afrikaans. Un autre conférencier, le professeur Keorapetse, raconte sur ce thème de l’usage de l’anglais contre celui de la langue maternelle un souvenir d’enfance. Dans sa famille, on interdisait aux enfants de parler anglais dans la maison. Et lorsque l’un d’entre eux s’exprimait en anglais, sa mère jetait des regards alentour en prenant un air inquiet et s’exclamait « Tiens tiens, on dirait qu’il y ici un petit monsieur anglais, c’est bizarre, je ne l’ai jamais invité… ».  Dans de nombreux pays d’afrique sub-saharienne la question de l’âge auquel l’anglais est enseigné aux enfants fait régulièrement débat, l’anglais étant la langue qui permet de s’insérer socialement, la langue de l’employabilité, certains parents font pression pour qu’elle soit enseignée au plus tôt. 

Je n’ai fait qu’effleurer le thème de la première conférence de la première journée, mais je vais devoir m’interrompre, il faudrait veiller tard ou me réveiller encore bien plus tôt pour réussir à bloguer ce congrès… Mais si je termine ce post, je manquerai la conférence de ce matin.

big data, publication agile : et TOC !

Lorsque l’on revient d’une conférence comme le TOC (ou comme Digital Book World), s’ensuit toujours un moment un peu confus, où plusieurs interventions se mélangent dans votre mémoire, où l’impression globale est un peu floue, où l’on se demande «  mais finalement, que vais-je retenir de cette conférence ?  » La réponse, cette année, n’est pas très romantique : data, data, data. (Prononcer  à l’américaine : «  daita  », en trainant un peu sur le «  ai  »). Malgré ma légère tendance à l’ «  innumeracy  », j’ai été impressionnée par la présentation de Roger Magoulas, Directeur des études marketing chez O’Reilly. L’éditeur dispose en effet d’un outil de présentation de ses données qui semble à la fois simple et efficace, et Magoulas explique fort bien pendant sa présentation, que l’efficacité de cet outil dépend en quelque sorte de sa simplicité. Et la simplicité n’est jamais le résultat d’une approche rustique, elle est au contraire le fruit d’un travail très approfondi, d’une réflexion menée à son terme. Ce qui est vrai pour le design (la légendaire simplicité du design des objets produits par la firme Apple étant l’exemple le plus souvent cité, mais il en est d’autres), est vrai aussi pour la visualisation de données. Simple is beautiful ! Et pour construire un tel outil, il importe de se poser quantité de questions : quelles sont les données dont je dispose ? Quelles sont les données dont j’ai besoin ? Sous quelles formes ces données doivent-elles être restituées pour que je puisse en tirer des conclusions ? Quelles sont les prises de décisions qui pourraient être facilitées par des données, lesquelles, et sous quelle forme ? Magoulas évoque la nécessité d’utiliser le «  storytelling  » pour rendre ces données parlantes, lisibles, frappantes, faciles à mémoriser. Il faut que les données racontent une histoire (mais il est indispensable aujourd’hui de raconter une histoire, semble-t-il, si on veut retenir l’attention des gens, comme si nous vivions tous une enfance prolongée, et que toute information devait être précédée d’un «  il était une fois…  » )

Comment se vend tel titre ? Comment se vendent les autres titres sur le même thème ? Sur quel canal, à quel moment se vend-il le mieux ? Le moins bien ?  Quelles répercussions sur les ventes a eu tel ou tel événement ? Ces questions ne sont pas nouvelles, ni la fonction analyse de données dans les entreprises. Ce qui est plus nouveau, c’est la quantité de données disponibles et la sophistication des outils toujours croissante, la possibilité de mise en circulation de ces données, l’immédiateté de leur disponibilité. Après avoir montré quelques exemples de mise en forme des données, Roger Magoulas donne des conseils à ceux qui voudraient adopter une démarche proche : la clé, indique-t-il, c’est l’intégration des compétences. Le fait qu’il n’y ait pas une équipe isolée qui s’occupe des données dans l’indifférence générale, mais que chacun ait une «  culture des données  », qui passe par un peu d’apprentissage  mathématique. Il dit aussi «  sortez, allez voir dehors !  » ce qui signifie   : les données ne sont pas seulement dans vos systèmes, il est quantité de données que vous pouvez extraire du web, de Twitter, de Facebook, et traiter de plus en plus finement. Enfin, cette réflexion, déjà entendue certainement, mais qu’on ne répétera jamais assez : «  If you don’t run something, what are you learning ?  ». Oui : si vous ne bougez pas, si vous n’essayez pas, qu’allez-vous apprendre ?

Il est à noter que l’éditeur pour lequel travaille Roger Magoulas est un éditeur bien particulier, puisqu’il s’agit d’O'Reilly, qui édite principalement des livres destinés aux informaticiens. Cette maison d’édition est située au cœur de la Silicon Valley, dont Tim O’Reilly, son fondateur, est l’une des figures. C’est Tim O’Reilly qui a, dans un célèbre article, popularisé le concept de Web 2.0. C’est d’ailleurs ce qui donne à l’événement TOC sa tonalité particulière :  l’ancrage de ses organisateurs dans la culture web, sa proximité avec les idées qui ont cours parmi les entreprises du web, et la certitude d’y entendre exprimées des idées qui font bouger les lignes, et bousculent les habitudes des éditeurs. C’est d’autant plus important qu’aujourd’hui, les maisons d’édition, grandes et petites, sont amenées à travailler avec des entreprises issues de cette culture et maîtrisant parfaitement les savoir-faire dont nous parle Roger Magoulas,  les «  acteurs globaux  », comme on dit, Amazon, Google, Apple. Le framework utilisé par O’Reilly et cité dans la présentation,  Hadoop a été inspiré par les publications MapReduce, GoogleFS et BigTable de Google. Pour se familiariser avec cette thématique des big data, il existe d’excellents articles en français, celui d’Henri Verdier, ceux d’Hubert Guilllaud sur Internet Actu.

Une autre thématique qui a retenu l’attention en cette édition 2012, c’est celle de la publication agile (Agile Publishing). Là aussi, il s’agit d’importer dans le monde de l’édition un concept issu du monde informatique, celui de la méthode agile. Là aussi, l’un des intervenants de la session dédiée à ce thème travaille chez O’Reilly (Joe Wikert), et l’autre est la très dynamique  (et sympathique) Dominique Raccah, sans qui il semble aujourd’hui difficile de boucler la programmation d’une conférence sur l’édition numérique. La méthode agile, c’est une méthode de développement informatique itérative et incrémentale, basée sur un esprit collaboratif, intégrant le dialogue avec le client et l’acceptation du changement en cours de projet. Les principes du développement agile ont été publiés en 2001 dans un manifeste, le web adore les manifestes…

Il est intéressant de voir comment un concept résiste à la transplantation d’un univers à un autre, même si cela peut être aussi la porte ouverte à beaucoup d’à peu près. (Lire à ce sujet le livre ravageur de Jacques Bouveresse, Prodiges et vertiges de l’analogie : De l’abus des belles-lettres dans la pensée, Raisons d’Agir, 1999 - ou simplement cette conférence,  critiquant la légèreté avec laquelle certains philosophes se sont pris d’affection pour des concepts scientifiques et ont voulu les importer dans le monde de la philosophie, sans se donner la peine de chercher à comprendre ces concepts avec le minimum de rigueur.)

L’idée de publication agile repose bien sur une analogie   : au cœur de la méthode agile se trouve un logiciel, une application. Ce qui fait l’objet de la publication agile, c’est un livre. Un logiciel répond à un cahier des charges (même si avec la méthode agile, on peut s’attendre à un cahier des charges moins volumineux), un logiciel doit permettre à ses utilisateurs d’accomplir un certain nombre de tâches bien définies. Il n’en est pas tout à fait de même pour un livre, même dans le cas des livres pratiques, qui répondent à des besoins spécifiques. Le plus pratique des livres de cuisine ne «  fonctionne  » pas, au sens où il n’est pas doté de la moindre «  fonctionnalité  » (l’objet livre est doté de fonctionnalités, toutes les mêmes, liées à sa forme,  mais pas l’œuvre). Il peut permettre à celui qui le lit d’agir, mais il ne déclenche pas directement des actions, comme doit le faire un logiciel. Une application dérivée d’un livre de cuisine peut, elle, disposer de fonctionnalités. Elle peut calculer par exemple les quantités d’ingrédients en fonction du nombre de convives, générer votre liste de courses, suggérer une recette en fonction de critères (difficulté, temps de préparation etc.).  Le livre est avant tout destiné à être lu, même si la lecture peut prendre bien des  formes, immersive ou non, continue ou non, rapide ou lente, méditative ou superficielle, silencieuse ou à voix haute, solitaire ou partagée.  L’art de la mise en page est tout entier orienté vers l’agrément de la lecture, il ne s’agit pas d’une démarche totalement assimilable à la recherche ergonomique qui préside à la conception d’une interface. Ainsi, la nécessité de tests itératifs avec des utilisateurs en ce qui concerne un livre doit-elle se justifier par d’autres raisons que celles qui coulent de source lorsqu’on teste un logiciel : on doit alors vérifier que l’utilisateur comprend ce qu’il doit faire, et que les manipulations de celui-ci permettent le fonctionnement du logiciel, et ne conduisent pas à des fonctionnements inattendus. Cela demeure vrai lorsque l’on parle de livres numériques. Des problèmes ergonomiques doivent bien être résolus, mais par les concepteurs de moteurs de lecture. Ceux qui produisent les fichiers se posent essentiellement des problèmes d’affichage, de rendu, s’inquiètent de la manière dont l’intention du compositeur sera respectée avec tel et tel moteur de lecture. Nulle nécessité de tester techniquement chaque livre numérique auprès des utilisateurs, sauf si on utilise déjà EPUB3, et que les livres intègrent des éléments d’interactivité non portés par le moteur de lecture grâce à la balise «  canvas  » et à javascript.

De la méthode agile, lorsqu’elle l’a transposée dans l’univers de l’édition, Dominique Raccah a principalement retenu le principe de proximité entre client et équipe de développement, le transposant bien sûr en une proximité auteur / lecteurs. L’auteur, dans ce mode de publication, demeure celui qui écrit le livre, il ne s’agit pas de co-écrire le livre avec les lecteurs, mais il soumet le livre en cours d’écriture à la communauté de lecteurs, qui peuvent réagir au fur et à mesure, indiquer des manques, demander des précisions, réagir, soumettre des idées. L’auteur peut ensuite intégrer ou non les remarques en retravaillant les chapitres déjà publiés. L’écriture du livre n’est pas confiée à la communauté des lecteurs, mais cette communauté est associée au processus.

De même, Joe Wikert a cité des exemples de livres qui ont fait chez O’Reilly l’objet d’une méthode de publication agile, comme «  Books, a Futurist’s Manifesto  » de Hugh Mc Guire et Brian O’Leary. Ce livre a été rédigé et révisé sur PressBooks, l’outil de production en ligne développé par son auteur Hugh Mc Guire, et publié dès qu’un contenu «  juste suffisant  » a été disponible, puis les chapitres se sont ajoutés, et des mises à jour ont été faites.  Aujourd’hui, il est disponible en téléchargement payant et gratuitement en streaming sur le site PressBooks.  Joe Wikert a également cité une offre déjà ancienne chez O’Reilly, destinée aux utilisateurs de la bibliothèque en ligne Safari, nommée Rough Cuts, qui consiste à donner accès à des livres encore en cours d’écriture. Effectivement, c’est un peu ancien, car j’ai consacré l’un des premiers articles de ce blog à Rough Cut…  En 2007, j’étais déjà assez enthousiaste à l’idée de nouvelles formes de publication, même si le terme de publication agile n’est pas présent dans mon billet.

Et vous, croyez-vous que ce mode de publication va se répandre ? Jugez-vous pertinent l’emploi du terme de Publication Agile ?

Bookcamp à New Work City

Non, il n’y a pas de faute de frappe dans mon titre, c’est bien New Work City avec un W et pas un Y que j’ai voulu écrire, NewWork City c’est le nom du lieu où se déroulait le Bookcamp où je me suis rendue aujourd’hui. Ce lieu ressemble à La Cantine, qui a abrité plusieurs Bookcamps à Paris, un lieu de coworking, qui offre espaces de réunion, postes de travail et connections aux startup. J’ai découvert assez tard l’existence de ce Bookcamp, et même si ça pourrait faire assez chic d’essayer de vous faire croire que j’ai fait le déplacement tout exprès depuis Paris, je sais bien que ce serait difficile de vous convaincre. Non, j’y suis allée parce qu’il se trouve que j’étais déjà à New York en prévision de la conférence Tools of Change qui commence demain. Me voici donc embarquée dans une «  non conférence«  en prélude à la «  conférence  ».

Première observation, le principe de la non conférence est ici mieux respecté que nous ne le faisons lors de nos Bookcamps parisiens : il n’y a vraiment pas de programme préparé. Une personne anime le Bookcamp (ce que fait Hubert Guillaud lors des bookcamps parisiens) : elle rappelle les principes, invite les participants à réfléchir aux sujets qu’ils aimeraient voir aborder et à les noter sur un papier. Puis chacun de ceux qui ont noté quelque chose lit son papier à voix haute, des regroupements peuvent s’effectuer si des thèmes sont très proches, et le planning de l’après-midi se remplit ainsi très vite : 4 lieux, 4 sessions, cela fait 16 sujets…

La première session à laquelle je me joins est consacrée à la «  lecture sociale  » et animée par Iris Blasi. Elle utilise pour lancer la discussion les distinctions proposées par Bob Stein pour distinguer les différents types de sociabilité liées à la lecture :

Catégorie 1 – Discuter d’un livre en personne avec des amis ou des connaissances
(hors ligne, informel, synchrone, éphémère)

Catégorie 2 – Discuter d’un livre en ligne
(en ligne, informel, synchrone ou asynchrone, éphémère)

Catégorie 3 – Discuter d’un livre en classe ou dans un club de lecture
(hors ligne, formel, synchrone ou asynchrone, éphémère)

Catégorie 4 – S’engager dans une discussion DANS les marges d’un livre
(en ligne, formel, synchrone ou asynchrone, persistent)

Lors de la discussion qui suit cette taxinomie est rapidement perdue de vue, et les arguments s’échangent sur un mode un peu «  pour ou contre  » sans que soit toujours bien précisé de quoi on est en train de parler exactement. Mais cela n’enlève pas tout intérêt à l’échange, qui fait émerger des questions pertinentes, la plus importante à mes yeux étant probablement   » avec qui souhaite-t-on partager ses lectures au sens de la catégorie 4 de Bob Stein ?  » . C’est une question qui renvoie à l’usage des réseaux sociaux, à cette notion d’ami-qui-n’en-est-pas-un introduite par Facebook, à cette sociabilité élargie à des inconnus que permet le web, inconnus qui ne restent pas vraiment des inconnus même si on ne les rencontre pas, parce que les échanges créent un lien et chacun montre de soi quelque chose dans ces échanges. On entend les arguments des sceptiques de la lecture sociale, ceux qui s’écrient «  ah non, moi, quand je lis, c’est justement pour vous oublier, tous tant que vous êtes !  », ceux des obsédés de la vente (ben ça nous intéresse pas ce que les gens font une fois qu’ils ont acheté un livre, nous, ce qui nous intéresse c’est le prochain livre qu’ils achèteront), ceux qui rappellent que ce qui marche dans les réseaux sociaux c’est la simplicité (on peut partager quantité de choses en ligne sans rien avoir à rédiger du tout, avec des outils comme Foursquare ou Pinterest). La difficulté de citer et de partager les livres protégés par des DRM est également mentionnée, ainsi que la disparité des systèmes de partage d’annotation, eux aussi dépendants des plateformes de lecture. La dichotomie «  parler d’un livre / se parler depuis l’intérieur d’un livre  » est bien soulignée.

L’atelier suivant se veut une réflexion sur les caractéristiques respectives du livre numérique et du livre imprimé. Nick Ruffilo qui l’anime est venu avec un Scrabble, et pendant que la discussion se poursuit, la moitié des participants joue contre l’autre moitié, plusieurs personnes représentant les équipes se succédant pour chercher et placer des mots. Je n’ai pas très bien saisi le pourquoi de cette mise en scène, je l’avoue, une analogie demeurée indéchiffrée, mais c’était assez plaisant… Sur les pratiques de lecture, rien de très nouveau pour qui, comme toi, lecteur bien-aimé, s’intéresse de près à ces questions. Différents sondages auprès des participants (qui lit comment ?), qui montraient une fois encore que personne n’abandonne complètement un type de lecture pour un autre, que certaines qualités du livre imprimé demeurent inégalées (en particulier sa manière d’être un objet que l’on peut reconnaître à sa forme, sa taille, sa couleur, alors que tous les livres numériques prennent la forme du terminal que l’on utilise pour les lire, demeurant hors de portée de la curiosité d’autrui.)

Une chose me frappe qui rend très différent ce bookcamp des expériences françaises, c’est  la manière d’échanger des Américains. On sent qu’ici l’expression orale est enseignée à l’école. Les élèves, les étudiants, sont encouragés à prendre la parole et à s’exprimer, et cela se sent. En conséquence, les personnes qui ne possèdent pas naturellement une aisance à parler en public sont capables cependant de prendre la parole. Chez les personnes au tempérament le plus introverti, on peut discerner un côté «  j’ai appris à m’exprimer  », avec une gestuelle et une diction  dont on voit bien qu’elles sont le fruit d’un entrainement. Les autres semblent parfaitement à l’aise.  Mais le résultat, ce sont des débats où la parole circule très librement, où l’écoute de l’autre est la règle, et où beaucoup de gens différents prennent la parole.

Chez nous, la timidité est plus forte, ainsi qu’une sorte de «  révérence  » pour les personnes auxquelles on prête une autorité, et qu’on va difficilement contredire ou questionner. Autre chose :  la peur de passer pour un idiot est très forte, on préfère ne rien dire que de risquer de dire une chose incongrue. Le résultat c’est que les ateliers de nos Bookcamps  ressemblent parfois plus à des mini conférences, et que ceux qui y prennent la parole sont le plus souvent ceux qui sont habitués à le faire en public.

Parmi les participants au troisième atelier, Joshua Tallent, de chez Ebooks Architects , un expert en formatage de livres numériques, conseille à l’assistance de participer au wiki eprdcton.org, et de suivre sur twitter le hashtag #eprdctn.

L’une des questions débattues ici est très familière à tes oreilles, cher lecteur : est-il possible de produire un fichier  EPUB «  single source  », qui servira de base à toutes les conversions vers les formats propriétaires ou vers les EPUB-qui-ne-sont-plus-tout-à-fait-des-EPUB ? Pour Joshua la réponse est non, car ce format unique, qui fait tant rêver les éditeurs, obligerait à des compromis sacrifiant trop la qualité, en usant du plus petit dénominateur commun. Mieux vaut accepter de produire plusieurs formats qui divergent, chacun tirant au mieux parti de la manière dont sont développés les moteurs de lecture. Ce n’est pas l’avis de plusieurs éditeurs présents qui considèrent que lorsque les titres à publier se comptent en milliers, il n’est pas possible de faire ce patient travail artisanal sur chacun des titres, et qu’il faut trouver des solutions duplicables favorisant le maximum d’automatisation. Tout le monde s’accorde à dire qu’il ne faut pas s’attendre à plus de stabilité, mais que l’adaptation à de perpétuels changements dans le domaine du formatage est désormais la règle.

Le dernier débat auquel j’assiste a pour thème «  crowdsourcing the perfect business model  » et,  je vous le dis tout de suite, la «  foule  » n’a pas réussi malgré ses efforts à trouver ce business model idéal. L’équation est un peu compliquée, mais tous s’accordent à dire que l’on est encore loin d’avoir tout inventé. Une personne de chez Harlequin indique que des modèles basés sur l’accès, qui permettent aux lecteurs de charger 6 livres de leur choix chaque mois choisis parmi un catalogue thématique, commencent à sérieusement concurrencer les modèles de vente à l’unité. La conversation tourbillonne, il est question du nombre de titres produits par les éditeurs, quelqu’un évoque le problème des retours, certains disent qu’il ne faut pas produire plus de livres qu’on ne peut en soutenir activement d’un point de vue marketing.

Après les ateliers, ce qui va se passer ressemble énormément à ce qui clôt habituellement nos Bookcamps parisiens : on entend le bruit des bouchons qui sautent, le pas des bookcampeurs qui se rapprochent des bouteilles et des verres. Un petit détail aussi, pratique et simple à mettre en œuvre : sur la table, à l’entrée, un tas de feutres de toutes les couleurs et des paquets d’étiquettes auto-collantes. La plupart des gens y ont inscrit en arrivant leur  leur nom et leur pseudo twitter, certains ajoutent le nom de leur société. C’est pratique, plus simple que les trucs en plastiques avec épingles à nourrice qui piquent, et ça simplifie bien les échanges. Cela me permet de mettre des visages sur de très nombreux habitants de ma timeline : les participants sont nombreux, et bon nombre d’entre eux viennent de grands groupes d’édition (Random House, Macmillan, Penguin…). Je n’ai pas besoin de regarder son étiquette pour reconnaitre Cristina Mussinelli, une consultante qui travaille pour  l’AIE (l’équivalent du SNE en Italie), et qui siège aussi à l’IDPF. Elle et moi sommes ici les deux seules européennes. Mais, dans mon souvenir, il n’y avait, me semble-t-il,  pas un seul Américain cet automne au Bookcamp Paris…   (Bon, il n’y avait pas non plus de TOC juste après, c’est vrai.)

Longue vie à Red Lemonade

Richard Nash, ancien dirigeant de Soft Skull Press, vient de lancer Red Lemonade.  Qu’est-ce que Red Limonade ? En quoi ce site se différencie-t-il de tant d’autres sites dédiés aux livres ? Est-ce que Richard Nash a véritablement inventé quelque chose ? Il me semble que oui, et je vais essayer d’expliquer pourquoi.

On trouve des livres sur Red Lemonade, les trois premiers livres publiés aux éditions Red Lemonade. L’un, Zazen de Vanessa Veselka sera également publié en France en septembre aux éditions Zanzibar. Ces trois premiers livres donnent le ton à la communauté, car Red Lemonade est avant tout un outil communautaire. D’autres livres suivront, puisés parmi les manuscrits qu’il est possible de consulter sur la plateforme, mais aussi de commenter, d’annoter et de critiquer. Chacun peut charger son manuscrit, ou le charger chapitre par chapitre.

On peut uploader un manuscrit complet, ou des chapitres d’un manuscrit (cette partie est encore en version beta privée). Chacun des membres de la communauté peut ajouter des commentaires, répondre à un commentaire déjà posté. L’idée de Richard Nash est de faire en sorte que le dispositif ainsi créé permette une nouvelle forme d’édition, confiante dans l’intelligence collective, et qui permette de reproduire en ligne ce qui existe bien souvent dans la vie des auteurs : des influences, des conseils, des rencontres intellectuelles, des références partagées, une dynamique créative. On trouve également sur le site des textes issus de revues littéraires qui ont accepté de collaborer au site, des billets qui guident les commentateurs, expliquant comment écrire des contributions constructives. Il est possible de suivre les membres de la communauté que l’on choisit, on accède ainsi à la liste de leurs écrits, qu’il s’agisse de leurs manuscrits ou des textes qu’ils ont commentés.

Pratiquement tous les ingrédients de ce site existent déjà ailleurs, ce sont ceux de ce que l’on décrit lorsque l’on évoque la «  lecture sociale  » : annotations et commentaires partagés, liens vers les réseaux sociaux. Ce sont ceux que le web 2.0 (comme ça sonne ancien, déjà, cette expression…) a banalisés, avec la possibilité d’uploader un fichier, d’éditer son profil, de modifier un contenu facilement. Ce que je n’avais jamais vu ailleurs, c’est l’agencement de tous ces éléments ensemble et cette notion d’édition contributive, cette confiance faite à l’intelligence et au talent, et la possibilité que ce travail collectif autour du travail initial d’auteurs bien identifiés, auquel chaque texte est rattaché, débouche sur le publication de livres. Qui décide qu’un manuscrit parmi tous les autres sera publié ? L’éditeur qui héberge et anime la plateforme. Pour Red Lemonade, c’est Richard Nash. Comme l’explique un membre de la communauté dans les FAQ, à tout moment Richard Nash peut «  taper sur l’épaule  » de l’un des auteurs qui a chargé son texte sur RL, et lui proposer de le publier. Mais l’auteur ne cède aucun droit en chargeant simplement son manuscrit sur la plateforme, et peut parfaitement, s’il en a l’opportunité, signer avec un autre éditeur.

À celui qui lui demande pourquoi les gens iraient acheter un livre qu’ils peuvent lire gratuitement en ligne, Richard Nash répond ceci :

Nous croyons que si un lecteur est si touché par ce que vous écrivez qu’il a passé quinze heures sur le site à le lire, il y a de bonnes chances qu’il souhaitera l’acheter lorsqu’il sortira en version imprimée. En fait, je dirais même qu’il ne se contentera pas de l’acheter, il dira à ses amis de l’acheter, mourra d’envie de vous rencontrer, et fera toutes sortes de choses qui valent bien plus que le prix d’un livre de poche. Souvenez-vous que la principale chose dont vous avez besoin, en tant qu’auteur, ce n’est pas de l’argent du lecteur, mais de son temps, et pas du temps au rabais, mais du sérieux, de la solitude, de l’attention, qu’il laisse votre voix envahir  son esprit pendant quinze heures ou plus (…) Tout ce qu’il y a à dire, c’est que nous pensons que de donner accès au texte complet de votre œuvre sur ce site augmentera votre audience, améliorera vos chances de publication dans d’autres formats, et augmentera le nombre de livres que vous vendrez dans ces formats.

Avant d’ouvrir Red Lemonade, Richard Nash parlait de son projet qu’il nommait Cursor, et je n’arrivais pas bien à faire le lien entre Cursor et Red Lemonade. La lecture du blog de Richard Nash ne me permettant pas d’éclaircir cette question, je lui ai demandé par mail de m’expliquer. En réalité, Cursor est le nom de la plateforme qui a été créée, et Red Lemonade est le premier éditeur à utiliser cette plateforme. L’idée de Richard Nash est de proposer cette plateforme nommée Cursor, pour permettre à des éditeurs ou à des personnes qui désirent monter une maison d’édition, ou à des gens qui animent déjà des communautés en ligne et qui désirent publier des livres, de se doter d’une plateforme semblable, d’en modifier l’aspect, et de se lancer dans un projet utilisant les mêmes fonctionnalités, mais avec leur propre sensibilité, qui attirera à chaque fois des auteurs différents, et des lecteurs / commentateurs / éditeurs différents. Il est donc possible d’obtenir une licence d’utilisation, et d’ouvrir sa propre plateforme, en utilisant la même technologie que Red Lemonade.

Cette initiative est à suivre de près. Elle est beaucoup plus radicale que celle qui consiste pour un éditeur à publier ses livres en version numérique, ou même à publier des livres directement et exclusivement en numérique. Elle inaugure une nouvelle forme d’exercice de la fonction d’éditeur, qui s’appuie sur ce que le numérique change dans la relation entre auteur et lecteur, qui associe l’expertise des lecteurs contributeurs au processus de sélection des œuvres, un changement qui me semble bien plus fondamental que le changement de support de lecture qui occupe tant les esprits aujourd’hui.

En complément à ce billet, j’ai traduit un texte dans lequel Richard Nash explique les idées qui ont inspiré son projet.

Qu’avez-vous laissé faire ?

Ce qu’annonçait Jeremy Rifkin dans son livre «  l’âge de l’accès  » est en train de se réaliser, bien plus vite que je ne l’imaginais lorsque je l’ai lu il y a cinq ans. De plus en plus, le souhait d’être en mesure d’accéder à l’usage des biens culturels est en train de se substituer à celui de posséder les supports et même les fichiers qui les contiennent. Un responsable d’EMI France me le confirmait récemment en ce qui concerne la musique : l’accès est ce qui compte désormais, et la tendance à entreposer sur son disque dur des milliers de titres fait place à la volonté d’être en mesure d’accéder immédiatement, en tout lieu, à une offre illimitée, sans nécessité de stocker, de posséder des albums ou des morceaux. Des services comme Spotify (qui vient de modifier ses règles de fonctionnement)  ou Deezer ( qui a signé l’été dernier un accord avec Orange)  rencontrent un succès très important. L’annonce par Amazon d’un service d’écoute de musique en ligne, Amazon Cloud Drive,  confirme la tendance, et fâche les maisons de disques , qui considèrent que les accords conclus avec Amazon pour la vente en ligne de titres et d’albums en téléchargement n’autorisent pas la firme à offir l’accès en streaming à ces titres.

Le livre n’échappe pas à cette tendance : à partir du moment où il est numérique, que nous importe qu’il réside sur notre disque dur, ou bien sur un serveur distant, du moment que nous  sommes en mesure d’y accéder à chaque fois que nous le souhaitons ? Mieux, s’il est stocké en ligne, il peut nous suivre dans nos usages, nous le retrouvons à la page où nous l’avions abandonné, pour en lire quelques pages sur téléphone portable, et nous en reprendrons plus tard la lecture, sur tablette ou sur liseuse.

Des offres en accès existent déjà pour le livre, mais aucune offre de ce type n’agrège aujourd’hui la totalité des catalogues numériques français. Utilisé depuis des années par les éditeurs scientifiques en direction des bibliothèques universitaires, ce modèle n’est pas encore très développé en direction du public, à l’exception des tentatives de Cyberlibris, de l’offre de publie.net, ou de  celle d‘Izneo pour la bande dessinée. C’est le principe adopté et défendu par Google pour son offre Google Ebooks qui a ouvert aux USA début décembre 2010, mais pas encore en France. Une société espagnole annonce pour juin prochain l’ouverture du site 24symbols.com, qui se présente comme le «  Spotify du livre  » et propose un modèle freemium similaire, mais nul ne sait quel succès ce projet va rencontrer auprès des éditeurs. Les modèles économiques pour ces offres varient : paiement à l’acte pour Izneo et pour Google Ebooks, paiement d’un abonnement annuel chez publie.net permettant un accès illimité au catalogue, accès gratuit accueillant de la publicité ou payant sur abonnement pour le projet 24symbols. Certains libraires espèrent que  la mise en place de la vente de livres numériques en téléchargement se double bientôt d’un accès en streaming aux ouvrages achetés, sachant que cette offre ne peut être organisée par les libraires eux-mêmes, car ils ne disposent pas des fichiers.

La lecture en accès sera considérée par certains comme une insupportable dépossession, mais d’autres la vivront comme un allègement, et comme l’occasion d’accéder à de nouvelles fonctionnalités,  avec des possibilités d’échange et de partage, qu’il s’agisse de commentaires ou de citations.  Téléchargement et streaming coexisteront un long moment.

On peut imaginer que le pendant de cet accès global rendu possible aux livres, aux films, aux morceaux de musique, n’ira pas sans un développement parallèle de pratiques locales ; que cet accès formera probablement d’ici quelques années un substrat considéré comme minimum – accès facilité à l’ensemble des biens culturels sous forme numérisée -  mais qu’il conduira au développement complémentaire et indispensable de pratiques locales, impliquant de «  réelles présences  »,  dans les salles de concert et de cinéma, les librairies et les bibliothèques ; que le livre imprimé ne disparaîtra pas plus que les lieux où on peut l’acheter, l’emprunter ou le consulter, mais qu’il aura acquis une valeur nouvelle,  qu’il s’agira d’un objet plus précieux et plus durable. Il est probable aussi que se multiplieront les échanges entre global et local, l’accès au réseau se banalisant dans des objets toujours plus intégrés dans la vie quotidienne, et les possibilités de re-matérialisation comme l’impression à la demande reliant les lieux réels et les entrepôts virtuels.

L’infrastructure nécessitée par le développement de notre vie en ligne, qu’il s’agisse de nos échanges privés ou semi-privés, de nos partages de textes et d’images fixes et animées, de notre désir d’accéder à l’information, aux savoirs, au cinéma, à la musique, à la littérature depuis n’importe quel terminal relié au web est gigantesque. Le Cloud, malgré son nom qui évoque le lointain, l’impalpable, le vaporeux, n’a rien d’immatériel. Pour s’en convaincre, il suffit de regarder ces photos, prises la semaine dernière lors d’une visite organisée par Facebook dans son tout nouveau  datacenter à Prineville dans l’Oregon. Les datacenters sont d’énormes consommateurs d’électricité. Un rapport de Greenpeace fait le point sur cette question, Greenpeace qui a vivement dénoncé le choix par Facebook comme fournisseur d’une compagnie qui produit l’électricité via des centrales à charbon, notamment en publiant cette vidéo trouvée sur le blog Presse-Citron :

Facebook : Greenpeace vous invite à abandonner… par gpfrance

Le mouvement de numérisation nous fascine aujourd’hui par sa nouveauté et les possibilités qu’il offre. Mais  lorsque tout ce qui est possible de l’être aura été numérisé et que la plupart des biens culturels susceptibles de l’être seront produits directement en numérique et accessibles sur le web, ce même mouvement tendra probablement à rendre plus précieux tout ce qui lui résiste, tout ce qui ne peut en aucun cas se numériser, tout ce qui s’acharne à demeurer analogique, se refuse à la duplication, à la reproduction parfaite. Les mêmes qui exigent l’accès illimité à toute la musique demandent déjà à leurs parents de rebrancher leurs vieilles platines pour écouter les disques qu’ils achètent en vinyle. Peut-être que nos petits-enfants  supplieront les leurs d’installer dans leur chambre les vieilles étagères Billy entreposées dans la cave, pour épater leurs copains avec des livres imprimés… qui sait ?

Qu’avez-vous gardé ? Qu’avez-vous perdu ? A quoi avez-vous été vigilant ? Qu’avez-vous laissé faire ? Ce sont quelques unes des questions que chaque génération pose à la précédente. Il est à craindre que la question de notre  vigilance concernant les dépenses énergétiques, évoquées plus haut, sera de très loin la plus dérangeante.

Futur du livre, et passé du web

Blogueurs, n’arrêtez jamais ! Moins vous publiez, plus il est difficile de le faire. Après plusieurs semaines d’interruption, me voici bêtement intimidée devant mon interface WordPress, comme quelqu’un qui, dans un dîner, aimerait prendre part à la conversation sans y parvenir : plus il tarde à s’y lancer, plus cette participation acquiert de l’importance à ses yeux, et tandis que les autres convives bavardent joyeusement sans arrières-pensées, il paufine mentalement son propos à l’infini, cherche désespérément le meilleur moment pour se lancer, et plus le temps passe, plus son inhibition augmente. Il est donc temps de se tourner vers ce malheureux, de remplir son verre, et de lui poser la question : alors, et toi, quoi de neuf ?

Quoi de neuf ?

Retour à New York, malheureusement sans la Dream Team, la valeureuse équipe avec laquelle j’avais participé l’an dernier à un voyage d’études du programme Courants, voyage blogué pratiquement au jour le jour (comme j’aimerais retrouver ce rythme !).

Séjour plus court cette fois-ci, à l’occasion de la conférence Digital Book World, qui commence demain soir. Pourquoi cette conférence et pas le TOC d’O'Reilly en février ? Mike Shatzkin, l’un des co-organisateurs de la conférence DBW explique comment il voit la différence entre les deux événements :

«  Tools of Change explore les développements technologiques qui ont un impact ou pourront en avoir un sur l’édition (en général) et aide les éditeurs (de toutes sortes) à les comprendre et à les appliquer. Digital Book World explore les défis économiques que le numérique adresse aux éditeurs «  trade  » (les éditeurs qui travaillent en priorité avec le réseau des revendeurs ) et les aide à les relever. Si j’organisais Tools of Change je scruterais l’horizon pour détecter les technologies susceptibles d’avoir un impact sur l’édition et poserais la question «  comment ?  ». Mais comme j’organise Digital Book World j’observe l’impact de la technologie sur l’environnement et les opérations commerciales de l’édition , et je me demande «  que devrions-nous faire  » ?  »

Bien sûr, j’aimerais bien assister aux deux conférences, mais il a fallu choisir, et cette année c’est DBW qui l’a emporté.

Je n’ai aucune chance de croiser là ni Evan Schnittman, ni Bob Stein rencontrés l’an dernier : ils participent  à l’édition 2011 de l’échange Franco-Américain qui nous avait permis de les rencontrer l’an dernier, et seront à Paris cette semaine.

Quoi de neuf par ailleurs ?

Une nouvelle version de l’Internet Wayback Machine, ce formidable service proposé par l’Internet Archive, qui permet de remonter dans le temps du web. Tapez l’adresse d’un site, et vous pourrez accéder à l’ensemble des versions qui en ont été archivées au fil des années. C’est intéressant pour observer l’évolution des sites en matière de design, mais c’est aussi un moyen, en recherchant des URL de titres de presse par exemple, de remonter le temps de l’actualité… mais pas beaucoup plus loin que 1995 ou 96 pour la plupart des titres… Un axe supplémentaire ajoutée à la sérendipité, et aussi un travail de préservation indispensable. La nouvelle version est très ergonomique ? J’ai toujours été fascinée par les trouvailles de design fonctionnel en matière d’exposition de données chronologiques, les «  time line  »..

Conférence autour du futur du livre, et voyage dans le passé du web, voilà qui va bien accompagner la lecture que je viens de commencer du dernier livre de Robert Darnton ; «  Apologie du livre, demain, aujourd’hui, hier  ». Je lui laisse la parole pour terminer, avec cet extrait d’une intervention sur France Culture au début du mois.


Les Matins – Robert Darnton

Ça ne se fait pas…

Ça ne se fait pas tellement de parler d’argent en pleine période de Noël, mais bon, ça y est, c’est fait, le sapin va bientôt perdre ses aiguilles, et j’ai trouvé dans mon agrégateur,  sur le blog du cabinet Market Partners International, Publishing Trends, un aperçu intéressant des résultats d’une enquête menée par MPI en collaboration avec The Idea Logical Company, la société de consulting animée par Mike Shatzkin, auprès de 135 agents américains.

Rappelons deux  éléments importants pour la compréhension des chiffres et de certaines déclarations de ces agents :

1) Aux Etats-Unis, les pourcentages de droits d’auteurs ne peuvent, comme c’est le cas en France, être calculés sur le prix de vente au public, puisque en l’absence de loi ou d’accord sur le prix unique du livre, celui-ci varie d’un libraire à l’autre. L’assiette de calcul est dont le «  net receipt  », soit le «  revenu net éditeur  », c’est à dire un montant inférieur, ( ce qui revient à l’éditeur une fois déduites les remises accordées aux distributeurs et aux revendeurs.) Ainsi les 25% dont il est question, comme montant courant pour les droits, correspondent environ à 12%, si on calcule sur le prix de vente au public.

2) Le modèle d’agence concerne le contrat qui lie l’éditeur au revendeur. Dans un modèle d’agence, le revendeur agit en son nom mais pour le compte de l’éditeur, et le prix de vente du livre est fixé par l’éditeur. Dans un modèle «  revendeur  », l’éditeur indique un prix de référence, mais le revendeur peut fixer lui-même le prix de vente au public, et pratiquer le rabais de son choix. Aux Etats-Unis, le modèle d’agence a été imposé en février dernier à Amazon par 5 des 6 plus grands éditeurs,  Apple ayant accepté ce modèle de contrat peu avant le lancement de l’iPad.

Rappelons aussi qu’il est là bas quasiment impossible d’être édité sans passer par un agent, ce qui n’est pas (encore) le cas en France, où cette pratique demeure minoritaire.

Publishing Trends fournit les résultats suivants :

«  - 50% des agents considèrent que «  l’impact global des livres numériques et des royalties qui y sont associées  » améliorent les revenus de leurs auteurs sur les contrats de leurs livres déjà publiés (fonds). 25% pensent que les livres numériques favorisent les revenus sur les nouveaux contrats.

- un tiers n’a pas de préférence entre les deux modèles, «  agence  » ou «  revendeur  », alors que 27% préfèrent le modèle d’agence, et 17% préfèrent le modèle «  revendeur  ».

- Les deux tiers considèrent que si les droits numériques ne sont pas spécifiquement accordés à l’éditeur dans le contrat, ils sont réservés par l’auteur pour l’exploitation, indépendamment de toute clause de non-concurrence.

- La majorité considère que 50% ou plus est le «  juste  » taux pour les royalties, et plus de 80% croient que le taux de 25% – la taux standatd actuellement pratiqué (25% sur le revenu net éditeur, qui correspond environ à 12% sur le prix public), va connaître une augmentation dans les trois ans qui viennent, 25% pensant qu’il s’agira d’une forte hausse.

- Plus d’un tiers déclarent qu’ils ont négocié des taux de royalties supéreiur à 25%, incluant des paliers et des bonus, sur les nouveaux contrats de leurs auteurs avec des gros éditeurs.

- Prés de la moitié disent qu’une «  backlist  » non encore publiée au format numérique aide à obtenir un meilleur deal sur les nouveaux contrats. Un groupe plus restreint a négocié des taux supérieurs à 25% sur les nouveaux contrats.

- La moitié des agents s’attendent à ce que les grands groupes d’édition cherchent à acquérir les droits numériques mondiaux dans les trois prochaines années.

- près de 90% des agents qui ont répondu disent que leurs auteurs ont manifesté de l’intérêt pour l’auto-édition, au fur et à mesure que les ventes de livres numériques progressent.

- Un tiers sont tentés par l’idée  de mettre en place leur propre programme de publication électronique, alors que 25% pensent que c’est une très mauvaise idée.

- Et heureusement pour tous, plus de 75% des agents interrogés croient que la meilleure situation est lorsque  l’éditeur des versions imprimés et des versions numériques des livres de leurs auteurs est un seul et même éditeur, si les auteurs perçoivent une juste rémunération.  »

Ici en France, alors que les ventes de livres numériques commencent à frémir, les droits numériques et les conditions de leur exploitation sont aussi l’occasion de débats et de questionnements, et il n’est pas inintéressant de connaître la position des agents américains sur ces questions, dans un pays où le marché numérique atteint les 10%. En parallèle de cette enquête, Shatzkin s’est entretenu avec des CEOs de plusieurs groupes d’édition US, pour connaître le sentiment des éditeurs. Il réserve le résultat de ces entretiens pour la conférence Digital Book World en janvier, mais en a tiré un article sur un sujet connexe, également abordé par ces chefs d’entreprise lors de ces rencontres, que je vous invite à consulter : «  A modest proposal for book marketing«  .

Comme j’aurai la chance d’assister à la conférence DGB, je pourrai vous en dire plus fin janvier, sur les résultats de cette étude.

En attendant, replongeons dans le monde des cadeaux, des vœux, des chocolats et des bisous sous le gui… je vous souhaite à tous de bonnes fêtes..

Changer nos manières de travailler – TOC – Francfort 2010 (2/2)

Intervention présentée à l’occasion de la conférence Tools of Change for Publishing à Francfort le 5 octobre 2010. J’ai parlé sur les images que je replace ci-dessous. Les parties indiquées en gras étaient également insérées dans des slides qui venaient s’intercaler entre les images. Version française -  Partie 2 – (voir la partie 1 )

Si l’éditeur n’est pas informé convenablement de l’enjeu que représente aujourd’hui le numérique, s’il en a une vision lointaine ou floue, s’il n’est pas à l’aise avec ce sujet, comment pourra-t-il être en mesure d’établir avec les auteurs qu’il publie un dialogue constructif à propos du numérique ?

Bien sûr, aujourd’hui, les contrats intègrent tous une clause qui concerne le numérique. Mais ce n’est pas le cas de tous les contrats plus anciens. Et pour être en mesure de construire une offre numérique suffisante, il est impératif d’obtenir la gestion de ces droits. Pour être en mesure de convaincre les auteurs de lui confier ces droits, il faut, à tout le moins, que l’éditeur soit capable de les convaincre qu’il est le le mieux placé pour les exploiter. Et si, dans nos entreprises, le numérique était l’affaire d’un petit groupe d’experts, et que les éditeurs continuaient  de «  faire des livres  » en se réjouissant que d’autres s’occupent de la cuisine numérique, que pourraient-ils dire aux auteurs sur ces questions ? Quelle crédibilité auraient-ils auprès des auteurs sur le numérique ?

La numérisation des livres, cela concerne essentiellement un changement dans leur matérialité, et cela touche donc de plein fouet les métiers qui ont affaire le plus directement à cette matérialité, ceux qui ont en charge la maquette, la mise en page, et pilotent la fabrication.

C’est dans ces métiers que le nombre «  d’heures de vol  » d’un acteur a le plus d’importance. C’est dans ces métiers que se sont accumulés au fil des siècles, depuis l’invention de l’imprimerie, quantité de savoirs-faire directement liés au support.

La page, ils connaissent. Leur métier a pour en parler quantité de mots spécialisés. La relation entre le blanc et le texte, l’écart entre les lettres, entre les mots, la taille de la marge, la manière dont les mots se coupent en fin de ligne… Chaque détail se règle avec minutie, dans les logiciels de mise en page.

Et voici le texte numérique. Capricieux comme un torrent. Qui se moque de la page. Qui s’adapte au terrain. Dont l’affichage ne peut plus se régler aussi finement, aussi définitivement, dans un logiciel. Apprendre à le maîtriser est un art qui s’apparente plus au rafting qu’à la natation en piscine.

Il est encore fréquent que les maquettistes vivent comme des contraintes insupportables les indications qui leur sont données pour que leur travail soit directement utilisable pour un export XML. Leurs habitudes de travail privilégient le résultat  : peu importe ce qui se passe du côté invisible du code. Mais tout manquement à la règle qui veut qu’aujourd’hui on sépare rigoureusement le contenu et la mise en forme se répercute immédiatement sur le fichier XML, sous forme d’erreurs innombrables.

Dans le monde de l’imprimé, l’œil et la main suffisent, pour régler chaque détail de mise en page, même si le logiciel exécute la commande. Dans le monde numérique, le code vient s’intercaler entre l’œil et la main. Code du système d’exploitation du terminal, code du moteur d’affichage utilisé, code du logiciel de lecture, code pour la mise en forme du texte. Peu de  professionnels de l’industrie du livre aiment le code  : mais pour maîtriser la présentation des livres numériques, ils doivent se mettre à l’aimer…

Cette présentation aurait pu être très simple, si, pour réussir à faire passer une entreprise d’édition du XXe au XXIe siècle, il suffisait de faire évoluer chacun des métiers, d’analyser quels changements spécifiques sont attendus concernant chacune des tâches traditionnelles, et d’accompagner le changement à tous ces endroits. Mais les choses ne sont pas aussi simples. Non, il ne suffit pas que chacun des métiers fasse sa petite mutation dans son coin, adopte quelques changements de procédure, quelques nouvelles habitudes.

C’est pourquoi l’accompagnement dans ces changements ne peut prendre la forme d’une simple formation, métier par métier, à de nouvelles procédures ou de nouveaux outils.

Bien sûr, il est nécessaire d’acquérir de nouveaux savoir-faire. Mais il est tout aussi nécessaire d’acquérir de nouvelles connaissances, et de partager le plus largement possible quelque chose que l’on pourrait nommer, sans trop bien savoir ce que c’est la «  culture web  ».

Pourquoi, me direz-vous, réunir des éditeurs toute une matinée pour leur montrer ce qu’est un fil RSS, comment s’installer un agrégateur, comment s’abonner à des blogs  ? Cela ne servira pas à tous «  directement  » dans leur métier. En même temps, quelle façon plus concrète de faire comprendre la puissance de diffusion du web, les possibilités offertes à un document quand on sépare clairement le texte de sa mise en forme  ?

Pourquoi organiser, comme nous l’avons fait cette année, un événement comme le «  printemps du numérique  », 11 rencontres, 16 intervenants, 300 participants  ? Pour que se diffuse parmi l’ensemble des collaborateurs un savoir commun autour des questions liées au numérique, une connaissance des enjeux, des problématiques, des actions menées, des prochaines étapes.

Le changement, cela passe aussi par cela  : des actions simples visant à informer et à expliquer, à susciter le dialogue, à accueillir les questions, les objections, les interrogations de chacun.

Pourquoi réunir régulièrement les responsables marketing de différentes entreprises du groupe, qui pour certaines entrent en compétition les unes avec les autres, et leur proposer de partager leurs pratiques en ce qui concerne l’usage qu’ils font de notre widget (un outil de feuilletage en ligne qui peut s’afficher sur n’importe quel site ou blog)  ? Parce que, passées les premières réticences à l’idée de dévoiler à d’autres des idées qu’ils pourraient bien utiliser eux aussi, l’idée qui finit par prévaloir est que c’est un jeu gagnant / gagnant, et que dans des domaines d’innovation, partager les apprentissages et les idées enrichit tout le monde. Une brèche dans la culture du secret qui est si présente dans de nombreuses entreprises, et un pas vers cette idée que l’on s’enrichit à chaque fois que l’on contribue…

Les avancées technologiques et les changements dans les usages ont un impact considérable sur le destin de tous les livres.

Chacun, au sein d’une maison d’édition, inscrit mentalement son travail dans une chaîne, dont chaque maillon est bien identifié. Ce qu’on appelle la «  chaîne du livre  », une ligne chronologique qui va de l’auteur au lecteur, avec des étapes bien délimitées. Le numérique et le web superposent à cette chaîne qui continue de structurer l’édition de livres imprimés, une structure nouvelle, non linéaire, en réseau. Des acteurs nouveaux apparaissent, et des connexions nouvelles entre l’ensemble des acteurs.

Si encore tous les acteurs de cette nouvelle configuration étaient des êtres humains, il serait possible de s’entendre avec eux sur de nouvelles façons de travailler. Mais aujourd’hui, certains maillons du réseau sont automatisés  : le web et le numérique font intervenir à chaque instant l’algorithme, le logiciel.

Cela concerne aujourd’hui, à cause du développement du e-commerce, non seulement la part numérique de la production, mais également les livres imprimés.

Qu’il s’agisse de livres imprimés,  de livres numériques, de livres augmentés,  le défi est le même  : surnager dans l’océan du web, attirer et retenir l’attention de leurs lecteurs potentiels en rivalité avec une infinité d’autres produits, informations, divertissements, jeux, films, activités qu’il est possible de trouver sur le web.

On dit souvent que le web a fait sauter les barrières à la diffusion pour tous les biens susceptibles d’être numérisés, en supprimant la difficulté liée à l’acheminement de produits physiques. Et c’est vrai. Cependant, une autre barrière se substiitue à celle, très élevée, que constituait la distribution du livre physique  : et c’est tout simplement la difficulté à assurer la visibilité des livres, physiques ou numériques, sur le web.

La meilleure manière d’abaisser cette barrière, c’est d’apporter le plus grand soin à la qualité des métadonnées de nos livres. La condition sine qua non de la visibilité. Cette importance des métadonnées n’est pas encore suffisamment perçue dans les maisons d’édition.

Qu’est-ce qui fait la qualité des métadonnées  :  c’est à la fois leur richesse et la manière dont elles sont présentées. Ce qui est nécessaire,  c’est d’exposer ces données, pour les rendre susceptibles d’être acheminées vers toutes les destinations où elles offriront aux livres qu’elles décrivent la visibilité dont chaque livre a besoin.

Pour cela, les métadonnées doivent être structurées d’une manière standardisée. C’est parce qu’il est bourré de protocoles, de normes, de standards, que le web est un environnement ouvert, et c’est dans cet environnement ouvert que doit s’installer le nouvel écosystème de l’édition et de la diffusion des livres.

Les métadonnées se réduisent-elles  à l’information bibliographique minimale décrivant un livre  : titre, auteur, date de publication, ISBN etc.  ? Ces informations constituent effectivement des métadonnées, c’est à dire des «  données à propos des données  ». Mais les métadonnées peuvent être infiniment plus riches.

Si vous voulez élargir votre vision des métadonnées, consultez la documentation qui accompagne la norme ONIX, qui est LA norme en ce qui concerne les métadonnées. Il est possible de fournir quantité d’informations concernant un livre, et qui vont bien au delà de l’information minimale qui vous vient à l’esprit lorsque l’on évoque les métadonnées.

Si vos métadonnées sont insuffisantes, si elles ne respectent pas les standards en vigueur, vous pouvez publier le meilleur livre qui soit, personne ne le saura, il demeurera invisible sur le web.

Le tournant du numérique ne concerne pas exclusivement le fait de mettre à la disposition de nos lecteurs nos livres en version numérique.

Elle vient bouleverser la manière dont chacun accède à l’information, partage ses goûts, apprend l’existence d’un livre. Tout le dispositif traditionnel qui vise à promouvoir les livres, qu’ils soient disponibles sous forme imprimée ou sous forme numérique mérite d’être revu.
Là aussi, il ne s’agit pas de substituer brutalement les nouvelles pratiques aux anciennes. Les voies traditionnelles utilisées par les équipes marketing et les attachés de presse ne peuvent être abandonnées. Ces équipes continuent de se battre pour obtenir une critique dans un journal, le passage d’un auteur dans une émission de télévision. On continue de faire de la publicité sur les supports traditionnels. Simplement, à ces moyens traditionnels de promouvoir les livres s’en ajoutent d’autres, qui nécessitent des savoir-faire nouveaux. Les médias ne sont plus seuls à être en mesure de mobiliser l’attention du public. Le web permet aujourd’hui à chacun de publier très facilement de l’information. L’époque du «  un parle à beaucoup  » n’est pas révolue, mais celle du «  beaucoup parlent à beaucoup  » a commencé. Cela a commencé avec les blogs, cela continue avec les réseaux sociaux comme Facebook et Twitter, pour citer les plus connus. D’innombrables conversations s’engagent à chaque instant sur le web : pour y participer, une connexion internet suffit. Mais pour parvenir à mettre en place une stratégie d’utilisation pertinente des réseaux sociaux, il ne suffit pas d’engager un community manager, ce qui présente déjà quelques difficultés, car la fonction est si récente que les community managers sont pour le moment autoproclamés, et qu’aucun ne peut se targuer d’une longue expérience et aligner des références.

Les meilleurs community managers ne sortent pas d’une école. Leur école, c’est le web. Les meilleurs communitiy managers pratiquent le web depuis longtemps. Ils ont tenu un blog dès le début des années 2000. Ils ont découvert Facebook avant vos enfants. Ils ont testé Twitter sans bien savoir à quoi Twitter allait bien pouvoir servir. Ils ont appris les codes, la simplicité de ton, la familiarité respectueuse, la manière de parler de soi sans exposer sa vie privée, le mix idéal entre échanges sérieux et plaisanteries sans conséquence. Ils ont appris que pour être entendu il faut écouter, que pour recevoir il faut donner, que pour être suivi il faut suivre, que pour que les gens s’intéressent à vous il faut s’intéresser aux gens.

Ce dont tout éditeur peut rêver, c’est que l’un de ses auteurs se reconnaisse dans cette description du community manager idéal, ainsi l’auteur sera en mesure d’animer lui même la communauté de ses lecteurs, et ira probablement au delà, créant des connnexions avec d’autres auteurs, développant en ligne une activité parallèle à son activité liée à la publication de son livre.

Ce que tout éditeur peut craindre également, c’est qu’un tel auteur choisisse, si son éditeur n’est pas en mesure de lui offrir quelque chose de plus que ce qu’il crée lui même, de se passer de lui, et de se tourner vers d’autres acteurs pour distribuer, diffuser et vendre ses prochains livres.

Le défi est là aujourd’hui :  être en mesure d’entrer en résonance avec la présence en ligne que certains auteurs ont naturellement développée, en leur proposant des services qui leur feront gagner du temps et de la visibilité, tout en mettant en place des pratiques de community management au service de ceux des auteurs qui ne se préoccupent pas de ce qui se passe sur le web, ou ne désirent pas y passer du temps.

Les questions demeurent nombreuses : chercher à développer et animer des communautés peut se faire autour d’un auteur, d’une collection, d’une marque. Quelle granularité adopter ? Faut-il faire un travail fin de segmentation des publics de nos publications, et partir à la recherche de ces publics ? Combien peut-on animer de communautés en même temps ? Combien de conversations simultanées ?  A chacun, selon le genre de livre qu’il publie, selon la connaissance qu’il a de ses lecteurs, de choisir sa stratégie. Mais la règle demeure, quelle que soit la nature de la communauté que l’on souhaite animer : donner, s’engager, être sincère, et surtout laisser tomber le langage formaté du marketing traditionnel.

Le risque existe : si l’éditeur ne se soucie pas de son existence en ligne, s’il ne fait pas partie de la conversation,  il s’exclut lui-même, il tourne le dos à son avenir, et prend le risque que ses auteurs lui tournent le dos, tôt out tard.

Changer nos manières de travailler, c’est aussi s’interroger sur ce qui, dans notre travail, doit absolument être préservé.

Innover, cela ne signifie pas abandonner ce qui fait la valeur et la beauté de ce métier.

Notre curiosité, notre écoute, notre sensibilité, qui nous mettent sur la piste des meilleurs auteurs.

Notre capacité à les reconnaître et à opérer des choix.

Notre savoir-faire éditorial, qui accompagnera ces auteurs vers le meilleur de leur art, et leur manuscrit vers sa forme définitive.

Notre habileté à donner ensuite au texte la forme qui lui convient, et à apporter le plus grand soin à ce qui sera proposé au regard du lecteur.

Notre volonté de permettre la rencontre entre ce travail et le plus grand nombre possible de lecteurs.

Nous avons longtemps été des «  gate keepers  »  : sans nous, il était très difficile pour un auteur d’atteindre son public. Ce temps est révolu, avec l’avènement du web. Si nous ne voulons pas donner raison à ceux qui nous appellent des dinosaures, nous devons plonger dans cet univers et en apprendre les méandres et les arcanes, nous devons être en mesure d’y transposer nos savoir-faire.

La forte complexité des formats et des enjeux, nous en faisons un atout si nous la comprenons et la maîtrisons.

Les nouvelles formes de médiation, les nouvelles instances de validation, nous pouvons travailler avec elles si nous les identifions et apprenons à les comprendre et à les respecter.

Mais nous ne faisons rien de tout cela tout seuls  : il est indispensable de travailler en partenariat avec des acteurs qui possèdent des compétences complémentaires aux nôtres, en particulier dans le domaine des technologies.

Changer, cela ne nous oblige en rien à cesser d’être nous-mêmes  : notre seule chance de continuer à exister dans l’univers culturel et technologique qui est en train d’advenir, c’est bien de demeurer nous-mêmes et de savoir changer, et  c’est aussi de savoir nous ouvrir aux collaborations, échanges, partenariats qui enrichiront notre expérience et nos offres.

Changer nos manières de travailler – TOC – Francfort 2010 1/2

Intervention présentée à l’occasion de la conférence Tools of Change for Publishing à Francfort le 5 octobre 2010. J’ai parlé sur les images que je replace ci-dessous. Les parties indiquées en gras étaient également insérées dans des slides qui venaient s’intercaler entre les images. (Version française) -  Partie 1.

Je déteste le changement. Comme vous. Secrètement, profondément, je déteste devoir changer d’habitude. Je bénis secrètement l’ensemble des routines qui me permettent de ne pas réfléchir à chaque fois que je désire agir.  Et surtout, je  déteste le changement lorsqu’il m’est imposé, lorsque il vient de l’ extérieur.

Aujourd’hui, l’ensemble du secteur de l’édition est confronté à la nécessité de changer. Et c’est d’autant plus difficile, que ces changements viennent de l’extérieur.

Jusqu’à une date récente, le numérique, c’était pour les autres. Les autres industries culturelles, comme la musique ou le cinéma. Les autres secteurs de l’édition, comme le secteur STM.

Le changement, ce n’était pas pour nous. Nos lecteurs, de fiction et de non fiction, jamais ne souhaiteraient lire sur autre chose qu’un livre imprimé, cet objet parfait.


Aujourd’hui, Google est devenu un verbe, et si Facebook était un pays, ce serait le quatrième pays le plus peuplé du monde…

Qu’avons-nous à proposer aux habitants de ce pays sans frontière ? A ceux qui ont une vie en ligne, que la lecture sur écran ne rebute pas, qui prolongent sur le web leur existence avec le plus grand naturel ?

Aujourd’hui les terminaux sont là, qui permettent une lecture immersive suffisamment confortable.

Lorsque une offre de qualité est disponible en numérique, ainsi qu’un moyen simple d’y accéder, le marché peut démarrer.

C’est ce qui s’est passé aux USA  : le lancement du Kindle qui proposait à la fois une expérience de lecture suffisamment confortable, et une expérience d’achat très simple parmi un vaste catalogue de qualité , a été le signal de départ d’une augmentation rapide des ventes de livres numériques. L’arrivée d’autres offres, celles de Barnes & Noble,  celle de Borders, et enfin le lancement spectaculaire de l’iPad et de son iBook store, et les baisses de prix des liseuses qui ont suivi, ne vont qu’amplifier le phénomène.

En France, ce marché en est encore à faire ses tout premiers pas.

Plusieurs raisons à ce décalage  :

1) Il n’y a pas eu ici d’équivalent à «  l’effet Kindle  »  : il n’y a pas encore de liseuse e-Paper connectée.
2) le catalogue d’œuvres disponibles est encore limité
3) Ici, les groupes d’édition sont aussi des groupes de distribution, qui souhaitent développer chacun une activité de distribution numérique. Cela a abouti à une multiplicité de plateformes de distribution numérique, chacune liée à un groupe, et à une complexité dans la présentation de l’offre aux revendeurs.
4) Il existe un différentiel de TVA important entre le livre imprimé et le livre numérique. Du 5,5 % auquel les éditeurs étaient habitués, on passe à 19,6%, alors que le lecteur attend un livre numérique sensiblement moins cher que sa version imprimée. Même en pratiquant un prix identique à la version imprimée, ce qui n’est pas acceptable par le lecteur, le revenu net de l’éditeur diminue.
6) Nous vivons en France depuis 1981 sous le régime de la loi Lang, qui permet à l’éditeur de fixer lui même le prix des livres, et interdit aux revendeurs de pratiquer des ristournes supérieures à 5%. Une loi qui a permis, car telle était sa raison d’être, que la  librairie  puisse continuer d’exister face aux grandes surfaces culturelles et aux hypermarchés.

Depuis bientôt trente ans, les éditeurs fixent le prix des livres. Jusqu’à présent, le livre numérique n’entrait pas dans le cadre de cette loi.

Un projet de loi visant à réguler de la même manière le livre numérique vient d’être déposé au Sénat.

Quelques raisons de penser que les choses vont s’accélérer en 2011 :

- multiplication des canaux de vente
-  enrichissement de l’offre
- arrivée de l’iPad
- diffusion prochaine de plusieurs liseuses connectées
- ouverture d’un site des libraires indépendants
- accords en cours pour la mutualisation des catalogues
- ouverture d’un hub inter-plateformes
- projets de mise en place de librairies numériques par de nombreux acteurs
- proposition de loi sur le prix unique du livre numérique déposé au Sénat.
- loi concernant l’alignement de la TVA du livre numérique sur celle du livre imprimé également en projet.

Il est donc fort probable que nous allons connaître, nous aussi, notre «  moment ebook  ».

Le ‘moment ebook’ est le premier pas : construire une offre numérique est une opportunité pour les éditeurs d’initier le changement.

Cet effort doit s’inscrire dans une vision plus large du futur de la lecture, et doit s’accompagner d’une prise de conscience des profonds bouleversements qui modifient notre environnement.

Tous ceux qui parmi vous ont vécu ou vivent ce moment de mise en route savent que c’est un moment difficile, que les obstacles sont nombreux, de tous ordres, et qu’il faut une volonté forte et une conviction sans faille pour le réussir.

Pourquoi parler de «  moment ebook  »  ? Parce que le livre, une fois qu’il se sépare du support qui a été le sien depuis plusieurs siècles, va probablement connaître des transformations, de forme, d’usage, que nous ne soupçonnons pas aujourd’hui.

Mais le premier pas est celui-ci : offrir des versions numériques de nos livres à  nos lecteurs,  de sorte qu’ils puissent les lire sur le terminal de leur choix. Rien de bien révolutionnaire en apparence. En réalité, de très nombreuses évolutions dans la manière dont nous travaillons.

Pour donner un exemple, j’aimerais reprendre ici les paroles de Laura Dawson, citées sur son blog par Donn Linn : « When are we going to be able to go to meetings like this and not hear about someone beginning to use an XML workflow, setting up a Digital Asset Management system or getting their metadata organized properly without its being treated as something unusual and remarkable ?  »

Je partage tout à fait cette impatience de Laura. Et l’exemple de la mise en place d’un DAM illustre parfaitement ce que je veux dire quand je parle d’obstacles.

Il faut avoir une vision de l’avenir pour décider d’implanter un DAM : c’est un investissement important. Mais sa mise en place n’est rien, en comparaison de l’effort nécessaire pour que cet outil soit adopté et utilisé. Typiquement, il est nécessaire de former tous ces utilisateurs, pour qui l’utilisation du DAM va apparaître comme une gêne, une complication superflue, un de ces multiples tourments que les gens semblent inventer chaque jour pour vous compliquer le travail. Et les utilisateurs ont raison : la seule manière d’obtenir d’eux l’effort immense que constitue le fait de changer ses routines de travail, c’est de leur démontrer que cet effort, une fois devenu une nouvelle habitutde, comporte pour eux des bénéfices, qu’ils ne pourront apercevoir qu’une fois que l’ensemble des équipes aura effectué le changement.

Dans le groupe dans lequel je travaille,  des dizaines de formations ont été organisées, avant que l’archivage des projets dans le DAM commence à devenir systématique. Et ce n’est pas fini : je parlais l’autre jour avec une attachée de presse qui me disait ne jamais l’utiliser, alors même qu’elle avait reçu la formation. Elle n’avait tout simplement pas été assez loin dans la courbe d’apprentissage pour que lui apparaisse la réalité des bénéfices qu’elle pouvait y trouver. Ma conclusion dans ce cas est toujours de me dire, non pas «  mais ils ne comprennent rien  ». C’est de me dire : «  Visiblement, le message n’est pas passé, nous n’avons pas été assez loin, nous n’avons pas assez bien expliqué, montré, il faut accompagner encore.  »

Ce «   moment  ebook  » n’est pas très glamour. De l’extérieur, ça paraît assez simple. Vous qui êtes ici, vous savez tous qu’il n’en est rien. Deux actions doivent être menées en parallèle, l’une qui consiste à mettre en place de nouveaux process pour que chaque nouveauté sorte simultanément en version imprimée et en version numérique. L’autre consiste à numériser le fonds. Mon propos ici n’est pas de vous détailler les process, mais de témoigner de différentes options stratégiques qu’il est possible d’envisager pour ce faire.

L’une consiste à mettre en place une équipe dédiée, à faire intervenir des spécialistes, afin de ne pas perturber la filière traditionnelle. C’est cette équipe qui va se charger de contacter les auteurs afin d’obtenir les droits numériques. C’est elle qui va récupérer les fichiers des livres imprimés, décider du format, choisir la charte graphique numérique, contacter un sous-traitant pour la conversion, effectuer les contrôles de qualité.  C’est une jeune équipe brillante, ils vont vite. Ce sont « les gens de l’informatique ». Ils ont le vocabulaire. Ils connaissent le dédale des formats, les complications des DRM, ils parlent de CSS et de DTD.

Pendant ce temps, les équipes traditionnelles ne sont pas dérangées, et continuent de pratiquer leur métier sans se préoccuper des changements qui sont pris en charge par «  les gens du numérique  ».

Il existe une autre façon de procéder. Elle est plus lente. Elle demande infiniment plus d’efforts.

Elle consiste à ennuyer dès maintenant les éditeurs avec le numérique. Certains seront mécontents, dans un premier temps. et vous diront : j’ai des livres à faire. Depuis des années que je m’occupe de numérique, depuis la vieille époque du CD-Rom, c’est la phrase que j’ai entendue prononcée le plus souvent dans les différentes maisons d’édition où j’ai travaillé  : «  j’ai des livres à faire.  ».

Oui, vous avez des livres à faire. Je sais. Voulez-vous que vos livres soient lus ?  Savez-vous que demain, de plus en plus de lecteurs liront en numérique ?  Est-ce que vous ne vous sentez concerné que par les lecteurs qui préfèrent l’imprimé ? Est-ce que votre auteur n’a pas envie que vous veilliez à la qualité de présentation de son livre sur tous les supports  où il apparaîtra ?

Oui, l’autre option, c’est de faire en sorte que le changement vienne transformer de l’intérieur les pratiques des éditeurs. C’est de travailler à ce que la perception que chacun a de son métier évolue.

Il ne s’agit évidemment pas de transformer les éditeurs en développeurs. Ni de leur demander d’écrire une DTD. Et il y a bien sûr besoin, pendant une longue période, que des personnes spécialisées les accompagnent au quotidien dans la mise en place du changement.

Mais cette équipe est là, non pour se substituer aux éditeurs, mais pour transmettre les connaissances et les savoir-faire qui permettront, progressivement, aux éditeurs de changer leur façon de travailler, de s’approprier le changement.

Les éditeurs, par chance, sont habitués à vivre dans l’incertitude. Chaque projet éditorial est une aventure. Le succès n’est jamais garanti. Ils font des paris. Ils s’engagent. Ils prennent des risques. Si on prend  la peine de leur présenter et de leur expliquer les enjeux du numérique, si on leur donne une chance de s’en emparer, ils le font. Les choses ont déjà beaucoup bougé. Il n’est plus besoin de définir chaque acronyme, chaque mot technique. Le premier signe indiquant que l’appropriation du changement est en cours, c’est lorsque l’on constate que  le vocabulaire devient partagé, lorsque les mots qui faisaient peur se banalisent. Le virage se prend. (voir la partie 2)

Présent de l’indicatif

Ce qui m’a le plus frappée à Francfort, aussi bien au TOC que dans les allées de la foire, c’est une basculement très net dans les thématiques abordées par tous ceux qui s’intéressent au numérique. L’an dernier encore pas mal de conférences, ateliers, présentations se conjuguaient au futur : Le futur du livre, le futur de l’édition, la lecture demain … Cette année, c’est bien différent. On parle de numérique au présent. Finies les envolées lyriques qui commençaient à Gutenberg et se terminaient «  in the Cloud.  » Cela ne signifie pas du tout qu’une mutation complète s’est accomplie en l’espace d’un an. Cela signifie que cette mutation est désormais en œuvre, de manière très concrète, et les professionnels du monde de l’édition ont aujourd’hui le souhait d’échanger non plus sur ce qu’il faudrait faire, ou sur ce qu’ils vont devoir faire, mais bien sur ce qu’ils sont en train de faire. Cela ne signifie pas non plus que le marché du livre numérique, et les usages autour desquels ce marché se construit, est déjà significatif dans toutes les parties du monde. En Europe, qu’il s’agisse de la France, du Royaume Uni, de l’Allemagne, de l’Italie, de l’Espagne, le marché demeure embryonnaire, et c’est seulement aux États-Unis, et selon des modalités différentes au  Japon et en Chine, qu’il atteint aujourd’hui une taille qui commence à être significative. Dans d’autres parties du monde, comme en Amérique Latine, comme l’a souligné Pablo Arrieta lors de son intervention au TOC, l’offre en langue locale est encore totalement inexistante.

C’est ce qui a pu faire penser à certains que le TOC était un peu décevant, et qu’on n’y avait pas réellement trouvé d’idées nouvelles. Certes. Mais justement, c’est ce qui fait que le TOC ne m’a pas déçue : on n’y a pas beaucoup parlé d’idées nouvelles, on y a parlé de pratiques nouvelles, on y a abordé des expériences, des échecs comme des succès, on a pu confronter des témoignages, et découvrir comment ces idées nouvelles, lorsque l’on commence à vouloir les appliquer, les introduire dans la pratique, les incarner dans de vrais projets, suscitaient de nombreuses questions, très concrètes, très quotidiennes, auxquelles chaque éditeur qui passe du discours sur le numérique à la mise en œuvre de pratiques numériques se confronte nécessairement.

Ma propre intervention, dont je vais prochainement mettre en ligne le verbatim, (le temps de mettre à jour sa version française, car j’ai modifié comme toujours pas mal de choses directement dans la version anglaise)  je l’avais préparée tout à fait dans cet état d’esprit : témoigner, modestement, de la manière dont se mettait en place ce passage au numérique dans les maisons d’édition, sous différents aspects, de façon à rendre visible ce qui demeure caché, alimentant les innombrables tirades sur l’attitude timorée et archaïque des éditeurs. J’ai été particulièrement contente, peu après avoir terminé mon intervention, d’assister à celle de Dominique Raccah, des éditions Sourcebooks, qui présentait les expériences de sa maison et a répondu à une question de la salle de manière très catégorique. La question ? «  Vaut-il mieux confier le numérique à une nouvelle équipe, distincte des équipes traditionnelles chargées des livres imprimées ?  » La réponse : un «  non  » sonore de Dominique, qui m’a fait plaisir, car c’est aussi l’un des points sur lesquels j’ai été très affirmative dans mon intervention. Non, il ne faut pas confier le numérique à une équipe dédiée, et laisser le reste de l’entreprise à l’écart des mutations. Surtout pas. Je ne vais pas reprendre ici l’argumentation, je voulais juste souligner cette convergence de vues, qui m’a fait plaisir venant d’une femme dont j’admire le dynamisme et la clairvoyance, et dont je suis depuis longtemps les expériences. Toute son intervention était d’autant plus intéressante qu’elle était ancrée dans ces expériences, qu’elle s’appuyait sur des faits, sur du vécu. À ceux qui disent «  le livre numérique ne coûte rien  », Dominique répond, non pas sur un plan idéologique, mais très concrètement, en indiquant le nombre de formats distincts dans lesquels elle doit livrer ses fichiers, si elle veut pouvoir être distribuée sur l’ensemble des canaux actuels, et le nombre de nouvelles interventions que cela implique à chaque fois. A ceux qui s’impatientent de voir les éditeurs tirer réellement partie du numérique avec des œuvres nouvelles, multimédias, interactives etc. elle présente différents projets, annonce leur coût, et le petit nombre de ventes réalisées, et montre que ce modèle est loin d’être facile à construire. Mais elle ne se décourage pas pour autant, convaincue qu’elle est que chaque fois qu’elle attend d’être sûre, elle rate une occasion d’apprendre. Elle est partisan des tests, des projets légers et rapides, des prises de risque à petite échelle, mais nombreuses et permanentes, et elle associe l’ensemble de sa maison à l’aventure.

Ainsi, le basculement se fait. Lorsque une maison d’édition passe des rèveries numériques à la mise en place d’une véritable filière numérique, chaque jour qui passe soulève de nouvelles questions, dans tous les domaines, juridique, éditorial,  technique, commercial. Tous les niveaux sont touchés : les procédures, les systèmes d’information, les usages. Très peu de cela est encore  visible, ce qui alimente évidemment l’impatience et la raillerie de beaucoup. Parfois, j’aimerais galoper en avant avec les éclaireurs. Le plus souvent, je me réjouis de côtoyer au quotidien, ne cessant d’apprendre d’eux bien plus que je ne puis leur apporter,  ceux qui se retrouvent nombreux chaque année, pour une semaine pleine de rituels que je continue de découvrir un à un, à Francfort.