The Project Gutenberg eBook of Le livre, de l'imprimé au numérique This ebook is for the use of anyone anywhere in the United States and most other parts of the world at no cost and with almost no restrictions whatsoever. You may copy it, give it away or re-use it under the terms of the Project Gutenberg License included with this ebook or online at www.gutenberg.org. If you are not located in the United States, you will have to check the laws of the country where you are located before using this eBook. *** This is a COPYRIGHTED Project Gutenberg eBook. Details Below. *** *** Please follow the copyright guidelines in this file. *** Title: Le livre, de l'imprimé au numérique Author: Marie Lebert Release date: April 11, 2010 [eBook #31944] Most recently updated: October 27, 2010 Language: French Credits: Produced by Al Haines *** START OF THE PROJECT GUTENBERG EBOOK LE LIVRE, DE L'IMPRIMÉ AU NUMÉRIQUE *** Produced by Al Haines LE LIVRE, DE L'IMPRIMÉ AU NUMÉRIQUE MARIE LEBERT NEF, Université de Toronto, 2010 Copyright © 2010 Marie Lebert. Tous droits réservés. ---- Ce livre est dédié à toutes les personnes ayant répondu à mes questions pendant dix ans, en Europe, en Afrique, en Asie, en Australie et dans les Amériques, avec tous mes remerciements pour leur temps et pour leur amitié. ---- Le livre imprimé a cinq siècles et demi. Le livre numérique a bientôt quarante ans. On peut désormais lire un livre sur son ordinateur, sur son assistant personnel (PDA), sur son téléphone mobile, sur son smartphone ou sur une tablette de lecture. Ce livre fait le point de la situation en se basant sur quelques milliers d'heures de navigation sur le web pendant dix ans et sur une centaine d'entretiens conduits de par le monde. Il pourrait également s'intituler: «Du Projet Gutenberg à l'iPad», en passant par 00h00, @folio, Adobe, Amazon, Apple, Bookeen, Le Choucas, CyLibris, Europeana, Franklin, Gallica, Google, l'Internet Archive, Microsoft, Mobipocket, Numilog, Palm, Psion, Sony, Ulysse, Unicode, le W3C et bien d'autres. Marie Lebert, chercheuse et journaliste, s'intéresse aux technologies pour le livre et les langues. Elle est l'auteure de Booknologie: le livre numérique (1971-2010), Une courte histoire de l'ebook (NEF, 2009) et Le Livre 010101 (NEF, 2003). Ses livres sont publiés par le Net des études françaises (NEF) , Université de Toronto, Canada, et sont librement disponibles dans le Projet Gutenberg et dans ManyBooks.net , dans divers formats permettant leur lecture sur tout appareil électronique (ordinateur, PDA, téléphone mobile, smartphone et tablette de lecture). TABLE Introduction Le Projet Gutenberg * Un pari depuis 1971 * Du passé vers l'avenir L'Online Books Page * Un répertoire d'oeuvres en accès libre * Le durcissement du copyright La presse se met en ligne * L'E-zine-list * La presse imprimée Amazon.com * Aux États-Unis * En Europe * Dans le monde * Et les petites librairies? Les éditeurs sur le réseau * Deux éditeurs pilotes * Premiers éditeurs électroniques * Éditeurs traditionnels et technologies La convergence multimédia * Une définition * Des commentaires La mue des bibliothèques * Des bibliothèques numériques * Un exemple: Gallica * Du bibliothécaire au cyberthécaire * Des catalogues en réseau Une information multilingue * De l'ASCII à l'Unicode * De l'anglais au plurilinguisme * Des dictionnaires de langues en ligne Le copyright revisité * Droit d'auteur et internet * Copyleft et Creative Commons * Domaine public et copyright Une vaste encyclopédie * Vers un savoir numérique * Quelques projets pilotes Des best-sellers numériques * Des logiciels de lecture * Stephen King ouvre la voie * D'autres auteurs suivent * Numilog, librairie numérique La cyber-littérature * Poésie * Fables * Romans policiers * Autres oeuvres de fiction * Romans numériques * Mails-romans * Sites hypermédias Vers une bibliothèque planétaire * Google Books * L'Open Content Alliance * Autres initiatives PDA, smartphones et tablettes * Le projet @folio * PDA (assistants personnels) * Smartphones * Tablettes de lecture Conclusion Chronologie Remerciements INTRODUCTION Le livre a beaucoup changé depuis 1971. Le livre imprimé a cinq siècles et demi. Le livre numérique a bientôt quarante ans (le 4 juillet 2011). Il est né en tant que eText #1 du Projet Gutenberg, un projet visionnaire fondé en juillet 1971 par Michael Hart pour distribuer gratuitement les oeuvres littéraires par voie électronique. D'abord considéré comme complètement irréaliste, ce projet trouve un second souffle et un rayonnement international avec l'apparition du web en 1990, puis la création de Distributed Proofreaders en 2000 pour partager la relecture des livres entre des milliers de volontaires. Signe des temps, en novembre 2000, la British Library met en ligne la version numérique de la Bible de Gutenberg, premier livre à avoir jamais été imprimé. Datant de 1454 ou 1455, cette Bible aurait été imprimée par Gutenberg en 180 exemplaires dans son atelier de Mayence, en Allemagne. 48 exemplaires, dont certains incomplets, existeraient toujours, dont trois (deux versions complètes et une partielle) à la British Library. En 2010, des milliers d'oeuvres du domaine public sont en accès libre sur le web. Les libraires et les éditeurs ont pour la plupart un site web. Certains naissent directement sur le web, avec la totalité de leurs transactions réalisées via l'internet. De plus en plus de livres et revues ne sont disponibles qu'en version numérique, pour éviter les coûts d'une publication imprimée. Des auteurs font naître leurs oeuvres sur des sites d'écriture hypertexte ou hypermédia. L'internet est devenu indispensable pour se documenter, pour communiquer, pour avoir accès aux livres et pour élargir ses connaissances. Nous n'avons plus besoin de courir désespérément après l'information dont nous avons besoin. L'information dont nous avons besoin est à notre portée, y compris pour ceux qui suivent leurs études par correspondance, qui vivent en rase campagne, qui travaillent à domicile ou qui sont cloués sur un lit. Le web est devenu une gigantesque encyclopédie, une énorme bibliothèque, une immense librairie et un médium des plus complets. De «statique» dans les livres imprimés, l'information est devenue fluide, avec possibilité d'actualisation constante. On peut désormais lire un livre sur son ordinateur, sur son PDA (assistant personnel), sur son téléphone mobile, sur son smartphone ou sur une tablette de lecture. Tel est le voyage virtuel que nous allons entreprendre dans ces pages. Ce livre est issu des multiples liens tissés sur le Net des études françaises (NEF), fondé en mai 2000 par Russon Wooldridge, professeur à l'Université de Toronto (Canada). Sauf indication contraire, les citations sont des extraits des Entretiens du NEF et des entretiens qui ont suivi pour les actualiser et les compléter. LE PROJET GUTENBERG [Résumé] Le premier livre numérique date de juillet 1971. Il s'agit de l'eText #1 du Projet Gutenberg, un projet visionnaire lancé par Michael Hart pour créer des versions électroniques d'oeuvres littéraires et les diffuser gratuitement dans le monde entier. Au 16e siècle, Gutenberg avait permis à chacun d'avoir des livres imprimés pour un prix relativement modique. Au 21e siècle, le Projet Gutenberg permettrait à chacun d'avoir une bibliothèque numérique gratuite. Ce projet trouve un second souffle et un rayonnement international avec l'apparition du web en 1990, puis la création de Distributed Proofreaders en 2000 pour partager la relecture des livres entre des milliers de volontaires. En 2010, le Projet Gutenberg compte 33.000 livres numériques, des dizaines de milliers de téléchargements par jour, des sites web aux États-Unis, en Australie, en Europe et au Canada, et 38 sites miroirs répartis sur toute la planète. = Un pari depuis 1971 # Gestation Quels furent les tous débuts du projet? Alors étudiant à l'Université de l'Illinois (États-Unis), Michael Hart se voit attribuer quelques millions de dollars de «temps machine» dans le laboratoire informatique (Materials Research Lab) de son université. Le 4 juillet 1971, jour de la fête nationale, il saisit The United States Declaration of Independence (La Déclaration de l'indépendance des États-Unis, signée le 4 juillet 1776) sur le clavier de son ordinateur. En caractères majuscules, puisque les caractères minuscules n'existent pas encore. Le texte électronique représente 5 Ko (kilo- octets). Mais l'envoi d'un fichier de 5 Ko à la centaine de personnes que représente le réseau de l'époque aurait fait imploser celui-ci, la bande passante étant infime. Michael diffuse donc un message indiquant où le texte est stocké - sans lien hypertexte toutefois, puisque le web ne voit le jour que vingt ans après - suite à quoi le fichier est téléchargé par six personnes. Dans la foulée, Michael décide de consacrer ce crédit-temps de quelques millions de dollars à la recherche des oeuvres littéraires disponibles en bibliothèque et à la numérisation de celles-ci. Il décide aussi de stocker les textes électroniques de la manière la plus simple possible, au format ASCII (American Standard Code for Information Interchange), pour que ces textes puissent être lus sans problème quels que soient la machine, la plateforme et le logiciel utilisés. Au lieu d'être un ensemble de pages reliées, le livre devient un texte électronique que l'on peut dérouler en continu, avec des lettres capitales pour les termes en italique, en gras et soulignés de la version imprimée. Peu après, Michael définit la mission du Projet Gutenberg: mettre à la disposition de tous, par voie électronique, le plus grand nombre possible d'oeuvres littéraires. «Nous considérons le texte électronique comme un nouveau médium, sans véritable relation avec le papier», explique-t-il plus tard, en août 1998. «Le seul point commun est que nous diffusons les mêmes oeuvres, mais je ne vois pas comment le papier peut concurrencer le texte électronique une fois que les gens y sont habitués, particulièrement dans les établissements d'enseignement.» Après avoir saisi The United States Declaration of Independence en 1971, Michael poursuit ses efforts en 1972 en saisissant The United States Bill of Rights (La Déclaration des droits américaine). Cette Déclaration comprend les dix premiers amendements ajoutés en 1789 à la Constitution des États-Unis (qui date elle-même de 1787), et définissant les droits individuels des citoyens et les pouvoirs respectifs du gouvernement fédéral et des États. En 1973, un volontaire saisit The United States Constitution (La Constitution des États-Unis) dans son entier. D'année en année, la capacité de la disquette augmente régulièrement - le disque dur n'existe pas encore - si bien qu'il est possible d'envisager des fichiers de plus en plus volumineux. Des volontaires entreprennent la numérisation de la Bible, composée elle-même de plusieurs livres qui peuvent être traités séparément et occuper chacun un fichier différent. Michael Hart débute la saisie des oeuvres complètes de Shakespeare, avec l'aide de volontaires, une pièce de théâtre après l'autre, avec un fichier pour chaque pièce. Cette version n'est d'ailleurs jamais mise en ligne, du fait d'une loi plus contraignante sur le copyright entrée en vigueur dans l'intervalle, et qui vise non pas le texte de Shakespeare, tombé depuis longtemps dans le domaine public, mais les commentaires et notes de l'édition correspondante. D'autres éditions annotées appartenant au domaine public sont mises en ligne quelques années plus tard. Parallèlement, l'internet, qui était encore embryonnaire en 1971, débute véritablement en 1974, suite à la création du protocole TCP/IP (Transmission Control Protocol / Internet Protocol) par Vinton Cerf et Robert Kahn. En 1983, le réseau est en plein essor. # De 10 à 1.000 ebooks En août 1989, le Projet Gutenberg met en ligne son dixième texte, The King James Bible, une bible publiée pour la première fois en 1611 et dont la version la plus connue date de 1769. L'ensemble des fichiers de l'Ancien Testament et du Nouveau Testament représente 5 Mo (méga- octets). En 1990, les internautes sont au nombre de 250.000, et le standard en vigueur est la disquette de 360 Ko. En janvier 1991, Michael Hart saisit Alice's Adventures in Wonderland (Alice au pays des merveilles) de Lewis Carroll (paru en 1865). En juillet de la même année, il saisit Peter Pan de James M. Barrie (paru en 1904). Ces deux classiques de la littérature enfantine tiennent chacun sur une disquette standard. Arrive ensuite le web, opérationnel en 1991. Le premier navigateur, Mosaic, apparaît en novembre 1993. Lorsque l'utilisation du web se généralise, il devient plus facile de faire circuler les textes électroniques et de recruter des volontaires. Le Projet Gutenberg rode sa méthode de travail, avec la numérisation d'un texte par mois en 1991, deux textes par mois en 1992, quatre textes par mois en 1993 et huit textes par mois en 1994. En janvier 1994, le Projet Gutenberg fête son centième livre avec la mise en ligne de The Complete Works of William Shakespeare (Les oeuvres complètes de William Shakespeare). Shakespeare écrivit l'essentiel de son oeuvre entre 1590 et 1613. La production continue ensuite d'augmenter, avec une moyenne de 16 textes par mois en 1995 et 32 textes par mois en 1996. Comme on le voit, entre 1991 et 1996, la production double chaque année. Tout en continuant de numériser des livres, Michael coordonne désormais le travail de dizaines de volontaires. À l'époque, le Projet Gutenberg s'articule en trois grands secteurs: (a) Light Literature (littérature de divertissement), qui inclut par exemple Alice's Adventures in Wonderland, Peter Pan ou Aesop's Fables (Les Fables d'Ésope); (b) Heavy Literature (littérature «sérieuse»), qui inclut par exemple La Bible, les oeuvres de Shakespeare ou Moby Dick; (c) Reference Literature (littérature de référence), composée d'encyclopédies et de dictionnaires, par exemple le Roget's Thesaurus. Cette présentation en trois secteurs est abandonnée par la suite pour laisser place à un classement par rubriques plus détaillé. Le Projet Gutenberg se veut universel, aussi bien pour les oeuvres choisies que pour le public visé, le but étant de mettre la littérature à la disposition de tous, en dépassant largement le public habituel des étudiants et des enseignants. Le secteur consacré à la littérature de divertissement est destiné à amener devant l'écran un public très divers, par exemple des enfants et leurs grands-parents recherchant le texte électronique de Peter Pan après avoir vu le film Hook, ou recherchant la version électronique d'Alice au pays des merveilles après avoir regardé l'adaptation filmée à la télévision, ou recherchant l'origine d'une citation littéraire après avoir vu un épisode de Star Trek. Pratiquement tous les épisodes de Star Trek citent des livres ayant leur correspondant numérique dans le Projet Gutenberg. L'objectif est donc que le public, qu'il soit familier ou non avec le livre imprimé, puisse facilement retrouver des textes entendus dans des conversations, des films, des musiques, ou alors lus dans d'autres livres, journaux et magazines. Les fichiers électroniques prennent peu de place grâce à l'utilisation du format ASCII. On peut facilement les télécharger par le biais de la ligne téléphonique. La recherche textuelle est tout aussi simple. Il suffit d'utiliser la fonction «rechercher» présente dans n'importe quel logiciel. En 1997, la production est toujours de 32 titres par mois. En juin 1997, le Projet Gutenberg met en ligne The Merry Adventures of Robin Hood (Les aventures de Robin des Bois) de Howard Pyle (paru en 1883). En août 1997, il met en ligne son millième texte électronique, La Divina Commedia (La Divine Comédie) de Dante Alighieri (parue en 1321), dans sa langue d'origine, en italien. En août 1998, Michael Hart écrit: «Mon projet est de mettre 10.000 textes électroniques sur l'internet. [NDLR: Ce sera chose faite en octobre 2003.] Si je pouvais avoir des subventions importantes, j'aimerais aller jusqu'à un million et étendre aussi le nombre de nos usagers potentiels de 1,x% à 10% de la population mondiale, ce qui représenterait la diffusion de 1.000 fois un milliard de textes électroniques, au lieu d'un milliard seulement.» # De 1.000 à 10.000 ebooks Entre 1998 et 2000, la moyenne est constante, avec 36 textes par mois. En mai 1999, les collections comptent 2.000 livres. Le 2.000e titre est Don Quijote (Don Quichotte) de Cervantès (paru en 1605), dans sa langue d'origine, en espagnol. Disponible en décembre 2000, le 3.000e titre est le troisième volume de À l'ombre des jeunes filles en fleurs de Marcel Proust (paru en 1919), dans sa langue d'origine, en français. La moyenne passe à 104 livres par mois en 2001. Mis en ligne en octobre 2001, le 4.000e titre est The French Immortals Series (Collection de textes d'Immortels français), dans sa traduction anglaise. Publié à Paris en 1905 par la Maison Mazarin, ce livre rassemble plusieurs fictions d'écrivains couronnés par l'Académie française, comme Émile Souvestre, Pierre Loti, Hector Malot, Charles de Bernard, Alphonse Daudet, etc. Disponible en avril 2002, le 5.000e titre est The Notebooks of Leonardo da Vinci (Les Carnets de Léonard de Vinci), des carnets datant du début du 16e siècle et qui se trouvent toujours dans le Top 100 des livres téléchargés en 2010. En 1988, Michael Hart avait choisi de numériser Alice's Adventures in Wonderland et Peter Pan parce que, dans l'un et l'autre cas, leur version numérisée tenait sur une disquette de 360 Ko, le standard de l'époque. Quinze ans plus tard, en 2002, on dispose de disquettes de 1,44 Mo et on peut aisément compresser les fichiers en les zippant. Un fichier standard peut désormais comporter trois millions de caractères, plus qu'il n'en faut pour un livre de taille moyenne, puisqu'un roman de 300 pages numérisé au format ASCII représente un méga-octet. Un livre volumineux tient sur deux fichiers ASCII, téléchargeables tels quels ou en version zippée. Cinquante heures environ sont nécessaires pour sélectionner un livre de taille moyenne, vérifier qu'il est bien du domaine public, le scanner, le corriger, le formater et le mettre en page. Quelques numéros de livres sont réservés pour l'avenir, par exemple le numéro 1984 (eText #1984) pour le roman éponyme de George Orwell, publié en 1949, et qui est donc loin d'être tombé dans le domaine public. En 2002, les collections s'accroissent de 203 titres par mois. Au printemps 2002, elles représentent le quart des oeuvres du domaine public en accès libre sur le web, recensées de manière pratiquement exhaustive par l'Internet Public Library (IPL), un beau résultat dû au patient travail de milliers de volontaires actifs dans de nombreux pays. 1.000 livres en août 1997, 2.000 livres en mai 1999, 3.000 livres en décembre 2000, 4.000 livres en octobre 2001, 5.000 livres en avril 2002, 10.000 livres en octobre 2003. Le 10.000e livre est The Magna Carta, qui fut le premier texte constitutionnel anglais, signé en 1215. Entre avril 2002 et octobre 2003, les collections doublent, passant de 5.000 à 10.000 livres en dix-huit mois. La moyenne mensuelle est de 348 livres numérisés en 2003. Dix mille livres. Un chiffre impressionnant quand on pense à ce que cela représente de pages scannées, relues et corrigées. Cette croissance rapide est due à l'activité de Distributed Proofreaders (DP), un site conçu en 2000 par Charles Franks pour permettre la correction partagée des livres entre de nombreux volontaires. Les volontaires choisissent un livre en cours de traitement pour relire et corriger une page donnée. Chacun travaille à son propre rythme. A titre indicatif, il est conseillé de relire une page par jour. C'est peu de temps sur une journée, et c'est beaucoup pour le projet. En août 2003, un CD-ROM Best of Gutenberg est disponible avec une sélection de 600 livres. En décembre 2003, date à laquelle le Projet Gutenberg franchit la barre des 10.000 livres, la quasi-totalité des livres (9.400 livres) est gravée sur un DVD. CD-ROM et DVD sont envoyés gratuitement à qui en fait la demande. Libre ensuite à chacun de faire autant de copies que possible et de les distribuer autour de soi. # De 10.000 à 20.000 ebooks En décembre 2003, les collections approchent les 11.000 livres. Plusieurs formats sont désormais présents, par exemple les formats HTML, XML et RTF, le format principal - et obligatoire - restant l'ASCII. Le tout représente 46.000 fichiers, soit une capacité totale de 110 Go (giga-octets). Le 13 février 2004, date de la conférence de Michael Hart au siège de l'UNESCO à Paris, les collections comprennent très exactement 11.340 livres dans 25 langues. En mai 2004, les 12.500 livres disponibles représentent 100.000 fichiers dans vingt formats différents, soit une capacité totale de 135 Go, destinée à doubler chaque année avec l'ajout d'environ 300 livres par mois (338 livres en 2004). Parallèlement, le Project Gutenberg Consortia Center (PGCC), qui avait été lancé en 1997 pour rassembler des collections de livres numériques déjà existantes et provenant de sources extérieures, est officiellement affilié au Projet Gutenberg en 2003. Par ailleurs, le Projet Gutenberg Europe est lancé à l'instigation du Projet Rastko, basé à Belgrade, en Serbie. Distributed Proofreaders Europe débute ses activités en janvier 2004, avec cent livres disponibles en avril 2005. Les livres sont en plusieurs langues pour refléter la diversité linguistique prévalant en Europe, avec cent langues prévues sur le long terme. En janvier 2005, le Projet Gutenberg fête ses 15.000 livres, avec la mise en ligne de The Life of Reason (La vie de raison) de George Santayana (paru en 1906). En juin 2005, le nombre de livres s'élève à 16.000. Si 25 langues seulement étaient présentes en février 2004, 42 langues sont représentées en juin 2005, dont le sanscrit et les langues mayas. En décembre 2006, on compte 50 langues. A la date du 16 décembre 2006, les langues comprenant plus de cinquante titres sont l'anglais (17.377 titres), le français (966 titres), l'allemand (412 titres), le finnois (344 titres), le hollandais (244 titres), l'espagnol (140 titres), l'italien (102 titres), le chinois (69 titres), le portugais (68 titres) et le tagalog (51 titres). Lancé en août 2001, le Project Gutenberg Australia fête ses 500 livres en juillet 2005. En décembre 2006, le Projet Gutenberg franchit la barre des 20.000 livres. Le 20.000e titre est un livre audio, Twenty Thousand Leagues Under the Sea, version anglaise de Vingt mille lieues sous les mers de Jules Verne (publié en 1869). La moyenne est de 345 nouveaux livres par mois en 2006. S'il a fallu 32 ans, de juillet 1971 à octobre 2003, pour numériser les 10.000 premiers livres, il n'aura fallu que trois ans et deux mois, d'octobre 2003 à décembre 2006, pour numériser les 10.000 livres suivants. À la même date, le Project Gutenberg Australia approche les 1.500 livres (c'est chose faite en avril 2007) et le Projet Gutenberg Europe compte 400 livres. La section Project Gutenberg PrePrints est lancée en janvier 2006 pour accueillir de nouveaux documents suffisamment intéressants pour être mis en ligne, mais ne pouvant être intégrés aux collections existantes sans traitement ultérieur par des volontaires, pour diverses raisons: collections incomplètes, qualité insuffisante, conversion souhaitée dans un autre format, etc. Cette section comprend 379 titres en décembre 2006, et plus de 2.000 titres deux ans après. # De 20.000 à 30.000 ebooks Project Gutenberg News, le blog officiel du Projet Gutenberg, débute en novembre 2006 à l'instigation de Mike Cook. Ce blog complète les lettres d'information (hebdomadaire et mensuelle) existant depuis nombre d'années. Le blog offre par exemple les statistiques de production hebdomadaires, mensuelles et annuelles depuis 2001. La production hebdomadaire est de 24 livres en 2001, 47 livres en 2002, 79 livres en 2003, 78 livres en 2004, 58 livres en 2005, 80 livres en 2006, 78 livres en 2007 et 69 livres en 2009. (Le décompte pour 2008 inclut les PrePrints et n'est donc pas pris en compte ici.) La production mensuelle est de 104 livres en 2001, 203 livres en 2002, 348 livres en 2003, 338 livres en 2004, 252 livres en 2005, 345 livres en 2006, 338 livres en 2007 et 298 livres en 2009. La production annuelle est de 1.244 livres en 2001, 2.432 livres en 2002, 4.176 livres en 2003, 4.058 livres en 2004, 3.019 livres en 2005, 4.141 livres en 2006, 4.049 livres en 2007 et 2.190 livres en 2009. Le Projet Gutenberg Canada (PGC) voit le jour le 1er juillet 2007, le jour de la fête nationale, à l'instigation de Michael Shepard et David Jones. Il est suivi de Distributed Proofreaders Canada (DPC), avec une production qui débute en décembre 2007. Les cent premiers livres sont disponibles en mars 2008, avec des livres en anglais, en français et en italien. Le Projet Gutenberg franchit la barre des 25.000 livres en avril 2008. Le 25.000e livre est English Book Collectors (Collectionneurs de livres anglais) de William Younger Fletcher (publié en 1902). Le Projet Gutenberg Europe atteint les 500 livres en octobre 2008. Le Projet Gutenberg comptabilise 30.000 livres en octobre 2009. Le 30.000e livre est The Bird Book (Le livre des oiseaux), de Chester Albert Reed (publié en 1915). Principale source des livres du Projet Gutenberg, Distributed Proofreaders (DP) fête ses dix ans en octobre 2010, avec plus de 18.000 livres numérisés, relus et corrigés par les soins de plusieurs milliers de volontaires. = Du passé vers l'avenir Le pari fait par Michael Hart en 1971 est donc réussi. Mais les résultats du Projet Gutenberg ne se mesurent pas seulement à des chiffres. Les résultats se mesurent aussi à l'influence du projet, qui est considérable. Premier site d'information sur l'internet et première bibliothèque numérique, le Projet Gutenberg a inspiré bien d'autres bibliothèques numériques au fil des ans, à commencer par le Projekt Runeberg pour la littérature scandinave ou le Projekt Gutenberg-DE pour la littérature allemande. Le Projekt Runeberg est la première bibliothèque numérique suédoise de livres du domaine public. Elle est créée en décembre 1992 par Lysator, un club informatique d'étudiants, en collaboration avec la bibliothèque de l'Université de Linköping (Suède), pour produire et organiser des versions électroniques gratuites de la littérature nordique classique. 200 oeuvres sont disponibles en 1998, avec une liste de 6.000 auteurs nordiques en tant qu'outil de développement des collections. Projekt Gutenberg-DE est la première bibliothèque numérique allemande de livres du domaine public. Plusieurs dizaines de textes peuvent être lus en ligne en 1998, avec une page web pour les textes courts et plusieurs pages - une par chapitre - pour les oeuvres plus longues. Une liste alphabétique d'auteurs et de titres est également disponible, ainsi qu'une courte biographie et bibliographie pour chaque auteur. La structure administrative et financière du Projet Gutenberg se limite au strict minimum, avec une devise qui tient en trois mots: «Less is more.» Michael Hart insiste régulièrement sur la nécessité d'un cadre aussi souple que possible laissant toute initiative aux volontaires, et la porte grande ouverte aux idées nouvelles. Le but est d'assurer la pérennité du projet indépendamment des crédits, des coupures de crédits et des priorités culturelles, financières et politiques du moment. Pas de pression possible donc par le pouvoir et par l'argent. Et respect à l'égard des volontaires, qui sont assurés de voir leur travail utilisé pendant de nombreuses années, si ce n'est pour plusieurs générations, d'où l'intérêt d'un format numérique qui soit toujours valable dans quelques siècles. Le suivi régulier du projet est assuré grâce à une lettre d'information hebdomadaire et mensuelle, des forums de discussion, des wikis et des blogs. Les dons servent à financer des ordinateurs et des scanners, et à envoyer des CD-ROM et DVD gratuits à tous ceux qui en font la demande. Suite au CD-ROM Best of Gutenberg disponible en août 2003 avec une sélection de 600 titres et à un premier DVD disponible en décembre 2003 avec 9.400 titres, un deuxième DVD est disponible en juillet 2006 avec 17.000 titres. A partir de 2005, CD-ROM et DVD sont disponibles sous forme d'images ISO sur le site de BitTorrent, ces images pouvant être téléchargées pour graver des CD-ROM et DVD sur place à titre personnel. En 2007, le Projet Gutenberg envoie 15 millions de livres par voie postale sous forme de CD-ROM et DVD. Chose souvent passée sous silence, Michael Hart est le véritable inventeur de l'ebook. Si on considère l'ebook dans son sens étymologique, à savoir un livre numérisé pour diffusion sous forme de fichier électronique, celui-ci aurait donc quarante ans et serait né avec le Projet Gutenberg en juillet 1971. Une paternité beaucoup plus réconfortante que les divers lancements commerciaux dans un format propriétaire ayant émaillé le début des années 2000. Il n'y a aucune raison pour que la dénomination «ebook» ne désigne que l'ebook commercial et soit réservée aux Amazon, Barnes & Noble, 00h00, Gemstar, Google Books et autres. L'ebook non commercial est un ebook à part entière - et non un parent pauvre - tout comme l'édition électronique non commerciale est une forme d'édition à part entière, et tout aussi valable que l'édition commerciale. En 2003, les etexts du Projet Gutenberg deviennent des ebooks, pour coller à la terminologie ambiante. En juillet 1971, l'envoi d'un fichier de 5 Ko à cent personnes aurait fait sauter l'embryon de réseau disponible à l'époque. En novembre 2002, le Projet Gutenberg peut mettre en ligne les 75 fichiers du Human Genome Project - à savoir le séquençage du génome humain -, chaque fichier se chiffrant en dizaines sinon en centaines de méga-octets. Ceci peu de temps après la parution initiale du Human Genome Project en février 2001, puisqu'il appartient d'emblée au domaine public. En 2004, la capacité de stockage des disques durs est telle qu'il serait possible de faire tenir l'intégralité de la Library of Congress au format texte sur un support de stockage coûtant 140 dollars US. Et quelques années seulement nous sépareraient d'une clé USB (Universal Serial Bus) permettant de stocker l'intégralité du patrimoine écrit de l'humanité. La demande est énorme. En témoigne le nombre de téléchargements, qui se comptent désormais en dizaines de milliers par jour. A la date du 31 juillet 2005, on compte 37.532 fichiers téléchargés dans la journée, 243.808 fichiers téléchargés dans la semaine et 1.154.765 fichiers téléchargés dans le mois. A la date du 6 mai 2007, on compte 89.841 fichiers téléchargés dans la journée, 697.818 fichiers téléchargés dans la semaine et 2.995.436 fichiers téléchargés dans le mois. Courant mai, ce nombre atteint les 3 millions. À la date du 15 mars 2010, on compte 103.422 fichiers téléchargés dans la journée, 751.037 fichiers téléchargés dans la semaine et 3.033.824 fichiers téléchargés dans le mois. Ceci uniquement pour le principal site de téléchargement, ibiblio.org (basé à l'Université de Caroline du Nord, aux États-Unis), qui héberge aussi le site du Projet Gutenberg. Le deuxième site de téléchargement est l'Internet Archive, qui est le site de sauvegarde et qui met à la disposition du Projet Gutenberg une capacité de stockage illimitée. Un «Top 100» recense les cent titres et les cent auteurs les plus téléchargés dans la journée, dans la semaine et dans le mois. Le Projet Gutenberg dispose de 38 sites miroirs répartis dans de nombreux pays, et il en cherche d'autres. La circulation des fichiers se fait aussi en mode P2P (Peer-to-Peer), qui permet d'échanger des fichiers directement d'un utilisateur à l'autre. Les livres du Projet Gutenberg peuvent aider à combler la fracture numérique. Ils sont aisément téléchargeables sur PDA. Un ordinateur ou un PDA d'occasion ne coûte que quelques dollars ou quelques dizaines de dollars, en fonction du modèle. Certains PDA fonctionnent à l'énergie solaire, permettant la lecture dans les régions pauvres ou reculées. Plus tard, il sera peut-être possible d'envisager une traduction simultanée dans une centaine de langues, en utilisant un logiciel de traduction automatique qui aurait alors un taux de fiabilité de l'ordre de 99%, un pourcentage dont on est encore loin. Ce logiciel de traduction automatique serait relayé par des traducteurs (non pas des machines, mais des êtres humains), sur un modèle comparable à la technologie OCR actuellement relayée par des correcteurs (non pas des logiciels, mais des êtres humains) pour offrir un contenu de grande qualité. Quelque 40 ans après les débuts du Projet Gutenberg, Michael Hart se définit toujours comme un fou de travail dédiant toute sa vie à son projet, qu'il voit comme étant à l'origine d'une révolution néo- industrielle. Il se définit aussi comme altruiste, pragmatique et visionnaire. Après avoir été traité de toqué pendant de nombreuses années, il force maintenant le respect. Au fil des ans, la mission du Projet Gutenberg reste la même, à savoir changer le monde par le biais de l'ebook gratuit indéfiniment utilisable et reproductible, et favoriser ainsi la lecture et la culture pour tous à moindres frais. Cette mission se résume en quelques mots: «encourager la création et la distribution d'ebooks», par autant de personnes que possible, et par tous les moyens de diffusion possibles, tout en prenant les virages nécessaires pour intégrer de nouvelles idées, de nouvelles méthodes et de nouveaux supports. L'ONLINE BOOKS PAGE [Résumé] L'Online Books Page est créée en janvier 1993 par John Mark Ockerbloom pour répertorier les textes électroniques anglophones du domaine public en accès libre sur le web. À cette date, John Mark est doctorant à l'Université Carnegie Mellon (Pennsylvanie, États-Unis). En 1999, il rejoint l'Université de Pennsylvanie pour travailler à la R&D (recherche et développement) de la bibliothèque numérique. À la même époque, il y transfère l'Online Books Page tout en gardant la même présentation, très sobre, et tout en poursuivant son travail d'inventaire dans le même esprit. Ce répertoire recense plus de 20.000 titres en 2003 (dont 4.000 textes publiés par des femmes), 25.000 titres en 2006, 30.000 titres en 2007 (dont 7.000 textes du Projet Gutenberg) et 35.000 titres en 2009. = Un répertoire d'oeuvres en accès libre Alors que certains numérisent les oeuvres littéraires du domaine public, comme le Projet Gutenberg et des projets connexes, d'autres se donnent pour tâche de répertorier celles qui sont en accès libre sur le web, en offrant au lecteur un point d'accès commun. C'est le cas de John Mark Ockerbloom, doctorant à l'Université Carnegie Mellon (Pittsburgh, Pennsylvanie, États-Unis), qui crée l'Online Books Page pour recenser les oeuvres anglophones. Cinq ans plus tard, en septembre 1998, John Mark relate: «J'étais webmestre ici pour la section informatique de la CMU (Carnegie Mellon University), et j'ai débuté notre site local en 1993. Il comprenait des pages avec des liens vers des ressources disponibles localement, et à l'origine l'Online Books Page était l'une de ces pages, avec des liens vers des livres mis en ligne par des collègues de notre département (par exemple Robert Stockton, qui a fait des versions web de certains textes du Projet Gutenberg). Ensuite les gens ont commencé à demander des liens vers des livres disponibles sur d'autres sites. J'ai remarqué que de nombreux sites (et pas seulement le Projet Gutenberg ou Wiretap) proposaient des livres en ligne, et qu'il serait utile d'en avoir une liste complète qui permette de télécharger ou de lire des livres où qu'ils soient sur l'internet. C'est ainsi que mon index a débuté. J'ai quitté mes fonctions de webmestre en 1996, mais j'ai gardé la gestion de l'Online Books Page, parce qu'entre temps je m'étais passionné pour l'énorme potentiel qu'a l'internet de rendre la littérature accessible au plus grand nombre. Maintenant il y a tant de livres mis en ligne que j'ai du mal à rester à jour. Je pense pourtant poursuivre cette activité d'une manière ou d'une autre. Je suis très intéressé par le développement de l'internet en tant que médium de communication de masse dans les prochaines années. J'aimerais aussi rester impliqué dans la mise à disposition gratuite de livres sur l'internet, que ceci fasse partie intégrante de mon activité professionnelle, ou que ceci soit une activité bénévole menée sur mon temps libre.» Fin 1998, John Mark Ockerbloom obtient son doctorat en informatique. En 1999, il rejoint l'Université de Pennsylvanie, où il travaille à la R&D (recherche et développement) de la bibliothèque numérique. À la même époque, il y transfère l'Online Books Page tout en gardant la même présentation, très sobre, et tout en poursuivant son travail d'inventaire dans le même esprit. Ce répertoire recense 12.000 livres en ligne en 1999, 20.000 livres en 2003 (dont 4.000 textes publiés par des femmes), 25.000 livres en 2006, 30.000 livres en 2007 (dont 7.000 textes du Projet Gutenberg) et 35.000 livres en 2009. = Le durcissement du copyright En 1999, le débat fait rage sur le durcissement de la loi sur le copyright (qui date de 1976) suite à un amendement de cette loi daté du 27 octobre 1998. De nombreuses oeuvres censées tomber dans le domaine public restent désormais sous copyright, au grand dam de Michael Hart, fondateur du Projet Gutenberg, de John Mark Ockerbloom et de bien d'autres. La législation de 1998 porte un coup très rude aux bibliothèques numériques, en plein essor avec le développement du web. Mais comment faire le poids vis-à-vis des majors de l'édition? Nombre de titres doivent être retirés des collections. Michael Hart raconte en juillet 1999: «J'ai été le principal opposant aux extensions du copyright, mais Hollywood et les grands éditeurs ont fait en sorte que le Congrès ne mentionne pas mon action en public. Les débats actuels sont totalement irréalistes. Ils sont menés par "l'aristocratie terrienne de l'âge de l'information" et servent uniquement ses intérêts. Un âge de l'information? Et pour qui?» Pour ne prendre qu'un exemple, le classique mondial Gone With the Wind (Autant en emporte le vent) de Margaret Mitchell, publié en 1939, aurait dû tomber dans le domaine public au bout de 56 ans, en 1995, conformément à la législation de l'époque, libérant ainsi les droits pour les adaptations en tous genres. Suite aux législations de 1976 et 1998, ce classique ne devrait désormais tomber dans le domaine public qu'en 2035. John Mark Ockerbloom explique en août 1999: «À mon avis, il est important que les internautes comprennent que le copyright est un contrat social conçu pour le bien public - incluant à la fois les auteurs et les lecteurs. Ceci signifie que les auteurs doivent avoir le droit d'utiliser de manière exclusive et pour un temps limité les oeuvres qu'ils ont créées, comme ceci est spécifié dans la loi actuelle sur le copyright. Mais ceci signifie également que leurs lecteurs ont le droit de copier et de réutiliser ce travail autant qu'ils le veulent à l'expiration de ce copyright. Aux États-Unis, on voit maintenant diverses tentatives visant à retirer ces droits aux lecteurs, en limitant les règles relatives à l'utilisation de ces oeuvres, en prolongeant la durée du copyright (y compris avec certaines propositions visant à le rendre permanent) et en étendant la propriété intellectuelle à des travaux distincts des oeuvres de création (comme on en trouve dans les propositions de copyright pour les bases de données). Il existe même des propositions visant à entièrement remplacer la loi sur le copyright par une loi instituant un contrat beaucoup plus lourd. Je trouve beaucoup plus difficile de soutenir la requête de Jack Valenti, directeur de la MPAA [Motion Picture Association of America], qui demande d'arrêter de copier les films sous copyright, quand je sais que, si ceci était accepté, aucun film n'entrerait jamais dans le domaine public (...). Si l'on voit les sociétés de médias tenter de bloquer tout ce qu'elles peuvent, je ne trouve pas surprenant que certains usagers réagissent en mettant en ligne tout ce qu'ils peuvent. Malheureusement, cette attitude est à son tour contraire aux droits légitimes des auteurs.» Comment résoudre cela pratiquement? «Ceux qui ont des enjeux dans ce débat doivent faire face à la réalité, et reconnaître que les producteurs d'oeuvres et leurs usagers ont tous deux des intérêts légitimes dans l'utilisation de celles-ci. Si la propriété intellectuelle était négociée au moyen d'un équilibre des principes plutôt que par le jeu du pouvoir et de l'argent que nous voyons souvent, il serait peut-être possible d'arriver à un compromis raisonnable.» LA PRESSE SE MET EN LIGNE [Résumé] Ce qui se passe pour la presse en ligne dans les années 1990 préfigure ce qui se passera pour le livre en ligne dans les années 2000, d'où l'intérêt de ce court chapitre. Au début des années 1990, les premières éditions électroniques de journaux sont disponibles par le biais de services commerciaux tels que America Online ou CompuServe. Avec l'apparition du premier navigateur fin 1993 et la croissance rapide du web qui s'ensuit, nombre de zines non commerciaux proposent une version électronique ou bien naissent directement sous forme électronique. À partir de 1995, les grands titres de la presse en ligne lancent leurs propres sites, très différents selon les titres, et ces sites évoluent ensuite rapidement. = L'E-zine-list Les premiers titres purement électroniques sont des oeuvres courtes, répertoriées dans l'E-zine-list, une liste créée en été 1993 par John Labovitz. Abrégé de fanzine ou magazine, un zine est généralement l'oeuvre d'une personne ou d'un petit groupe. Quant au e-zine, abrégé de zine électronique, il est uniquement diffusé par courriel ou sur un site web. Le plus souvent, il ne contient pas de publicité, ne vise pas un profit commercial et n'est pas dirigé vers une audience de masse. Comment l'E-zine-list débute-t-elle? Dans l'historique présent sur le site, John Labovitz relate qu'à l'origine son intention est de faire connaître Crash, un zine imprimé dont il souhaite faire une version électronique. À la recherche de répertoires, il ne trouve que le groupe de discussion Alt.zines et des archives comme The Well et The Etext Archives. Lui vient alors l'idée d'un répertoire organisé. Il commence avec douze titres classés manuellement sur un traitement de texte. Puis il écrit sa propre base de données. En quatre ans, de 1993 à 1997, les quelques dizaines d'e-zines deviennent plusieurs centaines, et la signification même d'e-zine s'élargit pour recouvrir tout type de publication publiée par voie électronique, même s'«il subsiste toujours un groupe original et indépendant désormais minoritaire qui continue de publier suivant son coeur ou de repousser les frontières de ce que nous appelons un e-zine» (John Labovitz). En été 1998, l'E-zine-list comprend 3.000 titres. = La presse imprimée Au début des années 1990, les premières éditions électroniques de journaux sont disponibles par le biais de services commerciaux tels que America Online ou CompuServe. Suite à l'apparition du premier navigateur fin 1993 et à la croissance rapide du web qui s'ensuit, les organes de presse créent leurs propres sites. Au Royaume-Uni, le Times et le Sunday Times font web commun sur un site dénommé Times Online, avec possibilité de créer une édition personnalisée. Aux États-Unis, la version en ligne du Wall Street Journal est payante, avec 100.000 abonnés en 1998. Celle du New York Times est disponible sur abonnement gratuit. Le Washington Post propose l'actualité quotidienne en ligne et de nombreux articles archivés, le tout avec images, sons et vidéos. Pathfinder (rebaptisé ensuite Time) est le site web du groupe Time-Warner, éditeur de Time Magazine, Sports Illustrated, Fortune, People, Southern Living, Money, Sunset, etc. On peut y lire les articles «maison» et les rechercher par date ou par sujet. Lancé en 1992 en Californie, Wired, premier magazine imprimé entièrement consacré à la culture cyber, est bien évidemment présent sur le web. Mis en ligne en février 1995, le site web du mensuel Le Monde diplomatique est le premier site d'un périodique imprimé français. Monté dans le cadre d'un projet expérimental avec l'Institut national de l'audiovisuel (INA), ce site est inauguré lors du forum des images Imagina. Il donne accès à l'ensemble des articles depuis janvier 1994, par date, par sujet et par pays. L'intégralité du mensuel en cours est consultable gratuitement pendant deux semaines suivant sa parution. Un forum de discussion permet au journal de discuter avec ses lecteurs. Fin 1995, le quotidien Libération met en ligne son site web, peu après le lancement du Cahier Multimédia, un cahier imprimé hebdomadaire inclus dans l'édition du jeudi. Le site propose la Une du quotidien, la rubrique Multimédia (qui regroupe les articles du Cahier Multimédia et les archives des cahiers précédents), le Cahier Livres complété par Chapitre Un (le premier chapitre des nouveautés retenues par le quotidien) et bien d'autres rubriques. La rubrique Multimédia est ensuite rebaptisée Numériques. Le site du quotidien Le Monde est lancé en 1996. On y trouve des dossiers en ligne, la Une en version graphique à partir de 13 h, l'intégralité du journal avant 17 h, l'actualité en liaison avec l'AFP (Agence France-Presse), et des rubriques sur la Bourse, les livres, le multimédia et le sport. En 1998, le journal complet en ligne coûte 5 FF (0,76 euros) alors que l'édition papier coûte 7,50 FF (1,15 euros). S'ils concernent le multimédia, les articles du supplément imprimé hebdomadaire Télévision-Radio-Multimédia sont disponibles gratuitement en ligne dans la rubrique Multimédia, rebaptisée ensuite Nouvelles technologies. L'Humanité est le premier quotidien français à proposer la version intégrale du journal en accès libre. Classés par rubriques, les articles sont disponibles entre 10 h et 11 h du matin, à l'exception de L'Humanité du samedi, disponible en ligne le lundi suivant. Tous les articles sont archivés sur le site. La presse régionale est tout aussi présente sur le web, par exemple Dernières nouvelles d'Alsace et Ouest-France. Lancé en septembre 1995, le site des Dernières nouvelles d'Alsace propose l'intégrale de l'édition du jour ainsi que des informations pratiques: cours de la Bourse, calcul des impôts, etc., avec 5.500 visites quotidiennes en juin 1998. Il offre aussi une édition abrégée en allemand. Le site web du quotidien Ouest-France est mis en ligne en juillet 1996. D'abord appelé France-Ouest, le site est ensuite renommé Ouest-France, du nom du journal. Quelles sont les retombées de l'internet pour les journalistes? Selon Bernard Boudic, le responsable éditorial du site, interviewé en juin 1998, «elles sont encore minces. Nous commençons seulement à offrir un accès internet à chacun (rédaction d'Ouest-France: 370 journalistes répartis dans soixante rédactions, sur douze départements... pas simple). Certains utilisent internet pour la messagerie électronique (courrier interne ou externe, réception de textes de correspondants à l'étranger, envoi de fichiers divers) et comme source d'informations. Mais cette pratique demande encore à s'étendre et à se généraliser. Bien sûr, nous réfléchissons aussi à tout ce qui touche à l'écriture multimédia et à sa rétro-action sur l'écriture imprimée, aux changements d'habitudes de nos lecteurs, etc. (...) Internet est à la fois une menace et une chance. Menace sur l'imprimé, très certainement (captation de la pub et des petites annonces, changement de réflexes des lecteurs, perte du goût de l'imprimé, concurrence d'un média gratuit, que chacun peut utiliser pour diffuser sa propre info, etc.). Mais c'est aussi l'occasion de relever tous ces défis, de rajeunir la presse imprimée.» Tous sujets que l'on retrouve quelques années plus tard dans les débuts du livre numérique: rapport accru de l'auteur avec ses lecteurs, nécessité d'une formation technique, version payante et/ou version gratuite, version numérique et/ou version imprimée, etc. AMAZON.COM [Résumé] Amazon.com est lancé en juillet 1995 par Jeff Bezos à Seattle, sur la côte ouest des États-Unis. La librairie en ligne débute avec dix salariés et trois millions d'articles, et devient vite un géant du commerce électronique. Cinq ans plus tard, en novembre 2000, Amazon compte 7.500 salariés, 28 millions d'articles, 23 millions de clients et quatre filiales au Royaume-Uni (filiale ouverte en octobre 1998), en Allemagne (filiale ouverte à la même date), en France (filiale ouverte en août 2000) et au Japon (filiale ouverte en novembre 2000). Une cinquième filiale est ouverte au Canada (en juin 2002), suivie d'une sixième filiale, Joyo, en Chine (en septembre 2004). Présent dans sept pays et devenu une référence mondiale du commerce en ligne (avec eBay), Amazon fête ses dix ans d'existence en juillet 2005, avec 9.000 salariés et 41 millions de clients. = Aux États-Unis # Les débuts Un nouveau type de librairie naît sur le web au milieu des années 1990. Ces librairies n'ont ni murs, ni vitrine, ni enseigne sur la rue, et toutes leurs transactions se font via l'internet. C'est le cas d'Amazon.com qui, sous la houlette de Jeff Bezos, ouvre ses portes «virtuelles» en juillet 1995 avec un catalogue de trois millions de livres et dix salariés basés à Seattle, dans l'État de Washington, sur la côte ouest des États-Unis. Quinze mois auparavant, au printemps 1994, Jeff Bezos fait une étude de marché pour décider du meilleur «produit» à vendre sur l'internet. Dans sa liste de vingt produits marchands, qui comprennent entre autres les vêtements et les instruments de jardinage, les cinq premiers du classement se trouvent être les livres, les CD, les vidéos, les logiciels et le matériel informatique. «J'ai utilisé tout un ensemble de critères pour évaluer le potentiel de chaque produit», relate Jeff Bezos en 1997 dans le kit de presse d'Amazon. «Le premier critère a été la taille des marchés existants. J'ai vu que la vente des livres représentait un marché mondial de 82 milliards de dollars US. Le deuxième critère a été la question du prix. Je voulais un produit bon marché. Mon raisonnement était le suivant: puisque c'était le premier achat que les gens allaient faire en ligne, il fallait que la somme à payer soit modique. Le troisième critère a été la variété dans le choix: il y avait trois millions de titres pour les livres alors qu'il n'y avait que 300.000 titres pour les CD, par exemple.» # L'expansion Au printemps 1997, Amazon.com - que tout le monde appelle désormais Amazon - décide de s'inspirer du système d'«associés» en ligne lancé quelques mois auparavant par l'Internet Bookshop, grande librairie en ligne britannique. Tout possesseur d'un site web peut vendre des livres appartenant au catalogue d'Amazon et toucher un pourcentage de 15% sur les ventes. L'«associé(e)» sélectionne les titres du catalogue qui l'intéressent, en fonction de ses centres d'intérêt, et rédige ses propres résumés. Amazon reçoit les commandes par son intermédiaire, expédie les livres, rédige les factures et lui envoie un rapport hebdomadaire d'activité avec le règlement correspondant. Au printemps 1998, le réseau d'Amazon compte plus de 30.000 sites affiliés. À la même date, outre les livres, on trouve aussi des CD, des DVD, des jeux informatiques, etc., avec un catalogue qui serait au moins dix fois supérieur à celui des plus grandes chaînes de supermarchés. On peut consulter le catalogue à l'écran, lire le résumé des livres choisis ou même des extraits, puis passer sa commande en ligne. Très attractif, le contenu éditorial du site change quotidiennement et se veut un magazine littéraire en ligne, avec des conseils de lecture, des articles émanant de journalistes connus (qui travaillaient auparavant dans la presse imprimée), des entretiens avec des auteurs et des commentaires de lecteurs. L'évolution rapide d'Amazon en tant que pionnier d'un nouveau modèle économique est suivie de près par des analystes de tous bords, tout comme sa popularité auprès d'un public qui s'habitue aux achats en ligne. En 1998, avec 1,5 million de clients dans 160 pays et une très bonne image de marque, Amazon est régulièrement cité comme un symbole de réussite dans le cybercommerce. Si la librairie en ligne est toujours déficitaire, sa cotation boursière est excellente suite à une introduction à la Bourse de New York en mai 1997. Avant qu'Amazon n'assoie définitivement sa suprématie nationale, la librairie en ligne se lance dans une guerre des prix avec son principal concurrent aux États-Unis, Barnes & Noble.com, à la grande joie des clients qui profitent de cette course aux rabais pour faire une économie de 20 à 40% sur certains titres. Contrairement à Amazon, librairie uniquement «virtuelle», Barnes & Noble.com s'appuie sur sa chaîne de librairies traditionnelles Barnes & Noble (B&N) qui, en 1997, comprend 480 librairies «en dur» réparties dans tout le pays. Barnes & Noble crée sa librairie en ligne en mai 1997, en partenariat avec le géant des médias allemand Bertelsmann, mais rachètera la part détenue par Bertelsmann (36,8%) en juillet 2003 pour 164 millions de dollars US. = En Europe La présence européenne d'Amazon débute en octobre 1998, avec les deux premières filiales implantées simultanément en Allemagne et au Royaume- Uni. En août 2000, Amazon compte 1,8 million de clients au Royaume-Uni, 1,2 million de clients en Allemagne et quelques centaines de milliers de clients en France. La librairie en ligne ouvre sa troisième filiale européenne, Amazon France, avec livres, musique, DVD et vidéos (auxquels viennent s'ajouter logiciels et jeux vidéos en juin 2001), et livraison en 48 heures. À cette date, la vente de livres en ligne en France ne représente que 0,5% du marché du livre, contre 5,4% aux États-Unis. Préparée dans le plus grand secret, l'ouverture d'Amazon France n'est rendue publique que le 23 août 2000. Avec une centaine de salariés, dont certains ont été envoyés en formation au siège du groupe à Seattle, la filiale française s'installe à Guyancourt, en région parisienne, pour l'administration, les services techniques et le marketing. Son service de distribution est basé à Boigny-sur-Bionne, dans la banlieue d'Orléans. Son service clients est basé à La Haye, aux Pays-Bas, dans l'optique d'une expansion future d'Amazon en Europe. Amazon France compte au moins quatre rivaux de taille dans l'hexagone: Fnac.com, Alapage, Chapitre.com et BOL.fr. Le service en ligne Fnac.com s'appuie sur le réseau des librairies Fnac, réparti sur toute la France et dans quelques autres pays européens, et qui appartient au groupe Pinault-Printemps-Redoute. Alapage, librairie en ligne fondée en 1996 par Patrice Magnard, rejoint le groupe France Télécom en septembre 1999 puis devient en juillet 2000 une filiale à part entière de Wanadoo, le fournisseur d'accès internet de France Télécom. Chapitre.com est une librairie en ligne indépendante créée en 1997 par Juan Pirlot de Corbion. BOL.fr est la succursale française de BOL.com (BOL signifiant: Bertelsmann On Line), lancée en août 1999 par Bertelsmann, géant allemand des médias, en partenariat avec la multinationale française Vivendi. Un mois après son lancement en août 2000, Amazon.fr est à la seconde place des sites de biens culturels français. Selon les chiffres publiés le 24 octobre 2000 par Media Metrix Europe, société d'étude d'audience de l'internet, le site reçoit 217.000 visites uniques en septembre 2000, juste devant Alapage (209.000 visites) mais loin derrière Fnac.com (401.000 visites). Suivent Cdiscount.com (115.000 visites) et BOL.fr (74.000 visites). Contrairement à leurs homologues anglophones, les librairies en ligne françaises ne peuvent se permettre les réductions substantielles proposées par celles des États-Unis ou du Royaume-Uni, pays dans lesquels le prix du livre est libre. Si la loi française sur le prix unique du livre (dénommée loi Lang, du nom du ministre à l'origine de cette loi) leur laisse peu de latitude, à savoir un rabais de 5% seulement sur ce prix, les librairies en ligne sont toutefois optimistes sur les perspectives d'un marché francophone international. Dès 1997, un nombre significatif de commandes provient de l'étranger, par exemple 10% des commandes pour le service en ligne de la Fnac. Interrogé par l'AFP (Agence France-Presse) au sujet de la loi Lang, Denis Terrien, président d'Amazon France (jusqu'en mai 2001), répond en août 2000: «L'expérience que nous avons en Allemagne, où le prix du livre est fixe, nous montre que le prix n'est pas l'élément essentiel dans la décision d'achat. C'est tout le service qui est ajouté qui compte. Chez Amazon, nous avons tout un tas de services en plus, d'abord le choix - nous vendons tous les produits culturels français. On a un moteur de recherche très performant. En matière de choix de musique, on est ainsi le seul site qui peut faire une recherche par titre de chanson. Outre le contenu éditorial, qui nous situe entre un magasin et un magazine, nous avons un service client 24 heures/24 7 jours/7, ce qui est unique sur le marché français. Enfin une autre spécificité d'Amazon, c'est le respect de nos engagements de livraison. On s'est fixé pour objectif d'avoir plus de 90% de nos ventes en stock.» Admiré par beaucoup, le modèle économique d'Amazon a toutefois de nombreux revers en matière de gestion du personnel, avec des contrats de travail précaires, de bas salaires et des conditions de travail laissant à désirer. Malgré la discrétion d'Amazon à ce sujet, les problèmes commencent à filtrer. En novembre 2000, le Prewitt Organizing Fund et le syndicat SUD-PTT Loire Atlantique débutent une action de sensibilisation auprès des salariés d'Amazon France pour de meilleures conditions de travail et des salaires plus élevés. Ils rencontrent une cinquantaine de salariés travaillant dans le centre de distribution de Boigny-sur- Bionne. SUD-PTT dénonce dans un communiqué «des conditions de travail dégradées, la flexibilité des horaires, le recours aux contrats précaires dans les périodes de flux, des salaires au rabais, et des garanties sociales minimales». Une action similaire est menée dans les succursales d'Amazon en Allemagne et en Grande-Bretagne. Patrick Moran, responsable du Prewitt Organizing Fund, entend constituer une alliance des salariés de la nouvelle économie sous le nom d'Alliance of New Economy Workers (Alliance des travailleurs de la nouvelle économie). De son côté, Amazon riposte en diffusant des documents internes sur l'inutilité de syndicats au sein de l'entreprise. Fin janvier 2001, la société, qui emploie 1.800 personnes en Europe, annonce une réduction de 15% des effectifs et la fermeture du service clientèle de La Hague (Pays-Bas). Les 240 personnes qu'emploie ce service sont transférées dans les centres de Slough (Royaume-Uni) et Regensberg (Allemagne). = Dans le monde Le deuxième groupe de clients étrangers (après les clients européens) est la clientèle japonaise. Lors d'un colloque international sur les technologies de l'information à Tokyo en juillet 2000, Jeff Bezos annonce son intention prochaine d'implanter Amazon au Japon. Il insiste aussi sur le marché à fort potentiel représenté par ce pays, avec des prix immobiliers élevés se répercutant sur ceux des biens et services, si bien que le shopping en ligne est plus avantageux que le shopping traditionnel. La densité de la population entraîne des livraisons à domicile faciles et peu coûteuses. Un centre d'appels est ouvert en août 2000 dans la ville de Sapporo, sur l'île d'Hokkaido. La filiale japonaise débute ses activités trois mois plus tard, en novembre 2000. Amazon Japon, quatrième filiale du géant américain et première filiale non européenne, ouvre ses portes avec un catalogue de 1,1 million de titres en japonais et 600.000 titres en anglais. Pour réduire les délais de livraison et proposer des délais de 24 à 48 heures au lieu des six semaines nécessaires à l'acheminement des livres depuis les États-Unis, un centre de distribution de 15.800 m2 est créé dans la ville d'Ichikawa, située à l'est de Tokyo. En novembre 2000, entre la maison-mère et les quatre filiales, la société compte 7.500 salariés, 28 millions d'articles et 23 millions de clients. À la même date, Amazon débute l'embauche de personnel francophone connaissant le marché canadien, dans le but de lancer une antenne canadienne française avec vente de livres, musique et films (VHS et DVD). Amazon Canada, cinquième filiale de la société, verra le jour en juin 2002, avec un site bilingue anglais-français. Toujours en novembre 2000, Amazon ouvre sa librairie numérique, avec 1.000 titres disponibles au départ, et une augmentation rapide des collections prévue les mois suivants. Même pour le marketing d'une grande librairie en ligne, le papier n'est pas mort, loin s'en faut. Pour la deuxième année consécutive, en prévision des fêtes de l'année 2000, Amazon envoie un catalogue imprimé à 10 millions de clients. L'année 2001 marque un tournant dans les activités d'Amazon, qui doit faire face aux secousses de la «nouvelle» économie affectant les entreprises internet. Suite à un quatrième trimestre déficitaire en 2000, un plan de réduction de 15% des effectifs entraîne 1.300 licenciements aux États- Unis et 270 licenciements en Europe fin janvier 2001. Amazon opte aussi pour une plus grande diversification de ses produits et décide de vendre non seulement des livres, des vidéos, des CD et des logiciels, mais aussi des produits de santé, des jouets, des appareils électroniques, des ustensiles de cuisine et des outils de jardinage. En novembre 2001, la vente des livres, disques et vidéos ne représente plus que 58% du chiffre d'affaires global, qui est de 4 milliards de dollars US, avec 29 millions de clients. La société devient bénéficiaire au troisième trimestre 2003, pour la première fois depuis sa création. En octobre de la même année, Amazon lance un service de recherche plein texte (Search Inside the Book) après avoir scanné le texte intégral de 120.000 titres, un nombre promis à une croissance rapide. Amazon lance aussi son propre moteur de recherche A9.com. Une sixième filiale est ouverte en Chine sous le nom de Joyo en septembre 2004. En 2004, le bénéfice net d'Amazon est de 588 millions de dollars US, dont 45% généré par ses six filiales, avec un chiffre d'affaires de 6,9 milliards de dollars. Présent dans sept pays (États-Unis, Canada, Royaume-Uni, Allemagne, France, Japon, Chine) et devenu une référence mondiale du commerce en ligne, Amazon fête ses dix ans d'existence en juillet 2005, avec 9.000 salariés et 41 millions de clients attirés par des produits culturels, high-tech et autres à des prix attractifs et une livraison en 48 heures maximum dans les pays hébergeant une plateforme Amazon. Amazon poursuit ensuite sa croissance, vend de plus en plus de livres numériques après avoir racheté la société Mobipocket en avril 2005, et lance sa tablette de lecture, le Kindle, en novembre 2007, avec un catalogue de 80.000 ebooks. 538.000 tablettes sont vendues en 2008. Deux autres modèles, le Kindle 2 et le Kindle DX (avec un écran plus grand), sont lancés respectivement en février et mai 2009. En janvier 2009, Amazon rachète la société Audible.com et sa collection de livres, journaux et magazines audio, à savoir 80.000 titres téléchargeables sur baladeur, téléphone mobile et smartphone. Le catalogue d'Amazon comptabiliserait 450.000 ebooks en mars 2010. = Et les petites librairies? Qu'en est-il des petites librairies, générales et spécialisées? Ces librairies se débrouillent au mieux avec des moyens limités, comme la librairie Ulysse, sise au coeur de Paris, dans l'île Saint-Louis, tout en se faisant peu d'illusions sur le raz-de-marée qui est en train de les emporter. Créée en 1971 par Catherine Domain, la librairie Ulysse est la première librairie au monde uniquement consacrée au voyage. Ses 20.000 livres, cartes et revues neufs et d'occasion recèlent des documents introuvables ailleurs. À la fois libraire et grande voyageuse, Catherine Domain est membre du Syndicat national de la librairie ancienne et moderne (SLAM), du Club des explorateurs et du Club international des grands voyageurs. En 1999, elle décide de se lancer dans un voyage autrement plus ingrat, virtuel cette fois-ci, à savoir la réalisation d'un site web en autodidacte. «Mon site est embryonnaire et en construction», raconte-t- elle en novembre 2000. «Il se veut à l'image de ma librairie, un lieu de rencontre avant d'être un lieu commercial. Il sera toujours en perpétuel devenir! Internet me prend la tête, me bouffe mon temps et ne me rapporte presque rien, mais cela ne m'ennuie pas...» Elle est toutefois pessimiste sur l'avenir des librairies comme la sienne. «Internet tue les librairies spécialisées. En attendant d'être dévorée, je l'utilise comme un moyen d'attirer les clients chez moi, et aussi de trouver des livres pour ceux qui n'ont pas encore internet chez eux! Mais j'ai peu d'espoir...» Dix ans plus tard, Catherine voit l'internet d'un autre oeil. Elle écrit en avril 2010: «Internet a pris de plus en plus de place dans ma vie! Il me permet depuis le 1er avril d'être éditeur grâce à de laborieuses formations Photoshop, InDesign et autres. (...) Quand j'ai commencé à utiliser l'internet, je ne m'attendais vraiment pas à devenir éditeur.» Catherine publie bien entendu des livres de voyage. LES ÉDITEURS SUR LE RÉSEAU [Résumé] À partir de 1996, l'édition électronique creuse son sillon à côté de l'édition traditionnelle, du fait des avantages qu'elle procure: pas de stock, coût de fonctionnement moins élevé, diffusion plus facile. Elle amène aussi un souffle nouveau dans le monde de l'édition, et même une certaine zizanie. On voit des éditeurs traditionnels vendre directement leurs titres en ligne, des éditeurs électroniques commercialiser les versions numérisées de livres publiés par des éditeurs traditionnels, des libraires numériques vendre les versions numérisées de livres publiés par des éditeurs partenaires, sans parler des auteurs qui choisissent de s'auto-éditer sur le web ou de promouvoir eux-mêmes leurs oeuvres publiées, ou encore de nouvelles plateformes d'édition littéraire pour découvrir de nouveaux talents. = Deux éditeurs pilotes La publication en ligne d'un livre à titre gratuit nuit-elle aux ventes de la version imprimée ou non? La National Academy Press (NAP) est la première à prendre un tel risque, dès 1994, avec un pari gagné. «A première vue, cela paraît illogique», écrit Beth Berselli, journaliste au Washington Post, dans un article repris par le Courrier international de novembre 1997. «Un éditeur de Washington, la National Academy Press (NAP), qui a publié sur internet 700 titres de son catalogue actuel, permettant ainsi à tout un chacun de lire gratuitement ses livres, a vu ses ventes augmenter de 17% l'année suivante. Qui a dit que personne n'achèterait la vache si on pouvait avoir le lait gratuitement?» Une politique atypique porte donc ses fruits. Éditeur universitaire, la National Academy Press (qui devient ensuite la National Academies Press) publie environ 200 livres par an, essentiellement des ouvrages scientifiques et techniques et des ouvrages médicaux. En 1994, l'éditeur choisit de mettre en accès libre sur le web le texte intégral de plusieurs centaines de livres, afin que les lecteurs puissent les «feuilleter» à l'écran, comme ils l'auraient fait dans une librairie, avant de les acheter ensuite si utile. La NAP est le premier éditeur à se lancer dans un tel pari, une initiative saluée par les autres maisons d'édition, qui hésitent cependant à se lancer elles aussi dans l'aventure, et ce pour trois raisons: le coût excessif qu'entraîne la mise en ligne de milliers de pages, les problèmes liés au droit d'auteur, et enfin une «concurrence» entre versions numériques et imprimées, qu'ils estiment nuisible à la vente de ces dernières. Dans le cas de la NAP, ce sont les auteurs eux-mêmes qui, pour mieux faire connaître leurs livres, demandent que ceux-ci soient mis en ligne sur le site. Pour l'éditeur, le web est un nouvel outil de marketing face aux 50.000 ouvrages publiés chaque année aux États-Unis. Une réduction de 20% est accordée pour toute commande effectuée en ligne. La présence de ces livres sur le web entraîne aussi une augmentation des ventes par téléphone. En 1998, le site de la NAP propose le texte intégral d'un millier de titres. La solution choisie par la NAP est également adoptée dès 1995 par la MIT Press (MIT: Massachusetts Institute of Technology), qui voit rapidement ses ventes doubler pour les livres disponibles en version intégrale sur le web. = Premiers éditeurs électroniques # Éditel En avril 1995, Pierre François Gagnon, poète et essayiste québécois, décide d'utiliser le numérique pour la réception des textes, leur archivage et leur diffusion. Il crée Éditel, premier site d'auto- édition collective de langue française. En juillet 2000, il relate: «En fait, tout le monde et son père savent ou devraient savoir que le premier site d'édition en ligne commercial fut CyLibris [NDLR: créé en août 1996], précédé de loin lui-même, au printemps de 1995, par nul autre qu'Éditel, le pionnier d'entre les pionniers du domaine, bien que nous fûmes confinés à l'action symbolique collective, faute d'avoir les moyens de déboucher jusqu'ici sur une formule de commerce en ligne vraiment viable et abordable (...). Nous sommes actuellement trois mousquetaires [NDLR: Pierre François Gagnon, Jacques Massacrier et Mostafa Benhamza] à développer le contenu original et inédit du webzine littéraire qui continuera de servir de façade d'animation gratuite, offerte personnellement par les auteurs maison à leur lectorat, à d'éventuelles activités d'édition en ligne payantes, dès que possible au point de vue technico-financier. Est-il encore réaliste de rêver à la démocratie économique?» Beaucoup plus tard, Éditel devient un blog littéraire. # CyLibris Fondé à Paris en août 1996 par Olivier Gainon, CyLibris (de Cy, cyber et Libris, livre) est le pionnier francophone de l'édition électronique commerciale. CyLibris est en effet la première maison d'édition à utiliser l'internet et le numérique pour publier de nouveaux auteurs littéraires et quelques auteurs confirmés, dans divers genres: littérature générale, policiers, science-fiction, théâtre et poésie. Vendus uniquement sur le web, les livres sont imprimés à la commande et envoyés directement au client, ce qui permet d'éviter le stock et les intermédiaires. Des extraits sont disponibles en téléchargement libre. Pendant son premier trimestre d'activité, CyLibris signe des contrats avec treize auteurs. Fin 1999, le site compte 15.000 visites individuelles et 3.500 livres vendus tous exemplaires confondus, avec une année financièrement équilibrée. En 2001, certains titres sont également vendus en version imprimée par un réseau de librairies partenaires, notamment la Fnac, et en version numérique par Mobipocket et Numilog, pour lecture sur ordinateur ou PDA. En 2003, le catalogue de CyLibris comprend une cinquantaine de titres. Olivier Gainon explique en décembre 2000: «CyLibris a été créé d'abord comme une maison d'édition spécialisée sur un créneau particulier de l'édition et mal couvert à notre sens par les autres éditeurs: la publication de premières oeuvres, donc d'auteurs débutants. Nous nous intéressons finalement à la littérature qui ne peut trouver sa place dans le circuit traditionnel: non seulement les premières oeuvres, mais les textes atypiques, inclassables ou en décalage avec la mouvance et les modes littéraires dominantes. Ce qui est rassurant, c'est que nous avons déjà eu quelques succès éditoriaux: le grand prix de la SGDL [Société des gens de lettres] en 1999 pour La Toile de Jean-Pierre Balpe, le prix de la litote pour Willer ou la trahison de Jérôme Olinon en 2000, etc. Ce positionnement de "défricheur" est en soi original dans le monde de l'édition, mais c'est surtout son mode de fonctionnement qui fait de CyLibris un éditeur atypique. Créé dès 1996 autour de l'internet, CyLibris a voulu contourner les contraintes de l'édition traditionnelle grâce à deux innovations: la vente directe par l'intermédiaire d'un site de commerce sur internet, et le couplage de cette vente avec une impression numérique en "flux tendu". Cela permettait de contourner les deux barrières traditionnelles dans l'édition: les coûts d'impression (et de stockage) et les contraintes de distribution. Notre système gérait donc des flux physiques: commande reçue par internet, impression du livre commandé, envoi par la poste. Je précise que nous sous-traitons l'impression à des imprimeurs numériques, ce qui nous permet de vendre des livres de qualité équivalente à celle de l'offset, et à un prix comparable. Notre système n'est ni plus cher, ni de moindre qualité, il obéit à une économie différente qui, à notre sens, devrait se généraliser à terme.» En quoi consiste l'activité d'un éditeur électronique? «Je décrirais mon activité comme double», explique Olivier Gainon. «D'une part celle d'un éditeur traditionnel dans la sélection des manuscrits et leur re- travail (je m'occupe directement de la collection science-fiction), mais également le choix des maquettes, les relations avec les prestataires, etc. D'autre part, une activité internet très forte qui vise à optimiser le site de CyLibris et mettre en oeuvre une stratégie de partenariat permettant à CyLibris d'obtenir la visibilité qui lui fait parfois défaut. Enfin, je représente CyLibris au sein du SNE [NDLR: Syndicat national de l'édition, dont CyLibris fait partie depuis le printemps 2000]. CyLibris est aujourd'hui une petite structure. Elle a trouvé sa place dans l'édition, mais est encore d'une économie fragile sur internet. Notre objectif est de la rendre pérenne et rentable et nous nous y employons.» Le site web se veut aussi un carrefour de la petite édition. Il procure des informations pratiques aux auteurs en herbe: comment envoyer un manuscrit à un éditeur, ce que doit comporter un contrat d'édition, comment protéger ses manuscrits, comment tenter sa chance dans des revues ou concours littéraires, etc. Par ailleurs, l'équipe de CyLibris lance en mai 1999 CyLibris Infos, une lettre d'information électronique gratuite dont l'objectif n'est pas tant de promouvoir les livres de l'éditeur que de présenter l'actualité de l'édition francophone. Volontairement décalée et souvent humoristique sinon décapante, la lettre, d'abord mensuelle, paraît deux fois par mois à compter de février 2000, avec 565 abonnés en octobre 2000. Elle change de nom en février 2001 pour devenir Édition-actu, qui compte 1.500 abonnés en 2003 avant de laisser place au blog de CyLibris. CyLibris (à ne pas confondre avec CyberLibris, une autre société) cesse ses activités éditoriales en 2007. # 00h00 Lui aussi pionnier de l'édition électronique commerciale, 00h00 (qui se prononce «zéro heure») fait son apparition en mai 1998, un peu moins de deux ans après CyLibris. Mais le champ d'investigation de 00h00 est quelque peu différent, en tant que premier éditeur en ligne. Son activité est en effet de vendre des livres numériques via l'internet, et non des livres imprimés comme CyLibris. En 2000, les versions numériques (au format PDF) représentent 85% des ventes, les 15% restants étant des versions imprimées à la demande du client, un service que l'éditeur procure en complément. 00h00 est fondé par Jean-Pierre Arbon et Bruno de Sa Moreira, respectivement ancien directeur général de Flammarion et ancien directeur de Flammarion Multimédia. Bruno de Sa Moreira explique en juillet 1998: «Aujourd'hui mon activité professionnelle est 100% basée sur internet. Le changement ne s'est pas fait radicalement, lui, mais progressivement (audiovisuel puis multimédia puis internet). ... La gestation du projet a duré un an: brainstorming, faisabilité, création de la société et montage financier, développement technique du site et informatique éditoriale, mise au point et production des textes et préparation du catalogue à l'ouverture. (...) Nous faisons un pari, mais l'internet me semble un média capable d'une très large popularisation, sans doute grâce à des terminaux plus faciles d'accès que le seul micro-ordinateur.» «La création de 00h00 marque la véritable naissance de l'édition en ligne», lit-on sur le site web en 1999. «C'est en effet la première fois au monde que la publication sur internet de textes au format numérique est envisagée dans le contexte d'un site commercial, et qu'une entreprise propose aux acteurs traditionnels de l'édition (auteurs et éditeurs) d'ouvrir avec elle sur le réseau une nouvelle fenêtre d'exploitation des droits. Les textes offerts par 00h00 sont soit des inédits, soit des textes du domaine public, soit des textes sous copyright dont les droits en ligne ont fait l'objet d'un accord avec leurs ayants droit. ... Avec l'édition en ligne émerge probablement une première vision de l'édition au 21e siècle. C'est cette idée d'origine, de nouveau départ qui s'exprime dans le nom de marque, 00h00. ... Internet est un lieu sans passé, où ce que l'on fait ne s'évalue pas par rapport à une tradition. Il y faut inventer de nouvelles manières de faire les choses. (...) Le succès de l'édition en ligne ne dépendra pas seulement des choix éditoriaux: il dépendra aussi de la capacité à structurer des approches neuves, fondées sur les lecteurs autant que sur les textes, sur les lectures autant que sur l'écriture, et à rendre immédiatement perceptible qu'une aventure nouvelle a commencé.» Les collections sont très diverses: inédits, théâtre classique français, contes et récits fantastiques, contes et récits philosophiques, souvenirs et mémoires, philosophie classique, réalisme et naturalisme, cyberculture, romans d'enfance, romans d'amour, nouvelles et romans d'aventure. Le recherche est possible par auteur, par titre et par genre. Pour chaque livre, on a un descriptif court, un descriptif détaillé, la table des matières et une courte présentation de l'auteur. S'y ajoutent ensuite les commentaires des lecteurs. Pas de stock, pas de contrainte physique de distribution, mais un lien direct avec le lecteur et entre les lecteurs. Sur le site, les internautes/lecteurs peuvent créer leur espace personnel pour y rédiger leurs commentaires, participer à des forums ou recommander des liens vers d'autres sites. Ils peuvent s'abonner à la lettre d'information de 00h00 pour être tenus au courant des nouveautés. L'éditeur produit aussi des clips littéraires pour présenter certains des ouvrages publiés. En 2000, le catalogue comprend 600 titres, qui comprennent une centaine d'oeuvres originales et des rééditions électroniques de livres publiés par d'autres éditeurs. Les oeuvres originales sont réparties en plusieurs collections: nouvelles écritures interactives et hypertextuelles, premiers romans, documents d'actualité, études sur les NTIC (nouvelles technologies de l'information et de la communication), co-éditions avec des éditeurs traditionnels ou de grandes institutions. Le paiement est effectué en ligne grâce à un système sécurisé mis en place par la Banque populaire. Ceux que le paiement en ligne rebute peuvent régler leur commande par carte bancaire (envoi par fax) ou par chèque (envoi par courrier postal). En septembre 2000, 00h00 est racheté par Gemstar-TV Guide International, société américaine spécialisée dans les produits et services numériques pour les médias. Quelques mois auparavant, en janvier 2000, Gemstar rachète les deux sociétés californiennes ayant lancé les premières tablettes de lecture, NuvoMedia, créatrice du Rocket eBook, et SoftBook Press, créatrice du SoftBook Reader. Selon un communiqué de Henry Yuen, président de Gemstar, «les compétences éditoriales dont dispose 00h00 et ses capacités d'innovation et de créativité sont les atouts nécessaires pour faire de Gemstar un acteur majeur du nouvel âge de l'édition numérique qui s'ouvre en Europe.» La communauté francophone ne voit pas ce rachat d'un très bon oeil, la mondialisation de l'édition semblant justement peu compatible avec l'innovation et la créativité. Moins de trois ans plus tard, en juin 2003, 00h00 cesse définitivement ses activités, tout comme la branche eBook de Gemstar et les tablettes lancées depuis. Il reste le souvenir d'une belle aventure. En octobre 2006, Jean-Pierre Arbon, devenu chanteur, raconte sur son site: «J'avais fondé, avec Bruno de Sa Moreira, une maison d'édition d'un genre nouveau, la première au monde à tenter à grande échelle l'aventure de l'édition en ligne. Tout était à faire, à inventer. L'édition numérique était terra incognita: on explorait, on défrichait.» = Éditeurs traditionnels et technologies # L'exemple du Choucas, éditeur indépendant Fondé en 1992 par Nicolas et Suzanne Pewny, alors libraires en Haute- Savoie, Le Choucas est une petite maison d'édition spécialisée dans les romans policiers, la littérature, la photographie et les livres d'art. En juin 1998, Nicolas Pewny raconte: «Le site des éditions du Choucas a été créé fin novembre 1996. Lorsque je me suis rendu compte des possibilités qu'internet pouvait nous offrir, je me suis juré que nous aurions un site le plus vite possible. Un petit problème: nous n'avions pas de budget pour le faire réaliser. Alors, au prix d'un grand nombre de nuits sans sommeil, j'ai créé ce site moi-même et l'ai fait référencer (ce n'est pas le plus mince travail). Le site a alors évolué en même temps que mes connaissances (encore relativement modestes) en la matière et s'est agrandi, et a commencé à être un peu connu même hors France et Europe. Le changement qu'internet a apporté dans notre vie professionnelle est considérable. Nous sommes une petite maison d'édition installée en province. Internet nous a fait connaître rapidement sur une échelle que je ne soupçonnais pas. Même les médias "classiques" nous ont ouvert un peu leur portes grâce à notre site. Les manuscrits affluent par le courrier électronique. Ainsi nous avons édité deux auteurs québécois [NDLR: Fernand Héroux et Liz Morency, auteurs de Affaire de coeurs, paru en septembre 1997]. Beaucoup de livres se réalisent (corrections, illustrations, envoi des documents à l'imprimeur) par ce moyen. Dès le début du site nous avons reçu des demandes de pays où nous ne sommes pas (encore) représentés: États-Unis, Japon, Amérique latine, Mexique, malgré notre volonté de ne pas devenir un site "commercial" mais d'information et à "connotation culturelle". (Nous n'avons pas de système de paiement sécurisé, nous avons juste référencé sur une page les libraires qui vendent en ligne.)» Comment Nicolas voit-il l'avenir? «J'aurais tendance à répondre par deux questions: Pouvez vous me dire comment va évoluer internet? Comment vont évoluer les utilisateurs? Nous voudrions bien rester aussi peu "commercial" que possible et augmenter l'interactivité et le contact avec les visiteurs du site. Y réussirons-nous? Nous avons déjà reçu des propositions qui vont dans un sens opposé. Nous les avons mises "en veille". Mais si l'évolution va dans ce sens, pourrons-nous résister, ou trouver une "voie moyenne"? Honnêtement, je n'en sais rien.» Le Choucas cesse malheureusement ses activités en mars 2001, une disparition de plus à déplorer chez les petits éditeurs indépendants. «Comme je le prévoyais, notre distributeur a déposé son bilan», raconte Nicolas en juin 2001. «Et malheureusement les éditions du Choucas (ainsi que d'autres éditeurs) ont cessé leur activité éditoriale. Je maintiens gracieusement le site web pour témoignage de mon savoir-faire d'éditeur on- et off-line. (...) Je ne regrette pas ces dix années de lutte, de satisfactions et de malheurs passés aux éditions du Choucas. J'ai connu des auteurs intéressants dont certains sont devenus des amis... Maintenant je fais des publications et des sites internet pour d'autres. En ce moment pour une ONG [organisation non gouvernementale] internationale caritative; je suis ravi de participer (modestement) à leur activité à but non lucratif. Enfin on ne parle plus de profit ou de manque à gagner, c'est reposant.» Fort de son expérience dans le domaine de la librairie, de l'édition, de l'internet et du numérique, Nicolas Pewny est maintenant consultant en édition électronique et met ses compétences au service d'autres organismes. # Technologies numériques et éditeurs Les technologies numériques conduisent les éditeurs scientifiques et techniques à repenser leur travail et, pour certains, à s'orienter vers une diffusion en ligne, les tirages imprimés restant toujours possibles à titre ponctuel. Certaines universités diffusent désormais des manuels «sur mesure» composés d'un choix de chapitres et d'articles sélectionnés dans une base de données, auxquels s'ajoutent les commentaires des professeurs. Pour un séminaire, un très petit tirage peut être fait à la demande, à partir de documents transmis par voie électronique à un imprimeur. Quant aux revues spécialisées, certaines optent pour une publication en ligne complétée par un partenariat avec une société spécialisée se chargeant des impressions à la demande. Enseignante-chercheuse à l'École pratique des hautes études (EPHE, Paris-Sorbonne), Marie-Joseph Pierre écrit en février 2003: «Il me paraît évident que la publication des articles et ouvrages au moins scientifiques se fera de plus en plus sous forme numérique, ce qui permettra aux chercheurs d'avoir accès à d'énormes banques de données, constamment et immédiatement évolutives, permettant en outre le contact direct et le dialogue entre les auteurs. Nos organismes de tutelle, comme le CNRS [Centre national de la recherche scientifique] par exemple, ont déjà commencé à contraindre les chercheurs à publier sous ce mode, et incitent fortement les laboratoires à diffuser ainsi leurs recherches pour qu'elles soient rapidement disponibles. Nos rapports d'activité à deux et à quatre ans - ces énormes dossiers peineux résumant nos labeurs - devraient prochainement se faire sous cette forme. Le papier ne disparaîtra pas pour autant, et je crois même que la consommation ne diminuera pas... Car lorsqu'on veut travailler sur un texte, le livre est beaucoup plus maniable. Je m'aperçois dans mon domaine que les revues qui ont commencé récemment sous forme numérique commencent à être aussi imprimées et diffusées sur papier dignement relié. Le passage de l'un à l'autre peut permettre des révisions et du recul, et cela me paraît très intéressant.» Infographiste, Marc Autret a derrière lui dix ans de journalisme multi- tâches et d'hyperformation dans le domaine de l'édition, du multimédia et du droit d'auteur. Il explique en décembre 2006: «C'est un "socle" irremplaçable pour mes activités d'aujourd'hui, qui en sont le prolongement technique. Je suis un "artisan" de l'information et je travaille essentiellement avec des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution numérique, que j'ai du pain sur la planche pour pas mal d'années. Aujourd'hui je me concentre sur le conseil, l'infographie, la typographie, le pré-presse et le webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme l'animation 3D, l'automatisation des tâches de production, l'intégration multi-supports, la base de données et toutes les technologies issues de XML [eXtensible Markup Language] vont s'ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux produire, soit pour mieux communiquer. C'est là que je vois l'évolution, ou plutôt l'intensification, de mon travail.» Comment Marc voit-il l'avenir de l'ebook? «Sans vouloir faire dans la divination, je suis convaincu que l'e-book (ou "ebook": impossible de trancher!) a un grand avenir dans tous les secteurs de la non-fiction. Je parle ici de livre numérique en termes de "logiciel", pas en terme de support physique dédié (les conjectures étant plus incertaines sur ce dernier point). Les éditeurs de guides, d'encyclopédies et d'ouvrages informatifs en général considèrent encore l'e-book comme une déclinaison très secondaire du livre imprimé, sans doute parce que le modèle commercial et la sécurité de cette exploitation ne leur semblent pas tout à fait stabilisés aujourd'hui. Mais c'est une question de temps. Les e-books non commerciaux émergent déjà un peu partout et opèrent d'une certaine façon un défrichage des possibles. Il y a au moins deux axes qui émergent: (a) une interface de lecture/consultation de plus en plus attractive et fonctionnelle (navigation, recherche, restructuration à la volée, annotations de l'utilisateur, quizz interactif...); (b) une intégration multimédia (vidéo, son, infographie animée, base de données, etc.) désormais fortement couplée au web. Aucun livre physique n'offre de telles fonctionnalités. J'imagine donc l'e-book de demain comme une sorte de wiki cristallisé, empaqueté dans un format. Quelle sera alors sa valeur propre? Celle d'un livre: l'unité et la qualité du travail éditorial!» Concepteur du projet @folio, un projet de tablette de lecture nomade, Pierre Schweitzer explique en décembre 2006: «La lecture numérique dépasse de loin, de très loin même, la seule question du "livre" ou de la presse. Le livre et le journal restent et resteront encore, pour longtemps, des supports de lecture techniquement indépassables pour les contenus de valeur ou pour ceux dépassant un seuil critique de diffusion. Bien que leur modèle économique puisse encore évoluer (comme pour les "gratuits" la presse grand public), je ne vois pas de bouleversement radical à l'échelle d'une seule génération. Au-delà de cette génération, l'avenir nous le dira. On verra bien. Pour autant, d'autres types de contenus se développent sur les réseaux. Internet défie l'imprimé sur ce terrain-là: celui de la diffusion en réseau (dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où l'imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux acteurs peuvent venir prendre leur place. Or, dans ce domaine nouveau, les équilibres économiques et les logiques d'adoption sont radicalement différents de ceux que l'on connaît dans l'empire du papier - voir par exemple l'évolution des systèmes de validation pour les archives ouvertes dans la publication scientifique ou les modèles économiques émergents de la presse en ligne. Il est donc vain, dangereux même, de vouloir transformer au forceps l'écologie du papier - on la ruinerait à vouloir le faire! À la marge, certains contenus très spécifiques, certaines niches éditoriales, pourraient être transformées - l'encyclopédie ou la publication scientifique le sont déjà: de la même façon, les guides pratiques, les livres d'actualité quasi-jetables et quelques autres segments qui envahissent les tables des librairies pourraient l'être, pour le plus grand bonheur des libraires. Mais il n'y a là rien de massif ou brutal selon moi: nos habitudes de lecture ne seront pas bouleversées du jour au lendemain, elles font partie de nos habitudes culturelles, elles évoluent lentement, au fur et à mesure de leur adoption (= acceptation) par les générations nouvelles.» LA CONVERGENCE MULTIMÉDIA [Résumé] La convergence multimédia entraîne l'unification progressive des secteurs liés à l'information (imprimerie, édition, presse, conception graphique, enregistrements sonores, films, etc.) suite à l'utilisation des techniques de numérisation, avec un processus matériel de production qui s'en trouve considérablement accéléré. Si certains secteurs créent de nouveaux emplois, par exemple ceux liés à la production audio-visuelle, d'autres secteurs sont soumis à des restructurations drastiques. La convergence multimédia a de nombreux revers, par exemple des contrats précaires pour les salariés, l'absence de syndicats pour les télétravailleurs ou le droit d'auteur mis à mal pour les auteurs, tous sujets débattus lors du Colloque sur la convergence multimédia organisé en janvier 1997 à Genève (Suisse) par l'Organisation internationale du travail (OIT). = Une définition On peut définir la convergence multimédia comme la convergence de l'informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication et de la distribution utilisant les mêmes inforoutes (appelées aussi autoroutes de l'information). Plus précisément, de quoi s'agit-il? La numérisation permet de créer, d'enregistrer, de combiner, de stocker, de rechercher et de transmettre des textes, des sons et des images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l'écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l'écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l'édition (qui produit des livres) et l'industrie musicale (qui produit des disques) travaillent ensuite de concert pour produire des CD-ROM. Ceci n'est pas le premier bouleversement affectant la chaîne de l'édition. Dans les années 1970, l'imprimerie traditionnelle est d'abord ébranlée par les machines de photocomposition. Le coût de l'impression continue ensuite de baisser avec les photocopieurs, les photocopieurs couleur, les procédés d'impression assistée par ordinateur et le matériel d'impression numérique. Dans les années 1990, l'impression est souvent assurée à bas prix par des ateliers de PAO (publication assistée par ordinateur). Tout contenu est désormais systématiquement numérisé pour permettre son transfert par voie électronique. La numérisation accélère le processus matériel de production. Dans la presse, alors qu'auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes envoient désormais directement leurs textes pour mise en page. Dans l'édition, le rédacteur, le concepteur artistique et l'infographiste travaillent souvent simultanément au même ouvrage. On assiste progressivement à la convergence de tous les secteurs liés à l'information: imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc. Si, dans certains secteurs, ce phénomène entraîne de nouveaux emplois, par exemple ceux liés à la production de films ou de produits audio- visuels, d'autres secteurs sont soumis à d'inquiétantes restructurations. Ces problèmes sont suffisamment préoccupants pour être débattus lors du Colloque sur la convergence multimédia organisé en janvier 1997 par l'Organisation internationale du travail (OIT) à Genève. = Des commentaires Plusieurs interventions faites au cours de ce colloque soulèvent des problèmes de fond, dont certains sont toujours d'actualité en 2010. Bernie Lunzer, secrétaire-trésorier de la Newspaper Guild (États-Unis), insiste sur les batailles juridiques faisant rage autour des problèmes de propriété intellectuelle. Ces batailles visent notamment l'attitude des directeurs de publication, qui amènent les écrivains indépendants à signer des contrats particulièrement choquants cédant tous leurs droits au directeur de publication, avec une contrepartie financière ridicule. Heinz-Uwe Rübenach, de l'Association allemande de directeurs de journaux (Bundesverband Deutscher Zeitungsverleger), insiste lui aussi sur la nécessité pour les entreprises de presse de gérer et de contrôler l'utilisation sur le web des articles de leurs journalistes, et d'obtenir une contrepartie financière leur permettant de continuer à investir dans les nouvelles technologies. Un problème tout aussi préoccupant est celui de la pression constante exercée sur les journalistes des salles de rédaction, dont le travail doit être disponible à longueur de journée et non plus seulement en fin de journée. Ces tensions à répétition sont encore aggravées par un travail à l'écran pendant huit à dix heures d'affilée. Le rythme de travail et l'utilisation intensive de l'ordinateur entraînent des problèmes de sécurité au travail. Après quelques années de ce régime, des journalistes «craquent» à l'âge de 35 ou 40 ans. Selon Carlos Alberto de Almeida, président de la Fédération nationale des journalistes au Brésil (FENAJ: Federação Nacional dos Jornalistas), les nouvelles technologies étaient censées rationaliser le travail et réduire sa durée afin de favoriser l'enrichissement intellectuel et les loisirs. En pratique, les professionnels des médias sont obligés d'effectuer un nombre d'heures de travail en constante augmentation. La journée légale de cinq heures est en fait une journée de dix à douze heures. Les heures supplémentaires ne sont pas payées, comme ne sont pas payées non plus celles effectuées le week-end par les journalistes censés être en période de repos. La numérisation des documents et l'automatisation des méthodes de travail accélèrent le processus de production mais elles entraînent aussi une diminution de l'intervention humaine et donc un accroissement du chômage. Alors qu'auparavant le personnel de production devait retaper les textes du personnel de rédaction, la mise en page automatique permet de combiner les deux tâches de rédaction et de composition. Etienne Reichel, directeur suppléant de Viscom (Visual Communication), association suisse pour la communication visuelle, démontre que le transfert de données via l'internet et la suppression de certaines phases de production réduisent le nombre d'emplois. Le travail de vingt typographes est maintenant assuré par six travailleurs qualifiés, alors que les entreprises de communication visuelle étaient auparavant génératrices d'emplois. Par contre, l'informatique permet à certains professionnels de s'installer à leur compte, comme c'est le cas pour 30% des salariés ayant perdu leur emploi suite à la restructuration de leur entreprise. Professeur associé en sciences sociales à l'Université d'Utrecht (Pays- Bas), Peter Leisink précise lui aussi que la rédaction des textes et la correction des épreuves se font désormais à domicile, le plus souvent par des travailleurs ayant pris le statut d'indépendants à la suite de licenciements et de délocalisations ou fusions d'entreprises. «Or cette forme d'emploi tient plus du travail précaire que du travail indépendant», explique-t-il, «car ces personnes n'ont que peu d'autonomie et sont généralement tributaires d'une seule maison d'édition.» A part quelques cas particuliers mis en avant par les organisations d'employeurs, la convergence multimédia entraîne des suppressions massives d'emplois. Selon Michel Muller, secrétaire général de la FILPAC (Fédération des industries du livre, du papier et de la communication) en France, les industries graphiques françaises ont perdu 20.000 emplois en dix ans. Entre 1987 et 1996, les effectifs sont passés de de 110.000 à 90.000 salariés. Les entreprises mettent en place des plans sociaux coûteux pour favoriser le reclassement des personnes licenciées, en créant des emplois souvent artificiels, alors qu'il aurait été préférable de financer des études fiables sur la manière d'équilibrer créations et suppressions d'emplois lorsqu'il était encore temps. Partout dans le monde, de nombreux postes à faible qualification technique sont remplacés par des postes exigeant des qualifications techniques élevées. Les personnes peu qualifiées sont licenciées. D'autres suivent une formation professionnelle complémentaire, parfois auto-financée et prise sur leur temps libre, et cette formation professionnelle ne garantit pas pour autant le réemploi. Directeur de AT&T, géant des télécommunications aux États-Unis, Walter Durling insiste sur le fait que les nouvelles technologies ne changeront pas fondamentalement la situation des salariés au sein de l'entreprise. L'invention du film n'a pas tué le théâtre et celle de la télévision n'a pas fait disparaître le cinéma. Les entreprises devraient créer des emplois liés aux nouvelles technologies et les proposer à ceux qui sont obligés de quitter d'autres postes devenus obsolètes. Des arguments bien théoriques alors que le problème est plutôt celui du pourcentage. Combien de créations de postes pour combien de licenciements? De leur côté, les syndicats préconisent la création d'emplois par l'investissement, l'innovation, la formation aux nouvelles technologies, la reconversion des travailleurs dont les emplois sont supprimés, des conventions collectives équitables, la défense du droit d'auteur, une meilleure protection des travailleurs dans le secteur artistique, et enfin la défense des télétravailleurs en tant que travailleurs à part entière. LA MUE DES BIBLIOTHÈQUES [Résumé] «Qu'il me suffise, pour le moment, de redire la sentence classique: "La bibliothèque est une sphère dont le centre véritable est un hexagone quelconque, et dont la circonférence est inaccessible".» Cette citation de Jorge Luis Borges - issue de La bibliothèque de Babel (1941) - pourrait tout aussi bien définir la bibliothèque numérique. La numérisation du patrimoine mondial est en cours, d'abord pour le texte, et ensuite pour l'image et le son, avec la mise en ligne de centaines puis de milliers d'oeuvres du domaine public, de publications littéraires et scientifiques, d'articles, d'images, de bandes sonores et de films, gratuits ou payants selon les documents. De plus, certaines bibliothèques utilisent le web pour faire connaître les joyaux de leurs collections, pendant que d'autres créent des «cyberespaces» pour leurs usagers, avec des bibliothécaires devenus cyberthécaires pour les piloter dans leurs recherches et les orienter sur la toile. = Des bibliothèques numériques # De l'imprimé au numérique La première bibliothèque traditionnelle présente sur le web est la bibliothèque municipale d'Helsinki (Finlande), qui inaugure son site en février 1994. Objectif poursuivi par des générations de bibliothécaires, la diffusion du livre devient enfin possible à vaste échelle. Fondateur de la bibliothèque numérique Athena, Pierre Perroud insiste en février 1997 sur la complémentarité du texte électronique et du livre imprimé, dans un article de la revue Informatique-Informations (Genève). Selon lui, «les textes électroniques représentent un encouragement à la lecture et une participation conviviale à la diffusion de la culture», notamment pour l'étude de ces textes et la recherche textuelle. Ces textes électroniques «sont un bon complément du livre imprimé - celui-ci restant irremplaçable lorsqu'il s'agit de lire». Mais le livre imprimé reste «un compagnon mystérieusement sacré vers lequel convergent de profonds symboles: on le serre dans la main, on le porte contre soi, on le regarde avec admiration; sa petitesse nous rassure autant que son contenu nous impressionne; sa fragilité renferme une densité qui nous fascine; comme l'homme il craint l'eau et le feu, mais il a le pouvoir de mettre la pensée de celui-là à l'abri du Temps.» Si certaines bibliothèques numériques naissent directement sur le web, la plupart émanent de bibliothèques traditionnelles. En 1996, la bibliothèque municipale de Lisieux (Normandie, France) lance la Bibliothèque électronique de Lisieux, qui offre les versions numériques d'oeuvres littéraires courtes choisies dans les collections municipales. En 1997, la Bibliothèque nationale de France (BnF) crée Gallica qui, dans un premier temps, propose des images et textes du 19e siècle francophone, à savoir une sélection de 3.000 livres complétée par un échantillon de la future iconothèque numérique. En 1998, la Bibliothèque municipale de Lyon met les enluminures de 200 manuscrits et incunables à la disposition de tous sur son site web. Trois exemples parmi tant d'autres. # La numérisation des livres Qui dit bibliothèque numérique dit numérisation, au moins les premiers temps, puisque les livres numériques émanent de livres imprimés. Pour pouvoir être consulté à l'écran, un livre peut être numérisé soit en mode texte soit en mode image. La numérisation en mode texte consiste d'abord à patiemment saisir le livre sur un clavier, page après page, solution souvent adoptée lors de la constitution des premières bibliothèques numériques, ou alors quand les documents originaux manquent de clarté, pour les livres anciens par exemple. Les années passant, la numérisation en mode texte consiste surtout à scanner le livre en mode image, puis à le convertir en texte grâce à un logiciel OCR (Optical Character Recognition), avec relecture éventuelle à l'écran pour corriger le texte obtenu puisqu'un bon logiciel OCR serait fiable à 99%. La version informatique du livre ne conserve pas la présentation originale du livre ou de la page. Le livre devient texte, à savoir un ensemble de caractères apparaissant en continu à l'écran. A cause du temps passé au traitement de chaque livre, ce mode de numérisation est assez long, et donc nettement plus coûteux que la numérisation en mode image. Dans de nombreux cas, il est toutefois très préférable, puisqu'il permet l'indexation, la recherche textuelle, l'analyse textuelle, une étude comparative entre plusieurs textes ou plusieurs versions du même texte, etc. C'est la méthode utilisée par exemple par le Projet Gutenberg, fondé dès 1971 et qui propose aujourd'hui la plus grande bibliothèque numérique au format texte, avec des livres relus et corrigés deux fois pour être fiables à 99,9% par rapport à la version imprimée. La numérisation en mode image consiste à scanner le livre, et correspond donc à la photographie du livre page après page. La présentation originale étant conservée, on peut «feuilleter» le livre à l'écran. La version informatique est en quelque sorte le fac-similé numérique de la version imprimée. C'est la méthode employée pour les numérisations à grande échelle, par exemple pour le programme de numérisation de la Bibliothèque nationale de France (BnF) et la constitution de sa bibliothèque numérique Gallica. La numérisation en mode texte est utilisée en complément pour les tables des matières, les sommaires et les corpus de documents iconographiques, afin de faciliter la recherche textuelle. Pourquoi ne pas tout numériser en mode texte? La BnF répond en 2000 sur le site de Gallica: «Le mode image conserve l'aspect initial de l'original y compris ses éléments non textuels. Si le mode texte autorise des recherches riches et précises dans un document et permet une réduction significative du volume des fichiers manipulés, sa réalisation, soit par saisie soit par OCR, implique des coûts de traitement environ dix fois supérieurs à la simple numérisation. Ces techniques, parfaitement envisageables pour des volumes limités, ne pouvaient ici être économiquement justifiables au vu des 50.000 documents (représentant presque 15 millions de pages) mis en ligne.» Dans les années qui suivent, Gallica convertit toutefois nombre de ses livres du mode image au mode texte pour permettre les recherches textuelles. Concepteur de Mot@mot, logiciel de remise en page de fac-similés numériques, Pierre Schweitzer insiste sur l'utilité des deux modes de numérisation. «Le mode image permet d'avancer vite et à très faible coût», explique-t-il en janvier 2001. «C'est important car la tâche de numérisation du domaine public est immense. Il faut tenir compte aussi des différentes éditions: la numérisation du patrimoine a pour but de faciliter l'accès aux oeuvres, il serait paradoxal qu'elle aboutisse à se focaliser sur une édition et à abandonner l'accès aux autres. Chacun des deux modes de numérisation s'applique de préférence à un type de document, ancien et fragile ou plus récent, libre de droit ou non (pour l'auteur ou pour l'édition), abondamment illustré ou pas. Les deux modes ont aussi des statuts assez différents: en mode texte ça peut être une nouvelle édition d'une oeuvre, en mode image c'est une sorte d'"édition d'édition", grâce à un de ses exemplaires (qui fonctionne alors comme une fonte d'imprimerie pour du papier). En pratique, le choix dépend bien sûr de la nature du fonds à numériser, des moyens et des buts à atteindre. Difficile de se passer d'une des deux façons de faire.» = Un exemple: Gallica # Un laboratoire en ligne Gallica - bibliothèque numérique de la BnF (Bibliothèque nationale de France) - est inauguré en octobre 1997 avec des textes et des images du 19e siècle francophone, «siècle de l'édition et de la presse moderne, siècle du roman mais aussi des grandes synthèses historiques et philosophiques, siècle scientifique et technique». À l'époque, le serveur stocke 2.500 livres numérisés en mode image complétés par les 250 livres numérisés en mode texte de la base Frantext de l'INaLF (Institut national de la langue française, qui deviendra plus tard le laboratoire ATILF - Analyse et traitement informatique de la langue française). Classés par discipline, ces livres sont complétés par une chronologie du 19e siècle et des synthèses sur les grands courants en histoire, sciences politiques, droit, économie, littérature, philosophie, sciences et histoire des sciences. Le site propose aussi un échantillon de la future iconothèque numérique, à savoir le fonds du photographe Eugène Atget, une sélection de documents sur l'écrivain Pierre Loti, une collection d'images de l'École nationale des ponts et chaussées - ces images ayant trait aux grands travaux de la révolution industrielle en France -, et enfin un choix de livres illustrés de la bibliothèque du Musée de l'Homme. Fin 1997, Gallica se considère moins comme une banque de données numérisées que comme un «laboratoire dont l'objet est d'évaluer les conditions d'accès et de consultation à distance des documents numériques». Le but est d'expérimenter la navigation dans ces collections, en permettant le libre parcours du chercheur ou du lecteur curieux. Début 1998, Gallica annonce 100.000 volumes et 300.000 images pour la fin 1999, avec un accroissement rapide des collections ensuite. Sur les 100.000 volumes prévus, qui représenteraient 30 millions de pages numérisées, plus du tiers concernerait le 19e siècle. Quant aux 300.000 images fixes, la moitié viendrait des départements spécialisés de la BnF (Estampes et photographie, Manuscrits, Arts du spectacle, Monnaies et médailles, etc.), et l'autre moitié de collections d'établissements publics (musées et bibliothèques, Documentation française, École nationale des ponts et chaussées, Institut Pasteur, Observatoire de Paris, etc.) ou privés (agences de presse dont Magnum, l'Agence France- Presse, Sygma, Rapho, etc.). En mai 1998, la BnF revoit ses espérances à la baisse et modifie quelque peu ses orientations premières. Jérôme Strazzulla, journaliste au quotidien Le Figaro, explique dans un article du 3 juin 1998 que la BnF est «passée d'une espérance universaliste, encyclopédique, à la nécessité de choix éditoriaux pointus». Dans le même article, le président de la BnF, Jean-Pierre Angremy, rapporte la décision du comité éditorial de Gallica: «Nous avons décidé d'abandonner l'idée d'un vaste corpus encyclopédique de cent mille livres, auquel on pourrait sans cesse reprocher des trous. Nous nous orientons aujourd'hui vers des corpus thématiques, aussi complets que possibles, mais plus restreints. (...) Nous cherchons à répondre, en priorité, aux demandes des chercheurs et des lecteurs.» Le premier corpus aura trait aux voyages en France, à savoir des textes, estampes et photographies du 16e siècle à 1920, avec mise en ligne prévue en 2000. Les corpus envisagés ensuite concerneront Paris, les voyages en Afrique des origines à 1920, les utopies et enfin les mémoires des Académies des sciences de province. # Une consultation plus aisée Professeur à l'École pratique des hautes études (EPHE, Paris-Sorbonne) et adepte depuis toujours de la lecture sur PDA (puis sur smartphone), Marie-Joseph Pierre raconte en novembre 2002: «Cela m'a pas mal servi pour mon travail, ou pour mes activités associatives. Je fais par exemple partie d'une petite société poétique locale, et nous faisons prochainement un récital poétique. J'ai voulu rechercher des textes de Victor Hugo, que j'ai maintenant pu lire et même charger à partir du site de la Bibliothèque nationale de France: c'est vraiment extra.» En 2003, Gallica rassemble 70.000 ouvrages et 80.000 images allant du Moyen-Âge au début du 20e siècle, tous documents libres de droits. Mais, de l'avis de nombreux usagers, les fichiers des livres sont très lourds puisqu'ils sont numérisés en mode image, et l'accès en est très long. Chose tout aussi problématique, la numérisation en mode image n'autorise pas la recherche textuelle alors que Gallica se trouve être la plus grande bibliothèque numérique francophone en nombre de titres disponibles en ligne. La recherche textuelle est toutefois possible dans les tables des matières, les sommaires et les légendes des corpus iconographiques, qui sont numérisés en mode texte. Mais seule une petite collection de livres (1.117 livres en février 2004) est intégralement numérisée en mode texte, celle de la base Frantext, intégrée à Gallica. Tous problèmes auxquels la BnF remédie au fil des mois, avec une navigation plus aisée et la conversion progressive des livres du mode image au mode texte grâce à un logiciel OCR, avec possibilité donc de recherche textuelle. En février 2005, Gallica compte 76.000 ouvrages. À la même date, la BnF annonce la mise en ligne prochaine (entre 2006 et 2009) de la presse française parue entre 1826 et 1944, à savoir 22 titres représentant 3,5 millions de pages. Début 2006, les premiers journaux disponibles en ligne sont les quotidiens Le Figaro (fondé en 1826), La Croix (fondée en 1883), L'Humanité (fondée en 1904) et Le Temps (fondé en 1861 et disparu en 1942). En décembre 2006, les collections comprennent 90.000 ouvrages numérisés (fascicules de presse compris), 80.000 images et des dizaines d'heures de ressources sonores. # Une diffusion mondiale En novembre 2007, la BnF annonce la numérisation de 300.000 ouvrages supplémentaires d'ici 2010, à savoir 45 millions de pages qui seront accessibles sur son nouveau site, simultanément en mode image et en mode texte. Le site compte 3 millions de visites en 2008 et 4 millions de visites en 2009. On en prévoit le double pour 2010. En mars 2010, Gallica franchit la barre du million de documents - livres, manuscrits, cartes, images, périodiques (presse et revues), fichiers sonores (paroles et musiques) et partitions musicales - dont la plupart sont accessibles gratuitement sur un site dont l'interface n'a cessé de s'améliorer au fil des ans. Si les documents sont en langue française dans leur très grande majorité, on trouve aussi des documents en anglais, en italien, en allemand, en latin ou en grec selon les disciplines. En octobre 2010, Gallica offre 1,2 million de documents, une interface quadrilingue (français, anglais, espagnol, portugais), la possibilité de créer un espace personnel, une vignette exportable pour consulter des images sur son site ou son blog et un lecteur exportable pour y consulter les livres. Bruno Racine, président de la BnF, et Steve Balmer, PDG de Microsoft, signent le 7 avril 2010 un accord pour l'indexation des collections de Gallica dans Bing, le moteur de recherche de Microsoft, ce qui permettra une utilisation planétaire des collections et une meilleure représentation de la langue française et de ses richesses sur une toile multilingue. = Du bibliothécaire au cyberthécaire # En 1999 Piloter les usagers sur l'internet, filtrer et organiser l'information à leur intention, créer et gérer un site web, rechercher des documents dans des bases de données spécialisées, telles sont désormais les tâches de nombreux bibliothécaires. C'est le cas de Peter Raggett à l'OCDE (Organisation de coopération et de développement économiques) ou de Bruno Didier à l'Institut Pasteur. Peter Raggett est sous-directeur (puis directeur) de la Bibliothèque centrale de l'OCDE, renommée ensuite Centre de documentation et d'information (CDI). Située à Paris, l'OCDE regroupe trente pays membres. Au noyau d'origine, constitué des pays d'Europe de l'Ouest et d'Amérique du Nord, viennent s'ajouter le Japon, l'Australie, la Nouvelle-Zélande, la Finlande, le Mexique, la République tchèque, la Hongrie, la Pologne et la Corée. Réservée aux fonctionnaires de l'organisation, la bibliothèque permet la consultation de 60.000 monographies et 2.500 périodiques imprimés. En ligne depuis 1996, les pages intranet deviennent une source d'information majeure pour le personnel. «Je dois filtrer l'information pour les usagers de la bibliothèque, ce qui signifie que je dois bien connaître les sites et les liens qu'ils proposent», explique Peter Raggett en août 1999. «J'ai sélectionné plusieurs centaines de sites pour en favoriser l'accès à partir de l'intranet de l'OCDE. Cette sélection fait partie du bureau de référence virtuel proposé par la bibliothèque à l'ensemble du personnel. Outre de nombreux liens, ce bureau de référence contient des pages recensant les articles, monographies et sites web correspondant aux différents projets de recherche en cours à l'OCDE, l'accès en réseau aux CD-ROM et une liste mensuelle des nouveaux titres.» Comment Peter voit-il l'avenir de la profession? «L'internet offre aux chercheurs un stock d'informations considérable. Le problème pour eux est de trouver ce qu'ils cherchent. Jamais auparavant on n'avait senti une telle surcharge d'informations, comme on la sent maintenant quand on tente de trouver un renseignement sur un sujet précis en utilisant les moteurs de recherche disponibles sur l'internet. A mon avis, les bibliothécaires auront un rôle important à jouer pour améliorer la recherche et l'organisation de l'information sur le réseau. Je prévois aussi une forte expansion de l'internet pour l'enseignement et la recherche. Les bibliothèques seront amenées à créer des bibliothèques numériques permettant à un étudiant de suivre un cours proposé par une institution à l'autre bout du monde. La tâche du bibliothécaire sera de filtrer les informations pour le public. Personnellement, je me vois de plus en plus devenir un bibliothécaire virtuel. Je n'aurai pas l'occasion de rencontrer les usagers, ils me contacteront plutôt par courriel, par téléphone ou par fax, j'effectuerai la recherche et je leur enverrai les résultats par voie électronique.» En 1999, Bruno Didier est bibliothécaire à l'Institut Pasteur (Paris), une fondation privée dont le but est la prévention et le traitement des maladies infectieuses par la recherche, l'enseignement et des actions de santé publique. Séduit par les perspectives qu'offre le réseau pour la recherche documentaire, Bruno Didier crée le site web de la bibliothèque en 1996 et devient son webmestre. «Le site web de la bibliothèque a pour vocation principale de servir la communauté pasteurienne», relate-t-il en août 1999. «Il est le support d'applications devenues indispensables à la fonction documentaire dans un organisme de cette taille: bases de données bibliographiques, catalogue, commande de documents et bien entendu accès à des périodiques en ligne. C'est également une vitrine pour nos différents services, en interne mais aussi dans toute la France et à l'étranger. Il tient notamment une place importante dans la coopération documentaire avec les instituts du réseau Pasteur à travers le monde. Enfin j'essaie d'en faire une passerelle adaptée à nos besoins pour la découverte et l'utilisation d'internet. (...) Je développe et maintiens les pages du serveur, ce qui s'accompagne d'une activité de veille régulière. Par ailleurs je suis responsable de la formation des usagers, ce qui se ressent dans mes pages. Le web est un excellent support pour la formation, et la plupart des réflexions actuelles sur la formation des usagers intègrent cet outil.» Son activité professionnelle a changé de manière radicale, tout comme celle de ses collègues. «C'est à la fois dans nos rapports avec l'information et avec les usagers que les changements ont eu lieu», explique-t-il. «Nous devenons de plus en plus des médiateurs, et peut- être un peu moins des conservateurs. Mon activité actuelle est typique de cette nouvelle situation: d'une part dégager des chemins d'accès rapides à l'information et mettre en place des moyens de communication efficaces, d'autre part former les utilisateurs à ces nouveaux outils. Je crois que l'avenir de notre métier passe par la coopération et l'exploitation des ressources communes. C'est un vieux projet certainement, mais finalement c'est la première fois qu'on dispose enfin des moyens de le mettre en place.» # En 2000 En 2000, Bakayoko Bourahima est responsable de la bibliothèque de l'École nationale supérieure de statistique et d'économie appliquée (ENSEA) à Abidjan (Côte d'Ivoire). L'ENSEA assure la formation de statisticiens pour les pays africains d'expression française. Son site web est mis en ligne en avril 1999 dans le cadre du réseau REFER, un réseau créé par l'Agence universitaire de la Francophonie (AUF) pour desservir la communauté scientifique et technique en Afrique, en Asie et en Europe orientale (24 pays participants en 2002). Bakayoko Bourahima s'occupe de la gestion de l'information et de la diffusion des travaux publiés par l'ENSEA. Quel est l'apport de l'internet dans son travail? «Le service de la bibliothèque travaille à deux projets d'intégration du web pour améliorer ses prestations», relate-t-il en juillet 2000. «J'espère bientôt pouvoir mettre à la disposition de mes usagers un accès internet pour l'interrogation de bases de données. Par ailleurs, j'ai en projet de réaliser et de mettre sur l'intranet et sur le web un certain nombre de services documentaires (base de données thématique, informations bibliographiques, service de références bibliographiques, bulletin analytique des meilleurs travaux d'étudiants...). Il s'agit donc pour la bibliothèque, si j'obtiens les financements nécessaires pour ces projets, d'utiliser pleinement l'internet pour donner à notre École un plus grand rayonnement et de renforcer sa plateforme de communication avec tous les partenaires possibles. En intégrant cet outil au plan de développement de la bibliothèque, j'espère améliorer la qualité et élargir la gamme de l'information scientifique et technique mise à la disposition des étudiants, des enseignants et des chercheurs, tout en étendant considérablement l'offre des services de la bibliothèque.» En 2000, Emmanuel Barthe est documentaliste juridique et responsable informatique de Coutrelis & Associés, un cabinet d'avocats parisien. «Les principaux domaines de travail du cabinet sont le droit communautaire, le droit de l'alimentation, le droit de la concurrence et le droit douanier», écrit-il en octobre 2000. «Je fais de la saisie indexation, et je conçois et gère les bases de données internes. Pour des recherches documentaires difficiles, je les fais moi-même ou bien je conseille le juriste. Je suis aussi responsable informatique et télécoms du cabinet: conseils pour les achats, assistance et formation des utilisateurs. De plus, j'assure la veille, la sélection et le catalogage de sites web juridiques: titre, auteur et bref descriptif. Je suis également formateur internet juridique aussi bien à l'intérieur de mon entreprise qu'à l'extérieur lors de stages de formation.» # En 2001 En 2001, Anissa Rachef est bibliothécaire et professeur à l'Institut français de Londres. Présents dans de nombreux pays, les instituts français sont des organismes officiels proposant des cours de français et des manifestations culturelles. A Londres, 5.000 étudiants environ s'inscrivent aux cours chaque année. Inaugurée en mai 1996, la médiathèque utilise l'internet dès sa création. «L'objectif de la médiathèque est double», explique Anissa Rachef en avril 2001. «Servir un public s'intéressant à la culture et la langue françaises et "recruter" un public allophone en mettant à disposition des produits d'appel tels que vidéos documentaires, livres audio, CD- ROM. La mise en place récente d'un espace multimédia sert aussi à fidéliser les usagers. L'installation d'un service d'information rapide a pour fonction de répondre dans un temps minimum à toutes sortes de questions posées via le courrier électronique, ou par fax. Ce service exploite les nouvelles technologies pour des recherches très spécialisées. Nous élaborons également des dossiers de presse destinés aux étudiants et professeurs préparant des examens de niveau secondaire. Je m'occupe essentiellement de catalogage, d'indexation et de cotation. ... J'utilise internet pour des besoins de base. Recherches bibliographiques, commande de livres, courrier professionnel, prêt inter-bibliothèques. C'est grâce à internet que la consultation de catalogues collectifs, tels SUDOC [Système universitaire de documentation] et OCLC [Online Computer Library Center], a été possible. C'est ainsi que j'ai pu mettre en place un service de fourniture de documents extérieurs à la médiathèque. Des ouvrages peuvent désormais être acheminés vers la médiathèque pour des usagers ou bien à destination des bibliothèques anglaises.» = Des catalogues en réseau # L'UNIMARC, format bibliographique commun L'avenir des catalogues informatiques en réseau tient à l'harmonisation du format MARC (Machine Readable Cataloguing) par le biais de l'UNIMARC (Universal Machine Readable Cataloguing). Créé en 1977 par l'IFLA (International Federation of Library Associations - Fédération internationale des associations de bibliothèques), le format UNIMARC est un format universel permettant le stockage et l'échange de notices bibliographiques au moyen d'une codification des différentes parties de la notice (auteur, titre, éditeur, etc.) pour traitement informatique. Ce format favorise les échanges de données entre la vingtaine de formats MARC existants, qui correspondent chacun à une pratique nationale de catalogage (INTERMARC en France, UKMARC au Royaume-Uni, USMARC aux États-Unis, CAN/MARC au Canada, etc.). Les notices dans le format MARC d'origine sont d'abord converties au format UNIMARC avant d'être converties à nouveau dans le format MARC de destination. UNIMARC peut aussi être utilisé comme standard pour le développement de nouveaux formats MARC. Dans le monde anglophone, la British Library (qui utilise UKMARC), la Library of Congress (qui utilise USMARC) et la Bibliothèque nationale du Canada (qui utilise CAN/MARC) décident d'harmoniser leurs formats MARC nationaux. Un programme de trois ans, mené entre décembre 1995 et décembre 1998, permet de mettre au point un format MARC commun aux trois bibliothèques. Parallèlement, en 1996, dans le cadre de son Programme des bibliothèques, la Commission européenne promeut l'utilisation du format UNIMARC comme format commun d'échange entre tous les formats MARC utilisés dans les pays de l'Union européenne. Le groupe de travail correspondant étudie aussi les problèmes posés par les différentes polices de caractères, et la manière d'harmoniser le format bibliographique et le format du document lui-même pour les documents disponibles en ligne. # WorldCat, catalogue collectif mondial L'internet facilite la gestion de catalogues collectifs. Le but premier de ces catalogues est d'éviter de cataloguer à nouveau un document déjà traité par une bibliothèque partenaire. Si le catalogueur trouve la notice du livre qu'il est censé cataloguer, il la copie pour l'inclure dans le catalogue de sa propre bibliothèque. S'il ne trouve pas la notice, il la crée, et cette notice est aussitôt disponible pour les catalogueurs officiant dans d'autres bibliothèques. Outre de nombreux catalogues collectifs régionaux et nationaux, deux catalogues collectifs mondiaux sont proposés par OCLC (Online Computer Library Center) et RLG (Research Libraries Group) dès les années 1980. Vingt ans plus tard, ces deux organismes gèrent de gigantesques bases bibliographiques alimentées par leurs adhérents, permettant ainsi aux bibliothèques d'unir leurs forces par-delà les frontières. Fondé en 1967 dans l'Ohio, un État des États-Unis, OCLC gère d'abord l'OCLC Online Union Catalog, débuté en 1971 pour desservir les bibliothèques universitaires de l'Ohio. Ce catalogue collectif s'étend ensuite à tout le pays, puis au monde entier. Désormais appelé WorldCat, et disponible sur abonnement payant, il comprend 38 millions de notices en 370 langues en 1998, avec translittération pour les caractères non romains des langues JACKPHY, à savoir le japonais, l'arabe, le chinois, le coréen (Korean en anglais), le persan, l'hébreu et le yiddish. L'accroissement annuel est de 2 millions de notices. WorldCat utilise huit formats bibliographiques correspondant aux catégories suivantes: livres, périodiques, documents visuels, cartes et plans, documents mixtes, enregistrements sonores, partitions et enfin documents informatiques. En 2005, 61 millions de notices bibliographiques produites par 9.000 bibliothèques et centres de documentation sont disponibles dans 400 langues. En 2006, 73 millions de notices provenant de 10.000 organismes dans 112 pays permettent de localiser un milliard de documents. Une notice type contient la description du document ainsi que des informations sur son contenu (table des matières, résumé, couverture, illustrations, courte biographie de l'auteur). Devenue la plus grande base mondiale de données bibliographiques, WorldCat migre progressivement sur le web, d'abord en rendant la consultation des notices possible par le biais de plusieurs moteurs de recherche (Yahoo!, Google et bien d'autres), puis en lançant en août 2006 une version web (bêta) de WorldCat en accès libre, qui propose non seulement les notices des documents mais aussi l'accès direct (gratuit ou payant) aux documents électroniques des bibliothèques membres: livres du domaine public, articles, photos, livres audio, musique et vidéos. Le deuxième catalogue collectif mondial est géré par RLG (Research Library Group, qui devient ensuite Research Libraries Group). Fondé en 1980 en Californie, avec une antenne à New York, RLG se donne pour but d'améliorer l'accès à l'information dans le domaine de l'enseignement et de la recherche. RLG débute son propre catalogue sous le nom de RLIN (Research Libraries Information Network). Contrairement à WorldCat qui n'accepte qu'une notice par document, RLIN accepte plusieurs notices pour un même document. En 1998, RLIN comprend 82 millions de notices dans 365 langues, avec des notices translittérées pour les documents publiés dans les langues JACKPHY et en cyrillique. Des centaines de dépôts d'archives, bibliothèques de musées, bibliothèques universitaires, bibliothèques publiques, bibliothèques de droit, bibliothèques techniques, bibliothèques d'entreprise et bibliothèques d'art utilisent RLIN pour le catalogage, le prêt inter-bibliothèques et le descriptif de leurs archives et manuscrits. Une des spécialités de RLIN est l'histoire de l'art. Alimentée par 65 bibliothèques spécialisées, une section spécifique comprend 100.000 notices de catalogues d'expositions et 168.500 notices de documents iconographiques (photographies, diapositives, dessins, estampes et affiches). Cette section inclut aussi les 110.000 notices de la base bibliographique Scipio, consacrée aux catalogues de ventes d'objets d'art. En 2003, RLIN change de nom pour devenir le RLG Union Catalog, qui comprend désormais 126 millions de notices bibliographiques correspondant à 42 millions de documents (livres, cartes, manuscrits, films, bandes sonores, etc.). Au printemps 2004, une version web du catalogue est disponible en accès libre sous le nom de RedLightGreen, suite à une phase pilote lancée à l'automne 2003. La mise en ligne de RedLightGreen inaugure une ère nouvelle. C'est en effet la première fois qu'un catalogue collectif mondial est en accès libre, trois ans avant WorldCat. Destiné en premier lieu aux étudiants du premier cycle universitaire, RedLightGreen propose 130 millions de notices, avec des informations spécifiques aux bibliothèques d'un campus donné (cote, lien vers la version en ligne si celle-ci existe, etc.). Après trois ans d'activité, en novembre 2006, le site RedLightGreen cesse ses activités, et les usagers sont invités à utiliser WorldCat, dont la version web (bêta) est en accès libre depuis août 2006. À la même date, le RLG est intégré à OCLC, qui gère désormais le seul catalogue collectif mondial. En mars 2010, WorldCat permet de localiser 1,5 milliard de documents et d'avoir directement accès à certains d'entre eux. UNE INFORMATION MULTILINGUE [Résumé] De pratiquement anglophone à ses débuts, le web, devenu multilingue, permet une large diffusion des textes électroniques sans contrainte de frontières. Mais la barrière de la langue est loin d'avoir disparu. Comme l'écrit si bien en août 1999 Maria Victoria Marinetti, professeur d'espagnol en entreprise et traductrice, «il est très important de pouvoir communiquer en différentes langues. Je dirais même que c'est obligatoire, car l'information donnée sur l'internet est à destination du monde entier, alors pourquoi ne l'aurions-nous pas dans notre propre langue ou dans la langue que nous souhaitons utiliser? Information mondiale, mais pas de vaste choix dans les langues, ce serait contradictoire, pas vrai?» = De l'ASCII à l'Unicode Communiquer dans plusieurs langues implique d'avoir des systèmes de codage adaptés à nos alphabets ou idéogrammes respectifs. Le premier système d'encodage informatique est l'ASCII (American Standard Code for Information Interchange). Publié en 1968 aux États- Unis par l'ANSI (American National Standards Institute), avec actualisation en 1977 et 1986, l'ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par «1000001», B est traduit par «1000010», etc.). Les 128 caractères comprennent 33 caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de ponctuation et quelques symboles, le tout correspondant aux touches du clavier anglophone. L'ASCII permet uniquement la lecture de l'anglais et du latin. Il ne permet pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes, et à plus forte raison les langues non alphabétiques (chinois, japonais, coréen, etc.). Ceci ne pose pas de problème majeur les premières années, tant que l'échange de fichiers électroniques se limite essentiellement à l'Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale. Des variantes de l'ASCII (norme ISO-8859 ou ISO-Latin) sur huit bits prennent en compte les caractères accentués de quelques langues européennes. Par exemple, la variante pour le français est définie par la norme ISO-8859-1 (ISO- Latin-1). Cependant le passage de l'ASCII original à ses différentes extensions devient vite un véritable casse-tête, y compris au sein de l'Union européenne, les problèmes étant entre autres la multiplication des variantes, la corruption des données dans les échanges informatiques ou encore l'incompatibilité des systèmes, les pages ne pouvant être affichées que dans une seule langue à la fois. Avec le développement du web, l'échange des données s'internationalise de plus en plus. On ne peut plus se limiter à l'utilisation de l'anglais, du latin et de quelques langues européennes «traduites» par un système d'encodage datant de 1968. Publié pour la première fois en janvier 1991, l'Unicode est un système d'encodage «universel» sur 16 bits spécifiant un nombre unique pour chaque caractère. Ce nombre est lisible quels que soient la plateforme, le logiciel et la langue utilisés. L'Unicode peut traiter 65.000 caractères uniques et prendre en compte tous les systèmes d'écriture de la planète. À la grande satisfaction des linguistes, il remplace progressivement l'ASCII, avec des variantes UTF-8, UTF-16 et UTF-32 (UTF: Unicode Transformation Format) en fonction du nombre de bits utilisés. Il devient une composante des spécifications du W3C (World Wide Web Consortium), l'organisme international chargé du développement du web. L'utilisation de l'Unicode se généralise à partir de 1998, par exemple pour les fichiers texte sous plateforme Windows (Windows NT, Windows 2000, Windows XP et versions suivantes), qui étaient jusque-là en ASCII. Mais l'Unicode ne peut résoudre tous les problèmes, comme le souligne en juin 2000 Luc Dall'Armellina, co-auteur et webmestre d'oVosite, un espace d'écriture hypermédia: «Les systèmes d'exploitation se dotent peu à peu des kits de langues et bientôt peut-être de polices de caractères Unicode à même de représenter toutes les langues du monde; reste que chaque application, du traitement de texte au navigateur web, emboîte ce pas. Les difficultés sont immenses: notre clavier avec ses ± 250 touches avoue ses manques dès lors qu'il faille saisir des Katakana ou Hiragana japonais, pire encore avec la langue chinoise. La grande variété des systèmes d'écriture de par le monde et le nombre de leurs signes font barrage. Mais les écueils culturels ne sont pas moins importants, liés aux codes et modalités de représentation propres à chaque culture ou ethnie.» Que préconise Olivier Gainon, fondateur de CyLibris et pionnier de l'édition électronique littéraire? «Première étape: le respect des particularismes au niveau technique», explique-t-il en décembre 2000. «Il faut que le réseau respecte les lettres accentuées, les lettres spécifiques, etc. Je crois très important que les futurs protocoles permettent une transmission parfaite de ces aspects - ce qui n'est pas forcément simple (dans les futures évolutions de l'HTML ou des protocoles IP, etc.). Donc il faut que chacun puisse se sentir à l'aise avec l'internet et que ce ne soit pas simplement réservé à des (plus ou moins) anglophones. Il est anormal aujourd'hui que la transmission d'accents puisse poser problème dans les courriers électroniques. La première démarche me semble donc une démarche technique. Si on arrive à faire cela, le reste en découle: la représentation des langues se fera en fonction du nombre de connectés, et il faudra envisager à terme des moteurs de recherche multilingues.» = De l'anglais au plurilinguisme Après avoir été anglophone à pratiquement 100%, l'internet est encore anglophone à plus de 80% en 1998, un pourcentage qui s'explique par trois facteurs: (a) la création d'un grand nombre de sites web émanant des États-Unis, du Canada et du Royaume-Uni; (b) une proportion d'usagers particulièrement forte en Amérique du Nord par rapport au reste du monde; (c) l'usage de l'anglais en tant que principale langue d'échange internationale. L'anglais reste en effet prépondérant et ceci n'est pas près de disparaître. Comme indiqué en janvier 1999 par Marcel Grangier, responsable de la section française des services linguistiques centraux de l'Administration fédérale suisse, «cette suprématie n'est pas un mal en soi, dans la mesure où elle résulte de réalités essentiellement statistiques (plus de PC par habitant, plus de locuteurs de cette langue, etc.). La riposte n'est pas de "lutter contre l'anglais" et encore moins de s'en tenir à des jérémiades, mais de multiplier les sites en d'autres langues. Notons qu'en qualité de service de traduction, nous préconisons également le multilinguisme des sites eux- mêmes. La multiplication des langues présentes sur internet est inévitable, et ne peut que bénéficier aux échanges multiculturels.» Yoshi Mikami est informaticien à Fujisawa, au Japon. En décembre 1995, il lance le site «The Languages of the World by Computers and the Internet» (Les langues du monde par les ordinateurs et l'internet), communément appelé Logos Home Page ou Kotoba Home Page. Son site donne un bref historique de chaque langue, ses caractéristiques, son système d'écriture, son jeu de caractères et enfin la configuration du clavier dans la langue donnée. Yoshi Mikami est également co-auteur (avec Kenji Sekine et Nobutoshi Kohara) de Pour un web multilingue, publié en août 1997 en japonais par les éditions O'Reilly avant d'être traduit en anglais, en allemand et en français en 1998. Yoshi explique en décembre 1998: «Ma langue maternelle est le japonais. Comme j'ai suivi mes études de troisième cycle aux États-Unis et que j'ai travaillé dans l'informatique, je suis devenu bilingue japonais/anglais américain. J'ai toujours été intéressé par différentes langues et cultures, aussi j'ai appris le russe, le français et le chinois dans la foulée. A la fin de 1995, j'ai créé sur le web le site "The Languages of the World by Computers and the Internet" et j'ai tenté de donner - en anglais et en japonais - un bref historique de toutes ces langues, ainsi que les caractéristiques propres à chaque langue et à sa phonétique. Suite à l'expérience acquise, j'ai invité mes deux associés à écrire un livre sur la conception, la création et la présentation de pages web multilingues, livre qui fut publié en août 1997 [en japonais] sous le titre Pour un web multilingue, le premier livre au monde sur un tel sujet.» Comment Yoshi voit-il l'évolution vers un web multilingue? «Il y a des milliers d'années de cela, en Égypte, en Chine et ailleurs, les gens étaient plus sensibles au fait de communiquer leurs lois et leurs réflexions non seulement dans une langue mais dans plusieurs. Dans notre monde moderne, chaque État a adopté plus ou moins une seule langue de communication. A mon avis, l'internet verra l'utilisation plus grande de langues différentes et de pages multilingues (et pas seulement une gravitation autour de l'anglais américain) et un usage plus créatif de la traduction informatique multilingue. 99% des sites web créés au Japon sont en japonais!» Consultant en marketing internet chez Globalink, une société de logiciels et services de traduction, Randy Hobler écrit en septembre 1998: «Comme l'internet n'a pas de frontières nationales, les internautes s'organisent selon d'autres critères propres au médium. En termes de multilinguisme, vous avez des communautés virtuelles, par exemple ce que j'appelle les "nations des langues", tous ces internautes qu'on peut regrouper selon leur langue maternelle quel que soit leur lieu géographique. Ainsi la nation de la langue espagnole inclut non seulement les internautes d'Espagne et d'Amérique latine, mais aussi tous les Hispanophones vivant aux États-Unis, ou encore ceux qui parlent espagnol au Maroc.» Bruno Didier, webmestre de la bibliothèque de l'Institut Pasteur, écrit en août 1999: «Internet n'est une propriété ni nationale, ni linguistique. C'est un vecteur de culture, et le premier support de la culture, c'est la langue. Plus il y a de langues représentées dans leur diversité, plus il y aura de cultures sur internet. Je ne pense pas qu'il faille justement céder à la tentation systématique de traduire ses pages dans une langue plus ou moins universelle. Les échanges culturels passent par la volonté de se mettre à la portée de celui vers qui on souhaite aller. Et cet effort passe par l'appréhension de sa langue. Bien entendu c'est très utopique comme propos. Concrètement, lorsque je fais de la veille, je peste dès que je rencontre des sites norvégiens ou brésiliens sans un minimum d'anglais.» Au cours de l'été 2000, les usagers non anglophones dépassent la barre des 50%. Ce pourcentage continue ensuite d'augmenter, comme le montrent les statistiques de la société Global Reach, mises à jour à intervalles réguliers. Le nombre d'usagers non anglophones est de 52,5% en été 2001, 57% en décembre 2001, 59,8% en avril 2002, 64,4% en septembre 2003 (dont 34,9% d'Européens non anglophones et 29,4% d'Asiatiques) et 64,2% en mars 2004 (dont 37,9% d'Européens non anglophones et 33% d'Asiatiques). = Des dictionnaires de langues en ligne # Le Grand dictionnaire terminologique Le Grand dictionnaire terminologique (GDT) est une initiative majeure de l'Office québécois de la langue française (OQLF). C'est en effet la première fois qu'un organisme propose une base terminologique de cette taille en accès libre sur le web. Mis en ligne en septembre 2000, le GDT est précédé deux ans plus tôt par Le Signet, une base terminologique pour les technologies de l'information, dont les 10.000 fiches bilingues français-anglais sont également intégrées au GDT. Le GDT est un dictionnaire bilingue français-anglais de 3 millions de termes appartenant au vocabulaire industriel, scientifique et commercial. Sa mise en ligne est le résultat d'un partenariat entre l'OQLF, auteur du dictionnaire, et Semantix, société spécialisée dans les solutions logicielles linguistiques. Événement célébré par de nombreux linguistes, cette mise en ligne est un succès. Dès le premier mois, le GDT est consulté par 1,3 million de personnes, avec des pointes de 60.000 requêtes quotidiennes. La gestion de la base est ensuite assurée par Convera Canada. En février 2003, les requêtes sont au nombre de 3,5 millions par mois. Une nouvelle version du GDT est mise en ligne en mars 2003. Sa gestion est désormais assurée par l'OQLF lui-même, et non plus par une société prestataire. # Eurodicautom et IATE Géré par les services de traduction de la Commission européenne, Eurodicautom est une base terminologique multilingue de termes économiques, scientifiques, techniques et juridiques qui permet de combiner entre elles les onze langues officielles de l'Union européenne (allemand, anglais, danois, espagnol, finnois, français, grec, hollandais, italien, portugais, suédois), ainsi que le latin, avec une moyenne de 120.000 consultations par jour en 2003. Fin 2003, Eurodicautom annonce son intégration dans une base terminologique plus vaste regroupant les bases terminologiques de plusieurs institutions de l'Union européenne, notamment celle du Parlement européen et celle du Conseil de l'Union européenne. Cette nouvelle base traiterait non plus douze langues mais une vingtaine, du fait de l'élargissement prévu de l'Union européenne l'année suivante vers l'Europe de l'Est. Un projet de base terminologique commune est évoqué dès 1999 afin de renforcer la coopération inter-institutionnelle. Les partenaires de ce projet sont le Parlement européen, le Conseil de l'Union européenne, la Commission européenne, la Cour de justice, la Cour des comptes européenne, le Comité économique et social européen, le Comité des régions, la Banque européenne d'investissement, la Banque centrale européenne et enfin le Centre de traduction des organes de l'Union européenne. La nouvelle base terminologique voit le jour au printemps 2004 sous le nom de IATE (InterActive Terminology for Europe), d'abord pour un usage interne dans les institutions de l'Union européenne avant de migrer sur le web en juin 2007 en tant que service public, avec 1,4 million d'entrées dans les 23 langues officielles de l'Union européenne, plus le latin. L'Union européenne est en effet passée de 15 à 25 pays membres en mai 2004, pour atteindre 27 pays membres en janvier 2007, d'où la nécessité de 23 langues officielles au lieu des 11 langues officielles présentes dans Eurodicautom. Le site web de IATE est administré par le Centre de traduction des organes de l'Union européenne à Luxembourg (capitale du pays du même nom), pour le compte des partenaires du projet. Comme expliqué dans la brochure mutilingue de IATE, «les termes sont introduits dans la base de données par les terminologues et les traducteurs de l'Union européenne sur la base des informations fournies par les traducteurs, les administrateurs, les juristes-linguistes, les experts et d'autres sources fiables.» En 2009, IATE comprend 8,4 millions de termes, dont 540.000 abréviations et 130.000 expressions. # WordReference.com Le site WordReference.com est lancé en 1999 par Michael Kellogg pour proposer des dictionnaires bilingues gratuits en ligne. En mars 2010, Michael relate sur son site: «L'internet a été un incroyable outil ces dernières années pour rassembler des gens du monde entier. L'un des principaux obstacles à cela reste bien entendu la langue. Le contenu de l'internet est pour une grande part en anglais et de très nombreux usagers lisent ces pages alors que l'anglais est leur deuxième langue et non leur langue maternelle. De par mes propres expériences avec la langue espagnole, je sais que de nombreux lecteurs comprennent une grande partie de ce qu'ils lisent, mais pas la totalité. J'ai débuté ce site en 1999 pour procurer des dictionnaires bilingues gratuits en ligne et d'autres outils pour tous sur l'internet. Depuis, le site s'est progressivement développé pour devenir l'un des sites de dictionnaires en ligne les plus utilisés, et le principal dictionnaire en ligne pour les paires de langues anglais-espagnol, anglais-français, anglais-italien, espagnol-français et espagnol-portugais. Ce site est toujours classé sans interruption parmi les 500 sites les plus visités du web. Aujourd'hui, je suis heureux de continuer à améliorer ces dictionnaires, les autres outils linguistiques du site et les forums de langues. J'ai vraiment plaisir à créer de nouvelles fonctionnalités pour rendre ce site de plus en plus utile.» Les dictionnaires les plus populaires sont le dictionnaire espagnol (espagnol-anglais et anglais-espagnol), le dictionnaire français et le dictionnaire italien. On trouve aussi un dictionnaire allemand, un dictionnaire russe et un dictionnaire monolingue anglais. Des tableaux de conjugaison sont disponibles pour l'espagnol, le français et l'italien. Pour l'anglais, on trouve également des dictionnaires de l'anglais vers les langues suivantes: arabe, chinois, coréen, grec, japonais, polonais, portugais, roumain, tchèque et turc, et vice versa. Pour l'espagnol, en plus des deux dictionnaires d'Espasa Calpe et d'Oxford complétés par le supplément propre à WordReference.com, on peut consulter un dictionnaire monolingue espagnol, un dictionnaire espagnol de synonymes, un dictionnaire espagnol-français et un dictionnaire espagnol-portugais. Pour le français et l'italien, outre les dictionnaires d'Oxford, WordReference.com propose deux dictionnaires qui lui sont propres, à savoir un dictionnaire français-anglais de 250.000 termes et un dictionnaire italien-anglais de 200.000 termes. WordReference.com offre également des forums linguistiques très actifs et de qualité. Si les gens ont une question sur un usage linguistique donné, ils peuvent faire une recherche dans les centaines de milliers de questions précédentes, avant de poser leur propre question dans l'un des forums si nécessaire, pour être aidés par des gens des quatre coins du monde. WordReference Mini est une version miniature du site qui permet son intégration dans d'autres sites, par exemple des sites d'apprentissage de langues. Une version pour appareil mobile est disponible pour plusieurs dictionnaires: anglais-espagnol, espagnol-anglais, anglais-français, français-anglais, anglais-italien, italien-anglais, avec d'autres paires de langues à venir. LE COPYRIGHT REVISITÉ [Résumé] Lancée en 2001 à l'initiative de Lawrence «Larry» Lessig, professeur de droit à la Stanford Law School, en Californie, la licence Creative Commons a pour but de favoriser la diffusion d'oeuvres numériques tout en protégeant le droit d'auteur. L'organisme du même nom propose des licences-type, qui sont des contrats flexibles de droit d'auteur compatibles avec une diffusion sur l'internet. Simplement rédigées, ces autorisations non exclusives permettent aux titulaires des droits d'autoriser le public à utiliser leurs créations tout en ayant la possibilité de restreindre les exploitations commerciales et les oeuvres dérivées. Finalisée en février 2007, la version 3.0 de la Creative Commons instaure une licence internationale et la compatibilité avec d'autres licences similaires, dont le copyleft et la GPL (General Public License). = Droit d'auteur et internet Si le débat relatif au droit d'auteur sur l'internet est vif à la fin des années 1990, Philippe Loubière, traducteur littéraire et dramatique, ramène ce débat aux vrais problèmes. «Ce débat me semble assez proche sur le fond de ce qu'il est dans les autres domaines où le droit d'auteur s'exerce, ou devrait s'exercer», écrit-il en mars 2001. «Le producteur est en position de force par rapport à l'auteur dans pratiquement tous les cas de figure. Les pirates, voire la simple diffusion libre, ne menacent vraiment directement que les producteurs. Les auteurs ne sont menacés que par ricochet. Il est possible que l'on puisse légiférer sur la question, au moins en France où les corporations se revendiquant de l'exception culturelle sont actives et résistent encore un peu aux Américains, mais le mal est plus profond. En effet, en France comme ailleurs, les auteurs étaient toujours les derniers et les plus mal payés avant l'apparition d'internet, on constate qu'ils continuent d'être les derniers et les plus mal payés depuis. Il me semble nécessaire que l'on règle d'abord la question du respect des droits d'auteur en amont d'internet.» Pour nombre d'auteurs, le web est avant tout un espace public basé sur l'échange. Alain Bron, consultant en systèmes d'information et auteur de romans, écrit en novembre 1999: «Je considère aujourd'hui le web comme un domaine public. Cela veut dire que la notion de droit d'auteur sur ce média disparaît de facto: tout le monde peut reproduire tout le monde. La création s'expose donc à la copie immédiate si les copyrights ne sont pas déposés dans les formes usuelles et si les oeuvres sont exposées sans procédures de revenus.» Jacques Gauchey, journaliste et spécialiste des technologies de l'information, exprime un avis différent. «Le droit d'auteur dans son contexte traditionnel n'existe plus», écrit-il en juillet 1999. «Les auteurs ont besoin de s'adapter à un nouveau paradigme, celui de la liberté totale du flot de l'information. Le contenu original est comme une empreinte digitale: il est incopiable. Il survivra et prospérera donc.» Selon Xavier Malbreil, auteur multimédia interviewé en mars 2001, «il y a deux choses. Le web ne doit pas être un espace de non-droit, et c'est un principe qui doit s'appliquer à tout, et notamment au droit d'auteur. Toute utilisation commerciale d'une oeuvre doit ouvrir droit à rétribution. Mais également, le web est un lieu de partage. Échanger entre amis des passages d'un texte qui vous a plu, comme on peut recopier des passages d'un livre particulièrement apprécié, pour le faire aimer, cela ne peut faire que du bien aux oeuvres, et aux auteurs. La littérature souffre surtout de ne pas être diffusée. Tout ce qui peut concourir à la faire sortir de son ghetto sera positif.» = Copyleft et Creative Commons Des créateurs souhaitent respecter la vocation première du web, réseau de diffusion à l'échelon mondial. De ce fait, les adeptes de contrats flexibles - copyleft, GPL (General Public License) et Creative Commons - sont de plus en plus nombreux. L'idée du copyleft est lancée dès 1984 par Richard Stallman, ingénieur en informatique et défenseur inlassable du mouvement Open Source au sein de la Free Software Foundation (FSF). Conçu à l'origine pour les logiciels, le copyleft est formalisé par la GPL (General Public License) et étendu par la suite à toute oeuvre de création. Il contient la déclaration normale du copyright affirmant le droit d'auteur, mais son originalité est de donner au lecteur le droit de librement redistribuer le document et de le modifier. Le lecteur s'engage toutefois à ne revendiquer ni le travail original, ni les changements effectués par d'autres personnes. De plus, tous les travaux dérivés de l'oeuvre originale sont eux-mêmes soumis au copyleft. Lancée en 2001 à l'initiative de Lawrence «Larry» Lessig, professeur de droit à la Stanford Law School, en Californie, la licence Creative Commons a elle aussi pour but de favoriser la diffusion d'oeuvres numériques tout en protégeant le droit d'auteur. L'organisme du même nom propose des licences-type, qui sont des contrats flexibles de droit d'auteur compatibles avec une diffusion sur l'internet. Simplement rédigées, ces autorisations non exclusives permettent aux titulaires des droits d'autoriser le public à utiliser leurs créations tout en ayant la possibilité de restreindre les exploitations commerciales et les oeuvres dérivées. L'auteur peut par exemple choisir d'autoriser ou non la reproduction et la rediffusion de ses oeuvres. Ces contrats peuvent être utilisés pour tout type de création: texte, film, photo, musique, site web, etc. Finalisée en février 2007, la version 3.0 de la Creative Commons instaure une licence internationale et la compatibilité avec d'autres licences similaires, dont le copyleft et la GPL. Qui utilise la licence Creative Commons? O'Reilly Media par exemple. Fondé par Tim O'Reilly en 1978, O'Reilly Media est un éditeur réputé de manuels informatiques et de livres sur les technologies de pointe. L'éditeur dispose d'abord d'une formule de «copyright ouvert» pour les auteurs qui le souhaitent ou pour des projets collectifs. A partir de 2003, il privilégie le Creative Commons Founders' Copyright permettant d'offrir des contrats flexibles de droit d'auteur à ceux qui veulent également diffuser leurs oeuvres sur le web. La Public Library of Science (PLoS) utilise elle aussi la licence Creative Commons. Les articles de ses périodiques en ligne - qui sont des périodiques scientifiques et médicaux de haut niveau disponibles gratuitement - peuvent être librement diffusés et réutilisés ailleurs, y compris pour des traductions, la seule contrainte étant la mention des auteurs et de la source. Une licence Creative Commons est utilisée pour un million d'oeuvres en 2003, 4,7 millions d'oeuvres en 2004, 20 millions d'oeuvres en 2005, 50 millions d'oeuvres en 2006, 90 millions d'oeuvres en 2007, 130 millions d'oeuvres en 2008 et 350 millions d'oeuvres en avril 2010. = Domaine public et copyright Chose inquiétante à l'heure d'une société dite de l'information, le domaine public se réduit comme peau de chagrin. À une époque qui n'est pas si lointaine, 50% des oeuvres appartenaient au domaine public, et pouvaient donc être librement utilisées par tous. D'ici 2100, 99% des oeuvres seraient régies par le droit d'auteur, avec un maigre 1% laissé au domaine public. Un problème épineux pour tous ceux qui gèrent des bibliothèques numériques, et qui affecte aussi bien le Projet Gutenberg que Google Books. Si le Projet Gutenberg s'est donné pour mission de diffuser gratuitement par voie électronique le plus grand nombre possible d'oeuvres littéraires, sa tâche n'est guère facilitée par les coups de boutoir portés au domaine public. Michael Hart, son fondateur, se penche sur la question depuis plus de trente ans, avec l'aide d'un groupe d'avocats spécialisés dans le droit d'auteur. Dans la section Copyright HowTo, le Projet Gutenberg détaille les calculs à faire pour déterminer si un titre publié aux États-Unis appartient ou non au domaine public. Les oeuvres publiées avant 1923 sont soumises au droit d'auteur pendant 75 ans à partir de leur date de publication (elles sont donc maintenant dans le domaine public). Les oeuvres publiées entre 1923 et 1977 sont soumises au droit d'auteur pendant 95 ans à partir de leur date de publication (rien ne tombera dans le domaine public avant 2019). Une oeuvre publiée en 1998 et les années suivantes est soumise au droit d'auteur pendant 70 ans à partir de la date du décès de l'auteur s'il s'agit d'un auteur personnel (rien dans le domaine public avant 2049), ou alors pendant 95 ans à partir de la date de publication - ou 120 ans à partir de la date de création - s'il s'agit d'un auteur collectif (rien dans le domaine public avant 2074). Tout ceci dans les grandes lignes, d'autres règles venant s'ajouter à ces règles de base. Nettement plus contraignant que l'amendement précédent, qui datait de 1976, un nouvel amendement au copyright est entériné par le Congrès le 27 octobre 1998 pour contrer le formidable véhicule de diffusion qu'est l'internet. Au fil des siècles, chaque avancée technique est accompagnée d'un durcissement du copyright, qui semble être la réponse des éditeurs à un accès plus facile au savoir, et la peur afférente de perdre des royalties. «Le copyright a été augmenté de 20 ans», explique Michael Hart en juillet 1999. «Auparavant on devait attendre 75 ans, on est maintenant passé à 95 ans. Bien avant, le copyright durait 28 ans (plus une extension de 28 ans si on la demandait avant l'expiration du délai) et, avant cela, le copyright durait 14 ans (plus une extension de 14 ans si on la demandait avant l'expiration du délai). Comme on le voit, on assiste à une dégradation régulière et constante du domaine public.» Les instances politiques ne cessent de parler d'Âge de l'Information alors que, en parallèle, elles durcissent la réglementation relative à la mise à disposition de cette information. La contradiction est flagrante. Le copyright est passé d'une durée de 30 ans en moyenne en 1909 à une durée de 95 ans en moyenne en 1998. En 89 ans, de 1909 à 1998, le copyright a subi une extension de 65 ans qui affecte les trois quarts de la production du 20e siècle. Seul un livre publié avant 1923 peut être considéré avec certitude comme du domaine public. Les dates évoquées par Michael sont les suivantes, comme expliqué en détail dans son blog: (a) 1790 est la date de la main-mise de la Guilde des imprimeurs (les éditeurs de l'époque en Angleterre) sur les auteurs, ce qui entraîne la naissance du copyright. Le 1790 Copyright Act institue un copyright de 14 ans après la date de publication de l'oeuvre, plus une extension de 28 ans si celle-ci est demandée avant l'expiration du délai. Les oeuvres pouvant être légalement imprimées passent subitement de 6.000 à 600, et neuf titres sur dix disparaissent des librairies. Quelque 335 ans après les débuts de l'imprimerie, censée ouvrir les portes du savoir à tous, le monde du livre est désormais contrôlé par les éditeurs et non plus par les auteurs. Cette nouvelle législation est également effective en France et aux États-Unis. (b) 1831 est la date d'un premier renforcement du copyright pour contrer la réédition de vastes collections du domaine public sur les nouvelles presses à vapeur. Le 1831 Copyright Act institue un copyright de 28 ans après la date de publication de l'oeuvre, plus une extension de 14 ans si celle-ci est demandée avant l'expiration du délai, à savoir un total de 42 ans. (c) 1909 est la date d'un deuxième renforcement du copyright pour contrer une réédition des collections du domaine public sur les nouvelles presses électriques. Le 1909 Copyright Act double la période de l'extension, qui passe à 28 ans, le tout représentant un total de 56 ans. (d) 1976 est la date d'un nouveau durcissement du copyright suite à l'apparition de la photocopieuse lancée par Xerox. Le 1976 Copyright Act institue un copyright de 50 ans après le décès de l'auteur. De ce fait, tout copyright en cours avant le 19 septembre 1962 n'expire pas avant le 31 décembre 1976. (e) 1998 est la date d'un durcissement supplémentaire du copyright suite au développement rapide des technologies numériques et aux centaines de milliers d'oeuvres désormais disponibles sur CD-ROM et DVD et sur le web, gratuitement ou à un prix très bas. Le 1998 Copyright Act allonge la durée du copyright qui est désormais de 70 ans après le décès de l'auteur, pour protéger l'empire Disney (raison pour laquelle on parle souvent de Mickey Mouse Copyright Act) et nombre de multinationales culturelles. Un durcissement similaire touche les pays de l'Union européenne. La règle générale est désormais un copyright de 70 ans après le décès de l'auteur, alors qu'il était auparavant de 50 ans, suite aux pressions exercées par les éditeurs de contenu sous le prétexte d'«harmoniser» les lois nationales régissant le droit d'auteur pour répondre à la mondialisation du marché. A ceci s'ajoute la législation sur le copyright des éditions numériques en application des traités internationaux de l'OMPI (Organisation mondiale de la propriété intellectuelle). Ces traités sont signés en 1996 dans l'optique de contrôler la gestion des droits numériques. Le Digital Millenium Copyright Act (DMCA) est entériné en octobre 1998 aux États-Unis. La directive EUCD (European Union Copyright Directive) est entérinée en mai 2001 par la Communauté européenne. Cette directive s'intitule très précisément «Directive 2001/29/EC du Parlement européen et du Conseil sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information». Elle fait suite à la directive de février 1993 (Directive 93/98/EEC) qui visait à harmoniser les législations des différents pays en matière de protection du droit d'auteur. La directive EUCD entre peu à peu en vigueur dans tous les pays de l'Union européenne, avec mise en place de législations nationales, le but officiel étant de renforcer le respect du droit d'auteur sur l'internet et de contrer ainsi le piratage. En France, par exemple, la loi DADVSI (Droit d'auteur et droits voisins dans la société de l'information) est promulguée en août 2006, et n'est pas sans susciter de nombreux remous. UNE VASTE ENCYCLOPÉDIE [Résumé] En 2002, le MIT (Massachusetts Institute of Technology) décide de publier le contenu de ses cours en ligne, avec accès libre et gratuit, en privilégiant la diffusion libre du savoir. Le MIT OpenCourseWare (MIT OCW) offre en accès libre le matériel d'enseignement de nombreux cours, à savoir des textes de conférences, des travaux pratiques, des exercices et corrigés, des bibliographies, des documents audio et vidéo, etc. Parallèlement, la Public Library of Science (PLoS) met sur pied des revues scientifiques et médicales en ligne de haut niveau diffusées gratuitement. Pour les encyclopédies, Wikipédia ouvre la voie en 2001, en lançant une encyclopédie écrite collectivement, avec possibilité de corriger et de compléter les articles, et dont le contenu est librement réutilisable. Suivent d'autres encyclopédies collaboratives en accès libre comme Citizendium et l'Encyclopedia of Life. = Vers un savoir numérique Vinton Cerf est souvent appelé le père de l'internet parce qu'il est l'auteur en 1974 (avec Robert Kahn) des protocoles nécessaires au bon fonctionnement du réseau. Sur le site de l'Internet Society (ISOC), qu'il fonde en 1992 pour promouvoir le développement de l'internet, il explique: «Le réseau fait deux choses (...): comme les livres, il permet d'accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d'autres informations. Alors que, dans un livre, l'information est maintenue isolée.» De plus, l'information contenue dans les livres reste la même, au moins pendant une période donnée, alors que l'internet privilégie les informations récentes et régulièrement actualisées. Lors d'une conférence organisée en septembre 1996 par l'IFIP (International Federation of Information Processing), Dale Spender, professeur et chercheuse, tente de cerner les changements fondamentaux apportés par l'internet dans l'acquisition du savoir et les méthodes d'enseignement. Voici son argumentation résumée en deux paragraphes. Pendant plus de cinq siècles, l'enseignement est principalement basé sur l'information donnée par les livres. Or les habitudes liées à l'imprimé ne peuvent être transférées au monde numérique. L'enseignement en ligne offre des possibilités tellement nouvelles qu'il n'est guère possible d'effectuer les distinctions traditionnelles entre enseignant et enseigné. Le passage de la culture imprimée à la culture numérique exige d'entièrement repenser le processus d'enseignement, puisque nous avons maintenant l'opportunité sans précédent de pouvoir influer sur le genre d'enseignement que nous souhaitons. Dans la culture imprimée, l'information contenue dans les livres restait la même pendant un certain temps, ce qui nous a encouragé à penser que l'information était stable. La nature même de l'imprimé est liée à la notion de vérité, stable elle aussi. Cette stabilité et l'ordre qu'elle engendre ont été un des fondements de l'âge industriel et de la révolution scientifique. Les notions de vérité, de loi, d'objectivité et de preuve ont été les éléments de référence de nos croyances et de nos cultures. Mais la révolution numérique change tout ceci. Soudain l'information en ligne supplante l'information imprimée pour devenir la plus fiable et la plus utile, et l'usager est prêt à la payer en conséquence. C'est cette transformation radicale dans la nature de l'information qui doit être au coeur du débat relatif aux méthodes d'enseignement. En témoigne l'expérience de Patrick Rebollar, professeur de littérature française au Japon, qui raconte en juillet 1998: «Mon travail de recherche est différent, mon travail d'enseignant est différent, mon image en tant qu'enseignant-chercheur de langue et de littérature est totalement liée à l'ordinateur, ce qui a ses bons et ses mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt constituée de gens âgés et technologiquement récalcitrants). J'ai cessé de m'intéresser à certains collègues proches géographiquement mais qui n'ont rien de commun avec mes idées, pour entrer en contact avec des personnes inconnues et réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les colloques des uns ou des autres). La différence est d'abord un gain de temps, pour tout, puis un changement de méthode de documentation, puis de méthode d'enseignement privilégiant l'acquisition des méthodes de recherche par mes étudiants, au détriment des contenus (mais cela dépend des cours). Progressivement, le paradigme réticulaire l'emporte sur le paradigme hiérarchique.» Russon Wooldridge, professeur au département des études françaises de l'Université de Toronto (Canada), relate en février 2001: «Mes activités de recherche, autrefois menées dans une tour d'ivoire, se font maintenant presque uniquement par des collaborations locales ou à distance. (...) Tout mon enseignement exploite au maximum les ressources d'internet (le web et le courriel): les deux lieux communs d'un cours sont la salle de classe et le site du cours, sur lequel je mets tous les matériaux des cours. Je mets toutes les données de mes recherches des vingt dernières années sur le web (réédition de livres, articles, textes intégraux de dictionnaires anciens en bases de données interactives, de traités du 16e siècle, etc.). Je publie des actes de colloques, j'édite un journal, je collabore avec des collègues français, mettant en ligne à Toronto ce qu'ils ne peuvent pas publier en ligne chez eux. En mai 2000 j'ai organisé à Toronto un colloque international sur "Les études françaises valorisées par les nouvelles technologies". (...) Je me rends compte que sans internet mes activités seraient bien moindres, ou du moins très différentes de ce qu'elles sont actuellement. Donc je ne vois pas l'avenir sans. Mais il est crucial que ceux qui croient à la libre diffusion des connaissances veillent à ce que le savoir ne soit pas bouffé, pour être vendu, par les intérêts commerciaux. Ce qui se passe dans l'édition du livre en France, où on n'offre guère plus en librairie que des manuels scolaires ou pour concours (c'est ce qui s'est passé en linguistique, par exemple), doit être évité sur le web. Ce n'est pas vers les amazon.com qu'on se tourne pour trouver la science désintéressée. Sur mon site, je refuse toute sponsorisation.» = Quelques projets pilotes # L'Encyclopédie de Diderot en ligne Le projet ARTFL (American and French Research on the Treasury of the French Language) est un projet commun du Centre national de la recherche scientifique (CNRS, France) et de l'Université de Chicago (Illinois, États-Unis). Ce projet a pour but de constituer une base de données de 2.000 textes ayant trait à la littérature, à la philosophie, aux arts ou aux sciences et s'échelonnant du 13e au 20e siècle. L'ARTFL travaille notamment à la version en ligne exhaustive de la première édition (1751-1772) de l'Encyclopédie ou Dictionnaire raisonné des sciences, des métiers et des arts de Diderot et d'Alembert. 72.000 articles rédigés par plus de 140 collaborateurs - dont Voltaire, Rousseau, d'Alembert, Marmontel, d'Holbach, Turgot, etc. - ont fait de cette encyclopédie un monumental ouvrage de référence pour les arts et les sciences. Destinée à rassembler puis divulguer les connaissances de l'époque, l'Encyclopédie porte la marque des courants intellectuels et sociaux du 18e siècle, et c'est grâce à elle qu'ont été propagées les idées du Siècle des Lumières. Elle comprend 17 volumes de texte - qui représentent 18.000 pages et 20.736.912 mots - et 11 volumes de planches. La base de données correspondant au premier volume est accessible en ligne à titre expérimental en 1998. La recherche peut être effectuée par mot, portion de texte, auteur ou catégorie, ou par la combinaison de ces critères entre eux. On dispose de renvois d'un article à l'autre, au moyen de liens permettant d'aller d'une planche au texte ou du texte au fac-similé des pages originales. L'automatisation complète des procédures de saisie entraîne des erreurs typographiques et des erreurs d'identification qui sont corrigées au fil des mois. La recherche d'images est également possible dans un deuxième temps. L'ARTFL travaille aussi à un projet de base de données pour le Dictionnaire de l'Académie française, dont les différentes éditions se sont échelonnées entre 1694 et 1935. Ce projet inclut la saisie et l'édition du texte, ainsi que la création d'un moteur de recherche spécifique. La première édition (1694) et la cinquième édition (1798) du dictionnaire sont les premières à être disponibles pour une recherche par mot, puis pour une recherche par portion de texte. Les différentes éditions sont ensuite combinées dans une base de données unique, qui permet de juger de l'évolution d'un terme en consultant aussi bien une édition particulière que l'ensemble des éditions. Les autres projets de l'ARTFL sont la mise en ligne des ouvrages suivants: le Dictionnaire historique et critique de Philippe Bayle (édition de 1740), le Roget's Thesaurus de 1911, le Webster's Revised Unabridged Dictionary de 1913, le Thresor de la langue française de Jean Nicot (1606), un projet biblique multilingue comprenant entre autres La Bible française de Louis Segond (1910), etc. # Des ouvrages de référence en ligne Les premières grandes encyclopédies en ligne émanent d'encyclopédies imprimées. Elles apparaissent sur la toile en décembre 1999 avec WebEncyclo, l'Encyclopaedia Universalis et Britannica.com. Quant aux premiers grands dictionnaires imprimés en ligne, ce sont le Dictionnaire universel francophone en ligne d'Hachette, les dictionnaires anglais de Merriam-Webster et l'Oxford English Dictionary. WebEncyclo (aujourd'hui disparu), publié par les éditions Atlas, est la première grande encyclopédie francophone en accès libre, avec mise en ligne en décembre 1999. La recherche est possible par mots-clés, thèmes, médias (à savoir les cartes, liens internet, photos et illustrations) et idées. Un appel à contribution incite les spécialistes d'un sujet donné à envoyer des articles, qui sont regroupés dans la section «WebEncyclo contributif». Après avoir été libre, l'accès est ensuite soumis à une inscription préalable gratuite. La version web de l'Encyclopaedia Universalis est mise en ligne à la même date, soit un ensemble de 28.000 articles signés de 4.000 auteurs. Si la consultation est payante sur la base d'un abonnement annuel, de nombreux articles sont en accès libre. Le site Britannica.com est la première grande encyclopédie anglophone en accès libre, avec mise en ligne en décembre 1999. Le site web propose l'équivalent numérique des 32 volumes de la 15e édition de l'Encyclopaedia Britannica, parallèlement à la version imprimée et à la version CD-ROM, toutes deux payantes. Le site offre une sélection d'articles issus de 70 magazines, un guide des meilleurs sites, un choix de livres, etc., le tout étant accessible à partir d'un moteur de recherche unique. En septembre 2000, le site fait partie des cent sites les plus visités au monde. En juillet 2001, la consultation devient payante sur la base d'un abonnement annuel ou mensuel. Fin 2008, Britannica.com annonce l'ouverture prochaine de son site à des contributeurs extérieurs, avec inscription obligatoire pour écrire et modifier des articles. En ce qui concerne les dictionnaires en ligne, le premier dictionnaire de langue française en accès libre est le Dictionnaire universel francophone en ligne (aujourd'hui disparu), qui répertorie 45.000 mots et 116.000 définitions tout en présentant «sur un pied d'égalité, le français dit "standard" et les mots et expressions en français tel qu'on le parle sur les cinq continents». Issu de la collaboration entre Hachette et l'AUPELF-UREF (devenu depuis l'AUF: Agence universitaire de la Francophonie), il correspond à la partie «noms communs» du dictionnaire imprimé disponible chez Hachette. L'équivalent pour la langue anglaise est le site Merriam-Webster OnLine, qui donne librement accès au Collegiate Dictionary et au Collegiate Thesaurus. En mars 2000, les 20 volumes de l'Oxford English Dictionary (OED) sont mis en ligne par l'Oxford University Press (OUP). La consultation du site est payante. Le dictionnaire bénéficie d'une mise à jour trimestrielle d'environ 1.000 entrées nouvelles ou révisées. Deux ans après cette première expérience, en mars 2002, l'Oxford University Press met en ligne l'Oxford Reference Online (ORO), une vaste encyclopédie conçue directement pour le web et consultable elle aussi sur abonnement payant. Avec 60.000 pages et un million d'entrées, elle représente l'équivalent d'une centaine d'ouvrages de référence. # Wikipédia Issu du terme hawaïen «wiki» (qui signifie: vite, rapide), un wiki est un site web permettant à plusieurs utilisateurs de collaborer en ligne sur un même projet. À tout moment, ces utilisateurs peuvent contribuer à la rédaction du contenu, modifier ce contenu et l'enrichir en permanence. Le wiki est utilisé par exemple pour créer et gérer des dictionnaires, des encyclopédies ou encore des sites d'information sur un sujet donné. Le programme présent derrière l'interface d'un wiki est plus ou moins élaboré. Un programme simple gère du texte et des hyperliens. Un programme élaboré permet d'inclure des images, des graphiques, des tableaux, etc. L'encyclopédie wiki la plus connue est Wikipédia. Créée en janvier 2001 à l'initiative de Jimmy Wales et de Larry Sanger (Larry quitte ensuite l'équipe), Wikipédia est une encyclopédie gratuite écrite collectivement et dont le contenu est librement réutilisable. Elle est immédiatement très populaire. Sans publicité et financée par des dons, cette encyclopédie coopérative est rédigée par des milliers de volontaires - appelés Wikipédiens, et qui s'inscrivent en prenant un pseudonyme - avec possibilité de corriger et compléter les articles, aussi bien les leurs que ceux d'autres contributeurs. Les articles restent la propriété de leurs auteurs, et leur libre utilisation est régie par la licence GFDL (GNU Free Documentation License) et la licence Creative Commons. En décembre 2004, Wikipédia compte 1,3 million d'articles rédigés par 13.000 contributeurs dans une centaine de langues. En décembre 2006, l'encyclopédie est l'un de dix sites les plus visités du web, avec 6 millions d'articles. En mai 2007, Wikipédia compte 7 millions d'articles dans 192 langues, dont 1,8 million en anglais, 589.000 en allemand, 500.000 en français, 260.000 en portugais et 236.000 en espagnol. En 2008, Wikipédia est l'un des cinq sites les plus visités du web. En septembre 2010, Wikipédia compte 14 millions d'articles en 272 langues, dont 3,4 millions en anglais, 1,1 million en allemand et 1 million en français, qui est donc la troisième langue de l'encyclopédie. Fondée en juin 2003, la Wikimedia Foundation gère non seulement Wikipédia mais aussi Wiktionary, un dictionnaire et thésaurus multilingue lancé en décembre 2002, puis Wikibooks (livres et manuels en cours de rédaction) lancé en juin 2003, auxquels s'ajoutent ensuite Wikiquote (répertoire de citations), Wikisource (textes du domaine public), Wikimedia Commons (sources multimédia), Wikispecies (répertoire d'espèces animales et végétales), Wikinews (site d'actualités) et enfin Wikiversity (matériel d'enseignement), lancé en août 2006. # Les cours du MIT Professeur à l'Université d'Ottawa (Canada), Christian Vandendorpe salue en mai 2001 «la décision du MIT [Massachusetts Institute of Technology] de placer tout le contenu de ses cours sur le web d'ici dix ans, en le mettant gratuitement à la disposition de tous. Entre les tendances à la privatisation du savoir et celles du partage et de l'ouverture à tous, je crois en fin de compte que c'est cette dernière qui va l'emporter.» Le MIT décide en effet de publier le contenu de ses cours en ligne dans un OpenCourseWare, une initiative menée avec le soutien financier de la Hewlett Foundation et de la Mellon Foundation. Un OpenCourseWare peut être défini comme la publication électronique en accès libre du matériel d'enseignement d'un ensemble de cours. Mise en ligne en septembre 2002, la version pilote du MIT OpenCourseWare (MIT OCW) offre en accès libre le matériel d'enseignement de 32 cours représentatifs des cinq facultés du MIT. Ce matériel d'enseignement comprend des textes de conférences, des travaux pratiques, des exercices et corrigés, des bibliographies, des documents audio et vidéo, etc. Le lancement officiel du site a lieu un an plus tard, en septembre 2003, avec accès à quelques centaines de cours. En mars 2004, 500 cours sont disponibles dans 33 disciplines. En mai 2006, 1.400 cours sont disponibles dans 34 disciplines. La totalité des 1.800 cours dispensés par le MIT est en ligne en novembre 2007, avec actualisation régulière ensuite. Certains cours sont traduits en espagnol, en portugais et en chinois avec l'aide d'autres organismes. Le MIT espère que cette expérience de publication électronique - la première du genre - va permettre de définir un standard et une méthode de publication, et inciter d'autres universités à créer un OpenCourseWare pour la mise à disposition gratuite de leurs propres cours. A cet effet, le MIT lance l'OpenCourseWare Consortium (OCW Consortium) en décembre 2005, avec accès libre et gratuit au matériel d'enseignement de cent universités dans le monde un an plus tard. # La Public Library of Science A l'heure de l'internet, il paraît assez scandaleux que le résultat de travaux de recherche - travaux originaux et demandant de longues années d'efforts - soit détourné par des éditeurs spécialisés s'appropriant ce travail et le monnayant à prix fort. L'activité des chercheurs est souvent financée par les deniers publics, et de manière substantielle en Amérique du Nord. Il semblerait donc normal que la communauté scientifique et le grand public puissent bénéficier librement du résultat de ces recherches. Dans le domaine scientifique et médical par exemple, 1.000 nouveaux articles sont publiés chaque jour, en ne comptant que les articles révisés par les pairs. Se basant sur ce constat, la Public Library of Science (PLoS) est fondée en octobre 2000 à San Francisco à l'initiative de Harold Varmus, Patrick Brown et Michael Eisen, chercheurs dans les universités de Stanford et Berkeley (Californie). Le but est de contrer les pratiques de l'édition spécialisée en regroupant tous les articles scientifiques et médicaux au sein d'archives en ligne en accès libre. Au lieu d'une information disséminée dans des millions de rapports et des milliers de périodiques en ligne ayant chacun des conditions d'accès différentes, un point d'accès unique permettrait de lire le contenu intégral de ces articles, avec moteur de recherche multi-critères et système d'hyperliens entre les articles. Pour ce faire, PLoS fait circuler une lettre ouverte demandant que les articles publiés par les éditeurs spécialisés soient distribués librement dans un service d'archives en ligne, et incitant les signataires de cette lettre à promouvoir les éditeurs prêts à soutenir ce projet. La réponse de la communauté scientifique internationale est remarquable. Au cours des deux années suivantes, la lettre ouverte est signée par 30.000 chercheurs dans 180 pays. Bien que la réponse des éditeurs soit nettement moins enthousiaste, plusieurs éditeurs donnent leur accord pour une distribution immédiate des articles publiés par leurs soins, ou alors une distribution dans un délai de six mois. Mais dans la pratique, même les éditeurs ayant donné leur accord formulent nombre d'objections au nouveau modèle proposé, si bien que le projet d'archives en ligne ne voit finalement pas le jour. Un autre objectif de la Public Library of Science est de devenir elle- même éditeur. PLoS fonde donc une maison d'édition scientifique non commerciale qui reçoit en décembre 2002 une subvention de 9 millions de dollars US de la part de la Moore Foundation. Une équipe éditoriale de haut niveau est constituée en janvier 2003 pour lancer des périodiques de qualité selon un nouveau modèle d'édition en ligne basé sur la diffusion libre du savoir. Le premier numéro de PLoS Biology est disponible en octobre 2003, avec une version en ligne gratuite et une version imprimée au prix coûtant (couvrant uniquement les frais de fabrication et de distribution). PLoS Medicine est lancé en octobre 2004. Trois nouveaux titres voient le jour en 2005: PLoS Genetics, PLoS Computational Biology et PLoS Pathogens. PLoS Clinical Trials voit le jour en 2006. PLoS Neglected Tropical Diseases est lancé à l'automne 2007 en tant que première publication scientifique consacrée aux maladies tropicales négligées, ces maladies affectant les populations pauvres dans les villes comme dans les campagnes. Tous les articles de ces périodiques sont librement accessibles en ligne, sur le site de PLoS et dans PubMed Central, le service d'archives en ligne public et gratuit de la National Library of Medicine (États-Unis), avec moteur de recherche multicritères. Les versions imprimées sont abandonnées en 2006 pour laisser place à un service d'impression à la demande géré par la société Odyssey Press. Ces articles peuvent être librement diffusés et réutilisés ailleurs, y compris pour des traductions, selon les termes de la licence Creative Commons, la seule contrainte étant la mention des auteurs et de la source. PLoS lance aussi PLoS ONE, un forum en ligne permettant la publication d'articles sur tout sujet scientifique et médical. Le succès est total. Trois ans après les débuts de la Public Library of Science en tant qu'éditeur, PLoS Biology et PLos Medicine ont la même réputation d'excellence que les grandes revues Nature, Science ou The New England Journal of Medicine. PLoS reçoit le soutien financier de plusieurs fondations tout en mettant sur pied un modèle économique viable, avec des revenus émanant des frais de publication payés par les auteurs, et émanant aussi de la publicité, des sponsors et des activités destinées aux membres de PLoS. PLoS souhaite en outre que ce modèle économique d'un genre nouveau inspire d'autres éditeurs pour créer des revues du même type ou pour mettre des revues existantes en accès libre. # Citizendium Une nouvelle étape s'ouvre avec les débuts de Citizendium - acronyme de «The Citizens' Compendium» -, une grande encyclopédie collaborative en ligne conçue en novembre 2006 par Larry Sanger, un des co-fondateurs de Wikipédia, et lancée en mars 2007 (en version bêta). Citizendium est une encyclopédie coopérative et gratuite, tout comme Wikipédia, mais sans ses travers, à savoir le vandalisme, le manque de rigueur et l'utilisation d'un pseudonyme pour y participer. Les auteurs signent leurs articles de leur vrai nom, et ces articles sont relus et corrigés par des experts («editors») âgés d'au moins 25 ans et titulaires d'une licence universitaire. De plus, des «constables» sont chargés de la bonne marche du projet et du respect du règlement. Citizendium comptabilise 1.100 articles, 820 auteurs et 180 experts en mars 2007, 9.800 articles en janvier 2009 et 15.000 articles en septembre 2010. Dans Why Make Room for Experts in Web 2.0? (Pourquoi faire une place aux experts dans le web 2.0?), une communication datée d'octobre 2006 et régulièrement actualisée depuis sur le site de l'encyclopédie, Larry Sanger voit dans Citizendium l'émergence d'un nouveau modèle de collaboration massive de dizaines de milliers d'intellectuels et scientifiques, non seulement pour les encyclopédies, mais aussi pour les manuels d'enseignement, les ouvrages de référence, le multimédia et les applications en 3D. Cette collaboration est basée sur le partage des connaissances, dans la lignée du web 2.0, un concept lancé en 2004 pour caractériser les notions de communauté et de partage et qui se manifeste d'abord par une floraison de blogs, wikis et sites sociaux. D'après Larry, il importe aussi de créer des structures permettant des collaborations scientifiques, et Citizendium pourrait servir de prototype dans ce domaine. # L'Encyclopedia of Life Cet appel semble se concrétiser dès mai 2007 avec les premiers pas de l'Encyclopedia of Life. Cette vaste encyclopédie collaborative en ligne a pour but de rassembler les connaissances existantes sur toutes les espèces animales et végétales connues (1,8 million), y compris les espèces en voie d'extinction, avec l'ajout de nouvelles espèces au fur et à mesure de leur identification, ce qui représenterait entre 8 et 10 millions d'espèces en tout. Cette encyclopédie multimédia permettra de rassembler textes, photos, cartes, bandes sonores et vidéos, avec une page web par espèce, en offrant un portail unique à des millions de documents épars, en ligne et hors ligne. Outil d'apprentissage et d'enseignement pour une meilleure connaissance de notre planète, l'encyclopédie sera à destination de tous: scientifiques, enseignants, étudiants, scolaires, médias, décideurs et grand public. Ce projet collaboratif est mené par plusieurs grandes institutions: Field Museum of Natural History, Harvard University, Marine Biological Laboratory, Missouri Botanical Garden, Smithsonian Institution et Biodiversity Heritage Library. Le directeur honoraire du projet est Edward Wilson, professeur émérite à l'Université de Harvard, qui, dans un essai daté de 2002, fut le premier à émettre le voeu d'une telle encyclopédie. Cinq ans plus tard, en 2007, c'est désormais chose possible grâce aux avancées technologiques récentes: outils logiciels permettant l'agrégation de contenu, mash-up (à savoir le fait de rassembler un contenu donné à partir de nombreuses sources différentes), wikis de grande taille et gestion de contenu à vaste échelle. La Biodiversity Heritage Library est un consortium des dix plus grandes bibliothèques des sciences de la vie (qui seront rejointes plus tard par d'autres bibliothèques). Le consortium entreprend la numérisation de 2 millions de documents, avec des dates de publication s'étalant sur deux cents ans, pour intégration progressive dans l'Encyclopedia of Life. En mai 2007, on compte 1,25 million de pages traitées dans les centres de numérisation de Londres, Boston et Washington, D.C., tous documents progressivement intégrés dans l'Internet Archive. Le financement initial de l'Encyclopedia of Life est assuré par la MacArthur Foundation avec 10 millions de dollars US et la Sloan Foundation avec 2,5 millions de dollars. Un financement total de 100 millions de dollars serait nécessaire sur dix ans, avant que l'encyclopédie ne puisse s'autofinancer. La réalisation des pages web débute courant 2007. L'encyclopédie fait ses réels débuts sur le web à la mi-2008. Elle devrait être pleinement opérationnelle en 2012 et complète - c'est-à-dire à jour - en 2017. La version initiale sera d'abord en anglais avant d'être traduite en plusieurs langues par de futurs organismes partenaires. L'encyclopédie sera aussi un «macroscope» permettant de déceler les grandes tendances à partir d'un stock d'informations considérable, à la différence du microscope permettant l'étude de détail. Elle permettra également à chacun de contribuer au contenu sous une forme s'apparentant au wiki, ce contenu étant ensuite validé ou non par des scientifiques. Pour clore ce chapitre, voici une belle définition du web donnée par Robert Beard, professeur de langues et créateur de sites de dictionnaires, qui écrit en septembre 1998: «Le web sera une encyclopédie du monde faite par le monde pour le monde. Il n'y aura plus d'informations ni de connaissances utiles qui ne soient pas disponibles, si bien que l'obstacle principal à la compréhension internationale et interpersonnelle et au développement personnel et institutionnel sera levé. Il faudrait une imagination plus débordante que la mienne pour prédire l'effet de ce développement sur l'humanité.» DES BEST-SELLERS NUMÉRIQUES [Résumé] En 2003, des centaines de best-sellers sont vendus en version numérique sur Amazon.com, Barnes & Noble.com, Yahoo! eBook Store ou sur des sites d'éditeurs (Random House, PerfectBound, etc.). Le catalogue de Palm Digital Media approche les 10.000 titres, lisibles sur PDA (assistant personnel), avec 15 à 20 nouveaux titres par jour et 1.000 nouveaux clients par semaine. Numilog distribue 3.500 titres numériques (livres et périodiques) en français et en anglais. Mobipocket distribue 6.000 titres numériques dans plusieurs langues, soit sur son site soit dans des librairies partenaires. Les formats les plus utilisés sont le format PDF (pour l'Acrobat Reader puis l'Adobe Reader), le format LIT (pour le Microsoft Reader), le format PRC (pour le Mobipocket Reader) et le format OeB (pour de nombreux logiciels de lecture). = Des logiciels de lecture # L'Adobe Reader Le format PDF (Portable Document Format) est lancé en juin 1993 par la société Adobe, en même temps que l'Acrobat Reader (gratuit), premier logiciel de lecture du marché, téléchargeable gratuitement pour lecture des fichiers au format PDF. Le but de ce format est de figer les documents numériques dans une présentation donnée, pour conserver la présentation originale du document source, quelle que soit la plateforme utilisée pour le créer et pour le lire. Le format PDF devient au fil des ans un standard international de diffusion des documents. Tout document peut être converti au format PDF à l'aide du logiciel Adobe Acrobat (payant). Dix ans plus tard, 10% des documents disponibles sur l'internet sont au format PDF. Des millions de fichiers PDF sont présents sur le web pour lecture ou téléchargement, ou bien transitent par courriel. L'Acrobat Reader est progressivement disponible dans plusieurs langues et pour diverses plateformes (Windows, Mac, Linux). Adobe annonce en août 2000 l'acquisition de la société Glassbook, spécialisée dans les logiciels de distribution de livres numériques à l'intention des éditeurs, libraires, diffuseurs et bibliothèques. Adobe passe aussi un partenariat avec Amazon.com et Barnes & Noble.com afin de proposer des titres lisibles sur l'Acrobat Reader et le Glassbook Reader. En janvier 2001, Adobe lance deux nouveaux logiciels. Le premier logiciel, gratuit, est l'Acrobat eBook Reader. Il permet de lire les fichiers PDF de livres numériques sous droits, avec gestion des droits par l'Adobe Content Server. Il permet aussi d'ajouter des notes et des signets, de choisir l'orientation de lecture des livres (paysage ou portrait), ou encore de visualiser leur couverture dans une bibliothèque personnelle. Il utilise la technique d'affichage CoolType et comporte un dictionnaire intégré. Le deuxième logiciel, payant, est l'Adobe Content Server, destiné aux éditeurs et distributeurs. Il s'agit d'un logiciel serveur de contenu assurant le conditionnement, la protection, la distribution et la vente sécurisée de livres numériques au format PDF. Ce système de gestion des droits numériques (DRM: Digital Rights Management) permet de contrôler l'accès aux livres numériques sous droits, et donc de gérer les droits d'un livre selon les consignes données par le gestionnaire des droits, par exemple en autorisant ou non l'impression ou le prêt. L'Adobe Content Server sera remplacé par l'Adobe LiveCycle Policy Server en novembre 2004. En avril 2001, Adobe conclut un partenariat avec Amazon, qui met en vente 2.000 livres numériques lisibles sur l'Acrobat eBook Reader: titres de grands éditeurs, guides de voyages, livres pour enfants, etc. L'Acrobat Reader s'enrichit d'une version PDA, pour le Palm Pilot en mai 2001 puis pour le Pocket PC en décembre 2001. En dix ans, entre 1993 et 2003, l'Acrobat Reader aurait été téléchargé 500 millions de fois. En 2003, ce logiciel est désormais disponible dans de nombreuses langues et pour toute plateforme (Windows, Mac, Linux, Palm OS, Pocket PC, Symbian OS, etc.). 10% des documents présents sur l'internet seraient au format PDF, et le format PDF est aussi le format de livre numérique le plus répandu. En mai 2003, l'Acrobat Reader (version 5) fusionne avec l'Acrobat eBook Reader (version 2) pour devenir l'Adobe Reader (débutant à la version 6), qui permet de lire aussi bien les fichiers PDF standard que les fichiers PDF sécurisés comme ceux des livres numériques sous droits. Fin 2003, Adobe ouvre sa librairie en ligne, Digital Media Store, avec les titres au format PDF de grands éditeurs - HarperCollins Publishers, Random House, Simon & Schuster, etc. - ainsi que les versions électroniques de journaux et magazines comme le New York Times, Popular Science, etc. Adobe lance aussi Adobe eBooks Central, un service permettant de lire, publier, vendre et prêter des livres numériques, et l'Adobe eBook Library, qui se veut un prototype de bibliothèque de livres numériques. Les versions récentes d'Adobe Acrobat permettent de créer des PDF compatibles avec le format OeB (Open eBook) puis le format ePub (qui succède au format OeB), devenus eux aussi des standards du livre numérique. # L'Open eBook Les années 1998 et 1999 sont marquées par la prolifération des formats, chacun lançant son propre format de livre numérique dans le cadre d'un marché naissant promis à une expansion rapide. Aux formats classiques - formats TXT (texte), DOC (Microsoft Word), HTML (HyperText Markup Language), XML (eXtensible Markup Language) et PDF (Portable Document Format) - s'ajoutent des formats propriétaires créés par plusieurs sociétés pour lecture sur leurs propres logiciels, qui sont entre autres le Glassbook Reader, le Peanut Reader, le Rocket eBook Reader (pour lecture sur le Rocket eBook), le Franklin Reader (pour lecture sur l'eBookMan), le logiciel de lecture Cytale (pour lecture sur le Cybook), le Gemstar eBook Reader (pour lecture sur le Gemstar eBook) et le Palm Reader (pour lecture sur le Palm Pilot). Ces logiciels correspondent souvent à un appareil donné et ne peuvent donc pas être utilisés sur d'autres appareils, tous comme les formats qui vont avec. Inquiets pour l'avenir du livre numérique qui, à peine né, propose presque autant de formats que de titres, certains insistent sur l'intérêt - sinon la nécessité - d'un format unique. A l'instigation du NIST (National Institute of Standards & Technology) aux États-Unis, l'Open eBook Initiative voit le jour en juin 1998 et constitue un groupe de travail de 25 personnes sous le nom d'Open eBook Authoring Group. Ce groupe élabore l'OeB (Open eBook), un format de livre numérique basé sur le langage XML et destiné à normaliser le contenu, la structure et la présentation des livres numériques. Le format OeB est défini par l'OeBPS (Open eBook Publication Structure), dont la version 1.0 est disponible en septembre 1999. Téléchargeable gratuitement, l'OeBPS dispose d'une version ouverte et gratuite appartenant au domaine public. La version originale est destinée aux professionnels de la publication puisqu'elle doit être associée à une technologie normalisée de gestion des droits numériques, et donc à un système de DRM (Digital Rights Management) permettant de contrôler l'accès des livres numériques sous droits. Fondé en janvier 2000 pour prendre la suite de l'Open eBook Initiative, l'OeBF (Open eBook Forum) est un consortium industriel international regroupant constructeurs, concepteurs de logiciels, éditeurs, libraires et spécialistes du numérique (avec 85 participants en 2002) dans l'optique de développer le format OeB et l'OeBPS. Le format OeB devient un standard qui sert lui-même de base à de nombreux formats, par exemple le format LIT (pour le Microsoft Reader) ou le format PRC (pour le Mobipocket Reader). En avril 2005, l'Open eBook Forum devient l'International Digital Publishing Forum (IDPF), et le format OeB laisse la place au format ePub. # Le Microsoft Reader Lancé en avril 2000, le Microsoft Reader est un logiciel permettant la lecture de livres numériques au format LIT (abrégé du terme anglais «literature»), lui-même basé sur le format OeB. Le Microsoft Reader équipe d'abord le Pocket PC, l'assistant personnel lancé à la même date par Microsoft. Quatre mois plus tard, en août 2000, le Microsoft Reader est utilisable sur toute plateforme Windows, et donc aussi bien sur ordinateur que sur assistant personnel. Ses caractéristiques sont un affichage utilisant la technologie ClearType, le choix de la taille des caractères, la mémorisation des mots-clés pour des recherches ultérieures, et l'accès d'un clic au Merriam-Webster Dictionary. Ce logiciel étant téléchargeable gratuitement, Microsoft facture les éditeurs et distributeurs pour l'utilisation de sa technologie de gestion des droits numériques (DRM), et touche une commission sur la vente de chaque titre. La gestion des droits numériques s'effectue au moyen du Microsoft DAS Server (DAS: Digital Asset Server). Microsoft passe aussi des partenariats avec les grandes librairies en ligne - Barnes & Noble.com en janvier 2000 puis Amazon.com en août 2000 - pour la vente de livres numériques lisibles sur le Microsoft Reader. Barnes & Noble.com ouvre son secteur eBooks en août 2000, suivi par Amazon.com en novembre 2000. En novembre 2002, le Microsoft Reader est disponible pour tablette PC, dès la commercialisation de cette nouvelle machine par 14 fabricants. # Le Mobipocket Reader Face à Adobe avec son format PDF (pour l'Acrobat Reader) et Microsoft avec son format LIT (pour le Microsoft Reader), un nouvel acteur s'impose rapidement sur le marché, sur un créneau bien spécifique, celui des appareils mobiles. Fondé à Paris en mars 2000 par Thierry Brethes et Nathalie Ting, Mobipocket se spécialise d'emblée dans la distribution sécurisée de livres pour assistant personnel. La société est financée en partie par Viventures, branche de la multinationale française Vivendi. Mobipocket conçoit d'abord le Mobipocket Reader, logiciel de lecture permettant la lecture de fichiers au format PRC. Gratuit et disponible en plusieurs langues (français, anglais, allemand, espagnol et italien), ce logiciel est «universel», c'est-à-dire utilisable sur tout assistant personnel. En octobre 2001, le Mobipocket Reader reçoit l'eBook Technology Award de la Foire internationale du livre à Francfort. À la même date, Franklin passe un partenariat avec Mobipocket pour l'installation du Mobipocket Reader sur l'eBookMan, l'assistant personnel multimédia de Franklin, au lieu du partenariat prévu à l'origine entre Franklin et Microsoft pour l'installation du Microsoft Reader. Si le Mobipocket Reader est gratuit, d'autres logiciels Mobipocket sont payants. Le Mobipocket Web Companion est un logiciel d'extraction automatique de contenu pour les sites de presse partenaires de la société. Le Mobipocket Publisher permet aux particuliers (version privée gratuite ou version standard payante) et aux éditeurs (version professionnelle payante) de créer des livres numériques sécurisés utilisant la technologie Mobipocket DRM, afin de contrôler l'accès aux livres numériques sous droits. Dans un souci d'ouverture aux autres formats, le Mobipocket Publisher permet aussi de créer des livres numériques au format LIT pour le Microsoft Reader. Déjà utilisable sur n'importe quel PDA, le Mobipocket Reader peut être utilisé sur tout ordinateur et pour toute plateforme en avril 2002, avec le lancement de nouvelles versions pour ordinateur personnel. Au printemps 2003, le Mobipocket Reader équipe tous les appareils mobiles du marché, à savoir les gammes Palm Pilot, Pocket PC, eBookMan et Psion, auxquels s'ajoutent les smartphones de Nokia et de Sony Ericsson. À la même date, le nombre de livres lisibles sur le Mobipocket Reader se chiffre à 6.000 titres dans plusieurs langues (français, anglais, allemand, espagnol), distribués soit sur le site de Mobipocket soit dans des librairies partenaires. Mobipocket est racheté par Amazon.com en avril 2005. Ce rachat permet à Amazon de beaucoup étoffer son catalogue de livres numériques, en prévision du lancement de sa tablette de lecture Kindle en novembre 2007. Le site de Mobipocket propose 70.000 ebooks en 2008. = Stephen King ouvre la voie En 2000, le livre numérique commence à se généraliser mais la partie est loin d'être gagnée. Maître du suspense de renommée mondiale, Stephen King est le premier auteur de best-sellers à se lancer dans l'aventure numérique, malgré les risques commerciaux encourus, en tentant de publier un roman épistolaire sur le web indépendamment de son éditeur. En mars 2000, Stephen King commence d'abord par distribuer uniquement sur l'internet sa nouvelle Riding the Bullet, assez volumineuse puisqu'elle comprend 66 pages. Du fait de la notoriété de l'auteur et de la couverture médiatique de ce scoop, la «sortie» de cette nouvelle sur le web est un succès immédiat, avec 400.000 exemplaires téléchargés lors des premières vingt-quatre heures dans les librairies en ligne qui la vendent (au prix de 2,5 dollars US). En juillet 2000, fort de cette expérience prometteuse, Stephen King décide de se passer des services de Simon & Schuster, son éditeur habituel. Il crée un site web spécifique pour débuter l'auto- publication en épisodes de The Plant, un roman épistolaire inédit qui raconte l'histoire d'une plante carnivore s'emparant d'une maison d'édition et lui promettant le succès commercial en échange de sacrifices humains. Le premier chapitre est téléchargeable dans plusieurs formats - PDF, OeB, HTML, TXT - pour la modeste somme de 1 dollar, avec paiement différé ou paiement immédiat sur le site d'Amazon. Dans une lettre aux lecteurs publiée sur son site à la même date, l'auteur raconte que la création du site, le design et la publicité lui ont coûté la somme de 124.150 dollars, sans compter sa prestation en tant qu'écrivain ni la rémunération de son assistante. Il précise aussi que la publication des chapitres suivants est liée au paiement du premier chapitre par au moins 75% des internautes. «Mes amis, vous avez l'occasion de devenir le pire cauchemar des éditeurs», déclare-t-il dans sa lettre. «Comme vous le voyez, c'est simple. Pas de cryptage assommant! Vous voulez imprimer l'histoire et en faire profiter un(e) ami(e)? Allez-y. Une seule condition: tout repose sur la confiance, tout simplement. C'est la seule solution. Je compte sur deux facteurs. Le premier est l'honnêteté. Prenez ce que bon vous semble et payez pour cela, dit le proverbe. Le second est que vous aimerez suffisamment l'histoire pour vouloir en lire davantage. Si vous le souhaitez vraiment, vous devez payer. Rappelez-vous: payez, et l'histoire continue; volez, et l'histoire s'arrête.» Une semaine après la mise en ligne du premier chapitre, on compte 152.132 téléchargements, avec paiement par 76% des lecteurs. Certains paient davantage que le dollar demandé, allant parfois jusqu'à 10 ou 20 dollars pour compenser le manque à gagner de ceux qui ne paieraient pas, et éviter ainsi que la série ne s'arrête. La barre des 75% est dépassée de peu, au grand soulagement des fans, si bien que le deuxième chapitre suit un mois après. En août 2000, dans une nouvelle lettre aux lecteurs, Stephen King annonce un nombre de téléchargements légèrement inférieur à celui du premier chapitre. Il en attribue la cause à une publicité moindre et à des problèmes de téléchargement. Si le nombre de téléchargements n'a que légèrement décru, le nombre de paiements est en nette diminution, les internautes ne réglant leur dû qu'une seule fois pour plusieurs téléchargements. L'auteur s'engage toutefois à publier le troisième chapitre comme prévu, fin septembre, et à prendre une décision ensuite sur la poursuite ou non de l'expérience, en fonction du nombre de paiements. Ses prévisions sont de onze ou douze chapitres en tout, avec un nombre total de 1,7 million de téléchargements. Le ou les derniers chapitres seraient gratuits. Plus volumineux (environ 10.000 signes au lieu de 5.000), les chapitres 4 et 5 passent à 2 dollars. Mais le nombre de téléchargements et de paiements ne cesse de décliner, avec 40.000 téléchargements seulement pour le cinquième chapitre - alors que le premier chapitre avait été téléchargé 120.000 fois -, et paiement pour 46% des téléchargements seulement. Fin novembre, Stephen King annonce l'interruption de la publication pendant une période indéterminée, après la parution du sixième chapitre, téléchargeable gratuitement à la mi-décembre. «The Plant va retourner en hibernation afin que je puisse continuer à travailler», précise-t-il sur son site. «Mes agents insistent sur la nécessité d'observer une pause afin que la traduction et la publication à l'étranger puissent rattraper la publication en anglais.» Mais cette décision semble d'abord liée à l'échec commercial de l'expérience. Cet arrêt suscite de vives critiques. On oublie de reconnaître à l'auteur au moins un mérite, celui d'avoir été le premier à se lancer dans l'aventure, avec les risques qu'elle comporte. Entre juillet et décembre 2000, pendant les six mois qu'elle aura duré, nombreux sont ceux qui suivent les tribulations de The Plant, à commencer par les éditeurs, quelque peu inquiets face à un médium qui pourrait un jour concurrencer le circuit traditionnel. Quand Stephen King décide d'arrêter l'expérience, plusieurs journalistes et critiques littéraires affirment qu'il se ridiculise aux yeux du monde entier. N'est-ce pas quelque peu exagéré? L'auteur avait d'emblée annoncé la couleur puisqu'il avait lié la poursuite de la publication à un pourcentage de paiements satisfaisant. Qu'est-il advenu ensuite des expériences numériques de Stephen King? L'auteur reste très présent dans ce domaine, mais cette fois par le biais de son éditeur, preuve que les éditeurs restent toujours utiles. En mars 2001, son roman Dreamcatcher est le premier roman à être lancé simultanément en version imprimée par Simon & Schuster et en version numérique par Palm Digital Media, pour lecture sur les assistants personnels Palm Pilot et Pocket PC. En mars 2002, son recueil de nouvelles Everything's Eventual est lui aussi publié simultanément en deux versions: en version imprimée par Scribner, subdivision de Simon & Schuster, et en version numérique par Palm Digital Media, qui en propose un extrait en téléchargement libre. = D'autres auteurs suivent En novembre 2000, deux romanciers européens, l'anglais Frederick Forsyth et l'espagnol Arturo Pérez-Reverte, décident eux aussi de tenter l'aventure numérique. Mais, forts de l'expérience d'auto- publication de Stephen King peut-être, ni l'un ni l'autre n'ont l'intention de se passer d'éditeur. Frederick Forsyth, le maître britannique du thriller, aborde la publication numérique avec l'appui d'Online Originals, un éditeur électronique londonien. En novembre 2000, Online Originals publie The Veteran, histoire d'un crime violent commis à Londres et premier volet de Quintet, une série de cinq nouvelles électroniques (annoncées dans l'ordre suivant: The Veteran, The Miracle, The Citizen, The Art of the Matter, Draco). Disponible en trois formats (PDF, Microsoft Reader et Glassbook Reader), la nouvelle est vendue au prix de 3,99 pounds (6,60 euros) sur le site de l'éditeur et dans plusieurs librairies en ligne au Royaume- Uni (Alphabetstreet, BOL.com, WHSmith) et aux États-Unis (Barnes & Noble, Contentville, Glassbook). «La publication en ligne sera essentielle à l'avenir, déclare Frederick Forsyth sur le site d'Online Originals. Elle crée un lien simple et surtout rapide et direct entre le producteur original (l'auteur) et le consommateur final (le lecteur), avec très peu d'intermédiaires. Il est passionnant de participer à cette expérience. Je ne suis absolument pas un spécialiste des nouvelles technologies. Je n'ai jamais vu de livre électronique. Mais je n'ai jamais vu non plus de moteur de Formule 1, ce qui ne m'empêche pas de constater combien ces voitures de course sont rapides.» La première expérience numérique d'Arturo Pérez-Reverte est un peu différente. La série best-seller du romancier espagnol relate les aventures du Capitan Alatriste au 17e siècle. Le nouveau titre à paraître fin 2000 s'intitule El Oro del Rey (L'or du roi). En novembre 2000, en collaboration avec son éditeur Alfaguara, l'auteur décide de diffuser El Oro del Rey en version numérique sur un site spécifique du portail Inicia, en exclusivité pendant un mois, avant sa sortie en librairie. Le roman est disponible au format PDF pour 2,90 euros, un prix très inférieur aux 15,10 euros annoncés pour le livre imprimé. Résultat de l'expérience, le nombre de téléchargements est très satisfaisant, mais pas celui des paiements. Un mois après la mise en ligne du roman, on compte 332.000 téléchargements, avec paiement par 12.000 lecteurs seulement. À la même date, Marilo Ruiz de Elvira, directrice de contenus du portail Inicia, explique dans un communiqué: «Pour tout acheteur du livre numérique, il y avait une clé pour le télécharger en 48 heures sur le site internet et, surtout au début, beaucoup d'internautes se sont échangés ce code d'accès dans les forums de chats [dialogues en direct] et ont téléchargé leur exemplaire sans payer. On a voulu tester et cela faisait partie du jeu. Arturo Pérez-Reverte voulait surtout qu'on le lise.» En 2006, les cinq premiers tomes de cette saga littéraire devenue un succès planétaire sont vendus à 4 millions d'exemplaires. Ils donnent également naissance au film Alatriste, une superproduction espagnole de 20 millions d'euros. Trois ans après ces premières tentatives, si les expériences purement numériques sont provisoirement abandonnées, les livres numériques ont une place significative à côté de leurs correspondants imprimés. En 2003, des centaines de best-sellers sont vendus en version numérique sur Amazon.com, Barnes & Noble.com, Yahoo! eBook Store ou sur des sites d'éditeurs (Random House, PerfectBound, etc.), pour lecture sur ordinateur ou sur assistant personnel. Mobipocket distribue 6.000 titres numériques dans plusieurs langues, soit sur son site soit dans des librairies partenaires. Le catalogue de Palm Digital Media approche les 10.000 titres, lisibles sur les gammes de PDA Palm et Pocket PC, avec 15 à 20 nouveaux titres par jour et 1.000 nouveaux clients par semaine. Une expérience un peu différente est celle du romancier brésilien Paulo Coelho, devenu mondialement célèbre après la parution de L'Alchimiste. Début 2003, ses livres, traduits en 56 langues, ont été vendus en 53 millions d'exemplaires dans 155 pays, dont 6,5 millions d'exemplaires dans les pays francophones. En mars 2003, Paulo Coelho décide de distribuer plusieurs romans gratuitement en version PDF, dans diverses langues, avec l'accord de ses éditeurs respectifs, dont Anne Carrière, son éditrice en France. Trois romans sont disponibles en français: Manuel du guerrier de la lumière, La cinquième montagne et Veronika décide de mourir. Pourquoi une telle décision? «Comme le français est présent, à plus ou moins grande échelle, dans le monde entier, je recevais sans cesse des courriers électroniques d'universités et de personnes habitant loin de la France, qui ne trouvaient pas mes oeuvres», déclare le romancier par le biais de son éditrice. À la question classique relative au préjudice éventuel sur les ventes futures, il répond: «Seule une minorité de gens a accès à l'internet, et le livre au format ebook ne remplacera jamais le livre papier.» Une remarque très juste en 2003, mais qui n'est peut- être plus de mise en 2010. = Numilog, librairie numérique Numilog ouvre ses portes «virtuelles» en octobre 2000 pour devenir en quelques années la plus grande librairie numérique francophone du réseau. En février 2001, Denis Zwirn, président de Numilog, relate: «Dès 1995, j'avais imaginé et dessiné des modèles de lecteurs électroniques permettant d'emporter sa bibliothèque avec soi et pesant comme un livre de poche. Début 1999, j'ai repris ce projet avec un ami spécialiste de la création de sites internet, en réalisant la formidable synergie possible entre des appareils de lecture électronique mobiles et le développement d'internet, qui permet d'acheminer les livres dématérialisés en quelques minutes dans tous les coins du monde.» Denis explique aussi: «Nous avons créé une base de livres accessible par un moteur de recherche. Chaque livre fait l'objet d'une fiche avec un résumé et un extrait. En quelques clics, il peut être acheté en ligne par carte bancaire, puis reçu par email ou téléchargement.» Les livres sont à l'origine répartis en trois grandes catégories - savoir, guides pratiques et littérature. Le site de Numilog offre ensuite «des fonctionnalités nouvelles, comme l'intégration d'une "authentique vente au chapitre" (les chapitres vendus isolément sont traités comme des éléments inclus dans la fiche-livre, et non comme d'autres livres) et la gestion très ergonomique des formats de lecture multiples». Fondée en avril 2000, six mois avant l'ouverture de la librairie numérique, la société Numilog a en fait une triple activité: librairie en ligne, studio de fabrication et diffuseur. «Numilog est d'abord une librairie en ligne de livres numériques», relate Denis en 2001. «Notre site internet est dédié à la vente en ligne de ces livres, qui sont envoyés par courrier électronique ou téléchargés après paiement par carte bancaire. Il permet aussi de vendre des livres par chapitres. Numilog est également un studio de fabrication de livres numériques: aujourd'hui, les livres numériques n'existent pas chez les éditeurs, il faut donc d'abord les fabriquer avant de pouvoir les vendre, dans le cadre de contrats négociés avec les éditeurs détenteurs des droits. Ce qui signifie les convertir à des formats convenant aux différents "readers" du marché. (...) Enfin Numilog devient aussi progressivement un diffuseur. Car, sur internet, il est important d'être présent en de très nombreux points du réseau pour faire connaître son offre. Pour les livres en particulier, il faut les proposer aux différents sites thématiques ou de communautés, dont les centres d'intérêt correspondent à leur sujet (sites de fans d'histoire, de management, de science-fiction...). Numilog facilitera ainsi la mise en oeuvre de multiples "boutiques de livres numériques" thématiques.» Les livres sont disponibles en plusieurs formats: format PDF pour lecture sur l'Acrobat Reader (devenu l'Adobe Reader en mai 2003), format LIT pour lecture sur le Microsoft Reader et format PRC pour lecture sur le Mobipocket Reader. En septembre 2003, le catalogue comprend 3.500 titres (livres et périodiques) en français et en anglais, grâce à un partenariat avec une quarantaine d'éditeurs, le but à long terme étant de «permettre à un public d'internautes de plus en plus large d'avoir progressivement accès à des bases de livres numériques aussi importantes que celles des livres papier, mais avec plus de modularité, de richesse d'utilisation et à moindre prix». Au fil des ans, Numilog devient la principale librairie francophone de livres numériques, suite à des accords avec de nombreux éditeurs: Gallimard, Albin Michel, Eyrolles, Hermès Science, Pearson Education France, etc. Numilog propose aussi des livres audio-numériques lisibles sur synthèse vocale. Une librairie anglophone est lancée suite à des accords de diffusion conclus avec plusieurs éditeurs anglo-saxons: Springer-Kluwer, Oxford University Press, Taylor & Francis, Kogan Page, etc. Les différents formats proposés permettent la lecture des livres sur tout appareil électronique: ordinateur, assistant personnel, téléphone portable, smartphone, tablette de lecture. La société est également prestataire de services pour les technologies DRM. En 2004, Numilog met sur pied un système de bibliothèque en ligne pour le prêt de livres numériques. Ce système est surtout destiné aux bibliothèques, aux administrations et aux entreprises. En décembre 2006, le catalogue de Numilog comprend 35.000 livres grâce à un partenariat avec 60 éditeurs francophones et anglophones. Selon Denis Zwirn, interviewé à nouveau en août 2007, «2008 pourrait sans doute marquer un premier point d'inflexion dans la courbe de croissance du marché des livres numériques. Plusieurs facteurs sont réunis pour cela: (1) le développement de vastes catalogues en ligne utilisant pleinement les fonctionnalités de la recherche plein texte dans les livres numérisés, comme ceux de la future Bibliothèque numérique européenne, de VollTextSuche Online, de Google et d'Amazon. Une fois le contenu trouvé dans un des ouvrages ainsi "sondé" par ce type de recherche révolutionnaire pour le grand public, il est naturel de vouloir accéder à la totalité de l'ouvrage... dans sa version numérique. (2) Des progrès techniques cruciaux tels que la proposition commerciale d'appareils de lecture à base d'encre électronique améliorant radicalement l'expérience de lecture finale pour l'usager en la rapprochant de celle du papier. Par exemple l'iLiad d'Irex ou le Sony Reader, mais bien d'autres appareils s'annoncent. Le progrès concerne toutefois tout autant le développement des nouveaux smartphones multifonctions comme les BlackBerry ou l'iPhone, ou la proposition de logiciels de lecture à l'interface fortement améliorée et pensée pour les ebooks sur PC, comme Adobe Digital Edition. (3) Enfin, le changement important d'attitude de la part des professionnels du secteur, éditeurs, et probablement bientôt aussi libraires. Les éditeurs anglo-saxons universitaires ont massivement tracé une route que tous les autres sont en train de suivre, en tout cas aux États-Unis, en Europe du Nord et en France: proposer une version numérique de tous les ouvrages. Même pour les plus réticents encore il y a quelques années, ce n'est plus une question de "pourquoi?", c'est simplement devenu une question de "comment?". Les libraires ne vont pas tarder à considérer que vendre un livre numérique fait partie de leur métier normal.» Selon Denis, «le livre numérique n'est plus une question de colloque, de définition conceptuelle ou de divination par certains "experts": c'est un produit commercial et un outil au service de la lecture. Il n'est pas besoin d'attendre je ne sais quel nouveau mode de lecture hypermoderne et hypertextuel enrichi de multimédia orchestrant savamment sa spécificité par rapport au papier, il suffit de proposer des textes lisibles facilement sur les supports de lecture électronique variés qu'utilisent les gens, l'encre électronique pouvant progressivement envahir tous ces supports. Et de les proposer de manière industrielle. Ce n'est pas et ne sera jamais un produit de niche (les dictionnaires, les guides de voyage, les livres pour les non voyants...): c'est en train de devenir un produit de masse, riche de formes multiples comme l'est le livre traditionnel.» En janvier 2009, Numilog, devenu filiale du groupe Hachette Livre (en mai 2008), est désormais un distributeur-diffuseur numérique représentant 100 éditeurs francophones et anglophones, avec un catalogue de 50.000 livres numériques distribués auprès des particuliers et des bibliothèques. Numilog propose également aux librairies un service de vente de livres numériques sur leur propre site. LA CYBER-LITTÉRATURE [Résumé] Nombre d'auteurs s'accordent à reconnaître les bienfaits de l'internet, que ce soit pour la recherche d'information, la diffusion de leurs oeuvres, les échanges avec les lecteurs ou la collaboration avec d'autres créateurs. Des auteurs férus de nouvelles technologies font aussi un véritable travail de défricheur en explorant les possibilités offertes par l'hyperlien. Les technologies numériques donnent naissance à plusieurs genres: roman multimédia, roman hypertexte, roman hypermédia, site d'écriture hypermédia, mail-roman, etc. La cyber- littérature bouscule désormais la littérature traditionnelle en lui apportant un souffle nouveau, tout en s'intégrant à d'autres formes artistiques puisque le support numérique favorise la fusion de l'écrit avec l'image et le son. = Poésie Poète et plasticienne, Silvaine Arabo vit en France, dans la région Poitou-Charentes. En mai 1997, elle crée l'un des premiers sites francophones consacrés à la poésie, Poésie d'hier et d'aujourd'hui, sur lequel elle propose de nombreux poèmes, y compris les siens. En juin 1998, elle raconte: «Je suis poète, peintre et professeur de lettres (13 recueils de poèmes publiés, ainsi que deux recueils d'aphorismes et un essai sur le thème "poésie et transcendance"; quant à la peinture, j'ai exposé mes toiles à Paris - deux fois - et en province). (...) Pour ce qui est d'internet, je suis autodidacte (je n'ai reçu aucune formation informatique quelle qu'elle soit). J'ai eu l'idée de construire un site littéraire centré sur la poésie: internet me semble un moyen privilégié pour faire circuler des idées, pour communiquer ses passions aussi. Je me suis donc mise au travail, très empiriquement, et ai finalement abouti à ce site sur lequel j'essaye de mettre en valeur des poètes contemporains de talent, sans oublier la nécessaire prise de recul (rubrique "Réflexions sur la poésie") sur l'objet considéré. (...) Par ailleurs, internet m'a mis en contact avec d'autres poètes, dont certains fort intéressants. Cela rompt le cercle de la solitude et permet d'échanger des idées. On se lance des défis aussi. Internet peut donc pousser à la créativité et relancer les motivations des poètes puisqu'ils savent qu'ils seront lus et pourront même, dans le meilleur des cas, correspondre avec leurs lecteurs et avoir les points de vue de ceux-ci sur leurs textes. Je ne vois personnellement que des aspects positifs à la promotion de la poésie par internet, tant pour le lecteur que pour le créateur.» Très vite, Poésie d'hier et d'aujourd'hui prend la forme d'une cyber- revue. Quatre ans plus tard, en mars 2001, Silvaine Arabo crée une deuxième revue, Saraswati: revue de poésie, d'art et de réflexion, cette fois sous forme imprimée. Les deux revues «se complètent et sont vraiment à placer en regard l'une de l'autre». = Fables Fondé en 1992 par Nicolas et Suzanne Pewny, alors libraires en Haute- Savoie, Le Choucas est une petite maison d'édition spécialisée dans les romans policiers, la littérature, la photographie et les livres d'art. Bien qu'étant d'abord un éditeur à vocation commerciale, Nicolas Pewny tient aussi à avoir des activités non commerciales pour faire connaître des auteurs peu diffusés, par exemple Raymond Godefroy, écrivain-paysan normand, qui désespérait de trouver un éditeur pour son recueil de fables, Fables pour l'an 2000. Quelques jours avant l'an 2000, Nicolas Pewny publie le recueil en ligne sur le site du Choucas, dans une belle version numérique. «Internet représente pour moi un formidable outil de communication qui nous affranchit des intermédiaires, des barrages doctrinaires et des intérêts des médias en place», écrit Raymond Godefroy en décembre 1999. «Soumis aux mêmes lois cosmiques, les hommes, pouvant mieux se connaître, acquerront peu à peu cette conscience du collectif, d'appartenir à un même monde fragile pour y vivre en harmonie sans le détruire. Internet est absolument comme la langue d'Ésope, la meilleure et la pire des choses, selon l'usage qu'on en fait, et j'espère qu'il me permettra de m'affranchir en partie de l'édition et de la distribution traditionnelle qui, refermée sur elle-même, souffre d'une crise d'intolérance pour entrer à reculons dans le prochain millénaire.» Très certainement autobiographique, la fable Le poète et l'éditeur (à savoir la sixième fable de la troisième partie du recueil) relate on ne peut mieux les affres du poète à la recherche d'un éditeur. Raymond Godefroy restant très attaché au papier, il auto-publie la version imprimée de ses fables en juin 2001, avec un titre légèrement différent, Fables pour les années 2000, puisque le cap du 21e siècle est désormais franchi. = Romans policiers Michel Benoît habite Montréal, au Québec. Auteur de nouvelles policières, de récits noirs et d'histoires fantastiques, il utilise l'internet pour élargir ses horizons et pour «abolir le temps et la distance». Il relate en juin 2000: «L'internet s'est imposé à moi comme outil de recherche et de communication, essentiellement. Non, pas essentiellement. Ouverture sur le monde aussi. Si l'on pense "recherche", on pense "information". Voyez-vous, si l'on pense "écriture", "réflexion", on pense "connaissance", "recherche". Donc on va sur la toile pour tout, pour une idée, une image, une explication. Un discours prononcé il y a vingt ans, une peinture exposée dans un musée à l'autre bout du monde. On peut donner une idée à quelqu'un qu'on n'a jamais vu, et en recevoir de même. La toile, c'est le monde au clic de la souris. On pourrait penser que c'est un beau cliché. Peut-être bien, à moins de prendre conscience de toutes les implications de la chose. L'instantanéité, l'information tout de suite, maintenant. Plus besoin de fouiller, de se taper des heures de recherche. On est en train de faire, de produire. On a besoin d'une information. On va la chercher, immédiatement. De plus, on a accès aux plus grandes bibliothèques, aux plus importants journaux, aux musées les plus prestigieux. (...) Mon avenir professionnel en inter-relation avec le net, je le vois exploser. Plus rapide, plus complet, plus productif. Je me vois faire en une semaine ce qui m'aurait pris des mois. Plus beau, plus esthétique. Je me vois réussir des travaux plus raffinés, d'une facture plus professionnelle, même et surtout dans des domaines connexes à mon travail, comme la typographie, où je n'ai aucune compétence. La présentation, le transport de textes, par exemple. Le travail simultané de plusieurs personnes qui seront sur des continents différents. Arriver à un consensus en quelques heures sur un projet, alors qu'avant le net, il aurait fallu plusieurs semaines, parlons de mois entre les Francophones. Plus le net ira se complexifiant, plus l'utilisation du net deviendra profitable, nécessaire, essentielle.» Autre expérience, celle d'Alain Bron, consultant en systèmes d'information et écrivain. L'internet est un des «personnages» de son deuxième roman, Sanguine sur toile, disponible en version imprimée aux éditions du Choucas en 1999, puis en version numérique (format PDF) aux éditions 00h00 en 2000. Quel est le thème de ce roman? «La "toile", c'est celle du peintre, c'est aussi l'autre nom d'internet: le web - la toile d'araignée -», raconte l'auteur en novembre 1999. «"Sanguine" évoque le dessin et la mort brutale. Mais l'amour des couleurs justifierait-il le meurtre? Sanguine sur toile évoque l'histoire singulière d'un internaute pris dans la tourmente de son propre ordinateur, manipulé à distance par un très mystérieux correspondant qui n'a que vengeance en tête. J'ai voulu emporter le lecteur dans les univers de la peinture et de l'entreprise, univers qui s'entrelacent, s'échappent, puis se rejoignent dans la fulgurance des logiciels. Le lecteur est ainsi invité à prendre l'enquête à son propre compte pour tenter de démêler les fils tressés par la seule passion. Pour percer le mystère, il devra répondre à de multiples questions. Le monde au bout des doigts, l'internaute n'est-il pas pour autant l'être le plus seul au monde? Compétitivité oblige, jusqu'où l'entreprise d'aujourd'hui peut-elle aller dans la violence? La peinture tend-elle à reproduire le monde ou bien à en créer un autre? Enfin, j'ai voulu montrer que les images ne sont pas si sages. On peut s'en servir pour agir, voire pour tuer. (...) Dans le roman, internet est un personnage en soi. Plutôt que de le décrire dans sa complexité technique, le réseau est montré comme un être tantôt menaçant, tantôt prévenant, maniant parfois l'humour. N'oublions pas que l'écran d'ordinateur joue son double rôle: il montre et il cache. C'est cette ambivalence qui fait l'intrigue du début à la fin. Dans ce jeu, le grand gagnant est bien sûr celui ou celle qui sait s'affranchir de l'emprise de l'outil pour mettre l'humanisme et l'intelligence au-dessus de tout.» = Autres oeuvres de fiction Murray Suid vit à Palo Alto, dans la Silicon Valley, en Californie. Il est l'auteur de livres pédagogiques, de livres pour enfants, d'oeuvres multimédia et de scénarios. Dès septembre 1998, il préconise une solution choisie depuis par de nombreux auteurs. «Un livre peut avoir un prolongement sur le web - et donc vivre en partie dans le cyberespace, explique-t-il. L'auteur peut ainsi aisément l'actualiser et le corriger, alors qu'auparavant il devait attendre longtemps, jusqu'à l'édition suivante, quand il y en avait une. (...) Je ne sais pas si je publierai des livres sur le web, au lieu de les publier en version imprimée. J'utiliserai peut-être ce nouveau support si les livres deviennent multimédias. Pour le moment, je participe au développement de matériel pédagogique multimédia. C'est un nouveau type de matériel qui me plaît beaucoup et qui permet l'interactivité entre des textes, des films, des bandes sonores et des graphiques qui sont tous reliés les uns aux autres.» Un an plus tard, en août 1999, il ajoute: «En plus des livres complétés par un site web, je suis en train d'adopter la même formule pour mes oeuvres multimédias - qui sont sur CD-ROM - afin de les actualiser et d'enrichir leur contenu.» Quelques mois plus tard, l'intégralité de ses oeuvres multimédias est sur le réseau. Le matériel pédagogique auquel il contribue est conçu non plus pour diffusion sur CD-ROM, mais pour diffusion sur le web. D'entreprise multimédia, la société de logiciels éducatifs qui emploie Murray s'est reconvertie en entreprise internet. Autre expérience, celle d'Anne-Bénédicte Joly, romancière et essayiste, qui habite en région parisienne. En avril 2000, elle décide d'auto- publier ses oeuvres en utilisant l'internet pour les faire connaître. «Mon site a plusieurs objectifs», relate-t-elle en juin 2000. «Présenter mes livres (essais, nouvelles et romans auto-édités) à travers des fiches signalétiques (dont le format est identique à celui que l'on trouve dans la base de données Électre) et des extraits choisis, présenter mon parcours (de professeur de lettres et d'écrivain), permettre de commander mes ouvrages, offrir la possibilité de laisser des impressions sur un livre d'or, guider le lecteur à travers des liens vers des sites littéraires. (...) Créer un site internet me permet d'élargir le cercle de mes lecteurs en incitant les internautes à découvrir mes écrits. Internet est également un moyen pour élargir la diffusion de mes ouvrages. Enfin, par une politique de liens, j'espère susciter des contacts de plus en plus nombreux.» = Romans numériques Lucie de Boutiny est l'auteur de NON, roman multimédia débuté en août 1997 et publié en feuilleton par Synesthésie, une revue en ligne d'art contemporain. «NON est un roman comique qui fait la satire de la vie quotidienne d'un couple de jeunes cadres supposés dynamiques», raconte-t-elle en juin 2000. «Bien qu'appartenant à l'élite high-tech d'une industrie florissante, Monsieur et Madame sont les jouets de la dite révolution numérique. (...) NON prolonge les expériences du roman post-moderne (récits tout en digression, polysémie avec jeux sur les registres - naturaliste, mélo, comique... - et les niveaux de langues, etc.). Cette hyper-stylisation permet à la narration des développements inattendus et offre au lecteur l'attrait d'une navigation dans des récits multiples et multimédias, car l'écrit à l'écran s'apparente à un jeu et non seulement se lit mais aussi se regarde.» Les romans précédents de Lucie de Boutiny sont publiés sous forme imprimée. Un roman numérique requiert-il une démarche différente? «D'une manière générale, mon humble expérience d'apprentie auteur m'a révélé qu'il n'y a pas de différence entre écrire de la fiction pour le papier ou le pixel: cela demande une concentration maximale, un isolement à la limite désespéré, une patience obsessionnelle dans le travail millimétrique avec la phrase, et bien entendu, en plus de la volonté de faire, il faut avoir quelque chose à dire! Mais avec le multimédia, le texte est ensuite mis en scène comme s'il n'était qu'un scénario. Et si, à la base, il n'y a pas un vrai travail sur le langage des mots, tout le graphisme et les astuces interactives qu'on peut y mettre fera gadget. Par ailleurs, le support modifie l'appréhension du texte, et même, il faut le souligner, change l'oeuvre originale.» Autre roman numérique, Apparitions inquiétantes est né sous la plume d'Anne-Cécile Brandenbourger. Il s'agit d'«une longue histoire à lire dans tous les sens, un labyrinthe de crimes, de mauvaises pensées et de plaisirs ambigus». Pendant deux ans, cette histoire se construit sous forme de feuilleton sur le site d'Anacoluthe, en collaboration avec Olivier Lefèvre. En février 2000, l'histoire est publiée en version numérique (au format PDF) aux éditions 00h00, en tant que premier titre de la Collection 2003, consacrée aux écritures numériques, avec version imprimée à la demande. 00h00 présente l'ouvrage comme «un cyber-polar fait de récits hypertextuels imbriqués en gigogne. Entre personnages de feuilleton américain et intrigue policière, le lecteur est - hypertextuellement - mené par le bout du nez dans cette saga aux allures borgésiennes. (...) C'est une histoire de meurtre et une enquête policière; des textes écrits court et montés serrés; une balade dans l'imaginaire des séries télé; une déstructuration (organisée) du récit dans une transposition littéraire du zapping; et par conséquent, des sensations de lecture radicalement neuves.» Suite au succès du livre, les éditions Florent Massot publient en août 2000 une deuxième version imprimée (la première étant celle de 00h00, imprimée uniquement à la demande), avec une couverture en 3D, un nouveau titre - La malédiction du parasol - et une maquette d'Olivier Lefèvre restituant le rythme de la version originale. Anne-Cécile Brandenbourger relate en juin 2000: «Les possibilités offertes par l'hypertexte m'ont permis de développer et de donner libre cours à des tendances que j'avais déjà auparavant. J'ai toujours adoré écrire et lire des textes éclatés et inclassables (comme par exemple La vie mode d'emploi de Perec ou Si par une nuit d'hiver un voyageur de Calvino) et l'hypermédia m'a donné l'occasion de me plonger dans ces formes narratives en toute liberté. Car, pour créer des histoires non linéaires et des réseaux de textes qui s'imbriquent les uns dans les autres, l'hypertexte est évidemment plus approprié que le papier. Je crois qu'au fil des jours, mon travail hypertextuel a rendu mon écriture de plus en plus intuitive. Plus "intérieure" aussi peut-être, plus proche des associations d'idées et des mouvements désordonnés qui caractérisent la pensée lorsqu'elle se laisse aller à la rêverie. Cela s'explique par la nature de la navigation hypertextuelle, le fait que presque chaque mot qu'on écrit peut être un lien, une porte qui s'ouvre sur une histoire.» Lucie de Boutiny raconte à la même date: «Mes "conseillers littéraires", des amis qui n'ont pas ressenti le vent de liberté qui souffle sur le web, aimeraient que j'y reste, engluée dans la pâte à papier. Appliquant le principe de demi-désobéissance, je fais des allers-retours papier-pixel. L'avenir nous dira si j'ai perdu mon temps ou si un nouveau genre littéraire hypermédia va naître. (...) Si les écrivains français classiques en sont encore à se demander s'ils ne préfèrent pas le petit carnet Clairefontaine, le Bic ou le Mont-Blanc fétiche, et un usage modéré du traitement de texte, plutôt que l'ordinateur connecté, c'est que l'HTX [HyperText Literature] nécessite un travail d'accouchement visuel qui n'est pas la vocation originaire de l'écrivain papier. En plus des préoccupations du langage (syntaxe, registre, ton, style, histoire...), le techno-écrivain - collons-lui ce label pour le différencier - doit aussi maîtriser la syntaxe informatique et participer à l'invention de codes graphiques car lire sur un écran est aussi regarder.» = Mail-romans Le premier mail-roman francophone est lancé en 2001 par Jean-Pierre Balpe, chercheur, écrivain et directeur du département hypermédia de l'Université Paris 8. Pendant très exactement cent jours, entre le 11 avril et le 19 juillet 2001, il diffuse quotidiennement par courriel un chapitre de Rien n'est sans dire auprès de cinq cents personnes - sa famille, ses amis, ses collègues, etc. - en y intégrant les réponses et les réactions des lecteurs. Racontée par un narrateur, l'histoire est celle de Stanislas et Zita, qui vivent une passion tragique déchirée par une sombre histoire politique. «Cette idée d'un mail-roman m'est venue tout naturellement», relate l'auteur en février 2002. «D'une part en me demandant depuis quelque temps déjà ce qu'internet peut apporter sur le plan de la forme à la littérature (...) et d'autre part en lisant de la littérature "épistolaire" du 18e siècle, ces fameux "romans par lettres". Il suffit alors de transposer: que peut être le "roman par lettres" aujourd'hui?» Jean-Pierre Balpe tire plusieurs conclusions de cette expérience: «D'abord c'est un "genre": depuis, plusieurs personnes m'ont dit lancer aussi un mail-roman. Ensuite j'ai aperçu quantité de possibilités que je n'ai pas exploitées et que je me réserve pour un éventuel travail ultérieur. La contrainte du temps est ainsi très intéressante à exploiter: le temps de l'écriture bien sûr, mais aussi celui de la lecture: ce n'est pas rien de mettre quelqu'un devant la nécessité de lire, chaque jour, une page de roman. Ce "pacte" a quelque chose de diabolique. Et enfin le renforcement de ma conviction que les technologies numériques sont une chance extraordinaire du renouvellement du littéraire.» = Sites hypermédias Principe de base du web, le lien hypertexte permet de relier entre eux des documents textuels et des images. Quant au lien hypermédia, il permet l'accès à des graphiques, des images animées, des bandes sonores et des vidéos. Des écrivains férus de nouvelles technologies ne tardent pas à en explorer les possibilités, dans des sites d'écriture hypermédia et des oeuvres d'hyperfiction. Mis en ligne en juin 1997, oVosite est un espace d'écriture conçu par un collectif de six auteurs issus du département hypermédia de l'Université Paris 8: Chantal Beaslay, Laure Carlon, Luc Dall'Armellina (qui est aussi le webmestre d'oVosite), Philippe Meuriot, Anika Mignotte et Claude Rouah. «oVosite est un site web conçu et réalisé (...) autour d'un symbole primordial et spirituel, celui de l'oeuf», explique Luc Dall'Armellina en juin 2000. «Le site s'est constitué selon un principe de cellules autonomes qui visent à exposer et intégrer des sources hétérogènes (littérature, photo, peinture, vidéo, synthèse) au sein d'une interface unifiante.» Les possibilités offertes par l'hyperlien ont-elles changé son mode d'écriture? Sa réponse est à la fois négative et positive. Négative d'abord: «Non - parce qu'écrire est de toute façon une affaire très intime, un mode de relation qu'on entretient avec son monde, ses proches et son lointain, ses mythes et fantasmes, son quotidien et enfin, appendus à l'espace du langage, celui de sa langue d'origine. Pour toutes ces raisons, je ne pense pas que l'hypertexte change fondamentalement sa manière d'écrire, qu'on procède par touches, par impressions, associations, quel que soit le support d'inscription, je crois que l'essentiel se passe un peu à notre insu.» Positive ensuite: «Oui - parce que l'hypertexte permet sans doute de commencer l'acte d'écriture plus tôt: devançant l'activité de lecture (associations, bifurcations, sauts de paragraphes) jusque dans l'acte d'écrire. L'écriture (ceci est significatif avec des logiciels comme StorySpace) devient peut-être plus modulaire. On ne vise plus tant la longue horizontalité du récit, mais la mise en espace de ses fragments, autonomes. Et le travail devient celui d'un tissage des unités entre elles. L'autre aspect lié à la modularité est la possibilité d'écritures croisées, à plusieurs auteurs. Peut-être s'agit-il d'ailleurs d'une méta-écriture, qui met en relation les unités de sens (paragraphes ou phrases) entre elles.» Luc ajoute aussi: «La couverture du réseau autour de la surface du globe resserre les liens entre les individus distants et inconnus. Ce qui n'est pas simple puisque nous sommes placés devant des situations nouvelles: ni vraiment spectateurs, ni vraiment auteurs, ni vraiment lecteurs, ni vraiment interacteurs. Ces situations créent des nouvelles postures de rencontre, des postures de "spectacture" ou de "lectacture" (Jean-Louis Weissberg). Les notions de lieu, d'espace, de temps, d'actualité sont requestionnées à travers ce médium qui n'offre plus guère de distance à l'événement mais se situe comme aucun autre dans le présent en train de se faire. L'écart peut être mince entre l'envoi et la réponse, parfois immédiat (cas de la génération de textes). Mais ce qui frappe et se trouve repérable ne doit pas masquer les aspects encore mal définis tels que les changements radicaux qui s'opèrent sur le plan symbolique, représentationnel, imaginaire et plus simplement sur notre mode de relation aux autres. "Plus de proximité" ne crée pas plus d'engagement dans la relation, de même "plus de liens" ne créent pas plus de liaisons, ou encore "plus de tuyaux" ne créent pas plus de partage. Je rêve d'un internet où nous pourrions écrire à plusieurs sur le même dispositif, une sorte de lieu d'atelier d'écritures permanent et qui autoriserait l'écriture personnelle (c'est en voie d'exister), son partage avec d'autres auteurs, leur mise en relation dans un tissage d'hypertextes et un espace commun de notes et de commentaires sur le travail qui se crée.» L'avenir de la cyber-littérature est tracé par sa technologie même, comme l'explique en août 1999 Jean-Paul, webmestre du site hypermédia cotres.net: «Il est maintenant impossible à un(e) auteur(e) seul(e) de manier à la fois les mots, leur apparence mouvante et leur sonorité. Maîtriser aussi bien Director, Photoshop et Cubase, pour ne citer que les plus connus, c'était possible il y a dix ans, avec les versions 1. Ça ne l'est plus. Dès demain (matin), il faudra savoir déléguer les compétences, trouver des partenaires financiers aux reins autrement plus solides que Gallimard, voir du côté d'Hachette-Matra, Warner, Pentagone, Hollywood. Au mieux, le statut de... l'écrivaste? Du multimédiaste? sera celui du vidéaste, du metteur en scène, du directeur de produit: c'est lui qui écope des palmes d'or à Cannes, mais il n'aurait jamais pu les décrocher seul. Soeur jumelle (et non pas clone) du cinématographe, la cyber-littérature (= la vidéo + le lien) sera une industrie, avec quelques artisans isolés dans la périphérie off-off (aux droits d'auteur négatifs, donc).» Quelques mois plus tard, en juin 2000, Jean-Paul s'interroge sur l'apport de l'internet dans son écriture: «La navigation par hyperliens se fait en rayon (j'ai un centre d'intérêt et je clique méthodiquement sur tous les liens qui s'y rapportent) ou en louvoiements (de clic en clic, à mesure qu'ils apparaissent, au risque de perdre de vue mon sujet). Bien sûr, les deux sont possibles avec l'imprimé. Mais la différence saute aux yeux: feuilleter n'est pas cliquer. L'internet n'a donc pas changé ma vie, mais mon rapport à l'écriture. On n'écrit pas de la même manière pour un site que pour un scénario, une pièce de théâtre, etc. (...) Depuis, j'écris (compose, mets en page, en scène) directement à l'écran. L'état "imprimé" de mon travail n'est pas le stade final, le but; mais une forme parmi d'autres, qui privilégie la linéarité et l'image, et qui exclut le son et les images animées. ... C'est finalement dans la publication en ligne (l'entoilage?) que j'ai trouvé la mobilité, la fluidité que je cherchais. Le maître mot y est "chantier en cours", sans palissades. Accouchement permanent, à vue, comme le monde sous nos yeux. Provisoire, comme la vie qui tâtonne, se cherche, se déprend, se reprend. Avec évidemment le risque souligné par les gutenbergs, les orphelins de la civilisation du livre: plus rien n'est sûr. Il n'y a plus de source fiable, elles sont trop nombreuses, et il devient difficile de distinguer un clerc d'un gourou. Mais c'est un problème qui concerne le contrôle de l'information. Pas la transmission des émotions.» Jean-Paul fait à nouveau le point sur son activité d'entoileur quelques années plus tard, en janvier 2007: «J'ai gagné du temps. J'utilise moins de logiciels, dont j'intègre le résultat dans Flash. Ce dernier m'assure de contrôler à 90% le résultat à l'affichage sur les écrans de réception (au contraire de ceux qui préfèrent présenter des oeuvres ouvertes, où l'intervention tantôt du hasard tantôt de l'internaute est recherchée). Je peux maintenant me concentrer sur le coeur de la chose: l'architecture et le développement du récit. (...) Les deux points forts des trois ou quatre ans à venir sont: (1) la généralisation du très haut débit (c'est-à-dire en fait du débit normal), qui va m'affranchir des limitations purement techniques, notamment des soucis de poids et d'affichage des fichiers (mort définitive, enfin, des histogrammes de chargement); (2) le développement de la 3 D. C'est le récit en hypermédia (= le multimédia + le clic) qui m'intéresse. Les pièges que pose un récit en 2 D sont déjà passionnants. Avec la 3 D, il va falloir chevaucher le tigre pour éviter la simple prouesse technique et laisser la priorité au récit.» VERS UNE BIBLIOTHÈQUE PLANÉTAIRE [Résumé] En 2005, le livre devient un objet convoité par les géants de l'internet que sont Google, Yahoo! et Microsoft, d'une part par souci méritoire de mettre le patrimoine mondial à la disposition de tous, d'autre part à cause de l'enjeu représenté par les recettes publicitaires générées par les liens commerciaux accolés aux résultats des recherches. Lancée en octobre 2005 à l'instigation de l'Internet Archive, l'Open Content Alliance (OCA) souhaite pour sa part créer une bibliothèque planétaire publique qui soit respectueuse du droit d'auteur et dont les collections puissent être accessibles sur n'importe quel moteur de recherche. = Google Books # Google Print Google décide de mettre son expertise au service du livre et lance la version bêta de Google Print en mai 2005. Ce lancement est précédé de deux étapes. En octobre 2004, Google lance la première partie de son programme Google Print, établi en partenariat avec les éditeurs pour pouvoir consulter à l'écran des extraits de livres, puis commander les livres auprès d'une librairie en ligne. En décembre 2004, Google lance la deuxième partie de son programme Google Print, cette fois à destination des bibliothèques. Il s'agit d'un projet de bibliothèque consistant à numériser les livres appartenant à plusieurs grandes bibliothèques partenaires, à commencer par la bibliothèque de l'Université du Michigan (dans sa totalité, à savoir 7 millions d'ouvrages), les bibliothèques des Universités de Harvard, de Stanford et d'Oxford, et celle de la ville de New York. Le coût estimé au départ se situe entre 150 et 200 millions de dollars US, avec la numérisation de 10 millions de livres sur six ans et un chantier d'une durée totale de dix ans. En août 2005, soit trois mois après son lancement, Google Print est suspendu pour une durée indéterminée suite à un conflit grandissant avec les associations d'auteurs et d'éditeurs de livres sous droits, celles-ci reprochant à Google de numériser les livres sans l'accord préalable des ayants droit. # Google Livres Le programme reprend en août 2006 sous le nom de Google Books (Google Livres). Google Books permet de rechercher les livres par date, titre ou éditeur. La numérisation des fonds de grandes bibliothèques se poursuit, tout comme le développement de partenariats avec les éditeurs qui le souhaitent. Les livres libres de droit sont consultables à l'écran en texte intégral, leur contenu est copiable et l'impression est possible page à page. Ils sont également téléchargeables sous forme de fichiers PDF et imprimables dans leur entier. Les liens publicitaires associés aux pages de livres sont situés en haut et à droite de l'écran. Le conflit avec les associations d'auteurs et d'éditeurs se poursuit lui aussi, puisque Google continue de numériser des livres sous droits sans l'autorisation préalable des ayants droit, en invoquant le droit de citation pour présenter des extraits sur le web. L'Authors Guild et l'Association of American Publishers (AAP) invoquent pour leur part le non respect de la législation relative au copyright pour attaquer Google en justice. Fin 2006, d'après le buzz médiatique, Google scannerait 3.000 livres par jour - ce qui représenterait un million de livres par an -, le coût estimé serait de 30 dollars par livre et Google Books comprendrait déjà 3 millions de livres. Tous chiffres à prendre avec précaution, la société ne communiquant pas de statistiques à ce sujet. À l'exception de la New York Public Library, les collections en cours de numérisation appartiennent toutes à des bibliothèques universitaires américaines (Harvard, Stanford, Michigan, Oxford, Californie, Virginie, Wisconsin-Madison), auxquelles s'ajoutent la bibliothèque de l'Universidad Complutense de Madrid (Espagne) puis, début 2007, les bibliothèques des Universités de Princeton et du Texas (Austin), ainsi que la Biblioteca de Catalunya (Catalogne, Espagne) et la Bayerische Staatbibliothek (Bavière, Allemagne). En mai 2007, Google annonce la participation de la première bibliothèque francophone, la Bibliothèque cantonale et universitaire (BCU) de Lausanne (Suisse), pour la numérisation de 100.000 titres en français, en allemand et en italien publiés entre le 17e et le 19e siècle. Suit ensuite un partenariat avec la Bibliothèque municipale de Lyon (France), signé en juillet 2008 pour numériser 500.000 livres. En octobre 2008, après trois ans de conflit, Google tente de mettre fin aux poursuites émanant des associations d'auteurs et d'éditeurs. La société propose un accord qui serait basé sur un partage des revenus générés par Google Books ainsi qu'un large accès aux ouvrages épuisés, tout comme le paiement de 125 millions de dollars US à l'Authors Guild et à l'Association of American Publishers (AAP) pour clôturer définitivement ce conflit. Suite à cet accord, Google pourrait proposer de plus larges extraits de livres, jusqu'à 20% d'un même ouvrage, avec un lien commercial pour acheter une copie - numérique ou non - de l'oeuvre. Les ayants droit auraient la possibilité de participer ou non au projet Google Books, et donc de retirer leurs livres des collections. Par ailleurs, les bibliothèques universitaires et publiques des États-Unis pourraient accéder à un portail gratuit géré par Google et donnant accès aux textes de millions de livres épuisés. Un abonnement permettrait aux universités et aux écoles de consulter les collections des bibliothèques les plus renommées. En novembre 2008, Google Books comprend 7 millions d'ouvrages numérisés, en partenariat avec 24 bibliothèques et 2.000 éditeurs partenaires. Les 24 bibliothèques partenaires se situent principalement aux États-Unis (16), mais aussi en Allemagne (1), en Belgique (1), en Espagne (2), en France (1), au Japon (1), au Royaume-Uni (1) et en Suisse (1). En février 2009, Google Books lance un portail spécifique pour téléphone mobile et smartphone, par exemple sur l'iPhone 3G d'Apple ou sur le G1 de T-Mobile. Le catalogue comprend 1,5 million de livres du domaine public, auxquels s'ajoutent 500.000 autres titres téléchargeables hors des États-Unis, du fait d'une législation du copyright moins restrictive dans certains pays. = L'Open Content Alliance En réaction au projet Google Books, l'Internet Archive pense qu'une bibliothèque à vocation mondiale ne doit pas être liée à des enjeux commerciaux. Courant 2005, elle lance l'Open Content Alliance (OCA), dans l'optique de fédérer un grand nombre de partenaires pour créer une bibliothèque planétaire publique respectueuse du copyright et sur un modèle ouvert. Qu'est-ce exactement que l'Internet Archive? Fondée en avril 1996 par Brewster Kahle à San Francisco (Californie), l'Internet Archive a pour but de constituer, stocker, préserver et gérer une «bibliothèque» de l'internet, en archivant la totalité du web tous les deux mois, afin d'offrir un outil de travail aux universitaires, chercheurs et historiens, et de préserver un historique de l'internet pour les générations futures. En octobre 2001, l'Internet Archive met ses archives en accès libre sur le web grâce à la Wayback Machine, qui permet à tout un chacun de consulter l'historique d'un site web, à savoir le contenu et la présentation d'un site web à différentes dates, théoriquement tous les deux mois à partir de 1996. L'Internet Archive débute aussi la constitution de collections numériques telles que le Million Book Project (10.520 livres en avril 2005), des archives de films de la période 1903-1973, des archives de concerts live récents, des archives de logiciels, etc. Toutes ces collections sont en consultation libre sur le web. En janvier 2005, l'Internet Archive s'associe à Yahoo! pour mettre sur pied l'Open Content Alliance (OCA), une initiative visant à créer un répertoire libre et multilingue de livres numérisés et de documents multimédia pour consultation sur n'importe quel moteur de recherche. L'OCA est officiellement lancée en octobre 2005 et débute véritablement durant l'été 2006. Le but de l'initiative est de s'inspirer de Google Books tout en évitant ses travers, à savoir la numérisation des livres sous droits sans l'accord préalable des éditeurs, tout comme la consultation et le téléchargement impossibles sur un autre moteur de recherche. L'OCA regroupe de nombreux partenaires: des bibliothèques et des universités bien sûr, mais aussi des organisations gouvernementales, des associations à but non lucratif, des organismes culturels et des sociétés informatiques (Adobe, Hewlett Packard, Microsoft, Yahoo!, Xerox, etc.). Les premiers partenaires pour la numérisation des livres sont les bibliothèques des Universités de Californie et de Toronto, l'European Archive, les Archives nationales du Royaume-Uni, O'Reilly Media et les Prelinger Archives. Seuls les livres appartenant au domaine public sont numérisés, pour éviter les problèmes de copyright auxquels se heurte Google, et les collections numérisées sont progressivement intégrées à la section Text Archive de l'Internet Archive. En décembre 2006, l'OCA franchit la barre des 100.000 livres numérisés, avec un rythme de 12.000 nouveaux livres par mois. À la même date, l'Internet Archive reçoit une subvention d'un million de dollars US de la part de la Sloan Foundation pour numériser les collections du Metropolitan Museum of Art (l'ensemble des livres et plusieurs milliers d'images) ainsi que certaines collections de la Boston Public Library (les 3.800 livres de la bibliothèque personnelle de John Adams, deuxième président des États-Unis), du Getty Research Institute (une collection de livres d'art), de la John Hopkins University (une collection de documents liés au mouvement anti- esclavagiste) et de l'Université de Californie à Berkeley (une collection de documents relatifs à la ruée vers l'or). En mai 2007, l'OCA franchit la barre des 200.000 livres numérisés. La barre du million de livres numérisés est atteinte en décembre 2008, et celle des deux millions de livres numérisés en mars 2010. = Autres initiatives # Microsoft Live Search Books Si Microsoft est l'un des partenaires de l'Open Content Alliance, la société se lance aussi dans l'aventure à titre personnel. En décembre 2006 est mise en ligne aux États-Unis la version bêta de Live Search Books, qui permet une recherche par mots-clés dans les livres du domaine public. Ces livres sont numérisés par Microsoft suite à des accords passés avec de grandes bibliothèques, les premières étant la British Library et les bibliothèques des Universités de Californie et de Toronto, suivies en janvier 2007 par celles de la New York Public Library et de l'Université Cornell. Microsoft compte également ajouter des livres sous droits, mais uniquement avec l'accord préalable des éditeurs. Tout comme Google Books, Live Search Books permet de consulter des extraits comportant les mots-clés, qui sont eux-même surlignés. Mais les collections sont moins riches, le moteur de recherche est plus rudimentaire, et il n'est pas possible de télécharger les livres au format PDF dans leur entier. En mai 2007, Microsoft annonce des accords avec plusieurs grands éditeurs, dont Cambridge University Press et McGraw Hill. Microsoft met finalement un terme à ce projet en mai 2008, pour concentrer ses efforts sur d'autres activités. Les 750.000 livres déjà numérisés sont versés dans les collections de l'Open Content Alliance. # Europeana En Europe, certains s'inquiètent de l'«hégémonie américaine» que représente Google Books. Il existe déjà sur le web une Bibliothèque européenne, qui est en fait un portail commun aux 43 bibliothèques nationales, lancé en janvier 2004 par la CENL (Conference of European National Librarians) et hébergé sur le site de la Bibliothèque nationale des Pays-Bas. En septembre 2005, la Commission européenne lance une vaste consultation sur un projet de bibliothèque numérique européenne, avec réponse requise en janvier 2006 et lancement officiel du projet en mars 2006. «Le plan de la Commission européenne visant à promouvoir l'accès numérique au patrimoine de l'Europe prend forme rapidement, lit-on dans le communiqué de presse. Dans les cinq prochaines années, au moins six millions de livres, documents et autres oeuvres culturelles seront mis à la disposition de toute personne disposant d'une connexion à l'internet, par l'intermédiaire de la "bibliothèque numérique européenne". Afin de stimuler les initiatives de numérisation européennes, la Commission va co-financer la création d'un réseau paneuropéen de centres de numérisation. La Commission abordera également, dans une série de documents stratégiques, la question du cadre approprié à adopter pour assurer la protection des droits de propriété intellectuelle dans le cadre des bibliothèques numériques.» Europeana et ses deux millions de documents sont disponibles en novembre 2008, avec un serveur qui déclare rapidement forfait suite à la très forte demande des premières heures, puis une période expérimentale avec consultation partielle des collections. Europeana propose 6 millions de documents en mars 2010, puis 10 millions de documents en septembre 2010 avec une nouvelle interface. PDA, SMARTPHONES ET TABLETTES [Résumé] Nous lisons d'abord sur notre ordinateur - portable ou non - avant de lire sur des agendas électroniques (Psion et eBookMan) puis sur des PDA (Palm Pilot, Pocket PC et bien d'autres). Suivent ensuite les premiers smartphones de Nokia et Sony Ericsson. Parallèlement apparaissent des tablettes de lecture dédiées. Les premières sont le Rocket eBook, le SoftBook Reader et le Gemstar eBook, qui ne durent pas. Après une période morose, des tablettes plus légères gagnent en puissance et en qualité d'écran, par exemple le Cybook (nouvelle version) et le Sony Reader, auxquels s'ajoute le Kindle d'Amazon en novembre 2007, puis l'iPad d'Apple en avril 2010. Le papier électronique serait pour «bientôt». = Le projet @folio Les livres numériques sont d'abord lisibles uniquement sur l'écran de notre ordinateur, que celui-ci soit un ordinateur de bureau ou un ordinateur portable sinon ultra-portable. Outre le stockage d'un millier de livres sinon plus - en fonction de la taille du disque dur - , l'ordinateur permet l'utilisation d'outils bureautiques standard, l'accès au web, l'écoute de fichiers musicaux et le visionnement de vidéos ou de films. Certains usagers sont également tentés par le webpad, un ordinateur-écran sans disque dur disposant d'une connexion sans fil à l'internet, apparu en 2001, ou alors la tablette PC, une tablette informatique pourvue d'un écran tactile, apparue fin 2002. Conçu dès octobre 1996 par Pierre Schweitzer, architecte designer à Strasbourg (Alsace, France), le projet @folio (qui se prononce «a- folio») se définit comme un baladeur de textes ou encore comme un support de lecture nomade permettant de lire des textes glanés sur l'internet. De petite taille, il cherche à mimer, sous forme électronique, le dispositif technique du livre, afin d'offrir une mémoire de fac-similés reliés en hypertexte pour faciliter le feuilletage. Pierre explique en janvier 2001: «@folio est un baladeur de textes, simple, léger, autonome, que le lecteur remplit selon ses désirs à partir du web, pour aller lire n'importe où. Il peut aussi y imprimer des documents personnels ou professionnels provenant d'un CD-ROM. Les textes sont mémorisés en faisant: "imprimer", mais c'est beaucoup plus rapide qu'une imprimante, ça ne consomme ni encre ni papier. Les liens hypertextes sont maintenus au niveau d'une reliure tactile. (...) Le projet est né à l'atelier Design de l'École d'architecture de Strasbourg où j'étais étudiant. Il est développé à l'École nationale supérieure des arts et industries de Strasbourg avec le soutien de l'ANVAR-Alsace. Aujourd'hui, je participe avec d'autres à sa formalisation, les prototypes, design, logiciels, industrialisation, environnement technique et culturel, etc., pour transformer ce concept en un objet grand public pertinent.» Pierre est aussi l'auteur du logiciel Mot@mot. «La plus grande partie du patrimoine écrit existant est fixé dans des livres, sur du papier», explique-t-il à la même date. «Pour rendre ces oeuvres accessibles sur la toile, la numérisation en mode image est un moyen très efficace. Le projet Gallica en est la preuve. Mais il reste le problème de l'adaptation des fac-similés d'origine à nos écrans de lecture aujourd'hui: réduits brutalement à la taille d'un écran, les fac- similés deviennent illisibles. Sauf à manipuler les barres d'ascenseur, ce qui nécessite un ordinateur et ne permet pas une lecture confortable. La solution proposée par Mot@mot consiste à découper le livre, mot à mot, du début à la fin (enfin, les pages scannées du livre...). Ces mots restent donc des images, il n'y a pas de reconnaissance de caractères, donc pas d'erreur possible. On obtient une chaîne d'images-mots liquide, qu'on peut remettre en page aussi facilement qu'une chaîne de caractères. Il devient alors possible de l'adapter à un écran de taille modeste, sans rien perdre de la lisibilité du texte. La typographie d'origine est conservée, les illustrations aussi.» Pour développer le projet @folio et le logiciel Mot@mot, Pierre fait valider un brevet international en avril 2001, puis crée la start-up française iCodex en juillet 2002. Cinq ans plus tard, en août 2007, Pierre Schweitzer poursuit patiemment sa croisade pour promouvoir son projet. «Il ne s'agit pas de transformer le support papier des livres existants, c'est absurde, écrit-il. Il s'agit plutôt d'offrir un support de lecture efficace aux textes qui n'en ont pas, ceux qui sont accessibles sur le web. Avec @folio, je reste persuadé qu'un support de lecture transportable qui serait à la fois simple et léger, annotable et effaçable, à bas coût, respectueux de la page et de nos traditions typographiques, pourrait apporter un supplément de confort appréciable à tous les usagers du texte numérique. Une ardoise dont on pourrait feuilleter l'hypertexte à main nue, en lieu et place de l'imprimante...» En quoi la technologie utilisée est-elle différente de celle des autres tablettes? «La technologie d'@folio est inspirée du fax et du classeur à onglets. La mémoire flash est imprimée comme Gutenberg imprimait ses livres. Ce mode fac-similé ne nécessite aucun format propriétaire, il est directement lisible à l'oeil nu. Le fac-similé est un mode de représentation de l'information robuste, pérenne, adaptable à tout type de contenu (de la musique imprimée aux formules de mathématique ou de chimie) sans aucune adaptation nécessaire. C'est un mode de représentation totalement ouvert et accessible à tous: il supporte l'écriture manuscrite, la calligraphie, les écritures non alphabétiques, et le dessin à main levée, toutes choses qui sont très difficiles à faire à l'aide d'un seul outil sur un ordinateur ou un "ebook" classique. Cette conception technique nouvelle et très simplifiée permet de recueillir une grande variété de contenus et surtout, elle permet un prix de vente très raisonnable (100 euros pour le modèle de base) dans différentes combinaisons de formats (tailles d'écran) et de mémoire (nombre de pages) adaptées aux différentes pratiques de lecture.» Outre cette technologie novatrice, quel serait l'avantage de la lecture sur @folio? «La simplicité d'usage, l'autonomie, le poids, le prix. Quoi d'autre? La finesse n'est pas négligeable pour pouvoir être glissé presque n'importe où. Et l'accès immédiat aux documents - pas de temps d'attente comme quand on "allume" son ordinateur portable: @folio ne s'allume jamais et ne s'éteint pas, la dernière page lue reste affichée et une simple pression sur le bord de l'écran permet de remonter instantanément au sommaire du document ou aux onglets de classement.» À la même date, en août 2007, la grande revue en ligne anglophone TeleRead fait l'éloge du projet @folio en intitulant l'article Pierre Schweitzer's Dream (Le rêve de Pierre Schweitzer). Plusieurs spécialistes anglophones, et non des moindres (David Rothman, Mike Cook, Ellen Hage), rendent hommage à la persévérance de Pierre en espérant voir son projet commercialisé un jour. = PDA (assistants personnels) # La gamme Psion Lancé dès 1984 par la société britannique Psion, le Psion Organiser est le premier modèle d'agenda électronique. Au fil des ans, la gamme des appareils s'étend et la société se développe à l'international. En 2000, les divers modèles (Série 7, Série 5mx, Revo, Revo Plus) sont concurrencés par le Palm Pilot et le Pocket PC. Les ventes baissent et la société décide de diversifier ses activités. Suite au rachat de Teklogix par Psion, Psion Teklogix est créé en septembre 2000 pour développer des solutions mobiles sans fil à destination des entreprises. Psion Software est créé en 2001 pour développer les logiciels de la nouvelle génération d'appareils mobiles utilisant la plateforme Symbian OS, par exemple ceux du smartphone Nokia 9210, modèle précurseur commercialisé la même année. Enseignante-chercheuse à l'École pratique des hautes études (EPHE, Paris-Sorbonne), Marie-Joseph Pierre utilise un Psion depuis plusieurs années pour lire et étudier dans le train lors de ses fréquents déplacements entre Argentan (Normandie), sa ville de résidence, et Paris. Elle achète son premier Psion en 1997, un Série 3, remplacé ensuite par un Série 5, remplacé lui-même par un Psion 5mx en juin 2001. En février 2002, elle raconte: «J'ai chargé tout un tas de trucs littéraires - dont mes propres travaux et dont la Bible entière - sur mon Psion 5mx (16 + 16 Mo), que je consulte surtout dans le train ou pour mes cours, quand je ne peux pas emporter toute une bibliothèque. J'ai mis les éléments de programme qui permettent de lire page par page comme sur un véritable ebook. Ce qui est pratique, c'est de pouvoir charger une énorme masse documentaire sur un support minuscule. Mais ce n'est pas le même usage qu'un livre, surtout un livre de poche qu'on peut feuilleter, tordre, sentir..., et qui s'ouvre automatiquement à la page qu'on a aimée. C'est beaucoup moins agréable à utiliser, d'autant que sur PDA, la page est petite: on n'a pas de vue d'ensemble. Mais avec une qualité appréciable: on peut travailler sur le texte enregistré, en rechercher le vocabulaire, réutiliser des citations, faire tout ce que permet le traitement informatique du document, et cela m'a pas mal servi pour mon travail, ou pour mes activités associatives. Je fais par exemple partie d'une petite société poétique locale, et nous faisons prochainement un récital poétique. J'ai voulu rechercher des textes de Victor Hugo, que j'ai maintenant pu lire et même charger à partir du site de la Bibliothèque nationale de France: c'est vraiment extra.» # L'eBookMan de Franklin Basée dans le New Jersey (États-Unis), la société Franklin commercialise dès 1986 le premier dictionnaire consultable sur une machine de poche. Quinze ans plus tard, Franklin distribue 200 ouvrages de référence sur des machines de poche: dictionnaires unilingues et bilingues, encyclopédies, Bibles, manuels d'enseignement, ouvrages médicaux et livres de loisirs. En octobre 2000, Franklin lance l'eBookMan, un assistant personnel multimédia qui - entre autres fonctionnalités (agenda, dictaphone, etc.) - permet la lecture de livres numériques sur le Franklin Reader, le logiciel de lecture «maison». À la même date, l'eBookMan reçoit l'eBook Technology Award de la Foire internationale du livre de Francfort. Trois modèles (EBM-900, EBM-901 et EBM-911) sont disponibles début 2001. Leurs prix respectifs sont de 130, 180 et 230 dollars US. Le prix est fonction de la taille de la mémoire vive (8 ou 16 Mo) et de la qualité de l'écran à cristaux liquides (écran LCD), rétro-éclairé ou non selon les modèles. Nettement plus grand que celui de ses concurrents, l'écran n'existe toutefois qu'en noir et blanc, contrairement à la gamme Pocket PC ou à certains modèles Palm avec écran couleur. L'eBookMan permet aussi l'écoute de livres audio- numériques et de fichiers musicaux au format MP3. En octobre 2001, Franklin décide de ne pas intégrer le Microsoft Reader à l'eBookMan, mais de lui préférer le Mobipocket Reader, logiciel de lecture jugé plus performant, et primé à la même date par l'eBook Technology Award de la Foire de Francfort. Parallèlement, le Franklin Reader est progressivement disponible pour les gammes d'appareils mobiles Psion, Palm, Pocket PC et Nokia. Franklin développe aussi une librairie numérique sur son site en passant des partenariats avec plusieurs sociétés, notamment avec Audible.com pour avoir accès à sa collection de 4.500 livres audio-numériques. # La gamme Palm Pilot Lorsque le livre numérique commence à se généraliser en 2000, tous les fabricants de PDA décident d'intégrer un logiciel de lecture dans leur machine, en plus des fonctionnalités standard (agenda, dictaphone, lecteur de MP3, etc.). En parallèle, ils négocient les droits de diffusion numérique de centaines de titres, soit directement soit par le biais de librairies numériques. Si certains professionnels du livre s'inquiètent de la petitesse de l'écran, les adeptes de la lecture sur PDA assurent que la taille de l'écran n'est pas un problème. Les grands favoris du marché sont les gammes Palm Pilot et Pocket PC. La société Palm lance en mars 1996 le Palm Pilot, premier PDA du marché, et vend 23 millions de machines entre 1996 et 2002. Le système d'exploitation du Palm Pilot est le Palm OS et son logiciel de lecture le Palm Reader. En mars 2001, la gamme Palm Pilot propose plusieurs modèles permettant de lire des livres aussi bien sur le Palm Reader que sur le Mobipocket Reader, le logiciel de lecture de Mobipocket. # La gamme Pocket PC Microsoft lance en avril 2000 son propre PDA, le Pocket PC, et son propre logiciel de lecture, le Microsoft Reader. Le système d'exploitation utilisé est Windows CE, remplacé en octobre 2001 par Pocket PC 2002, qui permet entre autres de lire des livres numériques sous droits. Ces livres sont protégés par un système de gestion des droits numériques, le Microsoft DAS Server (DAS: Digital Asset Server). En 2002, la gamme Pocket PC permet la lecture sur trois logiciels: le Microsoft Reader bien sûr, le Mobipocket Reader et le Palm Reader. # D'autres modèles Le marché des PDA poursuit sa croissance. D'après un numéro du Seybold Report daté d'avril 2001, on dénombre 17 millions de PDA dans le monde pour seulement 100.000 tablettes de lecture. 13,2 millions de PDA sont vendus en 2001, et 12,1 millions en 2002. En 2002, la gamme Palm Pilot est toujours le leader du marché (avec 36,8% des machines vendues), suivi par la gamme Pocket PC de Microsoft et les modèles de Hewlett- Packard, Sony, Handspring, Toshiba et Casio. Les systèmes d'exploitation utilisés sont essentiellement le Palm OS (pour 55% des machines) et le Pocket PC (pour 25,7% des machines). En 2004, on note une plus grande diversité des modèles et une baisse des prix chez tous les fabricants. Les trois principaux fabricants sont Palm, Sony et Hewlett-Packard. Suivent Handspring, Toshiba, Casio et d'autres. Mais le PDA est de plus en plus concurrencé par le smartphone, qui est un téléphone portable doublé d'un PDA, et les ventes commencent à baisser. En février 2005, Sony décide de se retirer complètement du marché des PDA. = Smartphones Le premier smartphone est le Nokia 9210, modèle précurseur lancé en 2001 par la société finlandaise Nokia, grand fabricant mondial de téléphones portables. Apparaissent ensuite le Nokia Series 60, le Sony Ericsson P800, puis les modèles de Motorola et de Siemens. Ces différents modèles permettent de lire des livres numériques sur le Mobipocket Reader. Appelé aussi téléphone multimédia, téléphone multifonctions ou encore téléphone intelligent, le smartphone dispose d'un écran couleur, du son polyphonique et de la fonction appareil photo, qui viennent s'ajouter aux fonctions habituelles de l'assistant personnel: agenda, dictaphone, lecteur de livres numériques, lecteur de musique, etc. Les smartphones représentent 3,7% des ventes de téléphones portables en 2004 et 9% des ventes en 2006, à savoir 90 millions de smartphones pour un milliard de téléphones portables. Si les livres numériques ont une longue vie devant eux, les appareils de lecture risquent de muer régulièrement. Selon Denis Zwirn, président de la librairie numérique Numilog, interviewé en février 2003, «l'équipement des individus et des entreprises en matériel pouvant être utilisé pour la lecture numérique dans une situation de mobilité va continuer de progresser très fortement dans les dix prochaines années sous la forme de machines de plus en plus performantes (en terme d'affichage, de mémoire, de fonctionnalités, de légèreté...) et de moins en moins chères. Cela prend dès aujourd'hui la forme de PDA (Pocket PC et Palm Pilot), de tablettes PC et de smartphones, ou de smart displays (écrans tactiles sans fil). Trois tendances devraient être observées: la convergence des usages (téléphone/PDA), la diversification des types et tailles d'appareils (de la montre-PDA- téléphone à la tablette PC waterproof), la démocratisation de l'accès aux machines mobiles (des PDA pour enfants à 15 euros). Si les éditeurs et les libraires numériques savent en saisir l'opportunité, cette évolution représente un environnement technologique et culturel au sein duquel les livres numériques, sous des formes variées, peuvent devenir un mode naturel d'accès à la lecture pour toute une génération.» À la même date, on se demande si les tablettes dédiées pourront vraiment réussir à s'imposer face aux smartphones multifonctions. On se demande aussi s'il existe une clientèle spécifique pour les deux types de machines, la lecture sur téléphone portable et smartphone étant destinée au grand public, et la lecture sur tablette étant réservée aux gros consommateurs de documents que sont les lycéens, les étudiants, les professeurs, les chercheurs ou les juristes. Le débat n'est pas prêt d'être clos en 2010, même si on ne parle plus de publics différents pour l'une et l'autre machine. = Tablettes de lecture # Premiers pas Dès 1999, on voit apparaître des tablettes dédiées de la taille d'un (gros) livre, souvent appelées ebooks, livres électroniques, tablettes de lecture ou même liseuses. Ces premiers appareils suscitent un engouement certain, même si peu de gens vont jusqu'à les acheter, vu leur prix prohibitif (plusieurs centaines de dollars) et un choix de livres restreint, le catalogue de livres numériques étant encore ridicule par rapport à la production imprimée. Les premières tablettes de lecture sont conçues et développées dans la Silicon Valley, en Californie. Elles disposent d'un écran à cristaux liquides (écran LCD) rétro-éclairé ou non, noir et blanc ou en couleur. Elles fonctionnent sur batterie et disposent d'un modem intégré et d'un port USB, pour connexion à l'internet et téléchargement des livres à partir de librairies numériques. Le modèle le plus connu, le Rocket eBook, est développé en 1998 et commercialisé en 1999 par la société NuvoMedia, financée par la chaîne de librairies Barnes & Noble et le géant des médias Bertelsmann. Un deuxième modèle, le SoftBook Reader, est développé par la société SoftBook Press, financée par les deux grandes maisons d'édition Random House et Simon & Schuster. Plusieurs autres modèles ont une durée de vie assez courte, par exemple l'EveryBook, appareil à double écran créé par la société du même nom, ou encore le Millennium eBook, créé par la société Librius.com. A cette époque, qui n'est pas si lointaine, toutes ces tablettes électroniques pèsent entre 700 grammes et 2 kilos et peuvent stocker une dizaine de livres. # Le Gemstar eBook Présenté en octobre 2000 à New York et commercialisé le mois suivant aux États-Unis, le Gemstar eBook se décline en deux modèles, qui sont les successeurs du Rocket eBook (conçu par NuvoMedia) et du SoftBook Reader (conçu par SoftBook Press), suite au rachat de NuvoMedia et de SoftBook Press en janvier 2000 par Gemstar-TV Guide International, grande société spécialisée dans les produits et services numériques pour les médias. Ces deux modèles - le REB 1100 (écran noir et blanc, successeur du Rocket eBook) et le REB 1200 (écran couleur, successeur du SoftBook Reader) - sont construits et vendus sous le label RCA, appartenant à Thomson Multimedia. Le système d'exploitation, le navigateur et le logiciel de lecture sont spécifiques à l'appareil, tout comme le format de lecture, basé sur le format OeB (Open eBook). Les deux modèles sont vendus respectivement 300 et 699 dollars US par la chaîne de magasins SkyMall. Les ventes sont très inférieures aux pronostics. En avril 2002, un article du New York Times annonce l'arrêt de la fabrication de ces appareils par RCA. En automne 2002, leurs successeurs - le GEB 1150 et le GEB 2150 - sont produits sous le label Gemstar et vendus par SkyMall à un prix beaucoup plus compétitif, avec ou sans abonnement annuel ou bisannuel à la librairie numérique Gemstar eBook. Le GEB 1150 coûte 199 dollars sans abonnement, et 99 dollars avec abonnement annuel (facturé 20 dollars par mois). Le GEB 2150 coûte 349 dollars sans abonnement, et 199 dollars avec abonnement bisannuel (également facturé 20 dollars par mois). Mais les ventes restent peu concluantes - faute d'un marché mûr pour ce genre d'appareil - et Gemstar décide de mettre fin à ses activités eBook. La société cesse la vente de ses tablettes de lecture en juin 2003 et la vente de ses livres numériques le mois suivant. # Le Cybook Première tablette de lecture européenne, le Cybook (21 x 16 cm, 1 kilo) est conçu et développé par la société française Cytale, et commercialisé en janvier 2001. Sa mémoire - 32 Mo de mémoire SDRAM et 16 Mo de mémoire flash - permet de stocker 15.000 pages de texte, soit 30 livres de 500 pages. «J'ai croisé il y a deux ans le chemin balbutiant d'un projet extraordinaire, le livre électronique», écrit en décembre 2000 Olivier Pujol, PDG de Cytale. «Depuis ce jour, je suis devenu le promoteur impénitent de ce nouveau mode d'accès à l'écrit, à la lecture, et au bonheur de lire. La lecture numérique se développe enfin, grâce à cet objet merveilleux: bibliothèque, librairie nomade, livre "adaptable", et aussi moyen d'accès à tous les sites littéraires (ou non), et à toutes les nouvelles formes de la littérature, car c'est également une fenêtre sur le web.» Mais les ventes sont très inférieures aux pronostics - le marché n'étant pas mûr pour ce genre d'appareil - et forcent la société à se déclarer en cessation de paiement. Cytale est mis en liquidation judiciaire en juillet 2002 et cesse ses activités à la même date. La commercialisation du Cybook est reprise quelques mois plus tard par la société Bookeen, créée en 2003 à l'initiative de Michael Dahan et Laurent Picard, deux ingénieurs de Cytale. En juillet 2007, Bookeen dévoile une nouvelle version de sa tablette, baptisée Cybook Gen3, avec un écran utilisant pour la première fois la technologie E Ink. # Les modèles de Sony En avril 2004, Sony lance au Japon le Librié 1000-EP, produit en partenariat avec les sociétés Philips et E Ink. Cette tablette est la première à utiliser la technologie d'affichage développée par la société E Ink et dénommée encre électronique. L'appareil pèse 300 grammes (avec piles et protection d'écran) pour une taille de 12,6 x 19 x 1,3 centimètres. Sa mémoire est de 10 Mo - avec possibilité d'extension - et sa capacité de stockage de 500 livres. Son écran de 6 pouces a une définition de 170 DPI et une résolution de 800 x 600 pixels. Un port USB permet le téléchargement des livres à partir de son ordinateur. L'appareil comprend aussi un clavier, une fonction d'enregistrement et une synthèse vocale. Il fonctionne avec quatre piles alcalines, qui permettraient la consultation de 10.000 pages. Son prix est de 375 dollars US. Le Librié cède ensuite la place au Sony Reader, lancé en septembre 2006 aux États-Unis au prix de 350 dollars, avec six modèles sortis depuis avec succès. # Le Kindle Amazon.com lance en novembre 2007 sa propre tablette de lecture, le Kindle, avec un format livresque (19 x 13 x 1,8 cm), un poids de 289 grammes, un écran noir et blanc (6 pouces, 800 x 600 pixels), un clavier, une mémoire de 256 Mo (extensible par carte SD), un port USB et une connexion sans fil (WiFi). Vendu 400 dollars US (273 euros), le Kindle peut contenir jusqu'à 200 livres parmi les 80.000 livres numériques disponibles sur le site d'Amazon. 538.000 tablettes sont vendues en 2008. En février 2009, Amazon lance une nouvelle version du Kindle, le Kindle 2, au prix de 359 dollars (prix qui baisse sensiblement dans les mois qui suivent), avec un catalogue de 230.000 titres. En mai de la même année, Amazon lance le Kindle DX avec un écran plus grand, notamment pour la lecture de journaux et magazines, pour un prix de 489 dollars. # L'iPad En avril 2010, la société Apple lance l'iPad, sa tablette numérique multifonctions, au prix de 499 dollars US, avec un iBookstore de 60.000 livres numériques qui devrait s'étoffer rapidement. Après l'iPod (lancé en octobre 2001) puis l'iPhone (lancé en juin 2007), deux objets cultes auprès de toute une génération, Apple devient lui aussi un acteur de poids pour le livre numérique. La compétition risque d'être rude sur un marché très prometteur. Reste à voir quels modèles seront retenus par l'usager parce que solides, légers, économiques et procurant un véritable «confort de lecture», sans oublier l'aspect esthétique et les possibilités de lecture en 3 D. Petit ou grand écran? Smartphone ou tablette? Selon Jean-Paul, webmestre du site hypermédia cotres.net, interviewé en janvier 2007, «on progresse. Les PDA et autres baladeurs multimédia ont formé le public à manipuler des écrans tactiles de dimension individuelle (par opposition aux bornes publiques de circulation et autres tirettes-à-sous). L'hypermédia est maintenant une évidence. Il ne reste plus qu'à laisser se bousculer les ingénieurs et les marketteurs pour voir sortir un objet rentable, léger, attirant, peu fragile, occupant au mieux l'espace qui sépare les deux mains d'un terrien assis dans le bus ou sur sa lunette WC: la surface d'une feuille A4 en format italien, soit ± 800 x 600 pixels. Bien sûr, ce que montrera cette surface ne sera pas en 2 D mais en 3 D. Comme les GPS prochaine génération, ou les écrans de visée sur le cockpit d'un A- Win.» On nous parle maintenant de papier électronique pour «bientôt», avec les sociétés E Ink et Plastic Logic en tête de file pour nous proposer des supports de lecture souples et ultra-fins. CONCLUSION [Résumé] En 2010, offrir un livre numérique devient «tendance», et le lire sur son smartphone ou sa tablette l'est encore plus. Preuve que le monde du livre a bien changé depuis la panique ayant saisi les éditeurs et les libraires à la fin des années 1990. Dix ans plus tard, trois termes paraissent essentiels: stockage, organisation et diffusion. Dans un proche avenir, on devrait disposer de l'ensemble du patrimoine mondial stocké sous forme numérique, d'une organisation effective de l'information et d'un réseau internet omniprésent. Confidentiel en 2000, puis parent pauvre des fichiers musicaux et vidéo, le livre numérique est désormais en bonne place à côté de la musique et des films. *** Tim Berners-Lee est l'inventeur du web en 1990. A la question de Pierre Ruetschi, journaliste au quotidien La Tribune de Genève: «Sept ans plus tard, êtes-vous satisfait de la façon dont le web a évolué?», il répond en décembre 1997 que, s'il est heureux de la richesse et de la variété de l'information disponible, le web n'a pas encore la puissance prévue dans sa conception d'origine. Il aimerait «que le web soit plus interactif, que les gens puissent créer de l'information ensemble», et pas seulement consommer celle qui leur est proposée. Le web doit devenir «un média de collaboration, un monde de connaissance que nous partageons». Son souhait commence à se concrétiser quelque sept années plus tard, en 2004, avec ce qu'on appelle le web 2.0. La paternité de l'expression «web 2.0» revient d'ailleurs à un éditeur, Tim O'Reilly, fondateur des éditions O'Reilly Media, qui utilise cette expression pour la première fois en 2004 comme titre d'une série de conférences qu'il est en train d'organiser. Désormais, le web ne vise plus seulement à utiliser l'information, mais il incite aussi les usagers à échanger et collaborer en ligne, sur des blogs, des wikis, des sites sociaux ou des encyclopédies coopératives comme Wikipédia et Citizendium. Un enjeu tout aussi important est l'accessibilité de l'internet pour tous. Mis en ligne en septembre 2000 par l'association du même nom, le site Handicapzéro devient en février 2003 un portail généraliste offrant un accès adapté à l'information pour les Francophones ayant un problème visuel, à savoir plus de 10% de la population. Le portail offre des informations dans nombre de domaines: actualités, programmes de télévision, météo, santé, emploi, consommation, loisirs, sports, téléphonie, etc. Les personnes aveugles peuvent accéder au site au moyen d'une plage braille ou d'une synthèse vocale. Les personnes malvoyantes peuvent paramétrer sur la page d'accueil la taille et la police des caractères ainsi que la couleur du fond d'écran pour une navigation confortable. Les personnes voyantes peuvent correspondre en braille avec des aveugles par le biais du site. En octobre 2006, le portail adopte une nouvelle présentation en enrichissant encore son contenu, en adoptant une navigation plus intuitive pour la page d'accueil, en proposant des raccourcis de clavier, en offrant un service amélioré pour l'affichage «confort de lecture», etc. Plus de 2 millions de visiteurs utilisent les services du portail en 2006. Handicapzéro entend ainsi démontrer «que, sous réserve du respect de certaines règles élémentaires, l'internet peut devenir enfin un espace de liberté pour tous». Un autre enjeu est l'infrastructure de l'internet. La connexion au réseau est désormais plus facile, avec la DSL, le câble ou la fibre optique, tout comme les technologies WiFi pour un secteur géographique limité et WiMAX pour un secteur géographique étendu. Jean-Paul, webmestre du site hypermédia cotres.net, résume la situation en janvier 2007: «J'ai l'impression que nous vivons une période "flottante", entre les temps héroïques, où il s'agissait d'avancer en attendant que la technologie nous rattrape, et le futur, où le très haut débit va libérer les forces qui commencent à bouger, pour l'instant dans les seuls jeux.» L'internet du futur pourrait être un réseau pervasif permettant de se connecter en tout lieu et à tout moment sur tout type d'appareil à travers un réseau unique et omniprésent. Le concept de réseau pervasif est développé par Rafi Haladjian, fondateur de la société Ozone. Comme expliqué sur le site web de la société en 2007, «la nouvelle vague touchera notre monde physique, notre environnement réel, notre vie quotidienne dans tous les instants. Nous n'accéderons plus au réseau, nous l'habiterons. Les composantes futures de ce réseau (parties filiaires, parties non filiaires, opérateurs) seront transparentes à l'utilisateur final. Il sera toujours ouvert, assurant une permanence de la connexion en tout lieu. Il sera également agnostique en terme d'application(s), puisque fondé sur les protocoles mêmes de l'internet.» Pierre Schweitzer, inventeur du projet @folio, une tablette de lecture nomade, écrit en décembre 2006: «La chance qu'on a tous est de vivre là, ici et maintenant cette transformation fantastique. Quand je suis né en 1963, les ordinateurs avaient comme mémoire quelques pages de caractères à peine. Aujourd'hui, mon baladeur de musique pourrait contenir des milliards de pages, une vraie bibliothèque de quartier. Demain, par l'effet conjugué de la loi de Moore et de l'omniprésence des réseaux, l'accès instantané aux oeuvres et aux savoirs sera de mise. Le support de stockage lui-même n'aura plus beaucoup d'intérêt. Seules importeront les commodités fonctionnelles d'usage et la poétique de ces objets.» Fondateur du Projet Gutenberg en 1971, Michael Hart précise souvent dans ses écrits que, si Gutenberg a permis à chacun d'avoir ses propres livres - jusque-là réservés à une élite -, le Projet Gutenberg permet à chacun d'avoir une bibliothèque complète - jusque-là réservée à la collectivité -, sur un support qu'on peut glisser dans sa poche, le support optimal actuel étant la clé USB. Le Projet Gutenberg compte plus de 33.000 livres numériques en octobre 2010, soit la taille d'une bibliothèque publique de quartier, mais cette fois disponible sur le web et indéfiniment reproductible. Le web est aussi une formidable aventure. Selon les termes mêmes de Tim Berners-Lee, son inventeur, «le rêve derrière le web est un espace d'information commun dans lequel nous communiquons en partageant l'information. Son universalité est essentielle, à savoir le fait qu'un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu'une réalisation très sophistiquée. Deuxième partie de ce rêve, le web deviendrait d'une utilisation tellement courante qu'il serait un miroir réaliste (sinon la principale incarnation) de la manière dont nous travaillons, jouons et nouons des relations sociales. Une fois que ces interactions seraient en ligne, nous pourrions utiliser nos ordinateurs pour nous aider à les analyser, donner un sens à ce que nous faisons, et voir comment chacun trouve sa place et comment nous pouvons mieux travailler ensemble.» (extrait de son essai The World Wide Web: A very short personal history (Le World Wide Web: une très courte histoire personnelle), daté d'avril 1998) Quinze ans après la création du web, le magazine Wired constate dans son numéro d'août 2005 que «moins de la moitié du web est commercial, le reste fonctionne avec la passion». Quant à l'internet, d'après le quotidien Le Monde du 19 août 2005, «ses trois pouvoirs - l'ubiquité, la variété et l'interactivité - rendent son potentiel d'usages quasi infini». Le futur sera-t-il le cyberespace décrit en 1994 par Timothy Leary, philosophe, dans son livre Chaos et cyberculture? «Toute l'information du monde est à l'intérieur [NDLR: de gigantesques bases de données]. Et grâce au cyberespace, tout le monde peut y avoir accès. Tous les signaux humains contenus jusque-là dans les livres ont été numérisés. Ils sont enregistrés et disponibles dans ces banques de données, sans compter tous les tableaux, tous les films, toutes les émissions de télé, tout, absolument tout.» Nous n'en sommes pas encore là. Mais, en 2010, sur les 30 millions de livres du domaine public présents dans les bibliothèques (sans compter les différentes éditions), 10 millions de livres seraient déjà librement disponibles sur l'internet. Libraire, éditeur puis consultant en édition électronique, Nicolas Pewny voit «le livre numérique du futur comme un "ouvrage total" réunissant textes, sons, images, vidéo, interactivité: une nouvelle manière de concevoir et d'écrire et de lire, peut-être sur un livre unique, sans cesse renouvelable, qui contiendrait tout ce qu'on a lu, unique et multiple compagnon». Si nous avons maintenant Gallica, le Projet Gutenberg, l'Internet Archive et Google Books pour lire des livres, Wikipédia pour nous documenter et Facebook et Twitter pour communiquer, un point particulièrement intéressant semble être la possibilité - encore à l'étude - de la traduction simultanée du même livre dans de nombreuses langues, même si la traduction automatique reste encore à améliorer. Rien ne remplacera une traduction par un traducteur littéraire professionnel, bien sûr, mais ce serait un premier pas pour ceux qui souhaiteraient découvrir de nouvelles oeuvres sans en connaître la langue, avant de recruter ensuite un traducteur littéraire professionnel pour proposer une traduction de qualité. C'est aussi l'assurance d'un vaste débat sur les avantages et les limites de la traduction automatique, un débat entamé dans les années 1990 et qui n'est pas prêt d'être clos. Sans nul doute, nous continuerons à vivre des années passionnantes, qui ne seront pas seulement marquées par l'iPad et ses successeurs ou encore le (véritable) papier électronique enfin sorti des éprouvettes des chercheurs, mais qui verront aussi une imbrication plus grande des technologies du livre avec celles des langues, un sujet auquel l'auteure pense désormais se consacrer. Mais, qu'il soit un volume imprimé ou un fichier numérique, le livre est d'abord un ensemble de mots émanant d'une personne voulant communiquer ses pensées, ses sentiments ou son savoir à large échelle. Souvent appelé le père de l'internet parce que co-inventeur en 1974 des protocoles du réseau, Vinton Cerf aime à rappeler que l'internet relie moins des ordinateurs que des personnes et des idées. Ce fut le cas pour ce livre. Merci à tous - professionnels du livre et apparentés - pour leur participation, pour leur temps et pour leur amitié. CHRONOLOGIE [Chaque ligne débute par l'année ou bien l'année/mois. Par exemple, 1971/07 signifie juillet 1971.] 1968: Le code ASCII est le premier système d'encodage informatique. 1971/07: Le Projet Gutenberg est la première bibliothèque numérique. 1974: L'internet fait ses débuts. 1977: L'UNIMARC est créé en tant que format bibliographique commun. 1983: L'internet prend son envol. 1984: Le copyleft est institué pour les logiciels puis pour toute oeuvre de création. 1984: Psion lance l'agenda électronique Psion Organiser. 1986: Franklin lance le premier dictionnaire consultable sur une machine de poche. 1990: Le web fait ses débuts. 1991/01: L'Unicode est un système d'encodage pour toutes les langues. 1993/01: L'Online Books Page est le premier répertoire de livres en accès libre. 1993/06: Adobe lance le format PDF et l'Acrobat Reader. 1993/07: L'E-zine-list recense les zines électroniques. 1993/11: Mosaic est le premier logiciel de navigation sur le web. 1994/02: Le premier site de bibliothèque est mis en ligne. 1994: La NAP met des livres en accès libre sur son site pour augmenter leurs ventes imprimées. 1995/07: Amazon.com est la première grande librairie en ligne. 1995: La grande presse se met en ligne. 1996/03: Le Palm Pilot est le premier assistant personnel (PDA). 1996/04: L'Internet Archive est créée pour archiver le web. 1996/07: CyLibris est le pionnier francophone de l'édition électronique. 1996/10: Le projet @folio travaille à un baladeur de textes «ouvert». 1996: On se penche sur de nouvelles méthodes d'enseignement. 1997: L'édition électronique commence à se généraliser. 1997/01: La convergence multimédia est le sujet d'un colloque. 1997/04: E Ink développe une technologie d'encre électronique. 1997/10: La Bibliothèque nationale de France lance Gallica, sa bibliothèque numérique. 1997/12: AltaVista lance son logiciel de traduction automatique Babel Fish. 1998/05: Les éditions 00h00 vendent des livres numériques. 1999: Des bibliothécaires deviennent cyberthécaires. 1999: Certains auteurs se mettent au numérique. 1999: WordReference.com propose des dictionnaires bilingues gratuits. 1999: Le Rocket eBook est la première tablette de lecture. 1999/09: Le format Open eBook (OeB) est un standard de livre numérique. 1999/12: WebEncyclo est la première grande encyclopédie francophone en ligne. 1999/12: Britannica.com est la première grande encyclopédie anglophone en ligne. 2000/01: Le Million Book Project veut proposer un million de livres sur le web. 2000/03: Mobipocket se consacre aux livres numériques pour assistant personnel. 2000/04: Microsoft lance son assistant personnel Pocket PC. 2000/07: La moitié des usagers de l'internet est non anglophone. 2000/07: Stephen King auto-publie un roman en ligne. 2000/08: Microsoft lance le Pocket PC (PDA) et le Microsoft Reader. 2000/09: Le Grand dictionnaire terminologique (GDT) est bilingue français-anglais. 2000/09: La librairie Numilog se consacre aux livres numériques. 2000/09: Le portail Handicapzéro démontre que l'internet est pour tous. 2000/10: Distributed Proofreaders numérise les livres du domaine public. 2000/10: La Public Library of Science envisage des revues scientifiques en ligne gratuites. 2000/10: Franklin lance l'eBookMan, un assistant personnel multimédia. 2000/10: Gemstar lance ses tablettes de lecture Gemstar eBook. 2000/11: La version numérisée de la Bible de Gutenberg est disponible. 2001/01: Wikipédia est la première grande encyclopédie collaborative gratuite. 2001/01: Le Cybook est la première tablette de lecture européenne. 2001: La licence Creative Commons adapte le droit d'auteur au web. 2001: Le Nokia 9210 est le premier smartphone. 2003/09: Le matériel pédagogique des cours du MIT est à la disposition de tous. 2004/01: Le Projet Gutenberg Europe est multilingue. 2004/10: Google lance Google Print pour le rebaptiser ensuite Google Books. 2005/04: Amazon.com rachète la société Mobipocket. 2005/10: L'Open Content Alliance lance une bibliothèque numérique planétaire et publique. 2006/08: Le catalogue collectif mondial WorldCat lance une version gratuite sur le web. 2006/10: Microsoft lance Live Search Books mais l'abandonne ensuite. 2006/10: Sony lance sa tablette de lecture Sony Reader. 2007/03: Citizendium est une encyclopédie en ligne collaborative «fiable». 2007/03: IATE est la base terminologique multilingue européenne. 2007/05: L'Encyclopedia of Life compte répertorier toutes les espèces végétales et animales. 2007/11: Amazon.com lance sa tablette de lecture Kindle. 2008/05: Numilog devient une filiale d'Hachette Livre. 2008/10: Google Books propose un accord aux associations d'auteurs et d'éditeurs. 2008/11: Europeana est la bibliothèque numérique européenne. 2010/04: Apple lance l'iPad, sa propre tablette. REMERCIEMENTS Ce livre doit beaucoup à toutes les personnes ayant accepté de répondre à mes questions au fil des ans. Certains entretiens sont disponibles en ligne sur le Net des études françaises (NEF) , Université de Toronto, Canada. D'autres entretiens ont été directement inclus dans ce livre ou alors ils ont inspiré des idées développées dans ces pages. Merci à Nicolas Ancion, Alex Andrachmes, Guy Antoine, Silvaine Arabo, Arlette Attali, Marc Autret, Isabelle Aveline, Jean-Pierre Balpe, Emmanuel Barthe, Robert Beard, Michael Behrens, Michel Benoît, Guy Bertrand, Olivier Bogros, Christian Boitet, Bernard Boudic, Bakayoko Bourahima, Marie-Aude Bourson, Lucie de Boutiny, Anne-Cécile Brandenbourger, Alain Bron, Patrice Cailleaud, Tyler Chambers, Pascal Chartier, Richard Chotin, Alain Clavet, Jean-Pierre Cloutier, Jacques Coubard, Luc Dall'Armellina, Kushal Dave, Cynthia Delisle, Émilie Devriendt, Bruno Didier, Catherine Domain, Helen Dry, Bill Dunlap, Pierre-Noël Favennec, Gérard Fourestier, Pierre François Gagnon, Olivier Gainon, Jacques Gauchey, Raymond Godefroy, Muriel Goiran, Marcel Grangier, Barbara Grimes, Michael Hart, Roberto Hernández Montoya, Randy Hobler, Eduard Hovy, Christiane Jadelot, Gérard Jean- François, Jean-Paul, Anne-Bénédicte Joly, Brian King, Geoffrey Kingscott, Steven Krauwer, Gaëlle Lacaze, Michel Landaret, Hélène Larroche, Pierre Le Loarer, Claire Le Parco, Annie Le Saux, Fabrice Lhomme, Philippe Loubière, Pierre Magnenat, Xavier Malbreil, Alain Marchiset, Maria Victoria Marinetti, Michael Martin, Tim McKenna, Emmanuel Ménard, Yoshi Mikami, Jacky Minier, Jean-Philippe Mouton, John Mark Ockerbloom, Caoimhín Ó Donnaíle, Jacques Pataillot, Alain Patez, Nicolas Pewny, Marie-Joseph Pierre, Hervé Ponsot, Olivier Pujol, Anissa Rachef, Peter Raggett, Patrick Rebollar, Philippe Renaut, Jean-Baptiste Rey, Philippe Rivière, Blaise Rosnay, Bruno de Sa Moreira, Pierre Schweitzer, Henk Slettenhaar, Murray Suid, June Thompson, Zina Tucsnak, François Vadrot, Christian Vandendorpe, Robert Ware, Russon Wooldridge et Denis Zwirn. Copyright © 2010 Marie Lebert. Tous droits réservés. *** END OF THE PROJECT GUTENBERG EBOOK LE LIVRE, DE L'IMPRIMÉ AU NUMÉRIQUE *** Updated editions will replace the previous one—the old editions will be renamed. Creating the works from print editions not protected by U.S. copyright law means that no one owns a United States copyright in these works, so the Foundation (and you!) can copy and distribute it in the United States without permission and without paying copyright royalties. Special rules, set forth in the General Terms of Use part of this license, apply to copying and distributing Project Gutenberg™ electronic works to protect the PROJECT GUTENBERG™ concept and trademark. Project Gutenberg is a registered trademark, and may not be used if you charge for an eBook, except by following the terms of the trademark license, including paying royalties for use of the Project Gutenberg trademark. If you do not charge anything for copies of this eBook, complying with the trademark license is very easy. You may use this eBook for nearly any purpose such as creation of derivative works, reports, performances and research. Project Gutenberg eBooks may be modified and printed and given away—you may do practically ANYTHING in the United States with eBooks not protected by U.S. copyright law. Redistribution is subject to the trademark license, especially commercial redistribution. START: FULL LICENSE THE FULL PROJECT GUTENBERG LICENSE PLEASE READ THIS BEFORE YOU DISTRIBUTE OR USE THIS WORK To protect the Project Gutenberg™ mission of promoting the free distribution of electronic works, by using or distributing this work (or any other work associated in any way with the phrase “Project Gutenberg”), you agree to comply with all the terms of the Full Project Gutenberg™ License available with this file or online at www.gutenberg.org/license. Section 1. General Terms of Use and Redistributing Project Gutenberg™ electronic works 1.A. By reading or using any part of this Project Gutenberg™ electronic work, you indicate that you have read, understand, agree to and accept all the terms of this license and intellectual property (trademark/copyright) agreement. If you do not agree to abide by all the terms of this agreement, you must cease using and return or destroy all copies of Project Gutenberg™ electronic works in your possession. If you paid a fee for obtaining a copy of or access to a Project Gutenberg™ electronic work and you do not agree to be bound by the terms of this agreement, you may obtain a refund from the person or entity to whom you paid the fee as set forth in paragraph 1.E.8. 1.B. “Project Gutenberg” is a registered trademark. It may only be used on or associated in any way with an electronic work by people who agree to be bound by the terms of this agreement. There are a few things that you can do with most Project Gutenberg™ electronic works even without complying with the full terms of this agreement. See paragraph 1.C below. There are a lot of things you can do with Project Gutenberg™ electronic works if you follow the terms of this agreement and help preserve free future access to Project Gutenberg™ electronic works. See paragraph 1.E below. 1.C. The Project Gutenberg Literary Archive Foundation (“the Foundation” or PGLAF), owns a compilation copyright in the collection of Project Gutenberg™ electronic works. Nearly all the individual works in the collection are in the public domain in the United States. If an individual work is unprotected by copyright law in the United States and you are located in the United States, we do not claim a right to prevent you from copying, distributing, performing, displaying or creating derivative works based on the work as long as all references to Project Gutenberg are removed. Of course, we hope that you will support the Project Gutenberg™ mission of promoting free access to electronic works by freely sharing Project Gutenberg™ works in compliance with the terms of this agreement for keeping the Project Gutenberg™ name associated with the work. You can easily comply with the terms of this agreement by keeping this work in the same format with its attached full Project Gutenberg™ License when you share it without charge with others. This particular work is one of the few individual works protected by copyright law in the United States and most of the remainder of the world, included in the Project Gutenberg collection with the permission of the copyright holder. Information on the copyright owner for this particular work and the terms of use imposed by the copyright holder on this work are set forth at the beginning of this work. 1.D. The copyright laws of the place where you are located also govern what you can do with this work. Copyright laws in most countries are in a constant state of change. If you are outside the United States, check the laws of your country in addition to the terms of this agreement before downloading, copying, displaying, performing, distributing or creating derivative works based on this work or any other Project Gutenberg™ work. The Foundation makes no representations concerning the copyright status of any work in any country other than the United States. 1.E. Unless you have removed all references to Project Gutenberg: 1.E.1. The following sentence, with active links to, or other immediate access to, the full Project Gutenberg™ License must appear prominently whenever any copy of a Project Gutenberg™ work (any work on which the phrase “Project Gutenberg” appears, or with which the phrase “Project Gutenberg” is associated) is accessed, displayed, performed, viewed, copied or distributed: This eBook is for the use of anyone anywhere in the United States and most other parts of the world at no cost and with almost no restrictions whatsoever. You may copy it, give it away or re-use it under the terms of the Project Gutenberg License included with this eBook or online at www.gutenberg.org. If you are not located in the United States, you will have to check the laws of the country where you are located before using this eBook. 1.E.2. If an individual Project Gutenberg™ electronic work is derived from texts not protected by U.S. copyright law (does not contain a notice indicating that it is posted with permission of the copyright holder), the work can be copied and distributed to anyone in the United States without paying any fees or charges. If you are redistributing or providing access to a work with the phrase “Project Gutenberg” associated with or appearing on the work, you must comply either with the requirements of paragraphs 1.E.1 through 1.E.7 or obtain permission for the use of the work and the Project Gutenberg™ trademark as set forth in paragraphs 1.E.8 or 1.E.9. 1.E.3. If an individual Project Gutenberg™ electronic work is posted with the permission of the copyright holder, your use and distribution must comply with both paragraphs 1.E.1 through 1.E.7 and any additional terms imposed by the copyright holder. Additional terms will be linked to the Project Gutenberg™ License for all works posted with the permission of the copyright holder found at the beginning of this work. 1.E.4. Do not unlink or detach or remove the full Project Gutenberg™ License terms from this work, or any files containing a part of this work or any other work associated with Project Gutenberg™. 1.E.5. Do not copy, display, perform, distribute or redistribute this electronic work, or any part of this electronic work, without prominently displaying the sentence set forth in paragraph 1.E.1 with active links or immediate access to the full terms of the Project Gutenberg™ License. 1.E.6. You may convert to and distribute this work in any binary, compressed, marked up, nonproprietary or proprietary form, including any word processing or hypertext form. However, if you provide access to or distribute copies of a Project Gutenberg™ work in a format other than “Plain Vanilla ASCII” or other format used in the official version posted on the official Project Gutenberg™ website (www.gutenberg.org), you must, at no additional cost, fee or expense to the user, provide a copy, a means of exporting a copy, or a means of obtaining a copy upon request, of the work in its original “Plain Vanilla ASCII” or other form. Any alternate format must include the full Project Gutenberg™ License as specified in paragraph 1.E.1. 1.E.7. Do not charge a fee for access to, viewing, displaying, performing, copying or distributing any Project Gutenberg™ works unless you comply with paragraph 1.E.8 or 1.E.9. 1.E.8. You may charge a reasonable fee for copies of or providing access to or distributing Project Gutenberg™ electronic works provided that: • You pay a royalty fee of 20% of the gross profits you derive from the use of Project Gutenberg™ works calculated using the method you already use to calculate your applicable taxes. The fee is owed to the owner of the Project Gutenberg™ trademark, but he has agreed to donate royalties under this paragraph to the Project Gutenberg Literary Archive Foundation. Royalty payments must be paid within 60 days following each date on which you prepare (or are legally required to prepare) your periodic tax returns. Royalty payments should be clearly marked as such and sent to the Project Gutenberg Literary Archive Foundation at the address specified in Section 4, “Information about donations to the Project Gutenberg Literary Archive Foundation.” • You provide a full refund of any money paid by a user who notifies you in writing (or by e-mail) within 30 days of receipt that s/he does not agree to the terms of the full Project Gutenberg™ License. You must require such a user to return or destroy all copies of the works possessed in a physical medium and discontinue all use of and all access to other copies of Project Gutenberg™ works. • You provide, in accordance with paragraph 1.F.3, a full refund of any money paid for a work or a replacement copy, if a defect in the electronic work is discovered and reported to you within 90 days of receipt of the work. • You comply with all other terms of this agreement for free distribution of Project Gutenberg™ works. 1.E.9. If you wish to charge a fee or distribute a Project Gutenberg™ electronic work or group of works on different terms than are set forth in this agreement, you must obtain permission in writing from the Project Gutenberg Literary Archive Foundation, the manager of the Project Gutenberg™ trademark. Contact the Foundation as set forth in Section 3 below. 1.F. 1.F.1. Project Gutenberg volunteers and employees expend considerable effort to identify, do copyright research on, transcribe and proofread works not protected by U.S. copyright law in creating the Project Gutenberg™ collection. Despite these efforts, Project Gutenberg™ electronic works, and the medium on which they may be stored, may contain “Defects,” such as, but not limited to, incomplete, inaccurate or corrupt data, transcription errors, a copyright or other intellectual property infringement, a defective or damaged disk or other medium, a computer virus, or computer codes that damage or cannot be read by your equipment. 1.F.2. LIMITED WARRANTY, DISCLAIMER OF DAMAGES - Except for the “Right of Replacement or Refund” described in paragraph 1.F.3, the Project Gutenberg Literary Archive Foundation, the owner of the Project Gutenberg™ trademark, and any other party distributing a Project Gutenberg™ electronic work under this agreement, disclaim all liability to you for damages, costs and expenses, including legal fees. YOU AGREE THAT YOU HAVE NO REMEDIES FOR NEGLIGENCE, STRICT LIABILITY, BREACH OF WARRANTY OR BREACH OF CONTRACT EXCEPT THOSE PROVIDED IN PARAGRAPH 1.F.3. YOU AGREE THAT THE FOUNDATION, THE TRADEMARK OWNER, AND ANY DISTRIBUTOR UNDER THIS AGREEMENT WILL NOT BE LIABLE TO YOU FOR ACTUAL, DIRECT, INDIRECT, CONSEQUENTIAL, PUNITIVE OR INCIDENTAL DAMAGES EVEN IF YOU GIVE NOTICE OF THE POSSIBILITY OF SUCH DAMAGE. 1.F.3. LIMITED RIGHT OF REPLACEMENT OR REFUND - If you discover a defect in this electronic work within 90 days of receiving it, you can receive a refund of the money (if any) you paid for it by sending a written explanation to the person you received the work from. If you received the work on a physical medium, you must return the medium with your written explanation. The person or entity that provided you with the defective work may elect to provide a replacement copy in lieu of a refund. If you received the work electronically, the person or entity providing it to you may choose to give you a second opportunity to receive the work electronically in lieu of a refund. If the second copy is also defective, you may demand a refund in writing without further opportunities to fix the problem. 1.F.4. Except for the limited right of replacement or refund set forth in paragraph 1.F.3, this work is provided to you ‘AS-IS’, WITH NO OTHER WARRANTIES OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO WARRANTIES OF MERCHANTABILITY OR FITNESS FOR ANY PURPOSE. 1.F.5. Some states do not allow disclaimers of certain implied warranties or the exclusion or limitation of certain types of damages. If any disclaimer or limitation set forth in this agreement violates the law of the state applicable to this agreement, the agreement shall be interpreted to make the maximum disclaimer or limitation permitted by the applicable state law. The invalidity or unenforceability of any provision of this agreement shall not void the remaining provisions. 1.F.6. INDEMNITY - You agree to indemnify and hold the Foundation, the trademark owner, any agent or employee of the Foundation, anyone providing copies of Project Gutenberg™ electronic works in accordance with this agreement, and any volunteers associated with the production, promotion and distribution of Project Gutenberg™ electronic works, harmless from all liability, costs and expenses, including legal fees, that arise directly or indirectly from any of the following which you do or cause to occur: (a) distribution of this or any Project Gutenberg™ work, (b) alteration, modification, or additions or deletions to any Project Gutenberg™ work, and (c) any Defect you cause. Section 2. Information about the Mission of Project Gutenberg™ Project Gutenberg™ is synonymous with the free distribution of electronic works in formats readable by the widest variety of computers including obsolete, old, middle-aged and new computers. It exists because of the efforts of hundreds of volunteers and donations from people in all walks of life. Volunteers and financial support to provide volunteers with the assistance they need are critical to reaching Project Gutenberg™’s goals and ensuring that the Project Gutenberg™ collection will remain freely available for generations to come. In 2001, the Project Gutenberg Literary Archive Foundation was created to provide a secure and permanent future for Project Gutenberg™ and future generations. To learn more about the Project Gutenberg Literary Archive Foundation and how your efforts and donations can help, see Sections 3 and 4 and the Foundation information page at www.gutenberg.org. Section 3. Information about the Project Gutenberg Literary Archive Foundation The Project Gutenberg Literary Archive Foundation is a non-profit 501(c)(3) educational corporation organized under the laws of the state of Mississippi and granted tax exempt status by the Internal Revenue Service. The Foundation’s EIN or federal tax identification number is 64-6221541. Contributions to the Project Gutenberg Literary Archive Foundation are tax deductible to the full extent permitted by U.S. federal laws and your state’s laws. The Foundation’s business office is located at 809 North 1500 West, Salt Lake City, UT 84116, (801) 596-1887. Email contact links and up to date contact information can be found at the Foundation’s website and official page at www.gutenberg.org/contact Section 4. Information about Donations to the Project Gutenberg Literary Archive Foundation Project Gutenberg™ depends upon and cannot survive without widespread public support and donations to carry out its mission of increasing the number of public domain and licensed works that can be freely distributed in machine-readable form accessible by the widest array of equipment including outdated equipment. Many small donations ($1 to $5,000) are particularly important to maintaining tax exempt status with the IRS. The Foundation is committed to complying with the laws regulating charities and charitable donations in all 50 states of the United States. Compliance requirements are not uniform and it takes a considerable effort, much paperwork and many fees to meet and keep up with these requirements. We do not solicit donations in locations where we have not received written confirmation of compliance. To SEND DONATIONS or determine the status of compliance for any particular state visit www.gutenberg.org/donate. While we cannot and do not solicit contributions from states where we have not met the solicitation requirements, we know of no prohibition against accepting unsolicited donations from donors in such states who approach us with offers to donate. International donations are gratefully accepted, but we cannot make any statements concerning tax treatment of donations received from outside the United States. U.S. laws alone swamp our small staff. Please check the Project Gutenberg web pages for current donation methods and addresses. Donations are accepted in a number of other ways including checks, online payments and credit card donations. To donate, please visit: www.gutenberg.org/donate. Section 5. General Information About Project Gutenberg™ electronic works Professor Michael S. Hart was the originator of the Project Gutenberg™ concept of a library of electronic works that could be freely shared with anyone. For forty years, he produced and distributed Project Gutenberg™ eBooks with only a loose network of volunteer support. Project Gutenberg™ eBooks are often created from several printed editions, all of which are confirmed as not protected by copyright in the U.S. unless a copyright notice is included. Thus, we do not necessarily keep eBooks in compliance with any particular paper edition. Most people start at our website which has the main PG search facility: www.gutenberg.org. This website includes information about Project Gutenberg™, including how to make donations to the Project Gutenberg Literary Archive Foundation, how to help produce our new eBooks, and how to subscribe to our email newsletter to hear about new eBooks.