N° 10 – XML et bibliothèques 1

A l’occasion des dix ans d’XML (10 février 2008), je profite de l’événement pour ancrer ma yole au port de cette syntaxe de balisage créée a l’initiative du consortium du Web  qu’est le W3C. Je ne m’appesentirai pas outre mesure sur l’historique de sa création, tant l’information sur la question est abondamment disponible sur l’incontournable Web. Soucions-nous plutôt de son utilisation et de son importance surtout dans l’environnement bibliothéconomique.

XML (Extensible markup language) est un langage de balisage générique dont le but est de permettre la fonctionnalité et l’interopérabilité du Web en permettant a plusieurs systèmes dinformation hétérogènes de communiquer et d’échanger. Autrement dit il repose sur des principes : c’est un langage de balisage extensible ; sa maintenance est assurée par le W3C ; les balises ne sont pas prédéfinies mais libres et précisent le sens ou la structure et non pas la présentation graphique (comme le fait HTML) ; le contenu, la structure et la présentation sont nettement dissociés ; la structure des informations est arborescente. 

Les raisons qui rendent intéressantes son utilisation sont que : c’est un format libre et ouvert ; il est indépendant de toute plateforme informatique ; il est promis à une certaine pérennité (il est répandu dans plusieurs domaines et bénéficie d’une solide structure de maintenance) ; il facilite l’interopérabilité. Pour de plus amples informations voir le dossier que j’avais indiqué sur un billet précédent. 

En bibliothèque son utilisation permet : d’afficher des notices bibliographiques sur le Web (MarcXML, MODS, BiblioML…) ; d’y échanger ces notices (OAI, Dublin Core…) ; d’y éditer des ressources (TEI, EAD…) ; d’y diffuser de l’information (RDF, RSS, Atom…). Pour mieux cerner les possibilités permises par XML, faisons une petite comparaison avec le format Marc que nous connaissons tous. Marc se matérialise sous la forme d’un format de saisie constitué de zones prédifinies et immuables, certaines de ces zones permettent de communiquer avec d’autres systèmes utilisant le même format ce qui permet à plusieurs bibliothèques d’échanger des notices bibliographiques par l’import ou l’export de celles-ci. Mais ces échanges ne concernent pas les usagers de nos bibliothèques qui sont dans l’impossibilité d’accéder aux notices via le Web (pour cela ils doivent préalablement passer par le site de la Bibliothèque pour accéder à son OPAC). Alors qu’avec XML, ces notices bibliographiques deviennent visibles à partir du Web parce qu’étant repérables par les différents outils de recherche qui le sillonnent. En d’autres termes nos OPAC sont mis en surface et accessibles, en principe, à tout internaute. Un autre avantage parmi d’autres est, par exemple, le changement de formats de notices de Marc à XML qui se fait sans perte de données, permettant ainsi une retroconversion « fidèle » de ces dernières… Ce souci de pallier l’incapacité du Marc à permettre les échanges sur le WEB,  sera à l’origine de la création du MarcXML par la Bibliothèque du Congrès en juin 2002. Je vous renvoie au billet N° 06 de ce blog où j’expose, dans la présentation en bas de page, les différentes insuffisances du format Marc face au Web et l’alternative offerte par les formats de métadonnées qui supportent, entre autres, un balisage en XML.

Cette visibilité de nos notices se manifeste aussi par l’utilisation des flux RSS, qui permettent de diffuser de l’information sous forme d’alerte. Un exemple tout simple est de créer un flux RSS de nouvelles acquisitions qui permet à tout utlisateur inscrit à ce flux d’être averti dès qu’il y a de nouvelles notices dans l’OPAC. Nous sommes là en présence d’un vraie application « bibliothèque 2.0 », ce qui montre qu’XML mérite toute notre attention et qu’il serait judicieux de l’intégrer dans nos pratiques présentes et futures.

Prochainement, XML : initiation à la pratique

N° 09 – Modèle OAIS (archivage numérique) Réponse

Notre deuxième cargaison, au port des modèles conceptuels, concerne l’archivage des documents numériques, avec une vue d’ensemble (résumée) du modèle OAIS.  Pour mieux appréhender l’environnement qui entoure ce modèle, il me paraît judicieux de faire un bref rappel des enjeux liés à la préservation des objets numériques.

Nous sommes en présence d’une production exponentielle de documents numériques et cela n’est pas près de s’arrêter bien au contraire. Cette donnée implique un questionnement sur le devenir de toute cette masse documentaire produite, accessible et consultable par le seul biais de la technologie qui est elle-même évolutive. Donc tous les supports, les outils, les protocoles sont susceptibles « d’évoluer », voire de disparaître entraînant de facto, une possible inexploitabilité de tout ce qui a été produit (ou est produit maintenant). Il va sans dire que pareil scenario est inacceptable, voire inimaginable et  des outils ont été pensés et élaborés pour éviter un tel « cataclysme ».

Dans l’espace dédié à la préservation des documents numériques, l’OAIS a été élaboré comme modèle de référence pour un triple but : conserver le document numérique, le rendre accessible à une communauté d’utilisateurs ciblés et surtout en préserver l’intelligibilité (c’est-à-dire le rendre exploitable avec des outils »ouverts » et/ou documentés et non avec des outils propriétaires). Il est devenu Norme ISO 14721 et un résumé est disponible ici.

Concrètement l’OAIS n’est pas recueils de spécifications techniques destinées à être directement implementées, mais un modèle abstrait qui : définit des concepts et une terminologie, décrit les parties prenantes de l’organisation d’un tel système (acteurs, fonctions) et surtout indique un canevas par lequel on peut se poser toutes les questions pertinentes pour mettre en place un système d’archivage électronique. Je passerai sur les détails qui caractérisent le modèle et vous renvoie aux divers liens de ce billet (vive l’hypertexte). Je vais seulement exposer quelques fondamentaux.

  • Dans l’OAIS l’information se présente sous forme de paquets, qui ont des spécificités propres. On en dénombre trois types qui sont liées respectivement, à l’activité menée par les différents acteurs du modèle (production, management, utilisation).
  • L’OAIS définit ausi une organisation fonctionnelle du système d’archivage selon 6 entités qui s’articulent entre-elles. Chacun de ces domaines fonctionnels (Entités) détient des rôles qu’il remplit en communiquant et interagissant avec les autres domaines sous forme de flux de données. 
  • Enfin le modèle ne serait pas complet s’il n’indiquait pas des méthodes pouvant être mises en oeuvre pour garantir la pérennisation de l’information. Il en propose une qui est la Migration (en informatique le terme désigne, le passage d’un état existant d’un système d’information ou d’une application vers une cible définie dans un projet ou un programme, source Wikipedia) et en distingue 4 types : le rafraîchissement, la duplication, le ré-empaquetage et la transformation. Pour plus de détails  sur ces trois points, voir ce lien.

Ce modèle de référence s’est imposé au niveau international et son utilisation au niveau de nos structures documentaires ou sur des projets nationaux envisagés, peut-être le gage de réussite de tout projet d’archivage électronique. Cela nous permettra de « prévenir » et non pas essayer de « guérir » quand il sera peut-être trop tard. (Je ne peux m’empêcher de vous indiquer ce lien, qui montre l’urgence de définir des environnements normatifs de travail afin que chacun sache quelles sont ses prérogatives, ses limites d’action et de compétences. Je n’ai rien contre les gens qui gèrent ce projet, mais je crois qu’il y a des gens plus indiqués pour y intervenir et le prendre en charge, d’autant plus qu’il concerne une Université soucieuse de préserver sa renommée et donc devant être attentive à la professionnalisation des activités qui y ont cours.) 

Avec ce modèle apparaît aussi, et toujours, cette évidence tantôt évoquée dans un de mes billets précédents et qui est la nécessaire intégration des métiers de l’information documentaire et l’informatique. Car dans le cas de figure qu’est l’OAIS, bibliothécaires, archivistes et informaticiens sont embarqués dans le même bateau. L’archivage numérique est aujourd’hui, un carrefour (parmi d’autres) où nos routes se croisent naturellement, nos spécificités s’obligeant à une « fusion » inéluctable. Les bibliothèques numériques ne constituent-elles pas en même temps des dépôts de fichiers informatiques (donc des archives électroniques) ? Si oui, alors ces fonds électroniques peuvent être traitées en utilisant un même modèle (OAIS) dès lors qu’on décide mettre en place un système de préservation pérenne et quelque soit le type d’institution concernée (Bibliothèques ou Centre d’archives).

Pour rappel, le modèle OAIS est le résultat d’un travail du CCSDS (Consultative Committe for Space Data Systems – Organisme international de normalisation des agences spatiales) auquel ont été associés des représentants de bibliothèques et d’archives institutionnelles. Tout un symbole !

Prochaine escale dans l’univers XML

N° 08 – Modèles conceptuels : FRBR Réponse

Aujourd’hui nous accostons au quai des modèles conceptuels créés pour la gestion de l’information. Brièvement présentés les modèles conceptuels sont : des outils de dialogue et d’intercompréhension entre des personnes d’horizons différents (par exemple : spécialistes d’un domaine et informaticiens) ; des outils de dialogue entre réservoirs de données hétérogènes ; des outils d’aide à la conception des systèmes ; des outils de comparaison, d’échange et de stockage de données ; des outils d’intégration au Web sémantique. Ils se situent au-dessus des schémas de métadonnées (voir posts précédents), donnant une vue d’ensemble abstraite de l’information fournie et fixent un idéal à atteindre quant à la gestion de cette information.

Mon propos, pour ce post, consiste en une introduction sur le modèle FRBR (Fundamental Requirements for Bibliographic Records ou en français, spécifications fonctionnelles des notices bibliographiques). C’est un modèle conceptuel développé par l’IFLA entre 1992 et 1998, sur la base de 9 résolutions adoptées en 1990 suite au séminaire de Stockholm sur les notices bibliographiques. Ce cadre conceptuel a pour but d’atteindre une compréhension commune et partagée des finalités des notices bibliographiques. Plus précisément il s’agit, de définir un niveau de catalogage minimal mais efficace pour les agences bibliographiques nationales et de mettre en adéquation les données bibliographiques avec les besoins des utilisateurs.

Ainsi les champs de l’étude sont : 1) les données (ensemble des données constutitives des notices bibliographiques, c’est-à-dire les données associées aux différents champs décrits dans les catalogues de bibliothèque et les bibliographies nationales); 2) les utilisateurs (tous les utilisateurs potentiels des notices : usagers des bibliothèques, personnels des bibliothèques, éditeurs, distributeurs, gestionnaires de droits d’auteur, etc.) ; 3) les besoins de ces utilisateurs (besoins relatifs aux buts recherchés dans le processus de consultation des catalogues : trouver des références en fonction de critères de recherche, identifier une ressource, la sélectionner en fonction de ses modalités d’utilisation et enfin y accéder).

La méthode repose sur une analyse des données bibliographiques selon le modèle Entité-Relation qui définit : un regroupement d’éléments de données en « entités » qui sont organisés en 3 groupes dans le FRBR, une identification des « relations » existant entres ces différentes entités et une identification d' »attributs » susceptibles de les affecter. Pour le détail concernant les entités je vous renvoie à cet article.

Les avantages pour les bibliothécaires se résument à : un catalogage facilité, une oeuvre est cataloguée une fois pour toutes pour toutes ses formes d’expression (traductions notamment), ces expressions elles-mêmes cataloguées une seule fois pour toutes les manifestations liées (éditeur, lieu d’édition, date, etc.), d’où enfin une organisation logique du catalogue. Pour l’utilisateur, la recherche est facilitée, car une seule recherche permet de trouver tous les types de matériel d’une oeuvre sans doublons, toutes les expressions sont affichées en une seule opération et sa navigation dans le catalogue est plus naturelle.

Pour l’intégration du modèle dans sa bibliothèque, il faut choisir un fournisseur de logiciel intégrant le modèle (voir VTLS inc). Désolé je n’ai pas trouvé de SIGB libre intégrant cet outil, néanmoins une consultation du lien précédent vous permettra d’en savoir plus sur le mécanisme de fonctionnement du modèle avec le tutoriel en ligne qui y est proposé.

Les FRBR restent cependant un modèle théorique dont l’application n’est pas aisée. La masse des données structurées en ISBD ou MARC est énorme et l’élaboration de programmes de conversion vers le FRBR est problématique (notamment du fait aussi de la « babelisation » du MARC). Aussi comment ne pas prendre en compte l’ingérence du Web 2.0 dans l’espace bibliothéconomique qui propose toute une nouvelle démarche qui va plus loin dans la prise en compte des besoins des utilisateurs (Opac social, folksonomie, métamoteur à affichage cartographique comme Kartoo …). Toutes ces remarques (parmi tant d’autres) ne constituent-ils pas des facteurs de blocage qui font que le modèle soit toujours confiné à des projets limités aujourd’hui ? 

Pour de plus amples informations sur le sujet voir les liens ci-après, la brochure de Barabara Tillett, le rapport final du groupe de travail de l’IFLA.

Prochaine cargaison : Modèle OAIS

N° 07 – Métadonnées (2) Réponse

Je vous propose pour ce post-ci un résumé sous forme de slides, de mes propos de l’article précédent. J’espère que cette forme de présentation permettra de mieux appréhender l’environnement complexe des métadonnées. Tour à tour j’y propose un compendium des trois types de métadonnées (description, structure et administration), précédé d’un essai de définition du document numérique et de ses formes de présentation. Ce slideshow s’inspire du cours « Métadonnées de préservation » dispensé par Mme Emmanuelle Bermès de la BNF et que j’ai suivi au cours du stage international «Ressources électroniques en bibliothèques» de 2006.

Voir ici

En conclusion, je voudrai rappeler ces quelques considérations concernant les métadonnées et leur gestion dans les structures documentaires. Ainsi elles (métadonnées) impliquent pour nous, acteurs de ces structures :

une évolution des besoins

plus seulement des métadonnées descriptives,

gestion de documents structurés ou à structurer (XML, une petite découverte de la syntaxe de ce langage de balisage me paraît utile, voir pour cela un dossier sur le web assez complet)

 

une évolution des compétences métier

augmentation des compétences techniques

gestion des compétences documentaires dans un environnement nouveau

 

un défi

continuer à remplir les missions de conservation et de communication dans un environnement nouveau

collaborer avec d’autres acteurs que les bibliothèques : Musées, Administration (pour ce dernier cas précis et pour montrer concrètement ce que nous pouvons apporter à la bonne gouvernance et à la modernisation de l’Etat, pensons à proposer l’utilisation des métadonnées pour décrire les ressources web du gouvernement du Sénégal. Une piste de réflexion de plus et à la fin une « utopie » réalisable, l’exemple du gouvernement du Canada le prouve, je vous propose ici les avantages et la pertinence identifiés quant à la mise en place d’une telle chose).

Semaine prochaine : Modèle FRBR : Functional Requirements for Bibliographic Records

N° 06 – Métadonnées (1) Réponse

Que sont les métadonnées ?

La documentation sur la question foisonne sur le web et l’article dans Wikipédia est très complet, je vous y renvoie volontiers. La définition communément admise fait d’une métadonnée, tout simplement, « une donnée sur une autre donnée » et quelque soit le type de support d’information. Même si le terme est apparu dans le cadre de la description de ressources sur Internet dans les années 1990, la définition suggère que les catalogueurs, par exemple, ont toujours créé des métadonnées comme Callimaque de Cyrène (bibliothécaire d’Alexandrie) qui rédigea le premier catalogue raisonné de la littérature grecque les Pinakes au IIIe siècle avant Jésus-Christ. Elles sont organisées et/ou présentées sous forme de schémas publiés par des organismes de standardisation avec des comités de gestion chargés de leur maintenance. On en distingue généralement trois types : les métadonnées de description, conçues en vue de la recherche, du repérage et de l’identification des ressources (titre, auteur, résumé, mots clefs, date de parution…) ; les métadonnées de structure, qui facilitent la navigation et la présentation des ressources électroniques, elles fournissent des informations sur la structure interne des ressources (table des matières, index, chapitre, section, page) ; les métadonnées d’administration qui facilitent la gestion, la validation, l’archivage des ressources, elles incluent des données techniques notamment, la gestion des droits, le contrôle d’accès et les conditions d’utilisation. Ces trois types sont complémentaires et souvent les frontières entre elles ne sont pas visibles dans la pratique. En d’autres termes pour ceux qui se posent la question sur leur utilité, elles permettent de localiser et d’accéder à un document surtout en ligne (les documents imprimés l’étant par le biais des données catalographiques informatisées ou non). En effet les documents en ligne ont été caractérisés, à leur apparition, par une difficulté d’accès à leur contenu par le biais des formats de description classiques (ISBD par exemple), il a fallu attendre l’avènement du Marc et de sa zone 856 pour y accéder via la saisie de l’URL. Face à l’explosion de ces ressources en ligne et l’apparition des moteurs de recherche et autres outils (moissonneurs d’entrepôts d’archives ouvertes, exemple : OAIHarvester2), il fallait structurer ces éléments de description et de localisation pour rendre ces moteurs de recherche (certains, pas tous) plus performants dans la recherche et la récupération desdites ressources. Le souci était aussi de permettre l’interopérabilité c’est-à-dire la capacité d’échanger des données entre systèmes multiples disposant de différentes caractéristiques en terme de matériels, logiciels, structures de données et interfaces, et avec le minimum de perte d’information et fonctionnalités. Les métadonnées participent ainsi à cela en complémentarité avec d’autres processus. Au niveau technique cette interopérabilité se réalise à trois niveaux complémentaires : une description des ressources avec des sémantiques communes issues de différents jeux de métadonnées standardisés (Dublin Core, Marc-XML, BiblioML, EAD pour les archives,…), un cadre d’implémentation de ces descriptions dans des langages structurés standardisés, interprétables par les machines (HTML, XHTML, XML, RDF…) et des protocoles informatiques d’échange de ces données normalisées (HTTP, OAI-PMH, SRU/SRW,…).Dans l’univers des métadonnées descriptives, le jeu de métadonnées plus populaire est sans nul doute le Dublin core passé de standard à norme ISO avec un statut officiel au sein du W3C (Consortium du World Wide Web, instance internationale permanente chargée de l’avenir du Web). Je vous invite à consulter en ligne sur Slideshare, la présentation que j’avais faite sur la question lors d’un atelier du COBESS (vous pouvez récupérer le fichier .ppt).

A huitaine !

N° 05 – Open source : suite et fin Réponse

La semaine dernière je vous ai présenté quelques ressources libres et donné quelques indications sur comment aborder la prise en compte éventuelle de ces ressources. Mon propos d’aujourd’hui se veut être complémentaire, par la présentation d’autres logiciels susceptibles de nous intéresser. Pour les SIGB, deux applications retiennent mon attention, il s’agit de Evergreen et de PMB.

  • Evergreen : il est adopté par un nombre assez important de bibliothèques et dispose d’un staff de développeurs compétents. Il dispose d’un wiki qui lui est dédié où peuvent ête retrouvées beaucoup d’informations relatives à son fonctionnement et développement. Une version démonstration en ligne du catalogue est disponible ici. Il est avec Koha (dont la version 3.0 en anglais est disponible) l’un des logiciels préconisé par eIFL-FOSS.
  • PMB : sans doute le plus connu des deux parce qu’étant déjà utilisé par des bibliothèques sénégalaises. Ce qui est intéressant avec ce logiciel, c’est la prise en charge d’applications Web 2.0 dans sa version 3. En effet ce SIGB qui en est à la version 3.1 (novembre 2007) propose un OPAC social depuis la version 3.0 (possibilité de laisser des avis, tags, des mots-clefs sur les notices et pouvant être gérés par le bibliothécaire dans le module catalogue). En outre un Plugin proposant une interface entre SPIP (CMS libre) et PMB est disponible voir les détails ici. Le conseil que je donne est de faire appel à votre « informaticien-maison » pour vous aider à mieux comprendre les mécanismes de mise en oeuvre de ces fonctionnalités (migration vers une nouvelle version, adoption de plugin, etc.) pour en tirer le meilleur profit au besoin.

Cette association entre PMB et SPIP montre l’importance des outils que sont les CMS, notamment dans la création de sites web dynamiques et l’utilisation que nous pouvons en faire dans un environnement d’information documentaire. Ces CMS peuvent nous aider à améliorer nos sites, mais surtout nous faire prendre conscience que l’ère des sites web statiques et révolue et qu’en fin de compte savoir créer un site web ne se limite plus à uniquement maîtriser Frontpage ou Dreamweaver, mais aussi à pouvoir adjoindre à tout outil de création de site, des CMS pour « contôler » et « entretenir » celui-ci (le site web). Voici donc quelques uns de ces outils libres, liste loin d’être exhaustive.

  • SPIP : projet né en 2001 et traduit en une vingtaine de langues. On dénombre plus de 6000 sites web sous SPIP, une grande communauté d’utilisateurs qui implique une base de connaissances pouvant profiter à tout utilisateur ou futur utilisateur.
  • Joomla : CMS orienté Web 2.0 (inclusion des fonctionnalités suivantes : des flux RSS, des news, une version imprimable des pages, des blogs, des sondages, des recherches) dont la présentation donne des informations très complètes.
  • Drupal : CMS qui permet de créer une grande variété de sites Internet (blogs, sites Internet institutionnels, sites communautaires, sites d’informations, boutiques en ligne). Voir le site Drupalsites pour avoir un aperçu des différentes possibiltés offertes et surtout rejoindre la communauté d’utilisateurs du monde entier.

L’utilisation de tels outils peut être pertinente pour nous et porteuse de valeur ajoutée si elle se couple d’une connaissance de base (même théorique) des technologies informatiques sur lesquelles ils reposent (PHP, MySQL, Apache server, etc.). Des ressources pour se former sont disponibles en ligne, comme le site du CRDP de Bourgogne. Je vous conseille plus particulièrement ce lien pour installer un serveur Web étape par étape.

Pour finir mon propos, il faut savoir que tout ce qui est gratuit n’est pas Libre et tout ce qui est Libre n’est pas gratuit, cette confusion découle de la compréhension du terme « free » qui est utilisé en anglais pour les deux notions. D’où, actuellement, l’apellation consacrée et généralement admise de FOSS (free and open source software) pour désigner les logiciels libres et gratuits. Voir pour plus de précisions ce dernier lien

Semaine prochaine intrusion dans la baie des métadonnées

N° 04 – De l’Open Source pour espaces documentaires 1

Nous commençons cette année par une escale au port de l’Open Source, plus particulièrement du FOSS (Free and Open Source Software), véritable mine gratuite et libre de logiciels. L’espace documentaire en est pourvu en quantité et le défi est de pouvoir y trouver la qualité mais aussi d’adopter des méthodes de travail rationnelles pour une prise en main optimum de ces ressources (j’y reviendrai plus loin). J’aurai voulu que ce post soit une vaste recueil de   « Know-how » ou « Savoir-faire », c’est-à-dire comment gérer les différentes ressources qui seront exposées ici. Vous conviendrez avec moi que c’est une entreprise difficile à réaliser dans cet article qui doit répondre aux desiderata du format d’édition qu’est un blog. Je vous propose donc une liste de quelques ressources libres dédiées à l’environnement documentaire et exclusivement consacrée, pour cette semaine, aux systèmes intégrés de gestion de bibliothèque (SIGB ou ILS en anglais) ou d’archives.  

  • GNUTECA : logiciel de bibliothèque proposant une interface web et graphique GTK.
  • Koha Open Source Library System : je vous propose une présentation en ligne faite par un chef de projet Koha.
  • Archimede : Logiciel de dépôt institutionnel, qui permet de stocker et de gérer les archives électroniques. Il permet aussi de verser plusieurs documents à la fois, avec les formulaires pour entrer les métadonnées.
  • Museolog : logiciel de catalogage d’information muséologique

Les ressources citées ici ne sont pas les plus importantes, ni même les plus populaires, le débat que je veux soulever concerne le choix et la gestion de ces outils libres. Adopter de tels logiciels peut être pertinent pour nos structures sous-développées mais il faut savoir que ce n’est pas la panacée et qu’il faut beaucoup de choses pour accompagner un tel choix. Par exemple :

         prévoir un plan de formation initiale pour les utilisateurs en vue de prendre en compte les fonctionnalités du logiciel

         prévoir un plan de formation continue pour les versions futures qui ne sont pas aussi automatiques que dans le monde des logiciels payants. D’où la nécessité de faire une veille logicielle pour s’encquérir des nouveaux développements

         prévoir un service de maintenance physique et logique. En d’autres termes un Help desk qualifié pour résoudre les problèmes de fonctionnement et de développement. Cette dernière exigence montre la nécessité de la formation solide en informatique des bibliothécaires, archivistes et documentalistes. L’heure est venue de disposer de vrais informaticiens-bibliothécaires ou de documentalistes-informaticiens pour prendre en charge les enjeux et challenges des TIC dans nos structures et ne plus dépendre de « l’extérieur ». 

Semaine prochaine : Open Source suite et fin

N° 03 – De la bibliothèque 2.0 : exemples et pratiques Réponse

Mon propos d’aujourd’hui se veut plus orienté sur la pratique que les post précédents. En d’autres termes j’essaierai de vous proposer une liste, non exhaustive, de bibliothèques se servant de dynamiques 2.0, ou de sites orientés bibliothèque 2.0. 

Les exemples les plus nombreux et les plus accomplis se retrouvent dans l’univers anglo-saxon, c’est pourquoi ils seront les plus fréquents dans cet article. Eh oui ! Je crois que les francophones doivent se réveiller.

  • Westmont public library : Utilise Flickr pour montrer ses nouvelles acquisitions. Voir des exemples avec liens suivants : Jeux videos, Livres, etc.
  • Hennepin county library  : OPAC 2.0 (ou OPAC social, autre appellation), où on peut commenter un ouvrage et discuter avec d’autres utilisateurs.
  • Library thing : Permet a tout un chacun de cataloguer ses livres personnels en ligne, de partager ses collections avec les autres utilisateurs, et de faire des recommandations à la communauté d’utilisateurs (21 millions de livres catalogués à ce jour). Utilisation possible par une bibliothèque institutionnelle qui pourrait ainsi vulgariser ses collections sans même passer par son propre site web. Les notices sont importées automatiquement d’Amazon.com et de plus de 175 bibliothèques du monde entier y compris la Library of congress. On y retrouve :

  * Une indexation « standard » : notice au format MARC, indexation DEWEY, LC « subjects headings », visible via le lien « DETAILS » .

* Une indexation sociale : des tags associés, des fiches de lecture et revues de la communauté des utilisateurs, un système de suggestion de documents à lire, etc.

  • Lamson library : OPAC 2.0 de la bibliothèque de Plymouth State University, utilise la technologie des blogs pour permettre aux utilisateurs de ‘décrire’ avec leurs propres mots les documents de la bibliothèque, et ajouter des commentaires sur le livre ou la notice. Exemple de notice : http://www.plymouth.edu/library/read/212932    
  • MIT Libraries’ The Virtual Browsery (Beta) : OPAC a base de blog aussi comme le précédent.

  • Bibliopedia (site wiki collaboratif en français pour professionnels de l’information documentaire)
  • Babelio : même principe que dans Library thing. Créer une bibliothèque de livres et la partager sur le web. Pour une bibliothèque institutionnelle il est possible, par exemple, d’y partager ses nouvelles acquisitions et recueillir des commentaires de lecteurs et des tags (étiquettes ou mots-clefs) de ces mêmes lecteurs. (Site en français)
  • Bibliothèque & Catalogue : site qui donne accès aux documents et à leur contenu par un nuage de tags.
  • : propose un OPAC social où on peut commenter les livres

 Toute cette nouvelle tendance 2.0 pose aussi une problématique nouvelle pour nous et qui est la « bibliothéconomie-documentation de masse », dans laquelle on retrouve nécessairement des questions liées :

1- à « l’indexabilité » de la masse documentaire actuelle (présente sur le web notamment : peut-on et doit-on tout indexer ?).

2- aux « nouvelles » bornes de l’indexation, concernant sa régulation et son contrôle (qui a autorité pour indexer ?), son expertise (qui a compétence et maîtrise pour indexer ?) et son but final et son usage (qui a besoin d’indexer ?).

« Redoutons » que d’autres trouvent les réponses à notre place. 

Prochaine escale : « De l’Open Source pour espaces documentaires »