N° 55 – Echos de Göteborg : c’est la fin 1

Les bonnes choses ont toujours une fin, dans ce troisième billet concernant le 76e Congrès de l’IFLA, je relate les dernières sessions qui m’ont marquées et tire un petit bilan de la manifestation.

Le samedi 14 août s’est tenue l’intéressante session 133 organisée par les sections « Alphabétisation et Lecture » et « Bibliothèques pour populations multiculturelles » et dont le thème était : Les bibliothèques soutiennent la lecture dans une société multiculturelle, multilingue. J’ai été particulièrement intéressé par la communication faite par Maija Berndtson, Directrice de Helsinki City Library en Finlande, qui a exposé l’expérience de sa propre bibliothèque (la Bibliothèque de la Ville d’Helsinki) et son statut multilinguistique depuis 1995. Cette structure qui est en fait un réseau citadin de 35 bibliothèques, a la caractéristique essentielle de donner à des utilisateurs d’origine étrangère la possibilité  d’accéder à un fonds documentaire dans leur langue maternelle (des livres disponibles en 70 langues). Cela permet à ces utilisateurs de préserver une certaine connaissance de leur langue maternelle en plus du finnois. Cette bibliothèque fait aussi office de lien vers le pays d’origine, on peut ainsi y lire un journal de son pays et suivre ce qui s’y passe sur Internet, avec la possibilité également d’y envoyer gratuitement des e-mails à domicile. Nous voici donc devant une application concrète de l’interculturalisme en plus du multiculturalisme. L’autre intérêt de cette communication est l’apologie faite à notre profession de bibliothécaire et qui se résume à cette petite réflexion de l’intervenante : « Knowledge is power, we work with knowledge, we are powerful » tout un symbole. La communication originale est accessible en cliquant sur ce lien, en attendant la traduction que je promets d’ici peu.

L’autre session à laquelle je me suis intéressée est la N° 149 organisée coinjointement par les sections « Technologie de l’information », « Catalogage », « Classification et Indexation » et « Gestion du savoir » et qui avait pour thème : Les bibliothèques et le Web sémantique. Nous avons eu droit à 6 communications sur cette problématique qui intéresse très sérieusement le monde des bibliothèques qui doit s’intégrer à l’environnement du Web, plus particulièrement à son évolution souhaitée à  savoir celui d’être un Web de données. Ce qui est apparu au cours de ces différentes communications, c’est que les bibliothèques sont très outillées pour ce Web sémantique. En effet nos données sont de haute qualité, produites par des humains (langage naturel) et sont persistantes. La condition pour publier des données sur le Web est de disposer d’ontologies, ce que les bibliothèques ont aussi compris, pour preuve celles qu’elles utilisent ou projettent de le faire : RDA Element Set, FOAF, FRBR, SKOS, Dublin Core, etc..

Lors de la session de clôture notre collègue du Burkina Faso et boursière du CFI, Kabou Kambou Kadio, a été distinguée du prix du meilleur poster du congrès, ce qui au-delà de la satisfaction personnelle de l’auteur, est aussi une fierté pour nous autres africains. Un exemple de sérieux, de professionnalisme et de créativité à souligner.

Mon impression est que ce congrès a été très bien organisé. Au point de vue personnel, j’ai apprécié de pouvoir renforcer ma présence au sein des comités permanents des deux sections qui m’intéressent et qui m’ont valu d’être parmi les « convenors » d’une prochaine session conjointe entre la section « Maîtrise de l’information » et le groupe d’intérêt particulier « Access to Information Network-Africa » (ATINA) à tenir pendant le congrès de Helsinki en 2012. Aussi, l’idée mienne de créer un groupe d’intérêt particulier sur les logiciels libres pour les bibliothèques a été bien accueilli par le comité permanent de la section « Technologie de l’information » qui a, d’ores et déjà, amorcé la réflexion sur cette question et dont je ferais part des évolutions dans cet espace.

Information Literacy Section: Standing committee meeting

J’ai apprécié tout aussi d’arborer le ruban des blogueurs officiels de l’IFLA et d’être l’un des nombreux relais de ce qui s’est réellement passé à Göteborg. Justement parmi les bonnes choses vécues à Göteborg, comment ne pas souligner les différentes manifestations festives dont les « IFLA Night Spot », la soirée dansante du Vendredi 13 (c’était une séance  de danse très endiablée 🙂 ), le dîner des boursiers du CFI, l’atmosphère culturellement vivante de la ville, etc. et qui ont été autant de moments d’émotion et souvent de communion entre collègues.

Adjö Göteborg

Hello Puerto Rico

Sweden needs a national library policy

Share

Publicités

N° 43 – A la découverte de « Linked Data » 6

Il y a un an j’introduisais, avec la prudence qui sied à un non spécialiste, le sujet du Web sémantique. Depuis beaucoup d’eau a coulé sous le « pont-abri » sous lequel je m’abritais et j’ose maintenant sortir de cet abri pour approfondir mon discours sur le concept. Lors du dernier IFLA 2009 (section Information Technology) il a été souvent question de ce  Web sémantique et plus spécialement de  « Linked Data« . Pour comprendre de quoi il est question, il faut faire un bref rappel de ce qu’est le Web tel que nous le connaissons, l’utilisons et le pratiquons aujourd’hui. Ce Web traditionnel est une gigantesque quantité de documents reliés entre eux par des liens hypertextes et accessibles grâce au protocole de communication HTTP. Ces documents sont lisibles et l’on peut suivre les liens qui y sont inclus et accéder à d’autres documents renvoyant eux-mêmes à d’autres documents et…c’est tout. Soyons clairs, mon intention n’est nullement d’amoindrir les effets bénéfiques de ce Web qui a contribué à faire de notre planète une Pangée virtuelle. Mais il se trouve qu’au-delà du document il y a de la matière plus fine, un composant de ce même document, dont la prise en compte renforcerait plus, les fondations de ce supercontinent virtuel adoré qu’est le Web. Cet élément si important n’est autre que la donnée qui est le constituant principal du document. Il ne s’agit ni plus ni moins que de faire de cette donnée une matière première essentielle à la manufacture du Web futur (3.0 ?).

Le Linked Data s’inscrit dans cette logique car son objectif  est de permettre aux gens de partager des données structurées sur le Web aussi facilement qu’ils peuvent partager des documents aujourd’hui.

C’est Tim Berners-Lee lui-même qui invente le terme dans son article Linked Data. En effet qui de mieux que le créateur du Web pouvait être à la base d’une telle idée visant à tracer la courbe évolutive de son oeuvre ? Le terme se réfère à un style de publication et d’interconnexion des données structurées sur le Web. L’hypothèse de base du Linked Data est que, plus une donnée est étroitement liée à une autre, plus augmentent sa valeur et son utilité. En résumé, le Linked Data est tout simplement une utilisation du Web pour créer des liens entre des données provenant de sources différentes.

linkeddata_cloud

Les principes de base du Linked Data sont les suivants :

  • utiliser le modèle de données RDF pour publier des données structurées sur le Web
  • utiliser des liens RDF pour interconnecter des données provenant de différentes sources

Appliquer ces deux principes conduit à la création d’une communauté de données sur le Web, un espace où les gens et les organisations peuvent fournir et consommer n’importe quel type de données. Cette communauté de données est souvent appelé le Web de données ou Web sémantique.

Le Web de données est accessible par l’utilisation des navigateurs Linked Data (exemples : DISCO, Openlink version demo), tout comme le Web des documents (traditionnel) l’est par le biais des navigateurs HTML. Toutefois, au lieu de suivre des liens entre les pages HTML, les navigateurs Linked Data permettent aux utilisateurs de surfer entre les différentes sources de données en suivant des liens RDF. Cela permet à l’utilisateur de démarrer par une source de données et ensuite de se mouvoir dans un Web potentiellement infini de sources interconnectées grâce à ces liens RDF. Par exemple, pendant qu’un usager étudie  les données sur une personne provenant d’une source, il peut être intéressé par des informations sur la ville de résidence de cette dernière. En suivant un lien RDF, l’usager peut accéder  à l’information concernant cette ville, information figurant dans un autre silo de données.  Le Linked Data permet donc d’établir des relations entre des données et c’est de cela qu’il s’agit fondamentalement. Ces relations peuvent être de différentes natures. Par exemple, un lien RDF qui relie des données sur les personnes peut affirmer que deux personnes se connaissent, aussi un lien RDF qui connecte les informations personnelles avec des informations sur les publications dans une base de données bibliographiques, pourrait stipuler qu’une personne est l’auteur d’un document particulier.

Il faut donc retenir que tout comme le document Web traditionnel peut être exploré en suivant des liens hypertextes, le Web de données s’explore en suivant les liens RDF. Le ciment qui maintient ensemble les documents sur le Web traditionnel est constitué par les liens hypertextes dans les pages HTML. Celui du Web de données l’étant par liens RDF.

Lien hypertexte versus Lien RDF, un face-à-face : où cependant demeure un dénominateur commun, à savoir l’incontournable HTTP, ce protocole sans lequel aucune ressource (document) n’est accessible sur le Web. En effet c’est ce même protocole qui permettra d’accéder aux données reliées entre elles,  mais par des URI (Uniform Resource Identifier). Avec le Linked Data, HTTP permettra d’accéder non plus aux documents seulement, mais sera utilisé pour des personnes, des lieux, des événements, etc. et n’importe quel concept sur le Web aura un nom commençant par HTTP qui sera son identifiant unique. Avec l’utilisation de ce protocole HTTP, le Web nous renvoie des informations, des données qui sont importantes ou utiles parce qu’elles peuvent susciter un intérêt insoupçonné au départ : par exemple si c’est un événement, qui s’y rend ? Si c’est une personne, où est-elle née ?.  Ces données une fois récupérées ne fournissent pas uniquement des renseignements sur elles-mêmes, mais aussi et surtout des relations. Par exemple je  fais une recherche sur Senghor qui est né à Joal, Joal étant une ville du Sénégal. Dès qu’il y a une relation entre deux données, l’élément lié est nommé avec un nom commençant par HTTP. A partir de son nom HTTP je peux accéder à cette ressource, ici « Senghor », ensuite je peux accéder à sa ville de naissance « Joal », à son pays le « Sénégal », à la population de son pays, etc.. Ici apparaît un formidable intérêt, qui est la réduction du temps de recherche sur le Web et un affinement automatiquement de cette recherche. Dès l’affichage du résultat on dispose de toutes les données connexes à une ressource requise.

Dans le Linked Data imaginé par Tim Bernes-Lee il faut juste des données, disponibles, brutes, émanant de toutes sources, individuelle ou collective pour rendre le monde encore meilleur.

A la prochaine pour des informations supplémentaires et surtout pour voir comment les bibliothécaires peuvent participer au mouvement.

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

Share

N° 25 – Web sémantique : apporter notre pierre à l’édifice Réponse

Au moment où se construit le Web sémantique,  soyons comme les bâtisseurs des cathédrales du Moyen-âge, c’est-à-dire des maçons opératifs et non spéculatifs. Détenant des savoir-faire comme ces derniers, devons-nous pour autant nous emmurer dans des obédiences où les pratiques et connaissances ne sont réservées qu’aux seuls initiés de la bibliothéconomie ? En toute assurance, qui est la marque des hommes imbus de l’importance de leur corporation, je crois que non, tant le constituant du web sémantique, à savoir les ontologies a envahi, depuis des lustres, les travées de nos espaces documentaires. Que celui de nous qui a déjà indexé jette la première pierre et à coup sûr, une ribambelle de galets s’envoleront du même coup, de tous les bords de la terre, formant un amas de briques certes difforme, qu’il faudra agencer selon les plans de l’édifice sémantique à bâtir. Il ne s’agit ni plus ni moins dans ce billet, de dire l’impossibilité de se passer de l’expertise des héritiers de Melvil Dewey et que ceux-ci doivent marquer leur présence au moment où se dessinent les plans architecturaux du monument sémantique.

Décrire, classifier, hiérarchiser, signifier, lier des termes et documents ; voilà ce qu’on veut assigner à des moteurs dits sémantiques. Dans nos pratiques « humaines » quotidiennes, nous ne faisons pas moins que cela et tel M. Jourdain (faisant de la prose sans le savoir) nous créons des ontologies sans nous en rendre compte. Alors la question à poser n’est-elle pas de savoir, comment convertir cette production « brute », née le plus souvent d’une expertise empirique, en une  réalité normée, répondant aux canons de l’orthodoxie informatique, plus précisément « webique » et qui sous-tend la performance des moteurs de recherche sémantiques ?  Eh bien selon les « experts » (je leur concède volontiers cet attribut parce que je les considère comme tels) en la matière, il faut une mixture composée de modèles : les RDF (pillier de l’architecture du Web sémantique), formidablement expliqués dans ce lien d’expert et les FRBR (il est grand temps que les SIGB s’y mettent), accompagnés d’une bonne dose d’OWL. En termes plus concrets : des catalogues de bibliothèques différentes pourront s’enrichir entre eux, être interrogés en une seule fois et de façon transparente pour les utilisateurs quand ils auront été soumis formellement à la même « RDFisation », à l’usage d’un même vocabulaire et d’un même modèle FRBR.

Comme base de créations d’ontologies, pourquoi n’utiliserions-nous pas les termes de nos différents systèmes de classification (définis et résumés ici) : données décrites en RAMEAU, ou bien encore les Worldcat identities (powered by OCLC) ou bien même ceux de nos petits systèmes classificatoires à formalisation locale ?

Il ne s’agit ni plus ni moins, pour nous bibliothèques(caires), que d’être une pierre angulaire du Web sémantique, pierre qu’il faudra bien polir afin qu’elle ne soit pas rejetée par les bâtisseurs.

Quelques ressources


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 24 – Un peu de Web sémantique Réponse

Que de chemin parcouru depuis que Tim Berners-Lee créa le Web en 1991. Année qui a aussi vu l’apparition de la première génération des outils dédiés à la recherche de sites Web. Ces sites ont connu une évolution quantitative exponentielle entraînant de fait, une surproduction d’information (infobésité), ce qui implique aujourd’hui, la nécessité d’avoir des mécanismes et outils de recherche qui permettent une recherche efficace (rapidité et pertinence) de l’information ainsi publiée. Cette nécessité a été levier de l’évolution technologique des moteurs de recherche, mais aussi de l’apparition du « nouveau » concept qu’est le Web sémantique, dont je me propose de faire l’exposé dans ce billet.

Qu’en est-il ?

Brièvement expliqué, ce concept a pour objet de faciliter l’accès aux informations disponibles sur le Web. La vision de Tim Berners-Lee est de rendre la sémantique des ressources du Web explicite, de manière que les programmes puissent l’exploiter comme nous autres humains. Cela grâce à l’interopérabilité des métadonnées qui va permettre aux moteurs de trouver et de mettre en relation des données jusqu’alors confinées dans leurs sites (ou leurs bases de données, une grande partie du Web invisible est confinée dans des bases de données). Le but est de permettre aux robots (fureteurs du Web) de « comprendre » le contenu des sites, grâce à l’emploi de langages adéquats (le RDF ou Resource Description Framework pour les métadonnées ; le OWL : Web Ontology Language pour les ontologies).

Pour  illustrer ce qu’est le Web sémantique, prenons un exemple tout simple : on choisit de faire une recherche sur « Abdou Diouf ». Un moteur classique comme Google va afficher des milliers de pages où figure le nom Abdou Diouf, mais un moteur estampillé Web sémantique va orienter la recherche en proposant le nom « Abdou Diouf » selon des qualificatifs (fonction, profession,…plus précisément pour cet exemple : président du Sénégal, secrétaire général de la francophonie, etc.). Donc il faut arriver à ce que les moteurs de recherche puissent « saisir le sens » des ressources du Web qu’ils indexent (expression qui a une autre signification ici et qui est différente d’une quelconque compréhension du langage naturel par les machines). Ceci implique, dans l’ « idéologie » du Web sémantique de rendre cette information disponible à  ces programmes sous forme d’ontologies (voir ci-dessus). Le bénéfice principal que l’on obtient avec pareille chose, est l’abrègement considérable du temps de recherche et qui rime avec réduction importante du bruit (informations superflues non désirées).

La philosophie du Web sémantique est aussi d’exprimer les métadonnées dans un modèle entité-relation (voir les FRBR) et d’identifier toutes les entités à l’aide d’URI (Uniform Resource Identifier, « identifiant uniforme de ressource »). Pour nous bibliothécaires et assimilés, les enjeux que nous devons saisir concernent : l’exposition des données structurées dont nous disposons par l’émiettement de la connaissance en proposant une description bibliographique au niveau le plus élémentaire. Cet enrichissement des données nécessite la reconnaissance d’entités nommées (de façon à ce que les moteurs reconnaissent les noms de personne, les lieux, les manifestations., etc.), leur catégorisation et leur localisation géographique.

Dans le prochain billet je me propose d’approfondir l’argumentation ainsi introduite et qui vise à monter que les bibliothèques sont très bien placées pour réaliser ce travail et doivent être des acteurs sûrs et « incontournables » du Web des données (autre appellation du Web sémantique).

Pour ce qui est des outils, je vous propose trois moteurs estampillés Web sémantique :

  • Hakia : (2006) Le défi d’Hakia est de construire un moteur de recherche sémantique, c’est-à-dire, destiné à rendre les résultats des recherches basés plus particulièrement sur le sens des mots clés. Le principe étant de faire la relation entre les mots, à la manière du cerveau humain. C’est une nouveauté par rapport aux moteurs de recherche classiques qui utilisent la popularité et les occurrences par indexation conventionnelle. 
  • Spock : moteur pour recherche d’individus (fonctionnement depuis août 2007). La fonction de recherche y est accessible à tous les internautes, sans inscription préalable. Il suffit de renseigner le nom d’un individu et éventuellement d’affiner la requête avec son âge, son sexe et son origine géographique. Spock offre aussi la possibilité de rechercher des individus à partir de mots-clés comme «Senegalese musician», qui remonte alors une liste de musiciens sénégalais (je vous laisse deviner ceux qui sont les premiers cités ou bien faites l’expérience). Chaque profil apparaît sous forme de fiche renseignée d’une photo, de tags (mots-clés) censés décrire l’individu, et d’une liste de proches. Si l’accès à la recherche de base est accessible à tous, Spock invite les utilisateurs à s’inscrire afin de profiter de fonctions supplémentaires. Cela leur permet d’affiner leur propre profil mais aussi de participer à l’amélioration du service en ajoutant des tags aux individus pour mieux les qualifier (par exemple, journaliste, musicien…), l’objectif étant d’améliorer la pertinence du moteur.
  • Swoogle : (développé depuis 2004 par Ebiquity group à l’Université du Maryland) moteur de recherche sur les ontologies.

Ce Web sémantique, selon certains spécialistes, est la future évolution du Web (3.0 ?), raison de plus de demeurer éveillé et/ou veilleur pour ne pas rester en rade.

Merci à Pani Zuza Wiorogorska pour ta précieuse collaboration

Prochainement la suite au même port d’escale.

PS : pensée pieuse pour madame Rose Dieng (éteinte ce 30 juin 2008 à Nice), spécialiste d’Intelligence Artificielle à l’INRIA et travaillant ces dernières années sur la gestion des connaissances et le web sémantique. Cette compatriote s’était vue décerner par le Ministère de la Recherche (France) et le groupe EADS le prix Irène Joliot-Curie 2005 distinguant ainsi une femme qui s’est affirmée par son parcours et sa contribution à la science. Je vous propose une de ses interventions concernant le web du futur où elle parle entre autres du Web sémantique.


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 16 – RDA : quelques considérations générales Réponse

Dans le billet de la semaine dernière, mon intérêt s’est porté sur l’ISBD consolidé publié en août 2007. Parallèlement un autre travail est entrain d’être accompli dans la sphère bibliothéconomique nord-américaine, toujours dans le sillage des nouvelles orientations imaginées pour faire évoluer le catalogage. En terme plus précis, il s’agit de la mise en place d’un nouveau code de catalogage dénommé RDA (Resource Description and Access).

Historique

En 2003, l’organisme de maintenance des AACR (Anglo-American Cataloguing Rules), en l’occurrence le Joint Steering Committee for revision of AACR (JSC) décida de réviser profondément ces règles. La dernière publication officielle (AACR2) est la seconde édition révisée en 2002 et mise à jour en 2003, 2004 et 2005. A sa suite, le draft de la première partie des AACR3 fut publié en décembre 2004. En 2005 le JSC décida de changer l’intitulé des AACR en adoptant celui de RDA, dont le premier draft sera publié en décembre 2005, suivi de la publication d’autres moutures concernant ses différents chapitres en 2006 et 2007. Pour une présentation plus complète (sur les RDA et l’organisation fonctionnelle du JSC) ce site peut vous aider à y voir plus clair. Les travaux sont en cours et la publication définitive est prévue en 2009.

Présentation et objectifs

  • code de catalogage adapté au nouveau contexte des catalogues : publication des règles sous forme électronique, pour décrire tous les types de ressources (électroniques et autres) dans des notices utilisables dans l’environnement numérique (Internet, OPAC web…)
  • approche centrée sur l’utilisateur et l’information dont il a besoin : la « norme » est conçue pour être facilement utilisable et produire des notices dont les données seront appropriées et pertinentes pour l’utilisateur
  • les directives sont basées sur des principes et non sur des règles contraignantes ou restrictives, le but étant de faciliter le processus de description des ressources selon un plan logique.
  • référence aux modèles d’information bibliographique (FRBR et FRAD, je me propose de faire prochainement, un billet sur ce dernier modèle qui concerne les données d’autorité). Ces derniers étant les bases de la construction des directives des RDA. Le prochain post portera sur l’articulation entre les RDA et les FRBR.
  • vocation internationale
  • possibilité d’un contrôle bibliographique plus efficace
  • compatibilité avec des normes de description semblables
  • utilisation préconisée au-delà de la communauté des bibliothèques : compatibilité avec les normes nord-américaines d’archives et de gestion des objets muséographiques

RDA et les métadonnées

RDA est conçu pour être utilisable avec des schémas d’encodage de métadonnées. Les notices bibliographiques créées sous RDA peuvent être stockées et transmises sous format MARC et des formats de métadonnées, tels que le Dublin Core (Dublin Core working group for RDA) ou MODS (slide sur MODS et RDA). Parallèlement un travail de développement d’un profil d’application pour RDA est entrain d’être mené, ainsi que celui d’un vocabulaire d’éléments.

Pour finir

Parler de RDA en l’état actuel (travaux d’élaboration en cours) est un exercice difficile tant le deadline quant à sa finalisation (2009) est encore long. Ce que j’ai voulu faire ressortir dans ce mini-dossier, à compléter lors du prochain post, c’est son importance ultérieure dans la construction du Web sémantique où, nous bibliothécaires et autres acteurs de l’information documentaire, devront avoir le « beau rôle », avec les informations contenues dans nos catalogues et répertoires accessibles sur le Web. Pour permettre aux moteurs de recherche d’accéder à ces données, il faut revoir et continuer à améliorer les formats et structures des catalogues, mais aussi les règles de catalogage, c’est le souci des concepteurs des RDA. Souhaitons qu’ils atteignent les buts escomptés et que les espoirs pour la profession (annonce de l’IFLA) ne soient pas déçus.

Prochainement RDA et modèle FRBR


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 08 – Modèles conceptuels : FRBR Réponse

Aujourd’hui nous accostons au quai des modèles conceptuels créés pour la gestion de l’information. Brièvement présentés les modèles conceptuels sont : des outils de dialogue et d’intercompréhension entre des personnes d’horizons différents (par exemple : spécialistes d’un domaine et informaticiens) ; des outils de dialogue entre réservoirs de données hétérogènes ; des outils d’aide à la conception des systèmes ; des outils de comparaison, d’échange et de stockage de données ; des outils d’intégration au Web sémantique. Ils se situent au-dessus des schémas de métadonnées (voir posts précédents), donnant une vue d’ensemble abstraite de l’information fournie et fixent un idéal à atteindre quant à la gestion de cette information.

Mon propos, pour ce post, consiste en une introduction sur le modèle FRBR (Fundamental Requirements for Bibliographic Records ou en français, spécifications fonctionnelles des notices bibliographiques). C’est un modèle conceptuel développé par l’IFLA entre 1992 et 1998, sur la base de 9 résolutions adoptées en 1990 suite au séminaire de Stockholm sur les notices bibliographiques. Ce cadre conceptuel a pour but d’atteindre une compréhension commune et partagée des finalités des notices bibliographiques. Plus précisément il s’agit, de définir un niveau de catalogage minimal mais efficace pour les agences bibliographiques nationales et de mettre en adéquation les données bibliographiques avec les besoins des utilisateurs.

Ainsi les champs de l’étude sont : 1) les données (ensemble des données constutitives des notices bibliographiques, c’est-à-dire les données associées aux différents champs décrits dans les catalogues de bibliothèque et les bibliographies nationales); 2) les utilisateurs (tous les utilisateurs potentiels des notices : usagers des bibliothèques, personnels des bibliothèques, éditeurs, distributeurs, gestionnaires de droits d’auteur, etc.) ; 3) les besoins de ces utilisateurs (besoins relatifs aux buts recherchés dans le processus de consultation des catalogues : trouver des références en fonction de critères de recherche, identifier une ressource, la sélectionner en fonction de ses modalités d’utilisation et enfin y accéder).

La méthode repose sur une analyse des données bibliographiques selon le modèle Entité-Relation qui définit : un regroupement d’éléments de données en « entités » qui sont organisés en 3 groupes dans le FRBR, une identification des « relations » existant entres ces différentes entités et une identification d' »attributs » susceptibles de les affecter. Pour le détail concernant les entités je vous renvoie à cet article.

Les avantages pour les bibliothécaires se résument à : un catalogage facilité, une oeuvre est cataloguée une fois pour toutes pour toutes ses formes d’expression (traductions notamment), ces expressions elles-mêmes cataloguées une seule fois pour toutes les manifestations liées (éditeur, lieu d’édition, date, etc.), d’où enfin une organisation logique du catalogue. Pour l’utilisateur, la recherche est facilitée, car une seule recherche permet de trouver tous les types de matériel d’une oeuvre sans doublons, toutes les expressions sont affichées en une seule opération et sa navigation dans le catalogue est plus naturelle.

Pour l’intégration du modèle dans sa bibliothèque, il faut choisir un fournisseur de logiciel intégrant le modèle (voir VTLS inc). Désolé je n’ai pas trouvé de SIGB libre intégrant cet outil, néanmoins une consultation du lien précédent vous permettra d’en savoir plus sur le mécanisme de fonctionnement du modèle avec le tutoriel en ligne qui y est proposé.

Les FRBR restent cependant un modèle théorique dont l’application n’est pas aisée. La masse des données structurées en ISBD ou MARC est énorme et l’élaboration de programmes de conversion vers le FRBR est problématique (notamment du fait aussi de la « babelisation » du MARC). Aussi comment ne pas prendre en compte l’ingérence du Web 2.0 dans l’espace bibliothéconomique qui propose toute une nouvelle démarche qui va plus loin dans la prise en compte des besoins des utilisateurs (Opac social, folksonomie, métamoteur à affichage cartographique comme Kartoo …). Toutes ces remarques (parmi tant d’autres) ne constituent-ils pas des facteurs de blocage qui font que le modèle soit toujours confiné à des projets limités aujourd’hui ? 

Pour de plus amples informations sur le sujet voir les liens ci-après, la brochure de Barabara Tillett, le rapport final du groupe de travail de l’IFLA.

Prochaine cargaison : Modèle OAIS