N° 50 – Découverte d’OpenFlora, SIGB libre 2

J’ai découvert il y a quelques jours un nouveau SIGB libre au doux nom d’OpenFlora, une « fleur ouverte » qui vient enrichir le beau décor du logiciel libre dans les bibliothèques. Eh oui les fleurs ont l’apanage de la beauté aussi bien visuelle qu’olfactive et la nature serait vraiment triste à vivre sans elles. La fleur que je vous propose et qui éclos dans la « nature virtuelle » ne déroge pas à cette règle.

J’en suis toujours au processus de découverte et il va sans dire que je ne prétends aucunement proposer un diagnostic exhaustif du logiciel, me concentrant pour le moment uniquement sur quelques taches bibliothéconomiques qu’il propose.

Toutes les étapes de la chaîne documentaire sont prises en compte, de l’acquisition des documents à leur communication sous forme de prêt ou autre (DSI, par exemple). En mode catalogage, il y est proposé pas moins de 20 grilles de saisie élaborées selon les types de document pris en compte (monographies, périodiques, documents cartographiques, etc.), avec possibilité de faire du pré-catalogage dès l’étape de création des listes de commande.

Choix d’une grille de saisie

Prise en compte d’UNIMARC pour tous les types de documents à cataloguer.

UNIMARC

Il est déployable dans tous les types de bibliothèques. Mon intérêt en tant que bibliothécaire universitaire se situe là. En effet, j’ai remarqué qu’OpenFlora prend en compte la procédure de catalogage du SU français (SUDOC), avec la possibilité pour une bibliothèque qui participe à ce système, d’alléger le temps de catalogage en allant puiser dans le réservoir de notices du SU et d’insérer le ppn (N° de la notice) dans le champ prévu à cet effet dans la grille de saisie d’OpenFlora.

PPN

Il reste à revoir et améliorer le format d’affichage dans l’interface utilisateur (OPAC), notamment pour l’ISBD où quelques ponctuations sont omises.

Voilà donc un premier compte rendu de mes observations en attendant des développements plus larges. Dans l’ensemble, l’appréciation est positive pour cette première version, qui avec la prise en compte d’UNIMARC apporte un plus par rapport à d’autres SIGB libres qui lui sont antérieurs. Encore une formidable opportunité pour les bibliothèques qui ont peu de sous (mon éternelle ritournelle). Un autre intérêt que je vois concerne ceux qui sont en phase d’apprentissage du catalogage (étudiants en bibliothéconomie) ou de renforcement de capacités dans ce domaine (formation continue de professionnels). OpenFlora est ainsi une excellente opportunité de toucher du doigt et/ou de comprendre ce qu’est UNIMARC (format pivot en matière d’échanges bibliographiques) et de voir comment il se présente en mode « description bibliographique ». D’autant plus qu’une fois téléchargée et installée sur un poste local, l’application peut être utilisée en mode Web via un navigateur (IE, Firefox, etc.) parce que tournant sur une machine virtuelle JAVA version 1.5 et un serveur d’applications Tomcat 5.0.28.

Voir ici le document d’installation, ensuite Télécharger et installer le produit, ou pendant le téléchargement qui peut être long en cas de connexion lente, voir la démo en ligne, et enfin prendre connaissance de l’importante documentation qui vous permettra de bien butiner OpenFlora et vous délecter de l’excellent nectar de cette « Fleur ouverte ».

Share

Ce document est mis en ligne sous Licence Creative Commons.

Publicités

N° 49 – Un centre national Greenstone au Sénégal 3

Dakar a abrité du 22 au 25 février 2010 un atelier de formation à Greenstone. Cet événement marque le lancement du Centre national Greenstone et premier nœud francophone du SAGSN, un réseau de centres déjà fonctionnels au niveau de l’Afrique australe et orientale. Ce centre est abrité par la bibliothèque centrale de l’Université Gaston Berger de Saint-Louis et placé sous la responsabilité conjointe de cette institution et de l’Institut Sénégalais de Recherches Agricoles (ISRA). Organisé en partenariat avec le COBESS et eIFL-FOSS, il a regroupé une vingtaine de spécialistes de l’information documentaire nationaux et un du Mali, celui-ci intervenant dans le projet de création d’une « bibliothèque numérique pour la jeunesse francophone du sud » initiée par la Fondation pour une bibliothèque globale basée au Canada.

Bref historique du SAGSN

En 2007-2008, un projet pilote d’eIFL.net sur l’utilisation de Greenstone financé par la Koha Foundation forma des bibliothécaires et archivistes de 10 pays de l’Afrique australe (Botswana, Lesotho, Malawi, Ile Maurice, Mozambique, Namibie, Swaziland, Tanzanie, Zambie, Zimbabwe). A la suite de cela fut lancé un réseau régional de soutien (Southern African Greenstone Support Network) composé de cinq centres nationaux logés dans des bibliothèques d’universités ou d’organismes situées au Lesotho, au Malawi, en Namibie, en Tanzanie et au Zimbabwe. À son tour, ce réseau de soutien a, en 2008, appuyé l’UNESCO dans l’organisation d’ateliers de formation sur le logiciel Greenstone aux Seychelles (Madagascar, Ile Maurice comme invités) et au Kenya. Ces différentes formations ont eu comme principal résultat, une prise de conscience de l’importance des collections de documents numérisés, stockés et diffusés dans des bibliothèques numériques élaborées par le biais du logiciel Greenstone. Les premières applications ont beaucoup bénéficié aux utilisateurs, aidés en cela par les centres nationaux dont l’appui et le suivi ont abouti sur des expériences positives.

Période 2009-2010 : extension du réseau et accroissement du nombre de collections opérationnelles.

Pour cette période eIFL-FOSS, programme d’eIFL.Net pour la promotion et l’utilisation des logiciels libres, appuie le projet  SAGSN, généreusement soutenu au début par la Koha Foundation, avec comme autres objectifs de :

* renforcer les centres et les réseaux nationaux existants en Afrique australe par des investissements et des appuis aux activités spécifiques de ces centres

* appuyer dans le long terme l’utilisation de Greenstone dans d’autres pays africains par la création de centres nationaux fournissant une expertise locale. Ces centres nationaux disposent d’un champ d’action totalement autonome pouvant aller d’une simple aide à distance, à l’organisation de séances de formation en passant par des interventions sur site pour assister des structures utilisant ou voulant utiliser Greenstone.

* promouvoir activement l’expertise et l’appui du réseau pour accroître les nombres de collections numériques opérationnelles, au bénéfice exclusif de la création et l’accès au contenu local africain

* travailler vers un réseau indépendant et autosuffisant de centres nationaux couvrant le large paysage des bibliothèques, des archives et des musées avant fin 2010

Un centre pour le Sénégal

Premier du genre en Afrique francophone dans le cadre du réseau, ses ambitions se déclinent comme suit :

–          Elaborer un répertoire national des structures documentaires utilisant Greenstone,

–          Elaborer un répertoire d’experts ou spécialistes locaux du logiciel

–          Créer une plateforme en ligne collective des collections numériques de ces structures

A la suite de cela, il s’agira de rendre visible les réalisations sus-citées, de promouvoir le centre et de se positionner sur le terrain de la formation sur le logiciel, l’assistance à l’installation et la maintenance des collections déjà créées.

Au niveau sous-régional, le centre se positionne déjà comme une tête de pont pour l’Afrique occidentale francophone, voire au-delà, avec  l’ambition de développer des activités promotionnelles et de soutien à l’installation et à la maintenance de Greenstone.

Un grand merci à messieurs Repke de Vries et Amos Kujenga, respectivement coordonnateur d’eIFL.Net Greenstone pour l’Afrique australe et coordonnateur régional du projet, dont les efforts non ménagés ont permis de concrétiser la mise en place de centre au Sénégal.

Ce document est mis en ligne sous Licence Creative Commons

Share

N° 48 – Mendeley : gestion bibliographique et réseautage social (fin) 6

Dans cette suite de la présentation de Mendeley je vais exposer  les autres fonctionnalités de l’application.

  • Synchronisation  de Zotero et CiteULike

Mendeley s’intègre entièrement  avec Zotero (une autre application gratuite de gestion bibliographique) et CiteULike (site 2.0 de partage de ressources pour scientifiques). Si vous utilisez déjà l’une ou l’autre de ces deux applications pour gérer vos références, vous pouvez configurer Mendeley afin d’y importer en permanence tous les documents que vous ajoutez à Zotero ou CiteULike,  économisant ainsi temps et effort. Cette synchronisation permet de gérer toutes vos données bibliographiques en un seul endroit. Sur la barre des menus cliquez sur « Tools » ensuite « Options » pour afficher l’écran de configuration de la synchronisation.

  • Importation à partir d’EndNote et RefWorks

Si vous utilisez  EndNote ™ ou RefWorks pour la gestion de vos références, vous pouvez facilement importer votre bibliothèque dans Mendeley utilisant  le Format XML  d’EndNote ou le format RIS disponible dans RefWorks.

  • Construire votre réseau de collègues chercheurs

Mendeley agit aussi comme un réseau social pour connecter des gens. Le réseau est composé de tous les autres utilisateurs de Mendeley. Vous constaterez sans doute que beaucoup ont des centres  d’intérêts similaires ou proches des vôtres. Vous pouvez vous connecter et partager des idées, des documents, des expériences. Avec un moteur de recherche dédié, vous pouvez effectuer une recherche sur des personnes et  trouver (à partir de votre carnet d’adresses e-mail) d’autres utilisateurs spécialisés dans votre domaine déjà inscrits dans Mendeley. Le cas échéant vous pouvez également inviter vos collègues et amis qui travaillent dans le même domaine que vous. Cette invitation peut se faire via l’application en ligne ou par le menu « Tools » du Mendeley Desktop.

  • Collaborer, partager et découvrir

En invitant vos amis ou même un groupe de recherche, vous pouvez utiliser l’outil « Shared Collections » pour disposer d’une plateforme permettant de partager facilement des informations. Après avoir créé la collection avec « Create collection » et invité des collègues ou amis (pas plus de 10 cependant pour la version de base 😦 ), vous pouvez y « glisser-déposer » tous les documents ayant un intérêt et ainsi les rendre disponibles pour la visualisation ou l’annotation collective de tous les membres de votre groupe.

Le réseau offre aussi l’accès à une vaste base de documents de recherche. Beaucoup d’entre eux sont téléchargeables librement de sorte que vous pourrez les ajouter à votre bibliothèque facilement. Enfin les documents trouvés dans les bibliothèques de vos collègues chercheurs peuvent être utiles pour vous. C’est un moyen formidable de connaître les nouvelles tendances et les évolutions de la recherche dans votre spécialité.

  • Explorer les tendances de recherche et élaborer des statistiques

A partir de son application en ligne, Mendeley permet enfin de découvrir et de compiler des statistiques générales sur les tendances de la recherche. Vous pouvez afficher les auteurs, les articles, les revues et les mots-clefs les plus populaires dans votre discipline et découvrir des statistiques intéressantes au sujet de votre propre bibliothèque de documents. Vous pouvez notamment afficher le nombre d’articles signés par des auteurs en particulier, les mots-clefs les plus souvent utilisés, le nombre d’articles dans votre bibliothèque, le nombre d’auteurs et le nombre de références cités par ces documents, etc. Ces statistiques vous permettent d’avoir un bon aperçu de l’état, à un moment donné, de ce que sont vos habitudes et priorités de recherche.

Dans un retweet (sur Twitter) du billet précédent n° 47, l’auteur du tweet en question posait la question à savoir si Mendeley était mieux que Zotero. Je réponds OUI à cette question et le principal argument pour justifier cette affirmation réside dans le fait qu’avec son option de réseautage social, Mendeley apporte un plus à la gestion des références bibliographiques, en outre il propose une interface en ligne synchronisable avec l’application installée en local…et avec Zotero lui-même. Aussi et enfin il est utilisable indépendamment d’un quelconque navigateur Web alors que Zotero ne s’arrime qu’avec Firefox et ses dérivés comme Flock. Un bémol tout de même, la taille maximale des fichiers PDF synchronisables est de 500 MB (largement suffisant pour moi cependant) pour la version de base, prévoir donc une souscription premium si vous voulez gérer un volume de documents plus gros.

Outre ces considérations purement personnelles je pense que la meilleure façon de comparer les deux applications, c’est justement de les essayer… et de les adopter 🙂 . A coup sûr.

Téléchargement

Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

Share

N° 47 – Mendeley : application gratuite de gestion bibliographique…et plus 8

J’utilise ce logiciel depuis peu, mais le trouve tellement utile et performant qu’il me paraît normal d’en faire une présentation (une de plus), en essayant de ressortir les avantages les plus significatifs que j’ai pu  en tirer. En effet, plus qu’un logiciel de gestion bibliographique, Mendeley agit aussi comme un réseau social avec tout ce que cela comporte comme idée de partage, de collaboration entre personnes du monde la recherche, ayant des centres d’intérêts communs ou voisins. Le logiciel est à télécharger et installer d’abord en local (Mendeley Desktop). Voyons les fonctionnalités remarquables qu’il propose, informations que j’ai tirées en majeure partie de la page de présentation du logiciel en anglais.

  • Créer votre propre bibliothèque de collections.

La première chose à faire après téléchargement, est d’importer vos documents de recherche ou autres dans Mendeley Desktop. Vous pouvez le faire manuellement en utilisant le bouton « Add a document » sur l’interface ou importer des références existant dans EndNote XML, RIS, ou des fichiers BibTex.
Vous pouvez également faire un « glisser-déposer » de vos fichiers PDF dans l’application Mendeley où  seront ensuite extraites les métadonnées du document (ou enrichies manuellement si elles sont incomplètes) et les références citées.
L’organisation dans votre bibliothèque de documents est intuitive avec possibilité de filtrer la recherche selon plusieurs paramètres (par auteur, titre de revue, mots-clés,…). Mendeley suggère même des documents absents de votre bibliothèque et qui présentent une similarité de contenu ou de contexte avec ceux qui y sont déjà présents.
Il propose également un outil de suivi de dossier, ce qui lui permet d’importer automatiquement les nouveaux fichiers et les placer dans le dossier que vous avez sélectionné.
Cette version en installation locale est synchronisable avec une version en ligne du logiciel qui vous permet d’accéder à vos bibliographies Mendeley depuis n’importe quel ordinateur, il suffit juste d’avoir un compte en ligne. Cela signifie qu’avec n’importe quel système d’exploitation que vous utilisez et où que vous soyez dans le monde, vous pouvez manipuler votre bibliographie en y accédant avec facilité.

  • Annoter des fichiers PDF

Ouvrir et lire des fichiers PDF dans le PDF Viewer  interne. Vous pouvez visualiser des fichiers PDF en mode plein écran et la fonction recherche plein-texte vous permet de découvrir immédiatement toutes les instances de votre terme de recherche. Vous pouvez surligner du texte avec l’outil marqueur de texte et y ajouter des notes pour capturer et fixer vos idées sur le document.
Vous pouvez, à partir d’un seul endroit tout gérer et visualiser : les données bibliographiques, les documents PDF ; faire des annotations sur ces documents PDF, les mettre en évidence ; citer des références ; consulter des documents en texte intégral ; gérer vos mots-clés, etc.

  • Générer des bibliographies dans Word et OpenOffice

En utilisant les plugins pour Word (Windows uniquement pour le moment) et OpenOffice (toutes plateformes) qui s’installent en même temps que  l’application,  vous pouvez générer automatiquement des listes de références dans plus de 100 styles de citations. Tous les styles les plus populaires sont inclus, par exemple ACM, American Chemical Society (ACS), l’American Medical Association (AMA), American Psychological Association (APA), Chicago Manual of Style, Elsevier, le format de référence de Harvard, Modern Language Association (MLA), National Library of Medicine, Nature, Public Library of Science (PLoS), … Tout ce que vous avez à faire est de cliquer sur « Insert citation » dans le plugin Word (sous l’onglet « Compléments » dans Word 2007) ou OpenOffice Writer, sélectionnez un ou plusieurs (en appuyant sur CTRL + sélection) documents dans le Mendeley Desktop et cliquez sur « Send Citation to Word / OpenOffice ». Les références seront ensuite insérées dans votre document. Enfin, cliquez sur « Insert Bibliography » et sélectionnez le style de citation dans la liste déroulante.

  • Rassembler des documents à partir de plusieurs sources

Glissez-déposez le Web Importer de Mendeley dans votre barre de navigation, puis l’utiliser chaque fois que vous voulez sauvegarder un document. Cela signifie que vous pouvez vous passer du téléchargement d’un document qui par la suite, sera manuellement inséré en ligne dans votre bibliothèque numérique. En un seul clic sur ce bouton, Mendeley importe automatiquement le document décrit en détails, les citations et les fichiers PDF, si disponibles. Toutes ces informations sont stockées directement dans votre bibliothèque Mendeley.
Ceci est particulièrement utile pour des moments où vous devez collecter très rapidement un masse importante de documents. Mendeley Desktop va également sauvegarder le tout dans votre bibliographie en ligne, à laquelle vous pouvez accéder et gérer à partir de n’importe où.
Vous pouvez importer des documents à partir d’un très grand nombre de services, dont voici quelques-uns :

Mendeley

A suivre…

Mendeley comme outil de collaboration et de réseautage social pour chercheurs.

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

Share


N° 46 – Pour une bibliothéconomie 2.0 plus « professionnelle » 2

Je poursuis mon plaidoyer pour que l’empreinte professionnelle soit de plus en plus marquée sur les plateformes Web 2.0, surtout ceux de partage de ressources Web. Outre le taggage fou qui y est constaté, j’y remarque souvent une autre forme de légèreté liée à la présentation de leurs références. Mon argumentation sera principalement axée sur Delicious, mais elle est tout aussi valable pour tout autre site de partage (type Connotea ou CiteULike).

Les « notices » descriptives de Delicious sont composées de 4 champs visibles (date de création, titre de la ressource, Notes, espace pour les tags). Delicious génère automatiquement le contenu de deux de ces champs : le titre, extrait de la balise <title> du code source de la page ou du site Web et la date, les autres étant renseignés par l’internaute qui propose le signet.  Le constat est que lors du processus de partage de la ressource :

  • nous nous contentons généralement du titre par défaut fourni par Delicious,
  • nous zappons le plus souvent la zone de notes sensée expliquer le contenu de la ressource signalée.
  • nos pratiques d’indexation (tagging) ne portent pas toujours le signe de la rigueur dans le choix des termes et leur transcription, (voir mon post précédent)

Devons–nous vraiment, en tant que professionnels de l’info-doc,  accepter d’être des adeptes de ce culte de l’amateurisme qui ne grandit pas notre rôle de médiateur d’information, d’être phagocytés par la grande masse  des internautes dont les pratiques spontanées contribuent à faire d’une partie du Web un grand capharnaum.

Je ne le pense pas.

L’idée véhiculée ici, est donc de professionnaliser les pratiques 2.0 des bibliothécaires et autres documentalistes sur les sites de partage des ressources web comme Delicious. Avoir le souci d’enrichir (ou embellir) ces notices comme nous le ferions pour une description bibliographique classique.

Comment arriver à accomplir cette exigence de professionnalisme ?

Voici quelques propositions personnelles

  • Choisir toujours, un titre explicite et concis. On peut toutefois se contenter de celui fourni par la plateforme, si celui-ci répond à ce désir de concision. Autrement, en fabriquer un (faut-il cependant le mettre en crochets carrés, pour suivre la logique de la norme ISBD ? 🙂 ). Aussi pourquoi, en suivant cette même logique, ne pas faire figurer dans ce champ titre une mention de responsabilité introduite par la barre oblique (Slash pour digital natives) pour identifier l’individu ou la collectivité créateur de la ressource ? Ceci permettrait d’un point de vue éthique, de mettre en avant leur travail et la compétence qui l’a sous-tendu.
  • Remplir systématiquement, la zone prévue pour la description de la ressource (Notes). Elle permet à l’internaute d’avoir un aperçu sur la nature, le contenu du site avant même de s’y rendre. Généralement toute page d’accueil d’un site propose un résumé de celui-ci et il suffit largement comme source d’information pour ce champ, sinon produire soi-même une brève description (genre analyse documentaire). Depuis quelques temps, j’insiste particulièrement sur cette pratique quand je signale des sites sur les différentes plateformes que j’utilise individuellement ou institutionnellement.
  • Mettre plus de rigueur dans le tagging en utilisant par exemple des taxonomies ou autres thésaurus. Et pour le cas spécial de Delicious, profiter de l’option « Tag Bundles » pour regrouper des mots-clefs sous une étiquette générique, équivalent ni plus ni moins, à créer des descripteurs maîtres comme dans un langage documentaire formel et hiérarchisé.
  • Enfin pourquoi ne pas « Labéliser » les ressources que nous partageons en tant que professionnels. J’aimerai bien faire le distinguo entre des ressources proposées par un professionnel et d’autres par  un internaute lambda. Ma « lubie » est d’imaginer un tag particulier (Doctag, Bibtag ?…) qui serait la marque par laquelle on pourrait savoir que telle ressource a été signalée par un bibliothécaire ou un documentaliste. Un narcissisme professionnel me fait croire que nos choix de ressources sont plus pertinents, parce que nous avons le meilleur profil de veilleur et de sélectionneur pour le Web 🙂 .

J’expérimente ces quelques idées sur mon compte personnel Delicious.

Les services de partage de ressources à orientation scientifique comme CiteULike ou Connotea, plus que Delicious, proposent des possibilités d’enrichissement de leurs notices par les champs de saisie qu’ils proposent, de même que LibraryThing dont le formulaire de saisie n’a rien à envier à un bordereau de SIGB. De tels outils nous permettent de  faire émerger notre expertise professionnelle en matière de description, tout en nous immergeant dans la dynamique participative et collaborative du Web.

La charge de travail occasionnée par un investissement dans l’espace partage des médias sociaux, surtout si on dispose de plusieurs comptes, peut être bien maîtrisée. En effet beaucoup d’extensions intégrables aux divers navigateurs (la palme à Firefox et filiale comme Flock) permettent d’alimenter semi-automatiquement ces plateformes. Si on utilise plusieurs de ces plateformes il est possible de les relier entre elles et réussir la « prouesse » d’être partout et nulle part en même temps : partager une ressource sur un outil principal et par un jeu de liaison (avec la technologie RSS) mettre à jour automatiquement les autres outils auxquels on a souscrits. Cette possibilité que j’appelle « transitivité 2.0 » doit être mise à profit pour tout bibliothécaire (2.0) utilisant plusieurs services.

Le web 2.0 en bibliothèques est loin d’être une corvée, il est aussi une histoire de passion. Passion due au fait que s’investir dedans permet de sortir d’un possible et probable train-train quotidien, de développer un esprit d’initiative, d’innovation et de faire de la bibliothéconomie ou de la documentation d’une autre façon et avec efficacité.

PS : Ce blog a aujourd’hui 2 ans d’existence, à cette occasion j’offre 20 invitations pour Google Wave. Un simple commentaire sur ce billet suffit en  n’oubliant  pas d’y faire figurer une adresse mail valide 😉 .

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

Share

N° 45 – Les Thésaurus sont aussi utiles pour le tagging 9

A l’heure de la taxonomie populaire, composante centrale du Web 2.0, les systèmes normalisés de description des ressources documentaires et d’organisation des connaissances restent toujours de vigueur.  C’est un moindre mal pour un spécialiste de l’info-doc que de faire un round-up de quelques outils de ce type, afin de rappeler que l’indexation sociale décrite comme « sagesse des foules », ne saurait être notre ultime état d’indexeurs formés à la dure école de l’analyse de contenu et de la classification des documents d’information. Voici donc mon choix de 10 thésaurus en ligne, pour ceux qui seraient tentés d’oublier que ces outils existent toujours.

  • Macrothésaurus de l’OCDE : Il fournit un ensemble de descripteurs (mots clés) pour l’indexation d’ouvrages et de documents traitant de questions relatives au développement économique et social. Il constitue également un outil d’aide en recherche documentaire pour les centres de documentation, les bibliothèques et les banques de données
  • Thésaurus Eurovoc : il est multilingue et couvre tous les domaines de l’activité de l’Union européenne, il permet d’indexer les documents dans les systèmes documentaires des institutions européennes et de leurs utilisateurs. Ce produit documentaire est actuellement utilisé par le Parlement européen, l’Office des publications des Communautés européennes, les parlements nationaux et régionaux en Europe, des administrations nationales et par certaines organisations européennes. Disponible en téléchargement au format PDF  et voir ici la liste alphabétique permutée de la version PDF en français
  • Thésaurus AGROVOC : thésaurus agricole multilingue de la FAO. AGROVOC comporte 16607 descripteurs et de nombreux non-descripteurs (synonymes). Il y a 9976 non-descripteurs en français. Le site web de la FAO peut être consulté en anglais, français, espagnol, arabe et portugais. Un grand nombre de versions, en d’autres langues, sont utilisées dans le monde entier. Liste alphabétique du Thésaurus.
  • Thésaurus UNESCO : Le Thésaurus de l’UNESCO est une liste de termes contrôlés et structurés pour l’analyse thématique et la recherche de documents et publications dans les domaines de l’éducation, la culture, les sciences naturelles, les sciences sociales et humaines, la communication et l’information. Continuellement enrichie et mise à jour, sa terminologie reflète l’évolution des programmes et des activités de l’Organisation. Le Thésaurus de l’UNESCO contient 7.000 termes en anglais et en russe et 8.600 en français et en espagnol.
  • Thésaurus UNBIS : UNBIS est élaboré, au sein du Département de l’information, par la Bibliothèque Dag Hammarskjöld. Il contient la terminologie utile pour l’analyse thématique des documents et autres publications relatifs aux programmes et activités de l’Organisation des Nations Unies. Il est utilisé comme le fichier d’autorité du Système d’information bibliographique de l’ONU (UNBIS) et a été incorporé en tant que liste de sujets du Système de diffusion électronique des documents de l’ONU (SEDOC). Le Thésaurus UNBIS est un outil multidisciplinaire, abordant l’ensemble des domaines d’action de l’Organisation. Les termes intégrés dans le Thésaurus UNBIS ont pour objectif de refléter de manière précise, claire et concise, et à un niveau de spécificité adéquat, tous les domaines d’importance et d’intérêt des Nations Unies.

En plus de ces cinq « grands » thésaurus généralement bien connus, j’ai découvert les cinq suivants qui ne manquent pas non plus d’intérêt.

  • Thésaurus de Santé publique : édité par la Banque de données en Santé publique (BDSP) qui est un réseau français de coopération pour la mise en ligne de sources d’information en santé publique. La quatrième édition présentée ici est constituée de 12825 termes : soit 7144 descripteurs, répartis en 57 sous-domaines (appelés également « champs » ou « micro-thesaurus ») et 5681 synonymes, ou « non-descripteurs », qui renvoient vers un descripteur valide.
  • Thésaurus d’éthique des sciences de la vie : consultable de façon autonome (indépendamment de l’interrogation d’une banque de données) et téléchargeable en PDF. Il est produit par Deutsches Referenzzentrum für Ethik in den Biowissenschaften de Bonn (éditeur principal), le Centre de documentation en éthique des sciences de la vie et de la santé de l’ INSERM/CCNE de Paris, Informations- und Dokumentationsstelle Ethik in der Medizin de Göttingen, Interfakultäres Zentrum für Ethik in den Wissenschaften de Tübingen et Library and Information Services of the Kennedy Institute of Ethics de Washington DC.  En 2005 il comptait 2 844 descripteurs, 889 non-descripteurs. Disponible en 3 versions linguistiques (allemand, anglais, français).  (source : http://dossierdoc.typepad.com/descripteurs/2006/03/thsaurus_dthiqu.html)
  • Thésaurus du BIT : ce Thésaurus du Bureau international du travail (BIT) est une compilation de plus de 4000 termes relatifs au monde du travail. Il contient des termes englobant un large éventail de sujets liés au développement économique et social. La priorité est donnée aux domaines d’intérêt principaux du BIT: le travail, la main-d’oeuvre et l’emploi, les normes du travail, l’administration du travail et les relations de travail, la formation professionnelle, la protection sociale, les conditions de travail, les salaires, la sécurité et la santé au travail, petite entreprise, le secteur informel et les droits de l’homme sur le lieu de travail. Chaque terme est présenté en anglais, français, et espagnol.
  • Thésaurus URBAMET : URBAMET couvre les champs thématiques de l’urbanisme, l’aménagement, l’habitat, la construction, l’architecture et les équipements. Le thésaurus présente aujourd’hui 4250 descripteurs répartis en 24 tableaux. Les synonymes et les renvois (« voir aussi ») facilitent la recherche. Chaque descripteur n’appartient qu’à un seul tableau sémantique et son acception découle de la place qui lui a été assignée dans cette organisation.

Après ce bref aperçu de quelques outils de classification, je voudrais juste souligner qu’il ne s’agit pas pour moi de remettre en cause le tagging (d’ailleurs nul ne peut arrêter la mer avec ses bras, encore moins le tag dans le contexte du Web social), mais de l’adapter à notre état professionnel. Lorsque nous taggons sur les différentes plateformes Web 2.0 auxquelles nous avons souscrites, de façon individuelle ou institutionnelle, pourquoi n’utiliserions-nous pas des descripteurs issus de ces langages documentaires formels pour harmoniser nos pratiques indexatoires ? Cela nous détacherait de l’amateurisme qui se manifeste généralement dans la liberté de description de contenu permise par les médias sociaux. Une sorte de « folksonomie assistée » qui nous permettrait, par exemple, d’uniformiser l’indexation dans des réseaux sociaux, de partage ou de collaboration documentaires.  Pour que vivent et survivent les thésaurus et autres répertoires et listes de vedettes-matières dont l’utilité pourrait être remise en cause.

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

Macrothésaurus de l’OCDE
Thésaurus AGROVOC
Thésaurus de Santé publique
Thésaurus d’éthique des sciences de la vie
Thésaurus du BIT
Thésaurus Eurovoc
Thésaurus InterWater
Thésaurus UNBIS
Thésaurus UNESCO
Thésaurus URBAMET

Share

N° 44 – Web 2.0 pour la recherche collaborative et le réseautage 5

Tel est l’intitulé du cours de formation régionale s’étant déroulé du  16 au 20 novembre 2009 à Dakar. Ce cours organisé par le CTA et l’UCAD fait partie de la longue liste des formations  initiées par le CTA depuis une dizaine d’années. 26 auditeurs provenant d’instituts de recherche agronomique ou d’universités de 8 pays d’afrique francophone (Benin, Burkina Faso, Cameroun, Côte d’Ivoire, Gabon, Guinée, Niger, Sénégal) ont eu le privilège d’être sélectionnés pour suivre ce cours. Les objectifs généraux tels que définis par les formateurs étaient de :

  • Favoriser les échanges d’information locale pour le développement agricole durable dans les pays ACP en utilisant les outils et stratégies 2.0 pour communiquer, échanger et diffuser de manière efficace
  • Améliorer la connaissance des technologies de l’information et de la communication, afin de renforcer les échanges et les diffusions entre les partenaires et d’accroître le rayonnement des produits et services d’information dans ce nouveau contexte en pleine mutation

Concernant les objectifs spécifiques, ils se déclinent en ces termes :

  • Définir ce qu’est le Web 2.0 : modèles de conception et d’affaires pour la prochaine génération de logiciels
  • Exploiter les différentes particularités du Web 2.0
  • Expliquer les caractéristiques technologiques du Web 2.0

La première journée a été consacrée à une introduction au Web 2.0 et l’utilisation de quelques services  comme Facebook pour la gestion d’un réseau social, Picasa pour le partage d’images et SurveyMonkey pour la création de sondage électronique. Les quatre autres journées ont été , tour à tour, consacrées aux espaces applicatifs de la galaxie Google avec des sessions sur la suite Google Docs, Google Agenda et une incursion dans la blogosphère pour une initiation à la création de blogs avec Blogger.  Des sessions sur les outils de veille que sont les flux RSS, les plateformes d’édition collaborative que sont les wikis avec le choix de l’outil WikiEducator, l’ espace de  messagerie instantanée qu’est Google talk, les licences Creative Commons qui sont la pierre angulaire de l’environnement juridique du Web social, la cartographie et la localisation en ligne avec Google maps et enfin les espaces ludiques pour créer des logos avec Logoease, des icônes avec Getfavicon et Convertico et enfin des podcasts avec Podomatic.

Les étapes finales de ce cours ont été d’initier des projets individuels ou collectifs et de définir des plans d’actions pour l’utilisation de ces différents outils collaboratifs dans un contexte professionnel local, voire externe. Ces deux sessions ont permis de mesurer le degré de compréhension et d’appropriation du concept Web 2.0 par les participants qui, par ailleurs, ont montré par leurs réalisations (blogs, pages de wikis, etc…) que les leçons ont été bien assimilées :-).

Saluons encore une fois de plus l’initiative du CTA de prendre en considération la réalité Web 2.0  et la formidable opportunité qu’elle offre, pour nos environnements technologiquement attardés,  de pouvoir produire des contenus, de les partager et de se forger des visibilité et identité numériques qui étaient utopiques en d’autres temps. Reste maintenant à faire vivre les embryons de produits ainsi créés et les pérenniser avec des contenus pertinents partagés (en consultation et en écriture si possible), pertinence qui commence le plus souvent par la simple relation de ce que l’on fait tous les jours, sans pour autant se soucier des canons scientifiques en matière de publication, la Science disposant d’espaces appropriés en la matière.

Alors, « De l’audace, encore de l’audace et toujours de l’audace » (Georges Jacques Danton)….pour que l’Afrique soit sauvée, car l’audace est la clé pour progresser, avancer, s’élever de la multitude et ouvrir la voie à ceux qui n’osent pas, car il y a toujours quelque  chose à trouver, à créer, ou à montrer.

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 43 – A la découverte de « Linked Data » 6

Il y a un an j’introduisais, avec la prudence qui sied à un non spécialiste, le sujet du Web sémantique. Depuis beaucoup d’eau a coulé sous le « pont-abri » sous lequel je m’abritais et j’ose maintenant sortir de cet abri pour approfondir mon discours sur le concept. Lors du dernier IFLA 2009 (section Information Technology) il a été souvent question de ce  Web sémantique et plus spécialement de  « Linked Data« . Pour comprendre de quoi il est question, il faut faire un bref rappel de ce qu’est le Web tel que nous le connaissons, l’utilisons et le pratiquons aujourd’hui. Ce Web traditionnel est une gigantesque quantité de documents reliés entre eux par des liens hypertextes et accessibles grâce au protocole de communication HTTP. Ces documents sont lisibles et l’on peut suivre les liens qui y sont inclus et accéder à d’autres documents renvoyant eux-mêmes à d’autres documents et…c’est tout. Soyons clairs, mon intention n’est nullement d’amoindrir les effets bénéfiques de ce Web qui a contribué à faire de notre planète une Pangée virtuelle. Mais il se trouve qu’au-delà du document il y a de la matière plus fine, un composant de ce même document, dont la prise en compte renforcerait plus, les fondations de ce supercontinent virtuel adoré qu’est le Web. Cet élément si important n’est autre que la donnée qui est le constituant principal du document. Il ne s’agit ni plus ni moins que de faire de cette donnée une matière première essentielle à la manufacture du Web futur (3.0 ?).

Le Linked Data s’inscrit dans cette logique car son objectif  est de permettre aux gens de partager des données structurées sur le Web aussi facilement qu’ils peuvent partager des documents aujourd’hui.

C’est Tim Berners-Lee lui-même qui invente le terme dans son article Linked Data. En effet qui de mieux que le créateur du Web pouvait être à la base d’une telle idée visant à tracer la courbe évolutive de son oeuvre ? Le terme se réfère à un style de publication et d’interconnexion des données structurées sur le Web. L’hypothèse de base du Linked Data est que, plus une donnée est étroitement liée à une autre, plus augmentent sa valeur et son utilité. En résumé, le Linked Data est tout simplement une utilisation du Web pour créer des liens entre des données provenant de sources différentes.

linkeddata_cloud

Les principes de base du Linked Data sont les suivants :

  • utiliser le modèle de données RDF pour publier des données structurées sur le Web
  • utiliser des liens RDF pour interconnecter des données provenant de différentes sources

Appliquer ces deux principes conduit à la création d’une communauté de données sur le Web, un espace où les gens et les organisations peuvent fournir et consommer n’importe quel type de données. Cette communauté de données est souvent appelé le Web de données ou Web sémantique.

Le Web de données est accessible par l’utilisation des navigateurs Linked Data (exemples : DISCO, Openlink version demo), tout comme le Web des documents (traditionnel) l’est par le biais des navigateurs HTML. Toutefois, au lieu de suivre des liens entre les pages HTML, les navigateurs Linked Data permettent aux utilisateurs de surfer entre les différentes sources de données en suivant des liens RDF. Cela permet à l’utilisateur de démarrer par une source de données et ensuite de se mouvoir dans un Web potentiellement infini de sources interconnectées grâce à ces liens RDF. Par exemple, pendant qu’un usager étudie  les données sur une personne provenant d’une source, il peut être intéressé par des informations sur la ville de résidence de cette dernière. En suivant un lien RDF, l’usager peut accéder  à l’information concernant cette ville, information figurant dans un autre silo de données.  Le Linked Data permet donc d’établir des relations entre des données et c’est de cela qu’il s’agit fondamentalement. Ces relations peuvent être de différentes natures. Par exemple, un lien RDF qui relie des données sur les personnes peut affirmer que deux personnes se connaissent, aussi un lien RDF qui connecte les informations personnelles avec des informations sur les publications dans une base de données bibliographiques, pourrait stipuler qu’une personne est l’auteur d’un document particulier.

Il faut donc retenir que tout comme le document Web traditionnel peut être exploré en suivant des liens hypertextes, le Web de données s’explore en suivant les liens RDF. Le ciment qui maintient ensemble les documents sur le Web traditionnel est constitué par les liens hypertextes dans les pages HTML. Celui du Web de données l’étant par liens RDF.

Lien hypertexte versus Lien RDF, un face-à-face : où cependant demeure un dénominateur commun, à savoir l’incontournable HTTP, ce protocole sans lequel aucune ressource (document) n’est accessible sur le Web. En effet c’est ce même protocole qui permettra d’accéder aux données reliées entre elles,  mais par des URI (Uniform Resource Identifier). Avec le Linked Data, HTTP permettra d’accéder non plus aux documents seulement, mais sera utilisé pour des personnes, des lieux, des événements, etc. et n’importe quel concept sur le Web aura un nom commençant par HTTP qui sera son identifiant unique. Avec l’utilisation de ce protocole HTTP, le Web nous renvoie des informations, des données qui sont importantes ou utiles parce qu’elles peuvent susciter un intérêt insoupçonné au départ : par exemple si c’est un événement, qui s’y rend ? Si c’est une personne, où est-elle née ?.  Ces données une fois récupérées ne fournissent pas uniquement des renseignements sur elles-mêmes, mais aussi et surtout des relations. Par exemple je  fais une recherche sur Senghor qui est né à Joal, Joal étant une ville du Sénégal. Dès qu’il y a une relation entre deux données, l’élément lié est nommé avec un nom commençant par HTTP. A partir de son nom HTTP je peux accéder à cette ressource, ici « Senghor », ensuite je peux accéder à sa ville de naissance « Joal », à son pays le « Sénégal », à la population de son pays, etc.. Ici apparaît un formidable intérêt, qui est la réduction du temps de recherche sur le Web et un affinement automatiquement de cette recherche. Dès l’affichage du résultat on dispose de toutes les données connexes à une ressource requise.

Dans le Linked Data imaginé par Tim Bernes-Lee il faut juste des données, disponibles, brutes, émanant de toutes sources, individuelle ou collective pour rendre le monde encore meilleur.

A la prochaine pour des informations supplémentaires et surtout pour voir comment les bibliothécaires peuvent participer au mouvement.

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

Share

N° 42 – Echos de Milan : IFLA 2009 (III) 2

Ite missa est !

poland_iflaVoilà Milan c’est fini, l’heure est au bilan de 5 jours bibliothéconomiques les plus importants de l’année. Avant de tirer les conclusions de ces joutes auxquelles ont participé des bibliothécaires venus des quatre coins du monde, voyons les dernières activités vécues. Je finissais mon post précédent par l’annonce de la tenue d’une session sur les bibliothèques et le Web 2.0 et manifestais un enthousiasme non feint. Côté résultat tout a été positif dans le sens où, les présentations et discussions qui en ont découlées m’ont réconforté dans mes certitudes d’avoir pris le bon wagon du Web 2.0 en y embarquant mon âme de bibliothécaire. Sachant que j’avais des expériences à faire partager je ne me suis pas privé de l’occasion pour les exposer au coordonnateur du groupe d’intérêt spécial « Libraries and Web 2.0 » (émanation de la section « Information technology ») et participer ensuite à la réunion des administrateurs du groupe pour réfléchir sur les contenus de ses sessions prochaines lors des deux prochains congrès de l’IFLA. Je me suis aussi intéressé à la section « Périodiques et autres ressources continues » avec des présentations intéressantes. J’ai surtout retenu pour cette session, les ressources gratuites disponibles et qui ont été signalées par quelques orateurs. En voici quelques unes, qui sans doute seront d’un certain apport dans l’enrichissement de nos ressources électroniques en ligne et permettront d’avoir une vue d’ensemble, mise à jour, des archives ouvertes en service dans le monde : les projets OpenDOAR et ROAR (Registry of Open Access Repositories). Il a été   aussi question au cours de cette session des « Overlay journals » (si vous n’avez toujours pas compris…cliquez ici) et accédez à quelques exemples : Naboj, SIGMA (Symmetry, Integrability and Geometry: Methods and Applications), Interjournal et Philica.

La section « Information Literacy » a organisé un atelier sur l’utilisation et la promotion du logo dédié à cette discipline avec invitation faite à tous de le vulgariser. Pour se familiariser avec ce dernier je vous le présente ci-dessous et vous laisse admirer sa simplicité artistique et les nombreuses interprétations qu’il est susceptible de susciter (encore un bon exemple d’analyse pour étudiants en bibliothéconomie ?)

infolit_logo_color_en

Pour de plus amples informations sur cette session vous pouvez consulter le blog dédié à l’Information Literacy animé par Sheila Webber de l’Université de Sheffield et aussi visiter le site Web du logo pour le télécharger éventuellement.

Après un petit détour par la section Afrique, j’ai fini mon parcours IFLA 2009 par les ultimes réunions des comités permanents des sections « Information Literacy » et « Information Technology » où ont été tirés leurs bilans respectifs  et posés les jalons pour les congrès à venir, notamment en réfléchissant et adoptant les topics pour les réunions satellites préludes à la conférence de Göteborg en 2010.

Le bilan a donc été largement positif pour moi-même, j’ai pu enfin comprendre comment fonctionne réellement un congrès de l’IFLA et surtout comment en tirer largement et efficacement profit. J’ai pu rencontrer des personnes ressources sur différents domaines qui m’intéressent et ai surtout pu nouer contact avec eux. duomo

Un grand merci encore une fois au CFI qui nous a permis d’assister aux réunions des comités permanents des sections avant l’ouverture officielle du congrès, cela m’a permis de me faire connaître et même de déposer des candidatures pour être membre correspondant et/ou associé des deux sections ciblées et enfin de prendre langue avec le groupe d’intérêt spécial « Bibliothèques et Web 2.0 ».

A bientôt pour d’autres suites éventuelles de ce 75e congrès et assemblée générale de l’IFLA.

ADDIO Italia,

HEJ Sverige !

IFLA_goteborg

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 41 – Echos de Milan : IFLA 2009 (II) 4

session IL_iflaDéjà 4 jours révolus pour la grande messe des bibliothécaires en Lombardie et beaucoup de communications, c’est-à-dire beaucoup d’idées émises pour améliorer notre vécu entre salles de lecture, magasins et comptoirs de prêt. Au fait j’ai commis un grand péché que d’avoir omis de mentionner le thème du congrès de cette année : « Les Bibliothèques créent le futur : construire sur l’héritage culturel« , un véritable sujet de dissertation pour des apprentis bibliothécaires. Nous sommes donc pleinement entrés dans le vif du sujet et les réunions, communications, conciliabules formels et informels se succèdent en un ballet ininterrompu. J’aurais aimé être partout à la fois et entendre toutes les choses qui se disent dans les différentes salles consacrées aux sessions. Dommage que l’Homme soit dénué de la faculté de dédoublement. Alors ne pouvant être présent que là où c’est possible et « intéressant », je vais ravaler ma frustation de ne pouvoir dire plus que ce que j’ai vu et entendu.

Sur le sujet de l’information literacy (maîtrise de l’information) j’ai suivi la session du lundi qui a vu 8 orateurs exposer avec brio sur le thème. Ce qui a attiré mon attention c’est l’usage de concepts qui m’étaient complètement inconnus et que j’ai découverts. Dans l’ordre on a parlé de Transliteracy (Translittératie), de Media Literacy (Education aux médias), de Visual Literacy et de Cultural Literacy (Alphabétisation culturelle : traduction tirée de cette note de lecture lue sur le site de l’UNESCO). Je ne peux vous en dire plus concernant ces concepts car ne les ayant pas encore suffisamment étudiés et m’étant seulement borné à une recherche sur le Web pour prendre quelques définitions ou commentaires s’ils existent.

Après une quinzaine d’années passée à faire de la description bibliographique, je ne pouvais pas faire l’impasse sur les sessions sur le catalogage dont le sous-titre très évocateur était : « Nouveaux principes, nouvelles règles, nouveaux catalogues ». D’abord beaucoup de nouvelles sur l’ISBD (ce vieux machin qui a causé moult tortures quand il fallait nécessairement alimenter les fichiers manuels par des fiches cartonnées. Vive l’import de notices grâce à l’informatique). Ensuite un exposé sur les nouvelles règles de catalogage pour l’Italie et enfin une incursion dans l’univers bibliographique persan en passant par un très intéressant discours sur le catalogage des « objets culturels » (pour rester dans le thème du congrès).

J’ai aussi suivi une partie de la session sur UNIMARC, notamment les projets en cours pour modifier ce format en vue de le rendre conforme aux desiderata du Web sémantique et les connexions qu’il doit avoir avec les « nouveaux » machins qui vont bientôt être (ou qui sont déjà) le pain quotidien des bibliothécaires…d’un futur très proche (ou déjà là), à savoir : RDA, FRBR, FRAD, Dublin Core, etc.

Comme la lune, un congrès de l’IFLA à aussi une face cachée où le sujet bibliothéconomique devient accessoire. En effet l’AIFBD, après avoir organisé son assemblée générale et vue une inscription massive de nouveaux adhérents, nous a offert une soirée dans un jazz café de Milan où un banquet royal nous a été servi, je vous fais l’économie des détails subsidiaires. De même, le mardi était consacré « social events » avec un dîner gratuit pour tous les participants dans les différents restaurants situés tout autour de la place Duomo et la Galerie Victor Emmanuel II, suivi d’un concert de musique classique gratuit dans la magnifique Cathédrale Duomo et des expositions d’ouvrages rares comme l’ouvrage de Luca Pacioli De divina proportione illustré par Leonardo da Vinci lui-même, etc.

Il est temps de se dire au revoir et d’aller me blottir dans les bras de Morphée et de rêver à une séance du lendemain où l’on parlera de « Bibliothèques et Web 2.0 » tout un programme pour moi.

ARRIVEDERCI !

Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.