N° 31 – Intelligence économique : une autre discipline pour nous Réponse

Suite à l’agréable surprise que j’ai eu en ayant connaissance d’un séminaire sur l’Intelligence économique organisé le 27 novembre 2008 par le Centre d’Etudes Diplomatiques et Stratégiques de Dakar, occasion m’est idéalement donné pour partager mes impressions sur ce concept. D’abord bravo pour cette prise de conscience nationale sur un des enjeux fondamentaux du monde, à savoir la prise en compte de l’intelligence économique dans l’évolution de la vie nationale. Mais pourquoi parler d’une discipline qui, à priori, semble être aux antipodes de nos préoccupations documentaires ?

Une brève lecture de la définition proposée par le Rapport Martre du Commissariat au Plan de France, publié par La documentation française en 1994, aidera à éclairer cette éventuelle interrogation. Je vous la livre textuellement et telle que je l’ai découverte lors du cours sur l’Intelligence économique dispensé dans le cadre du Master 2 de l’EBAD dès 2006 (bonne anticipation) : « L’intelligence économique peut être définie comme l’ensemble des actions coordonnées de recherche, de traitement et de distribution, en vue de son exploitation, de l’information utile aux acteurs économiques. Ces diverses actions sont menées légalement avec toutes les garanties de protection nécessaires à la préservation du patrimoine de l’entreprise, dans les meilleures conditions de délais et de coûts. L’information utile est celle dont ont besoin les différents niveaux de décision de l’entreprise ou de la collectivité, pour élaborer et mettre en œuvre de façon cohérente la stratégie et les tactiques nécessaires à l’atteinte des objectifs définis par l’entreprise dans le but d’améliorer sa position dans son environnement concurrentiel. Ces actions, au sein de l’entreprise, s’ordonnent autour d’un cycle ininterrompu, générateur d’une vision partagée des objectifs de l’entreprise ».

Quel documentaliste ou autre professionnel de l’information documentaire ne se serait pas senti concerné par une telle définition ? En quoi les pratiques suggérées par cette assertion diffèrent-elles de ce que nous faisons depuis des lustres dans nos espaces professionnels ?

L’intelligence économique a, cependant, dépassé depuis longtemps le cadre restreint des entreprises pour coloniser l’espace étatique (gouvernemental). Amusons-nous à remplacer le terme « entreprise » de la définition par celui de »pays« , « nation » ou « Etat« , là on touche du doigt l’enjeu fondamental de la discipline qui s’inscrit dans le cadre global de la gestion des intérêts d’un pays. Voilà quelque chose qui doit, encore plus, nous renforcer dans notre conviction d’être des maillons essentiels de tout dispositif informationnel privé ou public, tant notre savoir-faire est y plus que nécessaire.

Car de quoi parlons-nous en Intelligence économique ?

De veille, collecte, analyse et diffusion « interne » de l’information, de gestion de métadonnées avec certes des outils et pratiques entièrement dédiés à cet environnement particulier de gestion informationnelle. Mais rien de vraiment sorcier, pour qui maîtrise : recherche et analyse documentaire, indexation et taxonomie, DSI et archivage (pour ne pas dire records management), le tout mixé à la sauce informatique. Alors à nous de nous positionner, après l’autoformation, par l’autopromotion, mais surtout par la formalisation de notre appartenance à ce giron conceptuel et pratique. L’EBAD a montré la voie (comme indiqué tantôt), il s’agit de renforcer cette action en donnant plus de poids à cette discipline dans le cursus académique  des sicences de l’information documentaire et en mettant à niveau les professionnels en activité, comme cette initiative louable de l’American information center qui a organisé, en partenariat avec l’ASBAD, une conférence sur l’IE le 29 novembre 2007 à Dakar (Voir le compte rendu ici). L’objectif de tout cela serait d’élargir les débouchés des étudiants en documentation et accroître le poids stratégique des pratiquants dans leur espace professionnel. Dès à présent il faut  alors s’imprégner de tout l’environnement de l’Intelligence économique, composé de concepts ou disciplines connexes et d’outils logiciels. En voici quelques exemples.

Quelques termes connexes : Datamining, Datawarehouse, Knowledge management, Business intelligence, ETL, etc.

Des outils logiciels gratuits : de veille comme Ezeportal (système de gestion de l’information) , des outils orientés ETL ou information décisionnelle comme SpagoBi, Talend Open studio, etc.

Pour la documentation en ligne, voir cet univers netvibes consacré à l’IE, et ce site où sont exposées quelques pratiques d’intelligence économique qui viennent nous rappeler que : qui détient l’information détient le pouvoir et devient une puissance en latence, ce qui est notre cas. Soyons-en toujours conscients.

Complément de lecture :


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

Publicités

N° 30 – Information literacy, un concept pour nous Réponse

Qui sommes-nous ?

Des spécialistes de l’information, d’autres diront professionnels de l’information dans un acte d’affirmation qui ne doit souffrir d’aucune contestation, ni même d’aucun doute. Cependant pour qu’un tel acte soit protégé de toute remise en cause, il nous faut nécessairement nous donner les moyens d’être de vrais spécialistes. En d’autres termes notre devoir est de tout connaître concernant la dynamique de l’information.

L’Information literacy (IL) figure en bonne place dans cette dynamique est n’est pas un concept nouveau, car dès 1974, il a été mentionné par Paul Zurkowski. Je ne vais pas revenir sur la dizaine de définitions qui concerne le concept, là n’est pas mon propos, mais sur ce qu’il induit, à savoir que tout homme, tout au long de sa vie, doit arriver à une réelle maîtrise de l’information dans un but de développement personnel et cela par l’acquisition de compétences informationnelles. Celles-ci peuvent se résumer à :

  • savoir identifier ses besoins en information
  • savoir formuler les bonnes requêtes ou équations de recherche
  • connaître les sources d’information et les moyens de les interroger
  • savoir évaluer ou critiquer l’information acquise
  • savoir l’organiser pour mieux l’utiliser dans la vie quotidienne

Rien d’extraordinaire pour les spécialistes que nous-sommes, ce qui explique le titre choisi pour ce billet, alors faisons-en un concept-nôtre comme le suggère cette étude sur la maîtrise de l’information publiée par l’UNESCO sur le sujet. Cependant il ne s’agit plus pour nous d’être des pourvoyeurs au sens classique du terme, où nous allions chercher l’information et la communiquer à l’usager, mais bien de donner à ce dernier les moyens d’être autonome dans sa quête informationnelle. Changement radical de cap donc et nouvelle vision de nos rapports avec l’usager, celui-ci devenant de fait un élève à éduquer (nous ne lui donnons plus l’information, nous lui apprenons à l’acquérir). Peut-être que spontanément ou ponctuellement, au cours de nos pérégrinations professionnelles, avons-nous appris à quelques carabins comment faire une recherche dans un catalogue matières ou auteurs ? Eh bien il s’agit de dépasser ces gestes conjoncturels pour mettre en place des canaux structurels par lesquels, l’accès à la maîtrise de l’information sera une réalité au sein de nos espaces documentaires.

Mais quels espaces documentaires ?

Tous sont concernés, du plus petit centre de documentation à la plus grande bibliothèque qui puisse exister, en fait partout où nous rencontrerons des individus intéressés par une quête de savoir. Les structures les plus évidentes pour remarquer cette quête de savoir sont, sans aucun doute, les espaces d’éducation (écoles, lycées, universités,…) et les efforts de mise en pratique du concept de l’IL s’y rencontrent le plus souvent (dans l’hémisphère nord notamment). Pour ce qui est des possibilités d’application dans l’espace universitaire, je vous propose ci-dessous (en fin d’article) une présentation faite à l’EBAD en octobre 2008, par Zuza Wiorogorska, une collègue de l’Université de Varsovie. Je voudrai par contre suggérer quelques comportements en direction des parents pauvres de la bibliothéconomie sénégalaise (ou africaine généralement) que sont les bibliothèques publiques et scolaires. On pourrait faire évoluer ces espaces en des lieux d’apprentissage à la maîtrise de l’information, où les usagers (pour la plupart des élèves) seraient initiés au processus de recherche d’information : quelles sont les principales sources d’information (y inclus pour le numérique), comment les utiliser, quelle attitude adopter devant la quête d’information, comment éviter « bruit » et « silence », comment exploiter des résultats de recherche, etc. ? Au bout du compte, ils seront très tôt familiarisés aux techniques d’acquisition du savoir qui leur seront utiles pour l’avenir. D’un autre côté la visibilité sera accrue du côté des collègues qui interviennent dans ces environnements documentaires, espaces qui cesseront d’être uniquement des dépôt de manuels scolaires ou autres lieux de stockage de romans à l’eau de rose. Ces espaces seront perçus comme des lieux d’éducation en même temps les salles de classe et leurs animateurs  comme des éducateurs au même titre que les enseignants et professeurs. Cela supposera cependant que les moyens soient mis à disposition (parmi autres, une connexion Internet et les PC qui vont avec, un minimum), que les objectifs et programmes de formation soient bien pensés et définis, mais surtout que les spécialistes de l’information ainsi ciblés soient eux aussi capables de maîtriser l’information par l’acquisition des compétences informationnelles (on ne peut transmettre que ce que l’on a parfaitement maîtrisé) et affirmer ainsi leur professionnalisme. Nous rejoindrions ainsi les préoccupations de l’IFLA qui, en 2004 à Buenos Aires, avait choisi l’IL comme un des thèmes du congrès et a créé une « section IL » dès 2002.

Il ne s’agit pas ici de révolution mais d’évolution qui fait de nous, non plus les derniers maillons du processus d’accès au savoir, mais les pourvoyeurs des clés qui ouvrent les portes de la connaissance. Evolution nécessaire pour faire de nous des acteurs essentiels de la Société de l’information qui présuppose, pour « boucler la boucle », que nous soyons nous aussi inscrit à l’école de l’apprentissage tout au long de la vie.

Je suggère la lecture de cet article très bien fait et un rappel du dossier de l’UNESCO sur la maîtrise de l’information.

Enfin, ci-dessous, la présentation tantôt évoquée et disponible en téléchargement sur slideshare.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 29 – Préservation numérique : LOCKSS (suite) et Portico Réponse

Retour après un mois de silence motivé par l’observation d’une pause-vacances, mise à profit pour arpenter les pistes herbeuses du Niokolo-Koba, filmant et flashant des antilopes et autres singes verts ou encore  profiter des plages du littoral de la Petite-Côte. C’est avec une flemme non dissimulée que je me propose de remplir la promesse faite de discourir sur la manière de mettre en place une application LOCKSS. Donc le temps de me recharger d’énergie nécessaire à un « blogging » normal je vous renvoie à des liens non commentés où tout cela est bien expliqué et illustré par de l’animation « youtubique ». J’y adjoint aussi un lien sur Portico autre initiative collaborative de préservation et de conservation des ressources électroniques

Il y a quelques temps le site Digital preservation Europe a mis en ligne un Briefing paper présentant l’application LOCKSS où vous pourrez vous faire une idée de son fonctionnement .

LOCKSS étant un logiciel librement disponible pour le tester et l’utiliser, je vous propose cette vidéo éducative pour installer une « boîte » LOCKSS

Il est remarquable de voir que cette idée de l’accès à long terme des ressources électroniques est de plus en plus prise en compte par les édditeurs, ainsi l’ALPSP (Association of Learned and Professional Society Publishers), en collaboration avec Portico, a mis en ligne (pdf) les résultats d’une enquête (long-term-preservation-alpsp-report) auprès de ses membres sur leur stratégie de conservation à long terme des documents numériques.

Préservation et conservation de l’information électronique acquise demeurent un casse-tête pour nos bibliothèques sous-développées longtemps sujettes à la résignation quand les abonnements souscrits arrivent à terme et qu’elles se trouvent dans l’impossibilité d’accéder à un fonds documentaire déjà acheté. Les initiatives LOCKSS ou encore Portico peuvent être une solution et peut-être cesserons-nous de nous arracher les cheveux devant l’équation de l’archivage de nos ressources codées en langage binaire et donc de leur accessibilité pérenne.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 28 – Préservation numérique : introduction à LOCKSS Réponse

La gestion des ressources électroniques dans les bibliothèques implique la prise en compte de plusieurs préoccupations. L’une d’elles et non des moindres est la conservation et le stockage à long terme de ces ressources, comme nous sommes arrivés à le faire avec les documents imprimés. Même si « bizarrement » nous ne nous suffisons plus des formes de conservation actuelle des imprimés, produisant maintenant en grande quantité, des versions numériques des ces documents. Avons-nous, pour autant, réglé définitivement le problème de la conservation numérique où devrons-nous dans un avenir lointain refaire la même chose qu’aujourd’hui, c’est-à-dire, faire migrer nos documents numériques actuels vers d’autres formats non encore inventés et qui pourraient l’être ? Brève question pour un avenir incertain en l’état et qui me fait revenir à des considérations purement de mon temps, même si celles-ci sont forcément à liées à l’avenir. Voyons pourquoi.

En général, les bibliothèques actuelles possèdent un fonds de ressources électroniques. Celles qui m’intéressent dans ce propos sont celles qui sont publiées en ligne, via les réseaux et dont l’espace de stockage (les serveurs) ne sont pas toujours physiquement et visiblement identifiés et localisés (comme on le ferait pour un bâtiment de bibliothèque ou rayon dans cette même bibliothèque). Que se passe-t-il alors pour une bibliothèque acquérant ce type de ressources ? L’éditeur lui fournit un accès à ladite ressource stockée sur son serveur (de l’éditeur) avec des conditions d’utilisation généralement restrictives (accès réservé aux seuls abonnés, nombre limite de connexions simultanées, connexions circonscrites à un espace géographique bien défini, etc.).Mais le fait le plus marquant est que la bibliothèque ne dispose pas de la ressource elle-même dans son fonds (la ressource est dans le serveur du fournisseur) et est ainsi exposée à beaucoup de risques liés à la pérennité d’accès à ladite ressource (disparition de l’éditeur, panne de serveur, changement d’éditeur d’une revue, etc.. et donc perte de l’information que l’on a déjà payée). L’enjeu est donc de faire des bibliothécaires les dépositaires du contenu des ressources en ligne qu’elles ont acquises pour en faire des possesseurs et ne plus avoir l’impression de les « louer ». C’est fort de ce souhait que la Bibliothèque de l’Université de Stanford a développé depuis 1999 l’application LOCKSS pour permettre aux bibliothèques de collecter, gérer et accéder aux copies locales des ressources en ligne. LOCKSS (Lots of Copies Keep Stuff Safe) qui signifie littéralement : « Beaucoup de copies rendent la marchandise sécurisée » est devenue depuis lors, une initiative communautaire internationale qui a pour but de fournir aux bibliothèques des outils de conservation numérique et l’appui pour qu’elles puissent facilement et à bon marché rassembler et préserver leurs propres copies de contenu numérique.

C’est une technologie qui repose sur une infrastructure open-source, peer-to-peer (P2P) et décentralisée, dont l’efficacité repose donc sur la collaboration des structures participant au programme LOCKSS. Collaboration des bibliothèques entre elles mais aussi avec les éditeurs (nous en verrons l’importance quand il s’agira d’expliquer le fonctionnement du modèle). Depuis 10 ans quelques 344 éditeurs de revues scientifiques, 194 bibliothèques des 5 continents participent au programme et des milliers de titres sont concernés. L’application LOCKSS est conforme aux stipulations du modèle OAIS traité dans le billet N° 09 et permet de préserver tous formats et genres de contenu publiés sur le Web.

Comment tout cela fonctionne-t-il ? Quels sont les prérequis techniques pour le mettre en route ?

Au prochain post pour répondre à ces questions.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 26 – PMB refreshed Réponse

PMB s’est remis au goût du jour lors du séminaire sous-régional sur les SIGB libres organisé par notre association professionnelle l’ASBAD du 18 au 21 août 2008. Nous avons eu le plaisir de partager beaucoup de bonnes choses ensemble, humainement et professionnellement. A l’heure du bilan force est de constater la pertinence du thème (formation à un logiciel libre) et du choix du SIGB en question qui se trouve être une alternative crédible à beaucoup de logiciels propriétaires, non pas que ces derniers ne soient pas performants (loin de là), mais ils se disqualifient par leur coût d’acquisition et surtout de maintenance. Le contexte africain n’a jamais pu supporter de tels investissements en raison des budgets modiques de nos institutions fussent-elles importantes (je pense aux bibliothèques universitaires). Alors l’avenir n’est-il pas dans le libre, une fois que soit réglé le problème de la maintenance continue des applications adoptées et utilisées ? Une fois que soit réglé le souci de la pérennité (qui semble être le talon d’Achille des logiciels libres), de la sécurité des données (enjeu fondamental) ? Voilà autant de choses à prendre en compte au moment de se lancer dans pareille aventure et je crois que l’un des enjeux du séminaire de l’ASBAD était moins de maîtriser les fonctionnalités de PMB (maîtrise qui s’acquiert plus par la pratique quotidienne), mais surtout de se rassurer par rapport aux interrogations soulignées plus haut. L’application présente-t-elle toutes les garanties : robustesse, sécurisation des données, helpdesk accessible, forte communauté d’utilisateurs (qui en fait, est un gage de pérennité) etc. ? Les réponses fournies par les formateurs de Libre-TIC (pub gratuite) sont rassurantes, même si on ne peut écarter un certain esprit mercantile sous-jacent:-).

C’est donc avec beaucoup de questions et d’interrogations (pour ne pas dire de l’appréhension) que je me suis rendu à ce séminaire, armé que j’étais, d’un rapport de l’Observatoire des technologies libres (un programme de la Fondation pour une bibliothèque globale) publié en début août 2008 et qui exposait une comparaison des principaux logiciels libres (Koha, Evergreen et…PMB), texte que je vous livre volontiers en cliquant sur ce lien. Vous comprendrez mieux cette appréhension en lisant les résultats de cette comparaison qui classe PMB derrière ses deux aînés, ce qui me semble tout à fait logique en l’état actuel (Koha et Evergreen étant sur le « marché » depuis plus longtemps et ayant donc eu à fédérer beaucoup de compétences en développement et une forte communauté d’utilisateurs, nul doute que PMB atteindra ce degré de développement dans quelques années, avec les bibliothèques africaines pourquoi pas ?). Autre variable à prendre en compte et non des moindres, c’est l’environnement où cette étude a été faite qui se trouve être un contexte anglo-saxon (Canada), où Koha et Evergreen sont très usités (ceci expliquant peut-être cela). Ceci étant dit, confronté aux réalités fonctionnelles de PMB, en toute honnêteté je ne trouve pas beaucoup de choses à redire quant à sa qualité, sa souplesse d’utilisation et les nombreuses opérations bibliothéconomiques qu’il permet de réaliser. Nous avons là, nous bibliothèques sous développées, un formidable outil de travail qui nous change enfin du « suffixe » ISIS (qui nous a beaucoup rendu service soit-dit en passant, mais qui semble un peu dépassé vu les mutations de l’heure induites par l’émergence web 2.0 entre autres et qui sont prises en compte dans PMB).

Il est cependant dommage que cet aspect (web 2.0) n’ait pas été soulevé au cours du séminaire, néanmoins je vous renvoie au billet N° 05 où j’avais déjà  fait état de PMB comme pourvoyeuse de solutions web 2.0 (OPAC social, où il est possible d’évaluer les notices par les utilisateurs, de les tagguer, etc.). Dans ce même billet je faisais état de l’existence d’un plugin SPIP pour PMB et qui permet d’intégrer certaines fonctionnalités de PMB dans un site web créé sous le CMS SPIP. Ces plugins permettent entre autres de « fondre » graphiquement un OPAC PMB dans l’interface de ces CMS. Qu’est-ce que cela veut dire ? Imaginons que votre bibliothèque ait un site web créé sous SPIP, vous intégrez l’OPAC de votre base de données PMB sur ce site pour qu’il soit accessible depuis Internet, vous pouvez faire de telle sorte que les deux interfaces (du site web et de l’OPAC) soient « parfaitement » identiques graphiquement et qu’un internaute accédant à votre site web, puisse aussi accéder à votre OPAC en ayant l’impression d’être toujours dans une seule et même interface. Enfin dans ce même billet je proposais aussi un tutoriel pour apprendre à installer un serveur web, démarche qui au finish s’est révélée judicieuse (petite autoglorification 🙂 ), car cette opération a constitué la première partie du contenu du séminaire.

En conclusion je réitère mon satisfecit aux gestionnaires de l’ASBAD qui ont pu faire participer sept autres confrères de la sous-région Afrique occidentale francophone et lusophone, c’est un grand pas qui a été fait dans la mise en œuvre de l’intégration des structures documentaires sous-régionales. Alors mention « Très-bien » chers collègues et vivement d’autres formations de ce type, surtout en direction de mes cousins archivistes que j’ai senti un peu perdus 🙂 dans l’univers des normes, formats et protocoles bibliothéconomiques (ISBD, UNIMARC, Z39-50,…). Pour cela je vous suggère déjà le nouveau logiciel de gestion d’archives ICA-Atom (en version Beta) récemment mis en œuvre par le Conseil international des archives et qui se trouve être aussi un FOSS (logiciel libre). Ce logiciel permet la gestion de fonds d’archives avec possibilité de liens vers tous types de documents numériques (images, sons, vidéos, …) et export au format EAD.

Enfin, en ma qualité de coordinateur d’eIFL-FOSS pour le Sénégal, je me propose de soumettre à l’eIFL-FOSS program manager, l’intégration de PMB dans la liste des SIGB libres (Koha et Evergreen) dont nous faisons la promotion. Si une telle initiative aboutissait nul doute que nous aurions plus d’opportunités de nous retrouver pour renforcer notre expertise dans la prise en main continue de ce logiciel.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 25 – Web sémantique : apporter notre pierre à l’édifice Réponse

Au moment où se construit le Web sémantique,  soyons comme les bâtisseurs des cathédrales du Moyen-âge, c’est-à-dire des maçons opératifs et non spéculatifs. Détenant des savoir-faire comme ces derniers, devons-nous pour autant nous emmurer dans des obédiences où les pratiques et connaissances ne sont réservées qu’aux seuls initiés de la bibliothéconomie ? En toute assurance, qui est la marque des hommes imbus de l’importance de leur corporation, je crois que non, tant le constituant du web sémantique, à savoir les ontologies a envahi, depuis des lustres, les travées de nos espaces documentaires. Que celui de nous qui a déjà indexé jette la première pierre et à coup sûr, une ribambelle de galets s’envoleront du même coup, de tous les bords de la terre, formant un amas de briques certes difforme, qu’il faudra agencer selon les plans de l’édifice sémantique à bâtir. Il ne s’agit ni plus ni moins dans ce billet, de dire l’impossibilité de se passer de l’expertise des héritiers de Melvil Dewey et que ceux-ci doivent marquer leur présence au moment où se dessinent les plans architecturaux du monument sémantique.

Décrire, classifier, hiérarchiser, signifier, lier des termes et documents ; voilà ce qu’on veut assigner à des moteurs dits sémantiques. Dans nos pratiques « humaines » quotidiennes, nous ne faisons pas moins que cela et tel M. Jourdain (faisant de la prose sans le savoir) nous créons des ontologies sans nous en rendre compte. Alors la question à poser n’est-elle pas de savoir, comment convertir cette production « brute », née le plus souvent d’une expertise empirique, en une  réalité normée, répondant aux canons de l’orthodoxie informatique, plus précisément « webique » et qui sous-tend la performance des moteurs de recherche sémantiques ?  Eh bien selon les « experts » (je leur concède volontiers cet attribut parce que je les considère comme tels) en la matière, il faut une mixture composée de modèles : les RDF (pillier de l’architecture du Web sémantique), formidablement expliqués dans ce lien d’expert et les FRBR (il est grand temps que les SIGB s’y mettent), accompagnés d’une bonne dose d’OWL. En termes plus concrets : des catalogues de bibliothèques différentes pourront s’enrichir entre eux, être interrogés en une seule fois et de façon transparente pour les utilisateurs quand ils auront été soumis formellement à la même « RDFisation », à l’usage d’un même vocabulaire et d’un même modèle FRBR.

Comme base de créations d’ontologies, pourquoi n’utiliserions-nous pas les termes de nos différents systèmes de classification (définis et résumés ici) : données décrites en RAMEAU, ou bien encore les Worldcat identities (powered by OCLC) ou bien même ceux de nos petits systèmes classificatoires à formalisation locale ?

Il ne s’agit ni plus ni moins, pour nous bibliothèques(caires), que d’être une pierre angulaire du Web sémantique, pierre qu’il faudra bien polir afin qu’elle ne soit pas rejetée par les bâtisseurs.

Quelques ressources


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 24 – Un peu de Web sémantique Réponse

Que de chemin parcouru depuis que Tim Berners-Lee créa le Web en 1991. Année qui a aussi vu l’apparition de la première génération des outils dédiés à la recherche de sites Web. Ces sites ont connu une évolution quantitative exponentielle entraînant de fait, une surproduction d’information (infobésité), ce qui implique aujourd’hui, la nécessité d’avoir des mécanismes et outils de recherche qui permettent une recherche efficace (rapidité et pertinence) de l’information ainsi publiée. Cette nécessité a été levier de l’évolution technologique des moteurs de recherche, mais aussi de l’apparition du « nouveau » concept qu’est le Web sémantique, dont je me propose de faire l’exposé dans ce billet.

Qu’en est-il ?

Brièvement expliqué, ce concept a pour objet de faciliter l’accès aux informations disponibles sur le Web. La vision de Tim Berners-Lee est de rendre la sémantique des ressources du Web explicite, de manière que les programmes puissent l’exploiter comme nous autres humains. Cela grâce à l’interopérabilité des métadonnées qui va permettre aux moteurs de trouver et de mettre en relation des données jusqu’alors confinées dans leurs sites (ou leurs bases de données, une grande partie du Web invisible est confinée dans des bases de données). Le but est de permettre aux robots (fureteurs du Web) de « comprendre » le contenu des sites, grâce à l’emploi de langages adéquats (le RDF ou Resource Description Framework pour les métadonnées ; le OWL : Web Ontology Language pour les ontologies).

Pour  illustrer ce qu’est le Web sémantique, prenons un exemple tout simple : on choisit de faire une recherche sur « Abdou Diouf ». Un moteur classique comme Google va afficher des milliers de pages où figure le nom Abdou Diouf, mais un moteur estampillé Web sémantique va orienter la recherche en proposant le nom « Abdou Diouf » selon des qualificatifs (fonction, profession,…plus précisément pour cet exemple : président du Sénégal, secrétaire général de la francophonie, etc.). Donc il faut arriver à ce que les moteurs de recherche puissent « saisir le sens » des ressources du Web qu’ils indexent (expression qui a une autre signification ici et qui est différente d’une quelconque compréhension du langage naturel par les machines). Ceci implique, dans l’ « idéologie » du Web sémantique de rendre cette information disponible à  ces programmes sous forme d’ontologies (voir ci-dessus). Le bénéfice principal que l’on obtient avec pareille chose, est l’abrègement considérable du temps de recherche et qui rime avec réduction importante du bruit (informations superflues non désirées).

La philosophie du Web sémantique est aussi d’exprimer les métadonnées dans un modèle entité-relation (voir les FRBR) et d’identifier toutes les entités à l’aide d’URI (Uniform Resource Identifier, « identifiant uniforme de ressource »). Pour nous bibliothécaires et assimilés, les enjeux que nous devons saisir concernent : l’exposition des données structurées dont nous disposons par l’émiettement de la connaissance en proposant une description bibliographique au niveau le plus élémentaire. Cet enrichissement des données nécessite la reconnaissance d’entités nommées (de façon à ce que les moteurs reconnaissent les noms de personne, les lieux, les manifestations., etc.), leur catégorisation et leur localisation géographique.

Dans le prochain billet je me propose d’approfondir l’argumentation ainsi introduite et qui vise à monter que les bibliothèques sont très bien placées pour réaliser ce travail et doivent être des acteurs sûrs et « incontournables » du Web des données (autre appellation du Web sémantique).

Pour ce qui est des outils, je vous propose trois moteurs estampillés Web sémantique :

  • Hakia : (2006) Le défi d’Hakia est de construire un moteur de recherche sémantique, c’est-à-dire, destiné à rendre les résultats des recherches basés plus particulièrement sur le sens des mots clés. Le principe étant de faire la relation entre les mots, à la manière du cerveau humain. C’est une nouveauté par rapport aux moteurs de recherche classiques qui utilisent la popularité et les occurrences par indexation conventionnelle. 
  • Spock : moteur pour recherche d’individus (fonctionnement depuis août 2007). La fonction de recherche y est accessible à tous les internautes, sans inscription préalable. Il suffit de renseigner le nom d’un individu et éventuellement d’affiner la requête avec son âge, son sexe et son origine géographique. Spock offre aussi la possibilité de rechercher des individus à partir de mots-clés comme «Senegalese musician», qui remonte alors une liste de musiciens sénégalais (je vous laisse deviner ceux qui sont les premiers cités ou bien faites l’expérience). Chaque profil apparaît sous forme de fiche renseignée d’une photo, de tags (mots-clés) censés décrire l’individu, et d’une liste de proches. Si l’accès à la recherche de base est accessible à tous, Spock invite les utilisateurs à s’inscrire afin de profiter de fonctions supplémentaires. Cela leur permet d’affiner leur propre profil mais aussi de participer à l’amélioration du service en ajoutant des tags aux individus pour mieux les qualifier (par exemple, journaliste, musicien…), l’objectif étant d’améliorer la pertinence du moteur.
  • Swoogle : (développé depuis 2004 par Ebiquity group à l’Université du Maryland) moteur de recherche sur les ontologies.

Ce Web sémantique, selon certains spécialistes, est la future évolution du Web (3.0 ?), raison de plus de demeurer éveillé et/ou veilleur pour ne pas rester en rade.

Merci à Pani Zuza Wiorogorska pour ta précieuse collaboration

Prochainement la suite au même port d’escale.

PS : pensée pieuse pour madame Rose Dieng (éteinte ce 30 juin 2008 à Nice), spécialiste d’Intelligence Artificielle à l’INRIA et travaillant ces dernières années sur la gestion des connaissances et le web sémantique. Cette compatriote s’était vue décerner par le Ministère de la Recherche (France) et le groupe EADS le prix Irène Joliot-Curie 2005 distinguant ainsi une femme qui s’est affirmée par son parcours et sa contribution à la science. Je vous propose une de ses interventions concernant le web du futur où elle parle entre autres du Web sémantique.


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 23 – Mettre un OPAC sur Internet : stratégie sécuritaire 4

Le but de toute structure documentaire est de valoriser son fonds par la vulgarisation. C’est dans cette optique que sont nés nos OPAC, prenant le relais des catalogues classiques avec l’avènement des réseaux informatiques. Ces réalités incontournables de l’actuelle société de l’information colportent leur lot d’avantages et d’inconvénients. Y circule, en effet, le meilleur comme le pire  et l’attitude sage qu’il faut adopter est d’éviter, autant que faire se peut, de se trouver dans le lot des victimes innombrables du réseau des réseaux qu’est Internet.

Quoi de plus légitime que de se faire connaître en tant qu’institution est de proposer à tout le « monde » le savoir contenu dans ses rayons ? (Même si demeure l’inaccessibilité du contenu des OPAC à partir des moteurs de recherche classiques et leur confinement dans le Web profond d’où il faut les extirper, j’y reviendrai dans un prochain billet). La technologie pour diffuser un OPAC sur Internet est accessible et facile à mettre en place dès lors que l’on dispose du budget adéquat pour acquérir les différents composants de mise en ligne (SIGB, PC, Serveurs, etc…).

Cependant le principal problème demeure et demeurera toujours la sécurité de l’infrastructure contre les menaces de tout genre qui pullulent sur Internet. Alors que faire pour se prémunir, si l’envie est la possibilité s’offre à nous de rendre notre OPAC consultable depuis Internet, c’est-à-dire depuis l’extérieur de nos « murs » ?

–          d’abord avoir à l’esprit que ce qu’il faut protéger ce sont nos données (notices bibliographiques) qui se trouvent dans un SERVEUR. En d’autres termes il s’agira de sécuriser le serveur principal contre les attaques. (Faire ses emplettes d’antivirus et autres « molosses virtuels »)

–           ensuite, avoir en tête que les attaques ne peuvent venir en principe que de l’extérieur et donc mettre en place une stratégie d’isolement du serveur  (par un Firewall dans une « zone démilitarisée » DMZ).

Mon choix pour ce billet est de parler de cette deuxième option qui n’est pas incompatible avec la première, bien au contraire, il faut même penser à combiner les deux.

La mise en place d’une telle stratégie sécuritaire passe par l’acquisition d’au moins deux serveurs : un pour le stockage des données résultant des activités professionnelles internes (création des notices) faisant aussi office de serveur Web pour l’OPAC, mais accessible qu’en Intranet (aux professionnels et aux usagers à l’intérieur de la bibliothèque) ; un autre pour l’accès public depuis Internet qui fait seulement office de serveur Web pour l’OPAC. Ce dernier serveur est une sorte de duplicata du serveur Web accessible uniquement en Intranet et les deux serveurs sont liés par une opération de synchronisation légèrement différée qui permet en quelques secondes, après enregistrement de notices, d’avoir les mêmes données sur leur interface Web respectif.

Le deuxième serveur accessible depuis l’extérieur est hébergé dans la DMZ faisant office de « zone tampon » entre le réseau interne (à protéger) et le réseau externe (Internet). Cette DMZ qui comporte aussi un Firewall permet de préserver le réseau interne de toutes les menaces venant de l’extérieur. Ce même serveur situé dans cette zone est dénommé « bastion » du fait de sa position d’avant-poste dans le réseau interne.

Au regard du langage militaire utilisé pour ce type de stratégie, nous devons comprendre qu’il ne s’agit ni plus, ni moins que de faire de nos OPAC Web des camps retranchés, non pas pour éloigner ou éviter nos usagers, mais pour protéger l’intégrité de nos fonds documentaires, sans quoi nous  perdrons ce qui  fait notre spécificité : médiateurs d’information et gardiens de patrimoine.

Pour résumer et illustrer tout cela, voir ces deux schémas.

Et rendez-vous pour la prochaine escale !


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 22 – Evergreen refreshed 1

En tant que coordonnateur d’eIFL-FOSS pour le Sénégal, je vous apporte quelques nouvelles très fraîches concernant le SIGB (système intégré de gestion de bibliothèque) Evergreen. Dans le billet N° 05, j’avais écrit quelques mots sur ce logiciel libre, surtout présent dans l’univers des bibliothèques nord-américaines (USA principalement), ce qui n’enlève pas l’intérêt que peuvent y trouver nos institutions et nous-mêmes par ricochet (acquisition et renforcement de savoir-faire).

Ce billet est donc une actualisation d’informations, comme on le ferait à l’aide du bouton correspondant et se trouvant dans la barre de navigation de tout browser Web.

eIfl-FOSS, qui promeut ce SIGB (en plus de Koha), a tenu son premier atelier sur les SIGB libres à Yerevan, capitale de l’Arménie les 10 et 11 juin 2008. Cet atelier était destiné aux bibliothèques pilotes chargées d’installer et d’évaluer les performances de ces deux systèmes. Je vous propose de télécharger la présentation d’Evergreen (Powerpoint ou OpenOffice ) faite à cette occasion par Dan Scott, un de ses développeurs.

Par la même occasion, si l’envie vous prend de savoir comment installer un serveur Evergreen vous pouvez cliquer sur ce lien et télécharger la dernière version de son application cliente sous windows pour ceux qui utilisent cet Operating System (c’est-à-dire presque tout le monde 😉 ).

Pour de plus amples connaissances visiter le site officiel qui propose des démonstrations en ligne etc..

A l’heure où les logiciels libres foisonnent, deviennent de plus en plus performants et disposent de développeurs en nombre et qualité, il serait avantageux d’en connaître, voire maîtriser un grand nombre. Cela permet de comparer est de faire le meilleur choix si besoin en est. Une des missions de eIFL-FOSS est de promouvoir Evergreen et Koha comme alternatives viables aux SIGB propriétaires, mais aussi de signaler tout autre logiciel répondant aux mêmes critères de gratuité, de performance et de maintenance. Nous devons porter un intérêt à ces deux produits, en les testant au besoin (grâce aux démo en ligne) et nous départir de tout jugement de valeur qui tendrait à en faire des produits inadaptés (surtout pour les petites structures documentaires). Ne perdons pas, non plus, de vue, tous les avantages que nous pouvons tirer de la participation dans les réseaux d’utilisateurs de ces produits (ateliers internationaux qui permettent les échanges et accroissent l’expertise, listes de discussion permettant de s’informer sur tout ce qui gravite autour de ces logiciels, bases de connaissances…).


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.