N° 31 – Intelligence économique : une autre discipline pour nous Réponse

Suite à l’agréable surprise que j’ai eu en ayant connaissance d’un séminaire sur l’Intelligence économique organisé le 27 novembre 2008 par le Centre d’Etudes Diplomatiques et Stratégiques de Dakar, occasion m’est idéalement donné pour partager mes impressions sur ce concept. D’abord bravo pour cette prise de conscience nationale sur un des enjeux fondamentaux du monde, à savoir la prise en compte de l’intelligence économique dans l’évolution de la vie nationale. Mais pourquoi parler d’une discipline qui, à priori, semble être aux antipodes de nos préoccupations documentaires ?

Une brève lecture de la définition proposée par le Rapport Martre du Commissariat au Plan de France, publié par La documentation française en 1994, aidera à éclairer cette éventuelle interrogation. Je vous la livre textuellement et telle que je l’ai découverte lors du cours sur l’Intelligence économique dispensé dans le cadre du Master 2 de l’EBAD dès 2006 (bonne anticipation) : « L’intelligence économique peut être définie comme l’ensemble des actions coordonnées de recherche, de traitement et de distribution, en vue de son exploitation, de l’information utile aux acteurs économiques. Ces diverses actions sont menées légalement avec toutes les garanties de protection nécessaires à la préservation du patrimoine de l’entreprise, dans les meilleures conditions de délais et de coûts. L’information utile est celle dont ont besoin les différents niveaux de décision de l’entreprise ou de la collectivité, pour élaborer et mettre en œuvre de façon cohérente la stratégie et les tactiques nécessaires à l’atteinte des objectifs définis par l’entreprise dans le but d’améliorer sa position dans son environnement concurrentiel. Ces actions, au sein de l’entreprise, s’ordonnent autour d’un cycle ininterrompu, générateur d’une vision partagée des objectifs de l’entreprise ».

Quel documentaliste ou autre professionnel de l’information documentaire ne se serait pas senti concerné par une telle définition ? En quoi les pratiques suggérées par cette assertion diffèrent-elles de ce que nous faisons depuis des lustres dans nos espaces professionnels ?

L’intelligence économique a, cependant, dépassé depuis longtemps le cadre restreint des entreprises pour coloniser l’espace étatique (gouvernemental). Amusons-nous à remplacer le terme « entreprise » de la définition par celui de »pays« , « nation » ou « Etat« , là on touche du doigt l’enjeu fondamental de la discipline qui s’inscrit dans le cadre global de la gestion des intérêts d’un pays. Voilà quelque chose qui doit, encore plus, nous renforcer dans notre conviction d’être des maillons essentiels de tout dispositif informationnel privé ou public, tant notre savoir-faire est y plus que nécessaire.

Car de quoi parlons-nous en Intelligence économique ?

De veille, collecte, analyse et diffusion « interne » de l’information, de gestion de métadonnées avec certes des outils et pratiques entièrement dédiés à cet environnement particulier de gestion informationnelle. Mais rien de vraiment sorcier, pour qui maîtrise : recherche et analyse documentaire, indexation et taxonomie, DSI et archivage (pour ne pas dire records management), le tout mixé à la sauce informatique. Alors à nous de nous positionner, après l’autoformation, par l’autopromotion, mais surtout par la formalisation de notre appartenance à ce giron conceptuel et pratique. L’EBAD a montré la voie (comme indiqué tantôt), il s’agit de renforcer cette action en donnant plus de poids à cette discipline dans le cursus académique  des sicences de l’information documentaire et en mettant à niveau les professionnels en activité, comme cette initiative louable de l’American information center qui a organisé, en partenariat avec l’ASBAD, une conférence sur l’IE le 29 novembre 2007 à Dakar (Voir le compte rendu ici). L’objectif de tout cela serait d’élargir les débouchés des étudiants en documentation et accroître le poids stratégique des pratiquants dans leur espace professionnel. Dès à présent il faut  alors s’imprégner de tout l’environnement de l’Intelligence économique, composé de concepts ou disciplines connexes et d’outils logiciels. En voici quelques exemples.

Quelques termes connexes : Datamining, Datawarehouse, Knowledge management, Business intelligence, ETL, etc.

Des outils logiciels gratuits : de veille comme Ezeportal (système de gestion de l’information) , des outils orientés ETL ou information décisionnelle comme SpagoBi, Talend Open studio, etc.

Pour la documentation en ligne, voir cet univers netvibes consacré à l’IE, et ce site où sont exposées quelques pratiques d’intelligence économique qui viennent nous rappeler que : qui détient l’information détient le pouvoir et devient une puissance en latence, ce qui est notre cas. Soyons-en toujours conscients.

Complément de lecture :


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 29 – Préservation numérique : LOCKSS (suite) et Portico Réponse

Retour après un mois de silence motivé par l’observation d’une pause-vacances, mise à profit pour arpenter les pistes herbeuses du Niokolo-Koba, filmant et flashant des antilopes et autres singes verts ou encore  profiter des plages du littoral de la Petite-Côte. C’est avec une flemme non dissimulée que je me propose de remplir la promesse faite de discourir sur la manière de mettre en place une application LOCKSS. Donc le temps de me recharger d’énergie nécessaire à un « blogging » normal je vous renvoie à des liens non commentés où tout cela est bien expliqué et illustré par de l’animation « youtubique ». J’y adjoint aussi un lien sur Portico autre initiative collaborative de préservation et de conservation des ressources électroniques

Il y a quelques temps le site Digital preservation Europe a mis en ligne un Briefing paper présentant l’application LOCKSS où vous pourrez vous faire une idée de son fonctionnement .

LOCKSS étant un logiciel librement disponible pour le tester et l’utiliser, je vous propose cette vidéo éducative pour installer une « boîte » LOCKSS

Il est remarquable de voir que cette idée de l’accès à long terme des ressources électroniques est de plus en plus prise en compte par les édditeurs, ainsi l’ALPSP (Association of Learned and Professional Society Publishers), en collaboration avec Portico, a mis en ligne (pdf) les résultats d’une enquête (long-term-preservation-alpsp-report) auprès de ses membres sur leur stratégie de conservation à long terme des documents numériques.

Préservation et conservation de l’information électronique acquise demeurent un casse-tête pour nos bibliothèques sous-développées longtemps sujettes à la résignation quand les abonnements souscrits arrivent à terme et qu’elles se trouvent dans l’impossibilité d’accéder à un fonds documentaire déjà acheté. Les initiatives LOCKSS ou encore Portico peuvent être une solution et peut-être cesserons-nous de nous arracher les cheveux devant l’équation de l’archivage de nos ressources codées en langage binaire et donc de leur accessibilité pérenne.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 28 – Préservation numérique : introduction à LOCKSS Réponse

La gestion des ressources électroniques dans les bibliothèques implique la prise en compte de plusieurs préoccupations. L’une d’elles et non des moindres est la conservation et le stockage à long terme de ces ressources, comme nous sommes arrivés à le faire avec les documents imprimés. Même si « bizarrement » nous ne nous suffisons plus des formes de conservation actuelle des imprimés, produisant maintenant en grande quantité, des versions numériques des ces documents. Avons-nous, pour autant, réglé définitivement le problème de la conservation numérique où devrons-nous dans un avenir lointain refaire la même chose qu’aujourd’hui, c’est-à-dire, faire migrer nos documents numériques actuels vers d’autres formats non encore inventés et qui pourraient l’être ? Brève question pour un avenir incertain en l’état et qui me fait revenir à des considérations purement de mon temps, même si celles-ci sont forcément à liées à l’avenir. Voyons pourquoi.

En général, les bibliothèques actuelles possèdent un fonds de ressources électroniques. Celles qui m’intéressent dans ce propos sont celles qui sont publiées en ligne, via les réseaux et dont l’espace de stockage (les serveurs) ne sont pas toujours physiquement et visiblement identifiés et localisés (comme on le ferait pour un bâtiment de bibliothèque ou rayon dans cette même bibliothèque). Que se passe-t-il alors pour une bibliothèque acquérant ce type de ressources ? L’éditeur lui fournit un accès à ladite ressource stockée sur son serveur (de l’éditeur) avec des conditions d’utilisation généralement restrictives (accès réservé aux seuls abonnés, nombre limite de connexions simultanées, connexions circonscrites à un espace géographique bien défini, etc.).Mais le fait le plus marquant est que la bibliothèque ne dispose pas de la ressource elle-même dans son fonds (la ressource est dans le serveur du fournisseur) et est ainsi exposée à beaucoup de risques liés à la pérennité d’accès à ladite ressource (disparition de l’éditeur, panne de serveur, changement d’éditeur d’une revue, etc.. et donc perte de l’information que l’on a déjà payée). L’enjeu est donc de faire des bibliothécaires les dépositaires du contenu des ressources en ligne qu’elles ont acquises pour en faire des possesseurs et ne plus avoir l’impression de les « louer ». C’est fort de ce souhait que la Bibliothèque de l’Université de Stanford a développé depuis 1999 l’application LOCKSS pour permettre aux bibliothèques de collecter, gérer et accéder aux copies locales des ressources en ligne. LOCKSS (Lots of Copies Keep Stuff Safe) qui signifie littéralement : « Beaucoup de copies rendent la marchandise sécurisée » est devenue depuis lors, une initiative communautaire internationale qui a pour but de fournir aux bibliothèques des outils de conservation numérique et l’appui pour qu’elles puissent facilement et à bon marché rassembler et préserver leurs propres copies de contenu numérique.

C’est une technologie qui repose sur une infrastructure open-source, peer-to-peer (P2P) et décentralisée, dont l’efficacité repose donc sur la collaboration des structures participant au programme LOCKSS. Collaboration des bibliothèques entre elles mais aussi avec les éditeurs (nous en verrons l’importance quand il s’agira d’expliquer le fonctionnement du modèle). Depuis 10 ans quelques 344 éditeurs de revues scientifiques, 194 bibliothèques des 5 continents participent au programme et des milliers de titres sont concernés. L’application LOCKSS est conforme aux stipulations du modèle OAIS traité dans le billet N° 09 et permet de préserver tous formats et genres de contenu publiés sur le Web.

Comment tout cela fonctionne-t-il ? Quels sont les prérequis techniques pour le mettre en route ?

Au prochain post pour répondre à ces questions.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 26 – PMB refreshed Réponse

PMB s’est remis au goût du jour lors du séminaire sous-régional sur les SIGB libres organisé par notre association professionnelle l’ASBAD du 18 au 21 août 2008. Nous avons eu le plaisir de partager beaucoup de bonnes choses ensemble, humainement et professionnellement. A l’heure du bilan force est de constater la pertinence du thème (formation à un logiciel libre) et du choix du SIGB en question qui se trouve être une alternative crédible à beaucoup de logiciels propriétaires, non pas que ces derniers ne soient pas performants (loin de là), mais ils se disqualifient par leur coût d’acquisition et surtout de maintenance. Le contexte africain n’a jamais pu supporter de tels investissements en raison des budgets modiques de nos institutions fussent-elles importantes (je pense aux bibliothèques universitaires). Alors l’avenir n’est-il pas dans le libre, une fois que soit réglé le problème de la maintenance continue des applications adoptées et utilisées ? Une fois que soit réglé le souci de la pérennité (qui semble être le talon d’Achille des logiciels libres), de la sécurité des données (enjeu fondamental) ? Voilà autant de choses à prendre en compte au moment de se lancer dans pareille aventure et je crois que l’un des enjeux du séminaire de l’ASBAD était moins de maîtriser les fonctionnalités de PMB (maîtrise qui s’acquiert plus par la pratique quotidienne), mais surtout de se rassurer par rapport aux interrogations soulignées plus haut. L’application présente-t-elle toutes les garanties : robustesse, sécurisation des données, helpdesk accessible, forte communauté d’utilisateurs (qui en fait, est un gage de pérennité) etc. ? Les réponses fournies par les formateurs de Libre-TIC (pub gratuite) sont rassurantes, même si on ne peut écarter un certain esprit mercantile sous-jacent:-).

C’est donc avec beaucoup de questions et d’interrogations (pour ne pas dire de l’appréhension) que je me suis rendu à ce séminaire, armé que j’étais, d’un rapport de l’Observatoire des technologies libres (un programme de la Fondation pour une bibliothèque globale) publié en début août 2008 et qui exposait une comparaison des principaux logiciels libres (Koha, Evergreen et…PMB), texte que je vous livre volontiers en cliquant sur ce lien. Vous comprendrez mieux cette appréhension en lisant les résultats de cette comparaison qui classe PMB derrière ses deux aînés, ce qui me semble tout à fait logique en l’état actuel (Koha et Evergreen étant sur le « marché » depuis plus longtemps et ayant donc eu à fédérer beaucoup de compétences en développement et une forte communauté d’utilisateurs, nul doute que PMB atteindra ce degré de développement dans quelques années, avec les bibliothèques africaines pourquoi pas ?). Autre variable à prendre en compte et non des moindres, c’est l’environnement où cette étude a été faite qui se trouve être un contexte anglo-saxon (Canada), où Koha et Evergreen sont très usités (ceci expliquant peut-être cela). Ceci étant dit, confronté aux réalités fonctionnelles de PMB, en toute honnêteté je ne trouve pas beaucoup de choses à redire quant à sa qualité, sa souplesse d’utilisation et les nombreuses opérations bibliothéconomiques qu’il permet de réaliser. Nous avons là, nous bibliothèques sous développées, un formidable outil de travail qui nous change enfin du « suffixe » ISIS (qui nous a beaucoup rendu service soit-dit en passant, mais qui semble un peu dépassé vu les mutations de l’heure induites par l’émergence web 2.0 entre autres et qui sont prises en compte dans PMB).

Il est cependant dommage que cet aspect (web 2.0) n’ait pas été soulevé au cours du séminaire, néanmoins je vous renvoie au billet N° 05 où j’avais déjà  fait état de PMB comme pourvoyeuse de solutions web 2.0 (OPAC social, où il est possible d’évaluer les notices par les utilisateurs, de les tagguer, etc.). Dans ce même billet je faisais état de l’existence d’un plugin SPIP pour PMB et qui permet d’intégrer certaines fonctionnalités de PMB dans un site web créé sous le CMS SPIP. Ces plugins permettent entre autres de « fondre » graphiquement un OPAC PMB dans l’interface de ces CMS. Qu’est-ce que cela veut dire ? Imaginons que votre bibliothèque ait un site web créé sous SPIP, vous intégrez l’OPAC de votre base de données PMB sur ce site pour qu’il soit accessible depuis Internet, vous pouvez faire de telle sorte que les deux interfaces (du site web et de l’OPAC) soient « parfaitement » identiques graphiquement et qu’un internaute accédant à votre site web, puisse aussi accéder à votre OPAC en ayant l’impression d’être toujours dans une seule et même interface. Enfin dans ce même billet je proposais aussi un tutoriel pour apprendre à installer un serveur web, démarche qui au finish s’est révélée judicieuse (petite autoglorification 🙂 ), car cette opération a constitué la première partie du contenu du séminaire.

En conclusion je réitère mon satisfecit aux gestionnaires de l’ASBAD qui ont pu faire participer sept autres confrères de la sous-région Afrique occidentale francophone et lusophone, c’est un grand pas qui a été fait dans la mise en œuvre de l’intégration des structures documentaires sous-régionales. Alors mention « Très-bien » chers collègues et vivement d’autres formations de ce type, surtout en direction de mes cousins archivistes que j’ai senti un peu perdus 🙂 dans l’univers des normes, formats et protocoles bibliothéconomiques (ISBD, UNIMARC, Z39-50,…). Pour cela je vous suggère déjà le nouveau logiciel de gestion d’archives ICA-Atom (en version Beta) récemment mis en œuvre par le Conseil international des archives et qui se trouve être aussi un FOSS (logiciel libre). Ce logiciel permet la gestion de fonds d’archives avec possibilité de liens vers tous types de documents numériques (images, sons, vidéos, …) et export au format EAD.

Enfin, en ma qualité de coordinateur d’eIFL-FOSS pour le Sénégal, je me propose de soumettre à l’eIFL-FOSS program manager, l’intégration de PMB dans la liste des SIGB libres (Koha et Evergreen) dont nous faisons la promotion. Si une telle initiative aboutissait nul doute que nous aurions plus d’opportunités de nous retrouver pour renforcer notre expertise dans la prise en main continue de ce logiciel.


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 24 – Un peu de Web sémantique Réponse

Que de chemin parcouru depuis que Tim Berners-Lee créa le Web en 1991. Année qui a aussi vu l’apparition de la première génération des outils dédiés à la recherche de sites Web. Ces sites ont connu une évolution quantitative exponentielle entraînant de fait, une surproduction d’information (infobésité), ce qui implique aujourd’hui, la nécessité d’avoir des mécanismes et outils de recherche qui permettent une recherche efficace (rapidité et pertinence) de l’information ainsi publiée. Cette nécessité a été levier de l’évolution technologique des moteurs de recherche, mais aussi de l’apparition du « nouveau » concept qu’est le Web sémantique, dont je me propose de faire l’exposé dans ce billet.

Qu’en est-il ?

Brièvement expliqué, ce concept a pour objet de faciliter l’accès aux informations disponibles sur le Web. La vision de Tim Berners-Lee est de rendre la sémantique des ressources du Web explicite, de manière que les programmes puissent l’exploiter comme nous autres humains. Cela grâce à l’interopérabilité des métadonnées qui va permettre aux moteurs de trouver et de mettre en relation des données jusqu’alors confinées dans leurs sites (ou leurs bases de données, une grande partie du Web invisible est confinée dans des bases de données). Le but est de permettre aux robots (fureteurs du Web) de « comprendre » le contenu des sites, grâce à l’emploi de langages adéquats (le RDF ou Resource Description Framework pour les métadonnées ; le OWL : Web Ontology Language pour les ontologies).

Pour  illustrer ce qu’est le Web sémantique, prenons un exemple tout simple : on choisit de faire une recherche sur « Abdou Diouf ». Un moteur classique comme Google va afficher des milliers de pages où figure le nom Abdou Diouf, mais un moteur estampillé Web sémantique va orienter la recherche en proposant le nom « Abdou Diouf » selon des qualificatifs (fonction, profession,…plus précisément pour cet exemple : président du Sénégal, secrétaire général de la francophonie, etc.). Donc il faut arriver à ce que les moteurs de recherche puissent « saisir le sens » des ressources du Web qu’ils indexent (expression qui a une autre signification ici et qui est différente d’une quelconque compréhension du langage naturel par les machines). Ceci implique, dans l’ « idéologie » du Web sémantique de rendre cette information disponible à  ces programmes sous forme d’ontologies (voir ci-dessus). Le bénéfice principal que l’on obtient avec pareille chose, est l’abrègement considérable du temps de recherche et qui rime avec réduction importante du bruit (informations superflues non désirées).

La philosophie du Web sémantique est aussi d’exprimer les métadonnées dans un modèle entité-relation (voir les FRBR) et d’identifier toutes les entités à l’aide d’URI (Uniform Resource Identifier, « identifiant uniforme de ressource »). Pour nous bibliothécaires et assimilés, les enjeux que nous devons saisir concernent : l’exposition des données structurées dont nous disposons par l’émiettement de la connaissance en proposant une description bibliographique au niveau le plus élémentaire. Cet enrichissement des données nécessite la reconnaissance d’entités nommées (de façon à ce que les moteurs reconnaissent les noms de personne, les lieux, les manifestations., etc.), leur catégorisation et leur localisation géographique.

Dans le prochain billet je me propose d’approfondir l’argumentation ainsi introduite et qui vise à monter que les bibliothèques sont très bien placées pour réaliser ce travail et doivent être des acteurs sûrs et « incontournables » du Web des données (autre appellation du Web sémantique).

Pour ce qui est des outils, je vous propose trois moteurs estampillés Web sémantique :

  • Hakia : (2006) Le défi d’Hakia est de construire un moteur de recherche sémantique, c’est-à-dire, destiné à rendre les résultats des recherches basés plus particulièrement sur le sens des mots clés. Le principe étant de faire la relation entre les mots, à la manière du cerveau humain. C’est une nouveauté par rapport aux moteurs de recherche classiques qui utilisent la popularité et les occurrences par indexation conventionnelle. 
  • Spock : moteur pour recherche d’individus (fonctionnement depuis août 2007). La fonction de recherche y est accessible à tous les internautes, sans inscription préalable. Il suffit de renseigner le nom d’un individu et éventuellement d’affiner la requête avec son âge, son sexe et son origine géographique. Spock offre aussi la possibilité de rechercher des individus à partir de mots-clés comme «Senegalese musician», qui remonte alors une liste de musiciens sénégalais (je vous laisse deviner ceux qui sont les premiers cités ou bien faites l’expérience). Chaque profil apparaît sous forme de fiche renseignée d’une photo, de tags (mots-clés) censés décrire l’individu, et d’une liste de proches. Si l’accès à la recherche de base est accessible à tous, Spock invite les utilisateurs à s’inscrire afin de profiter de fonctions supplémentaires. Cela leur permet d’affiner leur propre profil mais aussi de participer à l’amélioration du service en ajoutant des tags aux individus pour mieux les qualifier (par exemple, journaliste, musicien…), l’objectif étant d’améliorer la pertinence du moteur.
  • Swoogle : (développé depuis 2004 par Ebiquity group à l’Université du Maryland) moteur de recherche sur les ontologies.

Ce Web sémantique, selon certains spécialistes, est la future évolution du Web (3.0 ?), raison de plus de demeurer éveillé et/ou veilleur pour ne pas rester en rade.

Merci à Pani Zuza Wiorogorska pour ta précieuse collaboration

Prochainement la suite au même port d’escale.

PS : pensée pieuse pour madame Rose Dieng (éteinte ce 30 juin 2008 à Nice), spécialiste d’Intelligence Artificielle à l’INRIA et travaillant ces dernières années sur la gestion des connaissances et le web sémantique. Cette compatriote s’était vue décerner par le Ministère de la Recherche (France) et le groupe EADS le prix Irène Joliot-Curie 2005 distinguant ainsi une femme qui s’est affirmée par son parcours et sa contribution à la science. Je vous propose une de ses interventions concernant le web du futur où elle parle entre autres du Web sémantique.


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 23 – Mettre un OPAC sur Internet : stratégie sécuritaire 4

Le but de toute structure documentaire est de valoriser son fonds par la vulgarisation. C’est dans cette optique que sont nés nos OPAC, prenant le relais des catalogues classiques avec l’avènement des réseaux informatiques. Ces réalités incontournables de l’actuelle société de l’information colportent leur lot d’avantages et d’inconvénients. Y circule, en effet, le meilleur comme le pire  et l’attitude sage qu’il faut adopter est d’éviter, autant que faire se peut, de se trouver dans le lot des victimes innombrables du réseau des réseaux qu’est Internet.

Quoi de plus légitime que de se faire connaître en tant qu’institution est de proposer à tout le « monde » le savoir contenu dans ses rayons ? (Même si demeure l’inaccessibilité du contenu des OPAC à partir des moteurs de recherche classiques et leur confinement dans le Web profond d’où il faut les extirper, j’y reviendrai dans un prochain billet). La technologie pour diffuser un OPAC sur Internet est accessible et facile à mettre en place dès lors que l’on dispose du budget adéquat pour acquérir les différents composants de mise en ligne (SIGB, PC, Serveurs, etc…).

Cependant le principal problème demeure et demeurera toujours la sécurité de l’infrastructure contre les menaces de tout genre qui pullulent sur Internet. Alors que faire pour se prémunir, si l’envie est la possibilité s’offre à nous de rendre notre OPAC consultable depuis Internet, c’est-à-dire depuis l’extérieur de nos « murs » ?

–          d’abord avoir à l’esprit que ce qu’il faut protéger ce sont nos données (notices bibliographiques) qui se trouvent dans un SERVEUR. En d’autres termes il s’agira de sécuriser le serveur principal contre les attaques. (Faire ses emplettes d’antivirus et autres « molosses virtuels »)

–           ensuite, avoir en tête que les attaques ne peuvent venir en principe que de l’extérieur et donc mettre en place une stratégie d’isolement du serveur  (par un Firewall dans une « zone démilitarisée » DMZ).

Mon choix pour ce billet est de parler de cette deuxième option qui n’est pas incompatible avec la première, bien au contraire, il faut même penser à combiner les deux.

La mise en place d’une telle stratégie sécuritaire passe par l’acquisition d’au moins deux serveurs : un pour le stockage des données résultant des activités professionnelles internes (création des notices) faisant aussi office de serveur Web pour l’OPAC, mais accessible qu’en Intranet (aux professionnels et aux usagers à l’intérieur de la bibliothèque) ; un autre pour l’accès public depuis Internet qui fait seulement office de serveur Web pour l’OPAC. Ce dernier serveur est une sorte de duplicata du serveur Web accessible uniquement en Intranet et les deux serveurs sont liés par une opération de synchronisation légèrement différée qui permet en quelques secondes, après enregistrement de notices, d’avoir les mêmes données sur leur interface Web respectif.

Le deuxième serveur accessible depuis l’extérieur est hébergé dans la DMZ faisant office de « zone tampon » entre le réseau interne (à protéger) et le réseau externe (Internet). Cette DMZ qui comporte aussi un Firewall permet de préserver le réseau interne de toutes les menaces venant de l’extérieur. Ce même serveur situé dans cette zone est dénommé « bastion » du fait de sa position d’avant-poste dans le réseau interne.

Au regard du langage militaire utilisé pour ce type de stratégie, nous devons comprendre qu’il ne s’agit ni plus, ni moins que de faire de nos OPAC Web des camps retranchés, non pas pour éloigner ou éviter nos usagers, mais pour protéger l’intégrité de nos fonds documentaires, sans quoi nous  perdrons ce qui  fait notre spécificité : médiateurs d’information et gardiens de patrimoine.

Pour résumer et illustrer tout cela, voir ces deux schémas.

Et rendez-vous pour la prochaine escale !


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.

N° 22 – Evergreen refreshed 1

En tant que coordonnateur d’eIFL-FOSS pour le Sénégal, je vous apporte quelques nouvelles très fraîches concernant le SIGB (système intégré de gestion de bibliothèque) Evergreen. Dans le billet N° 05, j’avais écrit quelques mots sur ce logiciel libre, surtout présent dans l’univers des bibliothèques nord-américaines (USA principalement), ce qui n’enlève pas l’intérêt que peuvent y trouver nos institutions et nous-mêmes par ricochet (acquisition et renforcement de savoir-faire).

Ce billet est donc une actualisation d’informations, comme on le ferait à l’aide du bouton correspondant et se trouvant dans la barre de navigation de tout browser Web.

eIfl-FOSS, qui promeut ce SIGB (en plus de Koha), a tenu son premier atelier sur les SIGB libres à Yerevan, capitale de l’Arménie les 10 et 11 juin 2008. Cet atelier était destiné aux bibliothèques pilotes chargées d’installer et d’évaluer les performances de ces deux systèmes. Je vous propose de télécharger la présentation d’Evergreen (Powerpoint ou OpenOffice ) faite à cette occasion par Dan Scott, un de ses développeurs.

Par la même occasion, si l’envie vous prend de savoir comment installer un serveur Evergreen vous pouvez cliquer sur ce lien et télécharger la dernière version de son application cliente sous windows pour ceux qui utilisent cet Operating System (c’est-à-dire presque tout le monde 😉 ).

Pour de plus amples connaissances visiter le site officiel qui propose des démonstrations en ligne etc..

A l’heure où les logiciels libres foisonnent, deviennent de plus en plus performants et disposent de développeurs en nombre et qualité, il serait avantageux d’en connaître, voire maîtriser un grand nombre. Cela permet de comparer est de faire le meilleur choix si besoin en est. Une des missions de eIFL-FOSS est de promouvoir Evergreen et Koha comme alternatives viables aux SIGB propriétaires, mais aussi de signaler tout autre logiciel répondant aux mêmes critères de gratuité, de performance et de maintenance. Nous devons porter un intérêt à ces deux produits, en les testant au besoin (grâce aux démo en ligne) et nous départir de tout jugement de valeur qui tendrait à en faire des produits inadaptés (surtout pour les petites structures documentaires). Ne perdons pas, non plus, de vue, tous les avantages que nous pouvons tirer de la participation dans les réseaux d’utilisateurs de ces produits (ateliers internationaux qui permettent les échanges et accroissent l’expertise, listes de discussion permettant de s’informer sur tout ce qui gravite autour de ces logiciels, bases de connaissances…).


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 19 – Métavers & pratiques documentaires Réponse

La navigation continue au sein des univers virtuels à la recherche des îles où sont déclamées les notions qui nous sont familières. Cette quête s’est limitée à Second life seulement et le premier constat est la part infime de structures francophones ayant investi ce milieu. Il va donc falloir se coltiner toute une bonne dose de vocabulaire et syntaxe anglaise. L’endroit le plus « important » pour voir la présence de bibliothèques dans Second life est «Info island» qui fédère une quinzaine d’îles virtuelles regroupant plus de 500 bibliothécaires publics et universitaires. Quoi de plus parlant que l’image ? Je vous invite donc à parcourir cet archipel grâce à la magie « Youtubique ».

Si vous ne vous êtes pas ennuyés et que cette vidéo ait donc aiguisé votre appétit pour plus de découvertes, je vous invite à intégrer le réseau social des bibliothécaires de Second life et voir un exemple de job qui y est mené par une « collègue-avatar » dont voici l’interview en français).

Au cours de mon périple volant dans ce métavers j’ai atterri (presque amerri 🙂 ) sur l’île Riviera, où se trouve la Bibliothèque francophone de Second life (eh oui !) qui n’a rien (selon moi) d’une bibliothèque classique avec rayonnages de bouquins (fussent-ils virtuels) et classification systématique, mais un espace d’échanges. La consultation du blog qui lui est dédié vous en dira davantage. Quoiqu’il en soit on y organise de belles conférences à ce qu’il paraît (la Bibliothèque n’est-elle pas aussi lieu d’animation ?)

Si l’envie vous prend de vous inscrire à Second life et d’y venir vous promener (librarians area), vous rencontrerez peut-être un Tonyben Benoir, n’hésitez pas à lui parler Wolof ou Sereer et à débattre de la profession documentaire de Sunugal, de l’ASBAD (une île virtuelle à créer et à modeler parfaitement, comme on le ferait en rêve, dans Second life ?) et plein d’autres petites choses si affinités… 🙂 .

Ma navigation ne m’a pas fait découvrir des espaces archivistiques dans Second life (cependant je vous propose un slideshow d’archiviste sur la question, avec un titre assez évocateur). Quant aux espaces muséologiques, voir ce Google group sur l’usage de Second life pour les musées (en anglais).

Ressources pour toujours mieux s’imprégner (liste non exhaustive)

Fil RSS de Info Island, présentation Powerpoint sur Second life et Bibliothèques, présentation de la Bibliothèque francophone de Second life

A sous peu, pour un retour aux « affres » du monde réel


Creative Commons License
Ce document est mis en ligne sous Licence Creative Commons.

N° 18 – Le règne de l’avatar ? : Second life & compagnie Réponse

Voilà un titre qui peut paraître provocateur, d’autant plus qu’il s’agit pour moi d’insinuer que l’avenir de l’Homo internetus se confondra irrémédiablement avec son clone virtuel (avatar) né de la technologie en 3D. Mais pareille question est-elle aussi saugrenue que cela, quand depuis quelques années, il est possible de se créer une seconde vie où le rêve (longtemps confiné dans les lambris du sommeil paradoxal) se matérialise dans les métavers. Des cosmos virtuels où le corps de chair et d’os se dématérialise en figurines animées sans oxygène pour respirer, mais une succession de codes binaires qui prennent le pas sur tout fluide biologique, témoin de nos insatisfactions d’éternels mortels. Des figurines aussi « mortelles » mais régénérables à souhait pour combler ces insatisfactions du monde réel, créant des environnements imaginaires pour en faire des modèles parfaits tels que l’aurait souhaité leur double fait de nerfs et de sang.

L’un des plus célèbres et plus populaires est Second life, né de l’imagination de Linden Lab en 2003, il offre la possibilité de se payer des « Island » dans cet univers où les tractations financières se font en Linden dollar (L$), sésame nécessaire pour se payer le terrain « île » et les matériaux pour y construire sa tour d’ivoire ou son petit commerce (sur lequel ne cracherait sûrement pas le petit épicier de nos bidonvilles).

Nulle intention pour moi de commenter un quelconque succès ou échec de ces services (métavers) du Web (2.0) d’aujourd’hui, mais seulement entrouvrir des lucarnes pour voir les possibilités qu’ils peuvent offrir, économiquement, culturellement, socialement,…et professionnellement (documentation s’entend). Le format proposé par ces technologies se confond aux MMOG, espaces ludiques longtemps apanage de l’âge adolescent, peut freiner l’ardeur de tout adulte à qui l’on proposerait l’utilisation de l’univers virtuel pour y renaître. Eh bien ! Conseil : il n’est rien qui soit honteux pour un papy à la soixantaine bien entamée de voler d’île en île dans Second life. D’autant plus que les gros bras de la décision planétaire (banques, industries, politiques, informatique comme IBM…) y investissent proposant des espaces de travail, de présentation et/ou de consommation de leurs produits, innovants ou non.

Comme toujours, le hic sera technologique pour la majorité de nos congénères sous-développés (disposer d’un ordinateur assez puissant, d’une connexion Internet et d’une alimentation en énergie continue). Ces préalables remplis, il ne reste plus qu’à télécharger l’application cliente de l’univers souhaité (Second life, mon favori), se créer une nouvelle identité (numérique ?) par l’inscription (nouveau nom et nouvelle apparence : avatar) et atterrir sur l’île d’apprentissage pour se familiariser avec l’univers virtuel, passage obligé vers l’exploration des espaces publics et privés qui le composent. Le reste sera fonction de votre avoir financier, à changer en Linden dollar (pour Second life), qui vous permettra d’acheter votre propre île, de lui donner une identité par un nom et des services offerts.

Il est possible d’y construire des consciences et identités collectives virtuelles, celles-ci pouvant être à vocation corporatiste, religieuse, etc.., rejoignant ainsi les préoccupations réelles et toujours insatisfaites d’une « première vie ». Clin d’œil à tous les polygames secrets qui rêvent déjà de harem virtuel :-).

Le règne de l’avatar est-il envisageable dans l’espace numérique qui lui est dédié ? Difficile d’y répondre, encore faudrait-il qu’on lui construisît un empire et un trône et surtout qu’on lui donnât la force de régenter nos identités numériques (individuelles et collectives). Beaucoup de petits royaumes comme Second life émergent, grandissent, atteignent leur apogée et sont annexés par les uns ou en phagocytent d’autres. Quoiqu’il en soit tous les grands empires sont constitués par l’agrégat de petits royaumes, qu’en sera-t-il alors d’un super univers composé de petits univers virtuels ? Il sera peut-être dirigé par un super potentat-avatar qui ferait la promotion du double numérique au point de fragiliser nos identités réelles. 🙂 Là on entre dans le monde la science-fiction, mais les univers virtuels ne sont-ils pas en quelque sorte de la science-fiction matérialisée. Alors wait and see !

Autres métavers (liste non exhaustive) : Entropia Universe, Habbo Hotel, PlayStation Home, Red Light Center, RuneScape

Prochainement, exploration des îles virtuelles où on parle le langage documentaire


Creative Commons License

Ce document est mis en ligne sous Licence Creative Commons.