Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

TIC- L’infobésité, mal de notre société de l’information

 

Dominique WOLTON est depuis l'avènement de l'Internet de masses, le pourfendeur d'une société de l'information qui se voudrait sans intermédiaires... Cependant force est de cosntater que ce n'est pas tant la qualité que la quantité d'information à disposition de tous sur le Net qui peut poser problème si on ne se discipline pas. Voici un vade-mecum de certaines méthodes en présence sur le web pour faire face à cette "infobésité" :

 

Les métadonnées :
Ce sont des données spécialisées dans la description des contenus. Les professionnels de l’information et du patrimoine génèrent des métadonnées depuis qu’ils gèrent des collections (des notices bibliographiques, des descriptions d’archives ou d’objets muséaux). Elles sont utilisées depuis longtemps par les moteurs de recherche, mais aucun d’entre eux (gratuit ou libre d'accès), ne sait utiliser « intelligemment » ces données en écartant les informations parasites.
Seul le développement du Web sémantique, permettra ce tri intelligent et autorisera les applications logicielles, à partir de contenus en ligne d'origines différentes, à traiter l'information et à échanger des résultats avec d'autres applications, de manière autonome. En réponse à une simple demande vocale, un ordinateur pourra par exemple consulter un musée virtuel pour afficher une peinture en fond d’écran, ou interroger une bibliothèque numérique pour télécharger un livre électronique nouvellement disponible.
Les moteurs de recherche intégrés aux systèmes d’exploitation des ordinateurs individuels se basent de plus en plus sur les métadonnées générées par les applications personnelles. La prochaine version de Windows inclura un outil de recherche plus puissant et instantané, comme celui déjà proposé par Mac OS X.

 

Les agents intelligents :
Un agent (robot logiciel autonome) apprend automatiquement les habitudes et les préférences de l’utilisateur, plus on s’en sert, plus il est efficace. Les recherches sur Internet peuvent être automatisées par les agents intelligents, préférables aux moteurs de recherche en de nombreux points :
• ils utilisent un vocabulaire contrôlé pour parcourir le réseau avec davantage d'efficacité ;
• ils conservent les précédentes recherches, et savent apprendre, et localiser les documents, même s'ils ont été déplacés ;
• ils parcourent continuellement le réseau de manière automatique, aux heures de faible trafic ;
• ils avertissent les usagers de toute nouvelle information répondant à leurs centres d’intérêt.
Les agents savent filtrer l’information et s'adapter aux préférences, à la langue, et au niveau de connaissances de l'utilisateur.

 

Le texte-mining :
C’est une « Technique permettant d'automatiser le traitement de gros volumes de contenus texte pour en extraire les principales tendances et répertorier de manière statistique les différents sujets évoqués. Les techniques de texte-mining sont surtout utilisées pour des données déjà disponibles au format numérique. Sur Internet, elles peuvent être utilisées pour analyser le contenu des e-mails ou les propos tenus sur des forums. »
A cela, viennent s’ajouter les applications capables de produire automatiquement des résumés par filtrage sémantique des textes.

 

La taxinomie :
« La taxinomie est l'étude théorique de la classification, de ses bases, de ses principes, des méthodes et des règles. A l'origine, le terme "taxonomie" ne s'intéresse qu'à la classification biologique. Aujourd'hui, « la taxinomie ou taxonomie » élargit son champ d'application aux objets de la pensée ». 

 

Les systèmes de cartographie de l’information :
La cartographie permet une représentation claire et synthétique de l’information sous forme de carte. « Elle cherche à éliminer les difficultés qu'on rencontre aux frontières des catégories de classement qu'on se fixe. Par définition, une classification est binaire, globale, statique et ne garantit pas l'unicité (deux utilisateurs pourront aboutir à deux classements différents). Au contraire, la cartographie relativise ces aspects secondaires et met visuellement en évidence les faits majeurs ».
En se fondant sur l’agrégateur de news de Google, Newsmap déterminait l’importance médiatique relative de chaque événement (le nombre d’articles qui lui sont consacrés) et crée un tableau en conséquence, on peut y faire des requêtes croisées sur plusieurs pays et sur plusieurs thèmes.
Autre exemple, le génial moteur de recherche Kartoo.

 

Cette panoplie d’outils peut se décliner ou se combiner sous différentes formes au niveau des ordinateurs personnels, des serveurs locaux, et des serveurs Web. Ils peuvent être associés aux systèmes de gestion des connaissances (knowledge management), individuels ou collectifs capables d’agréger et de structurer tout type de contenu, et d’en optimiser la recherche et l’usage.

 

Pour conclure, et pour que ce billet ne contribue pas davantage à l’infobésité ambiante, l’information ne sert à rien si elle n’est pas associée à un contexte, à une temporalité et à une classification, qui la transformeront en connaissance (ou savoir) compréhensible, transmissible et évolutive. Les recettes du knowledge management, du Web sémantique, et du texte-mining doivent nous aider à stocker et échanger des connaissances plutôt que des informations, et devraient contribuer à faire évoluer notre société de l’information vers une société du savoir, qu’on espère plus digeste.

 

 

Les commentaires sont fermés.