Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science

  • TIC- L’infobésité, mal de notre société de l’information

     

    Dominique WOLTON est depuis l'avènement de l'Internet de masses, le pourfendeur d'une société de l'information qui se voudrait sans intermédiaires... Cependant force est de cosntater que ce n'est pas tant la qualité que la quantité d'information à disposition de tous sur le Net qui peut poser problème si on ne se discipline pas. Voici un vade-mecum de certaines méthodes en présence sur le web pour faire face à cette "infobésité" :

     

    Les métadonnées :
    Ce sont des données spécialisées dans la description des contenus. Les professionnels de l’information et du patrimoine génèrent des métadonnées depuis qu’ils gèrent des collections (des notices bibliographiques, des descriptions d’archives ou d’objets muséaux). Elles sont utilisées depuis longtemps par les moteurs de recherche, mais aucun d’entre eux (gratuit ou libre d'accès), ne sait utiliser « intelligemment » ces données en écartant les informations parasites.
    Seul le développement du Web sémantique, permettra ce tri intelligent et autorisera les applications logicielles, à partir de contenus en ligne d'origines différentes, à traiter l'information et à échanger des résultats avec d'autres applications, de manière autonome. En réponse à une simple demande vocale, un ordinateur pourra par exemple consulter un musée virtuel pour afficher une peinture en fond d’écran, ou interroger une bibliothèque numérique pour télécharger un livre électronique nouvellement disponible.
    Les moteurs de recherche intégrés aux systèmes d’exploitation des ordinateurs individuels se basent de plus en plus sur les métadonnées générées par les applications personnelles. La prochaine version de Windows inclura un outil de recherche plus puissant et instantané, comme celui déjà proposé par Mac OS X.

     

    Les agents intelligents :
    Un agent (robot logiciel autonome) apprend automatiquement les habitudes et les préférences de l’utilisateur, plus on s’en sert, plus il est efficace. Les recherches sur Internet peuvent être automatisées par les agents intelligents, préférables aux moteurs de recherche en de nombreux points :
    • ils utilisent un vocabulaire contrôlé pour parcourir le réseau avec davantage d'efficacité ;
    • ils conservent les précédentes recherches, et savent apprendre, et localiser les documents, même s'ils ont été déplacés ;
    • ils parcourent continuellement le réseau de manière automatique, aux heures de faible trafic ;
    • ils avertissent les usagers de toute nouvelle information répondant à leurs centres d’intérêt.
    Les agents savent filtrer l’information et s'adapter aux préférences, à la langue, et au niveau de connaissances de l'utilisateur.

     

    Le texte-mining :
    C’est une « Technique permettant d'automatiser le traitement de gros volumes de contenus texte pour en extraire les principales tendances et répertorier de manière statistique les différents sujets évoqués. Les techniques de texte-mining sont surtout utilisées pour des données déjà disponibles au format numérique. Sur Internet, elles peuvent être utilisées pour analyser le contenu des e-mails ou les propos tenus sur des forums. »
    A cela, viennent s’ajouter les applications capables de produire automatiquement des résumés par filtrage sémantique des textes.

     

    La taxinomie :
    « La taxinomie est l'étude théorique de la classification, de ses bases, de ses principes, des méthodes et des règles. A l'origine, le terme "taxonomie" ne s'intéresse qu'à la classification biologique. Aujourd'hui, « la taxinomie ou taxonomie » élargit son champ d'application aux objets de la pensée ». 

     

    Les systèmes de cartographie de l’information :
    La cartographie permet une représentation claire et synthétique de l’information sous forme de carte. « Elle cherche à éliminer les difficultés qu'on rencontre aux frontières des catégories de classement qu'on se fixe. Par définition, une classification est binaire, globale, statique et ne garantit pas l'unicité (deux utilisateurs pourront aboutir à deux classements différents). Au contraire, la cartographie relativise ces aspects secondaires et met visuellement en évidence les faits majeurs ».
    En se fondant sur l’agrégateur de news de Google, Newsmap déterminait l’importance médiatique relative de chaque événement (le nombre d’articles qui lui sont consacrés) et crée un tableau en conséquence, on peut y faire des requêtes croisées sur plusieurs pays et sur plusieurs thèmes.
    Autre exemple, le génial moteur de recherche Kartoo.

     

    Cette panoplie d’outils peut se décliner ou se combiner sous différentes formes au niveau des ordinateurs personnels, des serveurs locaux, et des serveurs Web. Ils peuvent être associés aux systèmes de gestion des connaissances (knowledge management), individuels ou collectifs capables d’agréger et de structurer tout type de contenu, et d’en optimiser la recherche et l’usage.

     

    Pour conclure, et pour que ce billet ne contribue pas davantage à l’infobésité ambiante, l’information ne sert à rien si elle n’est pas associée à un contexte, à une temporalité et à une classification, qui la transformeront en connaissance (ou savoir) compréhensible, transmissible et évolutive. Les recettes du knowledge management, du Web sémantique, et du texte-mining doivent nous aider à stocker et échanger des connaissances plutôt que des informations, et devraient contribuer à faire évoluer notre société de l’information vers une société du savoir, qu’on espère plus digeste.

     

     

  • surveillance numérique

    La littérature est conséquente concernant l'usage des technologies numériques à des fins de surveillance, que ce soit par les Etats et leurs organes officiels ou par les sociétés privées elle-mêmes (on pense actuellement aux "géants du web" qui collectent de manière industrielle nos données à des fins commerciales ou autre  : par exemple pour les relier aux données de santé avec "Google genomics").

    Les concepts pour représenter la surveillance numérique à grande échelle ne manquent pas : "catopticon" pour Jean Gabriel GANASCIA, "gouvernementalité algorithmique" pour Antoinette ROUVROY, ou simplement société cybernétique si on se réfère aux travaux passés des cybernéticiens et à leur volet sociétal (Norbert WIENER, A. MOLES en France)...

    Voici une intéressante illustration du propos sous forme de GIF animé et qui semble figurer la société de surveillance mise en place de manière empirique dans un lieu comme Singapour :

    surveillance-society.gif

     

     

    the social laboratory singapore surveillance state

     Un propos assez foucaldien et qui illustre bien l'usage fait des technologies numériques dans toute leur "splendeur"...

     

  • Introduction aux humanités numériques

    Ou champ des "digital humanities"...

    Les humanités numériques sont un fourmillant domaine de la connaissance universitaire aujourd'hui, ayant émergé avec le numérique de masse dans les années 90 et rassemblant des outils, des méthodes, des pratiques et des chercheurs issus de toutes les disciplines des sciences humaines.

    On y trouve pêle mêle les sociologues qui dressent des cartes des réseaux sociaux en utilisant moultes crawlers, bases de données et cartes pour dresser une photographie des relations sociales; des historiens qui construisent de vastes bases de données d'information à l'aide de meta-langages;  des archéologues qui simulent en 3 dimensions des espaces appartenant au passé; etc.

    Les pratiques et usages sont si nombreux qu'on a l'impression qu'ils noieraient presque les théories qui devraient émerger de cet espace cognitif...

    Et l'actualité s'en mêle puisqu'un BAC "digital humanities" est en discussion (passionnée) en ce moment dans l'éducation nationale et les forums universitaires des chercheurs intéressés.

    Pour avoir une idée du domaine voici un éclairage sur ce champ par l'un de ces acteurs :