Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

  • TIC- L’infobésité, mal de notre société de l’information

     

    Dominique WOLTON est depuis l'avènement de l'Internet de masses, le pourfendeur d'une société de l'information qui se voudrait sans intermédiaires... Cependant force est de cosntater que ce n'est pas tant la qualité que la quantité d'information à disposition de tous sur le Net qui peut poser problème si on ne se discipline pas. Voici un vade-mecum de certaines méthodes en présence sur le web pour faire face à cette "infobésité" :

     

    Les métadonnées :
    Ce sont des données spécialisées dans la description des contenus. Les professionnels de l’information et du patrimoine génèrent des métadonnées depuis qu’ils gèrent des collections (des notices bibliographiques, des descriptions d’archives ou d’objets muséaux). Elles sont utilisées depuis longtemps par les moteurs de recherche, mais aucun d’entre eux (gratuit ou libre d'accès), ne sait utiliser « intelligemment » ces données en écartant les informations parasites.
    Seul le développement du Web sémantique, permettra ce tri intelligent et autorisera les applications logicielles, à partir de contenus en ligne d'origines différentes, à traiter l'information et à échanger des résultats avec d'autres applications, de manière autonome. En réponse à une simple demande vocale, un ordinateur pourra par exemple consulter un musée virtuel pour afficher une peinture en fond d’écran, ou interroger une bibliothèque numérique pour télécharger un livre électronique nouvellement disponible.
    Les moteurs de recherche intégrés aux systèmes d’exploitation des ordinateurs individuels se basent de plus en plus sur les métadonnées générées par les applications personnelles. La prochaine version de Windows inclura un outil de recherche plus puissant et instantané, comme celui déjà proposé par Mac OS X.

     

    Les agents intelligents :
    Un agent (robot logiciel autonome) apprend automatiquement les habitudes et les préférences de l’utilisateur, plus on s’en sert, plus il est efficace. Les recherches sur Internet peuvent être automatisées par les agents intelligents, préférables aux moteurs de recherche en de nombreux points :
    • ils utilisent un vocabulaire contrôlé pour parcourir le réseau avec davantage d'efficacité ;
    • ils conservent les précédentes recherches, et savent apprendre, et localiser les documents, même s'ils ont été déplacés ;
    • ils parcourent continuellement le réseau de manière automatique, aux heures de faible trafic ;
    • ils avertissent les usagers de toute nouvelle information répondant à leurs centres d’intérêt.
    Les agents savent filtrer l’information et s'adapter aux préférences, à la langue, et au niveau de connaissances de l'utilisateur.

     

    Le texte-mining :
    C’est une « Technique permettant d'automatiser le traitement de gros volumes de contenus texte pour en extraire les principales tendances et répertorier de manière statistique les différents sujets évoqués. Les techniques de texte-mining sont surtout utilisées pour des données déjà disponibles au format numérique. Sur Internet, elles peuvent être utilisées pour analyser le contenu des e-mails ou les propos tenus sur des forums. »
    A cela, viennent s’ajouter les applications capables de produire automatiquement des résumés par filtrage sémantique des textes.

     

    La taxinomie :
    « La taxinomie est l'étude théorique de la classification, de ses bases, de ses principes, des méthodes et des règles. A l'origine, le terme "taxonomie" ne s'intéresse qu'à la classification biologique. Aujourd'hui, « la taxinomie ou taxonomie » élargit son champ d'application aux objets de la pensée ». 

     

    Les systèmes de cartographie de l’information :
    La cartographie permet une représentation claire et synthétique de l’information sous forme de carte. « Elle cherche à éliminer les difficultés qu'on rencontre aux frontières des catégories de classement qu'on se fixe. Par définition, une classification est binaire, globale, statique et ne garantit pas l'unicité (deux utilisateurs pourront aboutir à deux classements différents). Au contraire, la cartographie relativise ces aspects secondaires et met visuellement en évidence les faits majeurs ».
    En se fondant sur l’agrégateur de news de Google, Newsmap déterminait l’importance médiatique relative de chaque événement (le nombre d’articles qui lui sont consacrés) et crée un tableau en conséquence, on peut y faire des requêtes croisées sur plusieurs pays et sur plusieurs thèmes.
    Autre exemple, le génial moteur de recherche Kartoo.

     

    Cette panoplie d’outils peut se décliner ou se combiner sous différentes formes au niveau des ordinateurs personnels, des serveurs locaux, et des serveurs Web. Ils peuvent être associés aux systèmes de gestion des connaissances (knowledge management), individuels ou collectifs capables d’agréger et de structurer tout type de contenu, et d’en optimiser la recherche et l’usage.

     

    Pour conclure, et pour que ce billet ne contribue pas davantage à l’infobésité ambiante, l’information ne sert à rien si elle n’est pas associée à un contexte, à une temporalité et à une classification, qui la transformeront en connaissance (ou savoir) compréhensible, transmissible et évolutive. Les recettes du knowledge management, du Web sémantique, et du texte-mining doivent nous aider à stocker et échanger des connaissances plutôt que des informations, et devraient contribuer à faire évoluer notre société de l’information vers une société du savoir, qu’on espère plus digeste.

     

     

  • Organisations virtuelles : Social Media Hub

    Pour faire écho a un dossier intitulé "au fondement des organisations virtuelles" et qui synthétisait les ouvrages de trois analystes des organisations à l'heure de l'Internet  des masses du début des années 2000, voici qu'apparaissait l'idée de Social Media Hub .

    Propos :

     

    L’organisation d’aujourd’hui fait face à un dilemme important. D’un côté, le besoin d’extension et de sécurisation de son SI, de l’autre le besoin d’interopérabilité de celui-ci avec des applications tierces et l’accès à l’information des utilisateurs à travers le web, de n’importe ou, n’importe quand et à partir de n’importe quel support.

     

    Le mouvement Open Source est à la base d’un nouveau mode de fonctionnement de l’organisation avec son écosystème qui tend à la pousser à être plus ouverte, plus flexible, plus dynamique pour s’insérer plus efficacement dans son marché et se rapprocher de ses publics.

     

    L’appropriation des applications du web par des masses d’utilisateurs de plus en plus conséquentes, cf Facebook, Google, Youtube, Wikipedia, Twitter, Linkedin ou Flickr permis l’émergence du phénomène Social Media ou Web 2.0 avec des taux d’usage au final beaucoup plus important que ceux anticipés.

     

    Aujourd’hui les organisations s’emparent du phénomène, nomment des Community Managers et élaborent des stratégies de communication multicanal incluant largement leur présence sur les applications de Social Media comme des lieux d’échange autour de leurs marques et de leurs produits. Cette reconnaissance va même au-delà et la notion de Social Product Marketing s’intègre à la panoplie d’outils de mesure du cycle de vente traditionnel qui s’élargit à la masse de prospects marquant leur intérêt pour la marque d’un simple ‘j’aime’ sur Facebook à des commentaires et des conversations plus élaborées autour des besoins et des usages. L’intérêt pour les organisations étant bien entendu d’augmenter les taux de transformation d’un état du cycle de vente à l’autre pour conduire plus de prospects vers l’acte d’achat.

     

    L’objectif est donc bien de bâtir des communautés d’intérêt et d’usage autour des services et produits de l’organisation afin de rendre tangible l’attachement à l’offre et coconstruire les futures offres de l’organisation avec ses publics.
    Du coup, la stratégie doit souvent intégrer l’interopérabilité entre son SI et des applications tierces sur internet disposant d’API ouvertes pour collecter et diffuser cette nouvelle information ’sociale’.

     

    Apparait, à ce point de la réflexion, le besoin pour un Social Media Hub capable de centraliser les informations collectées et diffusées, produites par les différents publics de l’organisation, autour de la marque et des produits. La qualité de l’accès à l’information, de la mise en place de systèmes de notification, l’approfondissement des contenus disponibles (vidéos, posts, podcasts …) sur les sujets d’intérêt doivent permettre de fidéliser les internautes et de les transformer automatiquement en utilisateurs/acheteurs puis en ambassadeurs.

     

    L’idée du Social Media Hub est donc de permettre aux membres de la communauté d’intérêt autour de l’organisation de participer, d’apprendre et de collaborer. Les services que l’on doit y trouver sont des services de blogs, de wikis, d’accès à l’information (moteur de recherche), de réseaux sociaux, de banques d’images, de calendriers d’événements, de simulateurs, de comparateurs, d’informations …
    De facto, le Social Media Hub d’une organisation doit apparaitre comme un référent, une autorité pour les moteurs de recherche du web. Son positionnement naturel doit donc être particulièrement bien travaillé.
    La reconnaissance des utilisateurs doit y être facilitée (pas de fastidieux formulaires à remplir si j’ai déjà un profil linkedin, facebook ou twitter auquel raccorder mon usage de tel ou tel Social Media Hub). Cela rassure et simplifie la contribution.
    l est enfin nécessaire de proposer un maximum d’outils de reporting et de monitoring afin de nourrir la réflexion sur l’évolution du système global de l’organisation et permettre le meilleur ROI possible.
    Le Social Media Hub doit donc être relié au SI de l’organisation et alimenter son CRM, son CMS et son ERP de la façon la plus automatisée possible.