Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

CULTURES NUMERIQUES - Page 5

  • anthologie du poète argentin Luis Benítez

    Les Éditions La Résonance viennent de sortir une anthologie du poète argentin Luis Benítez :

    Brève anthologie poétique de Luis Bénítez, Avant-propos d'Elizabeth Auster, traduction de Jean Dif, illustrations de Sebastián de Neymet, Éditions La Résonance, collection Poésie Hispano-américaine, Pau, France, 2014

     

    Luis Benítez a commencé tôt à écrire et à bâtir une œuvre, comme s’il était possédé par la création poétique. Il s’est volontairement éloignée de l’influence des grands poètes argentins et latino-américains, tels que Jorge Luis Borges, Macedonio Fernández, César Vallejo, Pablo Neruda, Octavio Paz et Nicanor Parra.

     

    Plusieurs auteurs ont participé à cette édition en Français : Kenneth WHITE, Jean DIF, Jean-Paul GAVARD-PERRET, Frédéric LACOSTE.

    Kenneth WHITE, auteur d'une apocalypse tranquille , de l'esprit nomade et autres essais  de "géopoétique" - dans la lignée des Situationnistes de la psycho-géographie ou d'une phénoménologie de l'espace Bachelardienne - déclare sans ambage : "Je me suis immédiatement senti chez moi dans la poésie de Luis Benítez" in Luis Benítez : Le Pays de la distance , Kenneth White

    Jean DIF, qui est aussi le traducteur de cette anthologie, nous livre un extrait de la Brève anthologie poétique avec un des poèmes de Luis Bénitez : " l’après-midi de l’éléphant ".

     

     

    Les Éditions La Résonance inaugurent ainsi, avec la Brève Anthologie de Luis Benítez, leur collection de Poésie Hispano-américaine, destinée à diffuser les œuvres des nouveaux poètes qui se sont révélés depuis la fin du XXe et le début du XXIe siècles.

     

  • TIC- L’infobésité, mal de notre société de l’information

     

    Dominique WOLTON est depuis l'avènement de l'Internet de masses, le pourfendeur d'une société de l'information qui se voudrait sans intermédiaires... Cependant force est de cosntater que ce n'est pas tant la qualité que la quantité d'information à disposition de tous sur le Net qui peut poser problème si on ne se discipline pas. Voici un vade-mecum de certaines méthodes en présence sur le web pour faire face à cette "infobésité" :

     

    Les métadonnées :
    Ce sont des données spécialisées dans la description des contenus. Les professionnels de l’information et du patrimoine génèrent des métadonnées depuis qu’ils gèrent des collections (des notices bibliographiques, des descriptions d’archives ou d’objets muséaux). Elles sont utilisées depuis longtemps par les moteurs de recherche, mais aucun d’entre eux (gratuit ou libre d'accès), ne sait utiliser « intelligemment » ces données en écartant les informations parasites.
    Seul le développement du Web sémantique, permettra ce tri intelligent et autorisera les applications logicielles, à partir de contenus en ligne d'origines différentes, à traiter l'information et à échanger des résultats avec d'autres applications, de manière autonome. En réponse à une simple demande vocale, un ordinateur pourra par exemple consulter un musée virtuel pour afficher une peinture en fond d’écran, ou interroger une bibliothèque numérique pour télécharger un livre électronique nouvellement disponible.
    Les moteurs de recherche intégrés aux systèmes d’exploitation des ordinateurs individuels se basent de plus en plus sur les métadonnées générées par les applications personnelles. La prochaine version de Windows inclura un outil de recherche plus puissant et instantané, comme celui déjà proposé par Mac OS X.

     

    Les agents intelligents :
    Un agent (robot logiciel autonome) apprend automatiquement les habitudes et les préférences de l’utilisateur, plus on s’en sert, plus il est efficace. Les recherches sur Internet peuvent être automatisées par les agents intelligents, préférables aux moteurs de recherche en de nombreux points :
    • ils utilisent un vocabulaire contrôlé pour parcourir le réseau avec davantage d'efficacité ;
    • ils conservent les précédentes recherches, et savent apprendre, et localiser les documents, même s'ils ont été déplacés ;
    • ils parcourent continuellement le réseau de manière automatique, aux heures de faible trafic ;
    • ils avertissent les usagers de toute nouvelle information répondant à leurs centres d’intérêt.
    Les agents savent filtrer l’information et s'adapter aux préférences, à la langue, et au niveau de connaissances de l'utilisateur.

     

    Le texte-mining :
    C’est une « Technique permettant d'automatiser le traitement de gros volumes de contenus texte pour en extraire les principales tendances et répertorier de manière statistique les différents sujets évoqués. Les techniques de texte-mining sont surtout utilisées pour des données déjà disponibles au format numérique. Sur Internet, elles peuvent être utilisées pour analyser le contenu des e-mails ou les propos tenus sur des forums. »
    A cela, viennent s’ajouter les applications capables de produire automatiquement des résumés par filtrage sémantique des textes.

     

    La taxinomie :
    « La taxinomie est l'étude théorique de la classification, de ses bases, de ses principes, des méthodes et des règles. A l'origine, le terme "taxonomie" ne s'intéresse qu'à la classification biologique. Aujourd'hui, « la taxinomie ou taxonomie » élargit son champ d'application aux objets de la pensée ». 

     

    Les systèmes de cartographie de l’information :
    La cartographie permet une représentation claire et synthétique de l’information sous forme de carte. « Elle cherche à éliminer les difficultés qu'on rencontre aux frontières des catégories de classement qu'on se fixe. Par définition, une classification est binaire, globale, statique et ne garantit pas l'unicité (deux utilisateurs pourront aboutir à deux classements différents). Au contraire, la cartographie relativise ces aspects secondaires et met visuellement en évidence les faits majeurs ».
    En se fondant sur l’agrégateur de news de Google, Newsmap déterminait l’importance médiatique relative de chaque événement (le nombre d’articles qui lui sont consacrés) et crée un tableau en conséquence, on peut y faire des requêtes croisées sur plusieurs pays et sur plusieurs thèmes.
    Autre exemple, le génial moteur de recherche Kartoo.

     

    Cette panoplie d’outils peut se décliner ou se combiner sous différentes formes au niveau des ordinateurs personnels, des serveurs locaux, et des serveurs Web. Ils peuvent être associés aux systèmes de gestion des connaissances (knowledge management), individuels ou collectifs capables d’agréger et de structurer tout type de contenu, et d’en optimiser la recherche et l’usage.

     

    Pour conclure, et pour que ce billet ne contribue pas davantage à l’infobésité ambiante, l’information ne sert à rien si elle n’est pas associée à un contexte, à une temporalité et à une classification, qui la transformeront en connaissance (ou savoir) compréhensible, transmissible et évolutive. Les recettes du knowledge management, du Web sémantique, et du texte-mining doivent nous aider à stocker et échanger des connaissances plutôt que des informations, et devraient contribuer à faire évoluer notre société de l’information vers une société du savoir, qu’on espère plus digeste.

     

     

  • Organisations virtuelles : Social Media Hub

    Pour faire écho a un dossier intitulé "au fondement des organisations virtuelles" et qui synthétisait les ouvrages de trois analystes des organisations à l'heure de l'Internet  des masses du début des années 2000, voici qu'apparaissait l'idée de Social Media Hub .

    Propos :

     

    L’organisation d’aujourd’hui fait face à un dilemme important. D’un côté, le besoin d’extension et de sécurisation de son SI, de l’autre le besoin d’interopérabilité de celui-ci avec des applications tierces et l’accès à l’information des utilisateurs à travers le web, de n’importe ou, n’importe quand et à partir de n’importe quel support.

     

    Le mouvement Open Source est à la base d’un nouveau mode de fonctionnement de l’organisation avec son écosystème qui tend à la pousser à être plus ouverte, plus flexible, plus dynamique pour s’insérer plus efficacement dans son marché et se rapprocher de ses publics.

     

    L’appropriation des applications du web par des masses d’utilisateurs de plus en plus conséquentes, cf Facebook, Google, Youtube, Wikipedia, Twitter, Linkedin ou Flickr permis l’émergence du phénomène Social Media ou Web 2.0 avec des taux d’usage au final beaucoup plus important que ceux anticipés.

     

    Aujourd’hui les organisations s’emparent du phénomène, nomment des Community Managers et élaborent des stratégies de communication multicanal incluant largement leur présence sur les applications de Social Media comme des lieux d’échange autour de leurs marques et de leurs produits. Cette reconnaissance va même au-delà et la notion de Social Product Marketing s’intègre à la panoplie d’outils de mesure du cycle de vente traditionnel qui s’élargit à la masse de prospects marquant leur intérêt pour la marque d’un simple ‘j’aime’ sur Facebook à des commentaires et des conversations plus élaborées autour des besoins et des usages. L’intérêt pour les organisations étant bien entendu d’augmenter les taux de transformation d’un état du cycle de vente à l’autre pour conduire plus de prospects vers l’acte d’achat.

     

    L’objectif est donc bien de bâtir des communautés d’intérêt et d’usage autour des services et produits de l’organisation afin de rendre tangible l’attachement à l’offre et coconstruire les futures offres de l’organisation avec ses publics.
    Du coup, la stratégie doit souvent intégrer l’interopérabilité entre son SI et des applications tierces sur internet disposant d’API ouvertes pour collecter et diffuser cette nouvelle information ’sociale’.

     

    Apparait, à ce point de la réflexion, le besoin pour un Social Media Hub capable de centraliser les informations collectées et diffusées, produites par les différents publics de l’organisation, autour de la marque et des produits. La qualité de l’accès à l’information, de la mise en place de systèmes de notification, l’approfondissement des contenus disponibles (vidéos, posts, podcasts …) sur les sujets d’intérêt doivent permettre de fidéliser les internautes et de les transformer automatiquement en utilisateurs/acheteurs puis en ambassadeurs.

     

    L’idée du Social Media Hub est donc de permettre aux membres de la communauté d’intérêt autour de l’organisation de participer, d’apprendre et de collaborer. Les services que l’on doit y trouver sont des services de blogs, de wikis, d’accès à l’information (moteur de recherche), de réseaux sociaux, de banques d’images, de calendriers d’événements, de simulateurs, de comparateurs, d’informations …
    De facto, le Social Media Hub d’une organisation doit apparaitre comme un référent, une autorité pour les moteurs de recherche du web. Son positionnement naturel doit donc être particulièrement bien travaillé.
    La reconnaissance des utilisateurs doit y être facilitée (pas de fastidieux formulaires à remplir si j’ai déjà un profil linkedin, facebook ou twitter auquel raccorder mon usage de tel ou tel Social Media Hub). Cela rassure et simplifie la contribution.
    l est enfin nécessaire de proposer un maximum d’outils de reporting et de monitoring afin de nourrir la réflexion sur l’évolution du système global de l’organisation et permettre le meilleur ROI possible.
    Le Social Media Hub doit donc être relié au SI de l’organisation et alimenter son CRM, son CMS et son ERP de la façon la plus automatisée possible.

     

     

     

     

     

     

     

  • surveillance numérique

    La littérature est conséquente concernant l'usage des technologies numériques à des fins de surveillance, que ce soit par les Etats et leurs organes officiels ou par les sociétés privées elle-mêmes (on pense actuellement aux "géants du web" qui collectent de manière industrielle nos données à des fins commerciales ou autre  : par exemple pour les relier aux données de santé avec "Google genomics").

    Les concepts pour représenter la surveillance numérique à grande échelle ne manquent pas : "catopticon" pour Jean Gabriel GANASCIA, "gouvernementalité algorithmique" pour Antoinette ROUVROY, ou simplement société cybernétique si on se réfère aux travaux passés des cybernéticiens et à leur volet sociétal (Norbert WIENER, A. MOLES en France)...

    Voici une intéressante illustration du propos sous forme de GIF animé et qui semble figurer la société de surveillance mise en place de manière empirique dans un lieu comme Singapour :

    surveillance-society.gif

     

     

    the social laboratory singapore surveillance state

     Un propos assez foucaldien et qui illustre bien l'usage fait des technologies numériques dans toute leur "splendeur"...

     

  • Introduction aux humanités numériques

    Ou champ des "digital humanities"...

    Les humanités numériques sont un fourmillant domaine de la connaissance universitaire aujourd'hui, ayant émergé avec le numérique de masse dans les années 90 et rassemblant des outils, des méthodes, des pratiques et des chercheurs issus de toutes les disciplines des sciences humaines.

    On y trouve pêle mêle les sociologues qui dressent des cartes des réseaux sociaux en utilisant moultes crawlers, bases de données et cartes pour dresser une photographie des relations sociales; des historiens qui construisent de vastes bases de données d'information à l'aide de meta-langages;  des archéologues qui simulent en 3 dimensions des espaces appartenant au passé; etc.

    Les pratiques et usages sont si nombreux qu'on a l'impression qu'ils noieraient presque les théories qui devraient émerger de cet espace cognitif...

    Et l'actualité s'en mêle puisqu'un BAC "digital humanities" est en discussion (passionnée) en ce moment dans l'éducation nationale et les forums universitaires des chercheurs intéressés.

    Pour avoir une idée du domaine voici un éclairage sur ce champ par l'un de ces acteurs :

     

     

     

  • Réseaux Bayésiens - recension

     

    je viens de terminer la lecture de l'excellent ouvrage « Réseaux Bayésiens » (Patrick NAïM , Pierre-Henri WUILLEMIN, Philippe LERAY , Olivier POURRET, Anna BECKER - Paris: Eyrolles ) .

    Lecteur de la première édition, cette nouvelle mouture m’a agréablement surpris par la richesse et la diversité de son contenu. Celui-ci ne fait pas l’impasse sur les aspects pratiques et méthodologiques de mise en œuvre des réseaux bayésiens, ce qui n’était pas exactement le cas de la première édition… Ceci semble traduire une plus grande maturité dans la compréhension des apports « métiers » des réseaux bayésiens. Il est vrai que ce domaine est extrêmement récent et que les applications en entreprise le sont encore plus !

    D'autre part, Réseaux Bayésiens est très bien construit et témoigne d’une véritable réflexion de la part des auteurs sur la manière d’introduire progressivement et surtout simplement un sujet qui peut être ardu.

    Je recommande donc cet ouvrage à tous ceux qui sont confrontés à des problèmes d'analyse de données, d'aide à la décision ou bien encore de modélisation de connaissances !

     

    Destinés aux étudiants (2nd et 3ème cycle) et aux professionnels, cet ouvrage est une excellente introduction à un domaine encore récent de l’ingénierie de la connaissance : les réseaux bayésiens ( (Technique mathématique combinant statistiques et intelligence articielle, les réseaux bayésiens sont des modèles de connaissances pour l'aide à la décision, le diagnostic ou le contrôle de systèmes complexes. Pour en savoir plus sur les réseaux bayésiens, vous pouvez télécharger un mini livre blanc que j'ai écris en 2002 sur le sujet.)

    Dès les premières lignes de l’avant-propos le lecteur est plongé au cœur des enjeux de la société de l’information dans laquelle les réseaux bayésiens ont un rôle déterminant à jouer : rendre l’information intelligible grâce à la connaissance !

    De manière à pouvoir s’adresser aux différents profils de lecteurs, l’ouvrage est construit autour de trois parties.

    Après un avant propos qui permet au lecteur d’appréhender les différents aspects des réseaux bayésiens grâce à des propos clairs, la première partie de l’ouvrage, « Introduction aux réseaux bayésiens », s’attache à présenter les réseaux bayésiens d’une manière intuitive sans pour autant faire l’économie des fondements mathématiques et algorithmiques de leur construction et de leur utilisation.

    La seconde partie, intitulée « Cadre théorique et algorithmes », s’adresse quant à elle aux lecteurs qui souhaitent approfondir les aspects théoriques des réseaux bayésiens. Il s’agit d’une étude détaillée du cadre théorique qui s’adresse plus particulièrement aux étudiants.

    Beaucoup plus opérationnelle, la troisième partie « Méthodologie de mise en œuvre et étude de cas » présente les réseaux bayésiens d’un point de vue très pratique. Elle aborde la méthodologie de mise en œuvre et présente plusieurs cas concrets d’utilisation en milieu industriel.

    Enfin, des annexes viennent compléter ce panorama avec des aspects théoriques (présentation de la théorie des graphes et des probabilités) et des aspects très pratiques (présentation des logiciels mettant en œuvre des réseaux bayésiens).