Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

30/12/2014

TIC- L’infobésité, mal de notre société de l’information

 

Dominique WOLTON est depuis l'avènement de l'Internet de masses, le pourfendeur d'une société de l'information qui se voudrait sans intermédiaires... Cependant force est de cosntater que ce n'est pas tant la qualité que la quantité d'information à disposition de tous sur le Net qui peut poser problème si on ne se discipline pas. Voici un vade-mecum de certaines méthodes en présence sur le web pour faire face à cette "infobésité" :

 

Les métadonnées :
Ce sont des données spécialisées dans la description des contenus. Les professionnels de l’information et du patrimoine génèrent des métadonnées depuis qu’ils gèrent des collections (des notices bibliographiques, des descriptions d’archives ou d’objets muséaux). Elles sont utilisées depuis longtemps par les moteurs de recherche, mais aucun d’entre eux (gratuit ou libre d'accès), ne sait utiliser « intelligemment » ces données en écartant les informations parasites.
Seul le développement du Web sémantique, permettra ce tri intelligent et autorisera les applications logicielles, à partir de contenus en ligne d'origines différentes, à traiter l'information et à échanger des résultats avec d'autres applications, de manière autonome. En réponse à une simple demande vocale, un ordinateur pourra par exemple consulter un musée virtuel pour afficher une peinture en fond d’écran, ou interroger une bibliothèque numérique pour télécharger un livre électronique nouvellement disponible.
Les moteurs de recherche intégrés aux systèmes d’exploitation des ordinateurs individuels se basent de plus en plus sur les métadonnées générées par les applications personnelles. La prochaine version de Windows inclura un outil de recherche plus puissant et instantané, comme celui déjà proposé par Mac OS X.

 

Les agents intelligents :
Un agent (robot logiciel autonome) apprend automatiquement les habitudes et les préférences de l’utilisateur, plus on s’en sert, plus il est efficace. Les recherches sur Internet peuvent être automatisées par les agents intelligents, préférables aux moteurs de recherche en de nombreux points :
• ils utilisent un vocabulaire contrôlé pour parcourir le réseau avec davantage d'efficacité ;
• ils conservent les précédentes recherches, et savent apprendre, et localiser les documents, même s'ils ont été déplacés ;
• ils parcourent continuellement le réseau de manière automatique, aux heures de faible trafic ;
• ils avertissent les usagers de toute nouvelle information répondant à leurs centres d’intérêt.
Les agents savent filtrer l’information et s'adapter aux préférences, à la langue, et au niveau de connaissances de l'utilisateur.

 

Le texte-mining :
C’est une « Technique permettant d'automatiser le traitement de gros volumes de contenus texte pour en extraire les principales tendances et répertorier de manière statistique les différents sujets évoqués. Les techniques de texte-mining sont surtout utilisées pour des données déjà disponibles au format numérique. Sur Internet, elles peuvent être utilisées pour analyser le contenu des e-mails ou les propos tenus sur des forums. »
A cela, viennent s’ajouter les applications capables de produire automatiquement des résumés par filtrage sémantique des textes.

 

La taxinomie :
« La taxinomie est l'étude théorique de la classification, de ses bases, de ses principes, des méthodes et des règles. A l'origine, le terme "taxonomie" ne s'intéresse qu'à la classification biologique. Aujourd'hui, « la taxinomie ou taxonomie » élargit son champ d'application aux objets de la pensée ». 

 

Les systèmes de cartographie de l’information :
La cartographie permet une représentation claire et synthétique de l’information sous forme de carte. « Elle cherche à éliminer les difficultés qu'on rencontre aux frontières des catégories de classement qu'on se fixe. Par définition, une classification est binaire, globale, statique et ne garantit pas l'unicité (deux utilisateurs pourront aboutir à deux classements différents). Au contraire, la cartographie relativise ces aspects secondaires et met visuellement en évidence les faits majeurs ».
En se fondant sur l’agrégateur de news de Google, Newsmap déterminait l’importance médiatique relative de chaque événement (le nombre d’articles qui lui sont consacrés) et crée un tableau en conséquence, on peut y faire des requêtes croisées sur plusieurs pays et sur plusieurs thèmes.
Autre exemple, le génial moteur de recherche Kartoo.

 

Cette panoplie d’outils peut se décliner ou se combiner sous différentes formes au niveau des ordinateurs personnels, des serveurs locaux, et des serveurs Web. Ils peuvent être associés aux systèmes de gestion des connaissances (knowledge management), individuels ou collectifs capables d’agréger et de structurer tout type de contenu, et d’en optimiser la recherche et l’usage.

 

Pour conclure, et pour que ce billet ne contribue pas davantage à l’infobésité ambiante, l’information ne sert à rien si elle n’est pas associée à un contexte, à une temporalité et à une classification, qui la transformeront en connaissance (ou savoir) compréhensible, transmissible et évolutive. Les recettes du knowledge management, du Web sémantique, et du texte-mining doivent nous aider à stocker et échanger des connaissances plutôt que des informations, et devraient contribuer à faire évoluer notre société de l’information vers une société du savoir, qu’on espère plus digeste.

 

 

15:20 Publié dans Science | Lien permanent | Commentaires (0)

11/12/2014

Organisations virtuelles : Social Media Hub

Pour faire écho a un dossier intitulé "au fondement des organisations virtuelles" et qui synthétisait les ouvrages de trois analystes des organisations à l'heure de l'Internet  des masses du début des années 2000, voici qu'apparaissait l'idée de Social Media Hub .

Propos :

 

L’organisation d’aujourd’hui fait face à un dilemme important. D’un côté, le besoin d’extension et de sécurisation de son SI, de l’autre le besoin d’interopérabilité de celui-ci avec des applications tierces et l’accès à l’information des utilisateurs à travers le web, de n’importe ou, n’importe quand et à partir de n’importe quel support.

 

Le mouvement Open Source est à la base d’un nouveau mode de fonctionnement de l’organisation avec son écosystème qui tend à la pousser à être plus ouverte, plus flexible, plus dynamique pour s’insérer plus efficacement dans son marché et se rapprocher de ses publics.

 

L’appropriation des applications du web par des masses d’utilisateurs de plus en plus conséquentes, cf Facebook, Google, Youtube, Wikipedia, Twitter, Linkedin ou Flickr permis l’émergence du phénomène Social Media ou Web 2.0 avec des taux d’usage au final beaucoup plus important que ceux anticipés.

 

Aujourd’hui les organisations s’emparent du phénomène, nomment des Community Managers et élaborent des stratégies de communication multicanal incluant largement leur présence sur les applications de Social Media comme des lieux d’échange autour de leurs marques et de leurs produits. Cette reconnaissance va même au-delà et la notion de Social Product Marketing s’intègre à la panoplie d’outils de mesure du cycle de vente traditionnel qui s’élargit à la masse de prospects marquant leur intérêt pour la marque d’un simple ‘j’aime’ sur Facebook à des commentaires et des conversations plus élaborées autour des besoins et des usages. L’intérêt pour les organisations étant bien entendu d’augmenter les taux de transformation d’un état du cycle de vente à l’autre pour conduire plus de prospects vers l’acte d’achat.

 

L’objectif est donc bien de bâtir des communautés d’intérêt et d’usage autour des services et produits de l’organisation afin de rendre tangible l’attachement à l’offre et coconstruire les futures offres de l’organisation avec ses publics.
Du coup, la stratégie doit souvent intégrer l’interopérabilité entre son SI et des applications tierces sur internet disposant d’API ouvertes pour collecter et diffuser cette nouvelle information ’sociale’.

 

Apparait, à ce point de la réflexion, le besoin pour un Social Media Hub capable de centraliser les informations collectées et diffusées, produites par les différents publics de l’organisation, autour de la marque et des produits. La qualité de l’accès à l’information, de la mise en place de systèmes de notification, l’approfondissement des contenus disponibles (vidéos, posts, podcasts …) sur les sujets d’intérêt doivent permettre de fidéliser les internautes et de les transformer automatiquement en utilisateurs/acheteurs puis en ambassadeurs.

 

L’idée du Social Media Hub est donc de permettre aux membres de la communauté d’intérêt autour de l’organisation de participer, d’apprendre et de collaborer. Les services que l’on doit y trouver sont des services de blogs, de wikis, d’accès à l’information (moteur de recherche), de réseaux sociaux, de banques d’images, de calendriers d’événements, de simulateurs, de comparateurs, d’informations …
De facto, le Social Media Hub d’une organisation doit apparaitre comme un référent, une autorité pour les moteurs de recherche du web. Son positionnement naturel doit donc être particulièrement bien travaillé.
La reconnaissance des utilisateurs doit y être facilitée (pas de fastidieux formulaires à remplir si j’ai déjà un profil linkedin, facebook ou twitter auquel raccorder mon usage de tel ou tel Social Media Hub). Cela rassure et simplifie la contribution.
l est enfin nécessaire de proposer un maximum d’outils de reporting et de monitoring afin de nourrir la réflexion sur l’évolution du système global de l’organisation et permettre le meilleur ROI possible.
Le Social Media Hub doit donc être relié au SI de l’organisation et alimenter son CRM, son CMS et son ERP de la façon la plus automatisée possible.

 

 

 

 

 

 

 

17:32 Publié dans Web | Lien permanent | Commentaires (0)

09/11/2014

surveillance numérique

La littérature est conséquente concernant l'usage des technologies numériques à des fins de surveillance, que ce soit par les Etats et leurs organes officiels ou par les sociétés privées elle-mêmes (on pense actuellement aux "géants du web" qui collectent de manière industrielle nos données à des fins commerciales ou autre  : par exemple pour les relier aux données de santé avec "Google genomics").

Les concepts pour représenter la surveillance numérique à grande échelle ne manquent pas : "catopticon" pour Jean Gabriel GANASCIA, "gouvernementalité algorithmique" pour Antoinette ROUVROY, ou simplement société cybernétique si on se réfère aux travaux passés des cybernéticiens et à leur volet sociétal (Norbert WIENER, A. MOLES en France)...

Voici une intéressante illustration du propos sous forme de GIF animé et qui semble figurer la société de surveillance mise en place de manière empirique dans un lieu comme Singapour :

surveillance-society.gif

 

 

the social laboratory singapore surveillance state

 Un propos assez foucaldien et qui illustre bien l'usage fait des technologies numériques dans toute leur "splendeur"...

 

20:38 Publié dans Science | Lien permanent | Commentaires (0)

13/10/2014

Introduction aux humanités numériques

Ou champ des "digital humanities"...

Les humanités numériques sont un fourmillant domaine de la connaissance universitaire aujourd'hui, ayant émergé avec le numérique de masse dans les années 90 et rassemblant des outils, des méthodes, des pratiques et des chercheurs issus de toutes les disciplines des sciences humaines.

On y trouve pêle mêle les sociologues qui dressent des cartes des réseaux sociaux en utilisant moultes crawlers, bases de données et cartes pour dresser une photographie des relations sociales; des historiens qui construisent de vastes bases de données d'information à l'aide de meta-langages;  des archéologues qui simulent en 3 dimensions des espaces appartenant au passé; etc.

Les pratiques et usages sont si nombreux qu'on a l'impression qu'ils noieraient presque les théories qui devraient émerger de cet espace cognitif...

Et l'actualité s'en mêle puisqu'un BAC "digital humanities" est en discussion (passionnée) en ce moment dans l'éducation nationale et les forums universitaires des chercheurs intéressés.

Pour avoir une idée du domaine voici un éclairage sur ce champ par l'un de ces acteurs :

 

 

 

23:45 Publié dans Science | Lien permanent | Commentaires (0)

10/10/2014

Réseaux Bayésiens - recension

 

je viens de terminer la lecture de l'excellent ouvrage « Réseaux Bayésiens » (Patrick NAïM , Pierre-Henri WUILLEMIN, Philippe LERAY , Olivier POURRET, Anna BECKER - Paris: Eyrolles ) .

Lecteur de la première édition, cette nouvelle mouture m’a agréablement surpris par la richesse et la diversité de son contenu. Celui-ci ne fait pas l’impasse sur les aspects pratiques et méthodologiques de mise en œuvre des réseaux bayésiens, ce qui n’était pas exactement le cas de la première édition… Ceci semble traduire une plus grande maturité dans la compréhension des apports « métiers » des réseaux bayésiens. Il est vrai que ce domaine est extrêmement récent et que les applications en entreprise le sont encore plus !

D'autre part, Réseaux Bayésiens est très bien construit et témoigne d’une véritable réflexion de la part des auteurs sur la manière d’introduire progressivement et surtout simplement un sujet qui peut être ardu.

Je recommande donc cet ouvrage à tous ceux qui sont confrontés à des problèmes d'analyse de données, d'aide à la décision ou bien encore de modélisation de connaissances !

 

Destinés aux étudiants (2nd et 3ème cycle) et aux professionnels, cet ouvrage est une excellente introduction à un domaine encore récent de l’ingénierie de la connaissance : les réseaux bayésiens ( (Technique mathématique combinant statistiques et intelligence articielle, les réseaux bayésiens sont des modèles de connaissances pour l'aide à la décision, le diagnostic ou le contrôle de systèmes complexes. Pour en savoir plus sur les réseaux bayésiens, vous pouvez télécharger un mini livre blanc que j'ai écris en 2002 sur le sujet.)

Dès les premières lignes de l’avant-propos le lecteur est plongé au cœur des enjeux de la société de l’information dans laquelle les réseaux bayésiens ont un rôle déterminant à jouer : rendre l’information intelligible grâce à la connaissance !

De manière à pouvoir s’adresser aux différents profils de lecteurs, l’ouvrage est construit autour de trois parties.

Après un avant propos qui permet au lecteur d’appréhender les différents aspects des réseaux bayésiens grâce à des propos clairs, la première partie de l’ouvrage, « Introduction aux réseaux bayésiens », s’attache à présenter les réseaux bayésiens d’une manière intuitive sans pour autant faire l’économie des fondements mathématiques et algorithmiques de leur construction et de leur utilisation.

La seconde partie, intitulée « Cadre théorique et algorithmes », s’adresse quant à elle aux lecteurs qui souhaitent approfondir les aspects théoriques des réseaux bayésiens. Il s’agit d’une étude détaillée du cadre théorique qui s’adresse plus particulièrement aux étudiants.

Beaucoup plus opérationnelle, la troisième partie « Méthodologie de mise en œuvre et étude de cas » présente les réseaux bayésiens d’un point de vue très pratique. Elle aborde la méthodologie de mise en œuvre et présente plusieurs cas concrets d’utilisation en milieu industriel.

Enfin, des annexes viennent compléter ce panorama avec des aspects théoriques (présentation de la théorie des graphes et des probabilités) et des aspects très pratiques (présentation des logiciels mettant en œuvre des réseaux bayésiens).

 

03/12/2010

Je challenge, tu challenges, il challenge, nous nous poilons

Cette année, chers happy few chéris que je porte en mon coeur comme une écharpe en angora rose à paillettes, un miracle a eu lieu : comme ma jumelle télépathe, je suis venue à bout de quasiment tous mes challenges, (oui, j'ai dit quasiment car je ne suis que rigueur intellectuelle (et pieds gelés), et après tout il me reste trois semaines pour clore le Challenge Zweig (je ne me souvenais même pas m'y être inscrite, il se passe de drôles de choses quand je n'ai pas ingéré mon litre quotidien de café) et le Challenge Ewan vs Christopher (mais bon, il suffirait que j'actualise mon billet sur ce petit chef d'oeuvre qu'est GI Joe et le tour serait joué) (évidemment je ne le ferai pas, je suis honnête moi Madame la juge).

Pour me récompenser, j'ai donc décidé de lancer un Challenge pour 2011. Oui, je sais, encore un alors que le merveilleux et so famous Challenge Tennant est en bonne voix de reconduction (je pense arrêter quand il arrêtera de tourner, voilà, c'est dit, c'est bien, c'est clair) et que le délicieux Challenge de la Rentrée littéraire 1120 à peu près bat son plein (pensez donc, j'ai déjà chroniqué un bouquin sur les gold farmers ), mais la chair est faible hélas, et le paquet de fraises tagada est vide. Suite à une discussion de haute volée avec des coupines que j'aime d'amour, j'ai donc décidé de créer

 

le Challenge Nécrophile : en 2011, je me tape des auteurs morts.

 

Toi qui entres ici, perds toute espérance de voir jamais ce blog acquérir bon goût et profondeur.

Le délicieux logo est d'Isil, évidemment.

 

Et comme il vaut mieux, pour pimenter les choses, qu'un challenge ait quelques contraintes, les voici, impatients happy few :

Il faut lire le plus possible de romans écrits par des auteurs morts mais pour compliquer la tâche il faut lire un roman dans au moins une des catégories citées ci-dessous :

- un roman d'un auteur mort dans des circonstances particulières (Pouchkine, mort en duel, Zelda Fitzgerald, brûlée vive dans l'incendie de son hôpital psychiatrique, Camus, accident de voiture, Cazotte et Chenier, guillotinés, Tennessee Williams, étouffé par un bretzel, Péguy, castaneda , Alain-Fournier, Pergaud, Caldéron, Saki, morts au combat, Apollinaire, victime de la grippe espagnole, Zola, asphyxié, etc.) (une liste avec d'autres noms, trouvée par Miss Babooshka,) (The Bursar a signalé la mort tragique d'Eschyle, tué par une tortue lâchée par un aigle, Alwenn celle de Courteline, mort le jour de son anniversaire sur for-tourisma ),

- un roman d'un auteur qui s'est suicidé (Sénèque, von Kleist, Nerval, Lafargue, Maïakovski, Woolf, Zweig, Mann, Pavese, Hemingway, Plath, Toole, Mishima, Celan, Gary, Koestler, Brautigan, Levi, thomson, Wallace et j'en passe) (Kali signale Empédocle, qui s'est jeté dans l'Etna),

- un roman d'un auteur mort avant 35 ans (je n'ai pas fait de liste, il faut que vous mettiez vous aussi à contribution vos petites cellules grises, non mais) (mais Erzie, dans sa grande bonté a trouvé ce lien pour vous),

- un roman d'un auteur enterré à Paris (Baudelaire, Sartre, Beauvoir, Beckett, Vercors, Cortazar, Cros, Desnos, Huysmans, Ionesco, Kessel, Leblanc, Louÿs, Maupassant, Troyat, Tzara, Hugo, Dumas, Malraux, Rousseau, Voltaire, Zola, Alain, Apollinaire, Balzac, Barbusse, Beaumarchais, Colette, Constant, Courteline, Eluard, Daudet, La Fontaine, Musset, Nerval, Noailles, Nodier, Proust, Radiguet, Romains, Saint-Simon, Vallès, Villiers de l'Ile-Adam, Wilde, et quelques autres).

 

Ce challenge prend effet tout de suite et sera clos le 31 décembre 2011. Les inscriptions se font dans les commentaires, le logo est à votre disposition et j'ai décidé, pour revenir à la grande époque des Challenges fashionesques, de le doter. Il y aura donc deux prix : le Prix Super Nécrophile pour celui qui aura lu le plus de romans et le Prix Nécrophile éclairé pour celui qui aura lu au moins un roman dans chacune des quatre catégories-contraintes. (Ne seront pris en compte que les billets portant le logo du Challenge, évidemment.)