Pierre Levy – Vision 2007

medium_cubepetit.jpg« … La blogosphère, les wikis, le P2P, les jeux collaboratifs multi-joueurs en ligne et autres logiciels sociaux ont donné à des millions de gens un avant-goût de l’intelligence collective dans le cyberespace. »

« De quelle  couleur fut votre 2006 dans votre domaine de compétences ?»
1) Le principal événement dans mon activité a été la conception, la réalisation (avec plusieurs intervenants) et la mise en ligne du site www.ieml.org, qui contient notamment une première version, hautement hypertextuelle, du dictionnaire IEML ainsi que la première version d’un éditeur de graphes IEML. Plusieurs publications spécialisées m’ont également permis d’annoncer le projet à la communauté scientifique. 2006 est donc l’année de naissance d’IEML, après une quinzaine d’années de gestation.

2) En 2006, le WWW consortium a, lui aussi, lancé l’idée d’un « Common Web Language » pour résoudre le problème de l’interopérabilité sémantique, que les outils actuels du dit « Web sémantique » (XML, RDF, OWL) ne permettent pas de résoudre. Malheureusement, le groupe qui traite le dossier du common web language est fermé et son président ne répond pas aux mails. Cette opacité ne présage rien de bon :  elle suggère que le WWW consortium est en fait un groupe d’intérêts privés et qu’il ne pratique pas la transparence propre à la communauté scientifique, ce qui est particulièrement grave vu l’importance de l’enjeu. Mais j’espère me tromper sur ce point!

3) Finalement j’ai eu le plaisir d’assister à la création d’un centre de recherche sur l’intelligence collective au MIT. Bien que je n’aie pas décelé d’idées très originales dans leur site, l’événement est d’importance parce qu’il officialise et légitime à l’échelle internationale un champ de recherche orienté vers l’augmentation des capacité cognitives des groupes humains par un usage judicieux des ordinateurs en réseau. Par ailleurs, je vois avec plaisir se multiplier les propos, groupes de travail (dont celui de la FING), publications, blogs, centres de recherches et programmes d’enseignement consacrés directement ou indirectement à l’intelligence collective.  Je rappelle que mon ouvrage « L’intelligence collective » date de 1994, l’année où le Web venait juste de poindre son nez, et que cette expression – tout comme la philosophie sous-jacente – avaient été fortement critiqués à l’époque et dans les années qui ont suivi… Douze ans plus tard, l’intelligence collective commence à devenir une évidence, à la fois conceptuelle et pratique (le web 2.0).
 

«Comment voyez vous 2007, quelles évolutions majeures sont à attendre dans votre domaine (métier, expertise, marché…) ? »
Si mon domaine est le développement des connaissances théoriques et pratiques sur l’intelligence collective, les choses bougent à une échelle qui n’est pas celle de l’année mais plutôt celle de la décénnie. La blogosphère, les wikis, le P2P, les jeux collaboratifs multi-joueurs en ligne et autres logiciels sociaux ont donné à des millions de gens un avant-goût de l’intelligence collective dans le cyberespace. Tout cela exploite les possibilités d’Internet (interconnexion entre ordinateurs) et du web (interconnexion entre pages). Il faudra sans doute encore plusieurs années avant que l’on se décide à passer à l’étape suivante, celle d’un adressage des concepts, au-dessus de l’adressage des ordinateurs (TCP-IP) et de l’adressage des pages et des liens (HTTP). En effet, ce n’est qu’à partir d’un adressage mathématique des concepts qu’il deviendra possible d’exploiter pleinement l’unification en cours de la mémoire humaine dans le cyberespace, d’observer de manière mesurable et réflexive les phénomènes d’intelligence collective et de maîtriser la gestion des connaissances.

 
«Avez-vous des projets ou des perspectives particulières dans votre domaine dont vous souhaiteriez nous dire quelques mots ?»
2007 devrait voir plusieurs développements de l’initiative IEML.
1) Dès le mois d’avril, nous devrions disposer d’un wiki (le wikimetal, pour « wiki du métalangage ») qui permettra à diverses communautés de discuter la traduction de leurs terminologies en IEML. Lorsqu’un consensus aura été atteint sur le wiki, les nouveaux « mots » IEML (c’est-à-dire des adresses conceptuelles interprétées en langues naturelles) seront intégrées au dictionnaire de référence.
2) Une équipe internationale de spécialistes en informatique devrait commencer à programmer un moteur de recherche sémantique capable d’interroger des bases de données indexées en IEML. Il s’agit du labo de communication multimedia de l’Université d’Ottawa sous la direction de Abed El Saddik, du labo d’informatique cognitive de l’UQAM avec la participation de Daniel Memmi, d’une équipe du labo Paragraphe de Paris-8 sous la direction de Imad Saleh, d’une équipe brésilienne autour de la bibliothèque virtuelle en santé sous la direction de Rogerio Da Costa et des spécialistes américains des « Topic Maps » Michel Biezunski et Steve Newcomb.
3) Le moteur de recherche sémantique devrait être testé sur plusieurs bases de données dans les domaines de la santé publique, de l’alimentation, des compétences des adultes en formation et autres.

Bio : Pierre Lévy a consacré sa vie professionnelle à analyser les implications culturelles et cognitives des technologies numériques et à promouvoir leurs meilleurs usages sociaux.

Né en 1956. Maîtrise d’histoire des sciences (Paris, Sorbonne, 1980, dirigée par Michel Serres). Doctorat de sociologie (Paris EHESS 1983, dirigée par Cornélieus Castoriadis).
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995. Il est membre de la mission officielle sur l’enseignement ouvert et à distance.

A propos d’IEML

IEML (Information Economy Meta Langage)

Présentation du langage par son créateur, Pierre Levy

Denis Failly – « Pierre Levy, vous lancez le site consacré à IEML(Information Economy Meta Language), pourriez vous nous expliquer en quelques mots ce qu’est ce langage » ?

Pierre Levy la bibliothèque NextModerne: IEML, interview de Pierre Levy par Denis Failly « Dans mon esprit, IEML est la langue de l’intelligence collective ou « surlangue » dont je parlais dans l’introduction de mon livre intitulé L’Intelligence collective (La Découverte, 1994), et cela pour au moins trois raisons :

  1. IEML bâtit, pour commencer, un pont entre langues naturelles. N’importe quel graphe de mots écrit dans une langue naturelle au moyen d’un éditeur IEML peut être lu dans n’importe quelle autre langue naturelle supportée par le dictionnaire IEML.
  2. IEML est, ensuite, un pont entre cultures, disciplines, domaines de connaissances, contextes, terminologies, ontologies, etc. La structure logique de ce métalangage permet en effet de déterminer automatiquement des relations entre concepts, des distances sémantiques entre documents et des synthèses quelles que soient l’hétérogénéité des corpus considérés.
  3. Enfin IEML construit un pont entre humains et ordinateurs en donnant aux manipulateurs automatiques de symboles les moyens d’analyser et de computer la complexité sémantique et pragmatique humaine… lorsque cette complexité est exprimée en IEML. Je précise immédiatement que, de même que la majorité des utilisateurs d’ordinateurs n’ont pas besoin d’entrer directement en contact avec le binaire ou même avec des langages de programmation, la majorité des utilisateurs humains d’IEML n’auront pas besoin d’apprendre le métalangage.

Dans un style sobre, c’est un système d’adressage sémantique des documents numériques. Dans un style plus lyrique, je comparerais l’internet à un « cerveau global », à qui il ne manque que le système symbolique adéquat pour faire accéder l’intelligence collective humaine à la conscience réflexive. Mon hypothèse est qu’IEML pourrait précisément jouer le rôle de ce système symbolique initiateur d’une nouvelle dimension cognitive.

IEML peut nous permettre de franchir ce seuil cognitif parce qu’il réunit deux propriétés généralement séparées :

d’un côté, il est capable d’exprimer toutes les nuances sémantiques des langues naturelles, comme le français, l’anglais ou le mandarin ;

– d’un autre côté, contrairement aux langues naturelles, il peut être traité de manière optimale par les ordinateurs : il est « calculable »

J’ai conçu ce métalangage afin d’exploiter au service de la cognition humaine la puissance de communication, de mémoire et de traitement d’information dont nous disposons aujourd’hui et dont les générations précédentes ne pouvaient même pas rêver.

Pour utiliser une métaphore, je pourrais décrire IEML comme le « code génétique » (ou code mémétique) de la culture humaine. Je précise tout de suite que, si le code me semble déchiffré, l’ensemble du génome reste à inventorier. La cartographie de l’espace cognitif humain sera nécessairement une entreprise collective de longue haleine. »

Denis Failly – « A qui s’adresse IEML ? »

Pierre levy – « IEML s’adresse essentiellement à deux catégories de personnes : les architectes de l’information et les chercheurs en sciences humaines intéressés par les langages formels.
Par « architectes de l’information » j’entends les concepteurs de systèmes d’information, les spécialistes de la documentation numérique, de la gestion et de l’ingénierie des connaissances.
Quant aux chercheurs en sciences humaines, il s’agit surtout de ceux qui veulent surmonter la fragmentation disciplinaire et théorique contemporaine afin de contribuer, par leur activité intellectuelle, à la croissance d’un développement humain qui ne peut être appréhendé que par une approche pluridisciplinaire.
Par « développement humain », j’entends une dynamique d’interdépendence entre prospérité, santé, éducation, droits de l’homme, démocratie, recherche, innovation, transmission des patrimoines culturels, équilibre des écosystèmes vivants, etc.
Dans cette perspective, IEML est une langue formelle permettant d’exprimer, les données, les théories et les modèles des diverses sciences de l’homme nécessaires à une compréhension causale et à un pilotage fin du développement humain.
En outre, via une indexation adéquate des données numériques, IEML pourrait permettre une observation non seulement quantitative mais aussi qualitative – sémantique et pragmatique – de l’économie de l’information qui se développe dans le cyberespace, et qui exprime une part croissante de la communication, des transactions et de la mémoire humaine. »

Denis Failly -« Quels sont les grands principes d’IEML ? »

Pierre Levy – « Etant un méta-langage, IEML est indépendant des langues naturelles, ontologies, classifications et théories.

C’est (a) une idéographie (b) combinatoire, ce qui signifie (a) que chaque symbole a une signification distincte et que (b) la signification d’une combinaison de symboles tend à correspondre à la combinaison des significations de ces symboles. Si ce dernier principe (b) était appliqué à la lettre, on aboutirait à un langage trop redondant, à la couverture sémantique limitée. Le principe combinatoire est donc tempéré par un principe complémentaire d’économie conceptuelle selon lequel le maximum de « surface » sémantique est couverte par un minimum de symboles.

Les symboles élémentaires sont au nombre de cinq : virtuel, actuel (les deux éléments pragmatiques, liés à l’action et aux verbes), signe, être et chose (les trois éléments sémantiques, liés à la représentation et aux noms).
A partir des éléments, IEML déploie cinq niveaux de combinaison et d’articulation : 25 événements (deux éléments), 625 relations (deux relations), des millions d’idées (deux ou trois relations), une quantité astronomique de phrases (deux ou trois idées), une quantité virtuellement infinie de graphes possibles (matrices, arbres ou séries de phrases).

Pour le moment (été 2006), seules quelques deux mille idées ont été interprétées en langues naturelles, avec l’objectif de couvrir la majorité des sujets possibles des sciences humaines. Le dictionnaire IEML en ligne (http://www.ieml.org/) est censé s’accroître constamment avec de nouvelles idées et de nouvelles phrases.

Chaque graphe est / à simultanément :
1 – une adresse sémantique,
2 – un objet d’interprétation, ou « texte »,
3 – un système d
‘interprétation automatique, ou « point de vue cognitif » sur d’autres graphes et
4 – un clavier virtuel pour la rédaction d’autres graphes. Les graphes sont lisibles directement en IEML ou bien dans la langue naturelle choisie par l’utilisateur.

Denis Failly – « Pourquoi avoir créé ce langage,  qu’apporte t-il de plus par rapport aux langages existants ? »
Pierre levy -« 

  • TCP-IP permet la communication entre ordinateurs.
  • HTTP gère les hyperliens d’un site à l’autre.
  • HTML normalise la visualisation des pages web.
  • XML décrit la structure des bases de données…

IEML est un « système de coordonnées » des sujets, du contenu sémantique, ou de la signification des fichiers. Il code la position des documents dans un espace cognitif infini mais précisément adressable. IEML propose un codage navigable des concepts. Chaque code-concept (ou phrase IEML) est interprétable dans toutes les langues naturelles supportées par le Dictionnaire IEML. Actuellement, ces langues se limitent au français et à l’anglais, mais des traductions en espagnol et portugais sont déjà en cours. Nous n’en sommes qu’au tout début du programme de recherche : à terme, les codes IEML seront interprétés dans toutes les grandes langues de communication présentes sur le web.
En somme, IEML tente de résoudre un problème que ni TCP-IP, ni HTTP, ni HTML, ni XML n’ont la prétention de résoudre.

Pour décrire le « contenu », on utilise généralement des mots en langues naturelles. Mais il existe des milliers de langues différentes et, à l’intérieur même de chacune des langues, les mots peuvent avoir plusieurs sens et le même sens peut s’exprimer par plusieurs mots, sans parler des changements de sens dues aux variations de contextes.
Les moteurs de recherche contemporains travaillent sur des chaînes de caractères (en langues naturelles) et non pas sur des concepts, thèmes ou notions, qui sont indépendants des langues et de leurs mots.

En plus du simple usage des langues naturelles, il existe également des terminologies moins ambigües et bien structurées utilisées par les professionnels de l’information : langages documentaires des bibliothécaires, ontologies des informaticiens, etc. Mais ces systèmes de classification sont très nombreux, généralement incompatibles entre eux et sont basés en définitive sur l’utilisation de mots en langues naturelles.
De nombreux langages documentaires, comme le « Dewey » des bibliothécaires, proposent des hiérarchies de concepts assez rigides et qui ne se prêtent pas de manière optimale au traitement automatique. La plupart des langages documentaires, même les plus souples – comme les langages à facettes inventés par Ranganathan – ont été conçus « avant les ordinateurs ».

Les ontologies, que les normes du web sémantique recommandent de formaliser dans le langage OWL (Ontology Web Language) sont des réseaux sémantiques – le plus souvent des arbres ou des taxonomies – décrivant les relations entre concepts d’un domaine de connaissance. Or, d’une part, les concepts sont exprimés par des mots en langues naturelles (avec tous les problèmes afférents déjà signalés plus haut) et, d’autre part, les ontologies – considérées comme structures de relations – ne sont pas traductibles les unes dans les autres. OWL permet seulement l’exécution d’inférences automatiques au sein d’une même ontologie. Cette fragmentation linguistique et logique des ontologies limite énormément les bénéfices potentiels du web sémantique.

En général, l’exploitation « intelligente » des données présentes sur le web est aujourd’hui très limitée. Par exemple, même dans des corpus relativement homogènes, comme wikipedia, on ne voit pas de possibilités de génération de liens automatiques entre documents portant sur les mêmes sujets. La situation est encore pire si ces documents sont rédigés dans des langues différentes.
Il n’y a pas non plus de calculs de distances sémantiques qui permettrait, par exemple, d’aiguiller les utilisateurs sur des informations « proches » des questions qu’ils ont posées si ces questions ne trouvent pas de correspondants exacts.

La traduction des langages documentaires et des ontologies en IEML aurait trois avantages directs :

– premièrement, tout le travail d’indexation et de catalogage déjà réalisé serait sauvé (il n’est pas à refaire),
– deuxièmement, les ontologies et systèmes documentaires deviendraient mutuellement compatibles sur le plan logique, c’est-à-dire que des inférences automatiques et calculs de distances sémantiques pourront être exécutées d’une ontologie à l’autre,
– troisièmement, une fois traduite en IEML, une terminologie ou ontologie se trouverait automatiquement interprétée dans toutes les langues naturelles supportées par le dictionnaire IEML.

En général, une indexation en IEML permettra :
– la recherche par concepts (et non plus seulement par chaînes de caractères),
– la génération automatique de liens entre documents portant sur des sujets identiques ou complémentaires,
– le calcul de distances sémantiques et éventuellement la génération automatique de cartes sémantiques (synthèses) de grands corpus
– les inférences et analyses automatiques au sein d’ensembles de documents « quelconques » séléctionnés par les utilisateurs selon leurs propres critéres.

Je précise que tout cela représente aujourd’hui (été 2006) un vaste programme de recherche et non pas des solutions techniques immédiatement disponibles.

Pour les corpus qui ne sont pas déjà indexés au moyen d’un langage documentaire ou d’une ontologie, il faudra évidemment mettre au point des solutions d’indexation automatique en IEML. »

Denis Failly – « Pierre Levy, compte tenu de vos recherches, pratiques, et nombreux écrits autour des usages des Tic et de leur implication en terme culturels, sociaux, cognitifs, d’intelligence collective, quel est votre regard sur le « paradigme » Web 2.0. »

Pierre Levy – « Je suppose que vous entendez par « web 2 » la liste suivante :

le développement de la blogosphère et des possibilités d’expression publique sur le web,
– l’usage croissant des wikis,
– le succès mérité de wikipedia,
– la multiplication des processus de partage d’information et de mémoire (delicious, flicker, etc.),
– la tendance générale à considérer le web comme une sorte de système d’exploitation pour des applications collaboratives et autres,
– la montée des logiciels sociaux et des services tendant à accroître le capital social de leurs usagers,
– la montée continue des systèmes d’exploitation et des logiciels à sources ouvertes,
– le développement du P2P sous toutes ses formes (techniques, sociales, conceptuelles)…

La liste n’est pas close.

Tout cela manifeste une exploration sociale des diverses formes d’intelligence collective rendues possibles par le web et repré
sente donc une évolution très positive. Mais, en fin de compte, il s’agit d’une exploitation par et pour le plus grand nombre de potentialités qui étaient techniquement et philosophiquement déjà présentes dès l’apparition du web en 93-94. Je vois là une maturation culturelle et sociale du web (qui a été conçu dès l’origine par Tim Berners Lee pour favoriser les processus collaboratifs) plutôt qu’un saut épistémologique majeur. »

Denis Failly – « Vous qui êtes acteur et observateur des recherches en cours dans le domaine des Sciences Cognitives, vers quoi allons – nous, quelles sont les  émergences remarquables dans ces domaines  qui préfigurent l’avenir ? »

Pierre Levy – « La formalisation de la logique et de l’arithmétique a permis l’automatisation des calculs arithmétiques et logiques et, en fin de compte, la naissance de l’informatique classique. Grâce à la formalisation de la sémantique et de la pragmatique proposée par IEML, on peut prévoir la naissance d’une informatique sémantique (ou informatique 2, si vous voulez !), capable de combiner les calculs arithmétiques et logiques avec des calculs sémantiques et pragmatiques respectueux du caractère complexe, qualitatif et virtuellement infini de l’univers cognitif.

Cela ne rendra pas obsolètes les résultats antérieurs des recherche en IA (NDLR: Intelligence Artificielle), en informatique cognitive ou en théorie des jeux mais permettra au contraire de les enrichir d’un contenu sémantico-pragmatique beaucoup plus riche.

Plus généralement, je crois que les développements ultérieurs du cyberespace verront l’avènement d’une révolution scientifique dans les sciences humaines, un peu comme l’invention de la presse à caractères mobiles par Gutemberg et les nouveaux instruments d’observation (téléscope et microscope) ont favorisé une révolution scientifique dans les sciences de la nature.Les acteurs de cette révolution auront tendance à considérer les phénomènes sociaux comme des processus cognitifs à l’échelle collective. Ces processus de cognition collective (ou d’économie de l’information signifiante) seront observables, navigables et modélisables dans le cyberespace.
Au-delà de la fragmentation disciplinaire et théorique des sciences humaines contemporaines, le coeur de cette révolution de l’économie de l’information sera la découverte-exploration constructive d’un espace cognitif multidimensionnel, fractal, unique et infini où se déroulent les processus relevant de la culture humaine. »

Denis Failly – « Merci Pierre Levy »


Le site IEML

Pierre Levy est l’auteur de nombreux ouvrages parmi lesquels :

L’intelligence collective : Pour une anthropologie du cyberspace

La Cyberculture

Qu’est ce que le virtuel

Les arbres de connaissance

 

Bio : Pierre Lévy a consacré sa vie professionelle à analyser les implications culturelles et cognitives des technologies numériques et à promouvoir leurs meilleurs usages sociaux.

Né en 1956. Maîtrise d’histoire des sciences (Paris, Sorbonne, 1980, dirigée par Michel Serres). Doctorat de sociologie (Paris EHESS 1983, dirigée par Cornélieus Castoriadis).
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995.

Membre de la mission officielle sur l’enseignement ouvert et à distance