WEB 2.0 LES INTERNAUTES AU POUVOIR

medium_couvweb20.jpgWeb 2.0 Les internautes au pouvoir

Blogs, Réseaux Sociaux, Partages de vidéos, Mashups, …

Jean-François Gervais,

Responsable de la filière Multimédia à la Direction de la Formation de l’INA

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Le succès des  sites où l’internaute partage ses centres d’intérêts avec d’autres (blogs, communautées en ligne,  .. ) montre un véritable attrait du grand public pour ce que l’on appelle aujourd’hui le phénomène Web 2.0 .  A votre avis, pourquoi un tel succès ?

Il semble toujours facile à posteriori d’analyser le succès, mais dans le cas du web 2.0, le phénomène est trop récent pour mettre en avant une hypothèse plutôt qu’une autre.
Les facteurs clés de succès s’articulent sans doute autour de deux axes, une avancée technologique et de nouveaux usages.
Les technologies du web 2.0 (xml, ajax, flash vidéo) ne sont pas si récentes, c’est leur mise en commun  qui crée la valeur ajoutée.
La seule nouveauté c’est la simplicité qui distingue les applications web 2.0.
Nul besoin d’être féru d’informatique ; là où il y a encore cinq ans il fallait apprendre le html pour publier une page sur le web ; aujourd’hui l’utilisation d’un blog est intuitive.
Ce qui est vrai pour le texte l’est aussi pour l’image. C’est une banalité de le rappeler  mais nous sommes rentrés dans une civilisation de l’image où celle-ci est omniprésente.
Mais jusqu’à présent sa production était limitée aux professionnels. Avec le numérique  la possibilité est offerte à chacun de créer des images dans un contexte économique très favorable.  La croissante ininterrompue  des  ventes d’appareils photo numériques, de caméscopes et la mutation du téléphone en « photo-vidéo-phone » nous le confirme.
Le chaînon manquant, c’était la diffusion de ces images.
Les services de partage de vidéos, tels YouTube ou Dailymotion, se sont imposés comme des canaux de diffusions crédibles et comme une alternative potentielle aux médias audiovisuels classiques. C’est la continuité logique des sites de partages photos comme Flickr, moins médiatisé mais pionner des services web 2.0.
La simplicité d’usage est là aussi au rendez vous, en quelques clics vos photos et vidéos sont en ligne.
La seconde composante du succès ce sont les usages. Ce point semble jusqu’à présent sous-estimé dans les différentes réflexions sur le « pourquoi du comment » du succès de tel ou tel service.
Le succès des sites communautaires repose à la fois sur la mise à disposition des médias personnels et sur la dimension partage de ces derniers.
Un groupe de musiciens qui utilise Myspace, pour se faire connaître utilise la plate-forme à la fois pour diffuser ses morceaux en mp3 et pour promouvoir ses concerts. Le succès de YouTube ou Dailymotion repose lui aussi sur le partage. Vous avez trouvé une vidéo qui vous plait vous pouvez la publier sur votre blog où l’envoyer facilement à un ami. Si l’on poursuit le raisonnement jusqu’au bout, nous serions tenter d’oser dire que la dimension « communauté » l’emporte sur le contenu même des sites (vidéos, photos ou texte).
Une des meilleures vidéos qui expliquent le web 2.0 est d’ailleurs l’œuvre d’un professeur d’ethnologie de l’Université du Texas, Michael Mesh. Celui-ci a mené une enquête chez les utilisateurs de YouTube à l’issue de laquelle il ressort que c’est la dimension partage qui est plébiscitée devant les autres fonctionnalités.
Les raisons du succès sont à chercher dans ces modifications sociétales.
Qui pouvait prévoir il y a cinq ans le succès des téléphones portables et des nouveaux services comme le sms.  A vrai dire personne, ce sont les utilisateurs, par leurs usages qui adhèrent ou non aux nouveaux services pour en faire des succès ou des échecs. L’internaute est aujourd’hui au centre des services, c’est une des nouvelle donne de l’économie de l’immatérielle dont les acteurs doivent prendre conscience au risque de passer à coté de cette (r)évolution.

 

Comprendre les cartes, c’est voir le monde autrement. Le Web 2.0, c’est aussi une information géographique partagée par tous, dans un espace étendu véritablement à l’échelle de la planète ; Quels sont les apports des systèmes de localisation par satellite (GPS), et plus généralement des Systèmes d’information géographiques (SIG) dans cette évolution ?

Nous n’avons sans doute pas encore pris conscience de l’impact d’applications comme Google Earth où le Géoportail de l’IGN. C’est une des raisons pour lesquelles dans mon livre, le premier chapitre leur est consacré. La première révolution c’est la mise à disposition du grand public, d’outils dont seuls les géographes et les militaires disposaient auparavant.
Avec une touche d’humour, il est possible de dire que la planète terre est un des rare dénominateurs communs à tous ses habitants ont en commun, c’est universel. Les interfaces des SIG (Systèmes d’Information Géographiques) s’appuient d’ailleurs sur le concept de « géographie naïve », nous avons tous conscience de notre environnement géographique et de la manière de si déplacer.
Un autre aspect est d’associer à la géographie des données scientifiques (comme la météo), ou bien économiques et culturelles. Avec ses outils de SIG c’est la terre qui devient le browser !
Certaines données peuvent s’afficher en temps réel : suivre la dérive des glaciers ou découvrir l’épicentre des derniers séismes n’est plus réservé aux seuls scientifiques.
La prise de conscience actuelle sur les enjeux écologiques des années à venir profite aux Google Earth et consorts. Apprécier visuellement les dégâts écologiques vaut tous les discours, le film d’Al Gore « Une vérité qui dérange » s’appuie en partie sur des animations réalisés avec Google Earth.
Une autre raison du succès, ce sont les mashups. Créer des géobiographies, inclure des modélisations en 3D de monuments historiques sont à la portée de tous.
Pour être complet il faut inclure dans la géolocalisation, le succès de vente des GPS et anticiper celui des téléphones portables comme l’Iphone d’Apple qui « embarqueront » Google Maps d’origine.

 

Pouvez-vous expliquer plus précisément le terme « mashup » et préciser le rôle des mashup dans le développement du web 2.0 ?

Mashup en anglais cela signifie mixer des éléments (en anglais la recette de la purée c’est le « mashed potatoes »).
Sans trop rentrer dans des détails techniques, les mashups ce sont de nouvelles applications créées en associant une ou plusieurs autres applications déjà existantes.

Un exemple très simple, vous mixez une application de géolocalisation (par ex Google Maps) avec une liste d’hôtels. Chacun des hôtels apparaît désormais sous la forme de « punaises » sur la carte. Pour chaque hôtel vous proposez une visite en vidéo .Dernière étape, sur
chacun d’entre eux, vous associez les commen
taires des voyageurs issus d’un autre site de référence sur le voyage comme tripadvisor, et vous obtenez www.trivop.com
Vous pouvez aussi ajouter les entrées wikipedia correspondantes à chaque lieu, les possibilités sont infinies…

Si les mashups existent c’est grâce à l’attitude d’ouverture des différents services web 2.0 qui autorisent l’interconnexion entre eux.
Les internautes curieux de découvrir les mashups peuvent consulter « programmable web » où plus de 2000 d’entre elles sont répertoriées. Les grands noms du logiciel comme Microsoft ou Adobe travaillent sur des environnements, ou demain chacun pourra développer ses propres mashups très facilement.

 

A votre avis, doit-on envisager le web 2.0 comme une zone de super liberté ou bien aussi, revers de la médaille, comme un espace potentiel de « fichage » des internautes ?

La menace d’un Big Brother est celle qui vient à l’esprit lorsque l’on balaie tout le potentiel du web 2.0, notamment lorsque l’on parle de géolocalisation. Des services (payants) existent déjà pour localiser le propriétaire d’un téléphone portable.
Il faut distinguer les données personnelles, qui incluent à la fois « ce que je dis ou fait « sur le web; mes commentaires sur un site marchand ou mon blog; mais aussi « ce que l’on dit sur moi ».
Certains experts du web n’hésitent pas à parler d’identité numérique.
Un exemple concret est la mise en garde des universités américaines envers leurs étudiants par rapport à leurs comportements sur les réseaux sociaux comme Myspace ou Facebook.
Nombreux sont les étudiants qui publient des photos de soirées parfois arrosées. Que penserons leurs futurs employeurs, qui auront « googlelisé » leurs noms et découvriront ces photos dans deux ans à la fin de leurs études et dont les auteurs auront oublié l’existence !

La validité des données est aussi l’objet de débat, faut-il dévoiler l’identité des contributeurs de Wikipédia et mettre en place des circuits de validation identiques à ceux du monde universitaire pour assurer une meilleure véracité des propos ?
Enfin il ne fait pas oublier que nous sommes nous aussi des Big Brother en puissance, témoins potentiels d’évènements nous pouvons le capturer avec nos téléphones portables et le relayer sur le web, en mettant, en avant, parfois sans nous en rendre compte, l’identité d’autrui.

 

A propos de l’auteur

Jean-François Gervais est Doctorant en médias numériques à la Sorbonne et titulaire d’un DEA en multimédia. Il est responsable de la filière Multimédia à la Direction de la Formation de l’INA (Institut National de l’Audiovisuel). Il scrute le Web depuis 1994. Il est également coauteur avec Jean-Nöel Gouyet du livre » Gestion des médias numériques » (Dunod, 2006)
Son blog : http://www.web2-lelivre.com

IEML (Information Economy Meta Langage)

Présentation du langage par son créateur, Pierre Levy

Denis Failly – « Pierre Levy, vous lancez le site consacré à IEML(Information Economy Meta Language), pourriez vous nous expliquer en quelques mots ce qu’est ce langage » ?

Pierre Levy la bibliothèque NextModerne: IEML, interview de Pierre Levy par Denis Failly « Dans mon esprit, IEML est la langue de l’intelligence collective ou « surlangue » dont je parlais dans l’introduction de mon livre intitulé L’Intelligence collective (La Découverte, 1994), et cela pour au moins trois raisons :

  1. IEML bâtit, pour commencer, un pont entre langues naturelles. N’importe quel graphe de mots écrit dans une langue naturelle au moyen d’un éditeur IEML peut être lu dans n’importe quelle autre langue naturelle supportée par le dictionnaire IEML.
  2. IEML est, ensuite, un pont entre cultures, disciplines, domaines de connaissances, contextes, terminologies, ontologies, etc. La structure logique de ce métalangage permet en effet de déterminer automatiquement des relations entre concepts, des distances sémantiques entre documents et des synthèses quelles que soient l’hétérogénéité des corpus considérés.
  3. Enfin IEML construit un pont entre humains et ordinateurs en donnant aux manipulateurs automatiques de symboles les moyens d’analyser et de computer la complexité sémantique et pragmatique humaine… lorsque cette complexité est exprimée en IEML. Je précise immédiatement que, de même que la majorité des utilisateurs d’ordinateurs n’ont pas besoin d’entrer directement en contact avec le binaire ou même avec des langages de programmation, la majorité des utilisateurs humains d’IEML n’auront pas besoin d’apprendre le métalangage.

Dans un style sobre, c’est un système d’adressage sémantique des documents numériques. Dans un style plus lyrique, je comparerais l’internet à un « cerveau global », à qui il ne manque que le système symbolique adéquat pour faire accéder l’intelligence collective humaine à la conscience réflexive. Mon hypothèse est qu’IEML pourrait précisément jouer le rôle de ce système symbolique initiateur d’une nouvelle dimension cognitive.

IEML peut nous permettre de franchir ce seuil cognitif parce qu’il réunit deux propriétés généralement séparées :

d’un côté, il est capable d’exprimer toutes les nuances sémantiques des langues naturelles, comme le français, l’anglais ou le mandarin ;

– d’un autre côté, contrairement aux langues naturelles, il peut être traité de manière optimale par les ordinateurs : il est « calculable »

J’ai conçu ce métalangage afin d’exploiter au service de la cognition humaine la puissance de communication, de mémoire et de traitement d’information dont nous disposons aujourd’hui et dont les générations précédentes ne pouvaient même pas rêver.

Pour utiliser une métaphore, je pourrais décrire IEML comme le « code génétique » (ou code mémétique) de la culture humaine. Je précise tout de suite que, si le code me semble déchiffré, l’ensemble du génome reste à inventorier. La cartographie de l’espace cognitif humain sera nécessairement une entreprise collective de longue haleine. »

Denis Failly – « A qui s’adresse IEML ? »

Pierre levy – « IEML s’adresse essentiellement à deux catégories de personnes : les architectes de l’information et les chercheurs en sciences humaines intéressés par les langages formels.
Par « architectes de l’information » j’entends les concepteurs de systèmes d’information, les spécialistes de la documentation numérique, de la gestion et de l’ingénierie des connaissances.
Quant aux chercheurs en sciences humaines, il s’agit surtout de ceux qui veulent surmonter la fragmentation disciplinaire et théorique contemporaine afin de contribuer, par leur activité intellectuelle, à la croissance d’un développement humain qui ne peut être appréhendé que par une approche pluridisciplinaire.
Par « développement humain », j’entends une dynamique d’interdépendence entre prospérité, santé, éducation, droits de l’homme, démocratie, recherche, innovation, transmission des patrimoines culturels, équilibre des écosystèmes vivants, etc.
Dans cette perspective, IEML est une langue formelle permettant d’exprimer, les données, les théories et les modèles des diverses sciences de l’homme nécessaires à une compréhension causale et à un pilotage fin du développement humain.
En outre, via une indexation adéquate des données numériques, IEML pourrait permettre une observation non seulement quantitative mais aussi qualitative – sémantique et pragmatique – de l’économie de l’information qui se développe dans le cyberespace, et qui exprime une part croissante de la communication, des transactions et de la mémoire humaine. »

Denis Failly -« Quels sont les grands principes d’IEML ? »

Pierre Levy – « Etant un méta-langage, IEML est indépendant des langues naturelles, ontologies, classifications et théories.

C’est (a) une idéographie (b) combinatoire, ce qui signifie (a) que chaque symbole a une signification distincte et que (b) la signification d’une combinaison de symboles tend à correspondre à la combinaison des significations de ces symboles. Si ce dernier principe (b) était appliqué à la lettre, on aboutirait à un langage trop redondant, à la couverture sémantique limitée. Le principe combinatoire est donc tempéré par un principe complémentaire d’économie conceptuelle selon lequel le maximum de « surface » sémantique est couverte par un minimum de symboles.

Les symboles élémentaires sont au nombre de cinq : virtuel, actuel (les deux éléments pragmatiques, liés à l’action et aux verbes), signe, être et chose (les trois éléments sémantiques, liés à la représentation et aux noms).
A partir des éléments, IEML déploie cinq niveaux de combinaison et d’articulation : 25 événements (deux éléments), 625 relations (deux relations), des millions d’idées (deux ou trois relations), une quantité astronomique de phrases (deux ou trois idées), une quantité virtuellement infinie de graphes possibles (matrices, arbres ou séries de phrases).

Pour le moment (été 2006), seules quelques deux mille idées ont été interprétées en langues naturelles, avec l’objectif de couvrir la majorité des sujets possibles des sciences humaines. Le dictionnaire IEML en ligne (http://www.ieml.org/) est censé s’accroître constamment avec de nouvelles idées et de nouvelles phrases.

Chaque graphe est / à simultanément :
1 – une adresse sémantique,
2 – un objet d’interprétation, ou « texte »,
3 – un système d
‘interprétation automatique, ou « point de vue cognitif » sur d’autres graphes et
4 – un clavier virtuel pour la rédaction d’autres graphes. Les graphes sont lisibles directement en IEML ou bien dans la langue naturelle choisie par l’utilisateur.

Denis Failly – « Pourquoi avoir créé ce langage,  qu’apporte t-il de plus par rapport aux langages existants ? »
Pierre levy -« 

  • TCP-IP permet la communication entre ordinateurs.
  • HTTP gère les hyperliens d’un site à l’autre.
  • HTML normalise la visualisation des pages web.
  • XML décrit la structure des bases de données…

IEML est un « système de coordonnées » des sujets, du contenu sémantique, ou de la signification des fichiers. Il code la position des documents dans un espace cognitif infini mais précisément adressable. IEML propose un codage navigable des concepts. Chaque code-concept (ou phrase IEML) est interprétable dans toutes les langues naturelles supportées par le Dictionnaire IEML. Actuellement, ces langues se limitent au français et à l’anglais, mais des traductions en espagnol et portugais sont déjà en cours. Nous n’en sommes qu’au tout début du programme de recherche : à terme, les codes IEML seront interprétés dans toutes les grandes langues de communication présentes sur le web.
En somme, IEML tente de résoudre un problème que ni TCP-IP, ni HTTP, ni HTML, ni XML n’ont la prétention de résoudre.

Pour décrire le « contenu », on utilise généralement des mots en langues naturelles. Mais il existe des milliers de langues différentes et, à l’intérieur même de chacune des langues, les mots peuvent avoir plusieurs sens et le même sens peut s’exprimer par plusieurs mots, sans parler des changements de sens dues aux variations de contextes.
Les moteurs de recherche contemporains travaillent sur des chaînes de caractères (en langues naturelles) et non pas sur des concepts, thèmes ou notions, qui sont indépendants des langues et de leurs mots.

En plus du simple usage des langues naturelles, il existe également des terminologies moins ambigües et bien structurées utilisées par les professionnels de l’information : langages documentaires des bibliothécaires, ontologies des informaticiens, etc. Mais ces systèmes de classification sont très nombreux, généralement incompatibles entre eux et sont basés en définitive sur l’utilisation de mots en langues naturelles.
De nombreux langages documentaires, comme le « Dewey » des bibliothécaires, proposent des hiérarchies de concepts assez rigides et qui ne se prêtent pas de manière optimale au traitement automatique. La plupart des langages documentaires, même les plus souples – comme les langages à facettes inventés par Ranganathan – ont été conçus « avant les ordinateurs ».

Les ontologies, que les normes du web sémantique recommandent de formaliser dans le langage OWL (Ontology Web Language) sont des réseaux sémantiques – le plus souvent des arbres ou des taxonomies – décrivant les relations entre concepts d’un domaine de connaissance. Or, d’une part, les concepts sont exprimés par des mots en langues naturelles (avec tous les problèmes afférents déjà signalés plus haut) et, d’autre part, les ontologies – considérées comme structures de relations – ne sont pas traductibles les unes dans les autres. OWL permet seulement l’exécution d’inférences automatiques au sein d’une même ontologie. Cette fragmentation linguistique et logique des ontologies limite énormément les bénéfices potentiels du web sémantique.

En général, l’exploitation « intelligente » des données présentes sur le web est aujourd’hui très limitée. Par exemple, même dans des corpus relativement homogènes, comme wikipedia, on ne voit pas de possibilités de génération de liens automatiques entre documents portant sur les mêmes sujets. La situation est encore pire si ces documents sont rédigés dans des langues différentes.
Il n’y a pas non plus de calculs de distances sémantiques qui permettrait, par exemple, d’aiguiller les utilisateurs sur des informations « proches » des questions qu’ils ont posées si ces questions ne trouvent pas de correspondants exacts.

La traduction des langages documentaires et des ontologies en IEML aurait trois avantages directs :

– premièrement, tout le travail d’indexation et de catalogage déjà réalisé serait sauvé (il n’est pas à refaire),
– deuxièmement, les ontologies et systèmes documentaires deviendraient mutuellement compatibles sur le plan logique, c’est-à-dire que des inférences automatiques et calculs de distances sémantiques pourront être exécutées d’une ontologie à l’autre,
– troisièmement, une fois traduite en IEML, une terminologie ou ontologie se trouverait automatiquement interprétée dans toutes les langues naturelles supportées par le dictionnaire IEML.

En général, une indexation en IEML permettra :
– la recherche par concepts (et non plus seulement par chaînes de caractères),
– la génération automatique de liens entre documents portant sur des sujets identiques ou complémentaires,
– le calcul de distances sémantiques et éventuellement la génération automatique de cartes sémantiques (synthèses) de grands corpus
– les inférences et analyses automatiques au sein d’ensembles de documents « quelconques » séléctionnés par les utilisateurs selon leurs propres critéres.

Je précise que tout cela représente aujourd’hui (été 2006) un vaste programme de recherche et non pas des solutions techniques immédiatement disponibles.

Pour les corpus qui ne sont pas déjà indexés au moyen d’un langage documentaire ou d’une ontologie, il faudra évidemment mettre au point des solutions d’indexation automatique en IEML. »

Denis Failly – « Pierre Levy, compte tenu de vos recherches, pratiques, et nombreux écrits autour des usages des Tic et de leur implication en terme culturels, sociaux, cognitifs, d’intelligence collective, quel est votre regard sur le « paradigme » Web 2.0. »

Pierre Levy – « Je suppose que vous entendez par « web 2 » la liste suivante :

le développement de la blogosphère et des possibilités d’expression publique sur le web,
– l’usage croissant des wikis,
– le succès mérité de wikipedia,
– la multiplication des processus de partage d’information et de mémoire (delicious, flicker, etc.),
– la tendance générale à considérer le web comme une sorte de système d’exploitation pour des applications collaboratives et autres,
– la montée des logiciels sociaux et des services tendant à accroître le capital social de leurs usagers,
– la montée continue des systèmes d’exploitation et des logiciels à sources ouvertes,
– le développement du P2P sous toutes ses formes (techniques, sociales, conceptuelles)…

La liste n’est pas close.

Tout cela manifeste une exploration sociale des diverses formes d’intelligence collective rendues possibles par le web et repré
sente donc une évolution très positive. Mais, en fin de compte, il s’agit d’une exploitation par et pour le plus grand nombre de potentialités qui étaient techniquement et philosophiquement déjà présentes dès l’apparition du web en 93-94. Je vois là une maturation culturelle et sociale du web (qui a été conçu dès l’origine par Tim Berners Lee pour favoriser les processus collaboratifs) plutôt qu’un saut épistémologique majeur. »

Denis Failly – « Vous qui êtes acteur et observateur des recherches en cours dans le domaine des Sciences Cognitives, vers quoi allons – nous, quelles sont les  émergences remarquables dans ces domaines  qui préfigurent l’avenir ? »

Pierre Levy – « La formalisation de la logique et de l’arithmétique a permis l’automatisation des calculs arithmétiques et logiques et, en fin de compte, la naissance de l’informatique classique. Grâce à la formalisation de la sémantique et de la pragmatique proposée par IEML, on peut prévoir la naissance d’une informatique sémantique (ou informatique 2, si vous voulez !), capable de combiner les calculs arithmétiques et logiques avec des calculs sémantiques et pragmatiques respectueux du caractère complexe, qualitatif et virtuellement infini de l’univers cognitif.

Cela ne rendra pas obsolètes les résultats antérieurs des recherche en IA (NDLR: Intelligence Artificielle), en informatique cognitive ou en théorie des jeux mais permettra au contraire de les enrichir d’un contenu sémantico-pragmatique beaucoup plus riche.

Plus généralement, je crois que les développements ultérieurs du cyberespace verront l’avènement d’une révolution scientifique dans les sciences humaines, un peu comme l’invention de la presse à caractères mobiles par Gutemberg et les nouveaux instruments d’observation (téléscope et microscope) ont favorisé une révolution scientifique dans les sciences de la nature.Les acteurs de cette révolution auront tendance à considérer les phénomènes sociaux comme des processus cognitifs à l’échelle collective. Ces processus de cognition collective (ou d’économie de l’information signifiante) seront observables, navigables et modélisables dans le cyberespace.
Au-delà de la fragmentation disciplinaire et théorique des sciences humaines contemporaines, le coeur de cette révolution de l’économie de l’information sera la découverte-exploration constructive d’un espace cognitif multidimensionnel, fractal, unique et infini où se déroulent les processus relevant de la culture humaine. »

Denis Failly – « Merci Pierre Levy »


Le site IEML

Pierre Levy est l’auteur de nombreux ouvrages parmi lesquels :

L’intelligence collective : Pour une anthropologie du cyberspace

La Cyberculture

Qu’est ce que le virtuel

Les arbres de connaissance

 

Bio : Pierre Lévy a consacré sa vie professionelle à analyser les implications culturelles et cognitives des technologies numériques et à promouvoir leurs meilleurs usages sociaux.

Né en 1956. Maîtrise d’histoire des sciences (Paris, Sorbonne, 1980, dirigée par Michel Serres). Doctorat de sociologie (Paris EHESS 1983, dirigée par Cornélieus Castoriadis).
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995.

Membre de la mission officielle sur l’enseignement ouvert et à distance