La théorie des mèmes : Pourquoi nous nous imitons les uns les autres.

medium_themememachine.2.jpg medium_theoriememe.3.jpg

La version française
(traduction de B. Thomass et préface de
Richard Dawkins) de :
« The Meme Machine »

Quelques mots de Susan Blackmore

 

Denis Failly – « Susan Blackmore, could you remind us shortly the basics of Memetics and Meme ? »

Susan Blackmore – medium_susanblackmore_copie.2.jpg« The term ‘meme’ was coined by Richard Dawkins in his 1976 book The Selfish Gene. Memes are habits, skills, songs, stories, or any kind of behaviour that is passed from person to person by imitation. Like genes, memes are replicators. That is, they are information that is copied with variation and selection. While genes compete to get copied when plants and animals reproduce, memes compete to get stored in our memories (or in our computeres or phones) and passed on again to someone else.
On this view our minds and culture are designed by the competition between memes, just as the biological world has been designed by natural selection acting on genes. Familiar memes include words, stories, TV and radio programmes, chess, Soduko and computer games, glorious symphonies and mindless jingles, the habit of driving on the left (or the right), eating with a knife

and fork, wearing clothes, and shaking hands. These are all information that has successfully
been copied from person to person. Without them we would not be fully human.
In my view our large human brains were forced to grow by the pressure of memes, and have been sculpted by a process of « memetic drive » to be ever better machines for selecting, copying, and storing meme. That is why we talk, draw and paint, and like music – because those memes thrived and caused brains to get better at copying them. So we humans are meme machines, and our nature reflects the history of past memetic competition. »

Denis Failly – « How birth and spread of the ideas, are there any specific emerging conditions for a Meme, a kind of life cycle ? »

Susan Blackmore – « Any meme that can get copied will get copied. So the world is full of the successful memes – the rest having simply died away. There are countless ways in which memes can emerge. Every time you speak a new sentence that is a potential meme that might, or might not, get passed on. Your brain is a vast melting pot for memes and can easily put together old memes in new combinations to make new ones. This means that there is constantly a creative evolutionary process going on inside your head and between you and the people you communicate with.
Some memes have long life-cycles. Plato’s Republic is a memeplex (group of memes that get passed on together) that first emerged thousands of years ago, was widely circulated, then nearly died out, and was later revived many times. Then it was translated into different languages and spread all over the world by modern technological meme machines.
Other memes have short life cycles. A piece of gossip you heard and passed on to your neighbour may go no further and simply die out there. »

Denis Failly – « I suppose that Internet (and specifically blogs, wikis, tchat…) is a wonderfull channel of Memetics transmission, what do you think about and do you focus on that topics for your research ?

Susan Blackmore – « The Internet is heaven for memes. Computers store information much more accurately than human brains, and can copy that information to vast numbers of other computers very quickly. This means a new process of memetic drive is going on in which the increase in available memes drives an increase in the machines for copying them, and so on. The result is not only the Internet but mobile phones, CD players, MP3 players, DVDs, video phones, and much more.
We biological meme machines have nearly had our day. Few people in developed societies can now hold out against getting a mobile phone. Soon they will feel they just have to get the latest implanted phone receiver, transmitter, thought enhancer, control switches and all sorts of enhancements that will turn their merely biological brains into super computers as well. They will then be able to store and transmit even more memes and the memes will go on driving the expansion of capability. We are already getting badly overloaded. »

Denis Failly – « Are Memetics a real field of knowledge (with methodology, tools, process, epistemology… ) and could Memetics be categorize as Science? »

Susan Blackmore – « Memetics has not yet developed into a mature science. There are plenty of people working on memetic topics but the whole area remains highly controversial. Critics argue that memes have not been proved to exist, cannot be identified with any chemical or physical structure as genes can, cannot be divided into meaningful units, and provide no better understanding of culture than existing theories. Others are frightened that memetics undermines the notions of free will and personal responsibility.
Proponents respond that memes obviously exist, since humans imitate widely and memes are defined as whatever they imitate. Also, the demand for a physical basis is premature. The structure of DNA was not discovered until a century after Darwin, so we may be in the equivalent of the pre-DNA phase in memetics. The question of units is tricky for genes too, and we can study memes by using whatever unit is replicated in any given situation – which may be anything from a few notes to an entire symphony, or a few words to a whole story. As for free will – there have always been people arguing that it is an illusion. Memetics provides a way of understanding how that illusion comes about.
More important is whether memetics really can provide new insights into human behaviour or culture. I am convinced that i
t can do so. A simple example is that memetics provides a far better understanding of religions, why they are so dangerous, and why people keep on falling for them. A broader one is the idea that humans have evolved as meme machines. I think language was once a meme-parasite that co-evolved to become symbiotic with us, and that culture is a vast system that is parasitic on human beings. If these ideas are right then memetics is a set of very powerful ideas and we badly need the science of memes. »

Denis Failly – Susan Blackmore, thanks a lot

Les sites de Susan Blackmore
Son site personnel : 
www.susanblackmore.co.uk
Son site sur la mémétique : www.memetics.com

 Bio : Sue Blackmore is a freelance writer, lecturer and broadcaster, and a Visiting Lecturer at the University of the West of England, Bristol. She has a degree in psychology and physiology from Oxford University (1973) and a PhD in parapsychology from the University of Surrey (1980). Her research interests include memes, evolutionary theory, consciousness, and meditation.

IEML (Information Economy Meta Langage)

Présentation du langage par son créateur, Pierre Levy

Denis Failly – « Pierre Levy, vous lancez le site consacré à IEML(Information Economy Meta Language), pourriez vous nous expliquer en quelques mots ce qu’est ce langage » ?

Pierre Levy la bibliothèque NextModerne: IEML, interview de Pierre Levy par Denis Failly « Dans mon esprit, IEML est la langue de l’intelligence collective ou « surlangue » dont je parlais dans l’introduction de mon livre intitulé L’Intelligence collective (La Découverte, 1994), et cela pour au moins trois raisons :

  1. IEML bâtit, pour commencer, un pont entre langues naturelles. N’importe quel graphe de mots écrit dans une langue naturelle au moyen d’un éditeur IEML peut être lu dans n’importe quelle autre langue naturelle supportée par le dictionnaire IEML.
  2. IEML est, ensuite, un pont entre cultures, disciplines, domaines de connaissances, contextes, terminologies, ontologies, etc. La structure logique de ce métalangage permet en effet de déterminer automatiquement des relations entre concepts, des distances sémantiques entre documents et des synthèses quelles que soient l’hétérogénéité des corpus considérés.
  3. Enfin IEML construit un pont entre humains et ordinateurs en donnant aux manipulateurs automatiques de symboles les moyens d’analyser et de computer la complexité sémantique et pragmatique humaine… lorsque cette complexité est exprimée en IEML. Je précise immédiatement que, de même que la majorité des utilisateurs d’ordinateurs n’ont pas besoin d’entrer directement en contact avec le binaire ou même avec des langages de programmation, la majorité des utilisateurs humains d’IEML n’auront pas besoin d’apprendre le métalangage.

Dans un style sobre, c’est un système d’adressage sémantique des documents numériques. Dans un style plus lyrique, je comparerais l’internet à un « cerveau global », à qui il ne manque que le système symbolique adéquat pour faire accéder l’intelligence collective humaine à la conscience réflexive. Mon hypothèse est qu’IEML pourrait précisément jouer le rôle de ce système symbolique initiateur d’une nouvelle dimension cognitive.

IEML peut nous permettre de franchir ce seuil cognitif parce qu’il réunit deux propriétés généralement séparées :

d’un côté, il est capable d’exprimer toutes les nuances sémantiques des langues naturelles, comme le français, l’anglais ou le mandarin ;

– d’un autre côté, contrairement aux langues naturelles, il peut être traité de manière optimale par les ordinateurs : il est « calculable »

J’ai conçu ce métalangage afin d’exploiter au service de la cognition humaine la puissance de communication, de mémoire et de traitement d’information dont nous disposons aujourd’hui et dont les générations précédentes ne pouvaient même pas rêver.

Pour utiliser une métaphore, je pourrais décrire IEML comme le « code génétique » (ou code mémétique) de la culture humaine. Je précise tout de suite que, si le code me semble déchiffré, l’ensemble du génome reste à inventorier. La cartographie de l’espace cognitif humain sera nécessairement une entreprise collective de longue haleine. »

Denis Failly – « A qui s’adresse IEML ? »

Pierre levy – « IEML s’adresse essentiellement à deux catégories de personnes : les architectes de l’information et les chercheurs en sciences humaines intéressés par les langages formels.
Par « architectes de l’information » j’entends les concepteurs de systèmes d’information, les spécialistes de la documentation numérique, de la gestion et de l’ingénierie des connaissances.
Quant aux chercheurs en sciences humaines, il s’agit surtout de ceux qui veulent surmonter la fragmentation disciplinaire et théorique contemporaine afin de contribuer, par leur activité intellectuelle, à la croissance d’un développement humain qui ne peut être appréhendé que par une approche pluridisciplinaire.
Par « développement humain », j’entends une dynamique d’interdépendence entre prospérité, santé, éducation, droits de l’homme, démocratie, recherche, innovation, transmission des patrimoines culturels, équilibre des écosystèmes vivants, etc.
Dans cette perspective, IEML est une langue formelle permettant d’exprimer, les données, les théories et les modèles des diverses sciences de l’homme nécessaires à une compréhension causale et à un pilotage fin du développement humain.
En outre, via une indexation adéquate des données numériques, IEML pourrait permettre une observation non seulement quantitative mais aussi qualitative – sémantique et pragmatique – de l’économie de l’information qui se développe dans le cyberespace, et qui exprime une part croissante de la communication, des transactions et de la mémoire humaine. »

Denis Failly -« Quels sont les grands principes d’IEML ? »

Pierre Levy – « Etant un méta-langage, IEML est indépendant des langues naturelles, ontologies, classifications et théories.

C’est (a) une idéographie (b) combinatoire, ce qui signifie (a) que chaque symbole a une signification distincte et que (b) la signification d’une combinaison de symboles tend à correspondre à la combinaison des significations de ces symboles. Si ce dernier principe (b) était appliqué à la lettre, on aboutirait à un langage trop redondant, à la couverture sémantique limitée. Le principe combinatoire est donc tempéré par un principe complémentaire d’économie conceptuelle selon lequel le maximum de « surface » sémantique est couverte par un minimum de symboles.

Les symboles élémentaires sont au nombre de cinq : virtuel, actuel (les deux éléments pragmatiques, liés à l’action et aux verbes), signe, être et chose (les trois éléments sémantiques, liés à la représentation et aux noms).
A partir des éléments, IEML déploie cinq niveaux de combinaison et d’articulation : 25 événements (deux éléments), 625 relations (deux relations), des millions d’idées (deux ou trois relations), une quantité astronomique de phrases (deux ou trois idées), une quantité virtuellement infinie de graphes possibles (matrices, arbres ou séries de phrases).

Pour le moment (été 2006), seules quelques deux mille idées ont été interprétées en langues naturelles, avec l’objectif de couvrir la majorité des sujets possibles des sciences humaines. Le dictionnaire IEML en ligne (http://www.ieml.org/) est censé s’accroître constamment avec de nouvelles idées et de nouvelles phrases.

Chaque graphe est / à simultanément :
1 – une adresse sémantique,
2 – un objet d’interprétation, ou « texte »,
3 – un système d
‘interprétation automatique, ou « point de vue cognitif » sur d’autres graphes et
4 – un clavier virtuel pour la rédaction d’autres graphes. Les graphes sont lisibles directement en IEML ou bien dans la langue naturelle choisie par l’utilisateur.

Denis Failly – « Pourquoi avoir créé ce langage,  qu’apporte t-il de plus par rapport aux langages existants ? »
Pierre levy -« 

  • TCP-IP permet la communication entre ordinateurs.
  • HTTP gère les hyperliens d’un site à l’autre.
  • HTML normalise la visualisation des pages web.
  • XML décrit la structure des bases de données…

IEML est un « système de coordonnées » des sujets, du contenu sémantique, ou de la signification des fichiers. Il code la position des documents dans un espace cognitif infini mais précisément adressable. IEML propose un codage navigable des concepts. Chaque code-concept (ou phrase IEML) est interprétable dans toutes les langues naturelles supportées par le Dictionnaire IEML. Actuellement, ces langues se limitent au français et à l’anglais, mais des traductions en espagnol et portugais sont déjà en cours. Nous n’en sommes qu’au tout début du programme de recherche : à terme, les codes IEML seront interprétés dans toutes les grandes langues de communication présentes sur le web.
En somme, IEML tente de résoudre un problème que ni TCP-IP, ni HTTP, ni HTML, ni XML n’ont la prétention de résoudre.

Pour décrire le « contenu », on utilise généralement des mots en langues naturelles. Mais il existe des milliers de langues différentes et, à l’intérieur même de chacune des langues, les mots peuvent avoir plusieurs sens et le même sens peut s’exprimer par plusieurs mots, sans parler des changements de sens dues aux variations de contextes.
Les moteurs de recherche contemporains travaillent sur des chaînes de caractères (en langues naturelles) et non pas sur des concepts, thèmes ou notions, qui sont indépendants des langues et de leurs mots.

En plus du simple usage des langues naturelles, il existe également des terminologies moins ambigües et bien structurées utilisées par les professionnels de l’information : langages documentaires des bibliothécaires, ontologies des informaticiens, etc. Mais ces systèmes de classification sont très nombreux, généralement incompatibles entre eux et sont basés en définitive sur l’utilisation de mots en langues naturelles.
De nombreux langages documentaires, comme le « Dewey » des bibliothécaires, proposent des hiérarchies de concepts assez rigides et qui ne se prêtent pas de manière optimale au traitement automatique. La plupart des langages documentaires, même les plus souples – comme les langages à facettes inventés par Ranganathan – ont été conçus « avant les ordinateurs ».

Les ontologies, que les normes du web sémantique recommandent de formaliser dans le langage OWL (Ontology Web Language) sont des réseaux sémantiques – le plus souvent des arbres ou des taxonomies – décrivant les relations entre concepts d’un domaine de connaissance. Or, d’une part, les concepts sont exprimés par des mots en langues naturelles (avec tous les problèmes afférents déjà signalés plus haut) et, d’autre part, les ontologies – considérées comme structures de relations – ne sont pas traductibles les unes dans les autres. OWL permet seulement l’exécution d’inférences automatiques au sein d’une même ontologie. Cette fragmentation linguistique et logique des ontologies limite énormément les bénéfices potentiels du web sémantique.

En général, l’exploitation « intelligente » des données présentes sur le web est aujourd’hui très limitée. Par exemple, même dans des corpus relativement homogènes, comme wikipedia, on ne voit pas de possibilités de génération de liens automatiques entre documents portant sur les mêmes sujets. La situation est encore pire si ces documents sont rédigés dans des langues différentes.
Il n’y a pas non plus de calculs de distances sémantiques qui permettrait, par exemple, d’aiguiller les utilisateurs sur des informations « proches » des questions qu’ils ont posées si ces questions ne trouvent pas de correspondants exacts.

La traduction des langages documentaires et des ontologies en IEML aurait trois avantages directs :

– premièrement, tout le travail d’indexation et de catalogage déjà réalisé serait sauvé (il n’est pas à refaire),
– deuxièmement, les ontologies et systèmes documentaires deviendraient mutuellement compatibles sur le plan logique, c’est-à-dire que des inférences automatiques et calculs de distances sémantiques pourront être exécutées d’une ontologie à l’autre,
– troisièmement, une fois traduite en IEML, une terminologie ou ontologie se trouverait automatiquement interprétée dans toutes les langues naturelles supportées par le dictionnaire IEML.

En général, une indexation en IEML permettra :
– la recherche par concepts (et non plus seulement par chaînes de caractères),
– la génération automatique de liens entre documents portant sur des sujets identiques ou complémentaires,
– le calcul de distances sémantiques et éventuellement la génération automatique de cartes sémantiques (synthèses) de grands corpus
– les inférences et analyses automatiques au sein d’ensembles de documents « quelconques » séléctionnés par les utilisateurs selon leurs propres critéres.

Je précise que tout cela représente aujourd’hui (été 2006) un vaste programme de recherche et non pas des solutions techniques immédiatement disponibles.

Pour les corpus qui ne sont pas déjà indexés au moyen d’un langage documentaire ou d’une ontologie, il faudra évidemment mettre au point des solutions d’indexation automatique en IEML. »

Denis Failly – « Pierre Levy, compte tenu de vos recherches, pratiques, et nombreux écrits autour des usages des Tic et de leur implication en terme culturels, sociaux, cognitifs, d’intelligence collective, quel est votre regard sur le « paradigme » Web 2.0. »

Pierre Levy – « Je suppose que vous entendez par « web 2 » la liste suivante :

le développement de la blogosphère et des possibilités d’expression publique sur le web,
– l’usage croissant des wikis,
– le succès mérité de wikipedia,
– la multiplication des processus de partage d’information et de mémoire (delicious, flicker, etc.),
– la tendance générale à considérer le web comme une sorte de système d’exploitation pour des applications collaboratives et autres,
– la montée des logiciels sociaux et des services tendant à accroître le capital social de leurs usagers,
– la montée continue des systèmes d’exploitation et des logiciels à sources ouvertes,
– le développement du P2P sous toutes ses formes (techniques, sociales, conceptuelles)…

La liste n’est pas close.

Tout cela manifeste une exploration sociale des diverses formes d’intelligence collective rendues possibles par le web et repré
sente donc une évolution très positive. Mais, en fin de compte, il s’agit d’une exploitation par et pour le plus grand nombre de potentialités qui étaient techniquement et philosophiquement déjà présentes dès l’apparition du web en 93-94. Je vois là une maturation culturelle et sociale du web (qui a été conçu dès l’origine par Tim Berners Lee pour favoriser les processus collaboratifs) plutôt qu’un saut épistémologique majeur. »

Denis Failly – « Vous qui êtes acteur et observateur des recherches en cours dans le domaine des Sciences Cognitives, vers quoi allons – nous, quelles sont les  émergences remarquables dans ces domaines  qui préfigurent l’avenir ? »

Pierre Levy – « La formalisation de la logique et de l’arithmétique a permis l’automatisation des calculs arithmétiques et logiques et, en fin de compte, la naissance de l’informatique classique. Grâce à la formalisation de la sémantique et de la pragmatique proposée par IEML, on peut prévoir la naissance d’une informatique sémantique (ou informatique 2, si vous voulez !), capable de combiner les calculs arithmétiques et logiques avec des calculs sémantiques et pragmatiques respectueux du caractère complexe, qualitatif et virtuellement infini de l’univers cognitif.

Cela ne rendra pas obsolètes les résultats antérieurs des recherche en IA (NDLR: Intelligence Artificielle), en informatique cognitive ou en théorie des jeux mais permettra au contraire de les enrichir d’un contenu sémantico-pragmatique beaucoup plus riche.

Plus généralement, je crois que les développements ultérieurs du cyberespace verront l’avènement d’une révolution scientifique dans les sciences humaines, un peu comme l’invention de la presse à caractères mobiles par Gutemberg et les nouveaux instruments d’observation (téléscope et microscope) ont favorisé une révolution scientifique dans les sciences de la nature.Les acteurs de cette révolution auront tendance à considérer les phénomènes sociaux comme des processus cognitifs à l’échelle collective. Ces processus de cognition collective (ou d’économie de l’information signifiante) seront observables, navigables et modélisables dans le cyberespace.
Au-delà de la fragmentation disciplinaire et théorique des sciences humaines contemporaines, le coeur de cette révolution de l’économie de l’information sera la découverte-exploration constructive d’un espace cognitif multidimensionnel, fractal, unique et infini où se déroulent les processus relevant de la culture humaine. »

Denis Failly – « Merci Pierre Levy »


Le site IEML

Pierre Levy est l’auteur de nombreux ouvrages parmi lesquels :

L’intelligence collective : Pour une anthropologie du cyberspace

La Cyberculture

Qu’est ce que le virtuel

Les arbres de connaissance

 

Bio : Pierre Lévy a consacré sa vie professionelle à analyser les implications culturelles et cognitives des technologies numériques et à promouvoir leurs meilleurs usages sociaux.

Né en 1956. Maîtrise d’histoire des sciences (Paris, Sorbonne, 1980, dirigée par Michel Serres). Doctorat de sociologie (Paris EHESS 1983, dirigée par Cornélieus Castoriadis).
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995.

Membre de la mission officielle sur l’enseignement ouvert et à distance

 

State of the future 2005

La bibliothèque NextModerne, State of the future 2005, Saphia Richou interviewé par Denis FaillyJerome C. Glenn, Theodore J. Gordon, American Council for the United Nations University
 

Quelques mots de Saphia Richou, Présidente de Prospective-Foresight Network,  qui représente en France (« french node ») le  Millennium Project

 

Denis Failly – « Saphia Richou, l’édition 2005 de State of the Future vient de paraître, dans le cadre du Millennium Project, pouvez-vous nous en dire plus sur l’organisation, les objectifs et les contributeurs à cette étude ?« 

Saphia Richou medium_saphiarichou.jpg » L’édition 2005 State of the Future est la neuvième édition du rapport annuel de State of the Future. Neuf ans de travaux prospectifs sur 15 questions clés pour l’avenir mondial, c’est avant tout une recherche sur les trajectoires d’évolution de notre planète, recherche menée en continu par plusieurs centaines de chercheurs publics ou privés de haut niveau, disséminés dans plus de cinquante pays et s’appuyant sur plus de trente « nœuds » ou représentants de recherche. Presque une décennie d’intelligence collective.

C’est aussi de très nombreuses études thématiques sur des questions aussi cruciales que l’éthique et les débats qui en découlent comme ceux sur les OGM ou les interventions internationales dans les affaires touchant à la souveraineté des nations ou encore les questions émergentes de sécurité environnementale ou celles sur l’énergie de demain. Né à Washington avec l’ambition de devenir un réseau planétaire, le Millennium Project a été lancé par le Conseil américain pour l’Université des Nations Unies (AC/UNU) en 1996. Ce Projet constitue aujourd’hui le premier réseau mondial de prospective et mobilise plusieurs centaines de chercheurs à travers le monde.

En Europe, les travaux du Millennium Project ont été à la fois nourris et diffusés par les « nœuds » de Berlin, d’Helsinki, de Londres, de Paris, de Prague, de Moscou, de Rome, ainsi que de l’Aire de Bruxelles, pilotée par l’Institut Jules-Destrée. Suscitée par l’actuel directeur du projet, Jerome Glenn, et décidée lors de la réunion du Comité d’Orientation tenue à San Francisco le 18 juillet 2003, l’Initiative des nœuds européens du Projet Millénium (European Millennium Project Initiative, EuMPI) est menée par les nœuds européens et a pour objectif de valoriser les spécificités de la prospective telle qu’elle est pratiquée en Europe, au sein de la dynamique du Millennium Project.

L’intérêt engendré par les travaux du Millennium Project en Europe – notamment lors de la Conférence internationale organisée à Louvain-la-Neuve les 13 et 14 avril 2005 et intitulée L’avenir des Européens dans la société mondiale de la Connaissance (The Futures of Europeans in the Global Knowledge Society) – a convaincu l’Institut Destrée de la nécessité de produire une version française du rapport annuel sur l’Etat du Futur. Qu’il en soit ici remercié car ce rapport nous permet enfin d’être lu et connu des pays francophones.

L’état du futur annuel est un document où chacun puise des informations et des idées qu’il adapte à ses besoins spécifiques. Il dépeint un paysage stratégique global que les décideurs du secteur public comme du secteur privé gagneront à utiliser car il améliorera leurs propres décisions stratégiques ainsi que leur compréhension globale du monde. Les chefs d’entreprise exploiteront les recherches décrites dans la mise en œuvre de leurs propres scénarios. Les professeurs d’université, les prospectivistes et autres consultants adapteront des informations utiles à leur enseignement et à leurs recherches. Le décideur comme le citoyen, en feront également bon usage. »

Denis Failly – « Quels sont les principaux axes prospectifs développés dans cette nouvelle édition ?« 

Saphia Richou  » Dans cette nouvelle édition, on découvre l’actualisation annuelle des quinze enjeux globaux identifiés sous la forme des questions clés :

1. Comment le développement durable peut-il être réalisé pour tous ?
2. Comment chacun peut-il disposer d’une eau propre en suffisance sans susciter de conflit ?
3. Comment équilibrer la croissance démographique et les ressources ?
4. Comment une véritable démocratie peut-elle naître des régimes autoritaires ?
5. Comment faire en sorte que l’élaboration des politiques publiques soit davantage sensibilisée aux perspectives globales à long terme ?
6. Comment la convergence globale des technologies de l’information et de la communication peut-elle fonctionner pour chacun ?
7. Comment des économies de marché éthiques peuvent-elles être incitées à réduire le fossé entre les riches et les pauvres ?
8. Comment peut-on réduire la menace que constituent les nouvelles maladies, les maladies résurgentes et les micro-organismes immunitaires ?
9. Comment peut-on améliorer la capacité de décision face aux changements de la nature du travail et des institutions ?
10. Comment les valeurs partagées et les nouvelles stratégies sécuritaires peuvent-elles réduire les conflits ethniques, le terrorisme et le recours aux armes de destruction massive ?
11. Comment l’évolution du statut des femmes peut-elle contribuer à améliorer la condition humaine ?
12. Comment empêcher les réseaux organisés de la criminalité transnationale de se transformer en des entreprises plus puissantes et sophistiquées au niveau mondial ?
13. Comment les demandes croissantes en énergie peuvent-elles être satisfaites sans risque et efficacement ?
14. Comment les percées scientifiques et technologiques peuvent-elles être accélérées afin d’améliorer la condition humaine ?
15. Comment les préoccupations éthiques peuvent-elles être plus naturellement intégrées aux décisions globales ?

On découvre aussi que les versions courtes et longues des défis globaux ont été mises à jour et que des mesures de succès y ont été ajoutées. Chaque enjeu en chapitre 1 du Cédérom possède cette année un lien hyper texte renvoyant à la table des matières pour une navigation plus facile à travers les presque 700 pages d’études.

Les données utilisées dans l’Etat du Futur index (l’Indicateur de l’Etat du futur) ont changé au cours d
es cinq dernières années, à l’instar du SOFI (NDLR : State of the Future Index) lui-même. Les raisons de ces changements ont été évaluées afin d’avoir un aperçu des principaux facteurs qui rendront les 10 prochaines années meilleures ou plus mauvaises. En effet, selon l’Index de l’Etat du Futur, on constate que les évolutions vont dans le sens d’un futur meilleur mais que cette progression s’avère très lente. L’analyse de ces changements est réalisée à partir d’un panneau global de surveillance dont le nombre de variables a été réduit à 20, en raison de la disponibilité de données fiables au cours des 20 dernières années.

Par ailleurs, les prospectives des questions d’éthique ont été identifiées et classées dans le cadre d’un Delphi mondial, à l’instar des mutations éventuelles au niveau de l’acceptation globale des valeurs.

L’impact environnemental et sanitaire éventuel de l’usage militaire et de tout autre utilisations agressives des nanotechnologies (avec comme priorité de recherche d’empêcher l’apparition de ces problèmes) a fait l’objet d’une évaluation lors d’un Delphi en deux cycles.

Des questions émergentes de sécurité environnementale avec leur lot d’implications sur les accords internationaux et d’implications militaires ont été évaluées.

Des améliorations ont été apportées à l’Indicateur de Développement Durable. La qualité et la pérennité des indicateurs de bien-être ont été introduites pour une utilisation nationale et régionale.

Environ 50 scénarios ont été ajoutés à la bibliographie analytique des scénarios figurant sur le Cédérom, pour un total plus de 600 scénarios ou ensembles de scénarios.

Le Cédérom inclut les détails et les recherches qui étayent la version imprimée. Il contient également l’intégralité du texte des précédents travaux du Millennium Project :

  • scénarios exploratoires, normatifs, et à long terme, avec une introduction à leur élaboration
  • trois scénarios de paix au Moyen Orient ainsi que l’étude triennale les étayant.
  • des scénarios en matière de science et de technologie ainsi que l’étude de deux ans les justifiant
  • une analyse des discours des dirigeants mondiaux prononcés lors du sommet du Millénaire de l’ONU dans 2000
  • des définitions de la sécurité environnementale, des menaces et les traités s’y afférents.
  • La doctrine militaire de l’ONU sur les problèmes environnementaux liées aux questions militaires, les éventuels crimes environnementaux militaires et la cour pénale internationale; la modification des exigences militaires en matière de sécurité environnementale en 2010-25 ainsi que les facteurs requis pour une mise en œuvre fructueuse des recherches prospectives en matière décisionnelle.
  • deux études visant à créer des indicateurs et des cartes sur la situation du développement durable ont été conduites par des participants du Millennium Project ainsi qu’un examen international du concept de création d’un  » Partenariat pour le développement durable « , une étude initiée par le « nœud » de l’Europe centrale.

Un rapport 2005 State of the Future très dense, vous en conviendrez. »


Denis Failly –  « Parmi les perspectives, scénarii, et autres émergences probables ou vraisemblables…y’en a-t-il une en particulier dont vous souhaiteriez nous tracer les contours ? »

Saphia Richou « L’étude sur les questions éthiques du futur est véritablement un sujet particulièrement important pour les vingt ans à venir. Les débats contemporains concernant l’éthique des questions liées aux aliments génétiquement modifiés, les interventions internationales dans les affaires d’une nation souveraine auraient pu être mieux appréhendés si les citoyens, les décideurs, avaient commencé à examiner ces sujets il y a trente ans.
Il semble aujourd’hui évident que la globalisation et les avancées en science et technologie conduiront à des questions éthiques du futur qui toucheront notre espèce dans son ensemble et il faudra de nombreuses années à l’humanité et à ses systèmes de gouvernance pour prendre des décisions éclairées à leur sujet.
C’est pour anticiper ces changements que le Millennium Project a réalisé une évaluation internationale visant à identifier les questions éthiques du futur les plus importantes qui risquent de se poser et à envisager la manière de les résoudre.
A partir d’un questionnaire Delphi en deux parties permettant de recueillir et d’évaluer les questions ainsi que les valeurs, on a pu se poser par exemple les interrogations suivantes : Quelle est la manière éthique d’intervenir dans les affaires d’un pays qui met en danger de manière significative ses ressortissants ou d’autres personnes ? Les religions devraient-elles renoncer à la prétention de certitude et/ou de supériorité afin de réduire les conflits de religion ? Avons-nous le droit de nous cloner ? ou encore Des parents ont-ils le droit de concevoir des « bébés sur mesure » génétiquement modifiés ?

Les résultats de cette enquête sont forts intéressants. On constate par exemple que 5 principes éthiques se retrouvent au fil des ans après relevé des valeurs ayant recueillies la plus large approbation pour 2005, 2015 et 2050 :

  • La survie de l’espèce est une priorité absolue,
  • Les personnes doivent être responsables de leurs actions ou inactions,
  • L’intolérance conduit à la haine et à la désintégration sociale,
  • La science et la technologie devraient servir la société plutôt que de constituer une simple recherche en soi
  • L’accès à l’éducation est un droit fondamental.

Je vous conseille de lire l’intégralité des résultats de cette étude si les questions d’éthique vous intéressent car en plus de poser les bonnes questions, elle propose des principes qui pourraient servir de référence dans la résolution de ces questions.

Denis Failly – « Saphia, quel regard portez-vous en tant que spécialiste sur la Prospective française, peut-on encore parler d’école française de prospective dans la tradition des fondateurs comme Gaston Berger et Bertrand de Jouvenel, et les outils du siècle dernier sont-ils toujours d’actualité ? « 

Saphia Richou « C’est un regard qui s’appuie sur la pratique, plus que sur la théorie et voit clairement que la prospective n’est pas exclusivement le fruit d’une construction intellectuelle mais plutôt d’un réseau d’expériences et d’informations à partir duquel l’attitude prospective permet de préparer l’avenir autrement pour agir face à la rapidité croissante de l’évolution du monde. Cette posture qui analyse les problèmes de manière transdisciplinaire fonde l’indiscipline intellectuelle qu’est la prospective et je revendique haut et fort l’état d’esprit critique et espiègle de ceux qui l’ont fait naître en France dans les années 50. C’est un regard qu
i tend à voire loin, large, analyser en profondeur, prendre des risques et penser à l’homme pour paraphraser la célèbre citation de Gaston Berger dans « L’attitude prospective1« .
L’Ecole française de prospective dont vous parlez et dont vous insinuez l’obsolescence date des années 60. L’époque est toute autre. Cela dit, nous en avons gardé les enseignements fondamentaux que sont la propension à savoir qui l’on est et d’où l’on vient, à bien poser le problème avant de trouver les solutions et, plus que tout, à combattre les idées reçues. Cette attitude me paraît fondamentale en prospective et devrait être enseignée dans toutes les formations en prospective. On retrouve cette attitude dans l’utilisation des méthodes du Lipsor qui ont été actualisées récemment et mises à la disposition du public gratuitement sur le site Internet du Laboratoire d’Investigation en Prospective, Stratégie et Organisation (Lipsor) à l’initiative de Michel Godet, leur créateur.

Néanmoins, la prospective sait qu’elle ne peut se contenter des outils existants et s’atèle aujourd’hui à en inventer de plus pertinents encore. Personnellement, le déficit de prise en compte des sciences humaines, de la psychanalyse et des méthodes de créativité me parait impacter la pertinence des démarches prospectives actuelles.Pour autant, jeter des outils qui ont fait leur preuve avec l’eau du bain serait une erreur car les méthodes que nous employons ont le mérite d’initier des démarches prospectives participatives permettant de se poser les bonnes questions et de créer un véritable langage commun entre les participants En tant qu’enseignante en prospective stratégique au Conservatoire National des Arts et Métiers, je peux vous assurer que les étudiants du Cnam qui sont, par ailleurs, des professionnels de leur secteur d’activité, les utilisent à bon escient et en mettent à profit les résultats en entreprise et dans les territoires. »

Denis Failly « Saphia, merci beaucoup « 

1 : L’encyclopédie française, 1959, repris dans Phénoménologie du temps et prospective, PUF, 1964, Paris, pp.270-275

Le site de State of the Future

Bio : Saphia Richou est Présidente de Prospective Foresight Network – Ingénieur d’études et de recherche, Enseignante en prospective stratégique à la Chaire de Prospective Industrielle du Conservatoire des Arts et Métiers – Auteur d’essais prospectifs


 

Demain est un autre jour, que sera l’Internet dans 10 ans

 

 la bibliothèque NextModerne, Demain est un autre jour

 Télécharger l’ouvrage en pdf  (460 ko, 81 pages)

 

 Extrait 

« Demain est un autre jour »

                                         Autrans 2006- 2016

 

 

“Internet sera devenu si familier que l’on ne le remarquera plus…Le téléphone, l’ordinateur et la télévision auront fusionnés… Nous serons connectés et joignables en permanence… Nos brosses à dents seront équipées de capteurs qui analyseront nos muqueuses… Des imprimantes 3D graveront nos objets quotidiens… Les assurances nous factureront nos excès de vie… L’Etat légiféra pour limiter le cyberinfidélité… Les technologies de surveillance permettront le maintien à domicile des personnes dépendantes… Notre livreur de pizza disposera d’informations sur notre santé et nos finances… Ledroit d’auteur et les copyrights industriels seront abolis… Les entreprises seront plus réactives et composeront avec les contraintes géographiques et temporelles… Le tourisme médical se développera…Les échanges de pair à pair seront encouragés… Les jeux seront utilisésdans le système de formation personnalisée… Les talents de chaque élève seront exploités et mis au service des communautés
d’apprenants… Nous n’habiterons, ni ne travaillerons plus en ville…La liste des compétences nécessaires à un emploi sera longue et rapidement obsolète… Nous emprunterons du temps de cerveau à notre voisin… Nous assisterons à un trafic d’identités numériques…Les débats démocratiques disciplinés bouleverseront la vie politique…Internet n’existera plus et nous irons à la plage…”

 

Le temps de l’ambiguité : Le contexte politique du changement

La bibliothèque NextModerne, le temps de l'ambiguité, interview de Raymond Vaillancourt par Denis Failly

 

 Raymond Vaillancourt, 2006, Presses de l’Université du Québec

 

 

 

 

 

Denis Failly –  « Raymond Vaillancourt, votre nouvel ouvrage, « le temps de l’ambiguïté » s’inscrit-il dans la continuité du précédent « le temps de l’incertitude » et quel en est la thèse ? »

Raymond Vaillancourt La bibliothèque NextModerne, Raymond Vaillancourt-« Alors que le premier ouvrage faisait surtout état du changement de paradigme dans la notion de changement et de sa conduite, le second établit le lien entre ce changement de paradigme et le contexte politique actuel. L’idée développée tient surtout au fait qu’en période de pénombre politique, c’est-à-dire cette période où en l’absence de véritables hommes et femmes politiques, il devient plus difficile, particulièrement pour les organisations publiques, de s’engager dans de véritables changements même si ceux-ci s’avèrent nécessaires. Les managers préfèrent de beaucoup parler de changement et œuvrer à son apparence plutôt qu’à le mettre véritablement en œuvre. Ils sont en cela « supportés » par le monde politique qui redoute l’impact qu’auraient les véritables changements sur l’actuelle répartition du pouvoir. »

Denis Failly –  « Vous définissez trois profils de managers (Pouvoir, Puissance, Politique) quels sont leurs caractéristiques majeures ? »

Raymond Vaillancourt « Pour résumer en un mot, on pourrait dire que ce qui anime le manager de pouvoir, c’est le fait de pouvoir exercer le contrôle sur les personnes et les situations sans que le changement ne vienne ébranler ce contrôle; pour le manager de puissance, c’est le fait de pouvoir influencer son entourage et les amener à vouloir le changement par eux-mêmes qui sera sa motivation; alors que le manager politique, recherchant d’abord et avant tout l’entente la plus large possible, ne souhaitera finalement que l’apparence de changement. Le contexte politique actuel favorise, depuis plusieurs années déjà, que les organisations publiques aient à leur tête davantage de managers de pouvoir et de managers politiques que de managers de puissance. Ceci permet aux politiciens et politiciennes d’avoir une certaine assurance que rien ne viendra remettre véritablement en cause leur situation actuelle, c’est-à-dire d’être en situation de pouvoir. Or pour effectuer les véritables changements de paradigmes qu’exigerait la situation actuelle, les managers de puissance seraient mieux positionnés. On préfère cependant les laisser au niveau intermédiaire afin que les organisations publiques ne paraissent pas trop déphasées, aux yeux des différentes clientèles et de la population, »

Denis Failly -« Si l’on devait définir un socle minimum des qualités requises pour être un bon manager quelles seraient – elles ? »

Raymond Vaillancourt « Il faudrait, à mon avis, parler de trois qualités particulières : la détermination, le courage et l’humilité. Ce ne sont pas habituellement les qualités que l’on recherche chez les candidats, en particulier pour les postes supérieurs. On leur préfère la flexibilité, le pragmatisme et le sens de la hiérarchie. La détermination fait référence à la présence d’une vision claire et articulée des changements à mettre en œuvre, le courage au fait d’aller de l’avant malgré les intérêts qui sont remis en cause et l’humilité renvoie à une conception du rôle du manager comme étant celui qui doit être au service de ceux dont il a la responsabilité. Ce sont là des qualités que les managers de puissance ont plus de facilité à développer que les managers de pouvoir et que les managers politiques ont l’habitude de simuler. Il faut aussi rappeler que le management, une fois les connaissances techniques maîtrisées, renvoie davantage à l’art qu’à la technique. Faire évoluer ensemble des personnes, aux valeurs diversifiées et démontrant une vision différente du travail comme le présentent les nouvelles générations, relève dans le contexte actuel d’incertitude, d’une approche basée davantage sur le charisme que sur l’autorité. Cette caractéristique manque fortement aux managers de pouvoirs et aux managers politiques pour qui les techniques du traditionnel « planifier, organiser, diriger et contrôler » et l’appel au respect de la hiérarchie s’avèrent des outils incontournables. »

Denis Failly -«En quoi le Management a t-il évolué ces derniers années et pourriez-vous nous rappeler les grands types de changements organisationnels »

Raymond Vaillancourt – Dans les faits, je ne crois pas que le management, du moins dans le domaine public, ait évolué tant que cela! C’est justement là que se trouve le problème car le monde dans lequel nous vivons a, quant à lui, beaucoup changé. Les individus qui composent les organisations également. Ces derniers doivent continuellement faire face à l’incertitude générée par la difficulté d’adaptation des organisations publiques. Au moment où ils auraient besoin de plus d’autonomie, on renforce les contrôles; au moment où ils auraient besoin de comprendre le sens de leur travail, on leur parle de restrictions, de relocalisation, de bouleversements géopolitiques qui risquent d’affecter leur quotidien; au moment où ils auraient besoin que le management s’occupe d’eux, ce dernier s’occupe encore du travail à accomplir ! Bref, au moment où les organisations font face, dans leur environnement, à des changements de type deux (c’est-à-dire de changements qui remettent en cause les paradigmes habituels) les managers tentent d’en minimiser les effets sur leur organisation en les transformant en changements de type un (c’est-à-dire de changements de structures qui, au fond, ne permettent pas aux organisations publiques de changer véritablement).

La situation du management, dans le domaine privé, semble moins problématique essentiellement en raison du fait que ce dernier n’a pas le choix ! Il doit revoir ses méthodes même s’il n’y réussit pas toujours. D’ailleurs on n’entend plus parler de ceux qui ont échoués! Le danger qui guette les organisations publiques actuelles, en raison de l’attitude de son management, est justement de rester aveugle aux bouleversements sociaux et ainsi ne pas être en mesure d’affronter les crises. Car aujourd’hui, il ne faut plus chercher à contraindre l’incertitude et à la réduire mais plutôt il faut apprendre à l’intégrer dans le management quotidien en fournissant aux employés les moyens d’en réduire les effets sur leur insécurité. En
core faut-il, pour ce faire, que les managers aient affronté leur propre insécurité résultant du contexte actuel plutôt que de se réfugier derrière les paradigmes traditionnels. »

Denis Failly – « Raymond Vaillancourt, je vous remercie »

Le site de Raymond Vaillancourt

Bio: Détenteur d’une maîtrise en psychologie et d’une maîtrise en administration publique, Raymond Vaillancourt est chargé d’enseignement à l’Ecole Nationale d’Administration Publique. il est l’auteur de nombreux articles sur le changement.  Il est président de Prospect Gestion, fime conseil en gestion stratégique et prospective. il s’intéresse particulièrement a la problématique du changement organisationnel.