Benoit Virole : Shell

 70aac2842a9ad35d052ac069461b826b.jpg

Shell, par Benoit Virole, psychanalyste, spécialiste des mondes virtuels

Editions Hachette Littératures

Interview Catherine Fournier-Montgieux, pour Nextmodernity

A travers votre roman  Shell (Hachette Littératures 2007), vous faites entrer le lecteur dans un univers encore très confidentiel et surtout très improbable pour beaucoup, celui des jeux vidéos et univers virtuels persistants ; comment en êtes-vous venu à vous intéresser à ces univers ?
 
Les univers virtuels sont des espaces extraordinaires dans lesquels toutes sortes de situations nouvelles et de problématiques inédites peuvent être posées : Qu’est ce que l’identité de soi, de quelle nature est notre relation au corps, comment construisons nous notre sens de la réalité ? etc. Tout honnête homme contemporain ne peut être, au minimum, qu’intrigué par ces nouveaux univers qui constituent une évolution anthropologique considérable, sans doute comparable dans l’histoire à la survenue de l’imprimerie… Ces univers, en particulier les  jeux vidéo qui utilisent des mondes persistants  continuant à évoluer même quand le joueur est déconnecté, créent  les conditions d’un nouvel imaginaire romanesque…d’où ce roman où le narrateur va devoir s’immerger dans ces mondes jusqu’à la déraison et y faire d’étonnantes rencontres.
 
Quelle est votre vision, en tant qu’analyste, de ces univers virtuels ?
 
Les univers virtuels dévoilent les fantasmes des concepteurs comme des joueurs, et de façon plus globale du corps social. Ils deviennent des espaces de concrétisation de désir dans lesquels la contemplation d’une action réalisée par son avatar remplace le plaisir à penser… Il y a là toute une dimension psychique passionnante à étudier à partir du point de vue de la psychanalyse… Un des points central concerne l’économie de mouvement : lors d’un acte virtuel, le sujet réalise une action sans qu’il y ait la décharge énergétique corollaire, nécessaire à l’effectuation physique réelle, mais cette énergie est cependant mobilisée  psychiquement lors de l’acte virtuel et elle se décharge dans un affect de plaisir. C’est pour cela que les mouvements réalisés dans le virtuel nous procurent du plaisir, en plus de la jouissance à réaliser virtuellement ce que nous ne pouvons faire dans la réalité (voler librement dans les airs, comme dans Second Life, par exemple). Bref, le virtuel ouvre de nouvelles problématiques théoriques tant en psychologie cognitive qu’en psychanalyse.
 
Les mondes virtuels sont souvent idéalisés, on aime particulièrement s’y représenter jeunes, beaux, dynamiques et pleins d’amis ; n’y a-t-il pas une forme de fuite devant la réalité ?
 
C’est  plutôt la création d’une nouvelle réalité conforme au désir (ou à ce que l’on croît être son désir) permettant de disjoindre le corps réel de la représentation virtuelle. La  notion de fuite de la réalité  doit à  mon sens être relativisée. La lecture, la télé ou le cinéma pourraient être aussi  considérées comme des fuites. Il s’agit plutôt d’une extension du monde réel à un autre monde, virtuel, dans lequel la représentation de soi est libérée des contraintes du réel et peut suivre des réalisations de désir (se représenter sous un corps autre, réaliser des choses impossibles dans le réel, par exemple).
Mais plus profondément, il faut considérer l’attraction du virtuel comme relevant de la nécessité chez l’homme de découvrir des espaces nouveaux. D’une certaine façon, il n’existe plus aujourd’hui dans la réalité de contrées inexplorées ou de territoires vierges à conquérir. L’espace est encore hors de portée pour les hommes ordinaires… Il reste le virtuel comme géographie nouvelle pour le désir de conquête… Je crois que l’attractivité forte, parfois l’addiction,  des adolescents pour les jeux vidéo à monde persistant relèvent fondamentalement de ce besoin d’aventure qui n’est pas un besoin trivial, mais bien une caractéristique structurelle de l’adolescence.
 
Comment établir un lien entre les univers virtuels et des objectifs à visée thérapeutique ?
 
L’immersion conjointe du patient et du thérapeute dans un univers virtuel offre les conditions d’une expérience, au sens noble du terme, partagée, dans laquelle les affects sont fortement mobilisés et ainsi permettent un accès plus direct au monde intérieur du patient.
Mais il s’agit là d’une approche thérapeutique complexe, difficile, non miraculeuse, malgré le battage médiatique qui est fait autour de cela. En pratique, elle  est surtout réalisée avec les adolescents et les enfants… et elle ne substitue pas à la nécessité de l’élaboration verbale.
Pour dire les choses rapidement, les mondes virtuels constituent des espaces transitionnels dans lesquels analyste et patient partagent une expérience permettant une élaboration des conflits inconscients. Par exemple, un adolescent soumis à des fantasmes de destruction du monde pourra réaliser, virtuellement, ce fantasme en présence de son analyste qui dès lors pourra le percevoir et agir, éventuellement, par une interprétation si le contexte transférentiel le permet. D’autres approches utilisent le virtuel à fins de rééducation comportementale, en particulier pour le traitement des phobies, où l’exposition virtuelle à l’objet phobique est censée désensibiliser progressivement  le sujet et le libérer de sa phobie. Pour moi, ce n’est pas l’aspect le plus intéressant de l’utilisation thérapeutique du virtuel, même si l’efficacité semble au rendez vous. Les concepts d’immersion et d’attribution d’un sens à  une réalité fictive me paraissent des notions beaucoup plus profondes et riches d’implications… 
 
Vous évoquez l’idée de « réification » présente dans les univers virtuels ; pouvez-vous en dire quelques mots, notamment par rapport au monde  professionnel virtualisé qui se dessine aujourd’hui ?
 
Les univers virtuels invitent à l’auto présentation de soi sous la forme d’un personnage numérique qui représente le sujet auprès d’autres sujets connectés dans le même monde et qui sont eux mêmes représentés sous forme d’avatars. Il s’agit là d’un dispositif ou l’inauthencité est la règle, où elle est érigée en tant que système : on doit se montrer aux autres différents de ce qu’on est en réalité, en particulier par le choix d’un pseudonyme et d’un corps numérique différent du corps réel. Ces univers deviennent des espaces de transaction généralisée. On se présente à l’autre sous une image pour obtenir quelque chose de l’autre, ne serait-ce que  l’obtention d’un contact. Les univers virtuels préfigurent ainsi l’évolution générale vers la réification qu’annonçait Marx. Toute relation humaine devient objet.
La réification est ainsi marquée par l’objectivation mercantile de l’autre, la négation de l’intériorité de l’autre comme de la sienne. Les univers virtuels tels Second life illustre cette évolution de façon spectaculaire.
 
Quelles sont évolutions probables selon vous de cette nouvelle réalité ?
 
La réalité virtuelle aujourd’hui existe dans le monde du jeu vidéo, dans le
s sites de rencontre (second life), dans les sites commerciaux (galeries marchandes virtuelles) , dans les simulations de conduite (avions, voiture, engins..), dans la conception assistée par ordinateur d’objets, dans la simulation d’événements… Elle  va s’étendre à des utilisations telles que la formation professionnelle,  la simulation de conflits en entreprises, ou bien encore le recrutement, l’évaluation des compétences, mais aussi la recherche scientifique, la modèlisation des connaissances, l’aide aux handicapés, le traitement psychologique et psychiatrique, etc. sans compter bien évidemment les espaces d’aventure et de création artistique. Le virtuel est  devenue la nouvelle frontière…

Benoît Virole
benoit.virole@wanadoo.fr

En savoir plus :
www.benoitvirole.com
(Littérature, Psychopathologie,Réalité Virtuelle…)

 

 

Un ebook pour 2008 !!!

Une alternative à la lecture traditionnelle: L’ebook

Pour la nouvelle année nous avons pensé que ce serait une bonne idée que d’offrir ou de s’offrir une nouvelle façon d’aborder un livre. Nous avons eu vent de l’opération menée par Malo Girod de l’Ain, des Editions M21, qui propose un pack comprenant:

-Un lecteur ebook

-une « Bibliothèque » de 24 livres traitant des thémathiques du Web 2.0, de la prospective, du management 2.0  ( M21 Edition, FING, Silicon sentier, club sénat …)

pour une somme de 369 euros HT

Alors si vous souhaitez demarrer l’année 2008 avec un objet original et pratique, n’hésitez pas à allez commander le pack à l’adresse suivante (et trouver toutes les informations necessaires) :

http://ebook.cluster21.com/

 

Retrouvez ci-dessous l’interview de l’enthousiaste Malo Girod de l’Ain nous parlant de son « jouet » …  

 

 

 

Nous vous souhaitons de très bonnes fêtes de fin d’année ainsi que le meilleur pour 2008  ….fd3f516210901b83b616b3b0985cee51.jpg

 

Philippe Axel : La Révolution Musicale

26b191c291463cfce8214ec51b0b3d8d.jpgLa Révolution Musicale
Liberté, égalité, gratuité

par Philippe Axel, auteur et musicien

Editions Pearson, Village Mondial

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

 « La musique est au coeur de toutes les révolutions. C’est par elle que tout commence.» a déclaré Jacques Attali dans votre préface.
C’est par la musique, que commence la révolution qui se joue aujourd’hui avec Internet ?

Oui, en effet, Jacques Attali, qui a eu la gentillesse d’écrire la préface de mon livre, n’arrive pas comme un cheveu sur la soupe sur cette question. Il y travaille depuis la fin des années 70 et la parution d’un livre référence sur le sujet : Bruits. Dans ce livre, remis à jour régulièrement  depuis,  il explique en effet pourquoi la musique a toujours été à l’avant-garde des grandes révolutions économiques et politiques. Il prévoyait l’avènement des objets nomades et puis surtout, il expliquait déjà magnifiquement pourquoi la musique échappe aux règles de l’économie classique car elle détient des valeurs autres qu’économiques.

Pour moi la révolution qui s’annonce par la question des échanges de musique sur Internet, est double : Une révolution économique et une révolution politique. La révolution économique passera par la gratuité de tous les fichiers numériques, et cela touchera donc tous les modèles économiques actuels des productions culturelles, informatiques, du jeu vidéo etc. La révolution politique passera par la construction, par Internet, d’une démocratie internationale. Cela commencera par la constitution d’une identité collective mondiale, et ensuite cela se concrétisera par de nouvelles formes de démocratie directe ; par ceux que Michel Serres appellent : les citoiliens (ceux qui voteront par la toile). Pour cela, il faudra que les symboles culturels puissent s’échanger librement, et donc en premier lieu, la musique. Et il faudra des logiciels libres et ouverts pour contrôler les suffrages.

Vous faites une analyse très approfondie des techniques marketings mises en œuvre par les industriels du disque pour vendre la musique ; ces techniques sont tellement poussées que l’on ne sait plus en réalité si on achète l’oeuvre d’un artiste ou celle d’un expert en marketing ; comment en est-on arrivé là ?

A force de tout vouloir rationaliser pour des objectifs économiques. Il n’y a pas de question de morale là dedans. Des gens sont payés pour faire de l’argent avec de la musique, à très court terme, ils sont tentés d’utiliser pour cela des ficelles marketing extrêmes, qui vont jusqu’au conditionnement. Nous avons peur à juste titre d’une dictature culturelle de l’état, mais nous sommes assez proche d’une dictature du marketing. Moi-même, je suis conditionné. Je fais parti des ces « foules artificielles » que l’on crée par la télévision et par la radio, par ce que l’on appelle : les partenariats croisés [NDLR : Ex, en 2003, la première version de la Star Academy bénéficie du partenariat croisé TF1, Universal, NRJ]. Se battre contre cela c’est une « écologie de l’esprit » comme le souligne très justement Bernard Stiegler par exemple. Et le pire c’est que cela vise nos enfants qui perdent leur libre arbitre et qui sont ciblés comme des lapins.

D’après vous ce ne sont pas les artistes qui perdent le plus au téléchargement gratuit sur internet mais essentiellement les majors du disque ; pouvez-vous dire pourquoi ?

Nous sortons d’une ère de gestion de la rareté pour entrer dans une ère de gestion de l’abondance musicale. Pour un artiste désormais, il faudra d’abord gagner de l’attention dans la masse des œuvres produites, et la seule manière ce sera la gratuité de l’écoute. Songez qu’il y a 50 millions de pianistes en Chine, plus proche de nous, il y a quand même 130 000 auteurs répertoriés à la SACEM en France. Si l’on veut que subsiste un professionnalisme musical, il faudra ensuite opérer une sélection des meilleurs comme dans le sport ou dans l’artisanat et braquer les projecteurs sur eux pour leur permettre de gagner de l’argent. Les maisons de disques vont perdre leur pouvoir de sélection au profit des musiciens eux-mêmes et des internautes. Elles deviendront probablement des « maisons de musique » se mettant au service des meilleurs pour les aider à gérer le business des produits dérivés, éditions et autres tournées. C’est très bien parce que les maisons de disques étaient  devenues arrogantes, jusqu’à vouloir créer elles-mêmes des chanteurs in-vitro, cela va les replacer dans une logique de service. Elles vont se replacer sur le parvis du temple et sortir de l’intérieur pour reprendre une métaphore biblique.

Ces mêmes maisons de disques font valoir que la musique marketing a toujours existé et que grâce à cela, il est possible de financer la qualité. Vous n’êtes pas d’accord …

C’est le colonel Parker qui a expérimenté le marketing sur Elvis Presley et donc, ce n’est pas nouveau. Je ne suis pas d’accord avec la logique qui consiste à attribuer tous les moyens à de la faible qualité ultra-médiatique, dans l’objectif, soi-disant, de financer de la grande qualité confidentielle. C’est une logique porteuse à court terme, mais désastreuse à long terme. A force de tirer sur la libido du consommateur, on la ruine. Il vaut mieux lui prendre la main et le tirer vers le haut, ensuite il devient passionné et collectionneur d’objets dérivés. Il y a deux options du marketing qui s’affrontent là.

Comment définir en fait la musique et la culture au sens large ; doit-on les considérer comme des biens comme les autres ?

Je suis allé au fond des choses, par moment ce n’est pas mal de regarder un dictionnaire et de lire, par exemple, la définition du mot « culture ». Il n’y a aucune référence au marché, au commerce, dans cette définition aussi bien lexicale, qu’étymologique. La culture, cela vient du mot « culte ». il y a des cultes religieux, mais aussi laïques et athéistes. Ce sont des échanges symboliques dans des cadres rituels. La chanson est un cadre rituel. Le but de tout cela est de créer des identités collectives, des « nous ». Nous sommes français, parce que nous avons Trenet et Barbara en commun par exemple. Donc, il faut bien faire la distinction entre la culture, dont le but final est sans doute la paix, et les produits et services dérivés culturels. De fait, le ministère de la culture devrait tirer vers la gratuité et le ministère de l’industrie vers le payant.

La question du modèle économique doit quand même se poser à un moment ; comment financer la musique : par le marché, la collectivité ?

La gratuité n’est pas un problème pour la culture, au contraire, mais c’est un problème pour les productions culturelles ambitieuses où tout le monde est payé. On nous dit, soit c’est le marché, soit c’est l’état stalinien ! Ben voyons ! Et l’équilibre alors ? Ce n’est pas possible l’équilibre, la mixité des financements ? Devons-nous choisir entre un conditionnement marketing et un conditionnement de l’état ? Je pense qu’il faut l’équilibre. Il faut le marché, et il fau
t le collectif. L’un alimente l’autre d’ailleurs. Ils ne s’opposent pas. Pour moi le modèle de demain sur Internet, s’inspirera fortement de ce que l’on appelle les Creative Commons Non Commercial. C’est-à-dire la gratuité des échanges et du partage dans le cadre non lucratif, et la perception des droits dans les usages lucratifs. D’ailleurs c’est totalement dans l’esprit des combats de Beaumarchais et de Victor Hugo notamment.

Vous donnez dans votre livre, d’ailleurs, de nombreuses pistes de business models innovants ; pouvez-vous nous en dire quelques mots ?

Dans la musique par exemple, le système de financement de la production est basé essentiellement sur la vente d’un objet dérivé : le CD. Cet objet n’apporte plus de valeur ajoutée à ce que l’on trouve gratuitement sur Internet. Donc il faut le remplacer. Deux pistes pour lui redonner de la valeur : l’interactivité et une connexion directe au spectacle vivant. C’est pourquoi j’appelle son successeur : le CD Musical Interactif.
Ensuite, il faudra appliquer des licences légales (et non pas une licence globale), sur toutes les sociétés qui réalisent des bénéfices commerciaux par l’utilisation des œuvres, au-delà d’un seuil de bénéfice définis par la loi.
Et puis, je propose aussi dans mon livre la création d’une redevance modique sur l’abonnement Internet, payée cette fois-ci par l’internaute, et permettant, un peu à la manière du minitel, de financer des contenus agréés par d’autres voies que la Pub. Parce que je pense que la pub a ses limites dans le financement des contenus. Et qu’il faudra rechercher un équilibre entre marché et collectif.
Enfin, je pense qu’il n’y aura d’économie de la musique demain, que s’il y a des sélections.  Je ne dis pas qu’il faut exclure des musiques. Tout le monde peut s’exprimer sur la toile, c’est génial, c’est acquis. Mais si l’on veut qu’il reste des pros, alors il faudra labéliser, il faudra adouber les meilleurs, par des procédés démocratiques. Les mêmes qui serviront plus tard à bâtir une gouvernance mondiale.
Philippe Axel, auteur et musicien
http://www.philaxel.com/

 

Méthode de conduite du changement

f4ada16d731e516f17175abef4fdfb49.jpgMéthode de conduite du changement

Diagnostic, accompagnement, pilotage

D. Autissier, J.M. Moutot

Interview de David Autissier, Maitre de Conférences, IAE Université Paris XII par Catherine Fournier-Montgieux, consultante Nextmodernity

Qu’est ce que la « Conduite du Changement », mot parfois valise employé par les consultants et quelles dimensions cela recouvre-t-il ?
La conduite du changement c’est un ensemble d’actions de gestion qui visent à s’assurer de l’adhésion des individus à un projet, de la réalisation des transformations souhaitées en termes culturel, organisationnel et opérationnel et de l’évolution à moyen et long terme des fondements d’une entreprise. Les salariés sont-ils embarqués dans les changements proposés et y répondent-ils de telle manière que les souhaits deviennent réalités ?
Comme tout outil de gestion, la conduite du changement est structurée à trois niveaux qui sont le diagnostic, les leviers d’action et le pilotage. Le premier est celui du diagnostic qui consiste à évaluer les changements en cours, les cibles du changement et le degré de résistance de ces cibles. Le deuxième consiste à déployer des actions de communication, de formation et d’accompagnement. Le troisième mesure le niveau d’information, de compréhension, d’adhésion et de participation des différents groupes de personnes concernées.

– Y a-t-il une évolution de la notion de conduite du changement depuis l’époque des premiers projets informatiques ?
La notion de conduite du changement est apparue à la fin des années 80 et aux débuts des années 1990 dans les grands projets informatiques et plus particulièrement les projets ERP. La question de l’assimilation par les utilisateurs a conduit les chefs de projet informatiques à déployer des actions de formation dans un premier temps et de communication dans un second. Pour qu’un outil soit bien utilisé, il fallait former les futurs utilisateurs mais également communiquer sur les apports de ce nouvel outil. Aux deux notions de communication et de formation s’est ajoutée celle d’accompagnement qui consiste en un ensemble d’actions avec des petits groupes pour trouver des solutions opérationnelles aux changements en cours. Ces trois leviers ont été encadrés par des actions de diagnostic en amont et de pilotage en aval pour constituer un ensemble intégré et causal. Ce modèle intégré décrit dans l’ouvrage « Méthode de conduite du changement » permet d’associer les démarches « leviers » aux diagnostics psychosociologiques et aux indicateurs de changement.

– Quelles sont d’après vous les principales difficultés que l’on rencontre lorsque l’on conduit le changement ?
Tout individu a peur du changement car cela l’oblige à un effort d’apprentissage. Sa réaction première sera de le refuser et ce n’est que par rationalisation en termes de progrès qu’il acceptera le changement. En Début de projet nous avons en général 10 % de proactifs, 10 % d’opposants et 80 % de neutres. La conduite du changement a pour objectif de faire basculer les passifs dans le camp des proactifs ou de les faire opter pour une posture de « neutralité bienveillante ». La principale difficulté est l’inertie des systèmes à bouger et à évoluer. L’autre difficulté est l’opposition de certains qui pensent perdre plus qu’ils n’y gagnent et la peur qu’ils ont de perdre leur zone de pouvoir et de confort. L’argumentation, le fait de rassurer et la gestion politique des acteurs à risques sont les points structurants de la conduite du changement. La conduite du changement c’est un peu comme du marketing interne, il faut toucher les utilisateurs et les prescripteurs par un positionnement et une argumentation à la fois surprenante, séductrice et lisible.

– Est-ce qu’à votre avis le travail en réseau et en collaboration est porteur en lui même de changement et si oui pourquoi ?
Le fonctionnement en réseau est porteur d’un changement qui consiste à passer d’organisations structuro-fonctionnalistes à des organisations transversales. Il n’y a pas une structure pérenne qui détermine ce qui doit être fait et comment mais des individus responsables en situation de participation à des processus orientés clients. Le changement est d’ordre culturel (passer du mode donneur d’ordre à celui de la résolution de problème collective), organisationnel (quels sont les dispositifs qui permettent cette mise en réseau), technique (la mise en place d’outils informatiques de communication) et gestionnaire (comment gérer la relation contribution/rétribution). Le simple fait de déclarer la volonté de fonctionner en réseau ne suffit pas. Il est nécessaire de créer les conditions et de mettre les individus dans des projets de transformations de leur mode de fonctionnement.

David AUTISSIER
Maître de conférences – IAE Université Gustave Eiffel Paris XII

www.davidautissier.com

93f95e700eab84d8e18cac9e30978057.jpg

Guide pratique de l’intelligence relationnelle

cade513a3487c5065105e1019a1cf48d.jpgGUIDE PRATIQUE DE L’INTELLIGENCE RELATIONNELLE
Olivier Zara, directeur de la société « Axiopole »

 

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Avant d’évoquer l’intelligence relationnelle, pouvez-vous rappeler ce qu’est l’intelligence collective ?

L’intelligence collective (IC) peut se définir comme la capacité à unir nos intelligences et nos connaissances pour atteindre un objectif. Elle se matérialise au quotidien par des coopérations intellectuelles que l’on observe en particulier dans les temps de réflexion collective. Cependant, la réflexion collective dans les entreprises est souvent faible pour des raisons de cultures, d’habitudes managériales et de technologies déficientes.
Contrairement à une croyance populaire, l’intelligence collective n’a rien à voir avec la notion de décision collective. L’intelligence collective contribue certes au processus d’émergence de la décision, mais n’impacte pas directement la prise de décision. On peut réfléchir à 10 ou à 100, et à la fin du processus, le décideur décide seul !
Le management de l’intelligence collective (MIC) regroupe l’ensemble des outils, des méthodes et des processus, qui permettent de mettre en réseau, de faire coopérer les intelligences individuelles pour atteindre un objectif commun, réaliser une mission ou un projet.
Nous pouvons comprendre l’intelligence collective comme 1+1 = 3. Il s’agit de connecter des intelligences pour produire plus et mieux. L’intelligence collective n’est finalement rien d’autre que la mise en pratique de la théorie des avantages comparatifs et des économies d’échelle au niveau des idées. Les industriels cherchent à produire au meilleur coût avec les plus compétents tous les composants d’un produit. Il en va de même dans le monde des idées avec le management de l’intelligence collective.

 

La littérature, d’une manière générale, évoque la « culture de masse », terme souvent péjoratif , qu’elle oppose à la culture élitiste, où l’intelligence est le fait d’une petite élite uniquement ; va-t-on, avec l’intelligence collective, vers l’émergence d’une nouvelle donne sociologique ?

La littérature parle de « culture de masse » parce qu’elle est produite par « l’élite intellectuelle ». L’intelligence collective remet en cause leur monopole implicite de l’intelligence. En simplifiant, on pourrait décrire leur vision du monde ainsi :
– il faut des idiots pour que les intellectuels existent
– il faut beaucoup d’idiots, qui deviennent la masse, pour que les intellectuels deviennent l’élite.

Etre un intellectuel permet ainsi de faire partie d’une élite qui monopolise implicitement le droit à l’intelligence. A l’inverse, si on reconnaît le principe d’une diversité d’intelligences, si on pense que chacun apporte une valeur ajoutée à sa manière dans ce qu’il fait ou ce qu’il dit, si on admet que chacun à des forces et des faiblesses tant au niveau de ses connaissances que de ses intelligences, alors tout le monde devient plus ou moins intellectuel et l’élite n’est plus une élite ! La pyramide hiérarchique qui irrigue nos cultures s’effondre et laisse place à la transversalité (fonctionnement en mode projet, décloisonnement des modes de communication et de collaboration,…) et au management de l’intelligence collective, qui ne remet pas en cause la répartition du pouvoir mais son exercice. L’objectif du management de l’intelligence collective n’est pas de donner un pouvoir égal à tous, mais d’inciter ceux qui ont le pouvoir à mobiliser toutes les intelligences et les connaissances de chacun.

L’intelligence collective semble donc être perçue par les experts, universitaires ou intellectuels comme une menace. L’intelligence, c’est quand même leur fond de commerce ! Mais, leurs attaques contre l’intelligence collective sont souvent implicites, sournoises, cherchant à semer le doute et la confusion, car si elles devaient devenir explicites, alors il faudrait répondre à cette question : si l’intelligence collective est un mythe, est-ce que cela signifie que la c… collective est une réalité ?

 

Dans l’entreprise, quelles sont les difficultés les plus souvent rencontrées lorsqu’on cherche à mettre en oeuvre une culture de coopération ?

L’intelligence collective a toujours existé. Elle existe dans les entreprises comme ailleurs. Mais elle est informelle, artisanale et au bon vouloir des uns des autres en fonction des affinités. Nos ancêtres pouvaient certainement s’en contenter pour la chasse, la cueillette ou l’agriculture. Mais aujourd’hui, la complexité des marchés, des technologies et la mondialisation nécessitent une démarche volontaire et structurée pour rendre efficace les coopérations intellectuelles. Les crises financières mondiales et les faillites brutales de grands groupes illustrent l’urgence du changement.

Cependant, la diffusion de l’intelligence collective est encore très lente pour de nombreuses raisons. Les structures des entreprises sont par exemple trop souvent organisées sur un mode pyramidal/hiérarchique qui brise le potentiel d’intelligence collective qui existe dans l’organisation. Il y a également le manque de compétences : savoir coopérer n’est pas naturel, c’est une compétence ! Il y a malheureusement beaucoup d’autres freins. Le management incantatoire et gesticulatoire du type « Coopérez ! » n’aidera pas à lever ces freins…

Le « guide pratique de l’intelligence relationnelle » est-il un outil pour tout manager ? Ou faut-il avoir une sensibilité à la culture coopérative avant de s’engager dans la démarche ?

Lorsque j’ai écrit mon premier livre “Le management de l’intelligence collective”, je voulais montrer les pré-requis à l’implémentation des technologies qu’on appelle aujourd’hui “Web 2.0″. Ces pré-requis, on peut les résumer ainsi : un vouloir coopérer, un savoir coopérer et un pouvoir coopérer.
Durant mes missions, je me suis rendu compte qu’il y avait aussi des pré-requis au vouloir, savoir et pouvoir coopérer ! Ce constat a conduit à la conception d’une pyramide du management (comportemental) :

Au sommet de cette pyramide, on trouve le management de l’intelligence collective. A la base, on trouve l’intelligence relationnelle (management individuel et collectif). Le guide pratique de l’intelligence relationnelle est donc un outil pour tout manager quel que soit son niveau hiérarchique. L’intelligence relationnelle est un pré-requis à l’intelligence collective. C’est le socle sur lequel repose l’intelligence collective.

 

Olivier Zara, directeur Axiopole

Pour aller plus loin :
– De l’intelligence relationnelle à l’intelligence collective
http://blog.axiopole.info/2007/06/07/intelligence-relationnelle-intelligence-collective/
– De l’efficacité culturelle à l’efficacité collective ?
http://blog.axiopole.info/2007/04/05/efficacite-culturelle-efficacite-collective/

Jusqu’au 31 décembre 2007, il y a une offre de lancement pour obtenir le guide pratique de l’intelligence relationnelle gratuitement. Après cette da
te, pour ceux qui ne seront pas déjà inscrits, l’accès au site du livre sera payant : 39$ CAD ou 27 euros.

http://guide.axiopole.info/

Tic et Organisation

6dab2b3f758f14ed6743761bf9059570.jpgTIC & ORGANISATIONS
Structure des firmes
Revue Française de Gestion N° 172
Dirigée par Pierre-Jean Benghozi, CNRS Ecole Polytechnique
Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous écrivez « Les technologies de l’écrit électronique induisent plus de contraintes qu’on pourrait le penser ». Qu’entendez-vous par là ? Quelles sont les tensions à priori repérables ?
 
Les NTIC sont le plus souvent présentées comme un facteur de flexibilité et de coopération. Pourtant l’observation des entreprises montre que les applications des NTIC sont marquées par la coexistence entre un renforcement de la souplesse et une rigidité renouvelée. Les deux orientations coexistent : les entreprises les plus décentralisées éprouvent le besoin de garder une vision uniforme des informations ou des activités en concevant des applications au niveau central, de façon directive et très rigide. Al’inverse, les organisations qui conçoivent leur gestion de la façon la plus hiérarchisée ou centralisée utilisent souvent les NTIC pour recréer des espaces d’autonomie dans des fonctionnements très rigides.
 
Cette dualité (plus d’adaptabilité dans un contexte plus centralisé) se retrouve dans des applications techniques et des stratégies organisationnelles diversifiés (workflow, ERP, Intranet). Plusieurs raisons expliquent le phénomène. Les technologies s’organisent et s’entrelacent en « système » autour des postes de travail et dans des systèmes d’information et de communication ; il est dès lors difficile de les isoler les unes des autres dans leur mise en œuvre et leur utilisation. En outre, et c’est sans doute une des sources de tension majeure, ces technologies sont tantôt envisagées dans une perspective individuelle, comme un ensemble d’outils – que l’on peut choisir ou non d’utiliser, qui se manipulent –, soit dans une perspective collective, comme un système qui met en relation les membres d’un collectif de travail et structure directement ou indirectement leur activité commune. Dans ce deuxième cas, les TIC s’apparent à une machine de gestion qui appelle les contributions coordonnées de plusieurs personnes pour être alimentées en données et flux d’informations et pour être utilisées dans le cadre de processus prédéfinis. Elles contraignent dès lors fortement les participants, ne leur laissant pas le choix d’utiliser ou non telle ou telle procédure ou protocole. Ce qui constitue un “outil” pour les uns (les utilisateurs) est souvent un “moyen” pour les autres (les responsables hiérarchiques) : or on peut se servir d’un outil “ comme l’on veut ”, un moyen est, par contre, “ imposé du dehors ”.

Alors que la flexibilité des outils se conjugue à la multiplicité des acteurs et situations d’utilisation pour créer de fortes capacités d’appropriation et d’apprentissage dans l’exploration de nouveaux usages, le développement des outils apparait aussi pour beaucoup d’utilisateurs comme une charge de travail supplémentaire par rapport au travail de production, qui constitue, à leurs yeux, le coeur de leur activité. Les tâches correspondants à l’utilisation des TIC (rédaction et édition de documents, traitement des mails…) sont vécues comme des activités supplémentaires qui se surajoutent au reste. Sans même évoquer la question des réductions d’effectifs qui accompagnent souvent le déploiement d’applications informatisées et la prise en charge directe, par les utilisateurs, de tâches relevant autrefois de personnels ou services fonctionnels dédiés.
 
Concrètement, comment ressent-on dans l’entreprise les effets de ce dilemme entre d’une part l’impératif productif et d’autre part l’impératif créatif ?
 
Concrètement, les impératifs de création et de production s’organisent autour de plusieurs configurations, reflétant des projets d’organisation plus ou moins explicites. Les TIC peuvent être d’abord employées comme outils transversaux de partage d’informations, de comparaison et de constitution d’une vision commune de l’action. A ce titre elles relèvent d’un élément d’échange de connaissances permettant de stimuler des créations et innovations locales (par imitation ou transfert d’expérience par exemple).
 Les TIC constituent ensuite un moyen de rassembler sur un poste de travail un éventail large de fonctions et d’applications, dans une situation où un utilisateur, seul à son poste de travail est en fait reliée à des centres de ressources démultipliés et à tout un réseau d’autres personnes possédant des ressources analogues. L’ensemble constitué par l’agent, les TIC et leurs interface représente, dans cette perspective un centre nerveux et de conception doté de pouvoirs et ressources diversifiés.
Enfin, les TIC contribuent à structurer et consolider la conception collective dans le cadre de “ communautés de pratique ”.  Ce modèle est sans doute le plus connu car il a été fortement médiatisé après le succès spectaculaire des applications Open Source et des wikis.
 
Un exemple d’application particulièrement sensible est celui du secteur de la santé. Les Tic sont-elles ici envisagées plutôt comme étant au service de l’efficacité individuelle ou bien au service de la performance collective ?
 
Le secteur de la santé est effectivement symptomatique de cette tension entre développement d’une approche des technologies à la fois collective, dans l’optimisation du système de soin et individuelle (améliorer le travail en situation des personnels de santé) : les deux perspectives sont également portées par le souci d’améliorer la qualité des soins et par celui de rationaliser les dépenses.

Cette dualité s’observe à plusieurs niveaux très différents. On peut évoquer le problème de la saisie des données, de leurs liens avec l’activité et de leurs échanges au sein des réseaux de soin. La question est assez classique en reporting et en contrôle de gestion mais elle ouvre, dans la santé, sur le problème très sensible des tableaux de bord, de l’intégration des données de suivi des soins / facturation des activités, gestion des remboursements / gestion globale de l’hôpital. Cette question du « reporting » est importante car elle touche plusieurs questions différentes de l’organisation des soins : les modalités de codification et de saisie en continu lors des traitements, la standardisation techniques des applications et des interfaces entre les différents partenaires des réseaux de soins (hôpital, médecins de ville, caisses de sécurité sociale…)., la conception des applications et des outils, à la fois outils de gestion et outils d’aide à la pratique pour les utilisateurs (auto-évaluation…), la confidentialité, la maîtrise et la propriété des données de santé, la capacité de maîtriser un savoir médical et des informations surabondantes et enfin, la question même de la possibilité de réussir à dégager des sommes importantes pour l’informatisation de la santé au moment où  le système de santé est déficitaire.
 
Vous citez Boltanski et Chiapello dans  » Le nouvel esprit du capitalisme » et évoquez le danger d’une nouvelle idéologie du Management à travers des mots comme autonomie, flexibilité, adaptabilité, qui d’après vous, peuvent se révéler dangereux et imposer de nouvelles formes de contrôle à distance. Pourtant, ces attitudes de flexibilité et d

Yves Caseau : « Performance du système d’information »

Entretien avec Richard Collin, Directeur associé de Nextmodernity

 

8d3f3940af18c26de64ebd5e0e2bf098.jpg

« Cet ouvrage n’est pas un ouvrage pour spécialiste. Il doit figurer dans toute bibliothèque de tout manager et dirigeant qui veut définitivement comprendre ce qu’apporte l’informatique à l’entreprise….sans avoir osé le demander à son directeur informatique…bref un bon livre, un grand livre, un livre nécessaire » ainsi s’exprime dans la préface Jean-Pierre Corniou, personnalité reconnue de la société de l’information et de la connaissance.
Alors qu’un des enjeux clés des organisations est l’accélération de la création de valeur par la maîtrise de leur capital informationnel, intellectuel et cognitif grâce aux nouvelles technologies, le regard et les propositions de Yves Caseau nous éclairent sur la conduite désormais nécessaire d’une quasi co-évolution des technologies, des organisations, des processus et des modes de travail.

Yves Caseau, DGA de Bouygues Telecom est en charge des services et de l’innovation. Il a été le DSI de Bouygues Telecom après avoir été le Directeur des Nouvelles Technologies au niveau du groupe Bouygues. Ancien élève de l’Ecole Normale Supérieure (82), Docteur en informatique, MBA du « Collège des Ingénieurs« , Yves Caseau est membre de l’Académie nationale des technologies. Blog . http://organisationarchitecture.blogspot.com/

Michel Hervé : « De la pyramide aux réseaux »

Entretien avec Richard Collin, Directeur Associé Nextmodernity

medium_michelherve.2.jpgAu 20e siècle, l’homme est devenu de plus en plus créateur de son univers (volume des connaissances multiplié par quatre au cours des vingt-cinq dernières années) engendrant, par contrecoup, l’émergence d’une société qui veut maîtriser son destin et ne pas prendre de risque.
Dans le même temps, nous continuons à avancer sur les chemins de la liberté et, forts de notre capacité à lever les contraintes d’environnement, nous n’acceptons plus celles venant des autres.

Dans ce contexte, le travail change de nature, il devient plus complexe et ne s’accommode plus d’une hiérarchie pesante. Alors que l’individu prend de plus en plus conscience de lui-même, de son pouvoir de création, de son autonomie, de sa responsabilité sur son environnement, grâce à un champ informatif inégalé, il découvre que la qualité de son travail individuel est directement issue du travail collaboratif qu’il construit avec les autres. A l’individualisme succède l’apprentissage du collectif : le respect, la confiance, la tolérance, le don, la vérité, les règles.

Le livre montre une voie, parmi d’autres, pour atteindre cette forme moderne d’adaptation à l’efficacité collective :
– une construction individuelle qui structure son espace (le cadre de son autonomie et de sa responsabilité) et son temps (l’objectif qui marque le futur et l’histoire qui donne à repenser le chemin pour y arriver)
– une construction collective faite de processus, de règles, de formalisation à la recherche permanente du consensus, de l’harmonie.
Mais aussi, un besoin de productivité qui est l’apanage des technologies de l’information et de la communication, sans lesquelles il n’y aurait aucune raison de sortir du modèle traditionnel de l’organisation pyramidale.
Pour y arriver, comme à la fin du 19e siècle où les maîtres, hussards de la République, ont sorti le pays de l’illettrisme, il faut, aujourd’hui, une nouvelle classe de managers qui assument un rôle de catalyseur, de maïeutique, de passeur et de synthétiseur, là où, hier, ils faisaient figure de phares, de décideurs et de meneurs.

Je me suis aperçu que mon expérience de démocratie participative en entreprise et en collectivité, où le collectif se construit à partir d’individus libres et autonomes, empruntait au même paradigme que celui qui règne actuellement dans les sciences des nanotechnologies pour construire de nouveaux matériaux.
Cette singularité sera-t-elle aussi féconde dans le champ économique et social, cela c’est ma conviction, et c’est afin de la partager que nous avons écrit ce livre.
Michel HERVE
PDG du Groupe Hervé, a présidé de 1991 à 2004 l’Agence Nationale pour la Création d’Entreprises. Ancien député et deputé européen, il a été le maire de Parthenay. Ce livre « De la pyramide aux réseaux » est publié dans la collection »Acteurs de la société » des Editions Autrement; Alain d’Iribarne, Directeur de Recherche au CNRS et Elisabeth Bourguignat, secrétaire de l’association Accomplir ont contribué à sa rédaction.

WEB 2.0 LES INTERNAUTES AU POUVOIR

medium_couvweb20.jpgWeb 2.0 Les internautes au pouvoir

Blogs, Réseaux Sociaux, Partages de vidéos, Mashups, …

Jean-François Gervais,

Responsable de la filière Multimédia à la Direction de la Formation de l’INA

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Le succès des  sites où l’internaute partage ses centres d’intérêts avec d’autres (blogs, communautées en ligne,  .. ) montre un véritable attrait du grand public pour ce que l’on appelle aujourd’hui le phénomène Web 2.0 .  A votre avis, pourquoi un tel succès ?

Il semble toujours facile à posteriori d’analyser le succès, mais dans le cas du web 2.0, le phénomène est trop récent pour mettre en avant une hypothèse plutôt qu’une autre.
Les facteurs clés de succès s’articulent sans doute autour de deux axes, une avancée technologique et de nouveaux usages.
Les technologies du web 2.0 (xml, ajax, flash vidéo) ne sont pas si récentes, c’est leur mise en commun  qui crée la valeur ajoutée.
La seule nouveauté c’est la simplicité qui distingue les applications web 2.0.
Nul besoin d’être féru d’informatique ; là où il y a encore cinq ans il fallait apprendre le html pour publier une page sur le web ; aujourd’hui l’utilisation d’un blog est intuitive.
Ce qui est vrai pour le texte l’est aussi pour l’image. C’est une banalité de le rappeler  mais nous sommes rentrés dans une civilisation de l’image où celle-ci est omniprésente.
Mais jusqu’à présent sa production était limitée aux professionnels. Avec le numérique  la possibilité est offerte à chacun de créer des images dans un contexte économique très favorable.  La croissante ininterrompue  des  ventes d’appareils photo numériques, de caméscopes et la mutation du téléphone en « photo-vidéo-phone » nous le confirme.
Le chaînon manquant, c’était la diffusion de ces images.
Les services de partage de vidéos, tels YouTube ou Dailymotion, se sont imposés comme des canaux de diffusions crédibles et comme une alternative potentielle aux médias audiovisuels classiques. C’est la continuité logique des sites de partages photos comme Flickr, moins médiatisé mais pionner des services web 2.0.
La simplicité d’usage est là aussi au rendez vous, en quelques clics vos photos et vidéos sont en ligne.
La seconde composante du succès ce sont les usages. Ce point semble jusqu’à présent sous-estimé dans les différentes réflexions sur le « pourquoi du comment » du succès de tel ou tel service.
Le succès des sites communautaires repose à la fois sur la mise à disposition des médias personnels et sur la dimension partage de ces derniers.
Un groupe de musiciens qui utilise Myspace, pour se faire connaître utilise la plate-forme à la fois pour diffuser ses morceaux en mp3 et pour promouvoir ses concerts. Le succès de YouTube ou Dailymotion repose lui aussi sur le partage. Vous avez trouvé une vidéo qui vous plait vous pouvez la publier sur votre blog où l’envoyer facilement à un ami. Si l’on poursuit le raisonnement jusqu’au bout, nous serions tenter d’oser dire que la dimension « communauté » l’emporte sur le contenu même des sites (vidéos, photos ou texte).
Une des meilleures vidéos qui expliquent le web 2.0 est d’ailleurs l’œuvre d’un professeur d’ethnologie de l’Université du Texas, Michael Mesh. Celui-ci a mené une enquête chez les utilisateurs de YouTube à l’issue de laquelle il ressort que c’est la dimension partage qui est plébiscitée devant les autres fonctionnalités.
Les raisons du succès sont à chercher dans ces modifications sociétales.
Qui pouvait prévoir il y a cinq ans le succès des téléphones portables et des nouveaux services comme le sms.  A vrai dire personne, ce sont les utilisateurs, par leurs usages qui adhèrent ou non aux nouveaux services pour en faire des succès ou des échecs. L’internaute est aujourd’hui au centre des services, c’est une des nouvelle donne de l’économie de l’immatérielle dont les acteurs doivent prendre conscience au risque de passer à coté de cette (r)évolution.

 

Comprendre les cartes, c’est voir le monde autrement. Le Web 2.0, c’est aussi une information géographique partagée par tous, dans un espace étendu véritablement à l’échelle de la planète ; Quels sont les apports des systèmes de localisation par satellite (GPS), et plus généralement des Systèmes d’information géographiques (SIG) dans cette évolution ?

Nous n’avons sans doute pas encore pris conscience de l’impact d’applications comme Google Earth où le Géoportail de l’IGN. C’est une des raisons pour lesquelles dans mon livre, le premier chapitre leur est consacré. La première révolution c’est la mise à disposition du grand public, d’outils dont seuls les géographes et les militaires disposaient auparavant.
Avec une touche d’humour, il est possible de dire que la planète terre est un des rare dénominateurs communs à tous ses habitants ont en commun, c’est universel. Les interfaces des SIG (Systèmes d’Information Géographiques) s’appuient d’ailleurs sur le concept de « géographie naïve », nous avons tous conscience de notre environnement géographique et de la manière de si déplacer.
Un autre aspect est d’associer à la géographie des données scientifiques (comme la météo), ou bien économiques et culturelles. Avec ses outils de SIG c’est la terre qui devient le browser !
Certaines données peuvent s’afficher en temps réel : suivre la dérive des glaciers ou découvrir l’épicentre des derniers séismes n’est plus réservé aux seuls scientifiques.
La prise de conscience actuelle sur les enjeux écologiques des années à venir profite aux Google Earth et consorts. Apprécier visuellement les dégâts écologiques vaut tous les discours, le film d’Al Gore « Une vérité qui dérange » s’appuie en partie sur des animations réalisés avec Google Earth.
Une autre raison du succès, ce sont les mashups. Créer des géobiographies, inclure des modélisations en 3D de monuments historiques sont à la portée de tous.
Pour être complet il faut inclure dans la géolocalisation, le succès de vente des GPS et anticiper celui des téléphones portables comme l’Iphone d’Apple qui « embarqueront » Google Maps d’origine.

 

Pouvez-vous expliquer plus précisément le terme « mashup » et préciser le rôle des mashup dans le développement du web 2.0 ?

Mashup en anglais cela signifie mixer des éléments (en anglais la recette de la purée c’est le « mashed potatoes »).
Sans trop rentrer dans des détails techniques, les mashups ce sont de nouvelles applications créées en associant une ou plusieurs autres applications déjà existantes.

Un exemple très simple, vous mixez une application de géolocalisation (par ex Google Maps) avec une liste d’hôtels. Chacun des hôtels apparaît désormais sous la forme de « punaises » sur la carte. Pour chaque hôtel vous proposez une visite en vidéo .Dernière étape, sur
chacun d’entre eux, vous associez les commen
taires des voyageurs issus d’un autre site de référence sur le voyage comme tripadvisor, et vous obtenez www.trivop.com
Vous pouvez aussi ajouter les entrées wikipedia correspondantes à chaque lieu, les possibilités sont infinies…

Si les mashups existent c’est grâce à l’attitude d’ouverture des différents services web 2.0 qui autorisent l’interconnexion entre eux.
Les internautes curieux de découvrir les mashups peuvent consulter « programmable web » où plus de 2000 d’entre elles sont répertoriées. Les grands noms du logiciel comme Microsoft ou Adobe travaillent sur des environnements, ou demain chacun pourra développer ses propres mashups très facilement.

 

A votre avis, doit-on envisager le web 2.0 comme une zone de super liberté ou bien aussi, revers de la médaille, comme un espace potentiel de « fichage » des internautes ?

La menace d’un Big Brother est celle qui vient à l’esprit lorsque l’on balaie tout le potentiel du web 2.0, notamment lorsque l’on parle de géolocalisation. Des services (payants) existent déjà pour localiser le propriétaire d’un téléphone portable.
Il faut distinguer les données personnelles, qui incluent à la fois « ce que je dis ou fait « sur le web; mes commentaires sur un site marchand ou mon blog; mais aussi « ce que l’on dit sur moi ».
Certains experts du web n’hésitent pas à parler d’identité numérique.
Un exemple concret est la mise en garde des universités américaines envers leurs étudiants par rapport à leurs comportements sur les réseaux sociaux comme Myspace ou Facebook.
Nombreux sont les étudiants qui publient des photos de soirées parfois arrosées. Que penserons leurs futurs employeurs, qui auront « googlelisé » leurs noms et découvriront ces photos dans deux ans à la fin de leurs études et dont les auteurs auront oublié l’existence !

La validité des données est aussi l’objet de débat, faut-il dévoiler l’identité des contributeurs de Wikipédia et mettre en place des circuits de validation identiques à ceux du monde universitaire pour assurer une meilleure véracité des propos ?
Enfin il ne fait pas oublier que nous sommes nous aussi des Big Brother en puissance, témoins potentiels d’évènements nous pouvons le capturer avec nos téléphones portables et le relayer sur le web, en mettant, en avant, parfois sans nous en rendre compte, l’identité d’autrui.

 

A propos de l’auteur

Jean-François Gervais est Doctorant en médias numériques à la Sorbonne et titulaire d’un DEA en multimédia. Il est responsable de la filière Multimédia à la Direction de la Formation de l’INA (Institut National de l’Audiovisuel). Il scrute le Web depuis 1994. Il est également coauteur avec Jean-Nöel Gouyet du livre » Gestion des médias numériques » (Dunod, 2006)
Son blog : http://www.web2-lelivre.com

2020 LES SCENARIOS DU FUTUR

medium_2020_couv.JPG2020 Les Scénarios du futur

Préface de François de Closets

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous citez, en introduction de votre livre ces mots de Woody Allen :  » Arretez l’histoire, je veux descendre !!  « … 

2020, c’est presque demain ; les scénarios du futur sont-ils menaçants ou simplement les choses vont-elles trop vite pour nous, simples humains ?

Les scénarios du futur ne sont pas menaçants. Ils décrivent des « futurs possibles ». Les risques de dérapage et de « sortie de route » existent, bien sûr, mais je préfère rester constructif plutôt que de déplorer les nombreux dangers qui nous guettent. On peut être conscient des risques sans pour autant sombrer dans la peur collective. Cette attitude permet d’accroître la vigilance de chacun. En effet, nous vivons dans des sociétés « de mise en scène de la peur ». Une mise en scène qui sert des intérêts politiques, médiatiques, juridiques ou industriels. Il est difficile de ne pas se laisser manipuler et de garder toute sa clairvoyance alors que le risque est quotidien : la peur du manque, de la rareté (entretenue par certains), du terrorisme, des catastrophes écologiques ou biologiques. Mais aussi perception profonde des inégalités, des égoïsmes des plus riches, des fossés économiques et numériques qui appellent constamment notre attention devant le malheur des défavorisés. Certes, tout va trop vite. C’est pourquoi il nous faut une capacité d’intégration des informations et des événements pour prendre du recul. La culture est un « ciment » qui réunit les éléments épars d’un monde disjoint. Il nous faut donc résister à cette accélération par la culture. Préférer un surcroît de sagesse à un trop-plein d’informations ! Une telle perspective sous-entend que notre attitude face à la science et à la technique ne soit plus seulement de nature « optimiste » ou « pessimiste », mais à la fois pragmatique, constructive et responsable

Internet, ce n’est pas simplement une Technologies de l’Information et de la Communication ; c’est surtout ce que vous appelez une « Technologie de la Relation ». Pouvez-expliquer cela  ?

Davantage qu’un « média des médias », Internet est en réalité un «écosystème informationnel». Un écosystème est un système complexe constitué de nœuds de réseaux reliés les uns aux autres par des liens. Le téléphone, le satellite, le câble, la fibre optique, etc., sont autant de liens constituant un système global ou écosystème informationnel. Voilà donc un système qui s’impose en tant qu’environnement. Au même titre que l’oxygène de l’air, l’alimentation qui nous permet de vivre ou l’énergie distribuée à domicile par une prise électrique. Dans cet écosystème, une multitude d’informations circulent, des myriades d’opérations et de transactions sont effectuées en temps réel. Internet n’est donc pas, comme on l’a souvent dit, une nouvelle technologie de l’information et de la communication (NTIC), terme inventé et proposé par les ingénieurs des réseaux. C’est une technologie de la relation (TR) plus qu’une NTIC. Effectivement, ce qui fait la force d’Internet depuis son apparition, c’est son potentiel d’inter-relations humaines et, en particulier, par la messagerie électronique qui, encore aujourd’hui, représente l’une des applications les plus utilisées du Net. Les grandes applications d’Internet se sont développées grâce aux utilisateurs eux-mêmes. Les producteurs de logiciels ou les grandes entreprises ont certainement joué un rôle de facilitateurs en proposant des logiciels performants, mais ce sont bien les utilisateurs qui ont adapté les outils Internet à leurs besoins. C’est ainsi qu’on a vu émerger, du bas vers le haut (bottom up), les grandes applications d’Internet : la messagerie électronique, la messagerie instantanée, le bavardage en ligne ou « chat », le peer to peer ou P2P, les blogs, et les journaux citoyens.

Comment donner plus de sens à la Communication et faire la différence par exemple entre désirs et besoins ?

Il existe une grande différence entre « l’information » et la « communication ». La première peut se faire en temps réel et à l’échelle mondiale. La seconde nécessite une intégration, une médiation humaine, une relation sociale, de la durée. Les TIC et Internet démultiplient les moyens d’informations instantanés, mais favorisent-ils la communication humaine, donnent ils du sens au lien social ? C’est toute la question. La perte de sens peut conduire à un certain désenchantement vis à vis de la technologie envahissante, comme on le constate aujourd’hui. Un décalage, amplifié par la rapidité du marché à s’emparer des nouvelles techniques et des nouveaux outils. Etant donné la fluidité créée par la société du numérique et par les possibilités qu’ouvre le monde virtuel, le marché propose des objets et des produits servant à satisfaire plus souvent des « désirs » que des nécessités. Ces offres correspondent-elles à des besoins fondamentaux de la société ou seulement à des désirs passagers nourris par les fantasmes suscités par la publicité ? Nous sommes soumis, par les messages publicitaires, l’excès d’email, le spam, les sollicitations diverses, à une sorte de pléthore informationnelle que j’appelle aussi une « infopollution », et contre laquelle nous devrons lutter grâce à une « diététique de l’information ». Cette diététique consiste à savoir retrouver, classer, hiérarchiser, échanger des informations afin de les rendre pertinentes dans notre vie personnelle ou professionnelle. Mais pour pouvoir classer, trier, hiérarchiser ces informations, il faut un système de valeurs permettant de rendre efficaces de telles opérations. Cette échelle de valeurs me semble manquer aux nouvelles générations, très habiles pour trouver et échanger des informations, mais moins à même de les hiérarchiser. C’est notre rôle de parents, d’enseignants, de communicateurs, de les aider à retrouver de telles valeurs pour que puissent se révéler les différences entre fantasmes, désirs et besoin réels, intellectuels et matériels.

Quels conseils donnez-vous pour garder le cap, nous qui allons devenir à brève échéance des sortes de mutants ou personnages bioniques, où le vivant se mèle indistinctement au robotique ?

Aujourd’hui, la gestion, le contrôle en temps réel des sociétés humaines et le copilotage de l’évolution exigent une nouvelle culture de la complexité. Certes, la biologie et l’écologie apportent en partie les bases d’une telle culture : niveaux d’organisation, rétroactions, régulations, adaptation, réseaux et cycles. Mais la nécessité d’une culture systémique, d’une meilleure utilisation des « sciences de la complexité » se fera sentir de plus en plus fortement. Il est vrai que le vivant se mêle indistinctement au robotique. L’hybridation entre le naturel et l’artificiel, la « machinisation » du biologique et la « biologisation » des machines, sont des tendances profondes qui alimentent et renforcent la nécessité d’une culture de la complexité. La convergence et, progressivement, la fusion entre biologie, mécanique et informatique représentent plus qu’une simple évolution scientifique ou technique. Elles posent les bases de cette nouvelle culture de la complexité. Dans le domaine scientifique et technique cette fusion se traduit déjà par l’émergence de nouveaux secteurs tels que
la biotique, l’électronique moléculaire, les nanotechnologies, l’écologie industrielle, l’éco-ingénierie, la vie artificielle, les réseaux neuronaux. Dans les organisations, la culture systémique et la pensée complexe s’introduisent également. En 30 ans, la systémique a acquis ses lettres de noblesse en matière de gestion des entreprises, d’urbanisme, de construction des grands réseaux, d’écologie ou de médecine. La reconfiguration des entreprises, la réticulation des organisations, l’aplatissement des niveaux hiérarchiques, l’émergence de l’entreprise « polycellulaire », « intelligente », « virtuelle », sont des signes du changement de paradigme que nous vivons. La nouvelle culture de la complexité relie le naturel et l’artificiel dans une vision élargie de la nature et de la civilisation. Chaque personne, chaque peuple est porteur d’une culture globale et non d’une partie de culture, d’une sous-culture aliénable par d’autres. Une culture hypertextuelle renvoie aux autres noeuds et liens du réseau neuronal planétaire qui se tisse sous nos yeux. Réseau qui évolue à une vitesse accélérée par rapport au temps immuable de référence, mais qui, par sa complexification, densifie le temps. La nouvelle culture de « l’homme symbiotique » est un des catalyseurs de l’avenir.

Joël de Rosnay
Conseiller du Président de la Cité des Sciences et de l’Industrie de la Villette
Président Exécutif de Biotics

Auteur des livres :
« Une vie en plus, la longévité pourquoi faire ? », Seuil, 2005
« La révolte du pronétariat, des mass media aux media des masses », Fayard, janvier 2006
« 2020 : Les scénarios du futur, comprendre le monde qui vient », Des Idées & des Hommes, 2007

www.derosnay.com
www.unevieenplus.com
www.pronetaire.com
www.scenarios2020.com