Guide pratique de l’intelligence relationnelle

cade513a3487c5065105e1019a1cf48d.jpgGUIDE PRATIQUE DE L’INTELLIGENCE RELATIONNELLE
Olivier Zara, directeur de la société « Axiopole »

 

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Avant d’évoquer l’intelligence relationnelle, pouvez-vous rappeler ce qu’est l’intelligence collective ?

L’intelligence collective (IC) peut se définir comme la capacité à unir nos intelligences et nos connaissances pour atteindre un objectif. Elle se matérialise au quotidien par des coopérations intellectuelles que l’on observe en particulier dans les temps de réflexion collective. Cependant, la réflexion collective dans les entreprises est souvent faible pour des raisons de cultures, d’habitudes managériales et de technologies déficientes.
Contrairement à une croyance populaire, l’intelligence collective n’a rien à voir avec la notion de décision collective. L’intelligence collective contribue certes au processus d’émergence de la décision, mais n’impacte pas directement la prise de décision. On peut réfléchir à 10 ou à 100, et à la fin du processus, le décideur décide seul !
Le management de l’intelligence collective (MIC) regroupe l’ensemble des outils, des méthodes et des processus, qui permettent de mettre en réseau, de faire coopérer les intelligences individuelles pour atteindre un objectif commun, réaliser une mission ou un projet.
Nous pouvons comprendre l’intelligence collective comme 1+1 = 3. Il s’agit de connecter des intelligences pour produire plus et mieux. L’intelligence collective n’est finalement rien d’autre que la mise en pratique de la théorie des avantages comparatifs et des économies d’échelle au niveau des idées. Les industriels cherchent à produire au meilleur coût avec les plus compétents tous les composants d’un produit. Il en va de même dans le monde des idées avec le management de l’intelligence collective.

 

La littérature, d’une manière générale, évoque la « culture de masse », terme souvent péjoratif , qu’elle oppose à la culture élitiste, où l’intelligence est le fait d’une petite élite uniquement ; va-t-on, avec l’intelligence collective, vers l’émergence d’une nouvelle donne sociologique ?

La littérature parle de « culture de masse » parce qu’elle est produite par « l’élite intellectuelle ». L’intelligence collective remet en cause leur monopole implicite de l’intelligence. En simplifiant, on pourrait décrire leur vision du monde ainsi :
– il faut des idiots pour que les intellectuels existent
– il faut beaucoup d’idiots, qui deviennent la masse, pour que les intellectuels deviennent l’élite.

Etre un intellectuel permet ainsi de faire partie d’une élite qui monopolise implicitement le droit à l’intelligence. A l’inverse, si on reconnaît le principe d’une diversité d’intelligences, si on pense que chacun apporte une valeur ajoutée à sa manière dans ce qu’il fait ou ce qu’il dit, si on admet que chacun à des forces et des faiblesses tant au niveau de ses connaissances que de ses intelligences, alors tout le monde devient plus ou moins intellectuel et l’élite n’est plus une élite ! La pyramide hiérarchique qui irrigue nos cultures s’effondre et laisse place à la transversalité (fonctionnement en mode projet, décloisonnement des modes de communication et de collaboration,…) et au management de l’intelligence collective, qui ne remet pas en cause la répartition du pouvoir mais son exercice. L’objectif du management de l’intelligence collective n’est pas de donner un pouvoir égal à tous, mais d’inciter ceux qui ont le pouvoir à mobiliser toutes les intelligences et les connaissances de chacun.

L’intelligence collective semble donc être perçue par les experts, universitaires ou intellectuels comme une menace. L’intelligence, c’est quand même leur fond de commerce ! Mais, leurs attaques contre l’intelligence collective sont souvent implicites, sournoises, cherchant à semer le doute et la confusion, car si elles devaient devenir explicites, alors il faudrait répondre à cette question : si l’intelligence collective est un mythe, est-ce que cela signifie que la c… collective est une réalité ?

 

Dans l’entreprise, quelles sont les difficultés les plus souvent rencontrées lorsqu’on cherche à mettre en oeuvre une culture de coopération ?

L’intelligence collective a toujours existé. Elle existe dans les entreprises comme ailleurs. Mais elle est informelle, artisanale et au bon vouloir des uns des autres en fonction des affinités. Nos ancêtres pouvaient certainement s’en contenter pour la chasse, la cueillette ou l’agriculture. Mais aujourd’hui, la complexité des marchés, des technologies et la mondialisation nécessitent une démarche volontaire et structurée pour rendre efficace les coopérations intellectuelles. Les crises financières mondiales et les faillites brutales de grands groupes illustrent l’urgence du changement.

Cependant, la diffusion de l’intelligence collective est encore très lente pour de nombreuses raisons. Les structures des entreprises sont par exemple trop souvent organisées sur un mode pyramidal/hiérarchique qui brise le potentiel d’intelligence collective qui existe dans l’organisation. Il y a également le manque de compétences : savoir coopérer n’est pas naturel, c’est une compétence ! Il y a malheureusement beaucoup d’autres freins. Le management incantatoire et gesticulatoire du type « Coopérez ! » n’aidera pas à lever ces freins…

Le « guide pratique de l’intelligence relationnelle » est-il un outil pour tout manager ? Ou faut-il avoir une sensibilité à la culture coopérative avant de s’engager dans la démarche ?

Lorsque j’ai écrit mon premier livre “Le management de l’intelligence collective”, je voulais montrer les pré-requis à l’implémentation des technologies qu’on appelle aujourd’hui “Web 2.0″. Ces pré-requis, on peut les résumer ainsi : un vouloir coopérer, un savoir coopérer et un pouvoir coopérer.
Durant mes missions, je me suis rendu compte qu’il y avait aussi des pré-requis au vouloir, savoir et pouvoir coopérer ! Ce constat a conduit à la conception d’une pyramide du management (comportemental) :

Au sommet de cette pyramide, on trouve le management de l’intelligence collective. A la base, on trouve l’intelligence relationnelle (management individuel et collectif). Le guide pratique de l’intelligence relationnelle est donc un outil pour tout manager quel que soit son niveau hiérarchique. L’intelligence relationnelle est un pré-requis à l’intelligence collective. C’est le socle sur lequel repose l’intelligence collective.

 

Olivier Zara, directeur Axiopole

Pour aller plus loin :
– De l’intelligence relationnelle à l’intelligence collective
http://blog.axiopole.info/2007/06/07/intelligence-relationnelle-intelligence-collective/
– De l’efficacité culturelle à l’efficacité collective ?
http://blog.axiopole.info/2007/04/05/efficacite-culturelle-efficacite-collective/

Jusqu’au 31 décembre 2007, il y a une offre de lancement pour obtenir le guide pratique de l’intelligence relationnelle gratuitement. Après cette da
te, pour ceux qui ne seront pas déjà inscrits, l’accès au site du livre sera payant : 39$ CAD ou 27 euros.

http://guide.axiopole.info/

Tic et Organisation

6dab2b3f758f14ed6743761bf9059570.jpgTIC & ORGANISATIONS
Structure des firmes
Revue Française de Gestion N° 172
Dirigée par Pierre-Jean Benghozi, CNRS Ecole Polytechnique
Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous écrivez « Les technologies de l’écrit électronique induisent plus de contraintes qu’on pourrait le penser ». Qu’entendez-vous par là ? Quelles sont les tensions à priori repérables ?
 
Les NTIC sont le plus souvent présentées comme un facteur de flexibilité et de coopération. Pourtant l’observation des entreprises montre que les applications des NTIC sont marquées par la coexistence entre un renforcement de la souplesse et une rigidité renouvelée. Les deux orientations coexistent : les entreprises les plus décentralisées éprouvent le besoin de garder une vision uniforme des informations ou des activités en concevant des applications au niveau central, de façon directive et très rigide. Al’inverse, les organisations qui conçoivent leur gestion de la façon la plus hiérarchisée ou centralisée utilisent souvent les NTIC pour recréer des espaces d’autonomie dans des fonctionnements très rigides.
 
Cette dualité (plus d’adaptabilité dans un contexte plus centralisé) se retrouve dans des applications techniques et des stratégies organisationnelles diversifiés (workflow, ERP, Intranet). Plusieurs raisons expliquent le phénomène. Les technologies s’organisent et s’entrelacent en « système » autour des postes de travail et dans des systèmes d’information et de communication ; il est dès lors difficile de les isoler les unes des autres dans leur mise en œuvre et leur utilisation. En outre, et c’est sans doute une des sources de tension majeure, ces technologies sont tantôt envisagées dans une perspective individuelle, comme un ensemble d’outils – que l’on peut choisir ou non d’utiliser, qui se manipulent –, soit dans une perspective collective, comme un système qui met en relation les membres d’un collectif de travail et structure directement ou indirectement leur activité commune. Dans ce deuxième cas, les TIC s’apparent à une machine de gestion qui appelle les contributions coordonnées de plusieurs personnes pour être alimentées en données et flux d’informations et pour être utilisées dans le cadre de processus prédéfinis. Elles contraignent dès lors fortement les participants, ne leur laissant pas le choix d’utiliser ou non telle ou telle procédure ou protocole. Ce qui constitue un “outil” pour les uns (les utilisateurs) est souvent un “moyen” pour les autres (les responsables hiérarchiques) : or on peut se servir d’un outil “ comme l’on veut ”, un moyen est, par contre, “ imposé du dehors ”.

Alors que la flexibilité des outils se conjugue à la multiplicité des acteurs et situations d’utilisation pour créer de fortes capacités d’appropriation et d’apprentissage dans l’exploration de nouveaux usages, le développement des outils apparait aussi pour beaucoup d’utilisateurs comme une charge de travail supplémentaire par rapport au travail de production, qui constitue, à leurs yeux, le coeur de leur activité. Les tâches correspondants à l’utilisation des TIC (rédaction et édition de documents, traitement des mails…) sont vécues comme des activités supplémentaires qui se surajoutent au reste. Sans même évoquer la question des réductions d’effectifs qui accompagnent souvent le déploiement d’applications informatisées et la prise en charge directe, par les utilisateurs, de tâches relevant autrefois de personnels ou services fonctionnels dédiés.
 
Concrètement, comment ressent-on dans l’entreprise les effets de ce dilemme entre d’une part l’impératif productif et d’autre part l’impératif créatif ?
 
Concrètement, les impératifs de création et de production s’organisent autour de plusieurs configurations, reflétant des projets d’organisation plus ou moins explicites. Les TIC peuvent être d’abord employées comme outils transversaux de partage d’informations, de comparaison et de constitution d’une vision commune de l’action. A ce titre elles relèvent d’un élément d’échange de connaissances permettant de stimuler des créations et innovations locales (par imitation ou transfert d’expérience par exemple).
 Les TIC constituent ensuite un moyen de rassembler sur un poste de travail un éventail large de fonctions et d’applications, dans une situation où un utilisateur, seul à son poste de travail est en fait reliée à des centres de ressources démultipliés et à tout un réseau d’autres personnes possédant des ressources analogues. L’ensemble constitué par l’agent, les TIC et leurs interface représente, dans cette perspective un centre nerveux et de conception doté de pouvoirs et ressources diversifiés.
Enfin, les TIC contribuent à structurer et consolider la conception collective dans le cadre de “ communautés de pratique ”.  Ce modèle est sans doute le plus connu car il a été fortement médiatisé après le succès spectaculaire des applications Open Source et des wikis.
 
Un exemple d’application particulièrement sensible est celui du secteur de la santé. Les Tic sont-elles ici envisagées plutôt comme étant au service de l’efficacité individuelle ou bien au service de la performance collective ?
 
Le secteur de la santé est effectivement symptomatique de cette tension entre développement d’une approche des technologies à la fois collective, dans l’optimisation du système de soin et individuelle (améliorer le travail en situation des personnels de santé) : les deux perspectives sont également portées par le souci d’améliorer la qualité des soins et par celui de rationaliser les dépenses.

Cette dualité s’observe à plusieurs niveaux très différents. On peut évoquer le problème de la saisie des données, de leurs liens avec l’activité et de leurs échanges au sein des réseaux de soin. La question est assez classique en reporting et en contrôle de gestion mais elle ouvre, dans la santé, sur le problème très sensible des tableaux de bord, de l’intégration des données de suivi des soins / facturation des activités, gestion des remboursements / gestion globale de l’hôpital. Cette question du « reporting » est importante car elle touche plusieurs questions différentes de l’organisation des soins : les modalités de codification et de saisie en continu lors des traitements, la standardisation techniques des applications et des interfaces entre les différents partenaires des réseaux de soins (hôpital, médecins de ville, caisses de sécurité sociale…)., la conception des applications et des outils, à la fois outils de gestion et outils d’aide à la pratique pour les utilisateurs (auto-évaluation…), la confidentialité, la maîtrise et la propriété des données de santé, la capacité de maîtriser un savoir médical et des informations surabondantes et enfin, la question même de la possibilité de réussir à dégager des sommes importantes pour l’informatisation de la santé au moment où  le système de santé est déficitaire.
 
Vous citez Boltanski et Chiapello dans  » Le nouvel esprit du capitalisme » et évoquez le danger d’une nouvelle idéologie du Management à travers des mots comme autonomie, flexibilité, adaptabilité, qui d’après vous, peuvent se révéler dangereux et imposer de nouvelles formes de contrôle à distance. Pourtant, ces attitudes de flexibilité et d

Yves Caseau : « Performance du système d’information »

Entretien avec Richard Collin, Directeur associé de Nextmodernity

 

8d3f3940af18c26de64ebd5e0e2bf098.jpg

« Cet ouvrage n’est pas un ouvrage pour spécialiste. Il doit figurer dans toute bibliothèque de tout manager et dirigeant qui veut définitivement comprendre ce qu’apporte l’informatique à l’entreprise….sans avoir osé le demander à son directeur informatique…bref un bon livre, un grand livre, un livre nécessaire » ainsi s’exprime dans la préface Jean-Pierre Corniou, personnalité reconnue de la société de l’information et de la connaissance.
Alors qu’un des enjeux clés des organisations est l’accélération de la création de valeur par la maîtrise de leur capital informationnel, intellectuel et cognitif grâce aux nouvelles technologies, le regard et les propositions de Yves Caseau nous éclairent sur la conduite désormais nécessaire d’une quasi co-évolution des technologies, des organisations, des processus et des modes de travail.

Yves Caseau, DGA de Bouygues Telecom est en charge des services et de l’innovation. Il a été le DSI de Bouygues Telecom après avoir été le Directeur des Nouvelles Technologies au niveau du groupe Bouygues. Ancien élève de l’Ecole Normale Supérieure (82), Docteur en informatique, MBA du « Collège des Ingénieurs« , Yves Caseau est membre de l’Académie nationale des technologies. Blog . http://organisationarchitecture.blogspot.com/

Michel Hervé : « De la pyramide aux réseaux »

Entretien avec Richard Collin, Directeur Associé Nextmodernity

medium_michelherve.2.jpgAu 20e siècle, l’homme est devenu de plus en plus créateur de son univers (volume des connaissances multiplié par quatre au cours des vingt-cinq dernières années) engendrant, par contrecoup, l’émergence d’une société qui veut maîtriser son destin et ne pas prendre de risque.
Dans le même temps, nous continuons à avancer sur les chemins de la liberté et, forts de notre capacité à lever les contraintes d’environnement, nous n’acceptons plus celles venant des autres.

Dans ce contexte, le travail change de nature, il devient plus complexe et ne s’accommode plus d’une hiérarchie pesante. Alors que l’individu prend de plus en plus conscience de lui-même, de son pouvoir de création, de son autonomie, de sa responsabilité sur son environnement, grâce à un champ informatif inégalé, il découvre que la qualité de son travail individuel est directement issue du travail collaboratif qu’il construit avec les autres. A l’individualisme succède l’apprentissage du collectif : le respect, la confiance, la tolérance, le don, la vérité, les règles.

Le livre montre une voie, parmi d’autres, pour atteindre cette forme moderne d’adaptation à l’efficacité collective :
– une construction individuelle qui structure son espace (le cadre de son autonomie et de sa responsabilité) et son temps (l’objectif qui marque le futur et l’histoire qui donne à repenser le chemin pour y arriver)
– une construction collective faite de processus, de règles, de formalisation à la recherche permanente du consensus, de l’harmonie.
Mais aussi, un besoin de productivité qui est l’apanage des technologies de l’information et de la communication, sans lesquelles il n’y aurait aucune raison de sortir du modèle traditionnel de l’organisation pyramidale.
Pour y arriver, comme à la fin du 19e siècle où les maîtres, hussards de la République, ont sorti le pays de l’illettrisme, il faut, aujourd’hui, une nouvelle classe de managers qui assument un rôle de catalyseur, de maïeutique, de passeur et de synthétiseur, là où, hier, ils faisaient figure de phares, de décideurs et de meneurs.

Je me suis aperçu que mon expérience de démocratie participative en entreprise et en collectivité, où le collectif se construit à partir d’individus libres et autonomes, empruntait au même paradigme que celui qui règne actuellement dans les sciences des nanotechnologies pour construire de nouveaux matériaux.
Cette singularité sera-t-elle aussi féconde dans le champ économique et social, cela c’est ma conviction, et c’est afin de la partager que nous avons écrit ce livre.
Michel HERVE
PDG du Groupe Hervé, a présidé de 1991 à 2004 l’Agence Nationale pour la Création d’Entreprises. Ancien député et deputé européen, il a été le maire de Parthenay. Ce livre « De la pyramide aux réseaux » est publié dans la collection »Acteurs de la société » des Editions Autrement; Alain d’Iribarne, Directeur de Recherche au CNRS et Elisabeth Bourguignat, secrétaire de l’association Accomplir ont contribué à sa rédaction.

WEB 2.0 LES INTERNAUTES AU POUVOIR

medium_couvweb20.jpgWeb 2.0 Les internautes au pouvoir

Blogs, Réseaux Sociaux, Partages de vidéos, Mashups, …

Jean-François Gervais,

Responsable de la filière Multimédia à la Direction de la Formation de l’INA

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Le succès des  sites où l’internaute partage ses centres d’intérêts avec d’autres (blogs, communautées en ligne,  .. ) montre un véritable attrait du grand public pour ce que l’on appelle aujourd’hui le phénomène Web 2.0 .  A votre avis, pourquoi un tel succès ?

Il semble toujours facile à posteriori d’analyser le succès, mais dans le cas du web 2.0, le phénomène est trop récent pour mettre en avant une hypothèse plutôt qu’une autre.
Les facteurs clés de succès s’articulent sans doute autour de deux axes, une avancée technologique et de nouveaux usages.
Les technologies du web 2.0 (xml, ajax, flash vidéo) ne sont pas si récentes, c’est leur mise en commun  qui crée la valeur ajoutée.
La seule nouveauté c’est la simplicité qui distingue les applications web 2.0.
Nul besoin d’être féru d’informatique ; là où il y a encore cinq ans il fallait apprendre le html pour publier une page sur le web ; aujourd’hui l’utilisation d’un blog est intuitive.
Ce qui est vrai pour le texte l’est aussi pour l’image. C’est une banalité de le rappeler  mais nous sommes rentrés dans une civilisation de l’image où celle-ci est omniprésente.
Mais jusqu’à présent sa production était limitée aux professionnels. Avec le numérique  la possibilité est offerte à chacun de créer des images dans un contexte économique très favorable.  La croissante ininterrompue  des  ventes d’appareils photo numériques, de caméscopes et la mutation du téléphone en « photo-vidéo-phone » nous le confirme.
Le chaînon manquant, c’était la diffusion de ces images.
Les services de partage de vidéos, tels YouTube ou Dailymotion, se sont imposés comme des canaux de diffusions crédibles et comme une alternative potentielle aux médias audiovisuels classiques. C’est la continuité logique des sites de partages photos comme Flickr, moins médiatisé mais pionner des services web 2.0.
La simplicité d’usage est là aussi au rendez vous, en quelques clics vos photos et vidéos sont en ligne.
La seconde composante du succès ce sont les usages. Ce point semble jusqu’à présent sous-estimé dans les différentes réflexions sur le « pourquoi du comment » du succès de tel ou tel service.
Le succès des sites communautaires repose à la fois sur la mise à disposition des médias personnels et sur la dimension partage de ces derniers.
Un groupe de musiciens qui utilise Myspace, pour se faire connaître utilise la plate-forme à la fois pour diffuser ses morceaux en mp3 et pour promouvoir ses concerts. Le succès de YouTube ou Dailymotion repose lui aussi sur le partage. Vous avez trouvé une vidéo qui vous plait vous pouvez la publier sur votre blog où l’envoyer facilement à un ami. Si l’on poursuit le raisonnement jusqu’au bout, nous serions tenter d’oser dire que la dimension « communauté » l’emporte sur le contenu même des sites (vidéos, photos ou texte).
Une des meilleures vidéos qui expliquent le web 2.0 est d’ailleurs l’œuvre d’un professeur d’ethnologie de l’Université du Texas, Michael Mesh. Celui-ci a mené une enquête chez les utilisateurs de YouTube à l’issue de laquelle il ressort que c’est la dimension partage qui est plébiscitée devant les autres fonctionnalités.
Les raisons du succès sont à chercher dans ces modifications sociétales.
Qui pouvait prévoir il y a cinq ans le succès des téléphones portables et des nouveaux services comme le sms.  A vrai dire personne, ce sont les utilisateurs, par leurs usages qui adhèrent ou non aux nouveaux services pour en faire des succès ou des échecs. L’internaute est aujourd’hui au centre des services, c’est une des nouvelle donne de l’économie de l’immatérielle dont les acteurs doivent prendre conscience au risque de passer à coté de cette (r)évolution.

 

Comprendre les cartes, c’est voir le monde autrement. Le Web 2.0, c’est aussi une information géographique partagée par tous, dans un espace étendu véritablement à l’échelle de la planète ; Quels sont les apports des systèmes de localisation par satellite (GPS), et plus généralement des Systèmes d’information géographiques (SIG) dans cette évolution ?

Nous n’avons sans doute pas encore pris conscience de l’impact d’applications comme Google Earth où le Géoportail de l’IGN. C’est une des raisons pour lesquelles dans mon livre, le premier chapitre leur est consacré. La première révolution c’est la mise à disposition du grand public, d’outils dont seuls les géographes et les militaires disposaient auparavant.
Avec une touche d’humour, il est possible de dire que la planète terre est un des rare dénominateurs communs à tous ses habitants ont en commun, c’est universel. Les interfaces des SIG (Systèmes d’Information Géographiques) s’appuient d’ailleurs sur le concept de « géographie naïve », nous avons tous conscience de notre environnement géographique et de la manière de si déplacer.
Un autre aspect est d’associer à la géographie des données scientifiques (comme la météo), ou bien économiques et culturelles. Avec ses outils de SIG c’est la terre qui devient le browser !
Certaines données peuvent s’afficher en temps réel : suivre la dérive des glaciers ou découvrir l’épicentre des derniers séismes n’est plus réservé aux seuls scientifiques.
La prise de conscience actuelle sur les enjeux écologiques des années à venir profite aux Google Earth et consorts. Apprécier visuellement les dégâts écologiques vaut tous les discours, le film d’Al Gore « Une vérité qui dérange » s’appuie en partie sur des animations réalisés avec Google Earth.
Une autre raison du succès, ce sont les mashups. Créer des géobiographies, inclure des modélisations en 3D de monuments historiques sont à la portée de tous.
Pour être complet il faut inclure dans la géolocalisation, le succès de vente des GPS et anticiper celui des téléphones portables comme l’Iphone d’Apple qui « embarqueront » Google Maps d’origine.

 

Pouvez-vous expliquer plus précisément le terme « mashup » et préciser le rôle des mashup dans le développement du web 2.0 ?

Mashup en anglais cela signifie mixer des éléments (en anglais la recette de la purée c’est le « mashed potatoes »).
Sans trop rentrer dans des détails techniques, les mashups ce sont de nouvelles applications créées en associant une ou plusieurs autres applications déjà existantes.

Un exemple très simple, vous mixez une application de géolocalisation (par ex Google Maps) avec une liste d’hôtels. Chacun des hôtels apparaît désormais sous la forme de « punaises » sur la carte. Pour chaque hôtel vous proposez une visite en vidéo .Dernière étape, sur
chacun d’entre eux, vous associez les commen
taires des voyageurs issus d’un autre site de référence sur le voyage comme tripadvisor, et vous obtenez www.trivop.com
Vous pouvez aussi ajouter les entrées wikipedia correspondantes à chaque lieu, les possibilités sont infinies…

Si les mashups existent c’est grâce à l’attitude d’ouverture des différents services web 2.0 qui autorisent l’interconnexion entre eux.
Les internautes curieux de découvrir les mashups peuvent consulter « programmable web » où plus de 2000 d’entre elles sont répertoriées. Les grands noms du logiciel comme Microsoft ou Adobe travaillent sur des environnements, ou demain chacun pourra développer ses propres mashups très facilement.

 

A votre avis, doit-on envisager le web 2.0 comme une zone de super liberté ou bien aussi, revers de la médaille, comme un espace potentiel de « fichage » des internautes ?

La menace d’un Big Brother est celle qui vient à l’esprit lorsque l’on balaie tout le potentiel du web 2.0, notamment lorsque l’on parle de géolocalisation. Des services (payants) existent déjà pour localiser le propriétaire d’un téléphone portable.
Il faut distinguer les données personnelles, qui incluent à la fois « ce que je dis ou fait « sur le web; mes commentaires sur un site marchand ou mon blog; mais aussi « ce que l’on dit sur moi ».
Certains experts du web n’hésitent pas à parler d’identité numérique.
Un exemple concret est la mise en garde des universités américaines envers leurs étudiants par rapport à leurs comportements sur les réseaux sociaux comme Myspace ou Facebook.
Nombreux sont les étudiants qui publient des photos de soirées parfois arrosées. Que penserons leurs futurs employeurs, qui auront « googlelisé » leurs noms et découvriront ces photos dans deux ans à la fin de leurs études et dont les auteurs auront oublié l’existence !

La validité des données est aussi l’objet de débat, faut-il dévoiler l’identité des contributeurs de Wikipédia et mettre en place des circuits de validation identiques à ceux du monde universitaire pour assurer une meilleure véracité des propos ?
Enfin il ne fait pas oublier que nous sommes nous aussi des Big Brother en puissance, témoins potentiels d’évènements nous pouvons le capturer avec nos téléphones portables et le relayer sur le web, en mettant, en avant, parfois sans nous en rendre compte, l’identité d’autrui.

 

A propos de l’auteur

Jean-François Gervais est Doctorant en médias numériques à la Sorbonne et titulaire d’un DEA en multimédia. Il est responsable de la filière Multimédia à la Direction de la Formation de l’INA (Institut National de l’Audiovisuel). Il scrute le Web depuis 1994. Il est également coauteur avec Jean-Nöel Gouyet du livre » Gestion des médias numériques » (Dunod, 2006)
Son blog : http://www.web2-lelivre.com

2020 LES SCENARIOS DU FUTUR

medium_2020_couv.JPG2020 Les Scénarios du futur

Préface de François de Closets

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous citez, en introduction de votre livre ces mots de Woody Allen :  » Arretez l’histoire, je veux descendre !!  « … 

2020, c’est presque demain ; les scénarios du futur sont-ils menaçants ou simplement les choses vont-elles trop vite pour nous, simples humains ?

Les scénarios du futur ne sont pas menaçants. Ils décrivent des « futurs possibles ». Les risques de dérapage et de « sortie de route » existent, bien sûr, mais je préfère rester constructif plutôt que de déplorer les nombreux dangers qui nous guettent. On peut être conscient des risques sans pour autant sombrer dans la peur collective. Cette attitude permet d’accroître la vigilance de chacun. En effet, nous vivons dans des sociétés « de mise en scène de la peur ». Une mise en scène qui sert des intérêts politiques, médiatiques, juridiques ou industriels. Il est difficile de ne pas se laisser manipuler et de garder toute sa clairvoyance alors que le risque est quotidien : la peur du manque, de la rareté (entretenue par certains), du terrorisme, des catastrophes écologiques ou biologiques. Mais aussi perception profonde des inégalités, des égoïsmes des plus riches, des fossés économiques et numériques qui appellent constamment notre attention devant le malheur des défavorisés. Certes, tout va trop vite. C’est pourquoi il nous faut une capacité d’intégration des informations et des événements pour prendre du recul. La culture est un « ciment » qui réunit les éléments épars d’un monde disjoint. Il nous faut donc résister à cette accélération par la culture. Préférer un surcroît de sagesse à un trop-plein d’informations ! Une telle perspective sous-entend que notre attitude face à la science et à la technique ne soit plus seulement de nature « optimiste » ou « pessimiste », mais à la fois pragmatique, constructive et responsable

Internet, ce n’est pas simplement une Technologies de l’Information et de la Communication ; c’est surtout ce que vous appelez une « Technologie de la Relation ». Pouvez-expliquer cela  ?

Davantage qu’un « média des médias », Internet est en réalité un «écosystème informationnel». Un écosystème est un système complexe constitué de nœuds de réseaux reliés les uns aux autres par des liens. Le téléphone, le satellite, le câble, la fibre optique, etc., sont autant de liens constituant un système global ou écosystème informationnel. Voilà donc un système qui s’impose en tant qu’environnement. Au même titre que l’oxygène de l’air, l’alimentation qui nous permet de vivre ou l’énergie distribuée à domicile par une prise électrique. Dans cet écosystème, une multitude d’informations circulent, des myriades d’opérations et de transactions sont effectuées en temps réel. Internet n’est donc pas, comme on l’a souvent dit, une nouvelle technologie de l’information et de la communication (NTIC), terme inventé et proposé par les ingénieurs des réseaux. C’est une technologie de la relation (TR) plus qu’une NTIC. Effectivement, ce qui fait la force d’Internet depuis son apparition, c’est son potentiel d’inter-relations humaines et, en particulier, par la messagerie électronique qui, encore aujourd’hui, représente l’une des applications les plus utilisées du Net. Les grandes applications d’Internet se sont développées grâce aux utilisateurs eux-mêmes. Les producteurs de logiciels ou les grandes entreprises ont certainement joué un rôle de facilitateurs en proposant des logiciels performants, mais ce sont bien les utilisateurs qui ont adapté les outils Internet à leurs besoins. C’est ainsi qu’on a vu émerger, du bas vers le haut (bottom up), les grandes applications d’Internet : la messagerie électronique, la messagerie instantanée, le bavardage en ligne ou « chat », le peer to peer ou P2P, les blogs, et les journaux citoyens.

Comment donner plus de sens à la Communication et faire la différence par exemple entre désirs et besoins ?

Il existe une grande différence entre « l’information » et la « communication ». La première peut se faire en temps réel et à l’échelle mondiale. La seconde nécessite une intégration, une médiation humaine, une relation sociale, de la durée. Les TIC et Internet démultiplient les moyens d’informations instantanés, mais favorisent-ils la communication humaine, donnent ils du sens au lien social ? C’est toute la question. La perte de sens peut conduire à un certain désenchantement vis à vis de la technologie envahissante, comme on le constate aujourd’hui. Un décalage, amplifié par la rapidité du marché à s’emparer des nouvelles techniques et des nouveaux outils. Etant donné la fluidité créée par la société du numérique et par les possibilités qu’ouvre le monde virtuel, le marché propose des objets et des produits servant à satisfaire plus souvent des « désirs » que des nécessités. Ces offres correspondent-elles à des besoins fondamentaux de la société ou seulement à des désirs passagers nourris par les fantasmes suscités par la publicité ? Nous sommes soumis, par les messages publicitaires, l’excès d’email, le spam, les sollicitations diverses, à une sorte de pléthore informationnelle que j’appelle aussi une « infopollution », et contre laquelle nous devrons lutter grâce à une « diététique de l’information ». Cette diététique consiste à savoir retrouver, classer, hiérarchiser, échanger des informations afin de les rendre pertinentes dans notre vie personnelle ou professionnelle. Mais pour pouvoir classer, trier, hiérarchiser ces informations, il faut un système de valeurs permettant de rendre efficaces de telles opérations. Cette échelle de valeurs me semble manquer aux nouvelles générations, très habiles pour trouver et échanger des informations, mais moins à même de les hiérarchiser. C’est notre rôle de parents, d’enseignants, de communicateurs, de les aider à retrouver de telles valeurs pour que puissent se révéler les différences entre fantasmes, désirs et besoin réels, intellectuels et matériels.

Quels conseils donnez-vous pour garder le cap, nous qui allons devenir à brève échéance des sortes de mutants ou personnages bioniques, où le vivant se mèle indistinctement au robotique ?

Aujourd’hui, la gestion, le contrôle en temps réel des sociétés humaines et le copilotage de l’évolution exigent une nouvelle culture de la complexité. Certes, la biologie et l’écologie apportent en partie les bases d’une telle culture : niveaux d’organisation, rétroactions, régulations, adaptation, réseaux et cycles. Mais la nécessité d’une culture systémique, d’une meilleure utilisation des « sciences de la complexité » se fera sentir de plus en plus fortement. Il est vrai que le vivant se mêle indistinctement au robotique. L’hybridation entre le naturel et l’artificiel, la « machinisation » du biologique et la « biologisation » des machines, sont des tendances profondes qui alimentent et renforcent la nécessité d’une culture de la complexité. La convergence et, progressivement, la fusion entre biologie, mécanique et informatique représentent plus qu’une simple évolution scientifique ou technique. Elles posent les bases de cette nouvelle culture de la complexité. Dans le domaine scientifique et technique cette fusion se traduit déjà par l’émergence de nouveaux secteurs tels que
la biotique, l’électronique moléculaire, les nanotechnologies, l’écologie industrielle, l’éco-ingénierie, la vie artificielle, les réseaux neuronaux. Dans les organisations, la culture systémique et la pensée complexe s’introduisent également. En 30 ans, la systémique a acquis ses lettres de noblesse en matière de gestion des entreprises, d’urbanisme, de construction des grands réseaux, d’écologie ou de médecine. La reconfiguration des entreprises, la réticulation des organisations, l’aplatissement des niveaux hiérarchiques, l’émergence de l’entreprise « polycellulaire », « intelligente », « virtuelle », sont des signes du changement de paradigme que nous vivons. La nouvelle culture de la complexité relie le naturel et l’artificiel dans une vision élargie de la nature et de la civilisation. Chaque personne, chaque peuple est porteur d’une culture globale et non d’une partie de culture, d’une sous-culture aliénable par d’autres. Une culture hypertextuelle renvoie aux autres noeuds et liens du réseau neuronal planétaire qui se tisse sous nos yeux. Réseau qui évolue à une vitesse accélérée par rapport au temps immuable de référence, mais qui, par sa complexification, densifie le temps. La nouvelle culture de « l’homme symbiotique » est un des catalyseurs de l’avenir.

Joël de Rosnay
Conseiller du Président de la Cité des Sciences et de l’Industrie de la Villette
Président Exécutif de Biotics

Auteur des livres :
« Une vie en plus, la longévité pourquoi faire ? », Seuil, 2005
« La révolte du pronétariat, des mass media aux media des masses », Fayard, janvier 2006
« 2020 : Les scénarios du futur, comprendre le monde qui vient », Des Idées & des Hommes, 2007

www.derosnay.com
www.unevieenplus.com
www.pronetaire.com
www.scenarios2020.com

Le futur de la Fabrique du futur

medium_tables_rondes_200x600.jpgUne fois n’est pas coutume, nous parlons aujourd’hui d’un livre à venir. « Fabriquer le Futur » en est à son deuxième tome, et son lancement a coïncidé avec celui de l’association « La Fabrique du Futur », qui sera sans aucun doute le berceau du tome 3, dont nous avons dès maintenant voulu parler avec Eric Seulliet, co-auteur et coordinateur des premiers tomes et président de l’association.

Le propos central de ce livre est d’expliquer et de décrire la dernière révolution à l’œuvre dans le domaine de l’innovation et du marketing : la co-création de produits et services par les consommateurs eux-mêmes. Interview par Marc de Fouchécour, nextmodernity.

– Comment concilier le partenariat lead-users / entreprise et la liberté de ton (voire l’infidélité) nécessaire des lead-users avec la marque ?

Eric Seulliet : Toute la difficulté est là ! Je ne suis pas sûr qu’il faille instaurer un partenariat au sens classique (juridique) du terme ce qui ne ferait que rebuter les lead users. On est dans quelque chose de plus subtil, du type échange gagnant/gagnant. En effet, les consommateurs sont méfiants par rapport aux marques. Ils sont donc naturellement réticents à être mis à contribution par les services marketing des entreprises car ils redoutent avant tout d’être récupérés. Dans le même temps, ils ont évidemment envie d’être séduits et écoutés. Il faut donc d’abord les observer, puis tisser des relations de confiance avec eux. Plutôt que de chercher à aboutir à la fidélisation de leurs consommateurs, les marques devraient se demander si ce n’est pas d’abord à elles d’être fidèles à leurs clients !

– La « marque » est à la fois vecteur et attracteur de l’adhésion des clients, mais à qui « appartient » la marque, à la fin de ce type de processus ?

Eric Seulliet : Si on poussait la logique, la marque devrait appartenir à la communauté des utilisateurs (they are the market !… comme dirait mon ami François Laurent). C’est aussi ce que défend le courant du Pinko marketing… http://pinkomarketing.pbwiki.com/

– Quand le « consommateur » est une entreprise, comment décliner le concept d’innovation ascendante ?

Eric Seulliet : Là on ne parle plus d’innovation ascendante, mais du concept voisin d’ « open innovation ». Cette innovation ouverte consiste pour les entreprises à aller chercher partout des pistes nouvelles d’innovation : en interne, pratiquer l’innovation participative avec l’ensemble des collaborateurs. Il s’agit de les inviter à être des contributeurs, à proposer leurs idées et solutions …en leur donnant bien évidemment les moyens de le faire. Mais, au delà, ces pratiques d’innovation ouverte doivent associer tous les acteurs de l’écosystème de l’entreprise : collaborateurs internes bien sûr, mais aussi fournisseurs, actionnaires, distributeurs, partenaires, centres de recherches externes, etc. C’est un peu l’esprit qui est censé présider à celui des pôles de compétitivité…

– Comment aborder l’innovation ascendante dans la production d’usages nouveaux (qui impliquent davantage le marketing et la relation client que la R&D)

Eric Seulliet : Effectivement, si les entreprises étaient davantage attentives à l’expression de réels besoins, elles s’apercevraient souvent que les aspirations des consommateurs concernent généralement de nouveaux usages, une nouvelle ergonomie dans les interfaces, etc. Cela devrait donc impliquer bien évidemment le marketing (Concept de laboratoire d’usages, recours aux sciences humaines). Ce qui se pratique surtout aujourd’hui, c’est de demander aux consommateurs de tester des usages prédéterminés, avec par exemple le recours à des tests, à des études d’ergonomie. La vraie innovation ascendante doit faire émerger des usages auxquels on n’avait pas forcément pensé… C’est l’exemple des SMS : personne n’avait prévu l’explosion de l’usage qui en a été fait par le grand public dans la mesure où ils avaient été conçus comme moyen de communication technique entre opérateurs.

– A propos des « entreprises citoyennes » : l’innovation ascendante peut aussi être vue comme un nouveau moyen de « presser le citron » consommateur, ou de le caresser dans le sens du poil : qu’en pensez-vous ?

Eric Seulliet : L’innovation ascendante (IA) ne devrait pas impliquer que l’entreprise abdique tout rôle dans une démarche démagogique et suiviste. L’IA ne doit déjà pas impliquer la masse des consommateurs mais seulement la frange des plus avant-gardistes d’entre eux. Ceux-ci au demeurant ne donneront pas l’intégralité de la solution mais induiront des pistes d’innovation. A l‘entreprise de jouer son rôle, de transformer ces pistes en concepts viables, à les faire valider par les consommateurs. L’IA implique des interactions et des itérations entre l’entreprise et les consommateurs. Une spirale vertueuse en quelque sorte !

– Comment se positionne la « Fabrique du Futur » par rapport à ces enjeux de société ?

Eric Seulliet : La FDF a été créée essentiellement pour s’inscrire dans ces enjeux. C’est la raison pour laquelle nous la qualifions de dispositif citoyen ! Tous nos projets tournent autour de l’IA : laboratoire d’usages, mise sur pied de « panels » de consommateurs avant-gardistes, recours à des outils technologiques comme la 3D pour détecter des germes du futur, etc. !

Nous avons d’ailleurs le plaisir de vous annoncer qu’à l’occasion de la présentation publique de la Fabrique du Futur, nous organisons nos premières « Tables rondes du Futur » sur le thème : « De nouvelles voies pour l’innovation : de l’imaginaire à la co-création« , le 25 mai 2007 de 8h30 à 14h00 (déjeuner-buffet inclus), à la Bourse de Commerce de Paris ; vous trouverez ci-joint le programme de cet événement. L’information est aussi sur notre site, avec formulaire d’inscription en ligne : www.lafabriquedufutur.org/news000102c1.html

Nous serons heureux de vous y retrouver.

INNOVATION, MANAGEMENT DES PROCESSUS ET CRÉATION DE VALEUR

medium_Innovation.jpgINNOVATION, MANAGEMENT DES PROCESSUS ET CRÉATION DE VALEUR
Sous la direction de Smaïl Aït-El-Hadj et Olivier Brette
Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

D’après vous, comment naissent les idées ? Peut-on parler d’un processus rationnel ?

La créativité est, par nature, une activité complexe et incertaine. Elle l’est d’autant plus qu’elle met en jeu un nombre important d’éléments et de principes en interdépendances, à tel point qu’il devient impossible de prédire le cheminement et a fortiori l’issue du processus de créativité. Cette double contrainte de complexité et d’incertitude exclut généralement la possibilité d’optimiser la génération d’idées, en termes de résultats.
Cependant, affirmer cela n’implique nullement une représentation de la créativité comme un processus entièrement spontané, fortuit, voire irrationnel. La génération d’idées est une activité rationnelle, sinon susceptible de rationalisation, au sens où il est possible de mettre en œuvre des dispositifs organisationnels et techniques permettant de stimuler et d’orienter l’émergence de nouvelles idées. Cela passe généralement par la réunion de différentes compétences internes à l’entreprise, voire issues d’autres organisations (autres entreprises, clients, centres de recherche publics, etc.), sur un thème ou un projet transverse.

La Recherche & Développement, dans les grandes institutions et entreprises notamment,  est-elle éloignée de la réalité du marché ?

En général oui.
Dans le cas de la recherche fondamentale cet éloignement n’est pas dommageable puisqu’il s’agit alors de produire des connaissances ouvertes, proches de la science, susceptibles d’alimenter le mouvement technologique ultérieur et qui doivent beaucoup à la dynamique et à la créativité d’une communauté scientifique.
Dans le cas de la recherche appliquée et du développement de produit, leur éloignement relatif du marché est compensé par les relais internes à l’entreprise, directions commerciale, marketing, voire industrielle qui font remonter les informations notamment de l’après vente. C’est la richesse et la qualité de cette relation entre notamment les services de recherche appliquée et de développement et les services opérationnels de l’entreprise qui vont faire la puissance d’une R&D en terme de son apport à la valeur de l’entreprise.
Des méthodes concrètes sont mises en place depuis plusieurs années pour favoriser cet échange permanent de la R&D avec les opérateurs de l’entreprise représentant le marché ou la vie industrielle d’une manière générale : il s’agit de la forme d’organisation qu’on a appelé « l’ingénierie concourante ». Celle-ci consiste à faire travailler ensemble en permanence et en groupe les opérateurs de la R&D avec les autres acteurs de l’entreprise, parties prenantes d’un projet de développement, notamment marketing, commercial, direction industrielle. Cette forme d’organisation est aujourd’hui amplifiée dans son efficacité par les nouvelles technologies notamment de réseau et de génération d’image qui concrétisent l’objet à développer et font de cette ingénierie concourante ce que l’on appelle aujourd’hui « l’ingénierie collaborative ».

Cette nouvelle ingénierie collaborative permet-elle également de faciliter le passage d’une idée à sa mise en œuvre et de dépasser le cloisonnement entre « Recherche » et « Développement » que l’on observe parfois ?

Cet impératif [de décloisonnement] a pesé depuis longtemps sur les entreprises particulièrement dans la nécessité de conserver une continuité et une cohérence de la prise en compte du besoin client, quel que soit le client externe ou interne.
C’est, en fait, la préoccupation de bien cerner le besoin du client et d’en suivre la prise en compte cohérente au niveau des solutions produites qui permet de dépasser ce cloisonnement. Cela a été initialisé par la mise au point de méthodes particulières telles que les méthodes de spécification, d’analyse fonctionnelle ou de la valeur. Ensuite devant l’ampleur de certains projets et de la complexité qui en découle s’est formée une démarche intégrée de développement que l’on appelle « l’ingénierie système ».
Celle-ci va assurer à la fois la cohérence de la chaîne de prise en compte des besoins que l’on va appeler alors les « exigences », et la cohérence de la chaîne des réponses et solutions que l’on va examiner dans ses architectures et que l’on pourra, enfin, valider par rapport aux besoins initiaux exprimés.
Ainsi ce type de démarche assure non seulement une cohérence entre les différents services de l’entreprise partie prenante d’un projet de R&D, mais aussi une cohérence temporelle dans ce que l’on appelle aujourd’hui la « traçabilité » du processus de développement.

Depuis 2004, les pôles de compétitivité concrétisent l’action publique et l’implication de l’Etat dans le domaine de la Recherche ; D’après vous, quelles stimulations les pôles de compétitivité apportent-ils aux partenaires impliqués ?

Le dispositif des pôles de compétitivité, que le Gouvernement français a mis en œuvre à l’automne 2004, a pour objectif principal de promouvoir le développement de partenariats entre des firmes, des établissements d’enseignement supérieur et des unités de recherche, implantées sur un même périmètre géographique (généralement régional) autour de projets innovants. Cette initiative est porteuse, au moins dans ses intentions, d’une nouvelle conception de la politique d’innovation et de recherche.
Les moyens mobilisés par les pouvoirs publics dans le cadre de ce dispositif sont de deux ordres : d’une part, un abondement financier significatif aux projets d’innovation présentés par les pôles ayant été labellisés (au moins 1,5 milliards d’euros sur 3 ans) et d’autre part, une incitation et un appui régionaux à la mise en réseau et aux interactions au sein des pôles.
On peut attendre de ce dispositif un certain nombre d’effets positifs à moyen et long termes, même s’il est encore trop tôt pour en mesurer l’importance. En premier lieu, on peut penser qu’il permettra d’améliorer la valorisation industrielle de la recherche publique, tout en échappant aux inefficiences du modèle strictement marchand fondé sur une relation bilatérale entre une entreprise et un laboratoire de recherche public. En deuxième lieu, la démarche des pôles de compétitivité fournit une incitation au développement de relations collaboratives entre entreprises, fussent-elles par ailleurs concurrentes, dans le cadre de projets d’innovation plus ambitieux que ceux menés isolément. Enfin, le cadre multilatéral que promeut le dispositif des pôles de compétitivité est susceptible d’améliorer l’implication des Petites et Moyennes Entreprises dans la dynamique de la production et des transferts de connaissances qui sous-tend le processus d’innovation.

Les auteurs :

Smaïl AIT-El-Hadj est professeur associé, Directeur de l’Unité Innovation-Conception-Développement (ICOD) du Centre de Recherche Magellan de l’Institut d’Administration des Entreprises (IAE) de l’Université Jean Moulin Lyon III.

Olivier Brette est enseignant, responsable de
recherche au sein de l’Unité ICOD du Centre de recherche Magellan de l’Institut d’Administration des Entreprises (IAE) de l’Université Jean Moulin Lyon III.

 

Smaïl AIT-EL-HADJ, Adel ALOUI, Jean-Claude BOEHM, Vincent BOLY, OLIVER BRETTE, Yves CHAPPOZ, Héla CHEBBI, Pierre DEVALAN, François ECOTO, Joëlle FOREST, Jean-Louis JOYEUX, Pierre KRAWTCHENKO, Laure MOREL-GUIMARAES, André-Yves PORTNOFF, Jérôme RIVE, François ROMON, Benoît ROUSSEL, Pierre SOUCHON, Nadine STOELTZLEN

Innovation et Coopération interentreprises

medium_photo_livre_BS.2.jpgInnovation et coopération interentreprises

Comment gérer les partenariats d’exploration ?

Blanche Segrestin

Centre de Gestion Scientifique, École des Mines de Paris

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

De nos jours, l’innovation peut-elle se concevoir sans partenariat  interentreprises ?

Dans une économie tirée par l’innovation intensive et répétée, les entreprises sont de plus en plus sommées d’explorer de nouveaux espaces d’action, de partir en reconnaissance de nouvelles opportunités (Le Masson et al., 2006). Très souvent, ces espaces d’innovation se situent à la croisée de différents secteurs et mobilisent des expertises variées. Du coup, on assiste à un foisonnement des coopérations entre entreprises au niveau des activités de R&D et d’innovation, alors que ces activités stratégique étaient jusqu’à récemment conservées dans le giron de l’entreprise (Hagedoorn, 2002). L’interfirme est désormais perçu comme le lieu de l’innovation par excellence (Powell et al., 1996). Cependant, il faut souligner l’extraordinaire difficulté que les entreprises rencontrent dans ces collaborations. Bien qu’ils constituent un axe majeur de la stratégie des entreprises, les partenariats d’innovation se révèlent extrêmement précaires, avec des taux d’échecs importants et des ruptures prématurées (Barringer and Harrison, 2000)

Qu’est ce qui distingue un contrat de recherche d’une alliance stratégique ou d’un simple accord ?
L’explosion quantitative des accords s’accompagne dans les faits d’une multiplication des formes prises par les collaborations. La diversification des contrats de coopération est tout à fait remarquable depuis quelques années, avec des accords de licence, des contrats de sous-traitance, des projets de recherche conjoints, des entreprises communes comme les Joint Ventures… Les joint ventures  peuvent ainsi renvoyer à des « equity Joint venture » (entreprise commune dont les capitaux sont partagés) ou à de simples accords contractuels.

Plus généralement, de nombreuses statistiques montrent que les parties optent de plus en plus fréquemment pour de simples arrangements contractuels, dont font partie les alliances, plutôt que pour des structures formelles de société. La notion d’alliance recouvre ainsi des réalités très différentes, dans la mesure où les parties choisissent de définir leur accord elles-mêmes, avec des dispositifs dont le statut n’est pas toujours clair juridiquement. Certains juristes insistent sur le fait que dans le silence ou dans l’imprécision des accords, les parties d’une alliance stratégique s’exposent à l’application des règles prévalant (dans le droit anglo-saxon) pour les partnerships, ou pour les corporations. Du coup, les acteurs (et surtout les plus faibles !) sont rendus plus vulnérables lorsqu’ils s’engagent dans de telles coopérations. 

 

Selon vous, quelles sont les difficultés majeures auxquelles se heurtent les partenariats d’exploration ?

Nos recherches nous ont conduits à étudier de nombreux cas empiriques de partenariats innovants. Nous avons par exemple accompagné le développement de la première plate-forme commune entre Renault et Nissan :, l’Alliance conclue entre Renault et Nissan en mars 1999 visait non seulement à bénéficier de synergies industrielles, mais aussi à renforcer les capacités d’innovation de chaque marque. Cependant, en 2000, l’incertitude était grande sur la pérennité de l’Alliance, les objectifs communs réalisables et les moyens à mettre en oeuvre. Au cours de ces recherches, nous avons mis en évidence une catégorie particulière de partenariats qui devient centrale dans une économie de l’innovation : il s’agit des partenariats d’exploration qui visent à partir en reconnaissance de nouveaux champs d’innovation.

Cette activité d’exploration se distingue nettement des activités traditionnelles de l’entreprise et des transactions usuelles entre entreprises : elle a pour vocation d’identifier et de construire à la fois les objets de recherche et de développement, et les groupes ou les collectifs qui y travailleront. En ce sens, elle pose un défi radical aux modèles classiques de gestion dans la mesure où les opérations à mener, les apprentissages à conduire et les critères d’efficacité restent à concevoir. En fonction des résultats de l’exploration, chaque partenaire peut alors choisir de poursuivre ses travaux (avec ou sans les mêmes acteurs), de réorienter son exploration ou d’abandonner des pistes trop risquées ou insuffisamment prometteuses. Ces partenariats se caractérisent donc par une double précarité très difficile à gérer : précarité des objets d’une part et des actions à mener, et précarité des intérêts et des relations d’autre part, avec des règles qui sont en pratique relativement peu déterminées. Piloter l’exploration collective suppose alors non seulement de coordonner les acteurs et leurs apprentissages, mais aussi de gérer leur cohésion, c’est-à-dire de réunir les conditions qui permettent d’engager l’action malgré l’incertitude. L’ouvrage analyse les dynamiques de coopération et explique, grâce à un modèle de l’exploration collective, les difficultés rencontrées par les entreprises. Il indique ainsi de nouveaux outils de gestion pour piloter les coopérations innovantes.

Vous évoquez d’ailleurs  une augmentation des conflits, une déstabilisation du droit, une recherche de flexibilité se traduisant par un libéralisme accru, pourtant, d’après vous, ce ne sont pas les partenari
ats dans leur finalité qui sont en cause mais plutôt leur mode de gouvernance. Quelle seraient les caractéristiques d’un pilotage ou d’une gouvernance plus adaptée?

Face aux caractéristiques des partenariats d’exploration, on constate que les acteurs sont souvent démunis pour organiser des structures de gouvernance adaptées. D’où les crises très fréquentes que rencontrent ces partenariats. Le droit apparaît souvent trop technicisé et inadapté aux problèmes de la vie économique. Le recours au droit alors considéré comme l’ultime alternative, et l’on préfère souvent des procédures informelles ou des contrats ad’hoc. Cependant, dans le même temps, le droit constitue une donnée désormais incontournable de la vie des affaires. D’ailleurs, de nombreuses innovations juridiques témoignent des efforts des juristes pour adapter le droit à la rationalité économique, notamment en étudiant les dysfonctionnements occasionnés par le droit, qui devient trop technique, trop rigide ou trop coûteux à mettre en place. Si le droit a assurément gagné en flexibilité ces dernières années, a-t-il pour autant contribué à expliciter la situation des partenariats d’exploration et leurs enjeux spécifiques ? Dans les situations d’exploration collective, la préférence pour les contrats ad’hoc et la réduction des dimensions impératives et normatives du droit peut contribuer à rendre le droit imprévisible. En outre, si la liberté contractuelle laisse les acteurs libres de s’organiser comme ils l’entendent, le droit leur fournit-il les catégories nécessaires à l’action collective ? On peut craindre en fait qu’en laissant aux acteurs le soin de définir eux-mêmes leur cadre de cohésion, ceux-ci aient du mal à faire face aux situations d’exploration. Si quelques acteurs, plus téméraires ou moins vulnérables, parviennent à générer des cadres de cohésion minimaux, les autres ne seront-ils pas victimes de l’indétermination ? Notre analyse de cas concrets montre que la nature de la coopération en situation innovante requiert des règles spécifiques dont il ne faut pas sous-estimer l’originalité. Au-delà des outils de gestion qu’il développe, l’ouvrage explore donc l’hypothèse d’un nouveau type de contrat – le « contrat spécial d’exploration » -; il ouvre ainsi de nouvelles perspectives entre  spécialistes du droit et gestionnaires en restaurant la nature des activités innovantes au sein même des contrats et de la gouvernance interentreprises. Nous avons proposé les principes d’un cadre spécial d’exploration qui doivent permettre aux partenaires d’engager l’action sans s’engager et leur assurer une certaine récursivité des choix. Il s’agit en particulier de proposer des procédures qui permettent de réviser les engagements mutuels en fonction des transformations des projets et des intérêts mutuels.

 

 

BARRINGER, B. R. & HARRISON, J. S. (2000) Walking a Tightrope: creating Value through Interorganizational Relationships. Journal of Management, vol. 26, pp. 367-403. HAGEDOORN, J. (2002) Inter-Firm R&D Partnerships, an overview of major trends and patterns since 1960. Research Policy, vol. 31, pp. 477-493. LE MASSON, P., WEIL, B. & HATCHUEL, A. (2006) Les processus d’innovation. Conception innovante et croissance des entreprises, Paris, Hermès. POWELL, W. W., KOPUT, K. W. & SMITH-DOERR, L. (1996) Interorganizational collaboration and the locus of innovation. Adminsitrative Science Quaterly, vol. 41, pp. 116-145.

Blanche Segrestin Blanche Segrestin, docteur en sciences de gestion, est chargée de recherches au Centre de gestion scientifique (CGS) de l’Ecole des mines de Paris.

Paranofictions, Traité de savoir vivre pour une époque de science-fiction

 medium_get_photo.jpg

Paranofictions

Traité de savoir vivre pour une époque de science-fiction
Ariel Kyrou

Interview en forme de conversation entre deux amis qui explore depuis toujours les nouveaux territoires de la connaissance et des technologies, Ariel Kyrou qui vient de publier , Paranofictions, Traité de savoir vivre pour une époque de science-fiction, Climats (2007) et Richard Collin, Directeur associé de Nextmodernirty.

Richard Collin : Paranofictions se veut un « traité de savoir-vivre pour une époque de science-fiction », un traité pour un temps où, selon vous, les frontières entre le réel et le virtuel, la réalité et la fiction tendent à se fondre… Pourquoi donc avoir écrit ce livre ?
Ariel Kyrou : Trop souvent, nous analysons le monde selon des catégories classiques sans chercher à les réactualiser. Or, telles quelles, ces catégories fonctionnent de moins en moins bien. L’idée d’une réalité objective, clairement séparée des fictions qui naissent de notre imaginaire, me semble tout particulièrement dépassée. Plus encore qu’un roman, qu’un film ou qu’une œuvre d’art, les jeux vidéo et surtout les mondes virtuels au sein desquels nous passons de plus en plus de temps ne sont pas de purs fantasmes. Ce sont des peurs et des rêves qui se concrétisent au cœur même de notre réel. Au sens littéral, ils prennent forme, même si cette forme est de nature numérique. L’immatériel de nos pensées devient visible au travers de nos écrans. Avec un ordinateur ou pour être plus futuriste des capteurs en tous genres, l’humain agit directement sur ces matérialisations de nos fantasmes. Il vit non seulement avec, mais au dedans même de ces nouveaux territoires nés de nos cerveaux, à la façon des internautes qui peuplent Second Life de leurs avatars. Plus largement, à l’ère des médias, ladite réalité n’a jamais été autant qu’aujourd’hui pénétrée, imbibée, perfusée de fictions. L’exemple est bien connu, mais je reste sidéré par l’idée que l’État le plus peuplé des USA, la Californie, est gouverné par Terminator, ou si vous préférez par le héros du film Total Recall… et que Schwarzenegger a été élu, justement, par une procédure qu’on appelle le « recall », c’est-à-dire la destitution du précédent gouverneur… Sur un autre registre, la technoscience a désormais le pouvoir de créer des chimères, des hybrides hommes machines par exemple, qui n’auraient pu exister il y a des siècles que sous la forme de mythes. Pour toutes ces raisons et bien d’autres, il me semble urgent de repenser notre vision de la réalité. Sauf à perdre l’esprit, il nous faut réinventer des repères à la place de nos anciennes références collectives, désormais caduques. Nous devons façonner les bouées intellectuelles qui vont nous permettre de nous y retrouver dans ce nouvel océan de données, de personnages fictionnels et d’objets fantasmatiques.


Mais pourquoi ce terme, « Traité de savoir vivre », pour un livre qui navigue entre l’essai philosophique et le récit personnel, voire parfois le pamphlet ?

D’abord, l’expression est un clin d’œil à l’ancien Situationniste Raoul Vaneigem et à son Traité de savoir-vivre à l’usage des jeunes générations de 1967. D’où, sans doute, la manière dont parfois je m’enflamme, sans masquer mes sentiments. Ensuite, je crois à la valeur d’une philosophie en actes, s’incarnant dans des choix de vie. Vous l’aurez peut-être remarqué : je n’ai pas mis de trait d’union entre « savoir » et « vivre ». Enfin, vous avez raison : je réfléchis à partir de mes propres références, de mon histoire, de mes désespoirs et coups de gueule. Acteur des médias depuis plus de vingt ans, et du Net depuis plus de dix ans comme vous le savez, j’espère que bien des internautes, et pas seulement les gens connectés, se retrouveront peu ou prou dans mes interrogations, mes analyses mais aussi mes colères et mes espoirs.


Vous illustrez votre vision par des histoires et anecdotes très révélatrices de la puissance des médias, de la publicité, mais aussi des univers qui naissent des nouvelles technologies. Sous ce regard, Paranofictions est une fresque parfois effrayante de la paranoïa et plus encore des « crevasses schizophréniques » où nous risquons sans  cesse de tomber. N’y a-t-il pas chez vous la recherche presque désespérée d’une vérité adaptée à cette nouvelle donne ?

Bernard Stiegler, dans l’un de ses livres, explique que la montée en puissance de la technoscience suppose désormais de savoir « distinguer les bonnes et les mauvaises fictions, et d’apprendre à penser une vérité qui ne serait pas l’opposé de la fiction, mais composée de fictions. » Ce propos lumineux, non seulement je l’adopte, mais j’en élargis le champ à toute notre vie urbaine… et connectée ! Sans tomber dans la leçon de morale, je suis persuadé qu’il existe de bonnes fictions, qui laissent la liberté, favorisent l’ouverture et l’interprétation, et de mauvaises fictions, univoques même quand elles se prétendent interactives, qui ne laissent aucun choix, emprisonnent, appauvrissent l’esprit. Nous avons besoin de mots, de sons ou d’images d’hier, d’aujourd’hui et de demain contre la misère spirituelle des fictions imposées, notamment par la télévision. C’est tout l’enjeu d’œuvres d’artistes du numérique comme Kolkoz ou Ultralab, et c’est aussi pourquoi j’aime à relire les livres et nouvelles visionnaires de grands de la science-fiction comme J.G. Ballard ou Philip K. Dick. Il y a des œuvres qui, par leur lucidité parfois jubilatoire, libèrent de la Machine à décerveler et à atrophier nos affects. Qu’elles s’incarnent dans des livres, des blogs ou des expositions d’art contemporain, ce sont des fictions consistantes, souvent nourries de vies bien réelles,. Sous ce regard, et c’est là où je rejoins la notion de vérité à laquelle vous faites allusion, toutes les fictions ne se valent pas. Si la croyance en une unique Vérité avec un grand V aboutit à différentes formes de totalitarisme politique, religieux ou même culturel, le relativisme absolu est le degré zéro de la pensée. Je suis né sous le signe de ce relativisme-là, et j’essaye de m’en échapper pour trouver une vérité qui ne puisse être réduite au dogme de quelque ayatollah.


Sur le versant philosophique, vous citez non seulement Stiegler, mais aussi Virilio ou Baudrillard, qui sont comme le pendant « réel » des auteurs de science-fiction dont les romans ou nouvelles vous servent à éclairer notre présent… Pourquoi cette double présence ?

Quelqu’un comme Jean Baudrillard, dont le décès le 6 mars dernier m’a beaucoup touché, a toujours assumé l’influence de Dick ou de Ballard, notamment dans son œuvre prémonitoire de 1981 : Simulacres et simulation. Il y a quelque chose de l’ordre de la littérature d’anticipation dans ses textes comme dans ceux de Paul Virilio. Car ils extrapolent à partir de ce qu’ils voient et entendent… Ils exagèrent tout comme George Orwell, Aldous Huxley, William Gibson, Philip K. Dick ou J.G. Ballard
ont toujours utilisé le ressort de l’exagération pour dessiner à partir de leur réalité telle ou telle vision d’un futur plus proche qu’on ne l’imagine. Tandis que ces penseurs auscultent un réel devenu selon leurs lubies une sorte de science-fiction, les auteurs de science-fiction se coltinent le réel pour mieux anticiper le futur qu’ils mettent en scène. Et au final, tous nous parlent de notre présent et de notre avenir immédiat.


Mais alors, qu’apportez-vous de plus que Virilio ou Baudrillard ?

Tous deux m’ont beaucoup apporté, mais je crois que leur message ne passe plus auprès des générations qui ont grandi avec Internet et les jeux vidéos. Aussi pertinentes et impertinentes qu’aient été leurs analyses, ils ont critiqué ce monde numérique depuis une position extérieure, comme s’il n’était constitué que d’un bloc. Comme s’il n’avait pas ses bugs ou ses pirates, capables de creuser des trous dans le mur de la « réalité intégrale ». Je crois à la nécessité d’un travail critique sur notre aujourd’hui, mais je pense qu’il nous manque pour ce faire des penseurs connaissant de l’intérieur ces univers numériques. Autrement dit : jamais Virilio ou Baudrillard ne toucheront mon fils aîné, qui passe trop de temps entre MSN et surtout World of Warcraft. Ou en tout cas, ils n’arriveront jamais à lui directement. Ce que j’ai essayé de réaliser, c’est donc une critique en empathie avec les univers de mon grand garçon, qui sont en partie également les miens. Mon espoir, c’est que de telles démarches se multiplient dans les arts, prenant acte de ces nouveaux mondes issus du numérique pour mieux en expliquer les limites, et donner envie de les détourner, d’y creuser des failles !


Certes, mais l’ambiance générale de votre ouvrage reste tout de même assez pessimiste, y compris lorsque vous affirmez de fort belle façon que, « dans les mondes virtuels, la guérilla pour le réel ne fait que commencer ». L’irréalité humaine, les machines vivantes, les apocalypses mentales, les simulacres ou les réalités inventées que vous décrivez ont de quoi inquiéter, non ?

Ce pessimisme que vous ressentez vient peut-être de l’usage que je fais des anticipations les plus paranoïaques de mes auteurs de science-fiction fétiches. Leurs fictions me permettent en effet de décrypter l’horreur d’idées comme la guerre préventive de Bush ou les dangers d’une fuite totale dans des mondes de pure virtualité. Mais il ne s’agit par pour autant de pessimisme, et bien moins encore, évidemment, d’optimisme. Pour moi qui suis né dans un environnement marqué par Dada et le surréalisme, l’idée d’une vérité qui serait composée de fictions n’a rien d’effrayant. Cela remet en cause notre appréhension classique de la réalité, certes, mais pourquoi serions-nous incapable de transformer notre appréhension de la réalité ? Pourquoi ne serait-il pas possible de réinventer une vérité sans absolutisme ? La lucidité peut être jubilatoire, à condition bien sûr qu’elle se marie à l’action créatrice. C’est tout le sens de l’expression que vous citez quant à la guérilla pour le réel dans les mondes virtuels, véritable appel au détournement et à la création de liens nouveaux entre réalité et fiction.


En conclusion, après avoir éclairé d’un coté « la nouvelle religion de l’information et des flux numériques » et de l’autre « le réveil du crétinisme religieux sous ses formes les plus absolutistes », vous donnez quelques pistes pour avancer dans ce monde « où l’on navigue au risque de la folie afin de se vacciner, de s’immuniser contre le grand nihil planétaire ». Quelles sont ces voies d’espoir ?

Elles vivent d’abord dans la façon dont des artistes et performeurs réussissent aujourd’hui à retourner la réalité vérolée que nous imposent les pouvoirs ou la « bien pensance ». Je pense par exemple aux impostures des Yes Men, ou encore à des œuvres d’artistes vidéo peu connus comme Mounir Fatmi, qui, dans un film comme Dieu me pardonne, rejette les deux pestes de l’imaginaire que vous décrivez, à savoir la machine à décerveler occidentale et son pendant religieux tel qu’il se réveille du côté de l’Orient… Car, au-delà du rejet, se dessine là les contours d’une spiritualité, d’une intelligence nouvelle, enfin débarrassées des oukases du marché dévorant comme des institutions fatiguées. Autre chemin, que j’ai développé dans mon ouvrage sur l’histoire des musiques électroniques, Techno Rebelle : l’apparition d’une nouvelle éthique du détournement et du travail collectif, avec les démarches du logiciel libre et des licences de propriété intellectuelle comme Creative Commons ou Copyleft. J’y reviendrai dans un prochain livre. Ce ne sont pour l’instant que des démarches isolées, mais j’espère qu’elles vont maintenant se consolider les unes les autres. Elles ouvrent un autre champ de possibilités, qu’il nous appartient de saisir, à nous qui sauront nous débarrasser de notre peau de « consommateur » pour devenir ou redevenir de vrais amateurs au sens d’aimer. Toute l’œuvre de Philip K. Dick tourne autour de ça : pour résister à notre devenir machine, il n’y a que l’amour, l’empathie… y compris vis-à-vis de nos machines les plus inutiles, qui sont tout de même bien plus extraordinaires que nos trop rentables mécaniques, non ?

 


Ariel Kyrou, Paranofictions, Traité de savoir vivre pour une époque de science-fiction, Climats (2007). Ariel Kyrou est selon les moments professeur d’histoire critique des cultures actuelles, arts et nouvelles technologies, conseiller à la rédaction du mensuel Chronic’art ou directeur associé de l’entreprise qu’il a montée en 1987 avec Henry-Hubert Godfroy et qui lui a permis de créer dès 1995 quelques-uns des premiers sites Web culturels en France (notamment le Virgin Megaweb) : Moderne Multimédias. Outre Paranofictions, il a écrit notamment Techno Rebelle, Un siècle de musiques électroniques  (Denoël, 2002).