Philippe Axel : La Révolution Musicale

26b191c291463cfce8214ec51b0b3d8d.jpgLa Révolution Musicale
Liberté, égalité, gratuité

par Philippe Axel, auteur et musicien

Editions Pearson, Village Mondial

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

 « La musique est au coeur de toutes les révolutions. C’est par elle que tout commence.» a déclaré Jacques Attali dans votre préface.
C’est par la musique, que commence la révolution qui se joue aujourd’hui avec Internet ?

Oui, en effet, Jacques Attali, qui a eu la gentillesse d’écrire la préface de mon livre, n’arrive pas comme un cheveu sur la soupe sur cette question. Il y travaille depuis la fin des années 70 et la parution d’un livre référence sur le sujet : Bruits. Dans ce livre, remis à jour régulièrement  depuis,  il explique en effet pourquoi la musique a toujours été à l’avant-garde des grandes révolutions économiques et politiques. Il prévoyait l’avènement des objets nomades et puis surtout, il expliquait déjà magnifiquement pourquoi la musique échappe aux règles de l’économie classique car elle détient des valeurs autres qu’économiques.

Pour moi la révolution qui s’annonce par la question des échanges de musique sur Internet, est double : Une révolution économique et une révolution politique. La révolution économique passera par la gratuité de tous les fichiers numériques, et cela touchera donc tous les modèles économiques actuels des productions culturelles, informatiques, du jeu vidéo etc. La révolution politique passera par la construction, par Internet, d’une démocratie internationale. Cela commencera par la constitution d’une identité collective mondiale, et ensuite cela se concrétisera par de nouvelles formes de démocratie directe ; par ceux que Michel Serres appellent : les citoiliens (ceux qui voteront par la toile). Pour cela, il faudra que les symboles culturels puissent s’échanger librement, et donc en premier lieu, la musique. Et il faudra des logiciels libres et ouverts pour contrôler les suffrages.

Vous faites une analyse très approfondie des techniques marketings mises en œuvre par les industriels du disque pour vendre la musique ; ces techniques sont tellement poussées que l’on ne sait plus en réalité si on achète l’oeuvre d’un artiste ou celle d’un expert en marketing ; comment en est-on arrivé là ?

A force de tout vouloir rationaliser pour des objectifs économiques. Il n’y a pas de question de morale là dedans. Des gens sont payés pour faire de l’argent avec de la musique, à très court terme, ils sont tentés d’utiliser pour cela des ficelles marketing extrêmes, qui vont jusqu’au conditionnement. Nous avons peur à juste titre d’une dictature culturelle de l’état, mais nous sommes assez proche d’une dictature du marketing. Moi-même, je suis conditionné. Je fais parti des ces « foules artificielles » que l’on crée par la télévision et par la radio, par ce que l’on appelle : les partenariats croisés [NDLR : Ex, en 2003, la première version de la Star Academy bénéficie du partenariat croisé TF1, Universal, NRJ]. Se battre contre cela c’est une « écologie de l’esprit » comme le souligne très justement Bernard Stiegler par exemple. Et le pire c’est que cela vise nos enfants qui perdent leur libre arbitre et qui sont ciblés comme des lapins.

D’après vous ce ne sont pas les artistes qui perdent le plus au téléchargement gratuit sur internet mais essentiellement les majors du disque ; pouvez-vous dire pourquoi ?

Nous sortons d’une ère de gestion de la rareté pour entrer dans une ère de gestion de l’abondance musicale. Pour un artiste désormais, il faudra d’abord gagner de l’attention dans la masse des œuvres produites, et la seule manière ce sera la gratuité de l’écoute. Songez qu’il y a 50 millions de pianistes en Chine, plus proche de nous, il y a quand même 130 000 auteurs répertoriés à la SACEM en France. Si l’on veut que subsiste un professionnalisme musical, il faudra ensuite opérer une sélection des meilleurs comme dans le sport ou dans l’artisanat et braquer les projecteurs sur eux pour leur permettre de gagner de l’argent. Les maisons de disques vont perdre leur pouvoir de sélection au profit des musiciens eux-mêmes et des internautes. Elles deviendront probablement des « maisons de musique » se mettant au service des meilleurs pour les aider à gérer le business des produits dérivés, éditions et autres tournées. C’est très bien parce que les maisons de disques étaient  devenues arrogantes, jusqu’à vouloir créer elles-mêmes des chanteurs in-vitro, cela va les replacer dans une logique de service. Elles vont se replacer sur le parvis du temple et sortir de l’intérieur pour reprendre une métaphore biblique.

Ces mêmes maisons de disques font valoir que la musique marketing a toujours existé et que grâce à cela, il est possible de financer la qualité. Vous n’êtes pas d’accord …

C’est le colonel Parker qui a expérimenté le marketing sur Elvis Presley et donc, ce n’est pas nouveau. Je ne suis pas d’accord avec la logique qui consiste à attribuer tous les moyens à de la faible qualité ultra-médiatique, dans l’objectif, soi-disant, de financer de la grande qualité confidentielle. C’est une logique porteuse à court terme, mais désastreuse à long terme. A force de tirer sur la libido du consommateur, on la ruine. Il vaut mieux lui prendre la main et le tirer vers le haut, ensuite il devient passionné et collectionneur d’objets dérivés. Il y a deux options du marketing qui s’affrontent là.

Comment définir en fait la musique et la culture au sens large ; doit-on les considérer comme des biens comme les autres ?

Je suis allé au fond des choses, par moment ce n’est pas mal de regarder un dictionnaire et de lire, par exemple, la définition du mot « culture ». Il n’y a aucune référence au marché, au commerce, dans cette définition aussi bien lexicale, qu’étymologique. La culture, cela vient du mot « culte ». il y a des cultes religieux, mais aussi laïques et athéistes. Ce sont des échanges symboliques dans des cadres rituels. La chanson est un cadre rituel. Le but de tout cela est de créer des identités collectives, des « nous ». Nous sommes français, parce que nous avons Trenet et Barbara en commun par exemple. Donc, il faut bien faire la distinction entre la culture, dont le but final est sans doute la paix, et les produits et services dérivés culturels. De fait, le ministère de la culture devrait tirer vers la gratuité et le ministère de l’industrie vers le payant.

La question du modèle économique doit quand même se poser à un moment ; comment financer la musique : par le marché, la collectivité ?

La gratuité n’est pas un problème pour la culture, au contraire, mais c’est un problème pour les productions culturelles ambitieuses où tout le monde est payé. On nous dit, soit c’est le marché, soit c’est l’état stalinien ! Ben voyons ! Et l’équilibre alors ? Ce n’est pas possible l’équilibre, la mixité des financements ? Devons-nous choisir entre un conditionnement marketing et un conditionnement de l’état ? Je pense qu’il faut l’équilibre. Il faut le marché, et il fau
t le collectif. L’un alimente l’autre d’ailleurs. Ils ne s’opposent pas. Pour moi le modèle de demain sur Internet, s’inspirera fortement de ce que l’on appelle les Creative Commons Non Commercial. C’est-à-dire la gratuité des échanges et du partage dans le cadre non lucratif, et la perception des droits dans les usages lucratifs. D’ailleurs c’est totalement dans l’esprit des combats de Beaumarchais et de Victor Hugo notamment.

Vous donnez dans votre livre, d’ailleurs, de nombreuses pistes de business models innovants ; pouvez-vous nous en dire quelques mots ?

Dans la musique par exemple, le système de financement de la production est basé essentiellement sur la vente d’un objet dérivé : le CD. Cet objet n’apporte plus de valeur ajoutée à ce que l’on trouve gratuitement sur Internet. Donc il faut le remplacer. Deux pistes pour lui redonner de la valeur : l’interactivité et une connexion directe au spectacle vivant. C’est pourquoi j’appelle son successeur : le CD Musical Interactif.
Ensuite, il faudra appliquer des licences légales (et non pas une licence globale), sur toutes les sociétés qui réalisent des bénéfices commerciaux par l’utilisation des œuvres, au-delà d’un seuil de bénéfice définis par la loi.
Et puis, je propose aussi dans mon livre la création d’une redevance modique sur l’abonnement Internet, payée cette fois-ci par l’internaute, et permettant, un peu à la manière du minitel, de financer des contenus agréés par d’autres voies que la Pub. Parce que je pense que la pub a ses limites dans le financement des contenus. Et qu’il faudra rechercher un équilibre entre marché et collectif.
Enfin, je pense qu’il n’y aura d’économie de la musique demain, que s’il y a des sélections.  Je ne dis pas qu’il faut exclure des musiques. Tout le monde peut s’exprimer sur la toile, c’est génial, c’est acquis. Mais si l’on veut qu’il reste des pros, alors il faudra labéliser, il faudra adouber les meilleurs, par des procédés démocratiques. Les mêmes qui serviront plus tard à bâtir une gouvernance mondiale.
Philippe Axel, auteur et musicien
http://www.philaxel.com/

 

Méthode de conduite du changement

f4ada16d731e516f17175abef4fdfb49.jpgMéthode de conduite du changement

Diagnostic, accompagnement, pilotage

D. Autissier, J.M. Moutot

Interview de David Autissier, Maitre de Conférences, IAE Université Paris XII par Catherine Fournier-Montgieux, consultante Nextmodernity

Qu’est ce que la « Conduite du Changement », mot parfois valise employé par les consultants et quelles dimensions cela recouvre-t-il ?
La conduite du changement c’est un ensemble d’actions de gestion qui visent à s’assurer de l’adhésion des individus à un projet, de la réalisation des transformations souhaitées en termes culturel, organisationnel et opérationnel et de l’évolution à moyen et long terme des fondements d’une entreprise. Les salariés sont-ils embarqués dans les changements proposés et y répondent-ils de telle manière que les souhaits deviennent réalités ?
Comme tout outil de gestion, la conduite du changement est structurée à trois niveaux qui sont le diagnostic, les leviers d’action et le pilotage. Le premier est celui du diagnostic qui consiste à évaluer les changements en cours, les cibles du changement et le degré de résistance de ces cibles. Le deuxième consiste à déployer des actions de communication, de formation et d’accompagnement. Le troisième mesure le niveau d’information, de compréhension, d’adhésion et de participation des différents groupes de personnes concernées.

– Y a-t-il une évolution de la notion de conduite du changement depuis l’époque des premiers projets informatiques ?
La notion de conduite du changement est apparue à la fin des années 80 et aux débuts des années 1990 dans les grands projets informatiques et plus particulièrement les projets ERP. La question de l’assimilation par les utilisateurs a conduit les chefs de projet informatiques à déployer des actions de formation dans un premier temps et de communication dans un second. Pour qu’un outil soit bien utilisé, il fallait former les futurs utilisateurs mais également communiquer sur les apports de ce nouvel outil. Aux deux notions de communication et de formation s’est ajoutée celle d’accompagnement qui consiste en un ensemble d’actions avec des petits groupes pour trouver des solutions opérationnelles aux changements en cours. Ces trois leviers ont été encadrés par des actions de diagnostic en amont et de pilotage en aval pour constituer un ensemble intégré et causal. Ce modèle intégré décrit dans l’ouvrage « Méthode de conduite du changement » permet d’associer les démarches « leviers » aux diagnostics psychosociologiques et aux indicateurs de changement.

– Quelles sont d’après vous les principales difficultés que l’on rencontre lorsque l’on conduit le changement ?
Tout individu a peur du changement car cela l’oblige à un effort d’apprentissage. Sa réaction première sera de le refuser et ce n’est que par rationalisation en termes de progrès qu’il acceptera le changement. En Début de projet nous avons en général 10 % de proactifs, 10 % d’opposants et 80 % de neutres. La conduite du changement a pour objectif de faire basculer les passifs dans le camp des proactifs ou de les faire opter pour une posture de « neutralité bienveillante ». La principale difficulté est l’inertie des systèmes à bouger et à évoluer. L’autre difficulté est l’opposition de certains qui pensent perdre plus qu’ils n’y gagnent et la peur qu’ils ont de perdre leur zone de pouvoir et de confort. L’argumentation, le fait de rassurer et la gestion politique des acteurs à risques sont les points structurants de la conduite du changement. La conduite du changement c’est un peu comme du marketing interne, il faut toucher les utilisateurs et les prescripteurs par un positionnement et une argumentation à la fois surprenante, séductrice et lisible.

– Est-ce qu’à votre avis le travail en réseau et en collaboration est porteur en lui même de changement et si oui pourquoi ?
Le fonctionnement en réseau est porteur d’un changement qui consiste à passer d’organisations structuro-fonctionnalistes à des organisations transversales. Il n’y a pas une structure pérenne qui détermine ce qui doit être fait et comment mais des individus responsables en situation de participation à des processus orientés clients. Le changement est d’ordre culturel (passer du mode donneur d’ordre à celui de la résolution de problème collective), organisationnel (quels sont les dispositifs qui permettent cette mise en réseau), technique (la mise en place d’outils informatiques de communication) et gestionnaire (comment gérer la relation contribution/rétribution). Le simple fait de déclarer la volonté de fonctionner en réseau ne suffit pas. Il est nécessaire de créer les conditions et de mettre les individus dans des projets de transformations de leur mode de fonctionnement.

David AUTISSIER
Maître de conférences – IAE Université Gustave Eiffel Paris XII

www.davidautissier.com

93f95e700eab84d8e18cac9e30978057.jpg

Guide pratique de l’intelligence relationnelle

cade513a3487c5065105e1019a1cf48d.jpgGUIDE PRATIQUE DE L’INTELLIGENCE RELATIONNELLE
Olivier Zara, directeur de la société « Axiopole »

 

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Avant d’évoquer l’intelligence relationnelle, pouvez-vous rappeler ce qu’est l’intelligence collective ?

L’intelligence collective (IC) peut se définir comme la capacité à unir nos intelligences et nos connaissances pour atteindre un objectif. Elle se matérialise au quotidien par des coopérations intellectuelles que l’on observe en particulier dans les temps de réflexion collective. Cependant, la réflexion collective dans les entreprises est souvent faible pour des raisons de cultures, d’habitudes managériales et de technologies déficientes.
Contrairement à une croyance populaire, l’intelligence collective n’a rien à voir avec la notion de décision collective. L’intelligence collective contribue certes au processus d’émergence de la décision, mais n’impacte pas directement la prise de décision. On peut réfléchir à 10 ou à 100, et à la fin du processus, le décideur décide seul !
Le management de l’intelligence collective (MIC) regroupe l’ensemble des outils, des méthodes et des processus, qui permettent de mettre en réseau, de faire coopérer les intelligences individuelles pour atteindre un objectif commun, réaliser une mission ou un projet.
Nous pouvons comprendre l’intelligence collective comme 1+1 = 3. Il s’agit de connecter des intelligences pour produire plus et mieux. L’intelligence collective n’est finalement rien d’autre que la mise en pratique de la théorie des avantages comparatifs et des économies d’échelle au niveau des idées. Les industriels cherchent à produire au meilleur coût avec les plus compétents tous les composants d’un produit. Il en va de même dans le monde des idées avec le management de l’intelligence collective.

 

La littérature, d’une manière générale, évoque la « culture de masse », terme souvent péjoratif , qu’elle oppose à la culture élitiste, où l’intelligence est le fait d’une petite élite uniquement ; va-t-on, avec l’intelligence collective, vers l’émergence d’une nouvelle donne sociologique ?

La littérature parle de « culture de masse » parce qu’elle est produite par « l’élite intellectuelle ». L’intelligence collective remet en cause leur monopole implicite de l’intelligence. En simplifiant, on pourrait décrire leur vision du monde ainsi :
– il faut des idiots pour que les intellectuels existent
– il faut beaucoup d’idiots, qui deviennent la masse, pour que les intellectuels deviennent l’élite.

Etre un intellectuel permet ainsi de faire partie d’une élite qui monopolise implicitement le droit à l’intelligence. A l’inverse, si on reconnaît le principe d’une diversité d’intelligences, si on pense que chacun apporte une valeur ajoutée à sa manière dans ce qu’il fait ou ce qu’il dit, si on admet que chacun à des forces et des faiblesses tant au niveau de ses connaissances que de ses intelligences, alors tout le monde devient plus ou moins intellectuel et l’élite n’est plus une élite ! La pyramide hiérarchique qui irrigue nos cultures s’effondre et laisse place à la transversalité (fonctionnement en mode projet, décloisonnement des modes de communication et de collaboration,…) et au management de l’intelligence collective, qui ne remet pas en cause la répartition du pouvoir mais son exercice. L’objectif du management de l’intelligence collective n’est pas de donner un pouvoir égal à tous, mais d’inciter ceux qui ont le pouvoir à mobiliser toutes les intelligences et les connaissances de chacun.

L’intelligence collective semble donc être perçue par les experts, universitaires ou intellectuels comme une menace. L’intelligence, c’est quand même leur fond de commerce ! Mais, leurs attaques contre l’intelligence collective sont souvent implicites, sournoises, cherchant à semer le doute et la confusion, car si elles devaient devenir explicites, alors il faudrait répondre à cette question : si l’intelligence collective est un mythe, est-ce que cela signifie que la c… collective est une réalité ?

 

Dans l’entreprise, quelles sont les difficultés les plus souvent rencontrées lorsqu’on cherche à mettre en oeuvre une culture de coopération ?

L’intelligence collective a toujours existé. Elle existe dans les entreprises comme ailleurs. Mais elle est informelle, artisanale et au bon vouloir des uns des autres en fonction des affinités. Nos ancêtres pouvaient certainement s’en contenter pour la chasse, la cueillette ou l’agriculture. Mais aujourd’hui, la complexité des marchés, des technologies et la mondialisation nécessitent une démarche volontaire et structurée pour rendre efficace les coopérations intellectuelles. Les crises financières mondiales et les faillites brutales de grands groupes illustrent l’urgence du changement.

Cependant, la diffusion de l’intelligence collective est encore très lente pour de nombreuses raisons. Les structures des entreprises sont par exemple trop souvent organisées sur un mode pyramidal/hiérarchique qui brise le potentiel d’intelligence collective qui existe dans l’organisation. Il y a également le manque de compétences : savoir coopérer n’est pas naturel, c’est une compétence ! Il y a malheureusement beaucoup d’autres freins. Le management incantatoire et gesticulatoire du type « Coopérez ! » n’aidera pas à lever ces freins…

Le « guide pratique de l’intelligence relationnelle » est-il un outil pour tout manager ? Ou faut-il avoir une sensibilité à la culture coopérative avant de s’engager dans la démarche ?

Lorsque j’ai écrit mon premier livre “Le management de l’intelligence collective”, je voulais montrer les pré-requis à l’implémentation des technologies qu’on appelle aujourd’hui “Web 2.0″. Ces pré-requis, on peut les résumer ainsi : un vouloir coopérer, un savoir coopérer et un pouvoir coopérer.
Durant mes missions, je me suis rendu compte qu’il y avait aussi des pré-requis au vouloir, savoir et pouvoir coopérer ! Ce constat a conduit à la conception d’une pyramide du management (comportemental) :

Au sommet de cette pyramide, on trouve le management de l’intelligence collective. A la base, on trouve l’intelligence relationnelle (management individuel et collectif). Le guide pratique de l’intelligence relationnelle est donc un outil pour tout manager quel que soit son niveau hiérarchique. L’intelligence relationnelle est un pré-requis à l’intelligence collective. C’est le socle sur lequel repose l’intelligence collective.

 

Olivier Zara, directeur Axiopole

Pour aller plus loin :
– De l’intelligence relationnelle à l’intelligence collective
http://blog.axiopole.info/2007/06/07/intelligence-relationnelle-intelligence-collective/
– De l’efficacité culturelle à l’efficacité collective ?
http://blog.axiopole.info/2007/04/05/efficacite-culturelle-efficacite-collective/

Jusqu’au 31 décembre 2007, il y a une offre de lancement pour obtenir le guide pratique de l’intelligence relationnelle gratuitement. Après cette da
te, pour ceux qui ne seront pas déjà inscrits, l’accès au site du livre sera payant : 39$ CAD ou 27 euros.

http://guide.axiopole.info/

Tic et Organisation

6dab2b3f758f14ed6743761bf9059570.jpgTIC & ORGANISATIONS
Structure des firmes
Revue Française de Gestion N° 172
Dirigée par Pierre-Jean Benghozi, CNRS Ecole Polytechnique
Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous écrivez « Les technologies de l’écrit électronique induisent plus de contraintes qu’on pourrait le penser ». Qu’entendez-vous par là ? Quelles sont les tensions à priori repérables ?
 
Les NTIC sont le plus souvent présentées comme un facteur de flexibilité et de coopération. Pourtant l’observation des entreprises montre que les applications des NTIC sont marquées par la coexistence entre un renforcement de la souplesse et une rigidité renouvelée. Les deux orientations coexistent : les entreprises les plus décentralisées éprouvent le besoin de garder une vision uniforme des informations ou des activités en concevant des applications au niveau central, de façon directive et très rigide. Al’inverse, les organisations qui conçoivent leur gestion de la façon la plus hiérarchisée ou centralisée utilisent souvent les NTIC pour recréer des espaces d’autonomie dans des fonctionnements très rigides.
 
Cette dualité (plus d’adaptabilité dans un contexte plus centralisé) se retrouve dans des applications techniques et des stratégies organisationnelles diversifiés (workflow, ERP, Intranet). Plusieurs raisons expliquent le phénomène. Les technologies s’organisent et s’entrelacent en « système » autour des postes de travail et dans des systèmes d’information et de communication ; il est dès lors difficile de les isoler les unes des autres dans leur mise en œuvre et leur utilisation. En outre, et c’est sans doute une des sources de tension majeure, ces technologies sont tantôt envisagées dans une perspective individuelle, comme un ensemble d’outils – que l’on peut choisir ou non d’utiliser, qui se manipulent –, soit dans une perspective collective, comme un système qui met en relation les membres d’un collectif de travail et structure directement ou indirectement leur activité commune. Dans ce deuxième cas, les TIC s’apparent à une machine de gestion qui appelle les contributions coordonnées de plusieurs personnes pour être alimentées en données et flux d’informations et pour être utilisées dans le cadre de processus prédéfinis. Elles contraignent dès lors fortement les participants, ne leur laissant pas le choix d’utiliser ou non telle ou telle procédure ou protocole. Ce qui constitue un “outil” pour les uns (les utilisateurs) est souvent un “moyen” pour les autres (les responsables hiérarchiques) : or on peut se servir d’un outil “ comme l’on veut ”, un moyen est, par contre, “ imposé du dehors ”.

Alors que la flexibilité des outils se conjugue à la multiplicité des acteurs et situations d’utilisation pour créer de fortes capacités d’appropriation et d’apprentissage dans l’exploration de nouveaux usages, le développement des outils apparait aussi pour beaucoup d’utilisateurs comme une charge de travail supplémentaire par rapport au travail de production, qui constitue, à leurs yeux, le coeur de leur activité. Les tâches correspondants à l’utilisation des TIC (rédaction et édition de documents, traitement des mails…) sont vécues comme des activités supplémentaires qui se surajoutent au reste. Sans même évoquer la question des réductions d’effectifs qui accompagnent souvent le déploiement d’applications informatisées et la prise en charge directe, par les utilisateurs, de tâches relevant autrefois de personnels ou services fonctionnels dédiés.
 
Concrètement, comment ressent-on dans l’entreprise les effets de ce dilemme entre d’une part l’impératif productif et d’autre part l’impératif créatif ?
 
Concrètement, les impératifs de création et de production s’organisent autour de plusieurs configurations, reflétant des projets d’organisation plus ou moins explicites. Les TIC peuvent être d’abord employées comme outils transversaux de partage d’informations, de comparaison et de constitution d’une vision commune de l’action. A ce titre elles relèvent d’un élément d’échange de connaissances permettant de stimuler des créations et innovations locales (par imitation ou transfert d’expérience par exemple).
 Les TIC constituent ensuite un moyen de rassembler sur un poste de travail un éventail large de fonctions et d’applications, dans une situation où un utilisateur, seul à son poste de travail est en fait reliée à des centres de ressources démultipliés et à tout un réseau d’autres personnes possédant des ressources analogues. L’ensemble constitué par l’agent, les TIC et leurs interface représente, dans cette perspective un centre nerveux et de conception doté de pouvoirs et ressources diversifiés.
Enfin, les TIC contribuent à structurer et consolider la conception collective dans le cadre de “ communautés de pratique ”.  Ce modèle est sans doute le plus connu car il a été fortement médiatisé après le succès spectaculaire des applications Open Source et des wikis.
 
Un exemple d’application particulièrement sensible est celui du secteur de la santé. Les Tic sont-elles ici envisagées plutôt comme étant au service de l’efficacité individuelle ou bien au service de la performance collective ?
 
Le secteur de la santé est effectivement symptomatique de cette tension entre développement d’une approche des technologies à la fois collective, dans l’optimisation du système de soin et individuelle (améliorer le travail en situation des personnels de santé) : les deux perspectives sont également portées par le souci d’améliorer la qualité des soins et par celui de rationaliser les dépenses.

Cette dualité s’observe à plusieurs niveaux très différents. On peut évoquer le problème de la saisie des données, de leurs liens avec l’activité et de leurs échanges au sein des réseaux de soin. La question est assez classique en reporting et en contrôle de gestion mais elle ouvre, dans la santé, sur le problème très sensible des tableaux de bord, de l’intégration des données de suivi des soins / facturation des activités, gestion des remboursements / gestion globale de l’hôpital. Cette question du « reporting » est importante car elle touche plusieurs questions différentes de l’organisation des soins : les modalités de codification et de saisie en continu lors des traitements, la standardisation techniques des applications et des interfaces entre les différents partenaires des réseaux de soins (hôpital, médecins de ville, caisses de sécurité sociale…)., la conception des applications et des outils, à la fois outils de gestion et outils d’aide à la pratique pour les utilisateurs (auto-évaluation…), la confidentialité, la maîtrise et la propriété des données de santé, la capacité de maîtriser un savoir médical et des informations surabondantes et enfin, la question même de la possibilité de réussir à dégager des sommes importantes pour l’informatisation de la santé au moment où  le système de santé est déficitaire.
 
Vous citez Boltanski et Chiapello dans  » Le nouvel esprit du capitalisme » et évoquez le danger d’une nouvelle idéologie du Management à travers des mots comme autonomie, flexibilité, adaptabilité, qui d’après vous, peuvent se révéler dangereux et imposer de nouvelles formes de contrôle à distance. Pourtant, ces attitudes de flexibilité et d

Michel Hervé : « De la pyramide aux réseaux »

Entretien avec Richard Collin, Directeur Associé Nextmodernity

medium_michelherve.2.jpgAu 20e siècle, l’homme est devenu de plus en plus créateur de son univers (volume des connaissances multiplié par quatre au cours des vingt-cinq dernières années) engendrant, par contrecoup, l’émergence d’une société qui veut maîtriser son destin et ne pas prendre de risque.
Dans le même temps, nous continuons à avancer sur les chemins de la liberté et, forts de notre capacité à lever les contraintes d’environnement, nous n’acceptons plus celles venant des autres.

Dans ce contexte, le travail change de nature, il devient plus complexe et ne s’accommode plus d’une hiérarchie pesante. Alors que l’individu prend de plus en plus conscience de lui-même, de son pouvoir de création, de son autonomie, de sa responsabilité sur son environnement, grâce à un champ informatif inégalé, il découvre que la qualité de son travail individuel est directement issue du travail collaboratif qu’il construit avec les autres. A l’individualisme succède l’apprentissage du collectif : le respect, la confiance, la tolérance, le don, la vérité, les règles.

Le livre montre une voie, parmi d’autres, pour atteindre cette forme moderne d’adaptation à l’efficacité collective :
– une construction individuelle qui structure son espace (le cadre de son autonomie et de sa responsabilité) et son temps (l’objectif qui marque le futur et l’histoire qui donne à repenser le chemin pour y arriver)
– une construction collective faite de processus, de règles, de formalisation à la recherche permanente du consensus, de l’harmonie.
Mais aussi, un besoin de productivité qui est l’apanage des technologies de l’information et de la communication, sans lesquelles il n’y aurait aucune raison de sortir du modèle traditionnel de l’organisation pyramidale.
Pour y arriver, comme à la fin du 19e siècle où les maîtres, hussards de la République, ont sorti le pays de l’illettrisme, il faut, aujourd’hui, une nouvelle classe de managers qui assument un rôle de catalyseur, de maïeutique, de passeur et de synthétiseur, là où, hier, ils faisaient figure de phares, de décideurs et de meneurs.

Je me suis aperçu que mon expérience de démocratie participative en entreprise et en collectivité, où le collectif se construit à partir d’individus libres et autonomes, empruntait au même paradigme que celui qui règne actuellement dans les sciences des nanotechnologies pour construire de nouveaux matériaux.
Cette singularité sera-t-elle aussi féconde dans le champ économique et social, cela c’est ma conviction, et c’est afin de la partager que nous avons écrit ce livre.
Michel HERVE
PDG du Groupe Hervé, a présidé de 1991 à 2004 l’Agence Nationale pour la Création d’Entreprises. Ancien député et deputé européen, il a été le maire de Parthenay. Ce livre « De la pyramide aux réseaux » est publié dans la collection »Acteurs de la société » des Editions Autrement; Alain d’Iribarne, Directeur de Recherche au CNRS et Elisabeth Bourguignat, secrétaire de l’association Accomplir ont contribué à sa rédaction.

WEB 2.0 LES INTERNAUTES AU POUVOIR

medium_couvweb20.jpgWeb 2.0 Les internautes au pouvoir

Blogs, Réseaux Sociaux, Partages de vidéos, Mashups, …

Jean-François Gervais,

Responsable de la filière Multimédia à la Direction de la Formation de l’INA

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Le succès des  sites où l’internaute partage ses centres d’intérêts avec d’autres (blogs, communautées en ligne,  .. ) montre un véritable attrait du grand public pour ce que l’on appelle aujourd’hui le phénomène Web 2.0 .  A votre avis, pourquoi un tel succès ?

Il semble toujours facile à posteriori d’analyser le succès, mais dans le cas du web 2.0, le phénomène est trop récent pour mettre en avant une hypothèse plutôt qu’une autre.
Les facteurs clés de succès s’articulent sans doute autour de deux axes, une avancée technologique et de nouveaux usages.
Les technologies du web 2.0 (xml, ajax, flash vidéo) ne sont pas si récentes, c’est leur mise en commun  qui crée la valeur ajoutée.
La seule nouveauté c’est la simplicité qui distingue les applications web 2.0.
Nul besoin d’être féru d’informatique ; là où il y a encore cinq ans il fallait apprendre le html pour publier une page sur le web ; aujourd’hui l’utilisation d’un blog est intuitive.
Ce qui est vrai pour le texte l’est aussi pour l’image. C’est une banalité de le rappeler  mais nous sommes rentrés dans une civilisation de l’image où celle-ci est omniprésente.
Mais jusqu’à présent sa production était limitée aux professionnels. Avec le numérique  la possibilité est offerte à chacun de créer des images dans un contexte économique très favorable.  La croissante ininterrompue  des  ventes d’appareils photo numériques, de caméscopes et la mutation du téléphone en « photo-vidéo-phone » nous le confirme.
Le chaînon manquant, c’était la diffusion de ces images.
Les services de partage de vidéos, tels YouTube ou Dailymotion, se sont imposés comme des canaux de diffusions crédibles et comme une alternative potentielle aux médias audiovisuels classiques. C’est la continuité logique des sites de partages photos comme Flickr, moins médiatisé mais pionner des services web 2.0.
La simplicité d’usage est là aussi au rendez vous, en quelques clics vos photos et vidéos sont en ligne.
La seconde composante du succès ce sont les usages. Ce point semble jusqu’à présent sous-estimé dans les différentes réflexions sur le « pourquoi du comment » du succès de tel ou tel service.
Le succès des sites communautaires repose à la fois sur la mise à disposition des médias personnels et sur la dimension partage de ces derniers.
Un groupe de musiciens qui utilise Myspace, pour se faire connaître utilise la plate-forme à la fois pour diffuser ses morceaux en mp3 et pour promouvoir ses concerts. Le succès de YouTube ou Dailymotion repose lui aussi sur le partage. Vous avez trouvé une vidéo qui vous plait vous pouvez la publier sur votre blog où l’envoyer facilement à un ami. Si l’on poursuit le raisonnement jusqu’au bout, nous serions tenter d’oser dire que la dimension « communauté » l’emporte sur le contenu même des sites (vidéos, photos ou texte).
Une des meilleures vidéos qui expliquent le web 2.0 est d’ailleurs l’œuvre d’un professeur d’ethnologie de l’Université du Texas, Michael Mesh. Celui-ci a mené une enquête chez les utilisateurs de YouTube à l’issue de laquelle il ressort que c’est la dimension partage qui est plébiscitée devant les autres fonctionnalités.
Les raisons du succès sont à chercher dans ces modifications sociétales.
Qui pouvait prévoir il y a cinq ans le succès des téléphones portables et des nouveaux services comme le sms.  A vrai dire personne, ce sont les utilisateurs, par leurs usages qui adhèrent ou non aux nouveaux services pour en faire des succès ou des échecs. L’internaute est aujourd’hui au centre des services, c’est une des nouvelle donne de l’économie de l’immatérielle dont les acteurs doivent prendre conscience au risque de passer à coté de cette (r)évolution.

 

Comprendre les cartes, c’est voir le monde autrement. Le Web 2.0, c’est aussi une information géographique partagée par tous, dans un espace étendu véritablement à l’échelle de la planète ; Quels sont les apports des systèmes de localisation par satellite (GPS), et plus généralement des Systèmes d’information géographiques (SIG) dans cette évolution ?

Nous n’avons sans doute pas encore pris conscience de l’impact d’applications comme Google Earth où le Géoportail de l’IGN. C’est une des raisons pour lesquelles dans mon livre, le premier chapitre leur est consacré. La première révolution c’est la mise à disposition du grand public, d’outils dont seuls les géographes et les militaires disposaient auparavant.
Avec une touche d’humour, il est possible de dire que la planète terre est un des rare dénominateurs communs à tous ses habitants ont en commun, c’est universel. Les interfaces des SIG (Systèmes d’Information Géographiques) s’appuient d’ailleurs sur le concept de « géographie naïve », nous avons tous conscience de notre environnement géographique et de la manière de si déplacer.
Un autre aspect est d’associer à la géographie des données scientifiques (comme la météo), ou bien économiques et culturelles. Avec ses outils de SIG c’est la terre qui devient le browser !
Certaines données peuvent s’afficher en temps réel : suivre la dérive des glaciers ou découvrir l’épicentre des derniers séismes n’est plus réservé aux seuls scientifiques.
La prise de conscience actuelle sur les enjeux écologiques des années à venir profite aux Google Earth et consorts. Apprécier visuellement les dégâts écologiques vaut tous les discours, le film d’Al Gore « Une vérité qui dérange » s’appuie en partie sur des animations réalisés avec Google Earth.
Une autre raison du succès, ce sont les mashups. Créer des géobiographies, inclure des modélisations en 3D de monuments historiques sont à la portée de tous.
Pour être complet il faut inclure dans la géolocalisation, le succès de vente des GPS et anticiper celui des téléphones portables comme l’Iphone d’Apple qui « embarqueront » Google Maps d’origine.

 

Pouvez-vous expliquer plus précisément le terme « mashup » et préciser le rôle des mashup dans le développement du web 2.0 ?

Mashup en anglais cela signifie mixer des éléments (en anglais la recette de la purée c’est le « mashed potatoes »).
Sans trop rentrer dans des détails techniques, les mashups ce sont de nouvelles applications créées en associant une ou plusieurs autres applications déjà existantes.

Un exemple très simple, vous mixez une application de géolocalisation (par ex Google Maps) avec une liste d’hôtels. Chacun des hôtels apparaît désormais sous la forme de « punaises » sur la carte. Pour chaque hôtel vous proposez une visite en vidéo .Dernière étape, sur
chacun d’entre eux, vous associez les commen
taires des voyageurs issus d’un autre site de référence sur le voyage comme tripadvisor, et vous obtenez www.trivop.com
Vous pouvez aussi ajouter les entrées wikipedia correspondantes à chaque lieu, les possibilités sont infinies…

Si les mashups existent c’est grâce à l’attitude d’ouverture des différents services web 2.0 qui autorisent l’interconnexion entre eux.
Les internautes curieux de découvrir les mashups peuvent consulter « programmable web » où plus de 2000 d’entre elles sont répertoriées. Les grands noms du logiciel comme Microsoft ou Adobe travaillent sur des environnements, ou demain chacun pourra développer ses propres mashups très facilement.

 

A votre avis, doit-on envisager le web 2.0 comme une zone de super liberté ou bien aussi, revers de la médaille, comme un espace potentiel de « fichage » des internautes ?

La menace d’un Big Brother est celle qui vient à l’esprit lorsque l’on balaie tout le potentiel du web 2.0, notamment lorsque l’on parle de géolocalisation. Des services (payants) existent déjà pour localiser le propriétaire d’un téléphone portable.
Il faut distinguer les données personnelles, qui incluent à la fois « ce que je dis ou fait « sur le web; mes commentaires sur un site marchand ou mon blog; mais aussi « ce que l’on dit sur moi ».
Certains experts du web n’hésitent pas à parler d’identité numérique.
Un exemple concret est la mise en garde des universités américaines envers leurs étudiants par rapport à leurs comportements sur les réseaux sociaux comme Myspace ou Facebook.
Nombreux sont les étudiants qui publient des photos de soirées parfois arrosées. Que penserons leurs futurs employeurs, qui auront « googlelisé » leurs noms et découvriront ces photos dans deux ans à la fin de leurs études et dont les auteurs auront oublié l’existence !

La validité des données est aussi l’objet de débat, faut-il dévoiler l’identité des contributeurs de Wikipédia et mettre en place des circuits de validation identiques à ceux du monde universitaire pour assurer une meilleure véracité des propos ?
Enfin il ne fait pas oublier que nous sommes nous aussi des Big Brother en puissance, témoins potentiels d’évènements nous pouvons le capturer avec nos téléphones portables et le relayer sur le web, en mettant, en avant, parfois sans nous en rendre compte, l’identité d’autrui.

 

A propos de l’auteur

Jean-François Gervais est Doctorant en médias numériques à la Sorbonne et titulaire d’un DEA en multimédia. Il est responsable de la filière Multimédia à la Direction de la Formation de l’INA (Institut National de l’Audiovisuel). Il scrute le Web depuis 1994. Il est également coauteur avec Jean-Nöel Gouyet du livre » Gestion des médias numériques » (Dunod, 2006)
Son blog : http://www.web2-lelivre.com

2020 LES SCENARIOS DU FUTUR

medium_2020_couv.JPG2020 Les Scénarios du futur

Préface de François de Closets

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous citez, en introduction de votre livre ces mots de Woody Allen :  » Arretez l’histoire, je veux descendre !!  « … 

2020, c’est presque demain ; les scénarios du futur sont-ils menaçants ou simplement les choses vont-elles trop vite pour nous, simples humains ?

Les scénarios du futur ne sont pas menaçants. Ils décrivent des « futurs possibles ». Les risques de dérapage et de « sortie de route » existent, bien sûr, mais je préfère rester constructif plutôt que de déplorer les nombreux dangers qui nous guettent. On peut être conscient des risques sans pour autant sombrer dans la peur collective. Cette attitude permet d’accroître la vigilance de chacun. En effet, nous vivons dans des sociétés « de mise en scène de la peur ». Une mise en scène qui sert des intérêts politiques, médiatiques, juridiques ou industriels. Il est difficile de ne pas se laisser manipuler et de garder toute sa clairvoyance alors que le risque est quotidien : la peur du manque, de la rareté (entretenue par certains), du terrorisme, des catastrophes écologiques ou biologiques. Mais aussi perception profonde des inégalités, des égoïsmes des plus riches, des fossés économiques et numériques qui appellent constamment notre attention devant le malheur des défavorisés. Certes, tout va trop vite. C’est pourquoi il nous faut une capacité d’intégration des informations et des événements pour prendre du recul. La culture est un « ciment » qui réunit les éléments épars d’un monde disjoint. Il nous faut donc résister à cette accélération par la culture. Préférer un surcroît de sagesse à un trop-plein d’informations ! Une telle perspective sous-entend que notre attitude face à la science et à la technique ne soit plus seulement de nature « optimiste » ou « pessimiste », mais à la fois pragmatique, constructive et responsable

Internet, ce n’est pas simplement une Technologies de l’Information et de la Communication ; c’est surtout ce que vous appelez une « Technologie de la Relation ». Pouvez-expliquer cela  ?

Davantage qu’un « média des médias », Internet est en réalité un «écosystème informationnel». Un écosystème est un système complexe constitué de nœuds de réseaux reliés les uns aux autres par des liens. Le téléphone, le satellite, le câble, la fibre optique, etc., sont autant de liens constituant un système global ou écosystème informationnel. Voilà donc un système qui s’impose en tant qu’environnement. Au même titre que l’oxygène de l’air, l’alimentation qui nous permet de vivre ou l’énergie distribuée à domicile par une prise électrique. Dans cet écosystème, une multitude d’informations circulent, des myriades d’opérations et de transactions sont effectuées en temps réel. Internet n’est donc pas, comme on l’a souvent dit, une nouvelle technologie de l’information et de la communication (NTIC), terme inventé et proposé par les ingénieurs des réseaux. C’est une technologie de la relation (TR) plus qu’une NTIC. Effectivement, ce qui fait la force d’Internet depuis son apparition, c’est son potentiel d’inter-relations humaines et, en particulier, par la messagerie électronique qui, encore aujourd’hui, représente l’une des applications les plus utilisées du Net. Les grandes applications d’Internet se sont développées grâce aux utilisateurs eux-mêmes. Les producteurs de logiciels ou les grandes entreprises ont certainement joué un rôle de facilitateurs en proposant des logiciels performants, mais ce sont bien les utilisateurs qui ont adapté les outils Internet à leurs besoins. C’est ainsi qu’on a vu émerger, du bas vers le haut (bottom up), les grandes applications d’Internet : la messagerie électronique, la messagerie instantanée, le bavardage en ligne ou « chat », le peer to peer ou P2P, les blogs, et les journaux citoyens.

Comment donner plus de sens à la Communication et faire la différence par exemple entre désirs et besoins ?

Il existe une grande différence entre « l’information » et la « communication ». La première peut se faire en temps réel et à l’échelle mondiale. La seconde nécessite une intégration, une médiation humaine, une relation sociale, de la durée. Les TIC et Internet démultiplient les moyens d’informations instantanés, mais favorisent-ils la communication humaine, donnent ils du sens au lien social ? C’est toute la question. La perte de sens peut conduire à un certain désenchantement vis à vis de la technologie envahissante, comme on le constate aujourd’hui. Un décalage, amplifié par la rapidité du marché à s’emparer des nouvelles techniques et des nouveaux outils. Etant donné la fluidité créée par la société du numérique et par les possibilités qu’ouvre le monde virtuel, le marché propose des objets et des produits servant à satisfaire plus souvent des « désirs » que des nécessités. Ces offres correspondent-elles à des besoins fondamentaux de la société ou seulement à des désirs passagers nourris par les fantasmes suscités par la publicité ? Nous sommes soumis, par les messages publicitaires, l’excès d’email, le spam, les sollicitations diverses, à une sorte de pléthore informationnelle que j’appelle aussi une « infopollution », et contre laquelle nous devrons lutter grâce à une « diététique de l’information ». Cette diététique consiste à savoir retrouver, classer, hiérarchiser, échanger des informations afin de les rendre pertinentes dans notre vie personnelle ou professionnelle. Mais pour pouvoir classer, trier, hiérarchiser ces informations, il faut un système de valeurs permettant de rendre efficaces de telles opérations. Cette échelle de valeurs me semble manquer aux nouvelles générations, très habiles pour trouver et échanger des informations, mais moins à même de les hiérarchiser. C’est notre rôle de parents, d’enseignants, de communicateurs, de les aider à retrouver de telles valeurs pour que puissent se révéler les différences entre fantasmes, désirs et besoin réels, intellectuels et matériels.

Quels conseils donnez-vous pour garder le cap, nous qui allons devenir à brève échéance des sortes de mutants ou personnages bioniques, où le vivant se mèle indistinctement au robotique ?

Aujourd’hui, la gestion, le contrôle en temps réel des sociétés humaines et le copilotage de l’évolution exigent une nouvelle culture de la complexité. Certes, la biologie et l’écologie apportent en partie les bases d’une telle culture : niveaux d’organisation, rétroactions, régulations, adaptation, réseaux et cycles. Mais la nécessité d’une culture systémique, d’une meilleure utilisation des « sciences de la complexité » se fera sentir de plus en plus fortement. Il est vrai que le vivant se mêle indistinctement au robotique. L’hybridation entre le naturel et l’artificiel, la « machinisation » du biologique et la « biologisation » des machines, sont des tendances profondes qui alimentent et renforcent la nécessité d’une culture de la complexité. La convergence et, progressivement, la fusion entre biologie, mécanique et informatique représentent plus qu’une simple évolution scientifique ou technique. Elles posent les bases de cette nouvelle culture de la complexité. Dans le domaine scientifique et technique cette fusion se traduit déjà par l’émergence de nouveaux secteurs tels que
la biotique, l’électronique moléculaire, les nanotechnologies, l’écologie industrielle, l’éco-ingénierie, la vie artificielle, les réseaux neuronaux. Dans les organisations, la culture systémique et la pensée complexe s’introduisent également. En 30 ans, la systémique a acquis ses lettres de noblesse en matière de gestion des entreprises, d’urbanisme, de construction des grands réseaux, d’écologie ou de médecine. La reconfiguration des entreprises, la réticulation des organisations, l’aplatissement des niveaux hiérarchiques, l’émergence de l’entreprise « polycellulaire », « intelligente », « virtuelle », sont des signes du changement de paradigme que nous vivons. La nouvelle culture de la complexité relie le naturel et l’artificiel dans une vision élargie de la nature et de la civilisation. Chaque personne, chaque peuple est porteur d’une culture globale et non d’une partie de culture, d’une sous-culture aliénable par d’autres. Une culture hypertextuelle renvoie aux autres noeuds et liens du réseau neuronal planétaire qui se tisse sous nos yeux. Réseau qui évolue à une vitesse accélérée par rapport au temps immuable de référence, mais qui, par sa complexification, densifie le temps. La nouvelle culture de « l’homme symbiotique » est un des catalyseurs de l’avenir.

Joël de Rosnay
Conseiller du Président de la Cité des Sciences et de l’Industrie de la Villette
Président Exécutif de Biotics

Auteur des livres :
« Une vie en plus, la longévité pourquoi faire ? », Seuil, 2005
« La révolte du pronétariat, des mass media aux media des masses », Fayard, janvier 2006
« 2020 : Les scénarios du futur, comprendre le monde qui vient », Des Idées & des Hommes, 2007

www.derosnay.com
www.unevieenplus.com
www.pronetaire.com
www.scenarios2020.com

Le futur de la Fabrique du futur

medium_tables_rondes_200x600.jpgUne fois n’est pas coutume, nous parlons aujourd’hui d’un livre à venir. « Fabriquer le Futur » en est à son deuxième tome, et son lancement a coïncidé avec celui de l’association « La Fabrique du Futur », qui sera sans aucun doute le berceau du tome 3, dont nous avons dès maintenant voulu parler avec Eric Seulliet, co-auteur et coordinateur des premiers tomes et président de l’association.

Le propos central de ce livre est d’expliquer et de décrire la dernière révolution à l’œuvre dans le domaine de l’innovation et du marketing : la co-création de produits et services par les consommateurs eux-mêmes. Interview par Marc de Fouchécour, nextmodernity.

– Comment concilier le partenariat lead-users / entreprise et la liberté de ton (voire l’infidélité) nécessaire des lead-users avec la marque ?

Eric Seulliet : Toute la difficulté est là ! Je ne suis pas sûr qu’il faille instaurer un partenariat au sens classique (juridique) du terme ce qui ne ferait que rebuter les lead users. On est dans quelque chose de plus subtil, du type échange gagnant/gagnant. En effet, les consommateurs sont méfiants par rapport aux marques. Ils sont donc naturellement réticents à être mis à contribution par les services marketing des entreprises car ils redoutent avant tout d’être récupérés. Dans le même temps, ils ont évidemment envie d’être séduits et écoutés. Il faut donc d’abord les observer, puis tisser des relations de confiance avec eux. Plutôt que de chercher à aboutir à la fidélisation de leurs consommateurs, les marques devraient se demander si ce n’est pas d’abord à elles d’être fidèles à leurs clients !

– La « marque » est à la fois vecteur et attracteur de l’adhésion des clients, mais à qui « appartient » la marque, à la fin de ce type de processus ?

Eric Seulliet : Si on poussait la logique, la marque devrait appartenir à la communauté des utilisateurs (they are the market !… comme dirait mon ami François Laurent). C’est aussi ce que défend le courant du Pinko marketing… http://pinkomarketing.pbwiki.com/

– Quand le « consommateur » est une entreprise, comment décliner le concept d’innovation ascendante ?

Eric Seulliet : Là on ne parle plus d’innovation ascendante, mais du concept voisin d’ « open innovation ». Cette innovation ouverte consiste pour les entreprises à aller chercher partout des pistes nouvelles d’innovation : en interne, pratiquer l’innovation participative avec l’ensemble des collaborateurs. Il s’agit de les inviter à être des contributeurs, à proposer leurs idées et solutions …en leur donnant bien évidemment les moyens de le faire. Mais, au delà, ces pratiques d’innovation ouverte doivent associer tous les acteurs de l’écosystème de l’entreprise : collaborateurs internes bien sûr, mais aussi fournisseurs, actionnaires, distributeurs, partenaires, centres de recherches externes, etc. C’est un peu l’esprit qui est censé présider à celui des pôles de compétitivité…

– Comment aborder l’innovation ascendante dans la production d’usages nouveaux (qui impliquent davantage le marketing et la relation client que la R&D)

Eric Seulliet : Effectivement, si les entreprises étaient davantage attentives à l’expression de réels besoins, elles s’apercevraient souvent que les aspirations des consommateurs concernent généralement de nouveaux usages, une nouvelle ergonomie dans les interfaces, etc. Cela devrait donc impliquer bien évidemment le marketing (Concept de laboratoire d’usages, recours aux sciences humaines). Ce qui se pratique surtout aujourd’hui, c’est de demander aux consommateurs de tester des usages prédéterminés, avec par exemple le recours à des tests, à des études d’ergonomie. La vraie innovation ascendante doit faire émerger des usages auxquels on n’avait pas forcément pensé… C’est l’exemple des SMS : personne n’avait prévu l’explosion de l’usage qui en a été fait par le grand public dans la mesure où ils avaient été conçus comme moyen de communication technique entre opérateurs.

– A propos des « entreprises citoyennes » : l’innovation ascendante peut aussi être vue comme un nouveau moyen de « presser le citron » consommateur, ou de le caresser dans le sens du poil : qu’en pensez-vous ?

Eric Seulliet : L’innovation ascendante (IA) ne devrait pas impliquer que l’entreprise abdique tout rôle dans une démarche démagogique et suiviste. L’IA ne doit déjà pas impliquer la masse des consommateurs mais seulement la frange des plus avant-gardistes d’entre eux. Ceux-ci au demeurant ne donneront pas l’intégralité de la solution mais induiront des pistes d’innovation. A l‘entreprise de jouer son rôle, de transformer ces pistes en concepts viables, à les faire valider par les consommateurs. L’IA implique des interactions et des itérations entre l’entreprise et les consommateurs. Une spirale vertueuse en quelque sorte !

– Comment se positionne la « Fabrique du Futur » par rapport à ces enjeux de société ?

Eric Seulliet : La FDF a été créée essentiellement pour s’inscrire dans ces enjeux. C’est la raison pour laquelle nous la qualifions de dispositif citoyen ! Tous nos projets tournent autour de l’IA : laboratoire d’usages, mise sur pied de « panels » de consommateurs avant-gardistes, recours à des outils technologiques comme la 3D pour détecter des germes du futur, etc. !

Nous avons d’ailleurs le plaisir de vous annoncer qu’à l’occasion de la présentation publique de la Fabrique du Futur, nous organisons nos premières « Tables rondes du Futur » sur le thème : « De nouvelles voies pour l’innovation : de l’imaginaire à la co-création« , le 25 mai 2007 de 8h30 à 14h00 (déjeuner-buffet inclus), à la Bourse de Commerce de Paris ; vous trouverez ci-joint le programme de cet événement. L’information est aussi sur notre site, avec formulaire d’inscription en ligne : www.lafabriquedufutur.org/news000102c1.html

Nous serons heureux de vous y retrouver.

INNOVATION, MANAGEMENT DES PROCESSUS ET CRÉATION DE VALEUR

medium_Innovation.jpgINNOVATION, MANAGEMENT DES PROCESSUS ET CRÉATION DE VALEUR
Sous la direction de Smaïl Aït-El-Hadj et Olivier Brette
Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

D’après vous, comment naissent les idées ? Peut-on parler d’un processus rationnel ?

La créativité est, par nature, une activité complexe et incertaine. Elle l’est d’autant plus qu’elle met en jeu un nombre important d’éléments et de principes en interdépendances, à tel point qu’il devient impossible de prédire le cheminement et a fortiori l’issue du processus de créativité. Cette double contrainte de complexité et d’incertitude exclut généralement la possibilité d’optimiser la génération d’idées, en termes de résultats.
Cependant, affirmer cela n’implique nullement une représentation de la créativité comme un processus entièrement spontané, fortuit, voire irrationnel. La génération d’idées est une activité rationnelle, sinon susceptible de rationalisation, au sens où il est possible de mettre en œuvre des dispositifs organisationnels et techniques permettant de stimuler et d’orienter l’émergence de nouvelles idées. Cela passe généralement par la réunion de différentes compétences internes à l’entreprise, voire issues d’autres organisations (autres entreprises, clients, centres de recherche publics, etc.), sur un thème ou un projet transverse.

La Recherche & Développement, dans les grandes institutions et entreprises notamment,  est-elle éloignée de la réalité du marché ?

En général oui.
Dans le cas de la recherche fondamentale cet éloignement n’est pas dommageable puisqu’il s’agit alors de produire des connaissances ouvertes, proches de la science, susceptibles d’alimenter le mouvement technologique ultérieur et qui doivent beaucoup à la dynamique et à la créativité d’une communauté scientifique.
Dans le cas de la recherche appliquée et du développement de produit, leur éloignement relatif du marché est compensé par les relais internes à l’entreprise, directions commerciale, marketing, voire industrielle qui font remonter les informations notamment de l’après vente. C’est la richesse et la qualité de cette relation entre notamment les services de recherche appliquée et de développement et les services opérationnels de l’entreprise qui vont faire la puissance d’une R&D en terme de son apport à la valeur de l’entreprise.
Des méthodes concrètes sont mises en place depuis plusieurs années pour favoriser cet échange permanent de la R&D avec les opérateurs de l’entreprise représentant le marché ou la vie industrielle d’une manière générale : il s’agit de la forme d’organisation qu’on a appelé « l’ingénierie concourante ». Celle-ci consiste à faire travailler ensemble en permanence et en groupe les opérateurs de la R&D avec les autres acteurs de l’entreprise, parties prenantes d’un projet de développement, notamment marketing, commercial, direction industrielle. Cette forme d’organisation est aujourd’hui amplifiée dans son efficacité par les nouvelles technologies notamment de réseau et de génération d’image qui concrétisent l’objet à développer et font de cette ingénierie concourante ce que l’on appelle aujourd’hui « l’ingénierie collaborative ».

Cette nouvelle ingénierie collaborative permet-elle également de faciliter le passage d’une idée à sa mise en œuvre et de dépasser le cloisonnement entre « Recherche » et « Développement » que l’on observe parfois ?

Cet impératif [de décloisonnement] a pesé depuis longtemps sur les entreprises particulièrement dans la nécessité de conserver une continuité et une cohérence de la prise en compte du besoin client, quel que soit le client externe ou interne.
C’est, en fait, la préoccupation de bien cerner le besoin du client et d’en suivre la prise en compte cohérente au niveau des solutions produites qui permet de dépasser ce cloisonnement. Cela a été initialisé par la mise au point de méthodes particulières telles que les méthodes de spécification, d’analyse fonctionnelle ou de la valeur. Ensuite devant l’ampleur de certains projets et de la complexité qui en découle s’est formée une démarche intégrée de développement que l’on appelle « l’ingénierie système ».
Celle-ci va assurer à la fois la cohérence de la chaîne de prise en compte des besoins que l’on va appeler alors les « exigences », et la cohérence de la chaîne des réponses et solutions que l’on va examiner dans ses architectures et que l’on pourra, enfin, valider par rapport aux besoins initiaux exprimés.
Ainsi ce type de démarche assure non seulement une cohérence entre les différents services de l’entreprise partie prenante d’un projet de R&D, mais aussi une cohérence temporelle dans ce que l’on appelle aujourd’hui la « traçabilité » du processus de développement.

Depuis 2004, les pôles de compétitivité concrétisent l’action publique et l’implication de l’Etat dans le domaine de la Recherche ; D’après vous, quelles stimulations les pôles de compétitivité apportent-ils aux partenaires impliqués ?

Le dispositif des pôles de compétitivité, que le Gouvernement français a mis en œuvre à l’automne 2004, a pour objectif principal de promouvoir le développement de partenariats entre des firmes, des établissements d’enseignement supérieur et des unités de recherche, implantées sur un même périmètre géographique (généralement régional) autour de projets innovants. Cette initiative est porteuse, au moins dans ses intentions, d’une nouvelle conception de la politique d’innovation et de recherche.
Les moyens mobilisés par les pouvoirs publics dans le cadre de ce dispositif sont de deux ordres : d’une part, un abondement financier significatif aux projets d’innovation présentés par les pôles ayant été labellisés (au moins 1,5 milliards d’euros sur 3 ans) et d’autre part, une incitation et un appui régionaux à la mise en réseau et aux interactions au sein des pôles.
On peut attendre de ce dispositif un certain nombre d’effets positifs à moyen et long termes, même s’il est encore trop tôt pour en mesurer l’importance. En premier lieu, on peut penser qu’il permettra d’améliorer la valorisation industrielle de la recherche publique, tout en échappant aux inefficiences du modèle strictement marchand fondé sur une relation bilatérale entre une entreprise et un laboratoire de recherche public. En deuxième lieu, la démarche des pôles de compétitivité fournit une incitation au développement de relations collaboratives entre entreprises, fussent-elles par ailleurs concurrentes, dans le cadre de projets d’innovation plus ambitieux que ceux menés isolément. Enfin, le cadre multilatéral que promeut le dispositif des pôles de compétitivité est susceptible d’améliorer l’implication des Petites et Moyennes Entreprises dans la dynamique de la production et des transferts de connaissances qui sous-tend le processus d’innovation.

Les auteurs :

Smaïl AIT-El-Hadj est professeur associé, Directeur de l’Unité Innovation-Conception-Développement (ICOD) du Centre de Recherche Magellan de l’Institut d’Administration des Entreprises (IAE) de l’Université Jean Moulin Lyon III.

Olivier Brette est enseignant, responsable de
recherche au sein de l’Unité ICOD du Centre de recherche Magellan de l’Institut d’Administration des Entreprises (IAE) de l’Université Jean Moulin Lyon III.

 

Smaïl AIT-EL-HADJ, Adel ALOUI, Jean-Claude BOEHM, Vincent BOLY, OLIVER BRETTE, Yves CHAPPOZ, Héla CHEBBI, Pierre DEVALAN, François ECOTO, Joëlle FOREST, Jean-Louis JOYEUX, Pierre KRAWTCHENKO, Laure MOREL-GUIMARAES, André-Yves PORTNOFF, Jérôme RIVE, François ROMON, Benoît ROUSSEL, Pierre SOUCHON, Nadine STOELTZLEN

Innovation et Coopération interentreprises

medium_photo_livre_BS.2.jpgInnovation et coopération interentreprises

Comment gérer les partenariats d’exploration ?

Blanche Segrestin

Centre de Gestion Scientifique, École des Mines de Paris

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

De nos jours, l’innovation peut-elle se concevoir sans partenariat  interentreprises ?

Dans une économie tirée par l’innovation intensive et répétée, les entreprises sont de plus en plus sommées d’explorer de nouveaux espaces d’action, de partir en reconnaissance de nouvelles opportunités (Le Masson et al., 2006). Très souvent, ces espaces d’innovation se situent à la croisée de différents secteurs et mobilisent des expertises variées. Du coup, on assiste à un foisonnement des coopérations entre entreprises au niveau des activités de R&D et d’innovation, alors que ces activités stratégique étaient jusqu’à récemment conservées dans le giron de l’entreprise (Hagedoorn, 2002). L’interfirme est désormais perçu comme le lieu de l’innovation par excellence (Powell et al., 1996). Cependant, il faut souligner l’extraordinaire difficulté que les entreprises rencontrent dans ces collaborations. Bien qu’ils constituent un axe majeur de la stratégie des entreprises, les partenariats d’innovation se révèlent extrêmement précaires, avec des taux d’échecs importants et des ruptures prématurées (Barringer and Harrison, 2000)

Qu’est ce qui distingue un contrat de recherche d’une alliance stratégique ou d’un simple accord ?
L’explosion quantitative des accords s’accompagne dans les faits d’une multiplication des formes prises par les collaborations. La diversification des contrats de coopération est tout à fait remarquable depuis quelques années, avec des accords de licence, des contrats de sous-traitance, des projets de recherche conjoints, des entreprises communes comme les Joint Ventures… Les joint ventures  peuvent ainsi renvoyer à des « equity Joint venture » (entreprise commune dont les capitaux sont partagés) ou à de simples accords contractuels.

Plus généralement, de nombreuses statistiques montrent que les parties optent de plus en plus fréquemment pour de simples arrangements contractuels, dont font partie les alliances, plutôt que pour des structures formelles de société. La notion d’alliance recouvre ainsi des réalités très différentes, dans la mesure où les parties choisissent de définir leur accord elles-mêmes, avec des dispositifs dont le statut n’est pas toujours clair juridiquement. Certains juristes insistent sur le fait que dans le silence ou dans l’imprécision des accords, les parties d’une alliance stratégique s’exposent à l’application des règles prévalant (dans le droit anglo-saxon) pour les partnerships, ou pour les corporations. Du coup, les acteurs (et surtout les plus faibles !) sont rendus plus vulnérables lorsqu’ils s’engagent dans de telles coopérations. 

 

Selon vous, quelles sont les difficultés majeures auxquelles se heurtent les partenariats d’exploration ?

Nos recherches nous ont conduits à étudier de nombreux cas empiriques de partenariats innovants. Nous avons par exemple accompagné le développement de la première plate-forme commune entre Renault et Nissan :, l’Alliance conclue entre Renault et Nissan en mars 1999 visait non seulement à bénéficier de synergies industrielles, mais aussi à renforcer les capacités d’innovation de chaque marque. Cependant, en 2000, l’incertitude était grande sur la pérennité de l’Alliance, les objectifs communs réalisables et les moyens à mettre en oeuvre. Au cours de ces recherches, nous avons mis en évidence une catégorie particulière de partenariats qui devient centrale dans une économie de l’innovation : il s’agit des partenariats d’exploration qui visent à partir en reconnaissance de nouveaux champs d’innovation.

Cette activité d’exploration se distingue nettement des activités traditionnelles de l’entreprise et des transactions usuelles entre entreprises : elle a pour vocation d’identifier et de construire à la fois les objets de recherche et de développement, et les groupes ou les collectifs qui y travailleront. En ce sens, elle pose un défi radical aux modèles classiques de gestion dans la mesure où les opérations à mener, les apprentissages à conduire et les critères d’efficacité restent à concevoir. En fonction des résultats de l’exploration, chaque partenaire peut alors choisir de poursuivre ses travaux (avec ou sans les mêmes acteurs), de réorienter son exploration ou d’abandonner des pistes trop risquées ou insuffisamment prometteuses. Ces partenariats se caractérisent donc par une double précarité très difficile à gérer : précarité des objets d’une part et des actions à mener, et précarité des intérêts et des relations d’autre part, avec des règles qui sont en pratique relativement peu déterminées. Piloter l’exploration collective suppose alors non seulement de coordonner les acteurs et leurs apprentissages, mais aussi de gérer leur cohésion, c’est-à-dire de réunir les conditions qui permettent d’engager l’action malgré l’incertitude. L’ouvrage analyse les dynamiques de coopération et explique, grâce à un modèle de l’exploration collective, les difficultés rencontrées par les entreprises. Il indique ainsi de nouveaux outils de gestion pour piloter les coopérations innovantes.

Vous évoquez d’ailleurs  une augmentation des conflits, une déstabilisation du droit, une recherche de flexibilité se traduisant par un libéralisme accru, pourtant, d’après vous, ce ne sont pas les partenari
ats dans leur finalité qui sont en cause mais plutôt leur mode de gouvernance. Quelle seraient les caractéristiques d’un pilotage ou d’une gouvernance plus adaptée?

Face aux caractéristiques des partenariats d’exploration, on constate que les acteurs sont souvent démunis pour organiser des structures de gouvernance adaptées. D’où les crises très fréquentes que rencontrent ces partenariats. Le droit apparaît souvent trop technicisé et inadapté aux problèmes de la vie économique. Le recours au droit alors considéré comme l’ultime alternative, et l’on préfère souvent des procédures informelles ou des contrats ad’hoc. Cependant, dans le même temps, le droit constitue une donnée désormais incontournable de la vie des affaires. D’ailleurs, de nombreuses innovations juridiques témoignent des efforts des juristes pour adapter le droit à la rationalité économique, notamment en étudiant les dysfonctionnements occasionnés par le droit, qui devient trop technique, trop rigide ou trop coûteux à mettre en place. Si le droit a assurément gagné en flexibilité ces dernières années, a-t-il pour autant contribué à expliciter la situation des partenariats d’exploration et leurs enjeux spécifiques ? Dans les situations d’exploration collective, la préférence pour les contrats ad’hoc et la réduction des dimensions impératives et normatives du droit peut contribuer à rendre le droit imprévisible. En outre, si la liberté contractuelle laisse les acteurs libres de s’organiser comme ils l’entendent, le droit leur fournit-il les catégories nécessaires à l’action collective ? On peut craindre en fait qu’en laissant aux acteurs le soin de définir eux-mêmes leur cadre de cohésion, ceux-ci aient du mal à faire face aux situations d’exploration. Si quelques acteurs, plus téméraires ou moins vulnérables, parviennent à générer des cadres de cohésion minimaux, les autres ne seront-ils pas victimes de l’indétermination ? Notre analyse de cas concrets montre que la nature de la coopération en situation innovante requiert des règles spécifiques dont il ne faut pas sous-estimer l’originalité. Au-delà des outils de gestion qu’il développe, l’ouvrage explore donc l’hypothèse d’un nouveau type de contrat – le « contrat spécial d’exploration » -; il ouvre ainsi de nouvelles perspectives entre  spécialistes du droit et gestionnaires en restaurant la nature des activités innovantes au sein même des contrats et de la gouvernance interentreprises. Nous avons proposé les principes d’un cadre spécial d’exploration qui doivent permettre aux partenaires d’engager l’action sans s’engager et leur assurer une certaine récursivité des choix. Il s’agit en particulier de proposer des procédures qui permettent de réviser les engagements mutuels en fonction des transformations des projets et des intérêts mutuels.

 

 

BARRINGER, B. R. & HARRISON, J. S. (2000) Walking a Tightrope: creating Value through Interorganizational Relationships. Journal of Management, vol. 26, pp. 367-403. HAGEDOORN, J. (2002) Inter-Firm R&D Partnerships, an overview of major trends and patterns since 1960. Research Policy, vol. 31, pp. 477-493. LE MASSON, P., WEIL, B. & HATCHUEL, A. (2006) Les processus d’innovation. Conception innovante et croissance des entreprises, Paris, Hermès. POWELL, W. W., KOPUT, K. W. & SMITH-DOERR, L. (1996) Interorganizational collaboration and the locus of innovation. Adminsitrative Science Quaterly, vol. 41, pp. 116-145.

Blanche Segrestin Blanche Segrestin, docteur en sciences de gestion, est chargée de recherches au Centre de gestion scientifique (CGS) de l’Ecole des mines de Paris.