E-commerce, de la stratégie la mise en oeuvre opérationnelle : un ouvrage de fond de Henri Isaac et Pierre Volle

f961035bf922baa071fc72effc20505b.jpg

E-commerce, de la stratégie à la mise en oeuvre opérationnelle, par Henri Isaac et Pierre Volle

Edition Pearson Education

Interview Henri Isaac par Catherine Fournier-Montgieux pour Nextmodernity

Vous abordez dans votre livre le commerce électronique en tant que projet managérial à part entière. Pourquoi ,d’après-vous, le commerce électronique ne s’est-il pas développé aussi vite que les prévisions des années 2000 l’annonçaient ?

Une des premières raisons réside dans le fait que l’achat est un acte social qui ne se résume pas à une pure transaction marchande, ce à quoi se résume souvent un achat en ligne. Il est difficile de recréer une « expérience client » en ligne équivalente à celle que l’on peut connaître dans un centre commercial ou dans un magasin malgré les nombreux efforts des sites marchands.

Une deuxième raison est plus anthropologique et renvoie au rapport au temps et à l’espace. Il est intéressant de noter que les pays où le commerce électronique connaît la plus forte pénétration sont des pays où la vente à distance était préalablement plus développée. Il en est ainsi des Etats-Unis et du Canada. Notons que dans ces pays aux vastes étendues, de nombreuses régions sont sous-équipées en zones commerciales, ce qui est moins le cas de l’Europe. On note également, si l’on observe l’Europe, un plus fort développement au Nord de l’Europe, région où il fait plus froid une grande partie de l’année, au contraire de l’Europe du Sud où les modes de vie latins s’accommodent mal des espaces virtuels. Autre élément, le rapport aux modes de paiement explique également le développement du commerce électronique. Ainsi dans les pays du Sud du l’Europe, beaucoup de consommateurs ne sont toujours pas prêts à effectuer une transaction en ligne par manque de confiance dans les moyens de paiement électronique.

Un troisième ensemble de raisons est lié aux spécificités mêmes du commerce électronique. La promesse d’une livraison rapide est souvent très complexe à réaliser surtout lorsqu’il s’agit de produits pondéreux (meubles, gros électroménagers, …). Le commerce électronique n’abolit pas les distances ! Il inverse les flux : la marchandise va au client et non l’inverse. Par conséquent, la logistique est déterminante et force est de constater que nombre de clients ont vécu de mauvaises expériences en matière de délais. Les sites marchands ont découverts des problématiques logistiques nouvelles et les prestataires peu prêts au départ à fournir des prestations adéquats. Ceci explique que nombre de clients ne souhaitent pas recommander un produit en ligne. Enfin, certaines catégories de produits ont du mal à percer de par la nature même des produits : c’est le cas des produits frais ou alimentaires pour lesquels nombre de clients souhaitent encore examiner le produit avant de l’acheter.

Toutes ces raisons expliquent que le commerce électronique ne représente que 3 à 4% du commerce total dans les pays occidentaux. Il faut bien évidemment nuancer selon les catégories de produits, comme par exemple les billets d’avions, désormais totalement dématérialisé depuis le 1er juin 2008, les voyages etc… Désormais les prévisions les plus raisonnables tablent sur 10% du commerce total, certaines plus optimistes prédisent 30% des achats effectuer en ligne.

 

En parallèle du commerce électronique, on trouve les « places de marché » dont le rôle est d’assurer les transactions en ligne entre entreprises. Pourquoi les places de marché électroniques n’ont-elles pas non tout à fait convaincu les entreprises ?

Parce que les places de marché ont mal intégré les problématiques d’achat des entreprises. Le principe d’un marché, électronique ou non, est une régulation de celui-ci par une variation permanente des prix. Or, une politique d’achat vise à stabiliser les prix des achats sur une période donnée. La négociation porte donc sur un prix stable sur une période, prix souvent révisable selon les quantités consommées (marges arrières). On est donc très éloigné de la notion de prix « spot ». Les places de marché ont également buté sur des questions de standards d’échange d’information entre partenaires. Autant cette problématique a été plutôt bien pensée avant l’arrivée d’Internet avec l’E.D.I, autant la bulle Internet a conduit à une myopie sur la question des standards informatiques d’échange de données informatisées. La normalisation d’un langage de commerce électronique sur Internet a mis beaucoup de temps et ebXML n’est pas encore fortement déployé. En tout état de cause, ebXML ne résout pas certains aspects de la transaction dématérialisée en ligne, comme le principe de non répudiation des transactions qui nécessite une infrastructure d’authentification à clés publiques (Public Key Infrastructure). Bref, les problématiques techniques ont été largement sous-estimées, notamment celle de l’intégration des transactions gérées sur les places au x systèmes d’informations des entreprises. Par ailleurs, les fournisseurs ont été invités à se référencer et à utiliser de très nombreuses plateformes. Beaucoup ont refusé face aux coûts et problématiques techniques.

Un autre problème fondamental est que les outils communément déployés sur les places de marché, les enchères inversées, ne donnent pas toujours les résultats escomptés à long terme. L’extrême focalisation sur le prix d’achat et non sur la qualité des produits achetés conduit, dans de très nombreux cas, a un coût total de possession plus élevé. Par conséquent, les places de marché ont connu des sorts divers : reconversion en prestataire des services achats, mise en relation, sélection de fournisseurs (e-sourcing), ou en simple prestataire informatique. Ce qui a de plus surprenant, c’est l’aveuglement collectif, durant la période de la bulle Internet, des entreprises sur cette question où des millions d’euros ont été investis en pure perte.
Un exemple d’échec de place de marché est celui de Covisint, place de marché élaborée par le secteur automobile au niveau mondial. Projet très ambitieux qui rassemblait la plupart des constructeurs automobiles mondiaux, Covisint n’est plus aujourd’hui qu’un simple prestataire informatique après avoir ambitionné de gérer l’ensemble des relations économiques avec les fournisseurs de rang 1 (équipementiers) et rang 2 (sous-traitants) et les relations avec les clients par le biais de la plateforme technique Covisint.

Est-il pertinent cependant, pour une petite entreprise , s’adressant à un marché strictement local,  de développer un site marchand ?

Oui sans ambiguïté. C’est un axe de développement fort du commerce électronique à mon sens. Pourquoi ? Parce que, comme je l’ai dit dans la réponse à la première question, le commerce électronique n’abolit pas les distances ! Le dernier Eurobaromètre sur la réalisation du marché unique européen est à cet égard éloquent : les achats électroniques transfrontaliers ne progressent guère. Dès lors, on peut légitimement penser que la proximité rassure les consommateurs. J’en veux pour preuve que Casino a développé une filiale Cour
sengo pour les livraisons de proximité des supermarchés de centre ville. Il y a là un très gros potentiel de développement du commerce électronique pour les artisans et les commerçants notamment. On peut espérer que le gouvernement au travers d’une politique du numérique favorise ce genre de développement.

Quel est à votre avis l’avenir du marketing relationnel ?

Tout dépend de ce que l’on met derrière le terme « marketing relationnel » qui est souvent un mot valise dans lequel beaucoup de confusions sont présentes !

Si l’on parle des pratiques qui visent à satisfaire, fidéliser et retenir les clients, alors oui, elles sont promises à un bel avenir, à quelques conditions près. Parmi ces conditions, la plus importante à mes yeux est de ne pas résumer la relation client à une simple démarche marketing, mais de réellement développer une approche globale du client au sein de l’entreprise, ce qui, il faut bien le reconnaître aujourd’hui, est loin d’être une réalité dans beaucoup d’entreprises. Cela nécessite donc une approche stratégique, organisationnelle et opérationnelle de la problématique « client ». Si l’on se contente de déployer davantage de technologies sans tenir compte du nouvel environnement « client », il est à craindre que les clients s’empareront encore davantage des technologies pour exercer une pression supplémentaire sur les entreprises.

Le développement des technologies de l’information, l’émergence d’un réseau mondial, accessible en permanence donne accès à des sources d’informations nouvelles pour le client ; nouvelle au sens que l’entreprise n’est plus la seule émettrice d’informations sur ses produits et ses services. Tous les clients deviennent une source d’information. Internet est un formidable outil aux mains des clients pour s’exprimer, bâtir des communautés et au final faire évoluer le rapport de force en faveur des clients et au détriment des entreprises « sourdes » à leurs réelles attentes.

De mon point de vue, l’exemple de l’industrie du disque est assez exemplaire de ce nouvel environnement client. Le client n’a pas voulu payer une énième fois sa musique en fonction du support sur lequel on l’inscrit (cassette, vinyl, CD, ordinateur, lecteur MP3, téléphone). Les technologies lui ont permis d’exercer une pression considérable (piratage) sur cette industrie qui ne comprend pas que, poursuivre en justice des clients n’est pas la meilleure politique commerciale. Elle devrait s’interroger sur les raisons profondes qui conduisent les clients à ne plus vouloir payer leur musique et apporter de réelles réponses à cette question. Par conséquent, l’Internet fait évoluer le rapport de force au profit des clients qui s’emparent de cet outil informationnel pour faire pression sur les entreprises.

 

Henri ISAAC
Maître de Conférences en sciences de gestion
UMR CNRS n°7088 Dauphine Recherches en Management (Crepa),
Université Paris Dauphine, F-FRANCE
————————————————————————
http://www.livre-ecommerce.fr
http://www.universitenumerique.fr/
http://courssimasterdistribution.blogspot.com/
http://entreprisevirtuelle.blogspot.com/
http://www.crepa.dauphine.fr
http://www.observatoireemanagement.com/
http://www.mba.dauphine.fr/
http://www.mbaip.com/
http://www.aim.asso.fr/

Eric Delcroix, Alban Martin : Facebook, on s’y retrouve !

b5713db41fbf6da6a766fbba8d493445.jpg

 Facebook, on s’y retrouve !  « Créez et sécurisez votre page, tirez le meilleur parti des applications, personnalisez votre usage de Facebook »

par Eric Delcroix et Alban Martin, Editions Pearson

Interview Eric Delcroix, Ed Productions,  par Catherine Fournier-Montgieux pour Nextmodernity

Pourquoi vous etes-vous intéressé à FaceBook ?

Depuis plusieurs années maintenant, je suivais l’évolution des réseaux sociaux, juste inscrit en position d’attente !

D’ailleurs j’étais assez récalcitrant à leurs égards. En effet, pendant très longtemps, les réseaux sociaux se sont contentés d’être de simple lieu de rencontre, où l’on devenait principalement le copain du copain ! Autres aspects négatifs : le nombre de messages commerciaux ou de CV que je pouvais recevoir !

En fin d’été 2007, alors que l’on commençait à entendre parler de Facebook, je me suis inscrit « sérieusement » à Viadeo, Linkedin et Facebook…

Rapidement, au-delà des jeux, la présence des applications m’a séduit dans Facebook. Facebook devenait un outil de travail. Rapidement, j’ai compris que Facebook pouvait devenir l’interface du futur pour les ordinateurs. En effet, à court terme, les ordinateurs risques d’être vide : les applications seront en ligne, le stockage se fera en ligne… Le MacBook Air d’Apple préfigure ce que sera l’ordinateur dans quelques années. La nouvelle interface de Facebook (http://www.ed-productions.com/leszed/index.php?nouvelle-presentation-chez-facebook) va également dans ce sens.

On comprend mieux ce que Mark Zuckerbeg avait dit en septembre dernier : Facebook est un système d’exploitation pour Internet.

Qu’est ce que la plateforme vous apporte professionnellement ?

J’aurai tendance à répondre rapidement une présence et une mise en scène de l’identité numérique de son entreprise ainsi que le développement d’une communauté autour de nos activités, produits… notamment grâce aux Pages (Pages Fan comme les appellent certains), aux groupes, aux événements, aux causes…Facebook me rappelle par de nombreux aspects l’émergence des blogs. La relation au client et au partenaire est différente pour les personnes et les entreprises présentes dans ce réseau. C’est en quelque sorte un monde nouveau qui s’ouvre à nous. C’est aussi un terrain vierge que nous devons tous explorer pour en tirer un profit maximum. La communication ou la diffusion de l’information prend une nouvelle dimension. Nous avons, encore plus que dans un blog, notre visiteur en face de nous ! Nous savons qui il est, ses centres d’intérêts, ses passions, ses goûts et ses couleurs. Cela a d’ailleurs certains effets déstabilisants. On ne sait pas par quel bout prendre Facebook dans un premier temps pour communiquer, ni comment communiquer…
En plus, la communication que nous mettons en ligne produit toujours du buzz… Chose à laquelle nous ne sommes pas obligatoirement habitué. De même, la rapidité de réaction des utilisateurs de Facebook est stupéfiante ! Le groupe L’expérience Interdite par Facebook: J’ai besoin de vous !!!  et la rapidité avec laquelle les 250 000 membres ont
été atteints est surprenante.

D’après vous, quels sont les principaux avantages et inconvénients de ce nouveau réseau ?

Le plus gros avantage de Facebook est d’être avant tout un outil qui permet de gérer quasiment tous les besoins d’outils de communication au sein d’une entreprise en un seul écran.

Ce gros carnet d’adresses d’amis est le nœud du système et l’on comprend facilement que certaines entreprises décident d’utiliser Facebook comme Intranet ! Même pour le travail en projet, avec l’application MyOffice, la simplicité d’ajouts de personnes extérieures à la structure est déconcertant ! Il faut réussir à s’imaginer que Facebook est à la fois un gros Outlook (carnet d’adresse, mail…) qui permet  aussi de créer, de gérer des groupes de discussion, ou des groupes de contacts, d’utiliser le chat, du micro-blogging, mais, c’est aussi un lecteur de flux Rss, un système d’archivage des signets et liens internet, de partage des images, des vidéos et des sons, etc.

Le partage d’applications de bureautique en ligne (traitement de texte, tableur…), le système de recommandation, d’organisations de conférences téléphoniques, de possibilité de poser une question à la cantonade complète ce tour d’horizon rapide. On pourrait ajouter les possibilités de recrutement et de relations presse simplifiées, la gestion de projet, la gestion de classes, la création de boutiques…

Les constants reproches sur le modèle publicitaire, sur les informations que contient Facebook nous concernant qu’il diffuse ou non, semble un faux problème. D’ailleurs, l’étude universitaire que nous avons réalisée sur les usages et les attentes au sujet de Facebook, ( http://www.ed-productions.com/leszed/index.php?facebook-enquete-sur-les-usages-et-les-attentes-1er-partie  ) l’indique clairement.

L’autre reproche qui a souvent été fait à Facebook est la gestion des sphères de connaissances. On ne diffuse ou ne partage pas les mêmes informations avec sa famille, ses amis, ses collègues, ses clients… Ce souci est en passe d’être réglé avec la conjonction des réglages de  confidentialité et la mise en place des listes d’amis.

Toutefois, on touche un détail important. En fait, sous des apparences simples (il n’est pas très difficile de s’inscrire à Facebook et de l’utiliser rapidement) se cache un monde beaucoup plus complexe.

À mon sens d’ailleurs, le plus gros inconvénient de Facebook pour un usage professionnel est de dépasser le stade du jeux. Nous arrivons tous dans Facebook et nous sommes happé par le monde du jeux, des messages sur les murs. C’est un stade qu’il faut dépasser pour aller plus loin.

Autre facette de ce problème, il n’est pas superflu de se former à l’utilisation de Facebook… Je suis souvent étonnés par la méconnaissance justement des possibilités de confidentialité, de la gestion des listes et même pour beaucoup de l’existence des applications. Beaucoup d’utilisateurs se contentent d’utiliser les applications de base ou celles auxquels ils sont invités.

Aujourd’hui, pensez-vous qu’il est indispensable de s’inscrire à Facebook ?

Tout à fait et dans l’urgence. Il est indispensable de s’inscrire rapidement déjà pour un problème d’identité numérique.Ceci réduit les cas d’usurpation d’identité qui peuvent toujours exister dans Facebook.

Seconde raison. Un pari. Et si le type de solution offert par Facebook devenait l’interface de demain, autant le découvrir dès aujourd’hui, afin de prendre une longueur d’avance.

Dernière raison pour laquelle je co
nseille l’inscription : voir comment sera investi à terme ce réseau. Je disais en début d’interview que des usages nouveaux devraient voir le jour. Nous devons apprendre à nous servir de Facebook… Nous n’en sommes qu’aux prémices des possibilités de ce type d’outils.

L’apport du nomadisme, de la géolocalisation… devraient ajouter des possibilités en sus dans ce type de solution. Donc, même si on ne souhaite pas réellement utiliser Facebook, je conseille à toutes les personnes de garder un œil sur ce qui se passe à l’intérieur de Facebook… (C’est impossible sans s’inscrire). Comment vont se développer les pages, quel usage telle ou telle entreprise fait de Facebook, comment Facebook est intégré en complément ou en substitution des outils de CRM, etc.

D’ailleurs, dés à présent, Facebook apporte plus de visiteurs sur leur site que Google, à certaines entreprises. C’est une raison suffisante pour y regarder de plus près !

Eric Delcroix : auteur de Facebook, on s’y retrouve !
Ed Productions | Les Zed | Blog en Nord | les z’ed Netvibes
Profil : Facebook | Linkedin | Viadeo

Muhammad Yunus, Prix Nobel de la Paix :  » Vers un nouveau capitalisme »

7e0779d260a7fb9d7bcc83747880b536.jpgEntretien entre Emmanuel Marchant, Directeur Général Délégué du Fonds Danone Communities et Catherine Fournier-Montgieux, Cfm Conseil pour la bibliothèque Nextmodernity , pour évoquer l’ouvrage de Muhammad Yunus, « Vers un nouveau capitalisme » , Editions JC Latès.

L’ouvrage, à travers le concept de « Social Business » décrit et rend hommage à l’action Danone Communities au Bangladesh, action résultant du partenariat inédit autant que passionné entre le Groupe mondial français de l’agroalimentaire Danone et la Gramenn Bank, la banque du micro-crédit créée pour les pauvres, par le Prix Nobel de la Paix.

 

 

Partie 1 : Qu’est ce que le Social Business ? from Nextmo on Vimeo.

Présentation du livre de Mohammad Yunus.
Qui est M Yunus ? Qu’est ce que le Social Business ? Comment cela fonctionne-t-il ?

 

« L’idée du Social Business est de mettre au service des questions de développement tout ce qui est bon dans le business, c’est-à-dire l’efficacité, être tendu vers un but mesuré, tout en inversant les priorités du business… »

 

 

Partie 2 – Danone et le Social Business from Nextmo on Vimeo.

Pourquoi une démarche de Social Business pour le groupe Danone ? Quelles sont les motivations du Groupe ? Quelle sera la mesure de l’action ? Pourquoi la création d’une micro-usine ?

« Danone a un double projet économique et social. Pire que ça, nous pensons que les 2 peuvent co-exister, voir se nourrir… »

 

Partie 3 : Les SICAV « Danone Communities » from Nextmo on Vimeo.

Pourquoi la création d’un outil financier spécifique pour Danone ? Qu’est ce qu’une SICAV sociale ? Qui peut investir ? Comment ?

 

Partie 3 : les SICAV « Danone Communities » from Nextmo on Vimeo.

« Le Social Business est un concept nouveau, les SICAV sociales sont l’outil financier miroir du social business… »

 

En savoir plus :

Le blog Danone Communities : http://www.danonecommunities.com/

CH Besseyre des Horts : L’entreprise mobile

07f6272bded905dbdfe554fb37c76790.jpgL’entreprise mobile,

Comprendre l’impact des nouvelles technologies

par Charles-Henri Besseyre des Horts, Chair Professor HEC-Toshiba « Mobilité & Organisation »

Editions Pearson, Village Mondial

Interview Catherine Fournier-Montgieux pour Nextmodernity

 

Comment définir « L’entreprise mobile » et quels sont les nouveaux outils dont elle dispose  aujourd’hui ?

Pour répondre à cette question il faut d’abord rappeler que l’entreprise traditionnelle est fondée sur des modèles d’organisation où la hiérarchie et la spécialisation des activités sont des dimensions essentielles. Ce qui distingue, selon moi, l’entreprise mobile de l’entreprise traditionnelle c’est sa capacité d’adaptation permanente de ses structures et de ses processus la conduisant à être beaucoup plus agile pour répondre aux demandes de plus en plus pressantes de ses parties prenantes. Une  caractéristique essentielle me semble décrire le mieux l’entreprise mobile : l’abolition des frontières temporelles et géographiques puisque la nature même des technologies mobiles est de permettre de mettre en relation tous les acteurs de l’entreprise n’importe où et n’importe quand. Sur le plan des outils, le téléphone mobile est évidemment de loin l’outil le plus utilisé suivi par le PC portable dans ses différentes variantes dont un PC particulier dont l’écran se retourne : le Tablet PC. De nouveaux outils ont fait leur apparition depuis quelques années et sont en développement exponentiel, principalement le fameux Smartphone qui combine les fonctions de téléphone, Internet, gestion des mails voire plus. Sur ce dernier point, une mention particulière doit être faite à propos des outils nomades qui, comme le Blackberry, permettent d’obtenir ses mails sans avoir même besoin de se connecter. Cette caractéristique particulière provoque chez les utilisateurs de cet outil des comportements additifs que certains appellent le « Crackberry »… Une dernière remarque : il ne faut pas oublier que ces outils ne seraient pas nomades sans les infrastructures des réseaux sans fil de type GSM, Wifi ou Wimax. Il suffit pour s’en convaincre d’observer notre énervement lorsque, dans un TGV par exemple, notre communication téléphonique est brutalement coupée par la discontinuité du  réseau GSM.

Pour reprendre votre constat, point de départ de l’ouvrage, comment expliquer que plus l’entreprise est grande, moins elle s’équipe en outils nomades ?

C’est une question très intéressante car elle soulève évidemment la question de la capacité de l’entreprise à faire évoluer ses modes d’organisation et de fonctionnement en dehors bien sûr du problème du montant de l’investissement que représente la généralisation des outils mobiles dans l’entreprise. La grande entreprise, dans ses structures et ses processus, est bien sûr beaucoup plus complexe que l’entreprise moyenne et petite : l’une des conséquences de la taille est celle de la sécurité des systèmes d’information qu’elle doit impérativement assurer. Le développement des technologies mobiles rend cette question de la sécurité plus difficile à résoudre en termes d’accès aux réseaux de l’entreprise et tout simplement de risques de vol des outils nomades dans lesquels peuvent se trouver stockées des informations confidentielles. On peut donc comprendre la réticence des grandes organisations à généraliser trop rapidement des outils comme le PC portable, par exemple, dans la mesure où la perte ou le vol d’un tel outil peut représenter un risque très sérieux pour les activités. Au-delà de la  question la sécurité, c’est bien la capacité de l’entreprise à changer  qui est interpellée : or, pour la première fois dans l’histoire des technologies de l’information, ce sont les utilisateurs eux-mêmes qui poussent l’entreprise à évoluer. Les jeunes recrutés, issus de la fameuse Net Generation, souhaitent intégrer une entreprise qui montre des signes évidents de modernisme. Sur ce plan, les technologies mobiles jouent un rôle de catalyseur car elles symbolisent bien une Société ou le zapping et le multitâches sont devenus des règles plutôt que des exceptions. La grande entreprise se verra donc contrainte de plus en plus de faire évoluer ses modes d’organisation et de fonctionnement par la généralisation des outils nomades sous la pression de ses jeunes collaborateurs de plus en plus impatients et exigeants.

 

La plupart des travaux sur les technologies mobiles partent du principe selon lequel la technologie est socialement neutre et s’intéressent aux conséquences techniques de l’usage des technologies ; quelle a été votre vision à vous pour l’étude ?

Comme vous pouvez le voir, dès les premières pages de mon livre, j’insiste sur le fait que le choix de s’intéresser aux conséquences organisationnelles et humaines des technologies mobiles part du constat que ces technologies sont souvent introduites et généralisées avec ce que j’appelle  » la logique de l’ingénieur ». Je n’ai évidemment rien contre la profession très honorable d’ingénieur, mais on peut rester un peu perplexe lorsqu’on constate que, en dépit de nombreux travaux depuis plus d’un demi-siècle sur l’impact social des technologies, ces outils nomades sont mis en oeuvre sans en mesurer réellement l’impact sur le plan organisationnel et humain. Que peut donc dire en effet à des vendeurs de terrain qui, auparavant, avaient une certaine autonomie dans l’exercice de leur métier et qui, aujourd’hui avec les outils nomades, sont constamment en relation avec leur chef et leurs clients qui leur imposent désormais des contraintes inconnues jusqu’alors ? Au total, ont-ils gagné ou perdu en se dotant, par exemple, d’un téléphone mobile et/ou un PC portable équipé 3 G ?  D’un côté, ils ont en effet gagné plus de flexibilité et de réactivité en pouvant réorganiser en permanence leur activité mais, d’un autre côté, ils ont perdu en autonomie  et en contrôle quand leur chef ou leurs clients les appellent en permanence voire même exercent sur eux une surveillance rapprochée par la fameuse technique de géolocalisation. Cet exemple, comme beaucoup d’autres développés dans le livre, montre à l’évidence que l’introduction des technologies mobiles n’est pas socialement neutre et qu’il serait temps que, notamment, les DRH se mobilisent lorsque se développent des projets de changement technologique de cette ampleur. Les conséquences de l’usage de ces outils nomades sur les individus, par exemple en termes de stress et de temps de travail, devraient un sujet d’intérêt et de préoccupation pour la fonction RH qui, selon les observations effectuées dans le cadre de ce livre, reste malheureusement largement absente du débat.

 

Plus largement, quelles sont les caractéristiques des groupes virtuels et en général du management en réseau ?

Cette question sort du cadre strict de la mobilité puisqu’on peut être en fonctionnement d’équipes virtuelles sans pour autant être mobile. Un certain nombre d’entreprises ont des équipes de R&D ou d’autres activités mondiales réparties tout autour du globe et qui fonctionnent évidemment en équipes virtuelles avec la pratique du management en réseau. Ce qui rapproche néanmoins les caractéristiques des groupes virtuels de celle de l’entreprise mobile est le fait, que dans les deux cas, on est en présence d’une abolition des frontières temporelles et géographiques. P
ar définition, les groupes virtuels sont des groupes où les participants ne se rencontrent pas, voire jamais,  et bien souvent dans des zones géographiques où les décalages horaires sont très importants. Les participants des groupes virtuels, à la différence des groupes classiques, doivent faire preuve de beaucoup plus d’empathie car ils doivent comprendre la situation des autres situés dans d’autres lieux, d’autres cultures, d’autres temps. Une caractéristique essentielle du bon fonctionnement des groupes virtuels et plus généralement du management en réseau est l’importance de la confiance. Les règles et les normes ne suffisent évidemment pas, on doit pouvoir s’appuyer sur l’autre sans être physiquement en sa présence. Le management en réseau s’inscrit parfaitement dans cette logique avec en plus l’idée selon laquelle un réseau n’est pas hiérarchique : les centres d’expertise et de compétences sont répartis dans toute l’organisation sans qu’il y ait la hiérarchie que l’on retrouve dans les organisations pyramidales. Le rôle joué par les technologies, qu’elles soient mobiles ou non, dans le fonctionnement des groupes virtuels, et plus généralement du management en réseau, est déterminant en tant que condition nécessaire : sans technologies, impossible  de communiquer à distance, donc pas de groupes virtuels ni de management  en réseau. Mais ces technologies ne sont cependant pas une condition suffisante car, comme je le soulignais dans la réponse précédente, elles ne sont pas socialement neutres : il faut d’abord créer les conditions organisationnelles et humaines du développement des groupes virtuels et du management en réseau.

 

Pour résumer, d’après vous, quels sont les avantages des technologies mobiles ? Pour le salarié ? Pour l’entreprise ?

Le premier avantage, pour le salarié, mis en avant dans le livre concerne l’optimisation et les gains de temps, avec une rentabilisation de temps auparavant considérés comme « morts », tels que les temps d’attente dans les salles d’embarquement des aéroports. Un deuxième aspect positif que perçoivent les individus est celui d’une meilleure maîtrise de l’organisation de leur travail en développant leur autonomie et de la flexibilité par rapport aux exigences de leur activité professionnelle. Plus généralement, l’efficacité personnelle s’améliore, avec le sentiment d’en faire plus sans pour autant un accroissement des moyens. Une autre conséquence très positive liée au développement de ces technologies mobiles est, pour les individus, la possibilité de joindre leurs partenaires, particulièrement les clients, et d’être joints eux-mêmes n’importe où et n’importe quand, ce qui leur permet, soulignent-ils, de renforcer considérablement leur réactivité. Enfin, et ce n’est pas le moindre avantage, les personnes interrogées mettent l’accent sur le développement de leurs compétences et plus généralement de leur professionnalisme : ainsi, les vendeurs voient leur rôle renforcé face à leurs clients lorsqu’ils sont capables de répondre sur le champ à des demandes complexes, faisant appel à des informations auxquelles ils peuvent accéder par l’intermédiaire des outils nomades.

Enfin je voudrais terminer, si vous me le  permettez, avec un inventaire des risques également, pour le salarié, que j’ai déjà évoqués, pour certains,  dans les réponses précédentes mais qui sont analysés plus longuement dans le chapitre six du livre : pour les individus, en effet,  les risques ne sont pas non plus négligeables dans la mesure où l’usage des technologies mobiles est susceptible de transformer le contenu et l’exercice d’un grand nombre de métiers, comme celui de vendeur de terrain évoqué plus haut. Le premier risque pour les individus est celui d’une rupture de plus en plus nette des frontières entre travail et non-travail, avec un débordement grandissant du premier sur le second. Le second risque est le développement d’une culture de plus en plus marquée par l’instantanéité avec, comme corollaire, une augmentation du stress entraînant de possibles effets négatifs sur la performance de l’organisation. Le troisième risque est celui de la surcharge informationnelle pour les individus eux-mêmes, avec une augmentation du niveau de stress en raison de l’excès d’informations qu’ils reçoivent et qu’ils ont à traiter. Le quatrième risque est celui du contrôle systématique des activités, vécu comme une perte progressive de l’autonomie, en raison notamment des capacités nouvelles de mesure des activités et surtout de traçabilité offertes par les outils mobiles. Le dernier risque, pour les individus, est celui de l’ergonomie inadaptée de certains outils mobiles, dont notamment le poids et les modalités d’utilisation font l’objet de critiques de la part des utilisateurs.

CH Besseyre des Horts, PhD
Chair Professor HEC-Toshiba « Mobilité & Organisation »
Scientific Director  MS HEC Management Stratégique des RH

 

Philippe Axel : La Révolution Musicale

26b191c291463cfce8214ec51b0b3d8d.jpgLa Révolution Musicale
Liberté, égalité, gratuité

par Philippe Axel, auteur et musicien

Editions Pearson, Village Mondial

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

 « La musique est au coeur de toutes les révolutions. C’est par elle que tout commence.» a déclaré Jacques Attali dans votre préface.
C’est par la musique, que commence la révolution qui se joue aujourd’hui avec Internet ?

Oui, en effet, Jacques Attali, qui a eu la gentillesse d’écrire la préface de mon livre, n’arrive pas comme un cheveu sur la soupe sur cette question. Il y travaille depuis la fin des années 70 et la parution d’un livre référence sur le sujet : Bruits. Dans ce livre, remis à jour régulièrement  depuis,  il explique en effet pourquoi la musique a toujours été à l’avant-garde des grandes révolutions économiques et politiques. Il prévoyait l’avènement des objets nomades et puis surtout, il expliquait déjà magnifiquement pourquoi la musique échappe aux règles de l’économie classique car elle détient des valeurs autres qu’économiques.

Pour moi la révolution qui s’annonce par la question des échanges de musique sur Internet, est double : Une révolution économique et une révolution politique. La révolution économique passera par la gratuité de tous les fichiers numériques, et cela touchera donc tous les modèles économiques actuels des productions culturelles, informatiques, du jeu vidéo etc. La révolution politique passera par la construction, par Internet, d’une démocratie internationale. Cela commencera par la constitution d’une identité collective mondiale, et ensuite cela se concrétisera par de nouvelles formes de démocratie directe ; par ceux que Michel Serres appellent : les citoiliens (ceux qui voteront par la toile). Pour cela, il faudra que les symboles culturels puissent s’échanger librement, et donc en premier lieu, la musique. Et il faudra des logiciels libres et ouverts pour contrôler les suffrages.

Vous faites une analyse très approfondie des techniques marketings mises en œuvre par les industriels du disque pour vendre la musique ; ces techniques sont tellement poussées que l’on ne sait plus en réalité si on achète l’oeuvre d’un artiste ou celle d’un expert en marketing ; comment en est-on arrivé là ?

A force de tout vouloir rationaliser pour des objectifs économiques. Il n’y a pas de question de morale là dedans. Des gens sont payés pour faire de l’argent avec de la musique, à très court terme, ils sont tentés d’utiliser pour cela des ficelles marketing extrêmes, qui vont jusqu’au conditionnement. Nous avons peur à juste titre d’une dictature culturelle de l’état, mais nous sommes assez proche d’une dictature du marketing. Moi-même, je suis conditionné. Je fais parti des ces « foules artificielles » que l’on crée par la télévision et par la radio, par ce que l’on appelle : les partenariats croisés [NDLR : Ex, en 2003, la première version de la Star Academy bénéficie du partenariat croisé TF1, Universal, NRJ]. Se battre contre cela c’est une « écologie de l’esprit » comme le souligne très justement Bernard Stiegler par exemple. Et le pire c’est que cela vise nos enfants qui perdent leur libre arbitre et qui sont ciblés comme des lapins.

D’après vous ce ne sont pas les artistes qui perdent le plus au téléchargement gratuit sur internet mais essentiellement les majors du disque ; pouvez-vous dire pourquoi ?

Nous sortons d’une ère de gestion de la rareté pour entrer dans une ère de gestion de l’abondance musicale. Pour un artiste désormais, il faudra d’abord gagner de l’attention dans la masse des œuvres produites, et la seule manière ce sera la gratuité de l’écoute. Songez qu’il y a 50 millions de pianistes en Chine, plus proche de nous, il y a quand même 130 000 auteurs répertoriés à la SACEM en France. Si l’on veut que subsiste un professionnalisme musical, il faudra ensuite opérer une sélection des meilleurs comme dans le sport ou dans l’artisanat et braquer les projecteurs sur eux pour leur permettre de gagner de l’argent. Les maisons de disques vont perdre leur pouvoir de sélection au profit des musiciens eux-mêmes et des internautes. Elles deviendront probablement des « maisons de musique » se mettant au service des meilleurs pour les aider à gérer le business des produits dérivés, éditions et autres tournées. C’est très bien parce que les maisons de disques étaient  devenues arrogantes, jusqu’à vouloir créer elles-mêmes des chanteurs in-vitro, cela va les replacer dans une logique de service. Elles vont se replacer sur le parvis du temple et sortir de l’intérieur pour reprendre une métaphore biblique.

Ces mêmes maisons de disques font valoir que la musique marketing a toujours existé et que grâce à cela, il est possible de financer la qualité. Vous n’êtes pas d’accord …

C’est le colonel Parker qui a expérimenté le marketing sur Elvis Presley et donc, ce n’est pas nouveau. Je ne suis pas d’accord avec la logique qui consiste à attribuer tous les moyens à de la faible qualité ultra-médiatique, dans l’objectif, soi-disant, de financer de la grande qualité confidentielle. C’est une logique porteuse à court terme, mais désastreuse à long terme. A force de tirer sur la libido du consommateur, on la ruine. Il vaut mieux lui prendre la main et le tirer vers le haut, ensuite il devient passionné et collectionneur d’objets dérivés. Il y a deux options du marketing qui s’affrontent là.

Comment définir en fait la musique et la culture au sens large ; doit-on les considérer comme des biens comme les autres ?

Je suis allé au fond des choses, par moment ce n’est pas mal de regarder un dictionnaire et de lire, par exemple, la définition du mot « culture ». Il n’y a aucune référence au marché, au commerce, dans cette définition aussi bien lexicale, qu’étymologique. La culture, cela vient du mot « culte ». il y a des cultes religieux, mais aussi laïques et athéistes. Ce sont des échanges symboliques dans des cadres rituels. La chanson est un cadre rituel. Le but de tout cela est de créer des identités collectives, des « nous ». Nous sommes français, parce que nous avons Trenet et Barbara en commun par exemple. Donc, il faut bien faire la distinction entre la culture, dont le but final est sans doute la paix, et les produits et services dérivés culturels. De fait, le ministère de la culture devrait tirer vers la gratuité et le ministère de l’industrie vers le payant.

La question du modèle économique doit quand même se poser à un moment ; comment financer la musique : par le marché, la collectivité ?

La gratuité n’est pas un problème pour la culture, au contraire, mais c’est un problème pour les productions culturelles ambitieuses où tout le monde est payé. On nous dit, soit c’est le marché, soit c’est l’état stalinien ! Ben voyons ! Et l’équilibre alors ? Ce n’est pas possible l’équilibre, la mixité des financements ? Devons-nous choisir entre un conditionnement marketing et un conditionnement de l’état ? Je pense qu’il faut l’équilibre. Il faut le marché, et il fau
t le collectif. L’un alimente l’autre d’ailleurs. Ils ne s’opposent pas. Pour moi le modèle de demain sur Internet, s’inspirera fortement de ce que l’on appelle les Creative Commons Non Commercial. C’est-à-dire la gratuité des échanges et du partage dans le cadre non lucratif, et la perception des droits dans les usages lucratifs. D’ailleurs c’est totalement dans l’esprit des combats de Beaumarchais et de Victor Hugo notamment.

Vous donnez dans votre livre, d’ailleurs, de nombreuses pistes de business models innovants ; pouvez-vous nous en dire quelques mots ?

Dans la musique par exemple, le système de financement de la production est basé essentiellement sur la vente d’un objet dérivé : le CD. Cet objet n’apporte plus de valeur ajoutée à ce que l’on trouve gratuitement sur Internet. Donc il faut le remplacer. Deux pistes pour lui redonner de la valeur : l’interactivité et une connexion directe au spectacle vivant. C’est pourquoi j’appelle son successeur : le CD Musical Interactif.
Ensuite, il faudra appliquer des licences légales (et non pas une licence globale), sur toutes les sociétés qui réalisent des bénéfices commerciaux par l’utilisation des œuvres, au-delà d’un seuil de bénéfice définis par la loi.
Et puis, je propose aussi dans mon livre la création d’une redevance modique sur l’abonnement Internet, payée cette fois-ci par l’internaute, et permettant, un peu à la manière du minitel, de financer des contenus agréés par d’autres voies que la Pub. Parce que je pense que la pub a ses limites dans le financement des contenus. Et qu’il faudra rechercher un équilibre entre marché et collectif.
Enfin, je pense qu’il n’y aura d’économie de la musique demain, que s’il y a des sélections.  Je ne dis pas qu’il faut exclure des musiques. Tout le monde peut s’exprimer sur la toile, c’est génial, c’est acquis. Mais si l’on veut qu’il reste des pros, alors il faudra labéliser, il faudra adouber les meilleurs, par des procédés démocratiques. Les mêmes qui serviront plus tard à bâtir une gouvernance mondiale.
Philippe Axel, auteur et musicien
http://www.philaxel.com/

 

Tic et Organisation

6dab2b3f758f14ed6743761bf9059570.jpgTIC & ORGANISATIONS
Structure des firmes
Revue Française de Gestion N° 172
Dirigée par Pierre-Jean Benghozi, CNRS Ecole Polytechnique
Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Vous écrivez « Les technologies de l’écrit électronique induisent plus de contraintes qu’on pourrait le penser ». Qu’entendez-vous par là ? Quelles sont les tensions à priori repérables ?
 
Les NTIC sont le plus souvent présentées comme un facteur de flexibilité et de coopération. Pourtant l’observation des entreprises montre que les applications des NTIC sont marquées par la coexistence entre un renforcement de la souplesse et une rigidité renouvelée. Les deux orientations coexistent : les entreprises les plus décentralisées éprouvent le besoin de garder une vision uniforme des informations ou des activités en concevant des applications au niveau central, de façon directive et très rigide. Al’inverse, les organisations qui conçoivent leur gestion de la façon la plus hiérarchisée ou centralisée utilisent souvent les NTIC pour recréer des espaces d’autonomie dans des fonctionnements très rigides.
 
Cette dualité (plus d’adaptabilité dans un contexte plus centralisé) se retrouve dans des applications techniques et des stratégies organisationnelles diversifiés (workflow, ERP, Intranet). Plusieurs raisons expliquent le phénomène. Les technologies s’organisent et s’entrelacent en « système » autour des postes de travail et dans des systèmes d’information et de communication ; il est dès lors difficile de les isoler les unes des autres dans leur mise en œuvre et leur utilisation. En outre, et c’est sans doute une des sources de tension majeure, ces technologies sont tantôt envisagées dans une perspective individuelle, comme un ensemble d’outils – que l’on peut choisir ou non d’utiliser, qui se manipulent –, soit dans une perspective collective, comme un système qui met en relation les membres d’un collectif de travail et structure directement ou indirectement leur activité commune. Dans ce deuxième cas, les TIC s’apparent à une machine de gestion qui appelle les contributions coordonnées de plusieurs personnes pour être alimentées en données et flux d’informations et pour être utilisées dans le cadre de processus prédéfinis. Elles contraignent dès lors fortement les participants, ne leur laissant pas le choix d’utiliser ou non telle ou telle procédure ou protocole. Ce qui constitue un “outil” pour les uns (les utilisateurs) est souvent un “moyen” pour les autres (les responsables hiérarchiques) : or on peut se servir d’un outil “ comme l’on veut ”, un moyen est, par contre, “ imposé du dehors ”.

Alors que la flexibilité des outils se conjugue à la multiplicité des acteurs et situations d’utilisation pour créer de fortes capacités d’appropriation et d’apprentissage dans l’exploration de nouveaux usages, le développement des outils apparait aussi pour beaucoup d’utilisateurs comme une charge de travail supplémentaire par rapport au travail de production, qui constitue, à leurs yeux, le coeur de leur activité. Les tâches correspondants à l’utilisation des TIC (rédaction et édition de documents, traitement des mails…) sont vécues comme des activités supplémentaires qui se surajoutent au reste. Sans même évoquer la question des réductions d’effectifs qui accompagnent souvent le déploiement d’applications informatisées et la prise en charge directe, par les utilisateurs, de tâches relevant autrefois de personnels ou services fonctionnels dédiés.
 
Concrètement, comment ressent-on dans l’entreprise les effets de ce dilemme entre d’une part l’impératif productif et d’autre part l’impératif créatif ?
 
Concrètement, les impératifs de création et de production s’organisent autour de plusieurs configurations, reflétant des projets d’organisation plus ou moins explicites. Les TIC peuvent être d’abord employées comme outils transversaux de partage d’informations, de comparaison et de constitution d’une vision commune de l’action. A ce titre elles relèvent d’un élément d’échange de connaissances permettant de stimuler des créations et innovations locales (par imitation ou transfert d’expérience par exemple).
 Les TIC constituent ensuite un moyen de rassembler sur un poste de travail un éventail large de fonctions et d’applications, dans une situation où un utilisateur, seul à son poste de travail est en fait reliée à des centres de ressources démultipliés et à tout un réseau d’autres personnes possédant des ressources analogues. L’ensemble constitué par l’agent, les TIC et leurs interface représente, dans cette perspective un centre nerveux et de conception doté de pouvoirs et ressources diversifiés.
Enfin, les TIC contribuent à structurer et consolider la conception collective dans le cadre de “ communautés de pratique ”.  Ce modèle est sans doute le plus connu car il a été fortement médiatisé après le succès spectaculaire des applications Open Source et des wikis.
 
Un exemple d’application particulièrement sensible est celui du secteur de la santé. Les Tic sont-elles ici envisagées plutôt comme étant au service de l’efficacité individuelle ou bien au service de la performance collective ?
 
Le secteur de la santé est effectivement symptomatique de cette tension entre développement d’une approche des technologies à la fois collective, dans l’optimisation du système de soin et individuelle (améliorer le travail en situation des personnels de santé) : les deux perspectives sont également portées par le souci d’améliorer la qualité des soins et par celui de rationaliser les dépenses.

Cette dualité s’observe à plusieurs niveaux très différents. On peut évoquer le problème de la saisie des données, de leurs liens avec l’activité et de leurs échanges au sein des réseaux de soin. La question est assez classique en reporting et en contrôle de gestion mais elle ouvre, dans la santé, sur le problème très sensible des tableaux de bord, de l’intégration des données de suivi des soins / facturation des activités, gestion des remboursements / gestion globale de l’hôpital. Cette question du « reporting » est importante car elle touche plusieurs questions différentes de l’organisation des soins : les modalités de codification et de saisie en continu lors des traitements, la standardisation techniques des applications et des interfaces entre les différents partenaires des réseaux de soins (hôpital, médecins de ville, caisses de sécurité sociale…)., la conception des applications et des outils, à la fois outils de gestion et outils d’aide à la pratique pour les utilisateurs (auto-évaluation…), la confidentialité, la maîtrise et la propriété des données de santé, la capacité de maîtriser un savoir médical et des informations surabondantes et enfin, la question même de la possibilité de réussir à dégager des sommes importantes pour l’informatisation de la santé au moment où  le système de santé est déficitaire.
 
Vous citez Boltanski et Chiapello dans  » Le nouvel esprit du capitalisme » et évoquez le danger d’une nouvelle idéologie du Management à travers des mots comme autonomie, flexibilité, adaptabilité, qui d’après vous, peuvent se révéler dangereux et imposer de nouvelles formes de contrôle à distance. Pourtant, ces attitudes de flexibilité et d

WEB 2.0 LES INTERNAUTES AU POUVOIR

medium_couvweb20.jpgWeb 2.0 Les internautes au pouvoir

Blogs, Réseaux Sociaux, Partages de vidéos, Mashups, …

Jean-François Gervais,

Responsable de la filière Multimédia à la Direction de la Formation de l’INA

Interview Catherine Fournier-Montgieux, CFM Conseil pour Nextmodernity

Le succès des  sites où l’internaute partage ses centres d’intérêts avec d’autres (blogs, communautées en ligne,  .. ) montre un véritable attrait du grand public pour ce que l’on appelle aujourd’hui le phénomène Web 2.0 .  A votre avis, pourquoi un tel succès ?

Il semble toujours facile à posteriori d’analyser le succès, mais dans le cas du web 2.0, le phénomène est trop récent pour mettre en avant une hypothèse plutôt qu’une autre.
Les facteurs clés de succès s’articulent sans doute autour de deux axes, une avancée technologique et de nouveaux usages.
Les technologies du web 2.0 (xml, ajax, flash vidéo) ne sont pas si récentes, c’est leur mise en commun  qui crée la valeur ajoutée.
La seule nouveauté c’est la simplicité qui distingue les applications web 2.0.
Nul besoin d’être féru d’informatique ; là où il y a encore cinq ans il fallait apprendre le html pour publier une page sur le web ; aujourd’hui l’utilisation d’un blog est intuitive.
Ce qui est vrai pour le texte l’est aussi pour l’image. C’est une banalité de le rappeler  mais nous sommes rentrés dans une civilisation de l’image où celle-ci est omniprésente.
Mais jusqu’à présent sa production était limitée aux professionnels. Avec le numérique  la possibilité est offerte à chacun de créer des images dans un contexte économique très favorable.  La croissante ininterrompue  des  ventes d’appareils photo numériques, de caméscopes et la mutation du téléphone en « photo-vidéo-phone » nous le confirme.
Le chaînon manquant, c’était la diffusion de ces images.
Les services de partage de vidéos, tels YouTube ou Dailymotion, se sont imposés comme des canaux de diffusions crédibles et comme une alternative potentielle aux médias audiovisuels classiques. C’est la continuité logique des sites de partages photos comme Flickr, moins médiatisé mais pionner des services web 2.0.
La simplicité d’usage est là aussi au rendez vous, en quelques clics vos photos et vidéos sont en ligne.
La seconde composante du succès ce sont les usages. Ce point semble jusqu’à présent sous-estimé dans les différentes réflexions sur le « pourquoi du comment » du succès de tel ou tel service.
Le succès des sites communautaires repose à la fois sur la mise à disposition des médias personnels et sur la dimension partage de ces derniers.
Un groupe de musiciens qui utilise Myspace, pour se faire connaître utilise la plate-forme à la fois pour diffuser ses morceaux en mp3 et pour promouvoir ses concerts. Le succès de YouTube ou Dailymotion repose lui aussi sur le partage. Vous avez trouvé une vidéo qui vous plait vous pouvez la publier sur votre blog où l’envoyer facilement à un ami. Si l’on poursuit le raisonnement jusqu’au bout, nous serions tenter d’oser dire que la dimension « communauté » l’emporte sur le contenu même des sites (vidéos, photos ou texte).
Une des meilleures vidéos qui expliquent le web 2.0 est d’ailleurs l’œuvre d’un professeur d’ethnologie de l’Université du Texas, Michael Mesh. Celui-ci a mené une enquête chez les utilisateurs de YouTube à l’issue de laquelle il ressort que c’est la dimension partage qui est plébiscitée devant les autres fonctionnalités.
Les raisons du succès sont à chercher dans ces modifications sociétales.
Qui pouvait prévoir il y a cinq ans le succès des téléphones portables et des nouveaux services comme le sms.  A vrai dire personne, ce sont les utilisateurs, par leurs usages qui adhèrent ou non aux nouveaux services pour en faire des succès ou des échecs. L’internaute est aujourd’hui au centre des services, c’est une des nouvelle donne de l’économie de l’immatérielle dont les acteurs doivent prendre conscience au risque de passer à coté de cette (r)évolution.

 

Comprendre les cartes, c’est voir le monde autrement. Le Web 2.0, c’est aussi une information géographique partagée par tous, dans un espace étendu véritablement à l’échelle de la planète ; Quels sont les apports des systèmes de localisation par satellite (GPS), et plus généralement des Systèmes d’information géographiques (SIG) dans cette évolution ?

Nous n’avons sans doute pas encore pris conscience de l’impact d’applications comme Google Earth où le Géoportail de l’IGN. C’est une des raisons pour lesquelles dans mon livre, le premier chapitre leur est consacré. La première révolution c’est la mise à disposition du grand public, d’outils dont seuls les géographes et les militaires disposaient auparavant.
Avec une touche d’humour, il est possible de dire que la planète terre est un des rare dénominateurs communs à tous ses habitants ont en commun, c’est universel. Les interfaces des SIG (Systèmes d’Information Géographiques) s’appuient d’ailleurs sur le concept de « géographie naïve », nous avons tous conscience de notre environnement géographique et de la manière de si déplacer.
Un autre aspect est d’associer à la géographie des données scientifiques (comme la météo), ou bien économiques et culturelles. Avec ses outils de SIG c’est la terre qui devient le browser !
Certaines données peuvent s’afficher en temps réel : suivre la dérive des glaciers ou découvrir l’épicentre des derniers séismes n’est plus réservé aux seuls scientifiques.
La prise de conscience actuelle sur les enjeux écologiques des années à venir profite aux Google Earth et consorts. Apprécier visuellement les dégâts écologiques vaut tous les discours, le film d’Al Gore « Une vérité qui dérange » s’appuie en partie sur des animations réalisés avec Google Earth.
Une autre raison du succès, ce sont les mashups. Créer des géobiographies, inclure des modélisations en 3D de monuments historiques sont à la portée de tous.
Pour être complet il faut inclure dans la géolocalisation, le succès de vente des GPS et anticiper celui des téléphones portables comme l’Iphone d’Apple qui « embarqueront » Google Maps d’origine.

 

Pouvez-vous expliquer plus précisément le terme « mashup » et préciser le rôle des mashup dans le développement du web 2.0 ?

Mashup en anglais cela signifie mixer des éléments (en anglais la recette de la purée c’est le « mashed potatoes »).
Sans trop rentrer dans des détails techniques, les mashups ce sont de nouvelles applications créées en associant une ou plusieurs autres applications déjà existantes.

Un exemple très simple, vous mixez une application de géolocalisation (par ex Google Maps) avec une liste d’hôtels. Chacun des hôtels apparaît désormais sous la forme de « punaises » sur la carte. Pour chaque hôtel vous proposez une visite en vidéo .Dernière étape, sur
chacun d’entre eux, vous associez les commen
taires des voyageurs issus d’un autre site de référence sur le voyage comme tripadvisor, et vous obtenez www.trivop.com
Vous pouvez aussi ajouter les entrées wikipedia correspondantes à chaque lieu, les possibilités sont infinies…

Si les mashups existent c’est grâce à l’attitude d’ouverture des différents services web 2.0 qui autorisent l’interconnexion entre eux.
Les internautes curieux de découvrir les mashups peuvent consulter « programmable web » où plus de 2000 d’entre elles sont répertoriées. Les grands noms du logiciel comme Microsoft ou Adobe travaillent sur des environnements, ou demain chacun pourra développer ses propres mashups très facilement.

 

A votre avis, doit-on envisager le web 2.0 comme une zone de super liberté ou bien aussi, revers de la médaille, comme un espace potentiel de « fichage » des internautes ?

La menace d’un Big Brother est celle qui vient à l’esprit lorsque l’on balaie tout le potentiel du web 2.0, notamment lorsque l’on parle de géolocalisation. Des services (payants) existent déjà pour localiser le propriétaire d’un téléphone portable.
Il faut distinguer les données personnelles, qui incluent à la fois « ce que je dis ou fait « sur le web; mes commentaires sur un site marchand ou mon blog; mais aussi « ce que l’on dit sur moi ».
Certains experts du web n’hésitent pas à parler d’identité numérique.
Un exemple concret est la mise en garde des universités américaines envers leurs étudiants par rapport à leurs comportements sur les réseaux sociaux comme Myspace ou Facebook.
Nombreux sont les étudiants qui publient des photos de soirées parfois arrosées. Que penserons leurs futurs employeurs, qui auront « googlelisé » leurs noms et découvriront ces photos dans deux ans à la fin de leurs études et dont les auteurs auront oublié l’existence !

La validité des données est aussi l’objet de débat, faut-il dévoiler l’identité des contributeurs de Wikipédia et mettre en place des circuits de validation identiques à ceux du monde universitaire pour assurer une meilleure véracité des propos ?
Enfin il ne fait pas oublier que nous sommes nous aussi des Big Brother en puissance, témoins potentiels d’évènements nous pouvons le capturer avec nos téléphones portables et le relayer sur le web, en mettant, en avant, parfois sans nous en rendre compte, l’identité d’autrui.

 

A propos de l’auteur

Jean-François Gervais est Doctorant en médias numériques à la Sorbonne et titulaire d’un DEA en multimédia. Il est responsable de la filière Multimédia à la Direction de la Formation de l’INA (Institut National de l’Audiovisuel). Il scrute le Web depuis 1994. Il est également coauteur avec Jean-Nöel Gouyet du livre » Gestion des médias numériques » (Dunod, 2006)
Son blog : http://www.web2-lelivre.com

Paranofictions, Traité de savoir vivre pour une époque de science-fiction

 medium_get_photo.jpg

Paranofictions

Traité de savoir vivre pour une époque de science-fiction
Ariel Kyrou

Interview en forme de conversation entre deux amis qui explore depuis toujours les nouveaux territoires de la connaissance et des technologies, Ariel Kyrou qui vient de publier , Paranofictions, Traité de savoir vivre pour une époque de science-fiction, Climats (2007) et Richard Collin, Directeur associé de Nextmodernirty.

Richard Collin : Paranofictions se veut un « traité de savoir-vivre pour une époque de science-fiction », un traité pour un temps où, selon vous, les frontières entre le réel et le virtuel, la réalité et la fiction tendent à se fondre… Pourquoi donc avoir écrit ce livre ?
Ariel Kyrou : Trop souvent, nous analysons le monde selon des catégories classiques sans chercher à les réactualiser. Or, telles quelles, ces catégories fonctionnent de moins en moins bien. L’idée d’une réalité objective, clairement séparée des fictions qui naissent de notre imaginaire, me semble tout particulièrement dépassée. Plus encore qu’un roman, qu’un film ou qu’une œuvre d’art, les jeux vidéo et surtout les mondes virtuels au sein desquels nous passons de plus en plus de temps ne sont pas de purs fantasmes. Ce sont des peurs et des rêves qui se concrétisent au cœur même de notre réel. Au sens littéral, ils prennent forme, même si cette forme est de nature numérique. L’immatériel de nos pensées devient visible au travers de nos écrans. Avec un ordinateur ou pour être plus futuriste des capteurs en tous genres, l’humain agit directement sur ces matérialisations de nos fantasmes. Il vit non seulement avec, mais au dedans même de ces nouveaux territoires nés de nos cerveaux, à la façon des internautes qui peuplent Second Life de leurs avatars. Plus largement, à l’ère des médias, ladite réalité n’a jamais été autant qu’aujourd’hui pénétrée, imbibée, perfusée de fictions. L’exemple est bien connu, mais je reste sidéré par l’idée que l’État le plus peuplé des USA, la Californie, est gouverné par Terminator, ou si vous préférez par le héros du film Total Recall… et que Schwarzenegger a été élu, justement, par une procédure qu’on appelle le « recall », c’est-à-dire la destitution du précédent gouverneur… Sur un autre registre, la technoscience a désormais le pouvoir de créer des chimères, des hybrides hommes machines par exemple, qui n’auraient pu exister il y a des siècles que sous la forme de mythes. Pour toutes ces raisons et bien d’autres, il me semble urgent de repenser notre vision de la réalité. Sauf à perdre l’esprit, il nous faut réinventer des repères à la place de nos anciennes références collectives, désormais caduques. Nous devons façonner les bouées intellectuelles qui vont nous permettre de nous y retrouver dans ce nouvel océan de données, de personnages fictionnels et d’objets fantasmatiques.


Mais pourquoi ce terme, « Traité de savoir vivre », pour un livre qui navigue entre l’essai philosophique et le récit personnel, voire parfois le pamphlet ?

D’abord, l’expression est un clin d’œil à l’ancien Situationniste Raoul Vaneigem et à son Traité de savoir-vivre à l’usage des jeunes générations de 1967. D’où, sans doute, la manière dont parfois je m’enflamme, sans masquer mes sentiments. Ensuite, je crois à la valeur d’une philosophie en actes, s’incarnant dans des choix de vie. Vous l’aurez peut-être remarqué : je n’ai pas mis de trait d’union entre « savoir » et « vivre ». Enfin, vous avez raison : je réfléchis à partir de mes propres références, de mon histoire, de mes désespoirs et coups de gueule. Acteur des médias depuis plus de vingt ans, et du Net depuis plus de dix ans comme vous le savez, j’espère que bien des internautes, et pas seulement les gens connectés, se retrouveront peu ou prou dans mes interrogations, mes analyses mais aussi mes colères et mes espoirs.


Vous illustrez votre vision par des histoires et anecdotes très révélatrices de la puissance des médias, de la publicité, mais aussi des univers qui naissent des nouvelles technologies. Sous ce regard, Paranofictions est une fresque parfois effrayante de la paranoïa et plus encore des « crevasses schizophréniques » où nous risquons sans  cesse de tomber. N’y a-t-il pas chez vous la recherche presque désespérée d’une vérité adaptée à cette nouvelle donne ?

Bernard Stiegler, dans l’un de ses livres, explique que la montée en puissance de la technoscience suppose désormais de savoir « distinguer les bonnes et les mauvaises fictions, et d’apprendre à penser une vérité qui ne serait pas l’opposé de la fiction, mais composée de fictions. » Ce propos lumineux, non seulement je l’adopte, mais j’en élargis le champ à toute notre vie urbaine… et connectée ! Sans tomber dans la leçon de morale, je suis persuadé qu’il existe de bonnes fictions, qui laissent la liberté, favorisent l’ouverture et l’interprétation, et de mauvaises fictions, univoques même quand elles se prétendent interactives, qui ne laissent aucun choix, emprisonnent, appauvrissent l’esprit. Nous avons besoin de mots, de sons ou d’images d’hier, d’aujourd’hui et de demain contre la misère spirituelle des fictions imposées, notamment par la télévision. C’est tout l’enjeu d’œuvres d’artistes du numérique comme Kolkoz ou Ultralab, et c’est aussi pourquoi j’aime à relire les livres et nouvelles visionnaires de grands de la science-fiction comme J.G. Ballard ou Philip K. Dick. Il y a des œuvres qui, par leur lucidité parfois jubilatoire, libèrent de la Machine à décerveler et à atrophier nos affects. Qu’elles s’incarnent dans des livres, des blogs ou des expositions d’art contemporain, ce sont des fictions consistantes, souvent nourries de vies bien réelles,. Sous ce regard, et c’est là où je rejoins la notion de vérité à laquelle vous faites allusion, toutes les fictions ne se valent pas. Si la croyance en une unique Vérité avec un grand V aboutit à différentes formes de totalitarisme politique, religieux ou même culturel, le relativisme absolu est le degré zéro de la pensée. Je suis né sous le signe de ce relativisme-là, et j’essaye de m’en échapper pour trouver une vérité qui ne puisse être réduite au dogme de quelque ayatollah.


Sur le versant philosophique, vous citez non seulement Stiegler, mais aussi Virilio ou Baudrillard, qui sont comme le pendant « réel » des auteurs de science-fiction dont les romans ou nouvelles vous servent à éclairer notre présent… Pourquoi cette double présence ?

Quelqu’un comme Jean Baudrillard, dont le décès le 6 mars dernier m’a beaucoup touché, a toujours assumé l’influence de Dick ou de Ballard, notamment dans son œuvre prémonitoire de 1981 : Simulacres et simulation. Il y a quelque chose de l’ordre de la littérature d’anticipation dans ses textes comme dans ceux de Paul Virilio. Car ils extrapolent à partir de ce qu’ils voient et entendent… Ils exagèrent tout comme George Orwell, Aldous Huxley, William Gibson, Philip K. Dick ou J.G. Ballard
ont toujours utilisé le ressort de l’exagération pour dessiner à partir de leur réalité telle ou telle vision d’un futur plus proche qu’on ne l’imagine. Tandis que ces penseurs auscultent un réel devenu selon leurs lubies une sorte de science-fiction, les auteurs de science-fiction se coltinent le réel pour mieux anticiper le futur qu’ils mettent en scène. Et au final, tous nous parlent de notre présent et de notre avenir immédiat.


Mais alors, qu’apportez-vous de plus que Virilio ou Baudrillard ?

Tous deux m’ont beaucoup apporté, mais je crois que leur message ne passe plus auprès des générations qui ont grandi avec Internet et les jeux vidéos. Aussi pertinentes et impertinentes qu’aient été leurs analyses, ils ont critiqué ce monde numérique depuis une position extérieure, comme s’il n’était constitué que d’un bloc. Comme s’il n’avait pas ses bugs ou ses pirates, capables de creuser des trous dans le mur de la « réalité intégrale ». Je crois à la nécessité d’un travail critique sur notre aujourd’hui, mais je pense qu’il nous manque pour ce faire des penseurs connaissant de l’intérieur ces univers numériques. Autrement dit : jamais Virilio ou Baudrillard ne toucheront mon fils aîné, qui passe trop de temps entre MSN et surtout World of Warcraft. Ou en tout cas, ils n’arriveront jamais à lui directement. Ce que j’ai essayé de réaliser, c’est donc une critique en empathie avec les univers de mon grand garçon, qui sont en partie également les miens. Mon espoir, c’est que de telles démarches se multiplient dans les arts, prenant acte de ces nouveaux mondes issus du numérique pour mieux en expliquer les limites, et donner envie de les détourner, d’y creuser des failles !


Certes, mais l’ambiance générale de votre ouvrage reste tout de même assez pessimiste, y compris lorsque vous affirmez de fort belle façon que, « dans les mondes virtuels, la guérilla pour le réel ne fait que commencer ». L’irréalité humaine, les machines vivantes, les apocalypses mentales, les simulacres ou les réalités inventées que vous décrivez ont de quoi inquiéter, non ?

Ce pessimisme que vous ressentez vient peut-être de l’usage que je fais des anticipations les plus paranoïaques de mes auteurs de science-fiction fétiches. Leurs fictions me permettent en effet de décrypter l’horreur d’idées comme la guerre préventive de Bush ou les dangers d’une fuite totale dans des mondes de pure virtualité. Mais il ne s’agit par pour autant de pessimisme, et bien moins encore, évidemment, d’optimisme. Pour moi qui suis né dans un environnement marqué par Dada et le surréalisme, l’idée d’une vérité qui serait composée de fictions n’a rien d’effrayant. Cela remet en cause notre appréhension classique de la réalité, certes, mais pourquoi serions-nous incapable de transformer notre appréhension de la réalité ? Pourquoi ne serait-il pas possible de réinventer une vérité sans absolutisme ? La lucidité peut être jubilatoire, à condition bien sûr qu’elle se marie à l’action créatrice. C’est tout le sens de l’expression que vous citez quant à la guérilla pour le réel dans les mondes virtuels, véritable appel au détournement et à la création de liens nouveaux entre réalité et fiction.


En conclusion, après avoir éclairé d’un coté « la nouvelle religion de l’information et des flux numériques » et de l’autre « le réveil du crétinisme religieux sous ses formes les plus absolutistes », vous donnez quelques pistes pour avancer dans ce monde « où l’on navigue au risque de la folie afin de se vacciner, de s’immuniser contre le grand nihil planétaire ». Quelles sont ces voies d’espoir ?

Elles vivent d’abord dans la façon dont des artistes et performeurs réussissent aujourd’hui à retourner la réalité vérolée que nous imposent les pouvoirs ou la « bien pensance ». Je pense par exemple aux impostures des Yes Men, ou encore à des œuvres d’artistes vidéo peu connus comme Mounir Fatmi, qui, dans un film comme Dieu me pardonne, rejette les deux pestes de l’imaginaire que vous décrivez, à savoir la machine à décerveler occidentale et son pendant religieux tel qu’il se réveille du côté de l’Orient… Car, au-delà du rejet, se dessine là les contours d’une spiritualité, d’une intelligence nouvelle, enfin débarrassées des oukases du marché dévorant comme des institutions fatiguées. Autre chemin, que j’ai développé dans mon ouvrage sur l’histoire des musiques électroniques, Techno Rebelle : l’apparition d’une nouvelle éthique du détournement et du travail collectif, avec les démarches du logiciel libre et des licences de propriété intellectuelle comme Creative Commons ou Copyleft. J’y reviendrai dans un prochain livre. Ce ne sont pour l’instant que des démarches isolées, mais j’espère qu’elles vont maintenant se consolider les unes les autres. Elles ouvrent un autre champ de possibilités, qu’il nous appartient de saisir, à nous qui sauront nous débarrasser de notre peau de « consommateur » pour devenir ou redevenir de vrais amateurs au sens d’aimer. Toute l’œuvre de Philip K. Dick tourne autour de ça : pour résister à notre devenir machine, il n’y a que l’amour, l’empathie… y compris vis-à-vis de nos machines les plus inutiles, qui sont tout de même bien plus extraordinaires que nos trop rentables mécaniques, non ?

 


Ariel Kyrou, Paranofictions, Traité de savoir vivre pour une époque de science-fiction, Climats (2007). Ariel Kyrou est selon les moments professeur d’histoire critique des cultures actuelles, arts et nouvelles technologies, conseiller à la rédaction du mensuel Chronic’art ou directeur associé de l’entreprise qu’il a montée en 1987 avec Henry-Hubert Godfroy et qui lui a permis de créer dès 1995 quelques-uns des premiers sites Web culturels en France (notamment le Virgin Megaweb) : Moderne Multimédias. Outre Paranofictions, il a écrit notamment Techno Rebelle, Un siècle de musiques électroniques  (Denoël, 2002).

Le cinquième pouvoir. Comment Internet bouleverse la politique


Présentation de l’éditeur
Les Français auraient déserté la politique. La démocratie serait en crise. Les intellectuels n’auraient plus d’impact. Le cinquième pouvoir va à l’encontre de ces idées reçues. Grâce à internet, il devient possible de faire de la politique autrement. Après la révolte citoyenne lors du référendum européen de 2005, nos personnalités politiques l’ont compris. Sans son site Désirs d’avenir, Ségolène Royal n’aurait jamais emporté les primaires socialistes en novembre 2006. Internet a joué un rôle clé dans la campagne pour la présidentielle 2007. Et ce n’est qu’un début. Après les pouvoirs exécutif, législatif, judiciaire et médiatique, les citoyens fédérés grâce aux technologies de communication récentes forment un nouveau pouvoir : le cinquième pouvoir. Alors que les pessimistes se plaignent que rien ne change, ce sont les fondements de notre société eux-mêmes qui sont réinventés, à commencer par les règles qui régissent nos démocraties.

Dédicace et extraits de la présentation par l’auteur Thierry Crouzet

Dailymotion blogged video
Bio: Auteur du « peuple des connecteurs » Thierry Crouzet est Ingénieur de formation, journaliste, ancien rédacteur en chef et fondateur des magazines PC Direct et PC Expert, il à publié d’autres ouvrages chez MicrosoftPress puis chez First. Il est également éditeur de bonWeb.com, version électronique de son « Guide des meilleurs sites Web ».


Génération Participation

medium_Generation_participation.jpg

 Thierry Maillet, M2 Editions, 2006

Denis Failly«Thierry Maillet, pourriez-vous nous dresser les contours clés de cette génération Participation (émergence, développement, devenir) ? »
 

Thierry Maillet –
« La Génération Participation est issue d’un double phénomène : un constat et un vecteur.medium_Thierry_maillet.jpg

1. Le constat est la prise en compte d’une lassitude à l’égard de la société de consommation elle-même nourrie par les phénomènes de saturation des marchés et de banalisation des produits. La société de consommation formatée depuis les années d’après-guerre et notre modèle de société apporte tout sauf l’essentiel, le bonheur comme le rappelait si bien The Economist dans son numéro double de fin d’année et justement titré : Happiness. Cet hebdomadaire, peu suspect de gauchisme énonce : « Capitalism can make a society rich and keep it free. Don’t ask it to make you happy as well ».Si le capitalisme ne peut rendre heureux alors tâchons d’y arriver par nous-même nous disent les membres de cette Génération Participation.

2. Les nouvelles technologies sont le vecteur de cette mobilisation en réseau qui viendrait conforter les hypothèses les plus rebelles des années 60/70 avec ce titre emblématique de Fred Turner, Professeur à Stanford, “From Counter-Culture to Cyber-Culture”.

3. Le développement de cette nouvelle Génération, qui est une classe  de valeurs et non pas une classe d’âge est d’autant plus important (et souhaitable) que son alternative est ce que J Attali intitule dans son dernier livre, Une brève histoire de l’avenir, l’hyperempire et que j’appelle la privatisation des flux d’information. Si ce vivre ensemble ne s’imposait pas grâce à cette heureuse combinaison des nouvelles technologies avec les attentes différenciées des populations des pays développés, la déconstruction pourrait se poursuivre et les prochains sur la liste, deviendraient les classes moyennes. Attention danger alors. »

    Denis Failly – « En terme d’impact sur les acteurs et les process du réel (citoyen, entreprises /marques, Politiques…), jusqu’où pensez-vous que cette génération peut influer ? »

    Thierry Maillet –«  La Génération Participation a vocation à prendre le pouvoir, comme sa prédécesseur de mai 68. Encore ne faudrait-il pas qu’une fois arrivée au pouvoir, son embourgeoisement ne la détourne de ses origines pour inventer un nouveau luxe par exemple.
    L’impact de cette nouvelle Génération sur la société est déjà sensible et ne fait que croître :

    • les nouvelles technologies ne sont déjà plus nouvelles mais font évidence :

    • Selon médiamétrie, 80% des 13-24 ans ont un ordinateur et 81% sont connectés à Internet. Ces générations sont également totalement à l’aise avec le téléphone portable. Plus on est jeune, plus on utilise tous les usages du mobile. Ainsi 75% des 12-24 ans, soit six sur dix, s’en servent pour prendre des photos contre un sur dix pour les plus de 40 ans». (in Zoom sur les Générations Internet/ http://www.liberation.fr/actualite/economie/227801.FR.php)

    • Les entreprises ont déjà commencé à adopter de nouvelles méthodes de travail :

      1. vis à vis de l’externe : la communication (Cadillac, Gillette), le marketing (Lego Factory, Danone, Liebig)

      2. vis à vis de l’interne : l’emploi des wikis va profondément modifier la structure des entreprises en continuant une démarche engagée avec l’introduction de l’informatique (A Toffler, Le Choc du Futur et A Touraine, La société post-industrielle) :

        1. Une récente étude de Forrester propose : Wikis Change The Meaning Of « Groupthink »

      http://www.forrester.com/Research/Document/Excerpt/0,7211,40964,00.html

    Je citerai dès lors volontiers Véronique Richebois qui dans son article des Echos, “La Génération Participation au pouvoir”, évoque une nouvelle classe dominante. http://www.lesechos.fr/info/metiers/4519069.htm

    « La limite de son influence réside dans le maintien des équilibres actuels. Si la paix et la prospérité restent assurées aux classes moyennes des pays développés, la Génération Participation prendra effectivement le pouvoir.
    A défaut et j’y reviens, un risque de délitement n’est pas impossible et la question sera de savoir si la Génération Participation a suffisamment conscience de sa dominance pour refuser cet éclatement des classes moyennes et la privatisation des flux.
    Un excellent exemple est l’éventualité d’une privatisation/nationalisation d’internet à laquelle il faut opposer l’intérêt général. »


    Denis Failly – « Si le Web 2.0 , est un terrain privilégié d’observation et d’action de cette Génération P il existe probablement un point de bascule où les comportements, les démarches, l’état d’esprit… impulsée sur la toile tels des « Mêmes » impactent sur la vie réelle tel une vie 2.0 en quelque sorte. »
     
    Thierry Maillet – « C’est une excellente question car le risque est réel d’une privatisation d’internet.
    Je vous cite Philippe Lemoine qui a eu la gentillesse de bien vouloir préfacer mon livre :

    Plusieurs pistes sont imaginables, en arrière plan de ce constat. Dans le livre Génération P, au moins trois sont ouvertes. La première est de s’intéresser à des démarches non-programmatrices, ouvertes aux autres, comme l’illustrerait la montée de la valeur féminine dans l’analyse d’Alain Touraine à laquelle se réfère l’auteur. La seconde piste est de se détourner définitivement d’une notion de finalité et de s’inscrire ainsi inexorablement dans les dangers de ce que Friedrich Nietzsche appelait la « volonté de puissance ». C’est ce qu’évoque le livre en mentionnant cette nouvelle science passerelle qu’est la mémétique, nouvelle façon d’imaginer le vivre ensemble de demain. Approche dont un brillant livre de Jean-Michel Truong avait montré que, conjuguée à l’intelligence artificielle, elle déboucherait sur une conception de l’avenir « totalement inhumaine ». La troisième piste esquissée dans Génération P consiste à imiter le comportement modeste dont les entreprises citoyennes s’inspireront de plus en plus et à se détourner de ces enjeux du futur trop globaux et trop angoissants, pour revenir cultiver son jardin secret. C’est un peu la leçon que nous propose sans doute Thierry Maillet ….”

    La question posée ici est de savoir écarter le risque évoquer par Jean-Michel Truong et que nous renvoie clairement Second Life aujourd’hui.
    Formidable expérience comme le propose Christophe Nonnenmacher sur l’excellent blog, europeus.org ( http://www.europeus.org/archive/2007/01/11/second-life-ou-la-vraie-rupture-tranquille.html) ou premier avatar d’une privatisation accrue d’un monde virtuel qui ne sera peut-être plus celui de tous les possibles mais seulement de tous les moyens en réintroduisant une notion oubliée et pourtant essentielle qui est le risque de fracture numérique.
    Pour être franc et si vous le voulez bien je réserve ma réponse à propos de Second Life. »

     
    Denis Failly – « Génération Participation, 5ème pouvoir, Connecteurs, Bionneers, Créatifs Culturels, etc ne sont ce pas les acteurs  d’une même réalité décrite selon des dimensions ou des saillances différentes avec en commun, et à minima effectivement le facteur P (Participation) ? »
     
    Thierry Maillet –
    Vous avez tout à fait raison et je vous remercie pour votre question qui m’incite à vous proposer une analyse peut-être osée dans le temps long et que je vous demanderais de bien vouloir contredire :

    1. Le Nouveau est apparu à la fin du XIX° siècle car come le précise l’historien François Caron dans Les deux révolutions industrielles du XX° siècle  : « les années 1880 – 1914 ont fondé le XX° siècle. L’ensemble du système technique a basculé vers un nouveau modèle d’organisation de la recherche et des entreprises …. Le dynamisme de l’industrie américaine entre 1870 et 1929 était le résultat de la multiplication et de la diversification des produits offerts au consommateur final.

    2. Le Moderne succède au Nouveau et je ne peux résister à citer un auteur qui vous est cher, Edgar Morin dans l’Esprit du Temps (1962, Grasset) :
      « La culture de masse, dès les années 1920 et 1930, a fonctionné comme agent d’accélération dans le dépérissement des valeurs traditionalistes et rigoristes, elle a désagrégé les formes de comportement héritées du passé en proposant de nouveaux idéaux, de nouveaux styles de vie fondés sur l’accomplissement intime, le divertissement, la consommation, l’amour. Au travers  des stars et de l’érotisme, des sports et de la presse féminine, des jeux et des variétés, la culture de masse a exalté la vie de loisir, le bonheur et le bien-être individuels, elle a promu une éthique ludique et consommative de la vie».


    3. La Technocratie a commencé après-guerre (James Burnham), L’ère des organisateurs (1947, Calmann-Lévy) et dont Alvin Toffler envisageait l’épuisement dès 1970 :
      “Le prospectiviste américain évoquait l’épuisement du modèle technocratique : (il) se cache l’idée que les ambitions nationales concernant l’avenir de la société doivent être formulées au sommet. Ce postulat technocratique reflète à merveille les vieilles formes d’organisation bureaucratique qui séparaient dirigeants et exécutants et répartissaient en deux groupes au sein d’une hiérarchie rigide et antidémocratique, gouvernants et gouvernés, administrateurs et administrés, planificateurs et victimes de la planification. Pourtant les objectifs réels d’une société en marche vers le super-individualisme, (…) sont déjà trop éphémères et trop liés pour qu’on puisse les isoler et les définir aisément. (…) Il nous faut affronter ce problème dans une perspective nouvelle et révolutionnaire ».


    4. L’Individualisme des années 80 serait peut-être aussi en voie d’épuisement comme je le suggère à travers l’idée d’un Hypermonde qui n’est peut-être rien d’autre qu’”une difficulté à penser demain autrement que comme un prolongement extrême et dramatique du monde actuel”. (p.105)

      “La situation postérieure à la guerre froide est celle des « temps hypermodernes »[1]. Cette période a ouvert la voie à l’hyper-puissance[2] américaine dénommée aussi hyper-empire par J Attali  et qui a consolidé un hyper-capitalisme[3], peuplé d’hyper-salariés[4] et qui est le théâtre d’une hyper-compétitivité[5]. L’individu hypermoderne[6]  de cette période devint un hyper-consommateur[7] sollicité par l’hyper-choix. Cet hyperactif soumis à une obligation d’hyper-contacts[8] est maintenant menacé par l’hyper-terrorisme[9] ou l’hyperconflit selon J Attali et qui pourrait causer rien de moins que la fin de l’Occident [sic]. Et quand Galliano passe dans l’hyper-Dior à l’occasion des collections Haute Couture Automne Hiver 2006-2007[10] , il est temps de se demander si nous ne serons pas tous « hyper quelque chose » prochainement”.

      [1]  Gilles Lipovetsky, Les Temps hyper-modernes, Paris, Grasset, 2004.
      [2]  Hubert Védrine, Face à l’hyperpuissance : textes et discours, 1995 – 2003, Fayard, Paris, 2003.
      [3]  André Comte-Sponville, Le capitalisme est-il moral ?, op.cit.
      [4]  Jean-Pierre de La Roque et Sylvie Hattemer-Lefèvre « Les super-profits font les super-salariés », Challenges, 23 février 2006.
      [5]  Jean-François Rischard, op.cit.
      [6] Nicole Aubert, L’Individu hypermoderne, Paris, Éditions Érès, 2004.
      [7]  Gilles Lipovetsky Le Bonheur paradoxal, op.cit.
      [8] Marcel Rufo, Détache-moi, Paris, Anne Carrière, 2005.
      [9]  François Heisbourg, La fin de l’Occident, Paris, Odile Jacob, 2005.
      [10] « Galliano passe dans l’hyper-Dior », Libération, 6 juillet 2006. »

    5. La Génération Internet (la génération participation)
      ( p. 222) “La perspective nouvelle envisagée par Alvin Toffler en 1970 pourrait-elle être le cinquième pouvoir suggéré par Thierry Crouzet en 2006. « Le cinquième pouvoir, c’est nous, les citoyens fédérés par les nouvelles technologies. Nous sommes en train de réinventer la démocratie et je veux savoir ce qu’en pensent les politiciens. À leurs yeux, le cinquième pouvoir existe-t-il ? Va-t-il peser dans la vie politique ? N’est-il pas une chimère né dans la tête de quelques technophiles … ?[2] »

      [1] Alvin Toffler, Le Choc du futur, op.cit, p. 529.
      [2] http://blog.tcrouzet.com/2006/09/28/pourquoi-bayrou-est-il-venu/

    Denis Failly – «Quels sont où pourraient être les modèles (économiques pour les uns et sociétaux pour d’autres) qui émergent où pourraient émerger d’une part et lesquels vous semblent les plus viables à terme ? »

    Thierry Maillet – « Je crois que deux modèles de société s’affrontent actuellement :

    1. Le modèle de la maximisation des ressources disponibles et que d’aucuns appellent (ultra-libéralisme, modèle égoïsto-individualisme) et qui est représenté par les Etats-Unis, l’Angleterre, l’Australie, la Nouvelle-Zélande et dans une moindre mesure l’Espagne.

    2. Le modèle de croissance intelligente et que d’aucuns appellent (social-démocratie) et qui est représenté par les trois pays scandinaves plus peut-être la Suisse.

    3. La France, l’Allemagne, l’Italie et dans la foulée le Bénélux hésitent, au même titre que la Corée du Sud et le Japon, sur le modèle à suivre.

    4. Parmi les pays développés, la Russie est attirée par le modèle américain, quand bien même elle s