L’Age de Peer, quand le choix du gratuit rapporte gros

medium_agedupeer.jpg

Alban Martin, préface de Tariq Krim,
Editions Pearson Education, Septembre 2006

 

 

 Quelques mots d’Alban Martin

 

 

 

Denis Failly – Alban Martin, quel est selon vous le meilleur du peer ?

Alban Martin medium_martinalban.2.jpgEn fait, le Peer to Peer, c’est-à-dire les activités de Pair à Pair, ne se résument pas qu’à l’échange bien connu de fichiers numériques (musique, films logiciels), communément appelé le « piratage ». En effet, il s’agit d’activité bien plus large reposant sur la coopération et l’enrichissement mutuel.
La meilleure illustration du Peer to Peer est la règle des 1%.
Cette règle a été explicitée dans le guardian unlimited technology cet été :
sur la toile, pour une personne qui crée un contenu et le met à disposition, 10 vont le commenter ou le remixer, et 89 vont le visionner, au bénéfice des 100 personnes.
Cette règle se retrouve par exemple sur la plateforme Myspace, avec 2 millions de groupes pour 110 millions d’utilisateurs, soit environ 2% de créateurs de contenus, et sur Wikipedia, 70% des articles ont été écrit par 1,8% des utilisateurs.
Sur les réseaux P2P également, on estime également qu’il suffit d’avoir entre 1 et 5% de personnes mettant à disposition du contenu, pour que l’utilisation du réseau soit optimale pour 100% des utilisateurs. Quant à la plateforme de vidéo Youtube, on compte un ratio d’environ 0,5% entre les contributeurs et les simples visionneurs, ce qui n’empêche pas la plateforme de drainer 60% de toutes les vidéos visionnées en ligne en 18 mois d’existence.
Enfin, la même règle s’applique avec les groupes de discussion comme les mailings list, Yahoo groups : 1% de la population crée un groupe, 10% y contribue en l’alimentant, et 100% en profite.

Denis Failly – Le néo-model de co-création renverse nombre de perspectives des modèles classiques de vente, d’échange, de faire le lien et de produire, pourriez-vous en dresser les contours clés?

Alban Martin – Ce modèle montre donc comment le libre accès aux oeuvres, et aux univers artistiques, permet de rentrer dans une relation institutionnelle Vs non-pro qui est gagnante pour tous.
En effet, vous amorcez ainsi une relation donnant-donnant où le public peut ensuite recommander vos oeuvres et générer du buzz, ou bien participer au développement de l’univers autour de vos jeux, ou encore apporter un feedback sur vos créations cinématographiques (on connaît le rôle clé des communautés dans le cas des adaptations). Et bien sûr, la vente d’objets dérivés comme le CD ou le DVD reste en bout de chaîne.
Ce nouveau type de relation et de modèle économique, qui consiste, pour la maison de disque, le studio de cinéma ou l’éditeur de jeux vidéo, à se considérer comme un « peer », est la base de la co-création de valeur.

Denis Failly – Vous abordez les bénéfices financiers que permet la co – création de valeur notamment en terme de baisse des coûts (marketing, recherche, minimisation des risques…), pouvez vous rassurer les cost killers ?

Alban MartinLa cocréation fait baisser les coûts marketing tout d’abord :
La cooptation des utilisateurs de logiciels de pair à pair est plus profitable pour l’industrie du divertissement que la « mise au banc des accusés ». En effet, l’analyse des échanges de fichiers musicaux ou vidéo donne de précieux renseignements marketing à moindre coût. En plaçant le consommateur au centre de la création de valeur, les activités de pair à pair deviennent instrumentalisables à des fins d’études de marché.

– La cocréation diminue les coûts de création et de recherche ensuite :
L’accroissement constant des investissements dans les nouveaux projets, qui se traduit au cinéma par l’explosion des budgets de films, freine le développement de la créativité. Les concepts innovants font porter des risques plus grands et les entreprises du secteur ne peuvent se permettre un échec, puisque les investissements financiers en jeu sont énormes. En 2004, le coût moyen d’un film hollywoodien s’élevait à 64 millions de dollars, soit le double de 1994. Ce phénomène fait peser une menace terrible sur l’industrie du divertissement dans son ensemble, puisque son fonctionnement repose sur la création et l’innovation. Dès lors, les créations réalisées par les fans ou les clients, avec les moyens mis à leur disposition, réduiraient les risques financiers au minimum. Coopter des consommateurs pour cocréer des produits de divertissement, et donc de la valeur, est un axe pour de futurs développements et des modèles économiques rentables.
Les festivals de films sur internet en sont une bonne illustration : les bénéfices sont de plus en plus directs à la fois pour les producteurs professionnels et les apprentis réalisateurs.

– La co-création permet également de réaliser des économies sur la promotion :
Les coûts de promotion peuvent aussi être en partie portés par les utilisateurs. Le bouche à oreille, le marketing viral ou encore le buzz marketing sont autant de techniques déplaçant certaines charges traditionnelles de l’entreprise vers le public ou les amateurs avertis.

– Enfin, la cocréation permet de minimiser les risques industriels :
La dernière source de bénéfices liée à la cocréation de valeur vient de la minimisation des risques industriels. Dans un secteur où l’incertitud
e est commune, impliquer le plus en amont possible le public et les amateurs avertis est source de monnaie sonnante et trébuchante.
Dans un environnement de co-création, il est nécessaire de redéfinir l’évaluation des risques, puisque certains consommateurs sont prêts à en supporter une partie.
Chez les éditeurs de jeux vidéo par exemple, la possibilité pour un consommateur de réserver à l’avance un jeu a grandement fait évoluer la mesure du risque.

Denis Failly – Comment réagissent les grandes majors (cinéma, musique…) face à ces bouleversements liés au peer et où en est –on en France dans le domaines des DRM et du corpus législatif en construction, entre  détente et crispation vers quoi s’orientent les parties ?

Alban Martin – Les réactions face à cette évolution naturelle de l’économie vers la gratuité partielle de la musique et le développement des outils d’échange sont diverses.
D’ un côté, les principaux labels de musique et certains organismes de gestion des droits d’auteur semblent refuser ce tournant. Aux États-Unis, la RIAA qui regroupe notamment les quatre « majors » de l’industrie du disque dresse en moyenne 500 procès par mois depuis deux ans pour violation des droits des producteurs de phonogrammes, via les réseaux de pair à pair.
En France, la bataille d’influence autour du vote de la loi DADVSI montre que la pénalisation des échanges de fichiers sur les réseaux de pair à pair est aussi d’actualité, avec le refus de la « solution » des contraventions à l’encontre des téléchargeurs, pour maintenir le régime actuel de 3 ans de prison et 300 000 euros d’amendes.
L’industrie du cinéma, emmenée par la MPAA aux États-Unis, soutient quant à elle plus ou moins activement, parfois au travers de procès similaires, les principales maisons de disques, dont les actions judiciaires pourraient servir ses intérêts.

D’un autre côté, les éditeurs de logiciels et les médias développent des initiatives afin d’accompagner ce changement de paradigme économique, avec une logique répressive moindre. Leur approche s’oriente vers une personnalisation du contact et la création d’un véritable univers.

Denis Failly – Comment voyez vous l’impact du peer sur d’autres secteurs traditionnels tel l’édition ou la presse ?

Alban Martin – L’impact du nouveau rôle des internautes, des téléspectateurs, des auditeurs ou des lecteurs sur les médias est très important. Face au pouvoir que donne internet aux lecteurs de journaux ou aux téléspectateurs, les médias donnent l’impression de transiger, c’est-à-dire de laisser plus de place à l’expression des internautes. Ce constat est très bien résumé par la déclaration de Dan Gillmor, éditorialiste pour le journal San Jose Mercury et auteur du livre We: The Media : « Je me suis rendu compte que mes lecteurs en savent clairement plus que moi, et à mon plus grand bénéfice, ils partagent leurs connaissances. »

C’est ainsi que le célèbre journaliste télévisé américain Dan Rather et la chaîne CBS News ont dû reconnaître s’ être trompés sur une affaire en rapport avec le service militaire du Président George W. Bush, le « Rathergate ». En effet, lors de son show télévisé le 8 septembre 2004, intitulé « 60 Minutes », Dan Rather a présenté des documents censés être authentiques sur la qualité de l’action du Président américain durant la guerre du Vietnam. Mais leur authenticité a été mise en question de manière quasi immédiate par un groupe de blogueurs.
L’argument irréfutable mis en avant a été une police de caractères utilisée dans un document qui ne pouvait dater de cette époque. Face à une telle évidence de falsification, CBS a dû considérer le problème de manière très sérieuse et s’est excusée de cette insuffisante vérification de ses sources.
Quelques semaines plus tard, c’était au tour du directeur de l’information de CNN, Eason Jordan, de démissionner pour ses propos sur le fait que des soldats américains
avaient tué volontairement des journalistes en Irak. Ses propos avaient déclenché un tollé général dans la blogosphère, que les grands médias ont été forcés de relayer.
Ces deux exemples montrent que le flux d’information n’est plus unidirectionnel : les lecteurs ou les téléspectateurs réagissent à l’information.
Et surtout, cette réaction est entendue grâce à l’effet démultiplicateur du net.

En outre, les médias doivent composer avec cette nouvelle concurrence « amateur » à grande échelle. Selon l’étude Comscore citée par Loïc Le Meur dans son ouvrage « Blog pour les pros », cinquante millions d’nternautes américains avaient visité des blogs lors du premier trimestre 2005, ce qui représente 30 % des internautes américains et 16 % de la population américaine. Selon une étude de juin 2005 de Nielsen Netratings, l’audience globale des blogs serait passée en France de un à plus de six millions de visiteurs uniques en un an.

Face à ce nouveau rôle de leurs lecteurs, les médias s’adaptent au travers d’une remise en cause profonde de leur métier. Le système de blogs accolés à un journal consiste à reconnaître, selon Loïc Le Meur, que les lecteurs des magazines en ligne comme Libération ne sont pas qu’une simple audience : ils sont capables d’apporter une vision de l’information différente qui sera utile aux autres lecteurs. Cette attitude permet d’accompagner le changement de paradigme économique vers la cooptation des consommateurs. Le journal Le Monde a ainsi été le premier grand titre européen à lancer des blogs pour ses  lecteurs. Un an après, l’expérience est un succès, avec environ 10 % des abonnés qui ont créé leur blog et plusieurs millions de pages visitées chaque mois.

Denis Failly – Quelles nouvelles pistes de croissance issues de ce bouillonnement et de ces émergences vous paraissent-elles viables à moyen et long terme?

Alban Martin – L’initiative la plus porteuse de croissance en ce moment est bien sûr le site Myspace, regroupant un nombre d’inscrits égal à 2 fois la population française, en trois ans d’existence !

MySpace, par exemple, a évolué d’un simple site de réseau d’amis vers un formidable outil de cocréation entre les fans et les artistes. Il compte plus de 3 millions groupes de musique inscrits. Chaque groupe a la possibilité de mettre sa musique en libre écoute, ainsi que des clips vidéo, et de tenir un blog. Les utilisateurs mélomanes peuvent quant à eux entrer en contact avec les musiciens par courriel, par messages instantan
és, ou bien en laissant des commentaires.
Et si demain le téléchargement ne se limitait plus à quatre chansons comme aujourd’hui ? Le fait d’être un ami du groupe permettrait de lui demander des exclusivités, des variations de morceaux, des partitions, ainsi que du contenu sur mesure approvisionné directement par la source !
MySpace n’entend pas rester confiné dans le monde musical. La chaîne NBC par exemple a débuté la série « The Office » en la diffusant sur l’espace personnel dédié à la série et créé sur MySpace spécialement pour l’occasion. Un espace dédié a également été ouvert pour la série télé de Fox « The OC » et compte 90 000 membres « amis ». En devenant un « ami » direct de la série, tout un chacun a la possibilité d’ être informé en exclusivité des dernières nouvelles, directement à la source, et peut interagir avec l’équipe de Fox en charge du marketing.

Autant dire que les entreprises sont en train de devenir des Pairs!

Denis Failly – Merci Alban

Bio : Alban Martin est diplômé d’HEC et à effectué un séjour aux USA à l’Université du Michigan (deuxième année de MBA) qui lui a permis de rapporter quelques idées innovantes de modèle économique participatif.
A l’issue de ses études il rédige un mémoire consacré aux nouveaux modèles de co-création de valeur intitulé « Internet and the New Technologies : Threat or Opportunity for the Entertainment Industry? » qui lui vaudra le prix de la fondation HEC en 2004.
Ce mémoire donnera lieu à publication chez Publibook sous le titre « The Entertainment Industry is Cracked, Here is the Patch ! ».
Vendu et aussi offert en libre téléchargement, via son blog sur la musique en ligne (cocreation.blogs.com) ouvert en janvier 2005, le livre sera copié plus de 2000 fois en 1 ans.

View blog reactions

Internet Media Cannibale

medium_nav_gche_livrebleu2.gif
Lucas Denjean, Elenbi Editions, 2006

Quelques mots de Lucas Denjean

Denis Failly – « Lucas Denjean, dans la lignée des précédents ouvrages édités par l’Ebg, pourriez-vous nous rappeler le principe de création de cette ouvrage, je pense notamment au principe des cas d’annonceurs on line ? »

Lucas Denjeanmedium_luca_denjean.jpg« Comme les deux précédents ouvrages sur le marketing interactif édités par l’EBG*, Internet Média Cannibale vise à convaincre les entreprises de la nécessité d’investir le canal Internet. Cela passe notamment par une sélection de plus de 70 cas d’annonceurs de tous horizons qui ont su mener une vraie stratégie interactive, B to C ou B to B. Ces annonceurs ont accepté de détailler leurs objectifs et leurs moyens, ainsi que de décrire précisément et d’illustrer les différentes étapes menées.
L’ouvrage se veut éclectique et didactique. Cette année, au-delà des résultats précis de chaque opération, l’accent a été mis sur les enseignements que ces entreprises en retirent et qui pourront éclairer les lecteurs qui réfléchissent aux mêmes problématiques. Chaque terme technique est également défini dans un glossaire.

Par ailleurs, le livre présente un panorama complet du média Internet, à la fois côté annonceurs (investissements publicitaires, e-commerce, m-commerce, etc.) et du côté utilisateurs (modes de consommation et usages d’Internet fixe et mobile).
Une nouvelle partie, plus théorique, laisse la parole aux experts qui analysent, outil par outil (blogs, emailing, datamining, mobile, etc.) les évolutions récentes et font leurs recommandations pour en optimiser l’utilisation.« 


Denis Failly – « Pourriez vous nous préciser en quoi Internet est un Media Cannibale comme le souligne le titre de votre ouvrage ?»

Lucas Denjean – « Le titre est évidemment un clin d’œil humoristique, qui rappelle aux annonceurs l’urgence d’agir et de s’adapter : plutôt que de parler de « convergence », nous avons choisi l’image d’un média Internet vorace qui étend ses tentacules pour absorber non seulement les autres médias, mais pour aussi transformer les consommateurs et les entreprises.

Pour donner quelques chiffres, selon une récente étude Ipsos Média, 83% des internautes de plus de 15 ans ont un comportement convergent occasionnel : 27% écoutent la radio en direct sur leur ordinateur ; 16% suivent des émissions en différé sur le site de la chaîne ; 8% podcastent (radio) et 14% utilisent l’Internet mobile. Il semble incontestable que ce mouvement s’approfondisse, ce qui entraîne de profondes mutations de l’offre média (presse, radio, télévision) et appelle une nécessaire adaptation de la stratégie de communication des marques. A la consommation de masse correspondait la communication de masse, verticale, possible face à une audience captive. Mais désormais, comment être sûr de toucher au mieux ses consommateurs quand l’audience se morcelle et que la consommation de média, à la fois dans ses modes et dans ses contenus, est de plus en plus personnalisable ?
D’un autre côté, le titre fait référence à une menace supplémentaire pour les entreprises : Internet est devenu le lieu d’une intense et gigantesque communication, l’arme du rééquilibrage potentiel des pouvoirs en faveur des consommateurs.
Reste aux marques à évoluer pour faire de ces menaces de nouvelles opportunités de croissance. »

Denis Failly – « Dès que j’ai le bonheur d’interroger un spécialiste du média Internet, j’en profite pour lui demander un petit focus actualisé des tendances annonceurs sur Internet, pourriez vous nous donner quelques données clés ? »

Lucas Denjean – La principale donnée, c’est bien entendu la très forte croissance des investissements publicitaires en ligne : +75% en 2005, pour une part de marché d’Internet de 6% dans l’univers plurimédia.
Cette croissance recouvre deux tendances concomitantes : d’une part, l’augmentation du nombre d’annonceurs (+57% en 2005) ; d’autre part l’accroissement des investissements des annonceurs déjà présents sur Internet.
Le search marketing reste le plus gros poste d’investissement dans les publicités en ligne : en 2005, 41% des investissements publicitaires online ont été réalisés sur les moteurs de recherche. L’emailing et le datamining sont également de plus en plus utilisés par les entreprises qui ont pu, grâce à Internet, recueillir de nombreuses données sur leurs clients et qui cherchent désormais à les exploiter au mieux.
Les annonceurs cherchent également à s’adapter à l’évolution du comportement des internautes. Le lancement du produit « Resurface Peel » par Lancôme est ainsi révélateur de la prise en compte du désir d’implication et d’expression des consommateurs sur Internet, y compris par une marque de luxe : un dispositif complet de conquête, qui fait la démonstration du produit de manière ludique et originale, tout en impliquant les consommatrices dans l’évaluation et la promotion, au travers de Club, de product reviews en ligne ou de chats.
Si Internet a fait ses preuves en acquisition et e-commerce, il s’impose désormais en branding et en marketing relationnel.
A l’image de Levi’s et de sa campagne Moonbath, les marques disposent de nouveaux moyens d’expression créatives et de nouveaux supports pour décliner leur message publicitaire (Internet, mobile, podcasting, mobilier ou affichage interactif…) de manière à toucher leurs consommateurs où qu’ils se trouvent. Mais la clé de l’efficacité de la campagne réside dans la capacité des marques à proposer une véritable expérience immersive et participative et à fournir en exclusivité du contenu que les consommateurs pourront s’approprier et diffuser.
En marketing relationnel, le
cas « carte Intégrale », de la RATP et la SNCF, montre également bien qu’un programme de fidélisation majeur ne peut vivre sans exploiter les canaux Web, SMS et emails. Pour des raisons de rentabilité (coût contact, fréquence et réactivité) et d’affinité (qualification et segmentation, interaction client et ciblage).

Désormais, le grand enjeu pour les marques est donc de composer avec des consommateurs qui, qu’elles le veulent ou non, s’expriment. Ils sont maintenant partie prenante de l’image des entreprises et des marques. Ils en sont également les partenaires dans la diffusion des messages ou la création des contenus et des produits.


Denis Failly – «Sur l’efficacité du média Internet en terme d’e-pub (format, taux de clic, taux de transformation…) que peut-on dire ? »

Lucas Denjean « Les campagnes d’e-pub sont nombreuses et variées, et leur réussite se mesure en relation avec le secteur d’activité, les investissements consentis, les objectifs poursuivis ou encore les critères de mesure retenus (taux de clic, taux de transformation HP ou HP+1, taux de viralité, etc.).
Bien qu’il soit donc difficile, et pas forcément pertinent, d’identifier un indicateur de mesure de l’efficacité d’une campagne e-pub, on peut dire par exemple qu’un taux de clic de plus de 1% est considéré comme bon par la plupart des annonceurs que j’ai pu interroger. »

Quelques enseignements sur l’efficacité du média Internet se dégagent néanmoins :
– Au cours d’une même campagne, les bannières rich media (vidéo, audio, animation, jeux…) génèrent des taux de clics supérieurs aux bannières classiques. L’impact sur les métriques de la marque peut être également bien supérieur, notamment en terme de mémorisation. Avec l’extension du haut débit, les formats rich media sont en pleine expansion et les formes d’expression des marques devraient considérablement s’enrichir.
– L’intérêt de l’e-pub réside dans la réalisation simultanée de deux objectifs auparavant séparés : travailler la notoriété et l’image de sa marque ; et mesurer la réponse au message publicitaire, c’est-à-dire les interactions des internautes avec la campagne.
– Cette capacité à mesurer l’efficacité d’une campagne conduit les annonceurs à l’optimiser en temps réel, par exemple en ne retenant que les sites qui génèrent le meilleur taux de transformation, ou en sélectionnant les formats qui amènent le plus de clics. Il existe désormais des solutions intégrées de mesure des performances des campagnes par support (e-pub, affiliation, référencement, etc.).
– Contrairement aux médias « traditionnels », sur Internet le message publicitaire peut être finement personnalisé (que l’on pense au marketing comportemental ou contextuel qui prend ici tout son sens) ; la souplesse de la gestion des campagnes en ligne permet également d’enchaîner plusieurs phases (typiquement teasing – révélation) et de décliner un même message en une multitude de formats adaptés aux attentes et préférences des cibles visées ; enfin et surtout, une campagne de e-pub « vit » sur Internet : le buzz qu’elle génère peut en décupler l’efficacité.

Denis Failly – Au vu du recul que l’on commence à avoir sur le média Internet en terme de stratégie Marketing / Communication que peut-il advenir notamment face à la Webosphère 2.0 dont les motivations, les attentes, l’idéal parfois même, ne coïncide pas forcément avec le Web des marchands ?

On peut effectivement s’interroger. Il y a d’un côté l’espoir que le pouvoir d’expression (et donc potentiellement de nuisance) des consommateurs amène une transparence plus importante. Transparence dans le sens où il sera plus difficile pour une marque d’imposer verticalement « sa » vérité : les consommateurs auront davantage les moyens de récompenser les entreprises les plus vertueuses. Transparence également des marques qui auront compris l’intérêt d’associer étroitement en amont leurs consommateurs dans l’élaboration de leurs produits ou de leur communication.
Et c’est peut-être là ce que redoutent les acteurs de la « Webosphère 2.0 » : la plasticité des entreprises en situation de concurrence les conduit à s’adapter à tout changement d’environnement de manière à préserver au mieux leurs intérêts (sous peine de disparaître). En l’occurrence, reste à savoir si le rééquilibrage en faveur des consommateurs sera durable ou si ces nouvelles règles du jeu seront assimilées et finalement dénaturées par les entreprises. Il me semble pour ma part que les idéaux de la Webosphère et les intérêts marchands sont difficilement compatibles. Mais c’est justement cette insatisfaction qui explique le bouillonnement créatif et qui, au fur et à mesure de l’apparition de nouveaux outils, permettra de futures (r)évolutions. « 

Denis Failly – « Lucas Denjean, je vous remercie »

*le petit livre rouge Marketing Interactif et les 103 commandements du Marketing Interactif

Le site de l’EBG


View blog reactions

Petit précis de l’efficacité collective, Tome #1 « Travailler autrement »

medium_petitprecis.gif

Le Tome 1 « Travailler autrement » du Petit Précis d’Efficacité Collective est un ouvrage collectif produit et réalisé par Richard Collin, fondateur et dirigeant de ICCE (Intelligence Collective, Coopération et Efficacité – International Centre for Collective Efficiency www.icce-link.com ) dans le cadre de EC2006 parrainé par Microsoft France

 

Quelques mots de Richard Collin
Denis Failly – Richard Collin, a l’occasion de la parution du Tome 1 « Travailler autrement » du Petit Précis d’Efficacité Collective pourriez vous nous retracer brièvement les étapes et les enjeux qui ont donné naissance à cet ouvrage ?

Richard Collin – medium_richard.png« Cet ouvrage – et la démarche qui a conduit a sa réalisation – se place dans la perspective de l’évolution des modes de travail. Il pose la question de la nécessaire prise de conscience des transformations rapides des modes d’organisation et des processus requis au sein des entreprises mais aussi vise à une plus grande compréhension, mobilisation, envie et appropriation des salariés eux-mêmes pour d’autres manières de travailler.
Il formalise une connaissance approfondie et précise de la situation en matière de « work style » dans le travail au quotidien de ceux qui travaillent. Il dresse également un tableau sur les contextes des usages et des pratiques. Mais aussi sur les perspectives qui peuvent se dessiner et les freins qui existent. Au travers du processus de réalisation de ce premier tome, autant que dans les résultats et analyses formels, nous nous sommes attachés à détecter et formaliser les points soulignant les bénéfices aussi bien que les propositions envisagées pour développer les usages en matière de travail collaboratif et d’efficacité collective. Parallèlement, il nous donne l’occasion de mieux et précisément connaître la réalité du terrain aussi bien que de se munir de faits et d’arguments pour adapter et mettre en place les stratégies requises par les uns ou les autres.
Dans les premiers mois de 2006 une large investigation a été conduite pour permettre à chacun de mieux comprendre et mesurer son style de travail mais aussi pour se doter d’un instrument pour mieux apprécier pour la France les enjeux et la réalité du travail collaboratif et de l’efficacité collective pour lesquels notre pays présente des spécificités.

Vecteur de la visibilité réelle des usages et du décalage existant entre les pratiques au quotidien et les possibilités offertes simplement, la démarche entreprise EC2006 (Efficacité Collective 2006) était tout autant un outil de pédagogie qu’un outil d’analyse et de découvertes personnelles. Chaque participant a ainsi reçu une analyse individuelle et personnalisée lui permettant de se comparer et de situer par rapport aux autres participants et à son entourage.

Le choix a été fait de rendre transparentes et neutres les méthodes, la construction, la réalisation et la diffusion de EC2006 et d’associer un collectif de partenaires qui garantissent la validité, la rigueur et la pertinence de la démarche. Mais aussi sa légitimité et sa diffusion pour porter le débat. C’est dans ce cadre que l’AFNeT, la FING, l’ENSAM, EMSI GEM se sont mobilisés avec le soutien du CIGREF, de l’ACFCI et de DEMOS et le parrainage et engagement de MICROSOFT France; LA TRIBUNE et RADIO CLASSIQUE étant les partenaires media de EC2006. La mission de maîtrise d’ouvrage et d’opérateur donnée à ICCE – Intelligence Collective, Coopération et Efficacité – qui s’est notamment appuyé sur Next Modernity-DVA et TRIVIUM complète le dispositif qui a offert les garanties requises.

Ce premier ouvrage se place dans une perspective à long terme et constitue le socle pour faire évoluer les analyses autant que comparer les résultats d’une année sur l’autre au moins sur les deux prochaines années 2007 et 2008. Cet ouvrage sera distribué le 19 et 20 octobre 2006 à tous les visiteurs et participants des prochaines Rencontres ICC’2006 au Palais Brongniart (accès libre et gratuit).
On peut aussi le commander gratuitement sur www.microsoft.com/france/entreprises/peopleready


Denis Failly – « A qui s’adresse ce petit précis et quels en sont les enseignements majeurs ? »

Richard Collin – « Cet ouvrage s’adresse à tous ceux qui se sentent concernés par la question de l’efficacité à plusieurs et au travail collaboratif et qui veulent activement développer cette compétence autour d’eux. Ainsi, quelles que soient les responsabilités de chacun, quelle que soit la taille ou le type d’organisation, les réflexions présentées dans cet ouvrage nous concernent tous directement. Car le sujet est d’importance. Il y a un savoir-f
aire particulier à mettre en œuvre pour que les énergies soient alignées dans la même direction et s’additionnent harmonieusement. Chacun de nous, en tant que membre d’organisations formelles et informelles, peut choisir d’être acteur d’une amélioration du fonctionnement collectif, ou de subir les pesanteurs et frictions venant des autres. En choisissant de devenir acteur, on se donne la possibilité de poser les bonnes questions et d’obtenir des changements visibles au moins au niveau local, avec l’espoir de faire changer les pratiques à un niveau plus large. Et même si les besoins d’amélioration sont connus, les solutions pertinentes restent largement à découvrir ou à formaliser. En lisant cet ouvrage et en lançant des démarches innovantes, chacun pourra très concrètement aider à accélérer des transformations utiles pour tous. »

 

Denis Failly – « Parmi les témoignages y en a-t-il un en particulier qui vous parait particulièrement éclairant et dont vous souhaiteriez nous parler ? »

Richard Collin – « Difficile de ne retenir qu’un seul témoignage. Je préfère retenir quelques repères essentiels que nous ont livrés des responsables, animateurs d’initiatives intéressantes. « La culture d’entreprise et la confiance sont les enjeux stratégiques pour réussir » (Schneider Electric), « C’est aujourd’hui que la networking attitude est partagée par un nombre vraiment significatif que les solutions technologiques peuvent jouer leur rôle » (Groupe Danone), « L’aventure collective que sont les nécessaires réformes hospitalières ne peut se vivre et se construire qu’au travers d’une démarche de partage et de reconnaissance (Ministère de la santé et des solidarités), « Quand on parle de performance, c’est autant sur l’efficacité collective que sur l’efficacité individuelle qu’il s’agit de progresser » (Microsoft) »

 

Denis Failly « Peut –on parler d’une spécificité française quant à l’approche et la pratique des organisations en matière d’efficacité collective ? »

Richard Collin – « L’enjeu est important pour les entreprises françaises qui sont particulièrement à la traîne des pays européens pour tout ce qui touche le fonctionnement et le travail en réseau et collaboratif au cœur des transformations en cours. Alors que beaucoup d’entreprises rencontrent des difficultés face à la complexité, à l’imprévisibilité du monde, à la globalisation, les entreprises françaises et ses managers sont vraisemblablement affectés par une trop forte logique cartésienne et de rationalité d’ingénieur, associée à une culture à la fois centralisatrice et individualiste qui les poussent à la modélisation et la formalisation des processus au détriment de l’efficacité collective, et ce faisant les éloignent des fondements de la compétitivité actuelle. Un de nos défis est de s’affranchir de quelques freins naturels qui nous sont spécifiques, qui pèsent et nous empêchent souvent d’avancer vite pour s’adapter aux exigences de l’efficacité collective. Les quelques questions suivantes sans encore de réponse complète soulignent bien les paradoxes spécifiques de la société et de nos entreprises et institutions françaises :

  • Comment partager nos informations et connaissances alors que souvent notre éducation nous conduit à systématiquement punir les « copieurs » ?

 

  • Comment éviter de penser à la place des autres alors que la culture d’une partie de l’élite française est construite sur ce modèle ?
  • Comment percevoir que la richesse est dans la circulation et le flux d’information et de connaissances alors que notre mentalité nationale d’épargnant nous fait penser à tort que c’est en capitalisant dans des « bas de laine » d’informations et de connaissances statiques que nous devenons riches ?
  • Comment faire vivre vraiment des communautés d’experts ou d’apprentissages et plus largement le travail collaboratif alors que nos comportements individualistes et de défiance à priori sont souvent des freins majeurs au partage ?
  • Comment prendre des risques alors que la viscosité sociale aussi bien que la culture d’ingénieur ou technocratique propre à notre pays ne facilite pas des approches socialement novatrices sur le « travailler autrement »?

 

  • Sommes-nous vraiment prêt à prendre à notre compte – individuellement et collectivement – une transformation qui s’appuie sur une  » networking attitude »  » généralisée, une organisation performante et des technologies innovantes ?


Dans cette Europe de la connaissance et de l’innovation dans laquelle nos entreprises et nos institutions françaises doivent prendre leur place, nous devons encore progresser et investir. En somme mieux et plus vite transformer nos organisations par l’information et les connaissances partagées; pour construire et conduire les changements nécessaires pour cette société en réseau, de l’interaction, du « co-design » et de l’efficacité collective chaque jour plus présente. En se souvenant que tout changer, ce n’est pas tout détruire, c’est tout sauver. C’est tout le sens de la démarche entreprise par la publication de cet ouvrage. »

 

Denis Failly – L’efficacité collective est encore peu enseignée et pourtant elle ne s’improvise pas. Si les entreprises et les organisations ont bien conscience de l’enjeu, n’y a-t-il pas un risque que tout cela reste très théorique faute de compétences opérationnelles pour développer l’efficacité collective ?

Richard Collin – « Il s’agit d’un point essentiel. On aura compris que le travail collaboratif et l’efficacité collective ne sont pas obligatoires…ils sont devenus incontournables. Les communautés de métiers et de pratiques, les réseaux sociaux sont désormais reconnues comme des leviers clés pour le partage et la création de connaissances dans l’entreprise, permettant à la fois de générer de la valeur, de l’innovation et fournir des résultats mesurables pour des investissements et des coûts limités. Lorsqu’elles s’accompagnent d’un lancement réussi et d’une animation performante, les communautés et les activités en réseau ont un impact direct sur la productivité et l’efficacité globale des entreprises. Et nous n’avons pas appris à le faire de façon opérationnelle et concrète Dans notre pays, il y a encore un déficit formidable de formation et d’apprentissage organisationnel sur ces q
uestions. C’est dans ce contexte que vient de se créer l’
Académie de l’Efficacité Collective et  du Travail Collaboratif avec Grenoble Ecole de Management au sein de la Chaire « Efficacité Collective, Travail Collaboratif et en réseau, Organisations » et DEMOS, organisme leader en matière de formation. Au travers de modules spécialisés de formation, il s’agit de se donner les conditions de la réussite pour concevoir, organiser, animer et modérer une communauté et un espace collaboratif mais aussi y participer. En somme acquérir les méthodes et concepts fondamentaux pour être très opérationnel en matière de travail collaboratif ; et pour faciliter et promouvoir l’usage des pratiques collaboratives dans son environnement de travail. Il s’agit également de comprendre et mieux maitriser les impacts des évolutions technologiques sur les modes de travail »


Denis Failly – Avant d’être la résultante de solutions techniques, l’efficacité collective est avant tout affaire d’homme, en ce sens n’est-elle pas avant tout dépendante du management ?

Richard Collin -« Pour répondre, je rebondirai sur un des 2383 commentaires libres et détaillés que nous avons recueillis  » Le collaboratif est d’abord une culture. Collaborer nécessite un investissement. Dans un univers où le temps et la culture collaborative dont deux grands quasi-absents, vouloir régler le problème de la performance de l’entreprise seulement par de la technologie, est un contresens » . Il est clair que le management est essentiel ett c’est un des points exigeant à découvrir et inventer. C’est ce que fait, par exemple, l’EMSI – Grenoble Ecole de Management qui travaille sur les questions des nouvelles formes de management associés aux nouvelles technologies et aux systèmes d’information. C’est aussi l’objet du deuxième tome du Petit Précis à paraître en 2007  » Manager autrement ».

Denis Failly – Merci Richard


Bio:
Richard Collin est Fondateur et dirigeant de ICCE (Intelligence Collective, Coopération et Efficacité – International Centre for Collective Efficiency www.icce-link.com), Vice Président de l’Association Française des utilisateurs du Net et du e-business (AFNeT, www.afnet.fr), Fondateur et animateur des Rencontres Innovation, Compétitivité et Connaissances (www.rencontres-icc.com), Visiting Professor à Grenoble Ecole de Management (www.grenoble-em.com ) titulaire de la Chaire « Efficacité collective, Travail collaboratif et en réseau, Organisations innovantes » et responsable de EIKE ‘European Institute for the Knowledge Economy », Richard COLLIN, pionnier et praticien du travail collaboratif et des organisations en réseau, est un expert et consultant international reconnu qui accompagne, conseille, coache et forme les entreprises, les institutions, les territoires et les hommes dans leur évolution et leur transformation compétitive vers la société en réseau et l’économie de la connaissance.
Contact : collin@icce-link.com

View blog reactions

Management des réseaux sociaux

medium_managemenrezosociaux.gif

Collectif  Revue française de gestion , Editions Hermès – Lavoisier , 2006


Sommaire

  • La force de vente et les activités d’intelligence économique
  • Créativité et leadership des groupes de recherche
  • Recherche en parrainage. Quelle évolution et quels résultats ?
  • L’impact des fusions-acquisitions bancaires sur les accords de crédits aux pme
  • Du concept de communauté à celui de ba. Le groupe comme dispositif d’innovation
  • Management et réseaux sociaux. Jeux d’ombres et de lumieres sur les organisations
  • Qu’est-ce qu’un bon réseau personnel ? Le cas de l’ingenieur D&D
  • Le capital social de l’organisation flexibilisée
  • Les déterminants du fonctionnement communautaire. Une etude comparative
  • Productivité et réseaux sociaux. Le cas des entreprises du batiment
  • Apprentissage collaboratif et réseaux d’investisseurs en capital-risque

Darknet : La guerre d’Hollywood contre la génération digitale

medium_couv_darknet_200.jpg

JD Lassika, M2 Editions, Mai 2006
Préface de Howard Rheingold.

Titre original : « Darknet, Hollywood’s War against the Digital Generation. »

 

Denis Failly – JD Lasica could you portray us this mysterious underground universe that you name Darknet (stakes, rules, main actors, strategies…) ?

JD Lasica medium_jdlassika.2.jpg-« Darknet » works on several levels. It refers to the universe of blogs and small, independent websites outside the bright glare of mainstream media sites. These may be small and obscure sites on their own, but collectively they’re becoming as significant and weighty as traditional media.
It also refers to the hundreds of underground sites, in the dark recesses of the Internet, where users can communicate and exchange files in relative security, outside the orbit of the legal system.
Usenet, Internet Relay Chat and university « top sites » are examples of this.
Most importantly, « Darknet » refers to what may happen to the Internet itself should current trends continue. The forces of control, exercised by the entertainment and media companies and backed by their allies in the United States government and unthinking governments abroad, refuse to embrace their digital futures.
This is in no way an endorsement of unfettered file sharing, which is wrong, plain and simple. But the public is largely unaware of the restrictions being placed on on our digital devices — from portable music player to home networks to digital televisions — which prevent law-abiding citizens from using legally purchased media in ways they’ve come to expect. »

Denis Failly – What is your vision of Peer to Peer tomorrow, and is there any limits ?

JD Lasica – « Yes, certainly there are limits. Few reasonable people believe that because a file has been digitized, it’s therefore free for all the world to copy.
An interesting phenomenon has emerged in the past year: the birth of legal peer-to-peer services. Several companies, such as Outhink.com and Pando.com, allow users to exchange large video files with other via p2p. But these services emphasize that users are to exchange files that they’ve created, such as home movies.
I think that’s the future: more and more we’ll see p2p used in legal ways, allowing us to exchange large digital files that we own or created. This will become even more pronounced as we move into the era of high-definition video. »

Denis Failly – Do you believe the Personal media era that you describe in your book, is a epiphenomenon or is it a deep and viable trend in the long run ?

JD Lasica – There’s no question that the personal media revolution is a long-term, lasting phenomenon. All the signs suggest that this era is here to stay. Millions of people are turning to grassroots media sites like YouTube.com and Ourmedia.org for their entertainment, news and information.
The question is, where do we go from here? I think people will quickly tire of the short silly videos you see on some of these sites. We’ll be looking for something deeper and meaningful, something outside the formulas and cliches seen in traditional television.
One prediction: grassroots media will get better, more polished and professional-looking, as the tools of creativity get easier to use and as small groups of people get together to collaborate on higher-quality works.
Second prediction: Many people will start making money for grassroots videos they’ve created.
Final prediction: In the next year we’ll see several deals between traditional media companies and small startups to bring grassroots media works into television channels, cell phones and other distribution networks. »

Denis Failly – Which solutions are possible according to you to (re)conciliate the interests of Majors and the « darknet users » ?

JD Lasica -The solution is apparent for all to see: Entertainment companies need to embrace their digital destinies and start experimenting with new business models for music, video and games. If not, the darknet users will force their hand. My concern is not with the bottom line of the media companies but with the artists and creative individuals who need to receive a fair payment for their creations.
Currently, the music system is out of balance, with the vast majority of artists receiving little or no income for their efforts. If we blew up the current music distribution system and started from scratch, there’s no way we’d come up with anything resembling the current system.
I don’t believe Hollywood faces the same threat to its well-being that the music labels are facing. Swapping and watching Hollywood movies is still a practice you find on college campuses and among geeks, but it hasn’t penetrated the middle class, and probably won’t. But the film industry needs to be aware that people want to watch movies on their terms, without the absurd kinds of restrictions encumbering digital devices.

Denis Failly – As observers of Internet, I suppose you begin to have a idea about the possible scenarios in term of news uses, news economic models for next years ?

JD Lasica – « I recently returned from a trip to Seoul, South Korea, where I attended the International Citizen Reporters’ Forum. It was amazing to see so many people passionate about citizen journalism from all over the world — places like Brazil, Chile, Cameroon and Nepal.
I think smart news organizations are waking up to the fact that the public no longer wants to be spoonfed the news as passive consumers.
Many of us want to engage in a conversation about the news, and to participate in a meaningful way. That means blogs, citizen media videos and podcasts are all part of today’s media equation.
Newspapers and television news networks will find a way to survive — as they must. Professionals still bring a lot to the table that amateurs cannot emulate. But traditional news outlets also must evolve to the new participatory realities or perish. »

Denis Failly – « Thank you JD »


Le blog de JD Lasika
Le blog français autour du livre

 

Bio : JD Lasica, journaliste et blogueur américain reconnu, a écrit de nombreux articles pour des journaux comme le Washington Post, Salon, le Industry Standard… Il est le fondateur du site ourmedia.org qui est au centre du phénomène du journalisme citoyen au niveau mondial. Auparavant, éditeur du principal quotidien de Sacramento, le Sacramento Bee, pendant 11 ans et responsable de l’équipe éditoriale dans trois startups. 

Les podcasts Ecouter, s’abonner, créer

   bibliothèque NextModerne:Les podcasts Ecouter, s'abonner, créer                        

Franck Dumesnil,  Editions Eyrolles, 2006

Cet ouvrage vous permettra de maîtriser l’univers des podcasts et vous accompagnera dans la réalisation et la mise en ligne de votre première émission.

Quelques mots de l’auteur

Denis Failly – La bibliothèque NextModerne, Franck Dumesnil« Franck Dumesnil, existe t-il des fondamentaux en terme de stratégie de référencement de podcast que vous souhaiteriez nous rappeler ?« 

Franck Dumesnil – « 
Le podcast ne se référence pas de la même manière que le texte. Google indexe des pages web en allant scruter le contenu textuel. Le référencement de l’audio et de la vidéo ne suit pas le même modèle algorithmique. Pour référencer un podcast il y a deux méthodes.

La première est le référencement via tags ID3 et la catégorisation manuelle du contenu sur un portail de type Yahoo ! comme podemus, yahoo podcasts ou dkpod. Cette méthode parse votre fil RSS et vous demande de la classer dans une succession de catégories et sous catégories.

L’autre méthode se fait en soumettant l’url de votre podcast sur des moteurs de recherche spécialisés en reconnaissance vocale comme podscope.com ou podzinger.com qui indexent les contenus audios que vous lui soumettez.

Afin de bien référencer votre podcast il est aussi indispensable que votre flux rss de norme 2 (NDLR: ou RSS 2.0 acceptant les flux multimedia) soit compatible avec les tags de chaque plateforme. C’est le cas par exemple pour le référencement sur iTunes qui impose des tags spécifiques Pour cela rien ne vaut l’utilisation du service de Feedburner qui vous aide à générer votre fil RSS et à le valider.
Enfin, pour garantir un référencement optimal il serait utile de proposer une version texte de votre podcast pour l’indexation dans google. Peu d’outils , essentiellement manuels, existent qui permettent de transcrire de l’audio en texte comme celui de Casting words.
Vous devrez donc transcrire vous-même votre audio mais c’est en général le contraire qui se produit car comme dans une émission de radio le podcasteur doit réécrire souvent le texte qu’il s’apprête à lire. « 

Denis Failly – A l’instar des blogs, a t – on quelques données chiffrées sur l’utilisation du Podcasting ?

Franck Dumesnil – « Je vais vous citer quelques exemples de la fréquentation de podcasts phares. Twit.tv, l’émission animée par le charismatique leo Laporte, un podcast hebdomadaire sur l’actualité des nouvelles technologies a enregistré quelques 7 millions de téléchargements mensuels.  PhotoshopTV.com, un videocast de formation et d’actualité sur le logiciel photoshop d’adobe a quant à lui, été téléchargé plus d’un million de fois sur un mois.
Enfin mommycast.com, une émission audio réalisée par deux mères de famille sur des sujets liés à la vie de famille réalise une moyenne de 500.000 téléchargements par mois.

En France, les audiences sont beaucoup plus faibles. 100.000 téléchargements pour le videocast de Karl Zéro suite à la publication d’une émission sur son videoblog correspond au top download des vidéocasts made in France. Je ne parle pas ici des podcasts des radios et TV traditionnelles (Radiofrance, RTL, LCI, Europe1 ..) qui font les plus grandes audiences mais qui, si l’on en croit le concept de la longue traîne, ne représentent qu’un nombre restreint de podcasts. Les podcasts amateurs feront certainement des audiences bien plus importantes dans quelques temps en France et en Europe comme c’est déjà le cas aux Etats-Unis.

Enfin une chose notable est que 80 % des podcasts ne sont pas synchronisés avec un baladeur. Ils sont donc essentiellement écoutés en streaming sur les blogs ou téléchargés et écoutés sur un ordinateur en local. En terme de stratégie il convient pour l’instant de cibler en priorité l’écoute en ligne. »

Denis FaillyEst-il possible de « tagger » un passage spécifique (une plage) d’un podcast ?

Franck Dumesnil –   « « Tagger » un podcast signifie rendre possible la navigation de chapitre en chapitre afin d’accéder directement au contenu que l’on souhaite. Parmi les formats qui permettent du faire du chapitrage il y a le format AAC (Advanced audio codec) utilisé par Quicktime d’Apple, la partie audio du format mpeg4 format chapitrable pour la vidéo. Pour chapitrer un podcast audio sous Mac on utilisera le logiciel ChapterToolMe et pour PC on peut utiliser Divicast, un récent service en ligne qui donne le résultat suivant http://www.lespodcasts.com/news/43.shtml  . Le principe est d’associer un fichier audio et un fichier de description xml qui intégre les tags de chapitrage. »

Denis Failly – Si le « taggage » tel que décrit dans la précédente question est possible, peut – on envisager de créer cette fois un nouveau podcast à partir des plages (audio ou vidéo)  précédemment « taggées » dans le podcast d’origine ?

Franck Dumesnil – « Cela signifirait que l’on puisse créer un podcast dont certains chapitres puissent être reliés à des chapitres d’autres podcasts. Appelons cela un « méta » podcast. C’est en effet possible à condition de construire un fichier xml qui puisse encapsuler plusieurs podcasts chapitrés. Je ne peux pas vous donner d’exemple à ce jour. »

Denis Failly Peut – on rendre « podcastable » automatiquement et sous forme audio, les billets d’un blog qui par définition sont d’abord textuels ?

Franck Dumesnil – « Oui, prenez par exemple le cas du blog coll
ectif Agoravox, il fournit un lien RSS d’abonnement aux textes enregistrés avec la technologie vocale readspeaker. En vous abonnant à ce fil vous recevrez alors les contenus sous forme de voix de synthèse. Le logiciel Autocast quant à lui permet de fabriquer une succession de fichiers mp3 à partir d’un fil RSS de contenus exclusivement textuels. »

Denis FaillyQuelles sont les pistes actuelles d’évolution du Podcast ?

Franck Dumesnil – « Le podcast va pénétrer la sphère professionnelle. Par exemple une entreprise pourra proposer via un service premium une newsletter audio ou  vidéo synchronisable automatiquement avec l’ipod de son client et permettra ainsi aux cadres de consulter les informations qu’ils n’ont pas le temps de suivre sur les supports papiers, mails ou écrans et ce dans le TGV, dans l’avion ou la voiture.
Dans le domaine de la formation, de l’éducation, du coaching, le podcasting devrait avoir un impact important. La stratégie d’iTunes avec iTunes University et quelques partenariats via HEC ou l’université de Lyon donne quelques perspectives d’évolution.
Quelques cas actuels dans le domaine de la recherche d’emploi pourraient s’étendre par analogie à l’immobilier ainsi qu’au e-commerce pour par exemple être informé des résultats sur une requête ou sur une recherche spécifique. Enfin, cela ouvre le champ de la création de contenu et de self-média. Le RSS a eu pour conséquence une spécialisation des contenus. Les utilisateurs via leurs pages personnelles netvibes-like vont s’abonner à des thématiques très ciblées.
Il y a des niches pour fournir du contenu que les médias traditionnels ne pourront pas fournir. L’avenir et le business du podcast sont en partie dans la création et la production de bouquets de contenus de niches accessibles à la demande. »

Denis Failly – Merci Franck

 

Les Blogs de Franck Dumesnil :

Le blog autour du livre

Blogperformance

Toute l’actu du Webcasting

Bio: Franck Dumesnil est consultant. Il est le créateur de Blogperformances. Il produit et héberge des podcasts pour les entreprises qui souhaitent développer leur audience sur le Web. Il anime aussi des conférences et des tables rondes à destination du monde professionnel sur les enjeux des nouvelles technologies.

IEML (Information Economy Meta Langage)

Présentation du langage par son créateur, Pierre Levy

Denis Failly – « Pierre Levy, vous lancez le site consacré à IEML(Information Economy Meta Language), pourriez vous nous expliquer en quelques mots ce qu’est ce langage » ?

Pierre Levy la bibliothèque NextModerne: IEML, interview de Pierre Levy par Denis Failly « Dans mon esprit, IEML est la langue de l’intelligence collective ou « surlangue » dont je parlais dans l’introduction de mon livre intitulé L’Intelligence collective (La Découverte, 1994), et cela pour au moins trois raisons :

  1. IEML bâtit, pour commencer, un pont entre langues naturelles. N’importe quel graphe de mots écrit dans une langue naturelle au moyen d’un éditeur IEML peut être lu dans n’importe quelle autre langue naturelle supportée par le dictionnaire IEML.
  2. IEML est, ensuite, un pont entre cultures, disciplines, domaines de connaissances, contextes, terminologies, ontologies, etc. La structure logique de ce métalangage permet en effet de déterminer automatiquement des relations entre concepts, des distances sémantiques entre documents et des synthèses quelles que soient l’hétérogénéité des corpus considérés.
  3. Enfin IEML construit un pont entre humains et ordinateurs en donnant aux manipulateurs automatiques de symboles les moyens d’analyser et de computer la complexité sémantique et pragmatique humaine… lorsque cette complexité est exprimée en IEML. Je précise immédiatement que, de même que la majorité des utilisateurs d’ordinateurs n’ont pas besoin d’entrer directement en contact avec le binaire ou même avec des langages de programmation, la majorité des utilisateurs humains d’IEML n’auront pas besoin d’apprendre le métalangage.

Dans un style sobre, c’est un système d’adressage sémantique des documents numériques. Dans un style plus lyrique, je comparerais l’internet à un « cerveau global », à qui il ne manque que le système symbolique adéquat pour faire accéder l’intelligence collective humaine à la conscience réflexive. Mon hypothèse est qu’IEML pourrait précisément jouer le rôle de ce système symbolique initiateur d’une nouvelle dimension cognitive.

IEML peut nous permettre de franchir ce seuil cognitif parce qu’il réunit deux propriétés généralement séparées :

d’un côté, il est capable d’exprimer toutes les nuances sémantiques des langues naturelles, comme le français, l’anglais ou le mandarin ;

– d’un autre côté, contrairement aux langues naturelles, il peut être traité de manière optimale par les ordinateurs : il est « calculable »

J’ai conçu ce métalangage afin d’exploiter au service de la cognition humaine la puissance de communication, de mémoire et de traitement d’information dont nous disposons aujourd’hui et dont les générations précédentes ne pouvaient même pas rêver.

Pour utiliser une métaphore, je pourrais décrire IEML comme le « code génétique » (ou code mémétique) de la culture humaine. Je précise tout de suite que, si le code me semble déchiffré, l’ensemble du génome reste à inventorier. La cartographie de l’espace cognitif humain sera nécessairement une entreprise collective de longue haleine. »

Denis Failly – « A qui s’adresse IEML ? »

Pierre levy – « IEML s’adresse essentiellement à deux catégories de personnes : les architectes de l’information et les chercheurs en sciences humaines intéressés par les langages formels.
Par « architectes de l’information » j’entends les concepteurs de systèmes d’information, les spécialistes de la documentation numérique, de la gestion et de l’ingénierie des connaissances.
Quant aux chercheurs en sciences humaines, il s’agit surtout de ceux qui veulent surmonter la fragmentation disciplinaire et théorique contemporaine afin de contribuer, par leur activité intellectuelle, à la croissance d’un développement humain qui ne peut être appréhendé que par une approche pluridisciplinaire.
Par « développement humain », j’entends une dynamique d’interdépendence entre prospérité, santé, éducation, droits de l’homme, démocratie, recherche, innovation, transmission des patrimoines culturels, équilibre des écosystèmes vivants, etc.
Dans cette perspective, IEML est une langue formelle permettant d’exprimer, les données, les théories et les modèles des diverses sciences de l’homme nécessaires à une compréhension causale et à un pilotage fin du développement humain.
En outre, via une indexation adéquate des données numériques, IEML pourrait permettre une observation non seulement quantitative mais aussi qualitative – sémantique et pragmatique – de l’économie de l’information qui se développe dans le cyberespace, et qui exprime une part croissante de la communication, des transactions et de la mémoire humaine. »

Denis Failly -« Quels sont les grands principes d’IEML ? »

Pierre Levy – « Etant un méta-langage, IEML est indépendant des langues naturelles, ontologies, classifications et théories.

C’est (a) une idéographie (b) combinatoire, ce qui signifie (a) que chaque symbole a une signification distincte et que (b) la signification d’une combinaison de symboles tend à correspondre à la combinaison des significations de ces symboles. Si ce dernier principe (b) était appliqué à la lettre, on aboutirait à un langage trop redondant, à la couverture sémantique limitée. Le principe combinatoire est donc tempéré par un principe complémentaire d’économie conceptuelle selon lequel le maximum de « surface » sémantique est couverte par un minimum de symboles.

Les symboles élémentaires sont au nombre de cinq : virtuel, actuel (les deux éléments pragmatiques, liés à l’action et aux verbes), signe, être et chose (les trois éléments sémantiques, liés à la représentation et aux noms).
A partir des éléments, IEML déploie cinq niveaux de combinaison et d’articulation : 25 événements (deux éléments), 625 relations (deux relations), des millions d’idées (deux ou trois relations), une quantité astronomique de phrases (deux ou trois idées), une quantité virtuellement infinie de graphes possibles (matrices, arbres ou séries de phrases).

Pour le moment (été 2006), seules quelques deux mille idées ont été interprétées en langues naturelles, avec l’objectif de couvrir la majorité des sujets possibles des sciences humaines. Le dictionnaire IEML en ligne (http://www.ieml.org/) est censé s’accroître constamment avec de nouvelles idées et de nouvelles phrases.

Chaque graphe est / à simultanément :
1 – une adresse sémantique,
2 – un objet d’interprétation, ou « texte »,
3 – un système d
‘interprétation automatique, ou « point de vue cognitif » sur d’autres graphes et
4 – un clavier virtuel pour la rédaction d’autres graphes. Les graphes sont lisibles directement en IEML ou bien dans la langue naturelle choisie par l’utilisateur.

Denis Failly – « Pourquoi avoir créé ce langage,  qu’apporte t-il de plus par rapport aux langages existants ? »
Pierre levy -« 

  • TCP-IP permet la communication entre ordinateurs.
  • HTTP gère les hyperliens d’un site à l’autre.
  • HTML normalise la visualisation des pages web.
  • XML décrit la structure des bases de données…

IEML est un « système de coordonnées » des sujets, du contenu sémantique, ou de la signification des fichiers. Il code la position des documents dans un espace cognitif infini mais précisément adressable. IEML propose un codage navigable des concepts. Chaque code-concept (ou phrase IEML) est interprétable dans toutes les langues naturelles supportées par le Dictionnaire IEML. Actuellement, ces langues se limitent au français et à l’anglais, mais des traductions en espagnol et portugais sont déjà en cours. Nous n’en sommes qu’au tout début du programme de recherche : à terme, les codes IEML seront interprétés dans toutes les grandes langues de communication présentes sur le web.
En somme, IEML tente de résoudre un problème que ni TCP-IP, ni HTTP, ni HTML, ni XML n’ont la prétention de résoudre.

Pour décrire le « contenu », on utilise généralement des mots en langues naturelles. Mais il existe des milliers de langues différentes et, à l’intérieur même de chacune des langues, les mots peuvent avoir plusieurs sens et le même sens peut s’exprimer par plusieurs mots, sans parler des changements de sens dues aux variations de contextes.
Les moteurs de recherche contemporains travaillent sur des chaînes de caractères (en langues naturelles) et non pas sur des concepts, thèmes ou notions, qui sont indépendants des langues et de leurs mots.

En plus du simple usage des langues naturelles, il existe également des terminologies moins ambigües et bien structurées utilisées par les professionnels de l’information : langages documentaires des bibliothécaires, ontologies des informaticiens, etc. Mais ces systèmes de classification sont très nombreux, généralement incompatibles entre eux et sont basés en définitive sur l’utilisation de mots en langues naturelles.
De nombreux langages documentaires, comme le « Dewey » des bibliothécaires, proposent des hiérarchies de concepts assez rigides et qui ne se prêtent pas de manière optimale au traitement automatique. La plupart des langages documentaires, même les plus souples – comme les langages à facettes inventés par Ranganathan – ont été conçus « avant les ordinateurs ».

Les ontologies, que les normes du web sémantique recommandent de formaliser dans le langage OWL (Ontology Web Language) sont des réseaux sémantiques – le plus souvent des arbres ou des taxonomies – décrivant les relations entre concepts d’un domaine de connaissance. Or, d’une part, les concepts sont exprimés par des mots en langues naturelles (avec tous les problèmes afférents déjà signalés plus haut) et, d’autre part, les ontologies – considérées comme structures de relations – ne sont pas traductibles les unes dans les autres. OWL permet seulement l’exécution d’inférences automatiques au sein d’une même ontologie. Cette fragmentation linguistique et logique des ontologies limite énormément les bénéfices potentiels du web sémantique.

En général, l’exploitation « intelligente » des données présentes sur le web est aujourd’hui très limitée. Par exemple, même dans des corpus relativement homogènes, comme wikipedia, on ne voit pas de possibilités de génération de liens automatiques entre documents portant sur les mêmes sujets. La situation est encore pire si ces documents sont rédigés dans des langues différentes.
Il n’y a pas non plus de calculs de distances sémantiques qui permettrait, par exemple, d’aiguiller les utilisateurs sur des informations « proches » des questions qu’ils ont posées si ces questions ne trouvent pas de correspondants exacts.

La traduction des langages documentaires et des ontologies en IEML aurait trois avantages directs :

– premièrement, tout le travail d’indexation et de catalogage déjà réalisé serait sauvé (il n’est pas à refaire),
– deuxièmement, les ontologies et systèmes documentaires deviendraient mutuellement compatibles sur le plan logique, c’est-à-dire que des inférences automatiques et calculs de distances sémantiques pourront être exécutées d’une ontologie à l’autre,
– troisièmement, une fois traduite en IEML, une terminologie ou ontologie se trouverait automatiquement interprétée dans toutes les langues naturelles supportées par le dictionnaire IEML.

En général, une indexation en IEML permettra :
– la recherche par concepts (et non plus seulement par chaînes de caractères),
– la génération automatique de liens entre documents portant sur des sujets identiques ou complémentaires,
– le calcul de distances sémantiques et éventuellement la génération automatique de cartes sémantiques (synthèses) de grands corpus
– les inférences et analyses automatiques au sein d’ensembles de documents « quelconques » séléctionnés par les utilisateurs selon leurs propres critéres.

Je précise que tout cela représente aujourd’hui (été 2006) un vaste programme de recherche et non pas des solutions techniques immédiatement disponibles.

Pour les corpus qui ne sont pas déjà indexés au moyen d’un langage documentaire ou d’une ontologie, il faudra évidemment mettre au point des solutions d’indexation automatique en IEML. »

Denis Failly – « Pierre Levy, compte tenu de vos recherches, pratiques, et nombreux écrits autour des usages des Tic et de leur implication en terme culturels, sociaux, cognitifs, d’intelligence collective, quel est votre regard sur le « paradigme » Web 2.0. »

Pierre Levy – « Je suppose que vous entendez par « web 2 » la liste suivante :

le développement de la blogosphère et des possibilités d’expression publique sur le web,
– l’usage croissant des wikis,
– le succès mérité de wikipedia,
– la multiplication des processus de partage d’information et de mémoire (delicious, flicker, etc.),
– la tendance générale à considérer le web comme une sorte de système d’exploitation pour des applications collaboratives et autres,
– la montée des logiciels sociaux et des services tendant à accroître le capital social de leurs usagers,
– la montée continue des systèmes d’exploitation et des logiciels à sources ouvertes,
– le développement du P2P sous toutes ses formes (techniques, sociales, conceptuelles)…

La liste n’est pas close.

Tout cela manifeste une exploration sociale des diverses formes d’intelligence collective rendues possibles par le web et repré
sente donc une évolution très positive. Mais, en fin de compte, il s’agit d’une exploitation par et pour le plus grand nombre de potentialités qui étaient techniquement et philosophiquement déjà présentes dès l’apparition du web en 93-94. Je vois là une maturation culturelle et sociale du web (qui a été conçu dès l’origine par Tim Berners Lee pour favoriser les processus collaboratifs) plutôt qu’un saut épistémologique majeur. »

Denis Failly – « Vous qui êtes acteur et observateur des recherches en cours dans le domaine des Sciences Cognitives, vers quoi allons – nous, quelles sont les  émergences remarquables dans ces domaines  qui préfigurent l’avenir ? »

Pierre Levy – « La formalisation de la logique et de l’arithmétique a permis l’automatisation des calculs arithmétiques et logiques et, en fin de compte, la naissance de l’informatique classique. Grâce à la formalisation de la sémantique et de la pragmatique proposée par IEML, on peut prévoir la naissance d’une informatique sémantique (ou informatique 2, si vous voulez !), capable de combiner les calculs arithmétiques et logiques avec des calculs sémantiques et pragmatiques respectueux du caractère complexe, qualitatif et virtuellement infini de l’univers cognitif.

Cela ne rendra pas obsolètes les résultats antérieurs des recherche en IA (NDLR: Intelligence Artificielle), en informatique cognitive ou en théorie des jeux mais permettra au contraire de les enrichir d’un contenu sémantico-pragmatique beaucoup plus riche.

Plus généralement, je crois que les développements ultérieurs du cyberespace verront l’avènement d’une révolution scientifique dans les sciences humaines, un peu comme l’invention de la presse à caractères mobiles par Gutemberg et les nouveaux instruments d’observation (téléscope et microscope) ont favorisé une révolution scientifique dans les sciences de la nature.Les acteurs de cette révolution auront tendance à considérer les phénomènes sociaux comme des processus cognitifs à l’échelle collective. Ces processus de cognition collective (ou d’économie de l’information signifiante) seront observables, navigables et modélisables dans le cyberespace.
Au-delà de la fragmentation disciplinaire et théorique des sciences humaines contemporaines, le coeur de cette révolution de l’économie de l’information sera la découverte-exploration constructive d’un espace cognitif multidimensionnel, fractal, unique et infini où se déroulent les processus relevant de la culture humaine. »

Denis Failly – « Merci Pierre Levy »


Le site IEML

Pierre Levy est l’auteur de nombreux ouvrages parmi lesquels :

L’intelligence collective : Pour une anthropologie du cyberspace

La Cyberculture

Qu’est ce que le virtuel

Les arbres de connaissance

 

Bio : Pierre Lévy a consacré sa vie professionelle à analyser les implications culturelles et cognitives des technologies numériques et à promouvoir leurs meilleurs usages sociaux.

Né en 1956. Maîtrise d’histoire des sciences (Paris, Sorbonne, 1980, dirigée par Michel Serres). Doctorat de sociologie (Paris EHESS 1983, dirigée par Cornélieus Castoriadis).
Chercheur au CREA (École polytechnique, Paris) sur l’histoire de la cybernétique, de l’intelligence artificielle et de la vie artificielle, 1983-1986. Professeur invité à l’Université du Quebec à Montréal, departement de communication, 1987-1989, enseigne l’informatique pour la communication. Professeur en sciences de l’éducation à l’ Université de Paris-Nanterre, 1990-1992, enseigne les technologies pour l’éducation. Habilitation à diriger des recherches en sciences de l’information et de la communication (Grenoble 1991). Co-fondateur et chercheur au Neurope Lab. Recherches sur l’économie et la technologie de la connaissance, 1991-1995.

Membre de la mission officielle sur l’enseignement ouvert et à distance

 

Demain est un autre jour, que sera l’Internet dans 10 ans

 

 la bibliothèque NextModerne, Demain est un autre jour

 Télécharger l’ouvrage en pdf  (460 ko, 81 pages)

 

 Extrait 

« Demain est un autre jour »

                                         Autrans 2006- 2016

 

 

“Internet sera devenu si familier que l’on ne le remarquera plus…Le téléphone, l’ordinateur et la télévision auront fusionnés… Nous serons connectés et joignables en permanence… Nos brosses à dents seront équipées de capteurs qui analyseront nos muqueuses… Des imprimantes 3D graveront nos objets quotidiens… Les assurances nous factureront nos excès de vie… L’Etat légiféra pour limiter le cyberinfidélité… Les technologies de surveillance permettront le maintien à domicile des personnes dépendantes… Notre livreur de pizza disposera d’informations sur notre santé et nos finances… Ledroit d’auteur et les copyrights industriels seront abolis… Les entreprises seront plus réactives et composeront avec les contraintes géographiques et temporelles… Le tourisme médical se développera…Les échanges de pair à pair seront encouragés… Les jeux seront utilisésdans le système de formation personnalisée… Les talents de chaque élève seront exploités et mis au service des communautés
d’apprenants… Nous n’habiterons, ni ne travaillerons plus en ville…La liste des compétences nécessaires à un emploi sera longue et rapidement obsolète… Nous emprunterons du temps de cerveau à notre voisin… Nous assisterons à un trafic d’identités numériques…Les débats démocratiques disciplinés bouleverseront la vie politique…Internet n’existera plus et nous irons à la plage…”

 

Robots extraordinaires

la bibliothèque NextModerne, Robots extraordinaires, Cyril Fievet interviewé par Denis Failly

Cyril Fiévet, Philippe Bultez-Adams et al., préface d’Axel Kahn
2006, Edition FYP Editions / Futuroscope

 

Denis Failly – « Cyril Fievet votre ouvrage « Robots Extraordinaires » arrive à un moment où l’on commence à entendre parler de plus en plus des robots,non plus comme seuls objets de fiction (Film, BD, littérature) mais comme quasi sujets agissants, proches de nous et peu ou prou anthropomorphes. Au-delà des démonstrations sur les salons high Tech japonais notamment, quelle est la réalité de la présence des robots dans notre quotidien, quelle est la typologie des usages envisagés (robots d’agréments, jouets, utilitaires, assistants… ?) »

Cyril Fievet la bibliothèque NextModerne, Cyril Fievet « Je me réjouis que les médias français traitent de ce sujet, car il est aussi important que méconnu. Il faut bien comprendre que pour des raisons inexplicables, le thème des robots est bien moins populaire ici en France qu’il ne l’est dans beaucoup d’autres pays. Par exemple, on compte quelques dizaines de livres en français sur la robotique, mais des centaines en anglais. Cela rejoint l’autre partie de votre question : les robots sont bel et bien une réalité d’aujourd’hui. Il y a quelques jours, la société iRobot a annoncé avoir franchi le seuil de 2 millions d’aspirateurs robotisés vendus. C’est assez spectaculaire, s’agissant d’une famille de produits trés nouveaux, basés sur l’intelligence artificielle. D’autres machines plus simples (type Robosapien) ont également été de gros succès commerciaux, et on constate que le secteur des jouets se « robotise ». Enfin, même si Sony a arrété la production de ses robots-chiens Aibo, elle en avait vendu 150 à 200 000, ce qui n’est pas si mal pour un produit plutôt cher et sans utilité réelle. Au total, on trouve aujourd’hui plusieurs dizaines de modèles de robots domestiques sur le marché alors qu’il n’en existait aucun ou presque il y a cinq ou six ans. Ceci dit, la robotique domestique est un marché naissant. Nous sommes aujourd’hui dans ce domaine, là ou était l’informatique personnelle au début des années 1980 : les Apple, IBM et Microsoft de la robotique personnelle sont en train d’apparaître, mais on ne sait pas encore les directions qui vont être prises…
Il est probable que ce marché se découpe en machines utilitaires (aspirateurs, tondeuses, robots de surveillance) et en « compagnons mécaniques », mais la frontière entre les deux types de robots pourrait devenir de plus en plus floue, beaucoup de machines sont pluri-fonctionnelles. »

Denis Failly – « En quoi les robots dont vous parlez dans votre ouvrage sont ils extra – ordinaires, est ce leur(s) technologie(s) ? leurs aptitude(s) à remplir des taches ? leur potentiel de convergence vers la cognition ou une certaine capacité d’auto -décision qui leur confèrerait un semblant d’humanité ? »

Cyril Fievet « Je trouve les robots fascinants pour plusieurs raisons, à commencer par leur caractère proteïforme. En ce moment même, des robots sont en train de parcourir le sol martien, en y faisant des prélèvements et en y prenant des photos ; d’autres sont en train de jouer avec leurs propriétaires ; d’autres encore surveillent, de façon autonome, des bâtiments, ou sont utilisés en Irak ou en Afghanistan, pour déminer ou observer des endroits difficiles d’accès. Dans tous les cas, ce sont les mêmes types de technologies qui sont utilisées. Le robot est donc un peu la machine « ultime » créée par l’humain. Elle peut servir à tout, être partout et se décliner en une palette d’usages infinie. Le robot est donc, en cela, proche de l’ordinateur, désormais omniprésent dans notre société. Mais le robot est un ordinateur mobile, et surtout, de plus en plus autonome au plan décisionnel, ce qui change beaucoup de choses.
Sinon, les robots sont égalemement extraordinaires – et même troublants – dés lors qu’ils commencent à nous ressembler. C’est d’ailleurs une partie de l’intérêt des robots humanoïdes, dont le but est autant de créer des machines que de comprendre le fonctionnement de l’humain. Les japonais vont très loin en la matière, par exemple avec des androïdes qui ressemblent à s’y méprendre à des humains. Deux questions importantes se posent alors :
1. Qu’est-ce qui fait que l’on peut encore déterminer avec certitude qu’il s’agit bien d’un robot et non d’un humain ;
2. Arrivera-t-il un jour où on ne pourra plus faire la différence ?
Ce qui est vrai de l’aspect l’est tout autant du comportement. Plusieurs prototypes de laboratoires parviennent à simuler des expressions et même des émotions de façon très convaincante. A partir de quand devra-t-on considérer qu’un robot éprouve des sentiments ?
Il me semble donc trés probable que des robots parviendront un jour à simuler le comportement humain de façon suffisamment fine pour que l’on considère, dans une certaine mesure, qu’ils ont une « personnalité ou même qu’ils sont « vivants ».

 

Denis Failly « On a souvent une vision anthropomorphe des robots qui de tout temps ont fascinés les hommes (Léonard de Vinci et son chevalier mécanique, le flûtise automate de Vaucansson en 1738, aujourd’hui le robot Asimo de Honda) n’est – ce pas une manière aussi, en les rapprochant de nous, de se rassurer et de se donner l’illusion qu’en les faisant à notre image, quelque part nous en gardons le contrôle d’où implicitement la conscience aigüe d’un risque de dérapage ? »

Cyril Fievet – « Je ne suis pas sûre que cela soit la motivation première. Construire un robot humanoïde bipède est compliqué (et coûteux). J’y vois plutôt une forme de pragmatisme : pour qu’un robot s’intégre parfaitement dans un environnement humain (et, surtout, qu’il y soit accepté) il est préférable qu’il ait une apparence humaine. Comme le soulignent volontiers les japonais, on comprend l’intérêt d’un robot bipède devant un escalier 😉 »

Denis Failly « La convergence entre biologie, électronique, mécanique qui confère à l’homme une capacité de se « réparer » et de créer des réalités  » augmentées « , ne nous annonce t-elle pas une société hybride, « post humaine » dans laquelle on ne sait plus trop qui est créateur, qui est créature ? »

Cyril Fievet « Oui, il me paraît probable que nous allions vers cela avec d’un côté le cyborg (mélange de l’humain et de composants mécaniques/électroniques) et de l’autre la génétique et ce qu’elle permet ou permettra. Mais je ne crois pas que le risque soit d’identifier créateur et créature. Je craindrais plutôt l’apparition d’une société encore bien plus inégale, partagée entre ceux qui ont accés à ces technologies (et peuvent « améliorer » leur corps, le réparer de façon efficace, etc.) et les autres. De ce point de vue, je pense qu’on se focalise beaucoup sur les aspects ethiques, en oubliant la composante politique du débat que vont susciter ces technologies. »

De
nis Failly « Lorsque l’on pense aux robots on pense souvent aux robots à l’échelle du visible, macroscopique, mais qu’en est –il aujourd’hui des « nano – robots » qui, bien que non anthropomorphes n’en sont pas moins les acteurs d’une véritable révolution en marche et bien réelle ? »

Cyril Fievet – « Il ne faut pas confondre les robots de petites tailles (au plus quelques centimètres carrés ce qui est peu pour des robots, mais énorme à l’échelle nanomètrique) et la perspective (controversé) de « machines moléculaires », fonctionnant comme des robots mais à une taille atomique. A ce jour, le concept de « nano-robots » n’a pas vraiment de réalité et on ne sait pas s’il en aura un jour. Surtout, cela ne doit pas masquer le fait que les nanotechnologies sont d’ores et déjà une réalité et, en effet, la source d’une probable révolution industrielle. En somme, s’il n’existe pas à ce jour de nanorobot, il existe en revanche des centaines de produits issus de la nanotechnologie, et des centaines de sociétés spécialisées dans ce domaine. C’est cette révolution qui est bien réelle 🙂 »

Denis Failly – » Cyril, je vous remercie »

Les blogs de Cyril :
PointBlog
NanoBlog
6711

Bio : Cyril Fievet est journaliste et auteur de quatre ouvrages et de plusieurs centaines d’articles. Il est spécialisé depuis une dizaine d’années dans les technologies émergentes et leur impact socio-culturel.  Il couvre l’innovation, la recherche scientifique et technique et les technologies numériques .

View blog reactions

Le nouveau pouvoir des internautes

la bibliothèque NextModerne, Le nouveau pouvoir des internautes,François Xavier Hussherr interviewé par Denis Failly

Quelques mots d’un des auteurs

Denis Failly – Francois Xavier Hussherr, en tant que professionnel de l’étude des comportements des Internautes, pouvez – vous nous rappeler brièvement les grandes caractéristiques (profil, usages…) de l’Internaute d’aujourd’hui ?

Francois Xavier Hussherr – la bibliothèque NextModerne, François Xavier Hussherr« Aujourd’hui un français sur deux de 11 ans et plus est internaute, c’est à dire plus de 26 millions. L’internaute français n’est plus seulement un passionné d’informatique mais il est de plus en plus un français comme les autres. Le profil de l’internaute moyen se rapproche du profil du français en général notamment grâce au développement de l’ADSL depuis 2003. Ainsi, on note en 2005 une progression de l’accès à Internet chez les CSP- et les femmes qui rejoignent de plus en plus les CSP+ et les hommes, jusque là plus avancés sur le sujet. Aujourd’hui, 84% des internautes depuis le domicile sont connectés en haut débit. Mais la fracture numérique demeure puisque seulement 38% des foyers français avaient accès à Internet fin 2005 et que l’on sait que tous les individus d’un foyer équipé d’Internet ne se servent pas des outils à leur disposition. C’est pour cela que les droits d’auteurs du livre « Le Nouveau Pouvoir des Internautes » écrit avec Cécile Hussherr et Marie-Estelle Carrasco iront à des associations travaillant sur le sujet. »

Denis Failly – «  De ce nouveau pouvoir des Internautes , objet de votre ouvrage, quels sont les éléments les plus remarquables ? »

Francois Xavier Hussherr – « Ce qui est le plus marquant, je pense, c’est la formidable capacité des NTIC (Nouvelles Technologies de l’Information et de la Communication) à rassembler plus de personnes et à les fédérer plus rapidement autour d’un projet commun, qu’il soit personnel ou social. Nous avons commencé cet ouvrage en faisant le constat, lucide, de la sinistrose actuelle. Mais, dès la seconde partie, nous avons tenu à livrer au lecteur une sélection des nombreux exemples de création de chaleur et de valeur permis par les NTIC que nous voyons chaque jour en tant qu’Internautes et que professionnels du numérique. Le plus remarquable a été pour nous la facilité à trouver des exemples et ce dans de nombreux domaines (santé, éducation, etc.). Il était important pour nous de rappeler que sans un retour à des valeurs plus positives comme l’espérance et la confiance, nous ne pourront pas aborder les changements inéluctables qui se préparent en France. »

Denis Failly – « Croyez – vous au « point de bascule » apte a bouleverser en profondeur et durablement les fondements (modèles ?) des grands systèmes actuels (Média, Producteur, Distributeur, Politique…) ? »

Francois Xavier Hussherr – « Je ne crois pas en une rupture brusque. Dans l’Histoire le changement est une constante, il a toujours existé. Pensons aux changements fondamentaux qui ont suivi les découvertes de Copernic ou Newton … . La seule différence actuellement c’est la vitesse avec laquelle le changement arrive. On contaste une accélération prodigieuse du changement voire proprement vertigineuse, même pour ceux qui comme moi travaillent dans les nouvelles technologies depuis plus de 10 ans. Je me rappelle encore des tous premiers modems à 28 kb/s.

Tous les modèles que nous connaissons vont donc être amenés à changer. Mais là encore, il faut savoir prendre du recul. Pour passer à une massification de l’accès Internet en haut-débit il a fallu 6 ans. Tout n’est donc pas pour demain. En revanche il est clair que sur un horizon de 5 à 10 ans les modèles vont être amenés se transformer en profondeur. Cela est vrai dans les NTIC avec le développement des offres quadruple play, dans le domaine du logiciel libre où une économie est en train de naître avec des acteurs comme Redhat qui a maintenant un business model reconnu. Des modèles économiques se créent, d’autres se transforment ce n’est parce le logiciel libre se développe que Microsoft va disparaître. Les acteurs en place changent aussi leur modèle pour s’adapter. Pour reprendre notre exemple précédent, Microsoft ouvre depuis peu une partie d’une partie de ses codes source (API). Au final, les modèles de Redhat et Microsoft vont peut-être converger à horizon 5 ans.

Nos institutions vont pouvoir aussi se renouveler avec Internet. La démocratie va par exemple pouvoir devenir plus participative avec le développement de l’Internet 2.0. Des collectifs d’internautes se sont ainsi créés fin 2005 et début 2006 pour envoyer des propositions d’amendements dans les boites mail de nos députés, c’est une première. Les français internautes vont sans doute être de plus en plus consultés également. »

Denis Failly – « La création et le partage abondant de connaissances, de ressources…, la volonté de faire liens, l’envie d’une d’Intelligence collective / connective, la quête de modèle alternatifs plus humanisants (auto / co – production, système de troc, open money…) ne renverse t-il pas et jusqu’où, certaines perspectives du modèle capitaliste fondées notamment sur la rareté… ? »

Francois Xavier Hussherr – « Non je suis économiste de formation et je constate que le capitalisme a toujours su d’adapter au différentes étapes de l’histoire humaine. En revanche, l’ultralibéralisme que l’on connaît dans tous les pays actuellement va sans doute disparaître dans 5 à 10 ans pour laisser place à un capitalisme numérique. Certaines ressources vont rester rares (comme le pétrole ;:)) ) par exemple; d’autres ne le seront plus. Mais ce n’est pas parce les codes source d’une application sont d’un accès gratuit qu’il ne faudra pas payer Redhat ou Capgemini (cf leur récent contrat avec le ministère des finances) pour maintenir des systèmes informatiques. Je suis d’accord avec vous que le capitalisme qui va émerger sera, il me semble, plus humaniste. La logique de toujours plus de profit n’est pas tenable sur le long terme. Lorsque une entreprise aura atteint 7% de rentabilité, puis 10% puis 15%, il y a un moment où elle va atteindre un seuil où pour ce maintenir elle aura besoin d’investir dans l’humain et dans les compétences.« 

Denis Failly – « Francois Xavier Hussherr, je vous remercie »

Le site du livre

 

Bio : Agrégé en économie et en gestion puis docteur en marketing, François-Xavier Hussherr travaille depuis plus de dix ans dans le secteur des nouvelles technologies. Tour à tour chercheur à l’université du MIT (de 1996 à 1998), responsable des études et de la recherche chez Voila, puis directeur adjoint du pôle business de Wanadoo Portails, il est actuellement directeur général de l’activité Internet et Nouveaux Médias de Médiamétrie, spécialiste de la mesure d’audience.