Web 2.0, Opinion, Marketing & Communication

mardi 31 juillet 2007

15 Megaoctets d’extimité, 1 Megaoctet d’intimité ?

Les gens sont devenus fous… en tout cas, c’est ce qu’on peut penser à la lecture de la tribune de Henri-Pierre Jeudy (Sociologue, chercheur au CNRS) publiée dans Libération. Avec la vogue des plateformes de social networking, l’évolution des comportements qu’induisent les nouvelles technologies (Mobiles avec appareil photo et camera…) brouillent les repères entre vie privée, vie publique, intimité et extimité. Où s’arrête la vie privée ? où commence l’intimité ? Pas évident de faire le tri entre l’impression que c’est un mouvement sociétal de fond et l’impression que c’est un microphénomène qui focalise l’attention du microcosme parisiano-parisien. Et il est clair que les avis divergent.


Du social networking… à l’exhibitionnisme ?
Des millions d’inscrits à Copains d’avant, Myspace ou Viadeo, 93,8 millions de blogs… C’est autant de profiles renseignés et qualifiés, d’informations plus ou moins personnelles, d’images, de pensées qui lèvent le voile sur des intimités plus ou moins sincères et plus ou moins packagées. Entre LonelyGirl15, adolescente factice, et l’individu lamda qui livre sans réserve sa vie au tout venant, il y a une infinité de manière de gérer son intimité extériorisée, son extimité. Totale ou partielle elle apparaît comme une tendance lourde, sentiment qui se trouve sans doute renforcé par la nature même des plateformes qui se sont imposées dans le social networking. De Myspace à Facebook, la vie privée est la matière première. Il n’y a presque pas d’autres contenus que de l’intime, du personnel. Il en va de même sur FlickR : je peux accéder aux photos de mariage du collègue du collègue d’un client sans lui demander son avis. Ce phénomène, bien que réel, est peut-être sous une loupe voir sous un microscope à particules.

De l’intime pas si intime
Le fait est que si les internautes participent fortement à cette mise en spectacle de l’intime et du personnel, il y a une part non négligeable d’informations qui, bien que personnelles, ne disent pratiquement rien d’une personne : partager ses goûts musicaux sur Myspace, ses recettes sur Marmiton ou le nom de mon livre préféré sur Facebook dit-il vraiment quelque chose de soi ? Ou plutôt cela fait-il partie de mon intimité ? Je ne le crois pas.

L’intime : la clé du Web 2.0
En fait il ne s’agit que d’une clé d’entrée. Le web étant de plus en plus social et affinitaire c’est probablement le meilleur moyen d’accéder à ce que le Web 2.0 peut offrir : de la recommandation, du conseil, des échanges… De plus, prises séparément, ces informations dispersées sur la toile ne disent que peu de choses sur une personne, c’est quand toutes ces informations sont rassemblées que l’intime devient vie privée. Un bloggeur qui donne accès à toutes ses informations personnelles : Viadeo, Myspace, Facebook, FlickR… est beaucoup plus intimement exposé qu’un individu qui partage ce type de données de façon dispersée. Les informations personnelles ne deviennent réellement personnelles lorsqu’elles s’inscrivent dans un maillage : un nez ne définit pas un visage pas plus qu’une bouche, c’est l’ensemble qui définit un visage. Je crois que c’est avec ce maillage que les informations personnelles prennent une dimension réellement intime.

Dans une étude récente, Deloitte pronostiquait la décrue de ce phénomène et l’avènement de plateformes plus fermées à prix premium. Ce pronostic, fondé sur le fait que le social networking a pris son essor grâce à une population jeune, désargentée et sujette à une aversion au payant. C’est sûrement pas si vrai car ne l’oublions pas : si nous ne sommes pas des vedettes (de la vie ou du web) tout le monde se fout de notre vie ! Pour s’en assurer il suffit de voir que sur ces plateformes, les principaux publics des espaces d’exposition personnels sont… les intimes, des intimes à qui nous révélons déjà ces choses et bien d'autres encore.

lundi 23 juillet 2007

Influence et Web 2.0 : un modèle multiplateforme d'évaluation

Un billet récent de Fred Cavazza titrait « Je ne suis plus un bloggeur influent ». Dans ce post mélant déception, ironie et jubilation, Fred Cavazza explique qu’il n’est plus un bloggeur influent selon les derniers classements publiés (et le dossier de Stratégies)… et que dans une large mesure ça l’arrangeait bien (moins de sollicitations, de pollutions et de problèmes). On pourrait dire Mo’ Influence, Mo’ Problems, mais ce qui est intéressant que ça révèle que cette histoire d’influence à l’air d’obséder tout le monde, et pas seulement les communicants. Du coté communicants les choses ont l’air de bouger.

Un premier modèle d’évaluation de l’influence multiplateforme
L’initiative vient de David Brain (CEO de Edelman Europe) qui a mis sur son blog Sixtysecondview le fruit d’une réfléxion menée en interne. Bien que présenté comme une réflexion en cours, leur modèle a le mérite d’être assez complet même si critiquable. Mais comme on dit « La critique est facile et l’art est difficile » donc pour quelques remarques avisées, vous pourrez aller sur le blog de Nialls Cook (Hill & Knowlton).

L’idée du modèle est de prendre en compte un grand nombre de supports & plateformes pour évaluer l’influence d’une personne (ou d’un collectif). C’est une évidence, l’influence mesurée par Technorati ne résume pas l’influence réelle, elle n’en reflète qu’une partie sans tenir compte du fait que la plupart des internautes sont multi plateformes et que leur influence résulte plus de la combinaison de plusieurs vecteurs que du seul nombre de liens entrants.

Concrètement le modèle repose sur l’évaluation de l’influence à travers 6 critères, avec une note de 1 à 10. Les six critères sont mesurés à l’aide de différents moyens que j’ai résumé dans la présentation ci-dessous.



La question de la pondération entre les différents vecteurs d’influence d’un internaute suscite un débat par blogs interposés. David Brain propose la suivante :


La communication enfin en phase avec la culture blog ?
En tout cas, je trouve que la démarche de mettre en ligne une réflexion en cours est une forme d’ouverture que je trouve très intéressante et très « 2.0 ». Du vrai Blogsourcing, ce qui est à saluer.

mardi 17 juillet 2007

La recette du succès des campagnes online

Dynamic Logic, spécialiste de la recherche en efficacité marketing, vient de publier un palmarès des 10 campagnes online les plus efficaces de l'année 2006. Ce palmarès s'appuie sur les mêmes critères de mesure d'efficacité que la pub classique : attribution, agrément, intention d'achat... et non simplement au nombre de reprise sur la blogosphère et sur le web en général. La précision sur les critères n'est une diatribe déguisée, c'est qu'en réalité si le web est un superbe outil de mesure, les critères de mesure qu'il offre sont assez éloignés de ce qui constitue le tableau de bord d'un responsable marketing type qui se moque, sauf vanité aigue, du nombre de bloggeurs qui n'ont pas l'intention d'acheter mais qui ont copié une bannière sur leur blog.

C'est une démarche intéressante qui permet de cerner quelques points communs entre ces campagnes qui, semble-t-il, sont formidablement efficaces.

Palmarès
(cliquez sur les image pour découvrir les campagnes)

Oreo par Draftfcb

McDonald's par Tribal DDB Chicago

Kraft Singles par JWT

Honey Bunhes of Oats par Ogilvy & Mather

Dove par Ryan Interactive + Ogilvy & Mather

Crystal Light par Ogilvy & Mather

Dotglu New York

Ray-Ban par Starcom Chicago

L'analyse de ces campagnes et de ce qu'elles ont en commun permet à Dynamic Logic de dégager des points communs qui expliquent le succès de ces campagnes. Voici les 5 ingrédients qu'il faut intégrer pour créer les conditions favorables.

  • Conserver des visuels simples avec aussi peu de texte que possible. C'est essentiel pour se détacher au milieu des dizaines d'éléments, autant éditoriaux que publicitaires, qui cherchent à capter l'attention de l'internaute.
  • Mettre la marque en valeur au cœur du dispositif.
  • Assurer la cohérence et la continuité entre les campagnes online et offline. Elles doivent se nourrir mutuellement, se renforcer et entrer en résonance.
  • Utiliser la vidéo et les contenus Rich Media, les décliner et les multiplier dans différents formats.
  • Miser sur l'interactivité et le coté ludique.

Je ne suis pas certain que cette recette des campagnes online réussies soit suffisante. Il y a des campagnes qui pourraient cocher toutes les guidelines sans avoir vu leur campagne crever le plafond, et au contraire des campagnes pourries qui explosent littéralement. L'intelligence collective sans doute... la main invisible du marché.

Pour en savoir plus : Dynamic Logic

lundi 16 juillet 2007

Les mythes du marketing viral

La mesure du buzz, les vecteurs d’influence, les classements de blogs… Le concept de marketing viral a connu un grand succès grâce à la combinaison de l’essor du social networking online et de la saturation des consommateurs en messages publicitaires. Un chercheur iconoclaste vient bousculer les idées reçues sur la transmission virale des messages/idées et propose une réflexion renouvelée. Une conception plus complexe, moins schematique, mais surtout plus proche de la complexité inhérente au monde social. J’avais déjà évoqué quelques limites du modèle de diffusion viral dans un précédent post, avec une étude empirique des laboratoires HP sur la propagation virale online.

Des leaders d’opinion pas si influents
On considère généralement que les influenceurs, c’est-à-dire les bloggeurs les plus ciblés par des liens, ont un rôle crucial dans la propagation du buzz. En effet, ils sont les seuls qui, théoriquement, sont en mesure de toucher des larges communautés simultanément. Ils sont comme les points d’eau dans la savanne : des nœuds où se croisent tous les animaux. Pour Duncan Watts, professeur de sociologie à l’université de Columbia, cette présumée influence est très fortement exagérée. Il affirme que contrairement aux idées reçues, ces influenceurs ont relativement peu d’impact au-delà de leur « voisinage » affinitaire, thématique ou géographique.



De marketing viral au Big-Seed Marketing
Pour lui, les personnes « ordinaires » peuvent être beaucoup plus influentes qu’on peut le penser. Il suggère donc de cesser de se concentrer sur une cible sur sollicitée de geeks ultra connectés pour inverser la logique et se tourner vers une masse d’individus plus réceptifs. En gros, passer d’une logique Top-Down à une logique Bottom-Up.

Mais une des fleches les plus ascerées de Watts porte sur la logique elle-même. Selon lui, ça n’a pas de sens de plannifier un buzz. En soi, c’est vrai que tenir un discours qui consiste à dire que les consommateurs ont pris le contrôle, et plannifier des campagnes de buzz avec des films viraux est une forme de contradiction. La viralité de la propagation (le buzz) n’est pas un canal, c’est un phénomène, la résultante d’une combinaison aléatoire des mécanismes sociaux complexes et non maîtrisés.

L’approche Big Seed
L’idée, s’il ne s’agit pas de plannifier soigneusement un buzz, c’est de créer les conditions favorables à ce que la mayonnaise prenne. Car selon D.J. Watts "Things happen randomly. (…) You throw things out there, with as low cost as you can manage and with as great a diversity as you can stand and then you see what gets taken up." En bref : donner réellement le pouvoir aux internautes.

Naturellement, et sans doute pas innocemment du tout, ce point de vue suscite de vives réactions. (Sans doute) Volontairement provocatrice, l’analyse de Watts dénonce cependant une dérive qui mine la communication et le marketing : la focalisation sur les bloggeurs des classement Technorati ou Wikio. Ce phénomène, que certains bloggeurs critiquent non sans se délecter d’appartenir au club fermé de la crème de la blogosphère nationale, est très critiquable d’autant plus que les sollicitations sont souvent en décalage avec le positionnement et les centres d’intérêt des bloggeurs. Cette pratique est doublement dommageable : d’une part, elle sature mécaniquement ces « cibles », d’autre part elle dévalorise les professionnels de la communication et du marketing qui, dès lors, ne peuvent plus apparaître comme des interlocuteurs crédibles et utiles pour les bloggeurs.

vendredi 13 juillet 2007

CSR & Mécénat : des grandes causes qui rapportent

Cone, agence spécialisée dans la communication orientée CSR et mécénat, propriétaire du concept de "Cause Branding" publie une étude l'importance de l'implication des entreprises sur des causes dans l'acte d'achat. Elle montre l'impact de l'implication des entreprises dans une cause avec les ventes. Cette question, bien qu'en apparence simple (il faut être une entreprise citoyenne pour être appréciée et donc pour vendre) est en réalité très complexe surtout en France ou la culture du Boycott n'est pas très installée (echec des boycott de Danone, voir article de Robert Zarader et Catherine Malaval dans la revue de la communication sensible). L'étude porte sur le public Américain et révèle que les consommateurs sont de plus en plus sensibles à la question de la Citoyenneté d'entreprise dans leur acte d'achat.

Cette analyse, du reste bien exposée dans le livre de Caroline Fourest L'entreprise face au Boycott, butte sur le problème du décalage entre le déclaratif et la réalité des comportements. A une question du type "tenez vous compte du comportement d'une entreprise dans votre acte d'achat ?", il apparaît que les consommateurs répondent assez volontier positivement. Est-ce que cette étude parvient à contourner ce problème ? Je ne crois pas. Cela dit, elle reste intéressante car Cone n'en étant pas à sa première étude sur le sujet, les résultats montrent une tendance à la hausse de cette préoccupation chez les consommateurs.

Que nous apprend la Cone Cause Evolution Survey ?

  • 85% des Américains affirment être prêt à changer de marque si des pratiques condamnables d'une entreprise sont révélées.
  • 92% des sondés affirment qu'ils ont une image positive des entreprises qui soutiennent une cause à laquelle ils sont sensibles.
  • 87% des américains sont susceptivles de changer de marque (à qualité/prix égal) si une entreprise est associée à une grande cause (+31% depuis 1993).

Qu'ils tenaient également compte de l'engagement d'une entreprise sur les questions sociales quand il s'agit :

  • Quelle entreprise ils veulent voir faire du business avec leur communauté (86%)
  • Ou postuler pour un job (77%)
  • Quelles actions dans lesquelles investir (66%)

Par contre moins d'un tiers des sondés a affirmé avoir parlé atour de lui des produits d'une entreprise dont ils avaient entendu parlé de l’engagement dans les questions sociales (30% contre 43% en 2004). Peut-être le signe que les entreprises ont saturé leurs publics sur ce sujet…

Par contre, si les consommateurs sont sensibles à cette question, il ne faut pas pour autant le prendre pour des idiots : 90% précisent qu'ils ne soutiendraient une cause que si elle est en lien avec l'entreprise, et que 87% des sondés disent qu'ils souhaitent que les entreprises s'engagent sur des causes là où l'activité a le plus d'impact (en économie on dirait Externalités négatives).

Pour les résultats complets c’est par ici.

jeudi 12 juillet 2007

Le temps c’est pas que de l’argent, c’est aussi de l’attention (monétisable)

Les labo HP viennent de publier une étude statistique très sérieuse sur le phénomène de dispertion virales des actualités via la plateforme Digg. Elle montre l’interdépendance entre le facteur popularité et le facteur nouveauté d’une news (ils ont étudié des milliers de « stories »).

Cette analyse constitue une première car elle fournit des informations empiriques sur la dispersion virale à une échelle très importante : les comportement d’un million d’utilisateurs de Digg a été ausculté. De plus, l’étude complète les analyses en psychologie comportementale menées sur des individus ou de petits groupes de manière expérimentale.

Le principal constat est le suivant : la diffusion d’un message sur le principe du bouche-à-oreille devrait être une fonction exponentielle (plus il y a de personnes qui connaissent une news, plus il y a de relais potentiels). Une personne identifie une histoire, la propose, d’autres personnes la découvrent et si elles la trouvent intéressante, elles la relayent. La question est donc de savoir, dans cette évaluation intuitive de l’intérêt d’une news, quel est le poids du facteur temps. On se doute qu’il est important, une actu d’avant-hier n’est plus une actu et on lit rarement le journal de l’avant veille (sauf raison précise).

Le fait est qu’en moyenne, le délais au delà duquel une news perd son attractivité et sa capacité à être relayée, est de 69 minutes. Une heure de croissance… pour ensuite devenir une longue traine (Long Tail) assez classique. Une nuance cependant, la thématique de la news est déterminante sur la durabilité de l’attention. Après ça, comment dire qu’on ne vit pas dans un monde d’instantanéité et d’immédiateté. Tout a une date de péremption, pour une actu sur Digg, c’est donc une heure, mieux vaut bien la choisir.

Dans une perspective de marketing viral ou buzz marketing, cette étude souligne l’importance fondamentale du timing qui devient un aspect déterminant de la stratégie ainsi qu’un critère pertinent d’évaluation d’une action de communication virale.

Pour obtenir l'étude complète c'est par ici.

Vous avez aimé la Long Tail, vous adorerez la Fuzzy Tail

Voilà une présentation de David Armano, un clin d'oeil et une variation sur le thème de la Long Tail de Chris Anderson.



mercredi 11 juillet 2007

Les contenus premium dédiés au web arrivent

Après le règne des amateurs, les professionnels fourmillent leurs armes pour créer et diffuser des contenus de qualité professionnelle pour le web. Rien de nouveau à première vu, sauf que ce qui change c'est le type d'acteurs en présence (et les moyens dont ils disposent). Jusqu'à présent on avait 3 cas de figure
  • Les acteurs de web (AOL, CNET, Yahoo...) qui créent ou achètent des contenus thématique. En gros, c'est assez proche de ce que peux offrir la TV (parfois plus proche de Direct 8 que Canal +).
  • Les plateformes techniques : Youtube, Daily Motion, Wat... En principe, ce sont des contenus produits par les utilisateurs. En réalité c'est beaucoup de peer 2 peer déguisé bien qu'une démarche d'éditorialisation soit à l'oeuvre (EU Tube, Star Ac, Wat the Fuck...).
  • Le troisième cas de figure, c'est celui des chaînes TV classiques qui mettent en ligne des programmes après diffusion (France 5, TF1 avec le JT...).

Le grand changement, déjà esquissé avec le départ de l'ancien patron de Disney pour se lancer dans l'aventure Vuguru qui vient de lancer sa serie Prom Queen (ci dessous), se confirme avec l'annonce du départ de Brent Weinstein, le patron du tout puissant syndicat d'artiste UTA, pour prendre la tête de 60Frames. L'objectif : faciliter la production de contenus dédiés au web avec des stars du grand écran. Selon Brent Weinstein "it shouldn't be as hard to make an internet deal as it is to make a film or TV deal."


Episode 1 de Prom Queen (vu plus de 35000 fois sur Youtube)

Pour l'heure, rien à se mettre sous la dent. Par contre, on sait déjà que l'agence de publicité online Spot Runner est de la partie et que 60Frames a les reins solides avec un capital de 3,5 millions de dollars. A suivre.

mardi 10 juillet 2007

TV sur mobile : Killer Application ou Killer Operator ?

La TV sur mobile, c’est certainement la killer Application… dont les opérateurs attendent encore le décollage. Ce retard de décollage s’explique par plusieurs facteurs, en premier lieu le prix. Cet aspect pourrait ne pas être problématique sauf que derrière cette question se cache un enjeu de taille : une lutte entre des acteurs et des technologies totalement incompatibles.


Alors, de fait, la question est très technologique avec deux visions qui s’affrontent. Mais ces questions de choix technologiques ont des implications fortes sur le potentiel de développement des usages de la télévision sur mobile, qui représente, selon les estimations de Accenture et IDC un marché de 30 milliards de dollars. Mais alors qu’est-ce qui freine cette killer app dont on nous répète qu’elle devrait décoller d’un instant à l’autre…. Au moins depuis 1 an.

Des opérateurs mobiles souhaitent conserver le monopole de la fourniture de contenus.
Si on revient à l’origine de la télévision, le facteur déterminant de l’explosion des usages, c’est le broadcasting, c’est-à-dire la possibilité de diffuser un même contenu vers uns multitude de spectateurs simultanément. De fait, ce type de diffusion repose sur le faible coût de diffusion/réception. C’est exactement le contraire de ce qui se passe avec la télévision sur mobile. Avec la 3G, technologie dont les licences ont été vendues à prix d’or ce qui explique la vacance de la 4ème licence disponible en France, les opérateurs disposent d’une technologie de diffusion point à point. Pour faire simple, l’antenne de l’opérateur adresse le signal spécifiquement à un utilisateur. La contrainte, et le frein à l’explosion de l’application TV, c’est que le réseau ne pourrait pas supporter un nombre illimité d’utilisateurs au même endroit (malgré l’effort de densification du réseau 3G entreprit par les opérateurs). Donc, la variable d’ajustement est le prix qui permet d’ajuster la demande à la (relativement faible) capacité du réseau. Pour les opérateurs, il est bon que l’usage se développe… mais pas trop non plus. L’avantage pour les opérateurs est évident : ils maîtrisent la diffusion qui passe par leurs tuyaux et la facture à prix premium.

Cette logique de protection d’une position de choix entre les contenus et les utilisateurs n’est pas une première. Nokia qui ne cesse de promouvoir les usages gratuits avait déjà rencontré quelques difficultés avec ses terminaux dotés de récepteurs radio FM que les opérateurs ne souhaitaient pas subventionner pour cause de cannibalisme. Chacun à sa place : les équipementiers équipent, les opérateurs fournissent réseaux et contenus.


Des acteurs qui poussent des technologies de broadcasting
Lorsqu’on analyse les raisons qui empêchent l’explosion de la TV sur mobile, le principal frein est le coût qui résulte d’un choix de facturation, mais surtout d’une technologie de diffusion très coûteuse employée par les opérateurs. Pourtant, la technologie qui transformera cette fonctionnalité en véritable Killer App existe bel et bien et c’est le DVB-H. Le DVB-H, c’est une technologie de broadcasting pour appareils mobiles, l’équivalant de la TNT mais pour des appareils nomades. Cette technologie ne vient pas d’apparaître : elle a été standardisée en Décembre 2004 par l’ETSI !


Qu’est ce qu’on attend ?
De l’issu du bras de fer entre les différentes parties prenantes du secteur dépend l’avenir de cette application. La nouvelle donne est loin d’être prévisible, les questions épineuses restent en suspend : Qui diffusera cette TV : les diffuseurs (Towercast, TDF…) ou les opérateurs ? Qui payera les terminaux : il est évident que le taux de pénétration des mobile est une fonction croissante du niveau de subvention accordé par les opérateurs, s’ils n’ont rien à gagner à subventionner des terminaux DVB-H, il y a peu de chance que les consommateurs ordinaires ne consentent à des investissements importants de ce coté là…

Une chaîne de valeur à définir
La TV sur mobile attend donc son modèle économique. Si la chaîne de valeur exclue les opérateurs, les terminaux ne pourront se démocratiser. Si on laisse la main aux opérateurs, le DVB-H mettra des siècles à s’imposer face à une 3G qui génère plus de revenus à court terme.

Le grand média qui se cache dans ma poche n’est définitivement pas prêt de remplacer ma bonne vieille télé…

vendredi 6 juillet 2007

Comment un placement de produit peut booster une marque pour des années

Le placement de produit est depuis quelques années une pratique assez courante, notamment aux US. Cette technique a des avantages évidents avec un contexte d’exposition sur-mesure, une image calibrée et contrôlée. De plus, lorsque c’est fait intelligemment, ça permet au film d’être plus réaliste. Un peu comme les marques dans second life, ce que confirmait la récente étude CB News. D’ailleurs GM, qui a bien du mal à redorer son blason après s’être fait détrôné par Toyota sur ses propres terres, a investi massivement pour placer ses 4 modèles phares dans le film Transformers. Mais si un placement de produit est efficace, une visibilité gratuite dans une fiction peut porter des résultats inattendus.


Une étude de cas étonnante a été publié par Adage / Madison + Vine sur Synova, un labo spécialisé dans les solutions d’autodiagnostic, qui des années après la fin de la célèbre série Seinfield, continue à bénéficier d’une exposition totalement gratuite. Selon le magazine, l’épisode intitulé « Sponge » diffusé en 1995 est resté dans la mémoire collective et continue à faire gagner de l’argent à Synova grâce à une notoriété imbattable de Today Sponge.

Tout part d’une anecdote loufoque comme Seinfield en a le secret : Elaine, un des personnages principaux apprend que son contraceptif favori (le fameux Today Sponge) est retiré de la vente (par FDA). Elle part donc en acheter tout un stock. Mais c’est pas ça qui a marqué les mémoires. Le truc c’est qu’une fois en possession de son stock de Today Sponge, elle se met à les économiser en désignant les hommes « sponge worthy », ceux qui valent le coup de gâcher un Sponge Today, et les autres. Ce qui est amusant, et extraordinaire pour la marque, c’est que l’expression « Sponge Worthy » devenue culte bien que la série soit finie depuis longtemps. Donc quand une américaine moyenne va acheter des contraceptifs, qu’est-ce qu’elle demande ? Une boite de Today Sponge ! (Quel nom !)

Le plus fort finalement, c’est que d’une situation problématique de retrait d’un produit du marché par une autorité incontestable, la providence a fait une formidable opportunité pour le labo.

mardi 3 juillet 2007

Un peu de conseil sur votre technique ?

A mesure que les médias se numérisent, on observe une montée en puissance des expertises techniques. Il y a de plus en plus d’acteurs de la communication qui sont des ingénieurs avant tout. Ces derniers cohabitent, et même parfois collaborent, avec des agences plus généralistes soucieuses de ne pas apparaître Has been face à ces spécialistes du jargon technique hautement convaincant. Tous les acteurs de la communication tentent de valoriser leurs atouts selon leurs enjeux : les acteurs issus de la sphère technique valorisent l’importance de la technicité de leurs solutions, les agences généralistes valorisent leur plu value intellectuelle. Finalement, c’est assez difficile d’évaluer quel est le bon dosage entre technique et intelligence.

Le grand retour de l’intelligence…
Et si on revenait aux basiques ? Dans les RP, il y a 2 termes important : le R de la relation et le P des publics. En découvrant l’interview en podcast de Georges Chetochine sur ZDNet, j’ai trouvé que son point de vue était plein de bon sens : « trop d’informatique nuit à la relation client », et pour aller plus loin, il plaide pour une évolution de la notion de CRM vers l’URM ou User Relationship Management avec comme clé de voûte le retour de l’intelligence et du conseil. Mais si on suit Georges Chetochine, enfin quand même pas jusque ses aventures télévisuelles improbables, on peut aller plus loin en appréhendant les publics de façon plus précise. Pourquoi le binarisme quand on peut avoir plus ! Par exemple, dans l’illustration de David Armano on peut encore distinguer d’autres visages à notre individu de l’ère numérique : producteur, consommateur, client, membre d’une communauté, utilisateur et participant.


Tout à coup la perspective est très différente : on passe de la relation client (CRM) à la relation avec les publics (RP) et la boucle est bouclée. Même si ça fait déjà longtemps que le discours est entretenu par le secteur, ça s’avère de plus en plus vrai : les outils sont utiles mais ne se suffisent pas. Ce qui fait la différence, si on utilise les bons outils, c’est la démarche, l’intelligence, les idées et les insights.

Et l’expertise technologico-technique ?
Curieusement, ce point de vue est partiellement partagé par les tenants de l’autre vision : les apôtres de la technique. J’ai relevé avec intérêt ce que disait un spécialiste français du search marketing, François Sutter de chez Blue Acacia : « moins de technique n'implique pas pour autant plus de résultat. Je défends même le positionnement inverse ». Mais là où on commence à voir que ces sociétés qui évoluent dans un des grands bastions des tenants de la technique sont également soucieuses d’y ajouter une plu value intellectuelle, du conseil, en ajoutant qu’un « référencement efficace ne peut pas être unilatéral. Un long mais nécessaire travail de réflexion s'impose en amont, ne serait-ce que sur les objectifs à atteindre (trafic, notoriété, conquête de clients...) ».

Alors, technique or not technique : that is NOT the question !