lundi 23 juin 2014

Serge Abiteboul ; l'invité de Thierry BARDY lors du dernier "regards croisés" des Orange Labs

Orange - Regards croisés avec Serge Abiteboul (INRIA)




Regards croisés










Des données à la connaissance et au savoir : une révolution annoncée

Thierry Bardy accueillait Serge Abiteboul, directeur de recherche à l'INRIA, professeur au college de France, affilié à l’ENS Cachan et membre de l’Académie des Sciences.
Serge Abiteboul a reçu le Royal Society Milner Award 2013 en reconnaissance de ses travaux de recherches sur les bases de données.
Il partagea  sa vision de cette révolution annoncée (et en partie entamée) de la société de l’information,  basée sur les transformations en cours ou prévues du Web sémantique.

jeudi 19 juin 2014

Thierry Bardy : Quand Jeremy Rifkin crée le prosommateur !!!



Blue Orange
Production & consommation

Je réfléchis actuellement  à l’avenir de la Production & de la Consommation au-delà de 2020.
Pour imaginer ces scénarii du futur, j’ai choisi de rédiger des articles de presse fictifs, tous datés des années 2020 /2021 et de faire témoigner des acteurs économiques fictifs. L’utilisation de la  la 3 ème personne du singulier pour envisager cet avenir m’a permis d’envisager quelques scénarii de ruptures que je vous laisse le soin d’amender dans les commentaires de mon blog ci-dessous.
Chaque quinzaine, je me prêterai à cet exercice périlleux de décrire les leviers de transformations de la consommation et la production de demain…
Nous sommes donc en 2021 et les thèmes que j’aborderai seront les suivant …

-Quand Rifkinf crée le prosommateur !!!
- L’économie de fonctionnalité ou servicielle ; de « own » à « use, not own »
- Réemploi et réparation ou l’avènement des marchés de l’occasion 
- La location entre particuliers.
- Mort du e –commerce, vive le commerce connecté
- Circuit alimentaire de proximité
- Le marketing de 2020 ou l’emergence de l’intelligence du silicium
- de la monnaie virtuelle aux  programmes de fidélisation consommateur


En guise d’introduction à mes réflexions sur ce sujet de la production et la consommation au-delà de  2020,  le dernier ouvrage de Jeremy Rifkin « The Zero Marginal Cost Society: The Internet Of Things, The Collaborative Commons, And The Eclipse of Capitalism » est  porteur de messages forts et introduit la notion de Prosommateur, le cœur du sujet.

Jeremy Rifkin, conseiller, futuriste et président de la Fondation pour les tendances économiques ( FOET)  évoque la maturation de l’économie de partage et l’émergence du nouvel internet comme outil pour une meilleure gestion de l’énergie et des transports.
Fort de ses racines activistes et de son bagage d’économiste, Jeremy Rifkin peint une description saisissante de la société et du consommateur après 2030.

Le capitalisme est-il en sursis ?
Persuadé que le capitalisme devra partager son poids économique avec un système émergent construit sur les réseaux peer-to-peer, Jeremy Rifkin définit le coût marginal comme le coût additionnel de chaque unité de production d’un bien ou d’un service après absorption du coût fixe.
Il évoque « les consommateurs qui équilibrent leur consommation avec le partage et la production de leurs propres information et produits .
Il estime qu’il est « impossible de rivaliser avec le coût marginal zéro. C’est pour cela qu’il existe, selon lui,  un potentiel pour l’avènement d’un nouveau système économique.

Nous sommes aujourd’hui les témoins du premier nouveau système économique à émerger depuis les naissances du socialisme et du capitalisme, au début du 19ème siècle.
Son nom ? « The collaboratives commons ».
Ses racines ? La croissance phénoménale de l’économie de partage et ses plateformes de service.
Sa définition ? « Un peu de capitalisme et un peu de socialisme réunis mais qui va bien au-delà, et dont le déclencheur est le coût marginal zéro », explique Jeremy Rifkin.

Dans un article de James Heskett publié début avril, la Harvard Business School se fondait sur ces conclusions pour s’interroger sur la consolidation d’une économie post-capitaliste : « La compétition que le capitalisme a nourri tend maintenant à abaisser les coûts marginaux de production encore bien plus bas que toutes les anticipations des économistes. Il est même proche du zéro dans des secteurs comme l’édition, l’énergie, l’éducation. Cela se vérifie par exemple avec l’enseignement en ligne ouvert et massif (MOOC) et l’impression 3-D. Les forces vives du capitalisme, le profit et l’investissement, sont neutralisés. Résultat, un secteur social qui ne repose pas sur le profit joue un rôle grandissant dans la création et la distribution de biens et services, devenant un employeur significatif. »


Le prosommateur auto-suffisant détient la clef
 Comme le rappelle PSFK, la société de consulting de Jeremy Rifkin, The Industrial Revolution Consulting, travaille avec certains pays comme le Danemark, l’Allemagne, la France, l’Italie, l’Espagne ou la Chine, à la mise en œuvre d’une troisième révolution industrielle. L’énergie solaire compte déjà pour 25% de la production globale outre-Rhin, juste pour donner un exemple notable.
 Selon le NY Times, le mouvement de l’Internet of Things fournit une information en temps réel sur les usages et les prix du réseau électrique de transmission. Ce nouvel outil peut permettre aux ménages et aux entreprises qui, grâce à leurs installations solaires et éoliennes, génèrent et stockent de l’électricité renouvelable, de pouvoir automatiquement la retirer du réseau quand les prix sont élevés. Ils peuvent alors subvenir à leurs propres besoins et en partager les surplus avec leurs voisins, pour un coût marginal proche du zéro.

Le futur tel que l’envisage Jeremy Rifkin, accusé par quelques détracteurs de confondre marché et capitalisme, repose donc sur un prosommateur auto-suffisant et un consommateur/producteur dont le savoir est nourri par la data et ses réseaux. Le prosommateur va transformer le visage à la fois des marques, des entreprises et des gouvernances, parce qu’il sera justement capables de générer sa propre énergie et ses propres biens.




















mardi 10 juin 2014

Thierry Bardy Connaissez vous le HPC pour High Performance computing








Thierry Bardy; tags ; HPC, super calculateur , Bull , CEA, 
Thierry Bardy
Les 2 journées Teratec à l'X  les 1er et 2 juillet prochain consacrées à l' exploration des prochains usages du HPC me paraissent excessivement intéressantes, je ne manquerai d'en retracer les faits et idées saillantes. 
Le wordbuzz " big data " a certainement vampirisé le HPC ( High Performance Computing) mais ce dernier n'a pas dit son dernier mot. Le monde des supercalculateurs est à un tournant qui ouvre des perspectives sur de nouvelles applications notamment dans l'agro-alimentaire, les systèmes urbains et le multimédia.

Sur la technopôle Teratec, les industriels peuvent maintenant accéder aux ressources du supercalculateur Airain du TGCC, d'une puissance de 420 teraflops, et à l'expertise en simulation numérique des équipes du CEA. 
Fort de 86 membres, Teratec développe depuis 2005 son écosystème d'expertises autour du calcul haute performance et de la simulation numérique, avec les ressources HPC du CEA. Le monde des supercalculateurs est à un tournant qui ouvre des perspectives sur de nouvelles applications notamment dans l'agro-alimentaire, les systèmes urbains et le multimédia.

Teratec tiendra les 1er et 2 juillet son 9ème Forum consacré au calcul haute performance et à la simulation numérique, sur le site de l'Ecole Polytechnique de Palaiseau. Celui-ci traitera notamment de la diversification des cas d'usage de ces technologies dans le paysage industriel, qui s'étend aux ETI et aux PME. « Le monde du big data en particulier relève vraiment du HPC (High Performance Computing) », citait hier en exemple Gérard Roucairol, Président de Teratec. « Il y a de nouvelles générations de logiciels à mettre en place. Il faut ensuite ensemencer ce marché avec des actions pionnières dans les domaines de la santé, de l'agro-alimentaire, des systèmes urbains, de la simulation des matériaux ou du multimédia », a-t-il exposé lors d'une visite organisée sur le campus de l'association, installé face au TGCC, le très grand centre de calcul du CEA, situé à Bruyères-le-Châtel, dans l'Essonne.

Le Forum Teratec présentera les projets les plus avancés, ainsi que le Plan Supercalculateurs. Ce dernier s'inscrit dans les 34 plans de reconquête industrielle de l'Etat. Il a été exposé le 7 mai dernier au Président de la République par Gérard Roucairol qui en est le chef de projet. « Nous sommes face à deux ruptures majeures, l'une technologique et l'autre commerciale, et c'est une période bénie de ce point de vue-là. Si vous pouvez saisir les opportunités, vous pouvez changer le monde », a rappelé hier le président de Teratec. La rupture technologique, post loi de Moore, est amenée par les technologies multicoeurs et le parallélisme qu'il faut parvenir à maîtriser. Sur le terrain commercial, l'accès aux moyens de calcul via le cloud va généraliser les usages. Aujourd'hui, les grandes applications de la simulation, dans les secteurs de l'industrie, de l'automobile, de l'aéronautique, etc. et de la recherche fondamentale représentent 80% de l'utilisation de ces technologies . « Dans dix ans ce sera l'inverse et ce seront les nouvelles applications qui vont tirer le marché, d'où le Plan Supercalculateurs », a expliqué Gérard Roucairol.

La France, l'un des rares pays en Europe à disposer de compétences HPC

Des initiatives sectorielles sont engagées, dans le domaine de la santé, pour personnaliser les thérapies, dans celui de l'agro-alimentaire et du végétal, pour modéliser le cycle de vie complet des plantes et prévoir les rendements, dans la simulation de nouveaux matériaux, pour prévoir leur vieillissement avant même qu'ils n'existent, dans la gouvernance des systèmes urbains, et jusqu'aux images de synthèse des applications multimédia dont les besoins en puissance de calcul ne cessent d'augmenter. Quant aux industries manufacturières qui font partie des utilisateurs traditionnels du calcul haute performance, il leur faut maintenant changer d'échelle pour passer à une simulation et à une optimisation globales. « Il faut ensuite diffuser ces capacités dans l'industrie », a redit Gérard Roucairol en imaginant avec un sourire, pour illustrer la ramification des usages, que le coutelier de Thiers devrait pouvoir lui aussi utiliser des outils de simulation.

« Ce qui nous intéresse, c'est aussi cela, de pouvoir atteindre des utilisateurs qui n'ont pas l'habitude d'accéder à ces technologies ». D'où l'importance de l'axe formation du Plan Supercalculateurs. Dernier point abordé : l'importance de maîtriser les technologies futures, l'Extreme computing et ses supercalculateurs exaflopiques. « Nous pensons que des entreprises étrangères vont être intéressées, et vouloir s'installer en France », a ajouté Gérard Roucairol en indiquant qu'il n'y avait que quelques pays dans le monde capables d'intervenir dans le HPC et la simulation numérique. En dehors des Etats-Unis, de la Chine et du Japon, la France est parmi les premières en Europe, sans doute même la seule, à disposer des compétences sur ces métiers.

Supercalculateur Airain du CEA
Le supercalculateur Airain exploité dans le CCRT du CEA. (crédit : LMI)
La puissance de calcul, un atout concurrentiel

L'objectif de Teratec, qui s'est créé en 2005 et compte aujourd'hui 86 membres, est en particulier de mettre les ressources du calcul haute performance au service de la compétitivité des entreprises en France et en Europe. Le campus qu'il a installé et le TGCC du CEA constituent ensemble la technopôle Teratec. Près du « computing center », deux bâtiments (un 3ème est prévu) accueillent des fournisseurs de technologie, comme Bull qui dispose sur place depuis 2005 d'une équipe de R&D et de support à ses supercalculateurs exploités par le CEA, ou comme les éditeurs de logiciels de simulation numérique et d'outils de prototypage virtuel Distene, ESI Group et Silkan. « L'intérêt de Teratec, dans le monde du HPC au niveau international, est de réunir au même endroit toutes les étapes de la chaîne de valeur », souligne son président, et de rendre ainsi possible un échange permanent et direct entre ses différents acteurs « pour être toujours à la pointe de l'usage de ces technologies essentielles qui permettent de gagner du temps et de l'argent et qui ont un effet immédiat sur la compétitivité hors coûts ». L'équipe R&D de Bull travaille notamment sur le passage du petaflopique à l'exaflopique, a indiqué hier Ben Bratu, manager R&D, en rappelant qu'en termes d'équipements, on parlera alors de dizaines de millions de coeurs contre des centaines de milliers aujourd'hui.

Gérard Roucairol, président de Teratec
Gérard Roucairol, président de l'association Teratec qui compte à ce jour 86 membres. (crédit : LMI)

Le laboratoire de recherche industrielle Exascale Computing Research Lab au sein duquel sont engagés un industriel et trois entités universitaires, Intel, le CEA, Genci et l'UVSQ, s'est également installé sur le site pour préparer la montée en puissance du parallélisme massif. Le campus Teratec héberge aussi les laboratoires du programme HPC de l'institut de recherche technologique SystemX. Le site dispose par ailleurs d'un institut de formation et aimerait développer sa pépinière d'entreprises. Celle-ci compte déjà des sociétés comme Numtech, qui étudie la dispersion dans l'atmosphère des rejets de l'activité humaine (industriels, routiers, urbains) pour en estimer l'impact, et Cybeletech, une start-up issue de l'Ecole Centrale Paris qui propose des services et logiciels autour de la modélisation des végétaux et de leur croissance, par exemple pour l'optimisation du patrimoine forestier. Parmi les premiers clients de Cybeletech, les semenciers recourent à ces technologies pour valider la sélection de nouvelles variétés. Ces deux sociétés interviendront sur le Forum Teratec début juillet.

420 teraflops sur le supercalculateur Airain du CEA

Au sein de la technopole de Teratec, le TGCC du CEA gère deux centres opérationnels dont le CCRT mis en service en 2003 qui propose ses expertises HPC à des partenaires industriels. « L'un des objectifs est de les aider à passer à un niveau supérieur dans la simulation numérique en travaillant dans la durée, avec des contrats sur plusieurs années », nous a expliqué Christine Ménaché, chargée d'affaires CCRT. Le centre donne accès depuis 2012 au supercalculateur Airain, dont la puissance, augmentée à deux reprises (la dernière fois en décembre 2013), s'élève actuellement à 420 teraflops. Parmi les entreprises accédant aux ressources du CCRT figurent des industriels comme Safran, Snecma, EDF (partenaires historiques), Valeo ou, plus récemment, Loreal et Thalès. Utilisé par Snecma dans la conception des moteurs, la simulation numérique lui a par exemple permis de réduire la consommation en énergie de 15%. Loréal de son côté travaille dans le domaine de la cosmétique sur la modélisation des cheveux et de l'épiderme.

Sur la période 2012/2014, au CCRT, un budget de 100 000 euros par an donnait accès aux ressources de 256 coeurs, avec les services d'assistance associés. Le budget est revu à chaque renouvellement de machine. Les derniers noeuds de calcul installés dans le supercalculateur Airain exploitent des processeurs Ivy Bridge d'Intel (20 coeurs par noeud et 64 Go de mémoire par noeud, 2 noeuds par serveurs, 9 serveurs dans un châssis). Airain exploite 7 200 coeurs de calcul Ivy Bridge à 2,8 GHz, 9 504 coeurs Xeon E5-2680 à 2,7 GHz (16 coeurs par noeud) et 18 noeuds hybrides B515 avec des puces graphiques K20 de Nvidia. La durée d'utilisation d'une machine étant d'environ 4 ans, un appel d'offres sera lancé courant 2015 pour répondre aux besoins de calcul des partenaires et installer un nouveau supercalculateur en 2016, nous a indiqué Christine Ménaché

Consommation TV ; superposition info internet sur sur écran TV













Start-up, chaînes, producteurs, géants de l'Internet et annonceurs rivalisent d'imagination pour tirer profit des applications permettant d'interagir avec une émission.


Pas moins de 150 conférenciers devraient défiler au TV of Tomorrow Show, la grand-messe de la télévision américaine, qui se tient aujourd'hui et demain à San Francisco. Quelques jours plus tard, près de 700 participants sont attendus aux Cross Video Days, organisés à La Plaine-Saint-Denis, au nord de Paris : producteurs, chaînes de télévision européennes, acteurs de l'Internet, annonceurs et start-up viendront y discuter, comme à San Francisco, des complémentarités entre la télévision, Internet et les smartphones.

Ce marché est en pleine ébullition des deux côtés de l'Atlantique. « Les études menées aux Etats-Unis ou en Europe révèlent que les téléspectateurs âgés de dix-huit à quarante-cinq ans, lorsqu'ils sont devant leur téléviseur, passent désormais un quart de leur temps sur un second écran : leur smartphone, leur tablette ou leur ordinateur portable », résume Anne-Marie Roussel, cofondatrice de Seespace, une start-up de San Francisco qui a mis au point un appareil permettant de superposer sur un écran de télé des informations en provenance d'Internet. « Plus besoin de second écran : nous ramenons les yeux des téléspectateurs vers la télé, et donc vers la publicité », poursuit-elle. Car là est le grand enjeu de la télé interactive. « 75 % des personnes font autre chose en regardant la télévision et, parmi elles, 50 % recherchent de l'information sur le programme qu'elles sont précisément en train de regarder », précise Valéry Gerfaud, directeur général de M6 Web.

Pour les chaînes, cela représente à la fois un risque (voir l'engagement des téléspectateurs diminuer si elles ne font rien) et une opportunité (augmenter cet engagement avec leurs propres applications). La grande originalité de cette révolution technologique est qu'elle n'a pas été imposée par les chaînes, les producteurs de télé ou les fabricants de téléviseurs, mais par les téléspectateurs eux-mêmes. « L'enjeu n'est pas de connecter les télévisions ou les émissions en soi : aujourd'hui, ce sont les téléspectateurs qui sont de plus en plus connectés devant leurs écrans et notre offre doit en tenir compte », explique Antonio Grigolini, directeur programmes et social TV à France Télévisions Editions Numériques.

La demande est effectivement là. « Notre application MyTF1 pour tablette ou smartphone a été téléchargée 8 millions de fois, indique Olivier Abecassis, directeur général d'eTF1. Pour certaines émissions, comme "The Voice", nous approchons le million de visites par jour avec, en moyenne des sessions de 10 minutes. » Sur M6, le plus gros succès a été le quiz « Qu'est-ce que je sais vraiment ? », diffusé en mars et avril derniers et auquel l'application 6play permettait de jouer : de 400.000 à 500.000 joueurs, soit plus de 15 % des spectateurs de l'émission, sont restés connectés simultanément. « Le succès de l'interactivité est cependant subordonné à l'audience de l'émission sur le premier écran, relativise Alain Le Diberder, directeur des programmes d'Arte. Cela ne marche que pour les grands directs en première partie de soirée, comme les matchs de foot, les soirées électorales, les jeux et les talent shows, comme "The Voice" ou "La Nouvelle Star"… »
Le principal intérêt de l'interactivité, c'est qu'elle permet de récupérer une grande quantité d'informations. Et ces dernières sont plus riches que les simples résultats des votes par SMS pour tel ou tel chanteur : désormais, on peut savoir quelle région ou quelle ville a le plus répondu à telle question ; voire, quand les profils des utilisateurs contiennent ces renseignements, faire des tris par sexe ou par classe d'âges. Ces données viennent s'ajouter au contenu de l'émission, sous forme d'infographies affichées en direct (les femmes ont mieux répondu que les hommes, par exemple). A posteriori, leur analyse (quelles réponses ont été les plus difficiles à trouver ?) servira à améliorer les émissions suivantes.

Décider du contenu d'une émission

Bien évidemment, ces renseignements intéressent aussi les annonceurs. « Nous pouvons proposer, pendant la diffusion à la télévision d'une publicité pour un livreur de pizzas, d'afficher sur l'application de cette chaîne une offre promotionnelle pour ces mêmes pizzas : le téléspectateur clique dessus et comme nous savons où il habite, grâce aux données transmises par son téléphone ou son PC, il est mis directement en relation avec le point de vente le plus proche », explique Dan Albritton, cofondateur de Megaphone TV, une start-up new-yorkaise spécialisée dans les solutions pour la télévision interactive.
Les revenus de la publicité interactive intéressent beaucoup de monde. Le premier à tenter d'en profiter a été Twitter. Logique : c'est sur ce réseau social que les internautes échangent le plus de commentaires au cours d'une émission. L'offre Amplify de Twitter, disponible depuis un an, permet à un annonceur dont la publicité passe à la télé d'envoyer simultanément des tweets sponsorisés à des internautes choisis en fonction de leur affinité avec cette émission. Les revenus sont partagés entre Twitter et le diffuseur.
Facebook n'est pas en reste et a révélé, le 21 mai dernier, que son application pour mobile allait écouter ce qui passe autour de nous pour tenter d'identifier quelle chanson nous écoutons ou quel programme télé nous regardons. Officiellement, cela permettra aux internautes de partager plus facilement leur musique ou leur émissions favorites. Mais personne ne doute que Facebook utilisera ces informations pour afficher des publicités ciblées. Des technologies similaires existent d'ailleurs déjà dans les applications MyTF1 et 6Play. « Notre application a accès au microphone du smartphone ou de la tablette et peut donc reconnaître le signal de TF1 », révèle Olivier Abecassis.
Dernier service offert par l'interactivité : permettre aux téléspectateurs de décider du contenu d'une émission. « En décembre dernier, nous avons lancé la première "tweet série" à la française, "What Ze Teuf", sur D8 : quinze épisodes de deux minutes dont le scénario était en partie dicté par des tweets envoyés la veille au soir », indique Fabienne Fourquet, directrice des nouveaux contenus sur Canal+.
En France, le CSA essaye bien sûr d'avoir son mot à dire sur ces nouvelles formes de télévision… qui échappent en partie à sa compétence. « Le Conseil supérieur de l'audiovisuel est compétent pour toutes les données associées diffusées par voie hertzienne, rappelle Emmanuel Gabla, membre du CSA. Pour le reste, en particulier les applications disponibles sur ordiphones et tablettes en lien avec les émissions des chaînes, nous voulons mobiliser les grands acteurs de l'Internet sur un mode d'autorégulation. »
Lexique
Application compagnon : « C'est une application interactive développée pour une émission spécifique, une chaîne ou une marque », explique Pierre Matuchet, PDG de Milky, une agence de « social media ».
Gamification : le fait d'ajouter une couche de jeu interactif, notamment via l'application compagnon.
Indexation : des sociétés comme Boxfish, aux Etats-Unis (pour le contenu détaillé des émissions), ou TVTY, en France (pour les publicités), indexent tout ce qui passe sur les chaînes de télé, afin de faire des recommandations aux téléspectateurs ou aux annonceurs.
Storytelling : la société américaine Social Samba a mis au point une plate-forme d'écriture automatique qui propose des échanges personnalisés sur Twitter avec les personnages d'une série télévisée.

En savoir plus sur http://www.lesechos.fr/journal20140610/lec1_idees_et_debats/0203543233799-jusquou-ira-la-television-interactive-1010939.php?S0wyi3dIespIqTQD.99

Grande distribution : la Data en tête de gondole

Grande distribution : la Data en tête de gondole














De tout temps, les retailers s’interrogent sur le profil de leurs clients pour optimiser la conversion d’achat. La data ouvre de nouvelles perspectives dans la politique CRM, pour peu que ce secteur autrefois précurseur sur le sujet sache vraiment s’en emparer.
S'il est un secteur qui travaillait sur la data bien avant que ce mot ne devienne un élément clé du vocabulaire de la technique et du marketing, c’est bien la grande distribution ! L’analyse plus ou moins élaborée du ticket de caisse a de longue date permis d’identifier les habitudes de consommation, les produits préférés, les associations de produits au sein du panier d’achat, d’en déduire la composition du foyer…
Pionniers d’une utilisation plus « moderne » de ces données dans segmentation de leurs clients par centre d’intérêt et affinités de produits, des distributeurs anglo-saxons comme Wal-Mart ou Tesco ont ouvert les yeux du secteur sur les leviers de différenciation et de gestion de la relation client qu’offrait la data.

Le comportement des consommateurs, qui jonglent entre les canaux off et online pour profiter des promotions, acheter malin ou optimiser le temps passé à faire leurs courses, a amené la distribution à renforcer les moyens consacrés à la connaissance cross canal des parcours d’achats et des profils clients. Les centres de profit en silo n’ont pas toujours aidé les enseignes qui s’étaient développées sur Internet à réconcilier les informations issues de chaque canal, mais celles-ci s’organisent pour pouvoir jouer la complémentarité entre ces « clusters ». Etroitement liée au développement des programmes de fidélité, la connaissance du client final est historiquement dans les mains des distributeurs. De la même manière que le prix, elle est désormais au cœur des rapports de force avec les industriels, surtout depuis la montée en puissance du digital et des réseaux sociaux, qui a amené les marques à investir massivement dans l’acquisition de données.

Un sujet tabou ?

D’ordinaire peu loquaces sur leurs activités, beaucoup de distributeurs deviennent étrangement muets dès lors qu’il s’agit d’aborder leur approche de la data.
Volonté de ne pas révéler de « secrets de fabrication » à leurs concurrents directs ou aveu implicite d’un manque de vision claire sur le sujet ? Sujet tabou dans la bataille qui oppose les acteurs traditionnels aux géants du e-commerce qui ont pris de l’avance sur l’exploitation de la data client et du pouvoir de recommandation qui en découle ?
Si la data est à ce point le nerf de la guerre, c’est qu’elle intervient à tous les stades de la chaîne de distribution. Y compris sur la partie la moins visible, qui concerne la connaissance clients au sens large et permet aux enseignes d’être dans une logique consommateur beaucoup plus réelle.
Un dispositif comme Consumer Zoom, développé par MarketingScan, analyse les transactions sur les produits alimentaires et non alimentaires grâce aux données d’Auchan, Système U, Cora et des 3 Suisses : « Les mesures en conditions réelles de vrais shoppers exposés ou non à des publicités permettent aux marques d’identifier les leviers de croissance de leurs innovations, d’ajuster leurs stratégies merchandising, d’identifier l’impact des promotions et l’effet de recrutement à long terme, de mesurer la rentabilité des programmes de fidélité. La vision multi-canal permet aussi de comprendre les comportements sur les nouveaux canaux de distribution, notamment le drive », détaille Georges Augué, DG de MarketingScan.

Grâce à ces études, les industriels peuvent être force de proposition sur les promotions ou l’exposition des produits en rayon.

Relation client ou course à la promo ?

L’enjeu le plus visible concerne évidemment la relation client. Même à l’heure de la data, qui permet des analyses plus fines et des remontées d’informations plus rapides, l’analyse du ticket de caisse garde toute son importance. À travers les programmes de fidélité, les distributeurs tracent 40 à 70% des informations clients. Selon leur stratégie commerciale, certains ont développé des animations différenciées avec des approches qui poussent assez loin l’analyse du comportement consommateur. Les profils établis sur l’historique d’achat sont anonymisés pour rester compatibles avec la réglementation sur la protection des données personnelles. « Dans le retail physique, les modèles les plus sophistiqués de ces dix dernières années ont été le fait de la distribution, mais tout ce qui est techniquement possible n’a pas forcément de sens d’un point de vue économique. Chaque opération est testée pour s’assurer de sa rentabilité en termes de taux de transformation, de marge et de coût pour pousser l’offre », souligne Christophe Genin, directeur Marketing & Développement de LaSer Group.
Quel que soit son fonctionnement, chaque programme doit se montrer suffisamment attractif et transparent sur l’utilisation des données personnelles pour inciter les consommateurs à y participer. En fonction du segment de client, de la fidélité et des volumes d’achat de ses porteurs de carte, Monoprix édite des coupons produits permettant de cumuler des « smiles » supplémentaires. Pour lutter contre un positionnement prix peu favorable, l’enseigne leur réserve même depuis quelques mois 5% de réduction supplémentaires sur les promotions. Un avantage réel qui reste toutefois peu lisible, car il ne joue que sur quelques centimes par produit. De son côté, Leclerc entretient sa réputation d’enseigne la moins chère grâce à des « tickets » qui permettent aux détenteurs de cartes de créditer une « cagnotte » à réutiliser à leur guise lors d’achats futurs.

La mécanique de cagnotte financée par les industriels est au cœur des programmes de fidélité de la plupart des enseignes de la distribution alimentaire. Pour Frank Rosenthal, expert en marketing du commerce, cette situation héritée de la loi Galland engendre souvent une distorsion dans l’approche de la fidélisation du client : « Dans un contexte où le prix est omniprésent, où les taux de présentation sont colossaux et où les gens plébiscitent leur carte, aucun distributeur n’est revenu sur ces programmes qui passent pour des avantages acquis. Les cartes servent davantage l’animation promotionnelle ou la part de marché des enseignes que la véritable fidélité comme la pratique le secteur aérien. » Le nombre de cartes que détient chaque consommateur illustre cette course à la cagnotte qu’ils pratiquent auprès d’enseignes essentiellement fréquentées pour leur proximité.

Le CRM toujours d’actualité

Dans la distribution spécialisée, la fréquence de présentation des cartes de fidélité est bien moins élevée et les enseignes doivent se rappeler régulièrement au bon souvenir de leurs clients. Travailler la data n’implique d’ailleurs pas de renoncer aux voies les plus classiques du CRM, comme l’explique Juliette Delcourt, directrice marketing de Marionnaud, enseigne qui a internalisé et modernisé en 2012 sa gestion de la relation client : « Dans l’approche relationnelle et conversationnelle que nous entretenons avec nos détenteurs de cartes, le premier point de contact reste la conseillère beauté. Nous continuons aussi à faire du mailing papier mais en sélectionnant les personnes pour lesquelles cela aura le plus de pertinence en termes de valeur. Les boutiques téléphonent beaucoup à leur clientèle la plus fidèle… ».

Pour faire découvrir aux nouveaux arrivés dans son programme l’ensemble des services de l’enseigne, Marionnaud privilégie en revanche Internet et sur les réseaux sociaux. « Plus aucune décision n’est prise sans regarder la data, mais on prend garde à ne pas trop miser non plus sur le côté prédictif. Sur le marché du parfum et de la beauté, qui compte beaucoup de lancements et fonctionne sur l’achat plaisir, les clients ont envie d’essayer les nouveaux produits », précise-t-elle.

Du one to few au one to one

 Par la nature même de leur activité, les e-commerçants n’ont pas besoin de programme de fidélité pour recueillir des données utilisateurs qui couvrent l’ensemble de leur clientèle. Certains développent des politiques marketing très orientées data, plus fines que le traditionnel one to few. Price Minister revendique une approche one to one qui s’appuie sur un système complètement automatisé, capable d’exploiter en temps réel une quantité de données suffisamment importante pour générer des corrélations statistiques représentatives. « Le temps réel est un élément très important dans nos métiers, qui nous différencie vraiment de la distribution traditionnelle. Si nos temps de calcul sont trop longs, les propositions risquent d’arriver en retard par rapport à un temps de décision d’achat toujours un peu aléatoire selon la personne et la catégorie de produit », note Olivier Mathiot, co-fondateur de Price Minister.

Ce travail sur la data a amené le site de e-commerce à mettre en place de nouveaux métiers, de nouvelles organisations, et à travailler avec des prestataires sur des verticales. « Nous avons pu avancer plus vite sur les recommandations personnalisées, le retargeting en dehors du site, l’e-mail personnalisé, les push notifications envoyées sur le mobile ou les réseaux sociaux… Il va maintenant falloir rationnaliser tout cela pour tenter de retrouver la transversalité de la personne », ajoute-il. Le site pourra s’appuyer sur les équipes R&D du troisième Rakuten Institute of Technology que son propriétaire japonais a ouvert en début d’année à Paris.

L’exploration des données de navigation est déjà utilisée dans une optique transactionnelle : Les 3 Suisses récoltent des informations sur les goûts des internautes pour leur présenter des produits dans la taille qui leur convient ou la couleur qui leur plait le plus. Auchan a aussi commencé à mener des tests sur la personnalisation de ses messages promotionnels dans une logique cross canal. « On avance pas à pas, mais l’objectif est de nouer une relation commerciale de plus en plus personnalisée et de proposer au client les produits qui l’intéressent au moment où cela l’intéresse », indique Arnaud Delattre, responsable connaissance client et ciblage.

Afin d’explorer les pistes ouvertes par la data, l’enseigne va également s’adjoindre les services de Teradata, société américaine qui gère entre autres « l’entrepôt de données » de Wal-Mart.

Relevant data

« Les distributeurs et les marques doivent comprendre que nous sommes passés d’un modèle d'offre de masse à un modèle de demande personnalisée. Ceux qui ne l’ont pas encore intégré ou qui ne sont pas en train de travailler dessus sont en péril », affirme Emmanuel Déchelette, DG France de Dunnhumby, spécialiste de la personnalisation de relation d’achat, propriété du britannique Tesco. La désintermédiation de la chaîne de distribution, la reprise de pouvoir par une génération connectée et formatée par Facebook, le développement du CtoC et de l’économie collaborative… renforcent encore cette nécessité d’évoluer.

« Le digital permet d’envoyer encore plus de messages et donc de noyer les clients d’offres inadaptées, poursuit-il. Personnaliser les offres selon le canal, le contenu ou le type d’offres et la fréquence préférés de chaque client nécessite un vrai moteur de connaissance client autour de la relevant data. Il est toujours plus efficace à long terme de retenir ses meilleurs clients que d’être obligé d’en recruter de nouveaux. Pour récompenser leur fidélité, il faut bien les connaître, parfois les interroger, et construire un contrat de confiance autour de la pertinence et de l’utilisation de leurs données personnelles. »

Identifier la data « utile » évite d’ailleurs de se noyer dans des masses d’information dont les équipes études, marketing ou développement ne sauraient tout simplement que faire. « Il y a un gros enjeu sur la datavisualisation pour rendre les informations accessibles et favoriser la prise de décision par les category managers et les équipes marketing », constate Arnaud Delattre.

Analyser les autres secteurs

L’écueil inverse consisterait à n’étudier que ses propres données ou celles de son univers de concurrence. Marionnaud s’est ainsi découvert des similitudes avec le monde de la pharmacie… Les banques et les opérateurs télécom, qui détiennent des données de paiement, de navigation et de mobilité, construisent des modèles statistiques permettant aux distributeurs et aux marques d’accéder à de nouveaux indicateurs et études. Orange travaille sur l’analyse des flux de population : « Tout en anonymisant de manière irréversible les données de nos clients dans le respect des règles posées par la Cnil, nous construisons des indicateurs statistiques permettant de qualifier et d’analyser le comportement des consommateurs dans une zone de chalandise d’un distributeur par rapport à ceux qui sont dans leurs magasins, indique Ludovic Lévy, vice-président Data & Analytics. Les indicateurs de présence et de mobilité permettent aussi de mieux appréhender le parcours client multicanal et la complémentarité des actions marketing online et offline ».

La distribution a encore une approche très transactionnelle de la donnée. « La data client commence à être utilisée en fonction du canal utilisé, pour associer des avantages à l’achat en magasin ou sur le web. L’étape suivante consistera à aborder le cycle de préparation des achats, à étudier le comportement client sur les réseaux sociaux de l’enseigne, sans être trop intrusif… On pourra suivre ce qu’il dira de positif ou de négatif après ses achats, de quelle manière il devient (ou pas) un ambassadeur de l’enseigne », relève Frank Rosenthal.

Un système de prix personnalisés ?

Avec leur culture très orientée client, les marchés anglo-saxons offrent des pistes de réflexion sur l’utilisation de la data. Pour Emmanuel Déchelette, « le véritable enjeu sera d’engager chaque client sur ce à quoi il est le plus sensible : discounts supplémentaires, prix spécifiques, service de livraison gratuit, essais de nouveaux produits… ». Il faudra sans doute des années pour y parvenir et affiner le système, mais l’enseigne américaine Kroger teste déjà le système de prix personnalisés depuis un an. Une approche 2.0 de la relation client serait d’ailleurs un moyen pour la distribution de résister aux initiatives des e-commerçants et des marques de grande consommation qui développent elles aussi des sites marchands. « La distribution française a mis quelques contreforts grâce au click & collect, avec un modèle qui est le plus avancé au monde, mais elle reste souvent bloquée sur la décennie des années 80, où elle était à la pointe de son secteur, estime le DG France de Dunnhumby. Aujourd’hui, il faut qu’elle investisse car des concurrents vont arriver. Si demain Amazon livre l’alimentaire à des coûts raisonnables, les lignes vont bouger et cela ira très vite. »

Et que dire des révolutions à venir quand les caisses des magasins pourront interagir avec les smartphones ou que le fond de placard de la famille sera géré par les objets connectés… Le magasin deviendra plus que jamais un lieu de vie et le cœur de nouvelles expériences. Science-fiction ? Pas si sûr...


mercredi 4 juin 2014

Thierry Bardy, Quelle sera la consommation des personnes en 2020

Thierry Bardy/ tags; production & consommationen 2020, anticipation , futurologie, prospective.
futurologie , prospective, consommation 2020








L’économie de fonctionnalité /de « own » à « use, not own »

L’expression “ je possède, donc j’existe” est  devenue aujourd’hui en 2020  désuette . 
La notion de vente d’un bien ou d’un service s’est largement transformée au profit  de la vente d’un usage. Ce changement de paradigme trouve ses fondements à travers deux phénomènes associés…

- permettre aux consommateurs de bénéficier d’un usage sans en payer le prix fort de la possession absolue.L’économiste /sociologue Walter Stahel en 2006 a été le premier à en faire mention, ce concept répond à des impératifs économiques de meilleures compétitivités des entreprises, permet de restaurer des marges dans un contexte de CA réduit. Dans un contexte de difficultés économiques,

- le deuxième phénomène  a été catalysé par l’économie numérique et la dématérialisation des produits et services consommés. L’exemple le plus emblématique est bien évidemment la consommation d’un bien numérique de musique MP3.

les exemples de modèles basés sur la valeur d’usages sont nombreux, Xerox ( nombre de copies consommées) – GE ( nombre d’heures de vols) , Velib ( minutes consommées), Renault e-services  ( offres multimodales auto électrique, scooter et vélo  électrique ) - Sosh ( tarification différenciée , téléphone, TV ,Paiement, lecteur Réalité Augmenté , etc…), Orange propose son service TaD ( téléphone à la demande) Origadhoc , le client peut choisir un device et des fonctionnalités ad hoc à sa guise où et quand il le veut.

Ce nouveau paradigme pose des questions car il rompt avec beaucoup de choses établies et notamment la fixation du prix d’un produit.
La tarification fixée à partir du croisement de l’offre /demande ( valeur d’échange) s’efface  au profit d’une fixation d’un prix (valeur d’usages) basée sur l’utilité qu’une personne en retire, ses capacités physiques, ses connaissances informationnelles du produit, sa situation personnelle.

La réponse à ce changement est complexe mais là réside peut- être les fondamentaux d’une nouvelle théorie économique qui rompt avec le croisement de l’offre et la demande. 
Cela pose aussi la question de la valeur d’un bien d’occasion vs un bien primo-accédant.
La valeur monétaire de l’usage est déterminée à travers le recensement des datas personnelles du client potentiel. C’est pourquoi la connaissance client est devenue une véritable science.
Les data scientists travaillent actuellement via le big data pour fournir des tarifs différenciés en intégrant « l’affect »  des consommateurs.
Le distributeur devient un opérateur de données et fixe un prix différencié pour chacun de ses clients. 
Le droit Européen permet cette pratique  dans son alinéa 1455861 qui date de 2018.
Si cette économie de fonctionnalités fait beaucoup parler d’elle, car elle revisite bon nombre de nos fondamentaux, il nous faut modérer sa portée économique globale. A l’exception peut-être de Airbnb, les « business models » liés à cette économie de fonctionnalités n’ont pas fait la preuve de performances économiques importantes.


Ci dessous un article de Presse fictif du journal le Monde daté du  15 novembre 2020
La grève des agents de la SNCF et de la RATP de mardi et mercredi dernier qui paralysa la quasi- totalité de la région parisienne a permis de vérifier la robustesse de la plate-forme de transport multimodale "Orange Mouv". La plate-forme mise en place par l'opérateur Orange, il y a tout juste un an n'avait encore jamais pu dépasser les 400 000 requêtes en une journée. Madame  Laveysiere la DG executive  de l'opérateur en charge du marketing et de l'innovation nous a indiqué que les 400 000 requêtes  ont bien été franchies dans la journée de jeudi, elle s'est félicitée de l'aide apportée par "Orange Mouv" à tous ces voyageurs en détresse.
Elle nous a indiqué « la véritable cote d'amour des voyageurs pour Orange Mouv . Les consommateurs nous disent tous les jours leurs intérêts et nous remercient pour le service fourni ».

Nos solutions technologiques qui nous ont permis de nous interfacer  dans des systèmes d'informations aussi hétérogènes que sont ceux de la SNCF, de la RATP, de Bolloré pour le Velib , l'Autolib ou l'Evelib ( vélo à assistance électrique), la plateforme  Zoé de Renault, de Transdev / Veolia, d’Europcar  mais aussi les start up de co-voiturage comme Blablacar s’inscrivent dans une démarche d’Open innovation.
Madame Laveyssiere  renchérit et nous indique « que seul un opérateur de la dimension d’orange est en mesure de fournir un service de cette envergure et de cette qualité ».
Orange Mouv a noué des partenariats les plus larges possibles avec des opérateurs du transport. Le service propose une offre multimodale de déplacement entre un demandeur et un offreur particulièrement innovante. Les algorithmes utilisés pour cette mise ne relation sont le fruit de près de 3 ans de r&d de nos ingénieurs. « Avec Orange Mouv nous sommes rentrés dans l’ère de l’intelligence artificielle de service, l’ère ou la technologie améliore le quotidien de nos clients » nous dit Mme Laveyssière.

L’opérateur a su optimiser sa puissance de calcul et donc de mise en relation en fonction du débit de connexion in situ des personnes. Le résultat est bluffant, jeudi dernier un de nos collaborateurs du journal  a pu trouver une solution à sa galère pour rejoindre Chartres en partant de la Gare Montparnasse, sachant qu’aucun train ne fonctionnait. Trois minutes après sa requête, le système lui a demandé de faire 3 kms en velib , là un co-voyageur l’attendait pour l’emmener  à Chartres.
Concernant le paiement, Orange Mouv a intégré sa solution Orange Money,  solution de paiement de personnes à personnes qui a dépassé les 17 millions d’utilisateur dans le Monde aujourd’hui.


La plate-forme Orange Mouv est une formidable vitrine technologique pour l’opérateur sur un secteur où l’on ne le l’attendait pas particulièrement mais où la technologie permet d’améliorer le quotidien de notre vie à tous.

lundi 2 juin 2014

"Notre cerveau, générateur d'idées créatrices"

Thierry Bardy : tags ; psychologie cognitive, créativité , intelligence collective ...

Le monde de demain selon Mathieu Cassotti Chercheur en psychologie cognitive

le 3 avril 2014, au Festival des ATELIERS du Quartier de la création, à Nantes

Le monde de demain selon eux


« "Les chercheurs, les créateurs sont bloqués sur un nombre limité de solutions et d'alternatives car ils sont fixés sur des modes de raisonnement intuitifs. Il faut revenir à une logique d'exploration de l'inconnu."
Mathieu Cassotti est chercheur en psychologie cognitive au Laboratoire de Psychologie du Développement & de l’Education de l’Enfant (Université Paris-Descartes/CNRS).

Dans le cadre du Festival des ATELIERS du Quartier de la création Mathieu Cassotti  donnait une conférence intitulée
"Notre cerveau, générateur d'idées créatrices". Nous l'avons interrogé sur le processus de créativité et sur ses recherches neuroscientifiques.


Vous travaillez depuis plusieurs années sur le sujet de la créativité. Quel a été votre angle de recherche?
J'ai commencé à travailler sur la question de la prise de décision, en me fondant sur les recherches de Daniel Kahneman, seul psychologue à avoir reçu le prix Nobel. Celui-ci a prouvé que les individus ne prenaient pas de décisions rationnelles mais raisonnaient à partir d'heuristiques de jugement, c'est-à-dire des réflexes de raisonnement. Non seulement les sujets se trompent, mais ils se trompent tous de la même manière. Il en va de même pour la création.

Nous sommes en effet partis d'un constat: de nombreux secteurs sont en panne d'innovation. C'est l'idée d'innovation orpheline qu'a développée Marina Agogue dans un ouvrage publié en 2013. Pourtant, on donne beaucoup d'argent à la recherche, on a des gens extrêmement motivés, et il s'agit pour certains sujets d'enjeux de société importants. Par exemple, la sécurité des deux roues représente un enjeu sociétal, de gros budgets y sont consacrés, de nombreuses associations et institutions y travaillent, et pourtant rien ne change au niveau de l'accidentologie. Alors on s'est interrogé sur les causes de ce blocage de l'innovation : peut-être n'est-il pas simplement d'ordre institutionnel ou économique, mais relève-t-il davantage du domaine cognitif ? Les chercheurs, les créateurs sont bloqués sur un nombre limité de solutions et d'alternatives car ils sont fixés sur des modes de raisonnement intuitifs, alors qu'il faut explorer d'autres processus.

L'intuition n'est donc pas suffisante pour être créatif?
Pendant des années, on a considéré que la créativité n'avait rien à voir avec le raisonnement mais qu'elle relevait de l'intuition seule. Les neurosciences sont arrivées et ont mis un coup de pied à cette idée reçue. On a constaté grâce aux techniques d'IRM, que quelqu'un qui est en train de générer des idées originales active la partie frontale de son cerveau, c'est-à-dire le cerveau de contrôle, celui qui permet de réguler des réponses intuitives ou impulsives. Nos recherches ont établi que ce cortex préfontal n'était pas mis au repos pendant le processus créatif, contrairement à ce qui était dit dans le passé, mais qu'au contraire il demeurait actif. L'intuition, seule, conduit à des pièges et des blocages.

Concrètement, comment êtes-vous parvenu à ces résultats?
On a dû passer par l'expérimentation et opérationnaliser les tests en laboratoire. Il y a par exemple ce test intéressant que l'on a proposé à de nombreux sujets. On lâche un œuf de dix mètres de haut et il faut trouver une solution originale afin qu'il ne se casse pas. Les ingénieurs et les designers ont tous suivi une réflexion similaire - ralentir la chute, protéger l'oeuf - pour arriver à une solution commune : attacher l'oeuf à un parachute. Aucun n'a envisagé de jouer sur les propriétés de résistance de l'oeuf lui-même. Or il suffirait de le congeler, ou de le plonger dans le vinaigre par exemple, pour modifier sa résistance et faire en sorte qu'il ne se casse pas. Mais non, tous sont restés bloqués sur l'idée que l'oeuf était fragile.

Quel est donc le secret pour améliorer nos facultés d'innovations?
Il faut revenir à une logique d'exploration de l'inconnu. Si l'on veut réfléchir à une chaise, par exemple, tout le monde sait qu'elle doit avoir des pieds pour tenir debout. Cela signifie-t-il qu'on ne peut pas envisager une chaise sans pied?En étendant le concept, en explorant de nouvelles pistes, on peut proposer quelque chose qui sort de l'existant. Par exemple, un ruban qui maintient les jambes et permet une position confortable, avec un dos bien soutenu. On peut ainsi redéfinir le concept même d'une chaise à partir de l'exploration.

Il faut donc raisonner "out of the box" pour être créatif ?
Les innovations de rupture nécessitent de prendre conscience de toutes les idées dominantes, de se rendre compte que l'on est focalisé sur une voix unique afin de pouvoir mettre de côté toutes ces fixations. Et de pouvoir aller explorer ailleurs. Aller "out of the box", en effet. Un certain nombre de créateurs ne se rendent même pas compte qu'ils proposent tous les mêmes idées ou solutions, et qu'ils sont enfermés.

Cela peut avoir des conséquences sur l'apprentissage à l'école?
Absolument! On s'est rendu compte que de nombreuses acquisitions scolaires reposaient davantage sur les fonctions exécutives que sur la capacité des enfants à activer une certaine logique. Or "désapprendre" est toujours plus intéressant que "sur-apprendre". Prenons l'exemple d'un cours de français. Lorsqu'ils écrivent la phrase "je les mange", tous les enfants mettent un S à "mange", parce qu'ils ont appris qu'un nom commun qui suit un "les" doit être conjugué au pluriel. Plutôt que de leur apprendre la règle de grammaire, il faut simplement leur expliquer qu'il y a un piège dans la règle générale, et qu'ils doivent se méfier.
Mais cela va plus loin. Souvenez-vous du crash de la navette Challenger : les ingénieurs estimaient que le climat en Floride était doux, et ils n'ont donc jamais fait de tests à températures faibles sur certains éléments techniques de la navette (comme certains joints par exemple). Or ce sont justement ces joints qui se sont avérés défaillants : ils se sont fondés sur un comportement intuitif, lié à des idées reçues ou des stéréotypes...

Quel a été votre dernier effet Whaouh?
Je suis toujours stupéfait lorsque des enfants proposent des solutions auxquelles les adultes, même les plus expérimentés, n'auraient pas songé. Pour le test de l'oeuf par exemple, les adolescents que nous avons interrogé ont donné plus de réponses que les designers ou les ingénieurs. Ils ont une meilleure résistance à l'effet de fixation.



Le shopper de demain


Shoppers, qui êtes-vous ?








Thierry Bardy - Tags; e commerce,  shoppers, ROPO

Shoppers, qui êtes-vous ?
A quel shopper ressemblez-vous et quels sont ceux qui vont compter demain ?
Vaste question tant les habitudes de consommation évoluent à grande vitesse.
Pourtant le cabinet SoonSoonSoon et l'institut Opinion Way ont décrypté des nouvelles typologies de consommateurs pour les années à venir. A suivre de près...

En avant première du salon Equipmag qui se tiendra du 16 au 18 septembre à Paris, le cabinet SoonSoonSoon* et Opinion Way ont décrypté les comportements des consommateurs et leurs attentes. Pour comprendre dès aujourd’hui les nouvelles habitudes de shopping de demain. Alors êtes- vous plutôt Vigi-Shopper, Care-Shopper, Social-Shopper, Emo-Shopper, ou encore Alter-Shopper ? A vous de vous reconnaître et de découvrir les innovations déjà mises en place par les retailers pour répondre à leurs (et vos) attentes.

Le watcher ou Vigi-Shopper
Attentif et scrupuleux, il vérifie que les informations communiquées par les marques sont bien conformes à la réalité des faits. Dans sa relation avec les Vigishoppers, la marque aura tout intérêt à faciliter l'acte d'achat, prouver ses allégations santé et environnementales et faire de ses clients les plus engagés des conseillers auprès d'autres clients.
 Ses attentes ? Le Tellspec, petit outil qui donne immédiatement l'analyse d'un produit : présence de gluten, de produits chimiques, de vitamines... ou encore le capteur Lapka qui détecte la présence de particules polluantes sur les fruits et légumes.

 Le Slow ou Care-Shopper
Consommateur amoureux des petits producteurs, il utilise les circuits courts pour s’approvisionner et s’implique dans le choix de ses produits afin de préserver l’économie locale, l’environnement et certaines formes de traditions liées au savoir-vivre.
Ses attentes ? Transformer l'acte d'achat en acte zen, relire les Misérables grâce au premier ticket de file d'attente qui fait aussi roman, faire disparaître les informations superflues et des boutiques sans emballage comme La recharge

Le Social-Shopper ou l'influenceur
Il transforme sa consommation en récit de lui-même avec une volonté d’apparaître comme un expert. Ce sont les enseignes les plus innovantes qui séduiront cet influenceur semi pro de la conso qui souhaite être à l’avant-garde.
 Ses attentes ? Qu'on aide les internautes à trouver le vêtement de leurs rêves avec Where To Get It, ou The Selectionnist, un site qui permet aux internautes ayant repéré un vêtement, ou un objet dans un magazine de l’acheter en ligne.

L'Emo-Shopper ou Wow-Addict
Hédoniste de L'Emo consommation, très bon ambassadeur pour une marque si celle-ci lui permet de vivre des expériences de shopping « augmentées » riches en émotions. Ce Wow-addict recherche des boutiques qui l’immergent dans un monde loin de son quotidien comme faire ses achats avec des hologrammes dans la boutique Burberry à Londres.
 Ses attentes ? Regarder une vidéo et acheter la tenue du héros de la plateforme Nowness, faire du shopping 100% automatisé comme le propose le site dédié aux hommes Hointer ou encore choisir sa voiture Volkswagen comme sur un site de rencontres amoureuses.





L'Alter-Shopper ou Norm-Core Féru des circuits alternatifs, adepte des Fab Labs et du Do It Yourself comme moyens de contourner la consommation de masse, il voit dans l’économie du partage un mode de vie à part. Il recherche une enseigne dont la simplicité optimise son temps et son argent.Ses attentes ? Mobiliser sa communauté pour soutenir les commerces du quartier comme Carrotmob qui propose aux consommateurs de « faire du sens avec leurs dépenses ». Solliciter une communauté de voyageurs pour acheter à l'étranger un produit introuvable dans son pays comme le propose la plateforme de crowdshopping WorldCraze


la simplicité d'une enseigne: le critère le plus apprécié
 Dans le contexte actuel, l’alter-shopper ou norm-core est le profil le plus incarné par les Français. En effet, pour 59% d’entre eux, la simplicité d’une enseigne qui leur fait gagner du temps et de l’argent est un des critères les plus appréciés. Pour 60%, il y a rarement de coup de cœur shopping : le magasin doit d’abord répondre à un besoin particulier. Toutefois, les plus jeunes se retrouvent davantage dans le profil de l’émo shopper. 60% des 18-24 ans sont d’abord séduits par l’originalité d’une enseigne. Quand ils ont un coup de cœur shopping c’est dû d’abord à un effet Whaou pour 69%.
 Alors que la crise et Internet ont exacerbé la rationalité des consommateurs et leur besoin de simplicité, ces derniers appellent les acteurs du commerce à se concentrer sur 4 valeurs fondamentales pour lui redonner de la valeur : l'expérience, la confiance, la connexion et l'engagement