mercredi 26 mars 2014

Les 10 technologies qui vont modifier les process en entreprise ?


Les 10 tendances technologiques qui transformeront les entreprises


Quelles technologies vont modifier les process en entreprise ? Deloitte en a identifié 10, pour les deux ans à venir autour du groupe des « disruptors » et des « enablers ». Le cabinet les détaille dans « Inspiring Disrution », son étude Tech Trends 2014.



« Inspiring Disruption », l’étude Tech Trends 2014 de Deloitte (*), met en avant des tendances et leur évolution qui illustrent le fort potentiel des technologies dans la transformation des modes de travail, des modèles économiques et des industries.

L’enquête distingue, d’abord les « disruptors », 5 tendances de rupture qui sont susceptibles d’avoir un impact positif et de long terme sur les capacités informatiques, les processus métiers et parfois même sur les modèles de fonctionnement de l’entreprise. Puis elle a identifié les « enablers », 5 tendances accélératrices dans lesquelles bon nombre de DSI ont déjà investi du temps et des moyens, mais réexaminées en raison de certaines évolutions ou de l’émergence de nouveaux débouchés possibles.


10 tendances technologiques susceptibles d’avoir un impact d’ici à 2 ans


CIO as Venture Capitalist : s’inspirer du capital-risqueur pour transformer le métier

Pour accompagner les métiers dans leur évolution et innover, le DSI peut s’inspirer du capital-risqueur. Il doit gérer son portefeuille d’actifs SI en évaluant la création de valeur, le risque et le retour sur investissement. Cette approche se traduit de plus en plus par la conclusion de partenariats ou l’investissement dans des start-ups innovantes. « A l’image du capital-risqueur, il est très important que le DSI d’aujourd’hui optimise son portefeuille d’investissements et réalise des paris technologiques afin de donner à son entreprise les clés pour se démarquer de la concurrenc ; il doit aussi « sourcer » les compétences au meilleur endroit et utiliser les technologies les plus innovantes, notamment par le biais d’incubateurs internes ou externe ; enfin, il faut qu’il orchestre le SI de façon à garantir la cohérence et l’agilité entre patrimoine SI et innovations», souligne Sébastien Ropartz, Associé Conseil responsable Technology Advisory chez Deloitte.

Cognitive Analytics : améliorer la prise de décision grâce à la technologie

En s’inspirant de la façon dont le cerveau humain traite l’information, formule des conclusions et apprend à partir de ses expériences, les machines ont fait d’énormes progrès. Avec des besoins d’aide à la décision en temps-réel toujours plus grands, l’analyse cognitive peut aider les métiers à adresser des enjeux clés. Elle peut améliorer la fiabilité des prédictions et permettre d’automatiser certaines tâches pour gagner en efficience.

Industrialized Crowdsourcing : recourir à la force et l’intelligence des foules

Le recours à l’intelligence collective permet de mettre rapidement et massivement à contribution des ressources compétentes en dehors du cadre professionnel traditionnel. Grâce aux technologies 2.0, les entreprises peuvent mobiliser le savoir, la créativité et le savoir-faire de tous. Cette externalisation distribuée à grande échelle peut permettre de répondre aussi bien à des besoins simples de collecte de données qu’à des besoins d’innovation complexes.

Digital Engagement : l’expérience utilisateur revue et corrigée grâce au digital

Les différentes strates de l’organisation prennent une à une le tournant du digital. Les modalités de la relation utilisateur doivent être repensées en faveur d’un engagement plus grand. L’organisation digitale fournit à ses utilisateurs une expérience de navigation de qualité, des contenus aboutis, cohérents, pertinents et personnalisés. En retour, l’utilisateur accepte de donner plus d’informations. Plus d’engagement digital accroit le niveau de satisfaction, la fidélité et peut créer un réel avantage concurrentiel.

Wearables : explorer de nouveaux débouchés pour les métiers

La technologie embarquée sur le corps humain prend de multiples formes. Son potentiel est considérable pour transformer les façons de travailler, la manière de prendre les décisions ou bien d’impliquer collaborateurs, clients et partenaires. Au-delà de l’engouement pour « quantified-self » et les bracelets connectés, la technologie peut être réintroduite dans les processus métiers là où les normes de sécurité ou la logistique ne permettaient pas l’usage du PC et du mobile.

Technical Debt Reversal : réduire le passif pour pouvoir investir dans l’avenir

Aborder le problème de la dette technique est indispensable pour développer l’innovation et aborder sereinement les enjeux digitaux. Il ne s’agit pas de faire de la dette technique une obsession mais il est important de la comprendre et de la prévoir. Réduire les coûts induits par un patrimoine SI vieillissant est un investissement de long terme qui permet de développer la capacité à innover. Cet exercice est également vertueux en ce sens qu’il permet une relation de transparence avec les métiers en leur ouvrant les coulisses de l’IT.

Social Activation : de l’écoute passive à l’usage actif des réseaux sociaux

Au lieu de surveiller les réseaux sociaux, les entreprises doivent chercher à changer les perceptions. Tirer parti des réseaux sociaux c’est pouvoir s’appuyer sur des ambassadeurs capables de relayer les messages clés auprès de leur propre réseau et à leur façon, ce qui aura beaucoup plus d’impacts. Les projets dépassent maintenant le périmètre des réseaux sociaux existants, avec des outils d’interaction élaborés sur mesure. Le DSI a ainsi un rôle à jouer pour accompagner ces projets devenus de plus en plus complexes.

Cloud Orchestration : une nouvelle génération de services cloud

Alors que l’usage des solutions cloud se généralise et que la diversité des offres augmente, le besoin d’intégrer ces solutions avec le patrimoine SI de l’entreprise n’a jamais été aussi grand. Les DSI doivent investir dans leurs capacités d’intégration et de data management pour développer de nouveaux modèles cloud-to-cloud et cloud-to-core. Construire un socle d’orchestration est essentiel pour intégrer les services innovants de demain.

In-memory Revolution : une réponse au Big Data

Avec la possibilité d’utiliser la technologie In-memory dans les systèmes transactionnels - et non plus seulement décisionnels, le potentiel de refonte des processus métier est démultiplié. La technologie In-memory permet des gains significatifs en termes de vitesse de traitement. Elle ouvre la voie à des opérations permettant d’alimenter en temps réel des décisions individuelles avec de l’analyse de données. Les DSI peuvent aider les métiers à identifier de nouvelles opportunités d’optimisation de leurs processus.

Real-time DevOps : booster les activités de la DSI

La DSI a besoin de gagner en agilité et en rapidité pour mieux répondre aux besoins des métiers. La démarche DevOps en temps réel consiste à standardiser et automatiser les mises à disposition d'environnements, les développements ou encore les mises en production. Populaire dans la culture Agile, la démarche DevOps est de plus en plus prégnante dans beaucoup de DSI et bouleverse les méthodes et pratiques habituelles.

La rédaction

(*)Pour la deuxième année consécutive, Deloitte France accompagne l’étude Tech Trends publiée aux Etats-Unis en y apportant son regard et ses retours d’expériences propres. Réunissant plus de 100 contributeurs, elle est le fruit du travail d’observation des entreprises que Deloitte accompagne au niveau mondial et s’appuie également sur des travaux de recherches et des expertises internationales






jeudi 20 mars 2014

L'IBM Watson assiste des médecins dans la recherche sur le cancer


Dr Robert Darnell (à gauche) du New York Genome Center et le Dr Ajay Royyuru (à droite) de l'IBM Research regardent comment utiliser Watson pour accélérer la composition de traitements contre certains cancers. Crédit IDG NS

Dr Robert Darnell (à gauche) du New York Genome Center et le Dr Ajay Royyuru (à droite) de l'IBM Research regardent comment utiliser Watson pour accélérer la composition de traitements contre certains cancers. Crédit IDG NS

Big Blue et le New York Genome Center font équipe pour trouver des traitements personnalisés aux maladies du cancer résultant de mutations génétiques spécifiques.

IBM va mettre la puissance de calcul de son superordinateur au service du cancer du cerveau. Dans ce domaine encore plein de mystères, Watson aura pour mission de rechercher des informations sur des mutations génétiques particulières. « Quand on fait le séquençage global des gènes d'un patient, on dispose d'une cartographie très complète sur les mutations génétiques de son génome. Il est essentiel de pouvoir traduire ces informations dans un langage intelligible pour un oncologue, afin qu'il puisse personnaliser le traitement », a déclaré Raminderpal Singh, directeur commercial médecine génomique, chez IBM Research. Dans le cadre de cette recherche, la mission de Watson sera d'aider les médecins du New York Genome Center à trouver, dans les bases de données génomiques et dans la littérature médicale, des références sur les mutations identifiées chez leurs patients. Le supercalculateur communiquera alors toute information d'intérêt au médecin. Les patients concernés par cette recherche sont ceux atteints de glioblastome, un cancer malin très agressif du cerveau qui tue chaque année plus de 13 000 personnes aux États-Unis. « Généralement, l'oncologue consulte la littérature médicale pour trouver le meilleur traitement disponible pour chacun de ses patients », a expliqué Raminderpal Singh. Le travail de Watson consistera ainsi à fournir des liens vers des documents médicaux potentiellement utiles au médecin.

Mettre en route un système de recherche automatique et en temps réel 

« Watson est un système de connaissance basé sur l'apprentissage, et ses tâches d'acquisition peuvent être automatisées », a déclaré le directeur commercial d'IBM Research. Les médecins téléchargeront la séquence du gène d'un patient dans le système hébergé dans le cloud d'IBM. Watson recherchera ensuite ces mutations dans les bases de données génomiques et dans la littérature médicale et remontera toute information pertinente. En fait, le logiciel chargé d'effectuer cette analyse est antérieur à Watson puisqu'il a été mis au point par le Computational Biology Center d'IBM Research pendant la dernière décennie. « Il est temps de mettre le système en mode automatique et de travailler en temps réel », a déclaré le directeur commercial.

Ce n'est pas la première fois qu'IBM met son supercalculateur au service de la recherche sur le cancer du cerveau. En 2012, le constructeur avait noué un partenariat avec le Memorial Sloan-Kettering Cancer Center de New York dans le but de développer un assistant informatique pour les oncologues. Ce travail est toujours en cours, mais IBM n'a pas voulu dire comment il progressait. Cependant, la compagnie d'assurance WellPoint a livré un logiciel commercial du nom d'Interactive Care Reviewer qui découle de ce projet. Celui-ci pourrait servir d'aide au diagnostic aux médecins affiliés à WellPoint.

Watson au service de la santé et des services à la clientèle

À l'origine, IBM Research avait développé Watson pour l'opposer à des concurrents humains au fameux jeu télévisé « Jeopardy ! » Ils avaient doté le supercalculateur de capacités de traitement du langage naturel et d'analyse des données structurées et non structurées. Depuis, Big Blue a décidé de vendre Watson et ses technologies à des industries spécifiques, notamment dans le secteur de la santé et les services à la clientèle. Pour l'instant, IBM n'a pas encore réussi à résoudre certains problèmes qui permettraient d'affecter Watson à des tâches plus importantes, en particulier la recherche homonymique et de désambiguïsation sémantique (Entity disambiguation and matching - EDM), qui permet de relier entre elles différentes descriptions avec une entité unique. Lors de la conférence Ontology Summit 2014 organisée à Arlington, Virginie, par la National Science Foundation, Chris Welty, l'un des développeurs d'IBM à l'origine de Watson a reconnu que « le logiciel médical de question-réponse de Watson n'était pas encore au point sur la technique EDM ».

Dans ce travail de recherche sur le cancer, le défi majeur auquel Watson est confronté est de trouver les bons articles en rapport avec la mutation spécifique d'un patient, avec des pistes sur la manière de corriger la mutation. « Vous comprendrez qu'en raison de la complexité des mutations, la recherche médicale offrira plus d'options spécifiques au patient », a déclaré Raminderpal Singh. Ce dernier estime qu'au fur et à mesure de ce travail, Watson, comme tout système fondé sur la connaissance, va tirer des leçons de son expérience et qu'il va apprendre à mieux sélectionner les informations. « Étant donné que nous sommes partenaires, nous saurons quels traitements médicamenteux ont été appliqués et quels effets ils ont eus sur les patients », a déclaré le directeur commercial d'IBM Research. Si bien que, selon lui, Watson va « continuellement gagner en précision ». Raminderpal Singh est très optimiste sur les capacités de son supercalculateur et prédit que l'apprentissage de Watson sera rapide. « Nous pensons que le déploiement commercial de cette solution pourra se faire dans quelques mois », a-t-il déclaré.

Le New York Genome Center est un centre de recherche en biomédecine et de soins cliniques à but non lucratif. Il est financé par un consortium réunissant des établissements de santé et universitaires comme le Memorial Sloan-Kettering Cancer Center, la New York University et The Rockefeller University.

Comment les leaders activent l'action , Simon Sinek

http://www.ted.com/talks/simon_sinek_how_great_leaders_inspire_action?sa=U&ei=bJCDUtHaHoa50QWggIG4Dg&ved=0CCMQFjAA&usg=AFQjCNF7FqzFzkCW-nXcOuBrFdl-aFnMWQ&language=fr

Simon Sinek propose un modèle simple et puissant pour le leadership inspirant. Tout commence avec un cercle d'or et la question "Pourquoi ?". Ses exemples comprennent Apple, Martin Luther King, les frères Wright — et à l'opposé, Tivo, qui avant une récente victoire judiciaire qui a triplé sa valeur boursière semblait être un échec. 

mardi 18 mars 2014

Facebook : la grande désillusion

Facebook ne transforme pas, les réseaux sociaux ne génèrent pas de business, 3 ans après l’explosion du social marketing en France la désillusion est à la hauteur des espérances suscitées. Où sont passées les promesses du « earn media » qui était censé créer une nouvelle relation entre les marques et les consommateurs ? Le prochain dîner de l’EBG pose même la question : « Faut-il encore investir sur Facebook ? ». Car les résultats ne sont guère glorieux : beaucoup de fans recrutés, peu de followers, très peu de résultats et aucune connexion significative avec le business, les réseaux sociaux génèrent aujourd’hui moins de 1% de ventes e-commerce.

Comment créer de la valeur dans ces conditions ? Faut-il jeter le bébé avec l’eau du bain ?

La situation actuelle rappelle beaucoup celle de 2002. Les annonceurs se réveillaient alors d’une bulle internet où ils avaient 
facebook vs minitel
massivement investis et qui ne leur servait à rien. Certains songeaient à fermer leur site web, d’autres à retourner sur le minitel. Avec les réseaux sociaux, la situation est quasiment la même aujourd’hui : les marques investissent sans savoir quoi attendre de ces nouveaux médias, donc la déception est au coin de la rue.

A titre d’exemple, une récente étude de Millward Brownpointe que les compagnies aériennes ne postent que des promotions sur Facebook, considérant probablement que leur base de fans est un miraculeux nid d’intentionnistes prêts à acheter ? Les résultats sont amers : 0.1% d’interaction (likes, share ou comment) par post en moyenne, soit 10 fois moins que l’email traditionnel et 100 fois moins que l’email retargetting. On imagine que les ventes doivent être à l’avenant. Pourquoi ces résultats si décevants ?

Comme le montre remarquablement Google dans son analyse du cycle de vente consommateur, le social média n’est ni un outil de vente, ni un média traditionnel. Il ne s’adresse ni à des intentionnistes (comme le search ou le retargetting) ni à des internautes passifs (comme les médias TV, radio ou bannière pub). Le rôle du social média dans le cycle de vente est de sensibiliser, convaincre et développer l’intention d’achat dans une démarche relationnelle avec le consommateur. On appellera ça du « PRM » (« Prospect Relationship Management »), ou du « Content Marketing », ou du « Assist Activation » comme Google,  on appellera ça comme on voudra, mais ça n’est ni du média, ni de la vente, et pourtant c’est évidemment extrêmement bénéfique pour le business.

Pourtant, les réseaux sociaux peinent aujourd’hui à livrer cette promesse. Pourquoi ?

Tout simplement parce qu’aucune plate-forme sociale actuelle n’offre aujourd’hui aux annonceurs les fonctionnalités nécessaires pour assurer une véritable stratégie d’activation, c’est-à-dire permettant d’initier, de développer et de suivre l’engagement et l’intention d’achat des consommateurs sur la durée. Facebook avait un temps lorgné cette possibilité en développant des fonctionnalités de couponing ou d’échantillonnage, mais elles furent bien vite abandonnées au profit d’une activité 100% régie, beaucoup plus simple et plus rentable, IPO oblige…

Le résultat est qu’aujourd’hui les audiences présentes sur les réseaux sociaux sont coûteuses à atteindre, difficiles à engager et impossibles à activer sur ces plate-formes sociales. D’où l’idée qui germe désormais d’aller fédérer ces communautés « hors plate-forme », dans le cadre d’applications ou de site autonomes et connectés aux réseaux sociaux. L’avantage d’être « chez soi », c’est évidemment de pouvoir proposer des expériences beaucoup plus attractives, riches et engageantes aux internautes, pouvoir les sensibiliser, et les accompagner sur le long terme dans une vraie logique d’échange et de gratification.

my warner

C’est par exemple ce qu’a mis en place Warner dès 2012 avec l’application MyWarner, une application relationnelle et ultra-socialisée, mais hébergée hors de Facebook. Bénéfices : disposer de sa communauté en propre, collecter des infos, pouvoir engager et activer les consommateurs de la manière la plus flexible et souple qui soit, bref : contrôler ses investissements.

La stratégie sociale d’Intersport reste dans cette même logique « applicative ». Grâce à une application construite autour de son sponsoring avec l’Olympique de Marseille – l’application « OM Fada For Ever » – Intersport fédère des fans de l’OM autour de jeux récurrents, quiz, infos, etc. tout en les sensibilisant aux produits de la marque (ballons, maillots), en permettant un cumul de points et en recrutant des porteurs de cartes de fidélité. Là encore, il s’agit d’aller chercher des prospects sur les réseaux sociaux par une promesse affinitaire, pour les sensibiliser, les engager et les inciter à l’achat vers la marque, sur le long terme, et dans un univers construit totalement « hors » de la plate-forme sociale.

 

Cette approche applicative va probablement dans la bonne direction en terme de promesse consommateur : plus d’interactions, plus d’expériences proposées, plus de relationnel. Côté annonceur, si on croit que les dix prochaines années seront celles du “data marketing”, autant pouvoir contrôler les data que l’on souhaite capturer et ne pas trop dépendre des réseaux sociaux pour cela; surtout à l’heure où les réseaux sociaux se multiplient et où le monopole de Facebook commence juste à s’essouffler. Et c’est enfin plutôt une bonne nouvelle pour les community managers, car elle leur ouvre le champ des possibles, enrichit leurs prérogatives et leur permet d’animer leurs communautés de manière beaucoup plus diversifiée et plus intense.

Trends Spécial Euoshop



Thierry Bardy - tags : Retail , commerce physique 




euroshop_news


Après le Retail’s Big Show en janvier dernier à New-York, l’Echangeur by LaSer s’est rendu au salon Eurosphop  (16-21 février à Düsseldorf, Allemagne). Ce salon international dédié au commerce et au retail n’a lieu que tous les 3 ans. Avec plus de 10 000 visiteurs provenant de 95 pays différents, Euroshop a rassemblé environ 1 800 exposants dans les secteurs de la PLV, l’agencement, l’architecture commerciale, l’équipement du point de vente, la promotion des ventes, l’affichage dynamique, le froid etc.

Des halls impressionnants permettant de se projeter dans un magasin “lieu de vie”

Comme l’Echangeur by LaSer l’avait déjà mis en exergue dans son rapport “Commerce Reloaded”, si une nouvelle barrière est “encore” en train de tomber, c’est peut-être bien celle du passage du magasin “lieu de vente” au magasin “lieu de vie”. Et c’est bien cette tendance qu’a souligné le salon Euroshop. Le visiteur était projeté, à travers notamment 5 halls gigantesques, dans une mise en scène où  l’émotion liée au shopping provient de conceptions spectaculaires de stands, d’idées de design créatives plaçant le client au centre…Cette immersion dans “un lieu de vie” était d’autant plus présente que de véritables boutiques, restaurants, ont été montés au cœur même du salon pour faire vivre une expérience unique aux visiteurs.
Qui n’a d’ailleurs pas terminé sa journée sur un pavillon se transformant le temps d’une soirée en bar branché ou écouté une séance musicale improvisée ?

Le magasin digital sera gagnant demain, c’est sûr !

Si l’Echangeur by LaSer devait définir un point commun entre le Retail’s Big Show et Euroshop, c’est sur le périmètre du magasin « digital » qu’il se joue : peu d’écart en définitif entre le marché européen et les Etats-Unis quant aux solutions proposées pour devenir un magasin « intelligent » et « réactif » :
- Présence de prestataires autour de l’analyse comportementale et le tracking des consommateurs sur le point de vente
- Présence de technologies de géolocalisation indoor via cette fois-ci le système d’éclairage à LED ou beacon (par des start-ups françaises).
- Transformation des vitrines en écran à travers un mur de shopping interactif à travers lequel les clients naviguent dans un portefeuille de produits. La présence omniprésente des écrans transparents s’est confirmée sur tous les stands alors que ce n’était qu’une tendance lors de l’édition 2013 de la NRF. Reste que le mobilier lui-même n’intégrait pas encore ces différentes technologies…

… mais pas de solutions d’équipement du vendeur !
Par contre, paradoxe très frappant, la quasi absence de solutions pour le vendeur. Pourtant, les terminaux mobiles à destination des vendeurs permettent d’avoir accès à l’état des stocks du magasin, de réserver un produit dans une autre boutique en cas de rupture sur son point de vente. Il réassure  également le vendeur en lui donnant un accès aux informations produit et aux programmes de fidélité de l’enseigne qui le guide dans sa connaissance client. Les terminaux mobiles sont devenus de réels outils offrant une expérience client omnicanale et génèrent des ventes additionnelles en magasin. Il manque là une brique essentiel au regard de l’Echangeur by LaSer.
L’absence de réflexion sur le “transactionnel” est aussi un point très différent avec la NRF. Peu de solutions de “Scan, Pay and Go”, pas de bataille entre les TechTitans – Google, Amazon, Paypal ou Apple- peu de solutions de digital wallet présentées… Seul le système d’exploitation Android semblait avoir sa place sur le salon, notamment dans les solutions de point of sales présentées. Tout comme la biométrie, thème phare présentait aussi cette année au Mobile World Congress.
Le commerce reloaded n’a t-il pas encore atteint la frontière européenne


La société Huntertainment propose de véritables « parcours clients augmentés » afin que les consommateurs entrent dans un nouvel univers digital et connecté en poussant la porte de leur magasin habituel.A l’aide de son smartphone, le client découvre, comme par magie, des produits interactifs, fait apparaitre des hôtesses virtuelles, visionne des vidéos exclusives et des tutoriels, et personnalise les produits de la marque à volonté (en changeant les couleurs, les matériaux…), tout cela en réalité augmentée. Le consommateur est véritablement guidé dans la découverte et l’appropriation des produits de l’enseigne. Le vendeur s’en servira comme outils d’aide à la vente pour présenter de façon innovante les produits et toutes leurs déclinaisons sans contraintes de stockage ou de logistique.
Pour l’enseigne, il s’agit de transformer l’intégralité de ses magasins en véritable réseau de commerces connectés pour combattre le showrooming en capitalisant sur l’utilisation des smartphones de ses clients. En effet, ces derniers peuvent consulter ou acheter à tout moment depuis leur smartphone en magasin, mais également de chez eux via un leaflet promotionnel ou un catalogue traditionnelle sur lesquelles ils appliquent la technologie de réalité augmentée..
L’avantage de ces solutions est qu’elles ne sont pas exclusivement dédiées aux flagship stores mais bel et bien à l’ensemble des boutiques de l’enseigne jusqu’au simple corner de vente en galerie marchande, afin de proposer une expérience innovante et homogène à tous les consommateurs de la marque.
Cette prouesse est possible à des coûts réduits et maîtrisés puisque toutes ces solutions s’appliquent sur les éléments et les visuels existants de la marque (plv, présentoir, produit réel, flyer, catalogue)  sans aucune intervention matériel ou technique en magasin.
Pour rendre l’intégralité de ses magasins interactifs et connectés, la société Huntertainment remet une application mobile à l’enseigne ou s’intègre à celle existante de la marque.

Quelle feuille de route pour le commerce de demain ?

Publié le 17 mars 2014
Quelle feuille de route pour le commerce de demain ?


Aujourd'hui, les retailers assistent, dans leurs interactions avec les clients, à une transition rapide entre les points de contact physiques et numériques. La génération de trafic en magasin, qu’il soit physique ou digital, n’est plus une fin en soi. Comment répondre à ce nouveau paradigme ?


Article paru dans la revue papier et digitale N°8 : Le contact, essaie encore une fois



Le parcours client a longtemps été dessiné de manière linéaire : les points de contact classiques (télé, print, radio) étaient un « stimulus » pour emmener en magasin, le seul point possible de l’expérience marchande. L’expérience était ainsi « lockée » car c’était uniquement à ce moment que le premier contact avec le produit était à l’origine du déclenchement d’une intention d’achat.


Digital et physique indistinctement


Aujourd’hui, ce parcours est plus complexe, diffus et transformé par la technologie qui a fait exploser le parcours traditionnel. Le stimulus est multiple, le parcours client fait intervenir des points de contact digitaux et physiques, indistinctement et sans hiérarchisation. La première vague du digital a vu apparaître les usages du e-commerce, des campagnes digitales et des expériences digitales de marque et a compliqué l’arbitrage des points de contact pour les marques. La deuxième vague, révolutionnée par les usages mobiles, a encore démultiplié les possibilités de points de contact, en y ajoutant la géolocalisation et le temps réel. D’autant que les consommateurs français se sont appropriés les nouvelles technologies rapidement (48% de nos compatriotes utilisent au quotidien plus de 3 devices), ce qui catalyse des usages ATAWAD, c'est-à-dire pouvoir acheter n’importe quand, n’importe où, sur n’importe quel support.

Les points de contact sont multiples et de moins en moins hiérarchisés. L’expérience marchande n’est plus uniquement en magasin mais elle est la somme de toutes les expériences vécues avec la marque et le distributeur (site e-commerce, m-commerce, magasin, etc...). La notion de temps réel et d’instantanéité devient également une pierre angulaire de l’acte d’achat : on bookmark sur mobile après un stimulus presse, on repère un produit sur Facebook et on l’achète sur une plate-forme marchande. Il n’y a donc plus un seul parcours d’achat linéaire cadencé par un ensemble de points de contact formatés.





Des consommateurs cherchant une expérience plus ouverte


La génération de trafic en magasin, qu’il soit physique ou digital, n’est plus une fin en soi. Jusqu’à présent, les distributeurs considéraient que lorsqu’un client avait passé le seuil du magasin, ils avaient fait le plus gros du travail. Ce n’est plus vrai. Le phénomène de showrooming, c'est à dire l'utilisation des magasins comme source d’information, pour aller ensuite acheter ailleurs, se développe, accéléré par les usages mobiles (18% des consommateurs français ont déjà changé d’avis en magasin suite à la consultation de leur mobile).

Les distributeurs et les marques doivent tenir compte de ce phénomène et continuer à prendre les devants en proposant dans leurs propres magasins des points de contact digitaux qui permettront aux consommateurs de valider leur intention d’achat et de ne pas les laisser partir à la concurrence. Le digital a fait évoluer la chaîne de la valeur du retail, et les distributeurs ainsi que les marques vont devoir s’adapter à des consommateurs cherchant une expérience plus ouverte, sans couture et instantanée s’ils veulent réussir dans les 5 prochaines années.


Exister sur tous les points de contact


La question n’est plus de choisir sur quel point de contact exister, mais de savoir comment se déployer sur tous les points de contact, de manière cohérente et efficace. Magasins, e-commerce, m-commerce, t-commerce : ces canaux sont complémentaires et ne se cannibalisent pas. La plupart des études montrent qu’un consommateur cross-canal est largement plus profitable qu’un client monocanal. Est-il possible d’imaginer un magasin en 2014 ne pas proposer d’acheter en ligne un produit qu’il n’a pas en stock ?





Le digital, demain, premier canal d’acquisition de trafic en magasin


Les retailers et les marques vont devoir s’organiser pour comprendre et tirer parti des nouveaux enjeux de génération de trafic en magasin offerts par les nouveaux usages mobiles et de convergence web/ magasin.

- Le SEO (référencement naturel) et SEA (référencement payant et achat de mot clés) géo-localisés : la manière de travailler ces 2 activités marketing au niveau local a fortement changé. Lorsqu'un individu recherche une marque ou une enseigne à travers son mobile, on doit être capable de proposer le magasin le plus proche, le produit en stock, et plus seulement le line vers le site e-commerce. Cela nécessite de retravailler les méthodes de référencement.

- Le Géofencing mobile : il est considéré depuis quelques années déjà comme un des graals du marketing et de la génération de trafic magasin. Demain, je recevrai sur mon mobile une notification personnalisée (basée sur mon historique d’achat, sur mes produits favoris, mon profil, mon social graph, etc..) dans la zone de chalandise du magasin, m’invitant à me rendre au point de vente. Les technologies existent déjà mais la multiplicité des acteurs (start-up, retailers, programmes de fidélité, opérateurs mobiles) et les questions relatives à la vie privée et d’opt-in freinent leurs adoptions.

Les marques et les retailers doivent néanmoins investir ces nouveaux points de contact digitaux dès maintenant pour tester leur efficacité.


Offrir de nouveaux points de contact digitaux en magasin


Le consommateur plébiscite le fait de pouvoir bénéficier d’expériences qu’il ne retrouvera pas en ligne et de services aussi efficaces que ceux qu’il peut expérimenter online. Le magasin reste un point de contact important mais il doit se moderniser et rentrer dans la révolution digitale, au risque de devenir un showroom pour ses concurrents. Il lui faut proposer des outils digitaux et mobiles afin d’enrichir à la fois l’expérience marchande de la marque et favoriser l’achat. Offrir du Wi-Fi et ses propres applications est ainsi obligatoire. Car sinon, le client ira de lui même se connecter aux points de contact concurrents en son sein même.

WalMart l’a bien compris. Le CEO a récemment annoncé « we embrace showrooming ». En proposant le Wi-Fi à l’intérieur de ses propres succursales et en proposant d’utiliser ses propres applications permettant d’accéder à des informations produits et aux avis consommateurs, le distributeur américain diminue le risque de voir ses propres clients vérifier les infos sur Amazon. Aujourd’hui, les consommateurs français pensent que les points de contact digitaux sont un plus dans l’expérience client mais ils doivent avant tout répondre à leurs attentes, que ce soit en matière d’expérience enrichie ou de services « augmentés » (plus pratiques, efficaces et agiles).





Affiner la capacité de ciblage en linéaire


Un body Scanner digital, installé dans des centres commerciaux américains, qui numérise le corps, n’a de sens que parce qu’il fournit des recommandations sur le style et la taille des vêtements qui conviennent le mieux au consommateur et les invite à venir les essayer en magasin. L’expérience des lunettes connectées chez Intermarché répond à un double enjeu : un enjeu consommateur de faire son shopping simplement (repérage des produits de sa liste, maîtrise de son budget, accès aux informations produits) et un enjeu distributeur (aide au choix, cross-sell et satisfaction consommateur).

Les nouvelles technologies telles que la géolocalisation indoor, l’identification consommateurs et la personnalisation en temps réel vont affiner la capacité de ciblage en linéaire et de nouveaux points de contact ciblés risquent d’apparaître. Deux initiatives récentes en Grande Bretagne et aux USA prouvent ce passage à des points de contact ultra-personnalisés.

- Tesco scanne le visage des clients faisant la queue aux caisses de ses 450 stations-service, détermine leur catégorie d'âge et leur sexe et diffuse en temps réel des publicités personnalisées susceptibles d'intéresser la cible. La technologie prend également en compte l'heure de la journée, pour proposer par exemple une boisson énergisante ou un café le matin. Elle mesure le temps passé par les clients à regarder la publicité et vérifie ce qu'ils auront acheté au final.

- Macy’s a réalisé en novembre 2013 un test grandeur nature à New York et à San Francisco. Grâce à la technologie iBeacon, le grand magasin américain peut désormais géolocaliser in-store un acheteur potentiel armé de son iPhone, lui envoyer des offres sur-mesure et ainsi mieux comprendre son parcours d’achat. L’expérimentation, si elle est couronnée de succès, a vocation à être étendue à toutes les boutiques Macy’s du pays. « Nous pouvons voir où une cliente est restée debout, si c’est devant un sac à main, et si elle n’a pas acheté, nous pouvons lui envoyer un petit encouragement », expliquait alors Terry Lundgren, PDG de Macy’s devant des analystes.

Repenser l'organisation des entreprises


Tous ces exemples dessinent l’avenir des points de contact qui seront plus intégrés et plus intelligents. Cela oblige les entreprises à réfléchir sur leur nécessaire mutation quant à ce nouvel environnement. Les usages digitaux et la technologie nécessitent de repenser l’organisation des entreprises et de casser les silos. L’importance d’un chief digital officer (CDO) en charge d’intégrer le digital sur l’ensemble des points de contact client et en charge de l’expérience consommateur est fondamentale (le cabinet Gartner anticipe que d’ici 2015, 1 entreprise sur 4 aura intégré cette fonction). In fine, l’évolution de ces points de contact interroge sur la question des données privées et jusqu’où l’usager est prêt à accepter une intrusion dans sa vie pour bénéficier d’une expérience plus performante, plus fluide et donc plus agréable. À suivre...

Vincent Druguet, Directeur Général Adjoint de l'agence DigitasLBi

Illustrations : Charlotte Pollet


Article paru dans la revue papier d'INfluencia. Découvrez la version digitale de la revue en cliquant sur le lien ci dessous



Why We Can't Solve Big Problems







On July 21, 1969, Buzz Aldrin climbed gingerly out of Eagle, Apollo 11’s lunar module, and joined Neil Armstrong on the Sea of Tranquility. Looking up, he said, “Beautiful, beautiful, magnificent desolation.” They were alone; but their presence on the moon’s silent, gray surface was the culmination of a convulsive collective effort.
Eight years before, President John F. Kennedy had asked the United States Congress to “commit itself to achieving the goal, before this decade is out, of landing a man on the moon and returning him safely to the Earth.” His challenge disturbed the National Aeronautics and Space Administration’s original plan for a stepped, multi-generational strategy: Wernher von Braun, NASA’s chief of rocketry, had thought the agency would first send men into Earth’s orbit, then build a space station, then fly to the moon, then build a lunar colony. A century hence, perhaps, humans would travel to Mars. Kennedy’s goal was also absurdly ambitious. A few weeks before his speech, NASA had strapped an astronaut into a tiny capsule atop a converted military rocket and shot him into space on a ballistic trajectory, as if he were a circus clown; but no American had orbited the planet. The agency didn’t really know if what the president asked could be done in the time he allowed, but it accepted the call.
If Apollo commanded a significant portion of the treasure of the world’s richest nation and the coöperation of all its estates, that was because Kennedy’s challenge required NASA to solve a bewildering number of smaller problems decades ahead of technology’s evolutionary schedule. The agency’s solutions were often inelegant. To escape from orbit, NASA constructed 13 giant, single–use multistage rockets, capable of lifting 50 tons of payload and generating 7.6 million pounds of thrust. Only an ungainly modular spacecraft could be flown by the deadline; but docking the command and lunar modules midflight, sending the lunar module to the moon’s surface, and then reuniting the modules in lunar orbit demanded a kind of spastic space dance and forced the agency’s engineers to develop and test a long series of astronautical innovations. Men died, including the crew of Apollo 1, who burned in the cabin of their command module. But before the program ended in 1972, 24 men flew to the moon. Twelve walked on its surface, of whom Aldrin, following the death of Armstrong last August, is now the most senior.
Why did they go? They brought back little—841 pounds of old rocks, Aldrin’s smuggled aesthetic bliss, and something most of the 24 emphasized: a new sense of the smallness and fragility of our home. (Jim Lovell, not untypically, remembered, “Everything that I ever knew—my life, my loved ones, the Navy—everything, the whole world, was behind my thumb.”) The cynical, mostly correct answer is that Kennedy wanted to demonstrate the superiority of American rocketry over Soviet engineering: the president’s challenge was made in May of 1961, little more than a month after Yuri Gagarin became the first human in space. But it does not adequately explain why the United States made the great effort it did, nor does it convey how the lunar landings were understood at the time.
Kennedy’s words, spoken at Rice University in 1962, provide a better clue:
“But why, some say, the moon? Why choose this as our goal? . . . Why climb the highest mountain? Why, 35 years ago, fly the Atlantic? . . . We choose to go to the moon in this decade and do the other things, not because they are easy, but because they are hard; because that goal will serve to organize and measure the best of our energies and skills . . .”
Apollo was not seen only as a victory for one of two antagonistic ideologies. Rather, the strongest emotion at the time of the moon landings was of wonder at the transcendent power of technology. From his perch in Lausanne, Switzerland, the writer Vladimir Nabokov cabled the New York Times, “Treading the soil of the moon, palpating its pebbles, tasting the panic and splendor of the event, feeling in the pit of one’s stomach the separation from terra—these form the most romantic sensation an explorer has ever known.”
To contemporaries, the Apollo program occurred in the context of a long series of technological triumphs. The first half of the century produced the assembly line and the airplane, penicillin and a vaccine for tuberculosis; in the middle years of the century, polio was on its way to being eradicated; and by 1979 smallpox would be eliminated. More, the progress seemed to possess what Alvin Toffler dubbed an “accelerative thrust” in Future Shock, published in 1970. The adjectival swagger is pardonable: for decades, technology had been increasing the maximum speed of human travel. During most of history, we could go no faster than a horse or a boat with a sail; by the First World War, automobiles and trains could propel us at more than 100 miles an hour. Every decade thereafter, cars and planes sped humans faster. By 1961, a rocket-powered X-15 had been piloted to more than 4,000 miles per hour; in 1969, the crew of Apollo 10 flew at 25,000. Wasn’t it the very time to explore the galaxy—”to blow this great blue, white, green planet or to be blown from it,” as Saul Bellow wrote in Mr. Sammler’s Planet (also 1970)?
Perhaps the most influential photograph from the Apollo lunar landings: Buzz Aldrin’s footprint in the moon’s gray, powdery surface.
Since Apollo 17’s flight in 1972, no humans have been back to the moon, or gone anywhere beyond low Earth orbit. No one has traveled faster than the crew of Apollo 10. (Since the last flight of the supersonic Concorde in 2003, civilian travel has become slower.) Blithe optimism about technology’s powers has evaporated, too, as big problems that people had imagined technology would solve, such as hunger, poverty, malaria, climate change, cancer, and the diseases of old age, have come to seem intractably hard.
I remember sitting in my family’s living room in Berkeley, California, watching the liftoff of Apollo 17. I was five; my mother admonished me not to stare at the fiery exhaust of the Saturn 5 rocket. I vaguely knew that this was the last of the moon missions—but I was absolutely certain that there would be Mars colonies in my lifetime. What happened?
Parochial Explanations
That something happened to humanity’s capacity to solve big problems is a commonplace. Recently, however, the complaint has developed a new stridency among Silicon Valley’s investors and entrepreneurs, although it is usually expressed a little differently: people say there is a paucity of real innovations. Instead, they worry, technologists have diverted us and enriched themselves with trivial toys.
The motto of Founders Fund, a venture capital firm started by Peter Thiel, a cofounder of PayPal, is “We wanted flying cars—instead we got 140 characters.” Founders Fund matters, because it is the investment arm of what is known locally as the “PayPal Mafia,” currently the dominant faction in Silicon Valley, which remains the most important area on the planet for technological innovation. (Other members include Elon Musk, the founder of SpaceX and Tesla Motors; Reid Hoffman, executive chairman of LinkedIn; and Keith Rabois, chief operating officer of the mobile payments company Square.) Thiel is caustic: last year he told the New Yorker that he didn’t consider the iPhone a technological breakthrough. “Compare [it] with the Apollo program,” he said.The Internet is “a net plus—but not a big one.” Twitter gives 500 people “job security for the next decade,” but “what value does it create for the entire economy?” And so on. Max Levchin, another cofounder of PayPal, says, “I feel like we should be aiming higher. The founders of a number of startups I encounter have no real intent of getting anywhere huge … There’s an awful lot of effort being expended that is just never going to result in meaningful, disruptive innovation.”
But Silicon Valley’s explanation of why there are no disruptive innovations is parochial and reductive: the markets—in particular, the incentives that venture capital provides entrepreneurs—are to blame. According to Founders Fund’s manifesto, “What Happened to the Future?,” written by Bruce Gibney, a partner at the firm: “In the late 1990s, venture portfolios began to reflect a different sort of future … Venture investing shifted away from funding transformational companies and toward companies that solved incremental problems or even fake problems … VC has ceased to be the funder of the future, and instead become a funder of features, widgets, irrelevances.” Computers and communications technologies advanced because they were well and properly funded, Gibney argues. But what seemed futuristic at the time of Apollo 11 “remains futuristic, in part because these technologies never received the sustained funding lavished on the electronics industries.”
The argument, of course, is wildly hypocritical. PayPal’s capos made their fortunes in public stock offerings and acquisitions of companies that did more or less trivial things. Levchin’s last startup, Slide, was a Founders Fund investment: it was acquired by Google in 2010 for about $200 million and shuttered earlier this year. It developed Facebook widgets such as SuperPoke and FunWall.
But the real difficulty with Silicon Valley’s explanation is that it is insufficient to the case. The argument that venture capitalists lost their appetite for risky but potentially important technologies clarifies what’s wrong with venture capital and tells us why half of all funds have provided flat or negative returns for the last decade. It also usefully explains how a collapse in nerve reduced the scope of the companies that got funded: with the exception of Google (which wants to “organize the world’s information and make it universally accessible and useful”), the ambitions of startups founded in the last 15 years do seem derisory compared with those of companies like Intel, Apple, and Microsoft, founded from the 1960s to the late 1970s. (Bill Gates, Microsoft’s founder, promised to “put a computer in every home and on every desktop,” and Apple’s Steve Jobs said he wanted to make the “best computers in the world.”) But the Valley’s explanation conflates all of technology with the technologies that venture capitalists like: traditionally, as Gibney concedes, digital technologies. Even during the years when VCs were most risk-happy, they preferred investments that required little capital and offered an exit within eight to 10 years. The venture capital business has always struggled to invest profitably in technologies, such as biotechnology and energy, whose capital requirements are large and whose development is uncertain and lengthy; and VCs have never funded the development of technologies that are meant to solve big problems and possess no obvious, immediate economic value. The account is a partial explanation that forces us to ask: putting aside the personal-computer revolution, if we once did big things but do so no longer, then what changed?
Silicon Valley’s explanation has this fault, too: it doesn’t tell us what should be done to encourage technologists to solve big problems, beyond asking venture capitalists to make better investments. (Founders Fund promises to “run the experiment” and “invest in smart people solving difficult problems, often difficult scientific or engineering problems.”) Levchin, Thiel, and Garry Kasparov, the former world chess champion, had planned a book, to be titled The Blueprint, that would “explain where the world’s innovation has gone.” Originally intended to be released in March of this year, it has been indefinitely postponed, according to Levchin, because the authors could not agree on a set of prescriptions.
Let’s stipulate that venture-backed entrepreneurialism is essential to the development and commercialization of technological innovations. But it is not sufficient by itself to solve big problems, nor could its relative sickliness by itself undo our capacity for collective action through technology.
Irreducible Complexities 
The answer is that these things are complex, and that there is no one simple explanation.
Sometimes we choose not to solve big technological problems. We could travel to Mars if we wished. NASA has the outline of a plan—or, in its bureaucratic jargon, a “design reference architecture.” To a surprising degree, the agency knows how it might send humans to Mars and bring them home. “We know what the challenges are,” says Bret Drake, the deputy chief architect for NASA’s human spaceflight architecture team. “We know what technologies, what systems we need” (see “The Deferred Dreams of Mars”). As Drake explains, the mission would last about two years; the astronauts would spend 12 months in transit and 500 days on the surface, studying the geology of the planet and trying to understand whether it ever harbored life. Needless to say, there’s much that NASA doesn’t know: whether it could adequately protect the crew from cosmic rays, or how to land them safely, feed them, and house them. But if the agency received more money or reallocated its current spending and began working to solve those problems now, humans could walk on the Red Planet sometime in the 2030s.
We won’t, because there are, everyone feels, more useful things to do on Earth. Going to Mars, like going to the moon, would follow upon a political decision that inspired or was inspired by public support. But almost no one feels Buzz Aldrin’s “imperative to explore” (see the astronaut’s sidebar).
Sometimes we fail to solve big problems because our institutions have failed. In 2010, less than 2 percent of the world’s energy consumption was derived from advanced renewable sources such as wind, solar, and biofuels. (The most common renewable sources of energy are still hydroelectric power and the burning of biomass, which means wood and cow dung.) The reason is economic: coal and natural gas are cheaper than solar and wind, and petroleum is cheaper than biofuels. Because climate change is a real and urgent problem, and because the main cause of global warming is carbon dioxide released as a by-product of burning fossil fuels, we need renewable energy technologies that can compete on price with coal, natural gas, and petroleum. At the moment, they don’t exist.
Happily, economists, technologists, and business leaders agree on what national policies and international treaties would spur the development and broad use of such alternatives. There should be a significant increase in public investment for energy research and development, which has fallen in the United States from a height of 10 percent in 1979 to 2 percent of total R&D spending, or just $5 billion a year. (Two years ago, Bill Gates, Xerox chief executive Ursula Burns, GE chief executive Jeff Immelt, and John Doerr, the Silicon Valley venture capitalist, called for a threefold increase in public investments in energy research.) There should be some kind of price on carbon, now a negative externality, whether it is a transparent tax or some more opaque market mechanism. There should be a regulatory framework that treats carbon dioxide emissions as pollution, setting upper limits on how much pollution companies and nations can release. Finally, and least concretely, energy experts agree that even if there were more investment in research, a price on carbon, and some kind of regulatory framework, we would still lack one vital thing: sufficient facilities to demonstrate and test new energy technologies. Such facilities are typically too expensive for private companies to build. But without a practical way to collectively test and optimize innovative energy technologies, and without some means to share the risks of development, alternative energy sources will continue to have little impact on energy use, given that any new technology will be more expensive at first than fossil fuels.
Less happily, there is no hope of any U.S. energy policy or international treaties that reflect this intellectual consensus, because one political party in the United States is reflexively opposed to industrial regulations and affects to doubt that human beings are causing climate change, and because the emerging markets of China and India will not reduce their emissions without offset benefits that the industrialized nations cannot provide. Without international treaties or U.S. policy, there will probably be no competitive alternative sources of energy in the near future, barring what is sometimes called an “energy miracle.
Sometimes big problems that had seemed technological turn out not to be so, or could more plausibly be solved through other means. Until recently, famines were understood to be caused by failures in food supply (and therefore seemed addressable by increasing the size and reliability of the supply, potentially through new agricultural or industrial technologies). But Amartya Sen, a Nobel laureate economist, has shown that famines are political crises that catastrophically affect food distribution. (Sen was influenced by his own experiences. As a child he witnessed the Bengali famine of 1943: three million displaced farmers and poor urban dwellers died unnecessarily when wartime hoarding, price gouging, and the colonial government’s price–controlled acquisitions for the British army made food too expensive. Sen demonstrated that food production was actually higher in the famine years.) Technology can improve crop yields or systems for storing and transporting food; better responses by nations and nongovernmental organizations to emerging famines have reduced their number and severity. But famines will still occur because there will always be bad governments.
Yet the hope that an entrenched problem with social costs should have a technological solution is very seductive—so much so that disappointment with technology is inevitable. Malaria, which the World Health Organization estimates affected 216 million people in 2010, mostly in the poor world, has resisted technological solutions: infectious mosquitoes are everywhere in the tropics, treatments are expensive, and the poor are a terrible market for drugs. The most efficient solutions to the problem of malaria turn out to be simple: eliminating standing water, draining swamps, providing mosquito nets, and, most of all, increasing prosperity. Combined, they have reduced malarial infections. But that hasn’t stopped technologists such as Bill Gates and Nathan Myhrvold, the former chief technology officer of Microsoft (who writes about the role of private investors in spurring innovation), from funding research into recombinant vaccines, genetically modified mosquitoes, and even mosquito-zapping lasers. Such ideas can be ingenious, but they all suffer from the vanity of trying to impose a technological solution on what is a problem of poverty.
Finally, sometimes big problems elude any solution because we don’t really understand the problem. The first successes of biotechnology in the late 1970s were straightforward: breakthroughs in manufacturing, in which recombinant E. coli bacteria were coaxed into producing synthetic versions of insulin or human growth hormone, proteins whose functions we thoroughly understood. Further breakthroughs in biomedicine have been more difficult to achieve, however, because we have struggled to understand the fundamental biology of many diseases. President Richard Nixon declared war on cancer in 1971; but we soon discovered there were many kinds of cancer, most of them fiendishly resistant to treatment, and it is only in the last decade, as we have begun to sequence the genomes of different cancers and to understand how their mutations express themselves in different patients, that effective, targeted therapies have come to seem viable. (To learn more, see “Cancer Genomics.”) Or consider the “dementia plague,” as Stephen S. Hall has. As the populations of the industrialized nations age, it is emerging as the world’s most pressing health problem: by 2050, palliative care in the United States alone will cost $1 trillion a year. Yet we understand almost nothing about dementia and have no effective treatments. Hard problems are hard.
What to Do
It’s not true that we can’t solve big problems through technology; we can. We must. But all these elements must be present: political leaders and the public must care to solve a problem, our institutions must support its solution, it must really be a technological problem, and we must understand it.
The Apollo program, which has become a metaphor for technology’s capacity to solve big problems, met these criteria, but it is an irreproducible model for the future. This is not 1961: there is no galvanizing historical context akin to the Cold War, no likely politician who can heroize the difficult and dangerous, no body of engineers who yearn for the productive regimentation they had enjoyed in the military, and no popular faith in a science-fictional mythology such as exploring the solar system. Most of all, going to the moon was easy. It was only three days away. Arguably, it wasn’t even solving much of a problem. We are left alone with our day, and the solutions of the future will be harder won.
We don’t lack for challenges. A billion people want electricity, millions are without clean water, the climate is changing, manufacturing is inefficient, traffic snarls cities, education is a luxury, and dementia or cancer will strike almost all of us if we live long enough. In this special package of stories, we examine these problems and introduce you to the indefatigable technologists who refuse to give up trying to solve them

mercredi 12 mars 2014

Investissements publicitaires nets 2013, résultats de l'Irep

Thierry Bardy - tags: marché publicitaire 2013, investissements publicitaires. 

Les résultats des investissements publicitaires nets des médias de l'Irep sont toujours porteurs d'informations très intéressantes. Important, car ils sont les seuls à fournir le montant de la monnaie sonnante et trébuchante à savoir le net net . Quant on sait que le gap entre le net et le brut sur internet  est proche de 1/10, ces résultats sont les seuls à prendre en compte. S'agissant d'Internet toujours , les années se passent et se ressemblent ; je suis toujours étonné de la dichotomie entre le CA réalisé de ce marché (flat) et le nombre de papiers ou de réflexions sur l’émergence du marché publicitaire internet.Autres enseignements, le Ca de Google en France a dépassé les 1.6 b. Belle performance et si en plus il ne paye pas d'impots !!!

En baisse de -3,6%, les investissements publicitaires 2013 en net sont au niveau de l’année 2006

Le 12/03/2014

nl467-logos-irep-france pub -3,6% en un an, 1 milliard d’euros nets perdus par le marché en 2 ans : le marché publicitaire français n’enraye pas sa baisse pour le moment selon les données fournies par l’Irep. Avec des recettes publicitaires totales de 13,282 Mds€ en 2013 et 10,516 Mds€ hors annuaires, courriers et ISA, le marché se situe au niveau de 2006 à 10,518 Mds€ (à périmètre identique). Le niveau est même celui de 2004 en euros constants précise l’Irep.

Les données enregistrent toutefois des niches très dynamiques : le display mobile à +55% (contre +29% entre 2012 et 2011) et l’affichage digital à +56%. Ces 2 segments ne représentent toutefois que 1% du marché total.
Avec +4,7% par rapport à l’an dernier, le search est la seule autre catégorie à progresser en 2013. En négatif, mais mieux orientés que la moyenne, on note : la radio en quasi stabilité à -0,4% (dont-0,1% seulement en national), le display Internet à -1%, la publicité extérieure à -1,7% (dont +2,5% pour le transport), les imprimés sans adresse (ISA) à -1,8% et la TV à -3,5%.
Les autres médias affichent des baisses plus importantes.
A l’intérieur de chaque média, figurent également des secteurs mieux orientés : au sein du média PQR à -6,4%, la publicité extralocale (dont le PQR 66) est stable à +0%.
A l’inverse des prévisions de certains groupes d’agences médias (voir archive), l’Irep prévoit pour 2014 une orientation négative des recettes à -1,5%.

NL894-image-irep

mardi 11 mars 2014

IBM lance un concours pour développer des apps pour Watson

Ginni Rometty, CEO d'IBM, a lancé un concours pour que les développeurs créer des applications mobiles pour Watson. Crédit Photo: IDG NS
Ginni Rometty, CEO d'IBM, a lancé un concours pour que les développeurs créer des applications mobiles pour Watson. Crédit Photo: IDG NS
La dirigeante de Big Blue a présenté un concours ouvert aux développeurs pour créer des applications mobiles pour son superordinateur Watson. IBM veut étoffer le portefeuille applicatif de sa récente division.

Ginni Rometty, CEO d'IBM a profité du Mobile World Congress de Barcelone pour annoncer une compétition de développeurs au niveau mondial. L'idée est de les encourager à créer des applications mobiles grand public et professionnelles capables de tourner sur des solutions d'informatique cognitive basées sur Watson.

Watson est au coeur de la technologie d'informatique cognitive mise au point par IBM et le constructeur veut tout faire pour assurer le succès de son supercalculateur. Depuis le mois dernier, IBM a ouvert une division Watson Business Group dédiée à ce projet. Elle travaillera au développement d'applications cognitives et de services associés basés sur le cloud pour les utilisateurs professionnels. « En 2016, un quart des applications exécutées dans le monde tourneront dans le cloud. Celles-ci génèrent des quantités massives de données », », a déclaré la CEO d'IBM. « Mais il est impossible de créer suffisamment de programmes pour traiter rationnellement toutes ces données produites au niveau mondial », a ajouté Ginni Rometty. Selon elle, cette masse de données générées chaque jour fait émerger une autre époque du traitement informatique. « Nous allons vers une nouvelle ère cognitive, d'enseignement et d'apprentissage », a expliqué la CEO d'IBM. « C'est pourquoi je vous propose de relever le défi Watson Mobile Developer Challenge ».

La compétition se déroulera sous l'égide de la récente division IBM Watson Business Group. Elle a pour but d'encourager le développement d'applications d'informatique cognitive pour Watson, aussi bien des services, des logiciels que des applications, qui seront en mesure d'analyser les évènements et d'améliorer le traitement des données par l'apprentissage. « L'idée est de répondre à des questions complexes en puisant dans les quantités massives de données très disparates générées par les applications », a déclaré Ginni Rometty. « Le Watson mobile Developer Challenge a été spécifiquement créé pour pousser les développeurs à créer des applications cognitives qui peuvent changer la façon dont les consommateurs et les entreprises interagissent avec les données sur leurs terminaux mobiles », a encore ajouté la CEO d'IBM. Au cours des trois prochains mois, développeurs mobiles et entreprises seront invités à partager leurs meilleures idées pour construire et développer des prototypes d'applications mobiles.

Les gagnants intégreront le Watson Ecosystem Program

IBM invitera les trois gagnants du Challenge à rejoindre le Watson Ecosystem Program, lequel réunit des fournisseurs de contenu et des éditeurs de logiciels indépendants pour travailler à l'élaboration et à la production d'applications « Powered by IBM Watson ». « Des milliers de candidats » veulent déjà rejoindre l'écosystème, a déclaré Ginni Rometty. « Les gagnants du défi travailleront avec le nouveau pôle de consulting IBM Interactive Experience, qui leur fournira des conseils en matière de conception et le soutien d'experts IBM pour développer des applications commerciales », indique un communiqué d'IBM distribué avant le discours de Ginni Rometty.

Big Blue est déterminé à favoriser le développement d'applications pouvant être exécutées dans le cloud : plus il y aura d'applications, plus il y aura de données générées, et plus les entreprises auront besoin des logiciels et des services d'analyses vendus par IBM. « Notre activité big data atteint les 16 milliards de dollars », a déclaré Ginni Rometty. Lundi, lors de l'événement Pulse organisé à Las Vegas, l'entreprise d'informatique avait annoncé qu'elle dépenserait, en plus du budget consacré à Watson, 1 milliard de dollars pour supporter sa stratégie PaaS et encourager les éditeurs de logiciels à créer des applications cloud. IBM a également annoncé qu'elle deviendrait un contributeur majeur de Cloud Foundry, un PaaS Open Source géré par la spin-out de VMware et d'EMC, Pivotal.