lundi 8 avril 2019

Scrum Et Le Toyota Production System, Comment Construire Des Équipes Ultra Performantes

Scrum Et Le Toyota Production System, Comment Construire Des Équipes Ultra Performantes
Selon Toyota, ce sont les collaborateurs et non pas les systèmes qui donnent naissance aux meilleurs produits. Il n’est pas possible de fabriquer de bons produits sans développer les compétences des collaborateurs. Pour cela Toyota a construit un système de production dont l’objet est le développement de collaborateurs exceptionnels : le Toyota Production System (TPS).

Jeff Sutherland et Ken Schwaber se sont appuyés en partie sur le TPS pour construire le framework Scrum, cadre de travail pour le développement de produits ou de services complexes.

L’objet de cet article est de montrer comment l’utilisation du Toyota Production System, comme système de construction de la connaissance, permet de révéler les sujets d’apprentissage sur lesquels travailler pour développer des équipes Scrum exceptionnelles.
Scrum : les origines
Les origines de Scrum remontent à un article fondateur publié en 1986 dans la revue Harvard Business review par Monsieur Hirotaka Takeuchi professeur à la Harvard Business School et Monsieur Ikojiru Nonaka professeur émérite à l’université Hitotsubashi de Tokyo : The new new product development game.

En 1993, en s’appuyant sur cet article et sur les principes du lean manufacturing, Jeff Sutherland, développe une méthode radicalement différente pour le développement de produits informatiques. En 1995, avec l’aide de Ken Schwaber, il formalise la méthode : Scrum est né. 

Scrum est une méthode de planification cadencée. Elle s’oppose à l‘approche traditionnelle de type batch considérant que la construction d’un système informatique nécessite d’avoir d’abord terminé son analyse avant de procéder au développement puis aux tests. Cette approche très lourde et couteuse a jeté bon nombre de projets dans l’impasse.

A contrario Scrum casse ce modèle en découpant la construction du produit en petits lots appelés sprints. Au cours d’un sprint, l’équipe analyse, développe et teste ce que le client considère comme ayant le plus de valeur pour lui. Un sprint dure entre 1 à 4 semaines. A l’issue du sprint, lors du sprint review, un incrément du produit est présenté au client qui peut ainsi apporter rapidement son feedback. L’équipe corrige et adapte le produit au fur et à mesure des sprints et des retours du client dont le besoin s’affine. Petit à petit le produit prend forme. Outre cette adaptation permanente aux besoins du client, Scrum apporte une structure formelle pour l’amélioration des pratiques de l’équipe en introduisant la notion de rétrospective. C’est un moment privilégié à la fin du sprint au cours duquel l’équipe revient sur ses pratiques afin de les améliorer lors du sprint suivant.

Scrum, le Toyota Way et le Toyota Production System

Si l’on regarde Scrum sous l’angle lean il est évident que la méthode plonge ses racines dans le Toyota Way et le Toyota Production System.
Du point de vue du Toyota Way, l’amélioration continue et le respect des personnes sont clairement représentés. La structure même de Scrum est une méta résolution de problèmes dont la structure est celle d’un PDCA (Plan Do Check Act) telle que Deming l’a défini. Le Plan avec le sprint planning, le Do avec le sprint, le Check avec le sprint review et la démonstration au client et le Act avec la rétrospective. Cette boucle d’apprentissage continuellement répétée tout au long de la construction du produit favorise la compréhension des besoins du client, le développement individuel et le travail en équipe.

Scrum s’appuie d’autre part sur certains principes du Toyota Production System notamment le management visuel et le Just In Time. A l’issue du sprint planning l’équipe dispose d’un backlog de user stories qu’elle rend visible en s’appuyant sur un management visuel de type Todo/Wip/Done ou d’un Kanban. La performance de l’équipe est mesurée sur sa capacité à livrer toutes les user stories à la fin du sprint au travers d’un indicateur de type burn down chart. Chaque sprint est une
« Time Box » d’un mois ou moins au cours de laquelle un incrément de produit « Terminé», utilisable et potentiellement publiable est créé (Cf Guide Scrum). La construction du produit est découpée en petits lots dont la livraison est cadencée selon un rythme régulier, c’est la notion de Takt que l’on retrouve dans le pilier Just In Time du TPS.

Nigel THURLOW, Chief Agile Officer à Toyota Connected, le démontre magistralement dans sa formidable formation Scrum The Toyota Way. Cependant je pense qu’il est possible d’aller encore plus loin. Si Scrum est un outil de planification génial, c’est aussi, comme le dit Jef Sutherland un container pour d’autres techniques, méthodes et pratiques. Et dans ce sens un framework parfait pour le développement des personnes condition sine qua non pour la fabrication de produit à l’effet Wahoo. En effet les différentes expériences que je mène depuis ma rencontre avec le lean en 2008 avec Marie-Pia IGNACE et Michael BALLE montrent qu’une mise en pratique rigoureuse du Toyota Production System au sein même du sprint amène des résultats exceptionnels en termes d’apprentissage et a fortiori de production.
La question qui se pose dès lors, est comment mettre en œuvre les outils du Toyota Production System pour réaliser chaque incrément du produit, afin de révéler en temps réel, les obstacles auxquels l’équipe fait face chaque jour et lui donner les moyens de les résoudre ?
Il faut considérer le TPS comme un échafaudage dont le but est de rendre visible les problèmes au moment où ils apparaissent. Il faut d’abord construire le système puis le faire fonctionner :

Construire le bon management visuel

Tirer le flux

Identifier les bons problèmes

Résoudre les problèmes

En tirer les bons enseignements

Construire le bon management visuel

Tout part de là. Il est fondamental d’avoir un bon management visuel pour progresser. Il doit permettre de distinguer ce qui est ok de ce qui ne l’est pas. L’équipe délivre-t-elle au bon rythme avec le bon niveau de qualité ? L’équipe passe-t-elle son temps à corriger des anomalies ou des bugs ?
Les user stories sont-elles bloquées en attente d’information d’autres équipes ou de la disponibilité d’un environnement de test ?
D’un seul coup d’œil il doit être possible de voir si la situation est sous contrôle ou pas et si la performance globale de l’équipe s’améliore ou pas. Un bon management visuel doit comporter 4 panneaux : un mur client pour capturer les incidents clients, un panneau pour la performance comprenant des indicateurs de qualité, de délais, de coût, de productivité, un panneau de production et enfin un panneau consacré à la résolution de problèmes.

Tirer le flux

La mise en œuvre du Just In Time au sein du sprint commence par le calcul du Takt. En effet au même titre que Scrum cadence la construction du produit à un niveau plus macro, il est important de se donner un rythme de production, à l’intérieur même du sprint, pour réaliser les user stories à un rythme régulier. Il s’agit simplement de diviser le nombre stories par le nombre de jours travaillés dans un sprint : 20 user stories pour un sprint de 10 jours donne un rythme de livraison de 2 user stories par jour. Et ensuite de mettre la production en flux tiré. C’est à dire de se placer à la fin du processus et de tirer les users stories en commençant par celles qui sont le plus proche de la sortie. L’objectif de la journée étant fixé par le Takt. Dans notre exemple l’équipe choisi 2 user stories en commençant par celles situées à l’étape la plus proche de la mise en production. Comme dans un match de rugby l’équipe s’engage quotidiennement sur un objectif marquer des essais : ici il s’agit de sortir 2 user stories sélectionnées parmi celles le plus proche de la sortie tous les jours. Si l’équipe atteint l’objectif c’est parfait si elle n’y arrive pas c’est encore mieux : il y a quelque chose à apprendre, c’est une nouvelle occasion de s’améliorer et donc de faire du kaizen.

Identifier les bons problèmes

Voir les problèmes de qualité

Si le principe de découpage en petits lots est plutôt bien exploité par Scrum, le Jidoka, deuxième pilier du TPS l’est beaucoup moins. Le Jidoka consiste à introduire la qualité dans le processus de façon à ne pas propager les défauts d’étape en étape jusqu’au client. Plusieurs techniques comme l’arrêt au premier défaut, l’autonomation, les bacs rouges, l’andon permettent de découvrir les problèmes de non qualité avant qu’ils ne se propagent en production et pénalisent les utilisateurs de l’application ou du service.

Les équipes les plus avancées utilisent les techniques de l’extrem programming comme le Test Driven Development et l’intégration continue pour implémenter certaines parties du Jidoka. Cependant toutes les équipes n’ont pas le niveau de compétence requis pour mettre en œuvre ces techniques d’une part et d’autre part celles-ci ne couvrent pas tout le processus. La question qui se pose dès lors est comment identifier les problèmes de qualité dans le processus quel que soit le niveau de maitrise de ces pratiques ? Une réponse est l’introduction de la technique lean des bacs rougesà chaque étape du processus de production.



Chaque fois qu’un problème de qualité est découvert à une étape du processus l’information est stockée dans le bac rouge. L’analyse rigoureuse et systématique de son contenu permet à l’équipe de mieux comprendre ce qui bloque le flux et de déclencher les actions immédiates pour protéger le client et les résolutions de problème nécessaires à plus long terme pour supprimer définitivement ces obstacles.



Voir les problèmes de flux

L’utilisation du flux tiré met en évidence toute une série de problèmes liés à la dynamique du processus de développement : les problèmes de surcharge, de surproduction ou de synchronisation avec d’autres processus comme le montre la figure ci-dessous.

La résolution de problème
L’unique but de ce qui est décrit précédemment est donc de créer un échafaudage pour mettre en évidence ce que ne maîtrise pas l’équipe. Ainsi, la mise en œuvre du flux tiré et du Jidoka va révéler sur le management visuel différentes sources de problèmes :

ceux de qualité que l’on retrouve dans les bacs rouges et qui sont le plus souvent une expression d’un manque de compétences, ceux de synchronisation avec d’autres flux quand les users stories attendent dans la colonne work in progress, ceux de surproduction ou de surcharge quand les user stories s’accumulent dans une colonne ready ou en cours.

En rendant visible ces obstacles en temps réel l’équipe dispose de boucles de feedback très courtes qui lui donnent la possibilité de réagir extrêmement rapidement pour remettre les user stories défectueuses dans le flux (correction = protection du client). Elle peut ensuite prendre du recul pour traiter le problème définitivement (résolution = suppression définitive du problème). Pour se faire, le lean préconise une approche scientifique de la résolution de problèmes avec le PDCA (Plan Do Check Act).



Tout l’intérêt de la méthode réside dans l’accumulation d’occasions d’apprentissage et dans une démarche consciente de résolution de problèmes. Les collaborateurs ne réussissent pas par coïncidence mais grâce à l’analyse systématique des problèmes, de la recherche des causes profondes, de la mise en œuvre de contremesures adéquates, de leur test et d’une réflexion sur ce qu’ils en retirent. Ce travail répété est un accélérateur formidable de la performance individuelle et collective. Le traitement des bacs rouges permet d’identifier précisément les causes des problèmes de qualité qui relèvent le plus souvent de problèmes de compétence. C’est une opportunité pour le Scrum Master ou le Team Leader de mettre en place des matrices de compétences et des dojos de formation pour travailler des gestes particuliers, comme écrire des user stories plus pertinentes, un code plus propre…



L’analyse du flux, de la surproduction et des attentes offre une meilleure compréhension des adhérences du projet ou du produit avec le reste de l’écosystème. Les collaborateurs construisent une collaboration intensive non seulement au sein de leur équipe mais ce qui est plus intéressant encore, avec leurs homologues travaillant sur des sujets connexes. La résolution de problème n’est plus alors une affaire individuelle mais une affaire d’équipes au sens large. Petit à petit c’est l’organisation entière qui fonctionne mieux. Les processus se simplifient au fur et à mesure des améliorations conduites collectivement.

Les résultats

Sur 20 équipes observées, qui se sont appropriées la démarche, nous avons mesuré une amélioration très significative de la performance.

Amélioration de la qualité de la production

Ainsi, dans le domaine de la qualité, les stocks d’incidents non traités ont diminué en moyenne de 59%. Dans le même temps les volumes de nouveaux incidents ont baissé de 37%. Ceci a eu pour effet une augmentation moyenne de la satisfaction client de 25%.
Accélération de la production de valeur
Que ce soit dans la résolution d’incidents, du développement de petits changements ou la réalisation de nouvelles user stories l’accélération est aussi remarquable. Le lead time est divisé en moyenne par 6,5 et la production est multipliée par 3.

Impact économique

A titre d’exemple, dans une business unit composée de 40 personnes, l’équivalent de 5 collaborateurs est en charge de la correction d’incidents. A titre expérimental, le manager décide de créer une équipe dédiée à la réduction d’incidents. En 6 mois cette nouvelle équipe, grâce à la mise en œuvre du TPS, éradique les incidents et passe d’un stock permanent de 80 incidents et un volume quotidien de nouveaux incidents de 3 à un stock de 0 et un volume mensuel de nouveaux incidents de 2. Le coût de résolution des incidents s’effondre. Il passe de 720 000 € par an à 0 € (5 personnes * 600 € * 240 jours). Le manager a gagné en 6 mois plus d’un demi-million d’euros sur son budget de RUN _sans compter les gains économisés grâce à l’amélioration de la qualité_ qu’il peut réaffecter à la production de valeur. Ce gain de productivité lui permet d’accélérer le traitement des petits changements qui s’accumulent et produire ainsi plus de valeur pour ses clients. 

Conclusion

Le système de management lean a pour objectif de développer des collaborateurs exceptionnels pour fabriquer des produits exceptionnels. Le System de production de Toyota, le TPS, est un ensemble de pratiques dont l’unique but est de mettre en évidence les faiblesses du processus pour que les collaborateurs puissent les résoudre en développant leurs compétences. Scrum est la mise en œuvre du Just In Time pour la production de système informatique. La méthode cadence la construction du système au travers d’un enchaînement d’incréments qui ont la forme de PDCA : (Plan) Sprint planning, (Do) le sprint, (Check) le sprint review, (Act) la rétrospective.

Cependant l’application du TPS ne doit pas s’arrêter là. En effet à chaque étape de la démarche, les collaborateurs peuvent progresser individuellement ou collectivement sur toute la chaîne de fabrication, qu’il s’agisse du Product Owner, des développeurs, des architectes ou des testeurs. Il est donc fondamental pour le développement de chacun de disposer d’un système qui révèle les problèmes là où ils surgissent, en temps réel pour leur donner l’occasion d’améliorer la situation : leurs compétences, le processus ou encore l’interaction entre différents services.

Le TPS offre les outils nécessaires pour cela :

le management visuel à condition qu’il montre les différentes étapes du processus (un Kanban), le flux tiré qui cadence la production et donne un feed-back immédiat sur la capacitéà respecter les délais, les bacs rouges qui donnent un feed-back immédiat sur la qualité de ce qui est produit.

Grâce à ce système les équipes se concentrent sur les problèmes opérationnels qui les empêchent de réussir leur objectif de la journée. Elles développent leurs compétences, résolution de problèmes après résolution de problèmes, grâce à une méthode d’analyse scientifique rigoureuse. Chaque PDCA les rapproche d’un idéal de production dans lequel toutes les user stories traversent le processus de fabrication du produit de manière fluide jusqu’en production. La mise en œuvre du Jidoka révèle les problèmes de qualité qui sont généralement liés à des problèmes de compétences. Le Just In Time quant à lui montre les problèmes de flux et les adhérences avec le reste du système ce qui déclenche la résolution de problème entre équipes.

Petit à petit les user stories sont mieux décrites, leur taille diminue, les développeurs produisent un code de meilleur qualité plus maintenable, plus robuste, plus fiable. Les intégrateurs trouvent moins de défauts et ont plus de temps pour se consacrer aux tests aux limites ou à l’automatisation. Le travail collaboratif avec les autres équipe permet de simplifier le système et de fluidifier les échanges. Globalement l’équipe développe de nouvelles compétences et s’approprie de nouvelles pratiques. La capacité de l’équipe augmente au fur et à mesure de l’amélioration de la qualité, la production accélère, les coûts diminuent. Le client sourit :-)

mardi 12 février 2019

La 5G pose-t-elle un problème de sécurité nationale

La 5G pose-t-elle un problème de sécurité nationale
L’arrivée imminente de la 5G crée la panique au sein du gouvernement, qui souhaite absolument auditer les futurs équipements de réseaux mobiles au nom de la sécurité nationale. Mais cette démarche est-elle vraiment justifiée ?
« La 5G est au cœur d’un enjeu de souveraineté et de sécurité », a asséné avec gravité la secrétaire d’Etat auprès du ministre de l’Economie et des Finances Agnès Pannier-Runacher aux vœux de l’Arcep le 31 janvier dernier. Le ton du gouvernement a subitement changé : plutôt que de mettre en avant les bénéfices à venir de cette technologie, il ne perd plus une occasion depuis le mois de décembre d’insister sur les dangers supposés du futur standard de téléphonie mobile. Qui ferait à la fois planer une menace sur la souveraineté nationale mais aussi sur des applications critiques.
 À lire : 5G : pourquoi ce futur standard va révolutionner la téléphonie mobile
« Chacun doit avoir conscience que les risques de captation des données sont réels. Chacun doit aussi avoir conscience que l’enjeu, c’est la sécurité de technologies de rupture comme le véhicule autonome », a encore averti Agnès Pannier-Runacher lors de son discours.
 Capture vidéo - La secrétaire d'Etat à l'économie Agnès Pannier-Runacher lors de la cérémonie des voeux de l'Arcep.
Joignant le geste à la parole, le gouvernement a déposé un amendement à la loi Pacte (plan d’action pour la croissance et la transformation des entreprises). Le texte a pour objectif de mettre en place un régime d’autorisation préalable aux équipements radioélectriques. Concrètement, l’ANSSI (Agence nationale de la sécurité des systèmes d’information) pourrait examiner les nouveaux équipements des réseaux mobiles avant leur installation et les interdire si elle juge qu’ils mettent en péril « les intérêts de la défense et de la sécurité nationale ». L’amendement a été rejeté par les sénateurs ce 6 février. Mais le gouvernement ne désarme pas. « Nous restons déterminés à renforcer la sécurité des réseaux mobiles. Nous allons maintenant travailler avec les parlementaires pour clarifier les règles du jeu avant l’ouverture des enchères pour la 5G », nous a déclaré un porte-parole de Bercy.
Il existait déjà un régime d’autorisations pour les équipements télécoms, mais il était limité : il ne concernait que les appareils de cœur de réseau et visait surtout à vérifier que ces derniers permettaient aux autorités françaises de réaliser des interceptions légales (article R226 du code pénal). De son côté, la loi de programmation militaire de 2013 contraint déjà les « opérateurs d’importance vitale » (OIV) - dont les opérateurs télécoms font partie - de sécuriser leurs systèmes d’information critiques.
« Mais il est vrai qu’il n’y a pas de loi qui permette d’analyser de manière plus poussée la sécurité des équipements télécoms disponibles sur le marché » souligne Philippe Langlois, PDG de P1 Security, une société spécialisée dans la sécurité des réseaux télécoms. Un trou dans la raquette que ce nouveau texte est donc censé combler. L’idée, au final, est de pouvoir vérifier que les équipements de réseaux mobiles ne comportent pas de portes dérobées, ni de faiblesses pouvant être exploitées par des attaquants, notamment d’origine étatique.
Un amendement anti-Huawei ? Le problème, c’est que cet amendement intervient en pleine guerre commerciale américano-chinoise et au moment où l’équipementier Huawei fait l’objet d’une hostilité marquée de la part d’un nombre grandissant de pays occidentaux. Tous redoutent que le poids lourd des télécoms ne serve de cheval de Troie à la Chine et l’aide à espionner les puissances étrangères. Les Etats-Unis, l’Australie, la Nouvelle-Zélande et le Japon ont carrément banni l’entreprise du marché de la 5G. L’Allemagne, la République tchèque, la Norvège, la Pologne et la Grande-Bretagne y réfléchissent sérieusement. La position de la France est plus nuancée. Officiellement, il n’est pas question d’aboutir à de telles extrémités.  WANG ZHAO / AFP - Huawei est accusé d'espionnage industriel par les Etats-Unis.
Mais pour les opérateurs français, l’amendement est directement lié à ce climat de défiance. « Le gouvernement prend prétexte de cet amendement pour cibler Huawei sans le nommer explicitement, ni se froisser avec les autorités chinoises », nous a confié un observateur du marché. Aujourd’hui, seul Free ne fait pas appel à cet acteur pour son réseau mobile. Orange est déjà client de Huawei, mais a annoncé ne pas utiliser ses services en France dans le cadre de la 5G. Bouygues Telecom et SFR n’émettent aucune réserve, bien au contraire, et veulent continuer à collaborer avec l’équipementier. Ils appellent donc à ne pas stigmatiser Huawei : le mettre hors-jeu pourrait avoir de lourdes conséquences pour leurs activités et retarder le déploiement de la 5G.
Par ailleurs, la Fédération française des télécoms se pose des questions sur ces fameuses menaces sur la sécurité nationale. « La 5G, c’est nous qui l’achetons et la déployons. Nous estimons actuellement qu’elle ne pose pas de problème de sécurité supplémentaire. Si le gouvernement pense le contraire, il faut que l’on en parle techniquement », nous confie Didier Casas, président de la Fédération française des télécoms et secrétaire général de Bouygues Telecom.
Le traitement des informations se fera près des antennes Pourtant, les experts en sécurité partagent certaines inquiétudes du gouvernement. « Avec la 5G, les réseaux deviennent beaucoup plus complexes. Avec ce nouveau standard, les opérateurs vont ajouter des équipements et généraliser la virtualisation à tous les étages. Tous ces matériels et logiciels supplémentaires vont faire augmenter la surface d’attaque. A cela s’ajoute le fait que le standard 5G intègre de plus en plus de technologies bien connus comme HTTP/2 et JSON. Pour les hackers, cela va faciliter le travail », estime Philippe Langlois.  3GPP - La 5G créé une couche réseau intermédiaire en périphérie
En effet, contrairement aux réseaux 4G, les réseaux 5G seront beaucoup moins centralisés. Des fonctions essentielles comme le routage, la mise en communication ou le suivi de l’abonné (hand-over) ne seront plus uniquement gérés au niveau du cœur de réseau, mais pourront être déportées en périphérie, à proximité des stations de base. Cette architecture est appelée Mobile Edge Computing. Son but est de permettre aux opérateurs de gagner en performance. En particulier, elle devrait abaisser les temps de latence et favoriser les usages critiques ou à temps réel.  
Cette décentralisation s’appuie notamment sur le network slicing, une nouveauté technologique qui permet de créer des réseaux de bout en bout dédiés, personnalisés et virtualisés à partir d'une même infrastructure partagée. Cela revient à découper le réseau en tranches logicielles. On pourra ainsi dédier une couche spécifique à chaque usage et en faire varier les paramètres à l’envie.  01net.com - Dans le coeur de réseau et l'un des data center de Bouygues Telecom.
Concrètement, au lieu des lourds équipements dédiés à une seule fonction que l’on trouve actuellement dans les cœurs de réseau, des sortes de mini data centers seront installés à proximité des antennes-relais. Ce sont autant de nouveaux points d’accès qui pourraient permettre à des pirates ou des espions de prendre le contrôle sur des flux de données très sensibles.
S’ils étaient retenus dans les futurs appels d’offres, les équipements 5G de Huawei pourraient donc, du coup, gérer des fonctions avancées du réseau mobile. Ce qui n’a jamais été le cas jusqu’à présent, car l’entreprise chinoise ne fournissait pas les cœurs de réseau des opérateurs français.
Admettons que le gouvernement parvienne à imposer une nouvelle réglementation : l'ANSSI pourrait s'en servir pour refuser l'installation d'équipements Huawei près de sites sensibles comme les ministères, par exemple.
 Ericssson - Voici à quoi ressemblera une antenne 5G avec son équipement radio, selon Ericsson.
Le risque potentiel de la 5G provient également du fait que ces nouveaux réseaux sont censés connecter beaucoup plus d’appareils, et pour des usages très variés: des voitures, des bus, des usines, des robots, des appareils de santé, etc. « Cet accroissement du nombre d’objets connectés augmente mécaniquement les risques d’attaques par déni de service distribué ou de création de botnets », explique Jimmy Jones, responsable Telecom Business EMEA chez Positive Technologies, une société également spécialisée dans la sécurité des réseaux télécoms.
Voitures et usines, bientôt toutes connectées en 5G ?
Cet aspect est particulièrement important pour les futurs services critiques dans l’automobile ou l’industrie. Les constructeurs automobiles, par exemple, se sont d’ores et déjà regroupés dans le consortium 5GAA pour développer des services de transport intelligent. De la même manière, les acteurs de l’industrie manufacturière ont créé le groupement 5G-ACIA pour imaginer les nouveaux services que pourraient apporter la 5G au niveau des chaînes de fabrication ou du pilotage d’usine. Une cyber-attaque pilotée depuis les réseaux mobiles pourrait faire très mal.
Mais à croire les équipementiers, tous ces dangers sont déjà pris en compte. « Cette architecture déportée au niveau des antennes n’est pas une découverte ! Elle a été anticipée dès la conception avec notamment la mise en place d’algorithmes de chiffrement fonctionnant comme autant de petits coffres-forts dans chaque site exposé. Il n’y aura pas moins de sécurité avec la 5G... mais beaucoup plus », estime Gwénaël Rouillec, le directeur de la cyber-sécurité de Huawei Technologies France.
Au final, la sécurité de la 5G sera surtout une question d’implémentation, car on ignore encore quelle sera l'architecture finale mise en oeuvre par les opérateurs mobiles. C’est donc l’expertise de ces derniers qui fera la différence.

mardi 23 octobre 2018

Au cœur du modèle économique des GAFA

Au cœur du modèle économique des GAFA
En informant les utilisateurs du temps qu'ils leur consacrent, les plates-formes numériques s'absolvent de leur responsabilité sans changer leurs méthodes addictives et manipulatrices, selon l'expert des réseaux sociaux Sandy Parakilas
En mai, Google a fait une curieuse déclaration lors de sa conférence annuelle ---- " I/O " : la firme a annoncé qu'elle proposerait de nouvelles options permettant à ses utilisateurs d'apprendre à maîtriser leur usage de la technologie, de se déconnecter et d'acquérir de meilleures habitudes.
C'est une volte-face à 180 ° de la part d'une entreprise qui affirmait jusque-là que la technologie, loin d'être source de problèmes, était la solution à tous les problèmes. Peu après, Apple lui emboîtait le pas avec sa propre palette d'outils de confort, et quelques semaines plus tard, Facebook et Instagram annonçaient à leur tour la mise en place d'outils calculant le temps passé sur ces deux applications.
Au Center for Humane Technology, une organisation à but non lucratif créée pour combattre les maux engendrés par la technologie, nous avons observé ces développements avec la plus grande attention. Nous qui affirmons depuis des années qu'il est important de prendre conscience de ces questions, nous nous félicitons de voir l'industrie prendre des mesures pour y remédier. Il était temps : des preuves de plus en plus nombreuses attestent des risques mesurables engendrés par l'utilisation des smartphones et des réseaux sociaux.
Aux Etats-Unis, par exemple, les Centers for Disease Control and Prevention ont découvert que, chez les adolescents, notamment chez les jeunes filles, la dépression et le suicide sont corrélés à l'utilisation des appareils électroniques et des médias sociaux. Par ailleurs, des études ont montré que la moitié des adolescents et un quart des adultes disent se sentir dépendants de leurs appareils, et que leur utilisation peut induire chez eux une distraction dangereuse. Le ministère américain des transports a ainsi mis en évidence que les chauffeurs de poids lourds qui envoient des textos au volant multiplient par vingt-trois leurs risques d'avoir un accident.
Malheureusement, de nombreuses entreprises technologiques ont un modèle économique qui n'est pas aligné sur le bien-être de leurs utilisateurs.
Des firmes comme Google et Facebook, dont les recettes dépendent de la publicité, sont fortement incitées à encourager l'usage de leurs produits sans tenir compte des intérêts de leurs utilisateurs. Plus ceux-ci passent de temps sur un service, plus les entreprises ont des occasions d'afficher des publicités, plus leurs revenus augmentent. C'est pourquoi elles optimisent à la fois leur présentation et leur contenu pour augmenter le temps passé par les utilisateurs à les pratiquer, ce qui crée toute une série de problèmes.
Services délibérément addictifs au niveau le plus élémentaire, les services qui sont délibérément addictifs ou générateurs d'habitudes ont pour effet d'entraîner un mauvais usage de leur temps par les utilisateurs, qui consultent de manière incessante leur téléphone pour connaître la dernière notification ou la dernière mise à jour de statut, au lieu de faire quelque chose de plus productif.
Mais il y a des effets beaucoup plus dangereux. Du fait que les algorithmes qui sélectionnent du contenu dans les fils d'information sont optimisés pour mettre en avant, que ce soit vrai ou faux, tout ce qui est susceptible de prolonger la connexion de l'utilisateur, les infos bidon et les théories conspirationnistes bénéficient d'une exceptionnelle diffusion en ligne.
L'algorithme de YouTube a par exemple recommandé plusieurs milliards de fois des vidéos du théoricien complotiste Alex Jones et de la chaîne officielle de propagande russe Russia Today, ce qui a procuré un immense public à un contenu qui n'aurait jamais été relayé par des médias traditionnels. La tendance à proposer de plus en plus de vidéos extrêmes, afin que les utilisateurs restent sur le service, a incité l'universitaire turque Zeynep Tufekci à qualifier YouTube de " Grand Radicalisateur ". Le même problème concerne Facebook, Twitter et d'autres services financés par la publicité.
Quid des fabricants d'appareils ?
Les entreprises de médias sociaux qui dépendent de la publicité auront malheureusement du mal à changer de comportement puisque, pour qu'elles continuent à prospérer, leurs utilisateurs doivent impérativement passer de plus en plus de temps à utiliser leurs services. Informer ces utilisateurs du temps qu'ils leur consacrent est une façon pour elles de s'absoudre de leur responsabilité sans changer les méthodes addictives et manipulatrices qu'elles mettent en œuvre.
Même si, au mois de janvier, Mark Zuckerberg a déclaré publiquement qu'il voulait faire en sorte que le temps que l'on passe sur Facebook soit du temps " bien utilisé ", ses actionnaires verraient sans doute d'un mauvais œil que les gens consacrent moins de temps à consulter Facebook puisque cela ferait baisser les revenus du réseau social.
Les fabricants d'appareils comme Apple sont dans une position très différente. Ces entreprises ne gagnent pas d'argent en fonction du temps passé sur leurs appareils, elles sont rémunérées directement pas les clients qui apprécient leurs produits. Comme les gens commencent à comprendre comment les applications les manipulent, les fabricants d'appareils sont incités à améliorer la qualité de l'expérience des clients avec leurs produits afin qu'ils continuent à les utiliser. Ces fabricants ont également intérêt à protéger la vie privée de leurs clients puisqu'ils ne gagnent pas d'argent en vendant les données qu'ils collectent. C'est pourquoi les avancées vers une technologie plus humaine sont plus susceptibles de provenir des fabricants d'appareils que des entreprises de réseaux sociaux. Et ces avancées sont urgentes.
Sandy Parakilas

lundi 15 octobre 2018

La 5G broadcast divise le monde de la radio



La 5G broadcast divise le monde de la radio

Toujours diffusée en FM, la radio pourrait profiter de la 5G pour se numériser.
Une nouvelle technologie concurrence l’autre. Le radio diffuseur Towercast, filiale du groupe NRJ, lance à Paris une expérimentation de diffusion de contenus vidéo et audio en 5G broadcast.
« D’ici à 2025, les contenus vidéo représenteront environ 70 % du trafic mobile », explique Hugues Martinet. « Il faudra donc désengorger les réseaux des télécoms pour diffuser ces contenus sur des réseaux de type média.
Grâce à la 5G broadcast, il suffira de 1 600 sites de diffusion pour couvrir 90 à 95 % de la population, comme un réseau de TNT », ajoute-t-il.
Cette annonce vient relancer le débat sur la numérisation de la radio qui déchire le secteur depuis une dizaine d’années. Aujourd’hui, 95 % de la diffusion de la radio est encore assurée par les fréquences analogiques en FM. Le reste de l’écoute de la radio se fait directement sur les smartphones. Avec constance, le CSA pousse pour l’adoption de la radio numérique terrestre (RNT) sur la norme DAB +. Mais il se heurte à l’opposition des grands acteurs nationaux de la radio qui ne veulent pas en entendre parler. Pour eux, le DAB + cumule les inconvénients : il faut payer un deuxième réseau de diffusion sans gagner un centime de publicité en plus. Pire, il faut que les Français rachètent de nouveaux postes de radio DAB+ à la maison ou dans leur voiture.
En face, les radios plus petites, qui ne disposent pas de nombreuses fréquences FM, y voient là une formidable opportunité d’acquérir une audience nationale et donc de concurrencer leurs grandes sœurs.
« Nous militons pour que nos radios soient diffusées le plus largement et simplement possible auprès des auditeurs. Nous voulons donc une diffusion hybride avec la FM, le DAB+ et même la 5G broadcast » explique Jean-Éric Valli, président du groupement des Indés Radios qui rassemble 131 radios indépendantes. Il encourage le CSA à poursuivre ses efforts pour déployer le DAB +.
Après de nombreuses tentatives infructueuses, le CSA a relancé le processus d’appel d’offres de fréquences DAB + à Nantes, Strasbourg et Lyon. Selon le plan de marche du régulateur, le DAB + devrait être déployé en France vers 2021. Soit, peu ou prou, en même temps que le déploiement des réseaux de 5G mobiles qui équiperont les futurs smartphones et voitures connectées.
« Les Français pourront donc écouter la radio dans tous les foyers et sur tous les axes routiers sans rupture », anticipe un supporteur de la 5G broadcast.
Mais ce débat sur les avantages comparés des différentes technologies n’est pas neutre. « Si les radios et les télés adoptent la 5G broadcast, ils vont basculer dans le monde de télécoms et des plateformes Internet américaines. Ce monde n’est pas régulé par le CSA, et les médias risquent de dépendre de la bonne volonté de Google ou de Facebook pour être référencés », analyse Jean- Éric Valli.
« C’est un faux débat. Aujourd’hui, plus de 60 % des Français reçoivent la télévision via les box Internet des opérateurs télécoms et personne ne s’en plaint », réplique un patron de radio.
Le radiodiffuseur TDF, qui travaille à la fois pour des médias et des opérateurs télécoms, est très prudent sur la question et ne veut pas prendre parti.

jeudi 13 septembre 2018

Bernard Favre : "La voiture autonome n'arrivera pas avant 2040"

Bernard Favre : "La voiture autonome n'arrivera pas avant 2040"
Le chemin vers l'ère de la voiture autonome est beaucoup plus long que ne le prétendent les constructeurs automobiles. Si les constructeurs automobiles et les GAFA semblent se battre pour emporter la bataille, ils sont en réalité condamnés à s'entendre, selon cet expert de Presans qui accompagne les entreprises dans leurs projets d'innovation.
LA TRIBUNE - Tim Cook a récemment déclaré que la voiture autonome était comme « la mère de tous les projets d'intelligence artificielle ». Partagez-vous cette opinion ?
BERNARD FAVRE - La voiture autonome est une technologie très complexe dans laquelle la mise à contribution de l'intelligence artificielle est probablement de l'ordre de difficulté la plus élevée. Nul autre secteur ne concentre une telle diversité de situations. C'est à ce titre que ce sujet intéresse des entreprises comme Apple. Cette entreprise n'est pas intéressée par la voiture autonome en soi, mais par les algorithmes et applications qu'elle peut en tirer dans le traitement des données.
Les GAFA ont-ils fini par préempter cette technologie face aux constructeurs automobiles ?
Je n'opposerai pas les constructeurs automobiles aux GAFA. Pour développer l'intelligence artificielle, il faut être capable de traiter un ensemble de données qui partent du véhicule lui-même jusqu'aux infrastructures et aux autres mobiles, en passant par la géolocalisation, les back-offices, également les réseaux de télécommunications... Les géants du numérique ne sont pas les plus légitimes à capter ce faisceau extrêmement large de données à finalité de mobilité, et d'ailleurs ils ne le souhaitent pas forcément. Ce qui les intéresse, c'est la capacité à verrouiller la récolte d'informations pour les traiter pour une diversité d'applications.
À mon avis, pour y parvenir, ils doivent nécessairement constituer des consortiums avec des acteurs de ces différents domaines. Il faut compter les nouveaux acteurs des mobilités comme Uber ou même Keolis, des fabricants de puces et processeurs (pour acquérir des capacités de calculs massifs), mais également des gestionnaires d'infrastructures, des opérateurs télécoms et bien sûr des constructeurs automobiles. Au final, le panorama est extrêmement varié.
Il va également falloir définir des protocoles de compatibilité s'il doit y avoir plusieurs langages qui doivent émerger...
Actuellement, nous sommes en plein processus d'innovation « en laboratoire ». Il n'y a pas, pour l'heure, de marché avéré. La technologie va donc créer les jalons potentiels du marché, mais très vite, c'est le marché qui imposera ses conditions à cette technologie. Donc évidemment, il faudra réguler tout cela car on ne peut pas non plus ignorer que ces systèmes contiennent des algorithmes et des paramètres propriétaires non décryptables.
Déjà aujourd'hui, les expérimentations récentes démontrent qu'il y a de bons et de mauvais logiciels. Les régulateurs publics voudront contrôler que les systèmes de voiture autonome sont conformes à des critères (essentiellement sécuritaires) selon des protocoles qui restent à déterminer. Il existe déjà des groupes de travail sur tous les sujets que pose la voiture autonome.
Des normes et des standards finiront par s'imposer à tous. Mais ce sera très complexe, on constate par exemple d'ores et déjà que certains logiciels d'intelligence artificielle transgressent les règles du Code de la route. La question majeure de la cybersécurité sera également un sujet qui devra nécessairement être encadré par le régulateur.
Ces sujets sont très longs à paramétrer et à expérimenter. Pensez-vous que les constructeurs sont capables de respecter les délais qu'ils annoncent en termes de commercialisation d'une voiture autonome ?
Le nombre de tests indispensables pour valider les prestations du véhicule autonome explose chez les constructeurs automobiles. Ils associent expérimentations physiques en conditions réelles et simulations numériques pour traiter l'immense diversité des cas d'usage (configurations de trafic, caractéristiques des infrastructures, conditions de visibilité, d'adhérence...).
Mais pour l'heure, ces expérimentations sont effectuées sur voie privée, et sur les quelques cas d'expérimentations (de plus en plus nombreux) en circulation réelle, elles restent très encadrées et un opérateur demeure derrière le volant. J'ai une certaine expérience sur l'incertitude relative au délai entre ce qu'un constructeur projette et annonce sur de nouvelles technologies, et leur commercialisation effective (pour des raisons diverses : maturité, réglementation, acceptabilité par le marché, coût, performance réelle...). Je crains que la voiture autonome ne déroge pas à ce que j'ai constaté dans ma carrière.
Chaque année, les constructeurs ajoutent une année supplémentaire, sinon plus, sur les délais annoncés, qui, par ailleurs, n'engagent qu'eux, puisque le législateur doit également poser ses conditions. Récemment, l'INRIA a estimé que la voiture autonome sera sur voie privée en 2025. Quant aux voies publiques, elle a évoqué la date de 2040. Je suis à peu près en accord avec cet horizon.
Bernard Favre a une longue expérience dans l'univers de l'ingénierie automobile. Il a dirigé la recherche chez Volvo-Renault Trucks (1991-2014), et a dirigé le programme de recherche du Pôle de compétitivité LUTB Transport & Mobility Systems(2006-2014)

mercredi 12 septembre 2018

L'arbitrage cognitif utile pour le futur des assistants vocaux



L'arbitrage cognitif utile pour le futur des assistants vocaux

L'un des risques des assistants vocaux (AV) sur smartphone où ailleurs c'est que les assistants entraînent une expérience utilisateur fragmentée. Certains sont disponibles uniquement dans certains endroits, tels que la voiture ou la maison. Certaines ne fournissent que des compétences spécifiques, telles que la réservation de vols ou la commande de pizzas. C’est précisément cette diversité qui peut devenir un inconvénient: si les services et applications préférés sont contrôlés par les AV, les utilisateurs doivent naviguer à travers ce système fragmenté, basculant entre les AV, essayant de se rappeler ce que chacun peut faire.

Les tendances du marché montrent que les AV vont contrôler de plus en plus d'appareils intelligents, comme les thermostats, les réfrigérateurs, les machines à laver… en bref, ils seront intégré à la maison intelligente. En plus des assistants vocaux polyvalents lancés par de grandes entreprises technologiques, des assistants (souvent appelés bots) qui fournissent des compétences spécifiques (telles que la réservation de vols) sont disponibles et deviendront de plus en plus répandus.

L’annonce de Nuance est intéressante avec son partenariat est Affectiva autour de l’arbitrage cognitif qui est une technologie d’intelligence artificielle (IA) qui guide chaque demande d'utilisateur à l'AV qui convient le mieux à son traitement. La technologie combine à la fois cognitive et éléments conversationnels. L'IA conversationnelle facilite une interaction naturelle et fluide avec l'utilisateur. Ainsi, le « Cognitive Arbitrator » émerge, une sorte de « Super AV » qui interagit avec l'utilisateur et assure le traitement de chaque demande de l’utilisateur.

Dragon Drive de Nuance, alimente plus de 200 millions de voitures actuellement sur la route, et couvre plus de 40 langues afin de fournir des expériences personnalisées, intégralement adaptés à la marque pour Audi, BMW, Daimler, Fiat, Ford, GM, Hyundai, SAIC, Toyota etc. Alimenté par l’IA conversationnelle, Dragon Drive permet à l’assistant embarqué d’interagir avec les passagers, en se basant sur des modalités verbales et non-verbales incluant les gestes, le toucher, la détection du regard, la reconnaissance vocale alimentée par la compréhension du langage naturel (NLU), et dès à présent, grâce à son travail aux côtés d’Affectiva, la détection émotionnelle et cognitive.

[Cognitif signifie que le système peut se comporter de manière intelligente en apprenant les préférences des utilisateurs individuels et des utilisateurs. Avec des capacités de services tiers, puis utiliser ces connaissances pour prendre des décisions judicieuses qui correspondent aux besoins de l’utilisateur.- L'arbitrage signifie que le système détermine où et comment répondre aux demandes des utilisateurs.]

Par exemple dans l’automobile qui s’est traditionnellement concentrée sur ce qui se passe à l’extérieur du véhicule, les équipementiers et les fournisseurs de premier niveau commencent à tourner les caméras et les capteurs vers l’intérieur. Mesurer en temps réel, les états émotionnels et cognitifs complexes et nuancés du visage et de la voix pour comprendre les émotions du conducteur et des occupants, les états cognitifs et les réactions à l’expérience de conduite.

Invocation explicite
Au début de la prolifération des assistants vocaux, les utilisateurs déclenchent généralement un assistant spécifique sur leurs appareils avec un déclencheur (commutateur de conversation) ou par un nom. Naturellement, l'arbitrage cognitif soutient de telles demandes. Les utilisateurs s'attendent à continuer à utiliser ce mode d'interaction pour la cohérence et aussi quand ils veulent diriger explicitement l'interaction vers un service spécifique.

Invocation implicite
Dans un environnement d’assistants multiples, il peut cependant être préférable pour l’utilisateur de ne pas penser à un assistant pour appeler pour une demande donnée. Le système peut comprendre les préférences et l’environnement de l’utilisateur pour AV ou le bot approprié pour une commande et un contexte donnés.

L'Empathie jouera aussi un rôle clé dans les relations entre les personnes et elle est essentielle à la réussite de l'interaction homme-machine. Créé par l'artiste Takayudi Todo, ce #robot est capable de faire un contact visuel, de reconnaître les expressions faciales des personnes et de leur restituer cette même expression. (Vous imaginer un tableau de bord qui vous fait un clin d'oeil \uD83D\uDE42 Les cas d'utilisation sont nombreux entre soins, social, humanitaire, santé, service client et de nombreux autres domaines