dimanche 1 janvier 2017

Google, Amazon, Facebook, IBM et Microsoft ont annoncé une initiative commune intitulée « Partnership on Artificial Intelligence to Benefit People and Society »

Pionnier du « deep learning », le Français Yann Le Cun est l'un des chercheurs à l'origine de cet accord, et il siégera au comité exécutif en tant que représentant de Facebook. Il revient sur les coulisses et les enjeux de cet accord.

Comment réussit-on à mettre autour de la même table cinq des plus grands acteurs d'Internet ?

L'histoire a commencé en 2015 par une discussion entre Demis Hassabis (cofondateur de DeepMind Technologies, racheté par Google en 2014) et moi. Nos deux entreprises commençaient à discuter du déploiement de l'intelligence artificielle, des conséquences, de l'éthique, et nous étions de plus en plus interrogés par les médias et le public sur ces questions. On voyait aussi beaucoup de communication un peu farfelue sur ces questions, d'articles sensationnalistes... On a fait une première réunion en décembre 2015, lors d'un congrès à Montréal. En parallèle, j'avais travaillé à l'organisation d'une conférence sur le futur de l'intelligence artificielle à New York, en février 2016. Le dernier jour, nous avions eu une table ronde avec des représentants des cinq futurs partenaires, mais aussi des universitaires. A partir de là, il nous a fallu entre sept et huit mois pour que tout le monde se mette d'accord...

Le mouvement est donc parti des chercheurs, pas des entreprises...

Oui, ce sont les directeurs de labos qui ont pris l'initiative et ensuite nous sommes allés convaincre la hiérarchie dans les différentes entreprises que c'était une bonne idée. Je dirais que cela a été très facile chez Facebook.

Est-ce que le nouveau partenariat signifie que les chercheurs ont pris sinon le pouvoir, du moins une grande importance ?

Sur tous les sujets nous avons toujours eu une approche d'ouverture public-privé et de collaboration avec les universités et les institutions. Les entreprises impliquées dans des programmes de recherches avancées, comme Facebook, et généralement dans de la recherche ouverte, sont très présentes sur le circuit de la recherche internationale, publient beaucoup, contribuent à la science. C'est un moyen de garantir la qualité de la recherche : la recherche ouverte est de meilleure qualité que la recherche secrète. Si vous dites aux gens de publier leurs travaux, ça leur donne un standard de méthodologie et de déontologie qui est plus haut que si on leur demande simplement d'obtenir de bons résultats.

Est-ce pour cela qu'Apple n'est pas dans le partenariat ?

Je ne peux pas m'exprimer pour Apple mais je pense qu'ils vont rejoindre le partenariat, en tant que membre, même s'ils ne sont pas membre fondateur, parce qu'ils sont très présents sur le marché des produits et technologies liés à l'intelligence artificielle.

Il y aura d'autres entreprises ?

Oui, notamment parmi les utilisateurs de l'intelligence artificielle, par exemple dans l'automobile, la santé, les télécoms... Il y aura aussi des universitaires spécialistes de l'éthique ou des sciences sociales.

Et des représentants de gouvernement ?

Oui. Un des objectifs de ce partenariat est d'être un interlocuteur privilégié vis-à-vis des gouvernements, mais aussi d'informer le public sur les technologies d'intelligence artificielle, sur leur impact possible, sur les trajectoires possibles, etc.

Cette initiative est-elle venue parce que vous pensez que le public est mal informé ?

Absolument. C'est la motivation essentielle. Il est fort possible soit d'ignorer des dangers qui sont réels, soit d'avoir des réactions un peu excessives à des dangers qui ne sont pas réels. C'est notre devoir d'expliquer par exemple que le scénario à la « Terminator » [révolte des machines qui décident de détruire les humains, NDLR] ne risque pas de se produire, car nous n'aurons pas les technologies en question avant plusieurs décennies et ce n'est pas l'objectif de nos recherches qui sont ouvertes et partagées avec tous. En revanche, il y a d'autres risques qui sont probablement plus immédiats...

Comme les biais que peuvent avoir certains algorithmes...

Oui, on voit certaines entreprises qui proposent des produits à base d'apprentissage automatique sans considération éthique. Par exemple des entreprises qui vendent à des villes ou des Etats américains des logiciels pour estimer la probabilité qu'un criminel récidive : ces systèmes sont entraînés sur des bases de données qui ont des biais, et les reflètent dans leurs prédictions. Notre partenariat prend là tout son sens et a pour objectif d'établir des standards, des recommandations sur une utilisation correcte de l'intelligence artificielle.

L'une des craintes récurrentes est que les systèmes d'apprentissage automatique soient des « boîtes noires », que l'on sache ce qui entre et ce qui sort sans comprendre ce qui est fait...

C'est beaucoup moins une boîte noire qu'une personne : au moins on peut regarder à l'intérieur. Demandez à votre chauffeur de taxi pourquoi il a donné un coup de volant, il aura bien du mal à vous l'expliquer...

Les craintes qui naissent aujourd'hui viennent-elles du fait que l'on attend trop de choses de l'intelligence artificielle ?

Il faut se méfier de l'exagération. Nous sommes conditionnés par la vision que nous avons des robots et de l'intelligence artificielle dans la science-fiction, et donc on a un peu de mal à s'imaginer ce qui est possible ou impossible aujourd'hui, ou ce qui le sera dans le futur. Cela conduit à des problèmes de communication entre les scientifiques, les industriels, le public, les gouvernements... Par exemple, on est encore loin de faire des machines qui soient « généralement intelligentes ». On a des machines qui sont « supérieurement intelligentes », mais cela veut dire qu'elles sont supérieures dans un domaine très étroit, comme jouer aux échecs ou au jeu de go.
Le chemin que l'on essaie de prendre avec l'intelligence artificielle, c'est de rendre les machines plus généralement intelligentes, c'est-à-dire plus adaptables, voire capables d'acquérir le sens commun. Si je dis « Hervé prend sa bouteille et quitte la pièce », vous pouvez imaginer une suite d'opérations, car vous savez comment fonctionne le monde, vous savez qu'Hervé va se lever, qu'il passera par la porte, qu'il ne va pas voler... Les ordinateurs n'ont pas pour l'instant la capacité de l'apprendre par observation. C'est la prochaine étape que l'on essaie de franchir.

Ce que vous appelez le « sens commun » est-il vu comme un objectif atteignable par les chercheurs en intelligence artificielle ?

C'est certainement atteignable, mais on ne sait pas quand ni avec quelle technique. Il est clair que le problème sera résolu dans les décennies à venir. Mais si quelqu'un vous dit qu'une technologie va être développée dans les vingt ans qui viennent, cela signifie qu'il n'a aucune idée de combien de temps ça va prendre !

Pour son 41ème numéro des "regards croisés" Thierry Bardy accueille Thierry Lepercq d'ENGIE



Pour son 41e numéro des "regards croisés" Thierry Bardy accueille un "entrepreneur intrapreneur"  …


  
Thierry Lepercq :  un entrepreneur à la tête de la Recherche, la Technologie et de l'Innovation d'Engie.


La vidéo de la séance


Quels mode de gouvernance et d’organisation pour relever les enjeux de la transition énergétique ? 

Après le rachat de sa société Solairedirect par Engie en septembre 2015,
Thierry Lepercq a été nommé en 2016 au comité exécutif du premier énergéticien mondial.



Transition énergétique (énergies renouvelables), transition numérique, décentralisation de la production, stockage sont les principaux enjeux d'Engie.

Thierry Lepercq  expliquera les changements culturels et les nouveaux modes  d’organisations  nécessaires pour relever les nouveaux défis du monde de l'énergie décarbonée d'aujourd'hui et de demain. 

Orange Gardens      Mercredi 18 janvier 13h – 14h30 La Grande Scène (auditorium), Salle modulable et Mini-amphi, bâtiment 3A