Pionnier du « deep learning », le Français Yann Le Cun est l'un des chercheurs à l'origine de cet accord, et il siégera au comité exécutif en tant que représentant de Facebook. Il revient sur les coulisses et les enjeux de cet accord.
Comment réussit-on à mettre autour de la même table cinq des plus grands acteurs d'Internet ?
L'histoire
a commencé en 2015 par une discussion entre Demis Hassabis (cofondateur
de DeepMind Technologies, racheté par Google en 2014) et moi. Nos deux
entreprises commençaient à discuter du déploiement de l'intelligence
artificielle, des conséquences, de l'éthique, et nous étions de plus en
plus interrogés par les médias et le public sur ces questions. On voyait
aussi beaucoup de communication un peu farfelue sur ces questions,
d'articles sensationnalistes... On a fait une première réunion en
décembre 2015, lors d'un congrès à Montréal. En parallèle, j'avais
travaillé à l'organisation d'une conférence sur le futur de
l'intelligence artificielle à New York, en février 2016. Le dernier
jour, nous avions eu une table ronde avec des représentants des cinq
futurs partenaires, mais aussi des universitaires. A partir de là, il
nous a fallu entre sept et huit mois pour que tout le monde se mette
d'accord...
Le mouvement est donc parti des chercheurs, pas des entreprises...
Oui,
ce sont les directeurs de labos qui ont pris l'initiative et ensuite
nous sommes allés convaincre la hiérarchie dans les différentes
entreprises que c'était une bonne idée. Je dirais que cela a été très
facile chez Facebook.
Est-ce que le nouveau partenariat signifie que les chercheurs ont pris sinon le pouvoir, du moins une grande importance ?
Sur
tous les sujets nous avons toujours eu une approche d'ouverture
public-privé et de collaboration avec les universités et les
institutions. Les entreprises impliquées dans des programmes de
recherches avancées, comme Facebook, et généralement dans de la
recherche ouverte, sont très présentes sur le circuit de la recherche
internationale, publient beaucoup, contribuent à la science. C'est un
moyen de garantir la qualité de la recherche : la recherche ouverte est
de meilleure qualité que la recherche secrète. Si vous dites aux gens de
publier leurs travaux, ça leur donne un standard de méthodologie et de
déontologie qui est plus haut que si on leur demande simplement
d'obtenir de bons résultats.
Est-ce pour cela qu'Apple n'est pas dans le partenariat ?
Je
ne peux pas m'exprimer pour Apple mais je pense qu'ils vont rejoindre
le partenariat, en tant que membre, même s'ils ne sont pas membre
fondateur, parce qu'ils sont très présents sur le marché des produits et
technologies liés à l'intelligence artificielle.
Il y aura d'autres entreprises ?
Oui,
notamment parmi les utilisateurs de l'intelligence artificielle, par
exemple dans l'automobile, la santé, les télécoms... Il y aura aussi des
universitaires spécialistes de l'éthique ou des sciences sociales.
Et des représentants de gouvernement ?
Oui.
Un des objectifs de ce partenariat est d'être un interlocuteur
privilégié vis-à-vis des gouvernements, mais aussi d'informer le public
sur les technologies d'intelligence artificielle, sur leur impact
possible, sur les trajectoires possibles, etc.
Cette initiative est-elle venue parce que vous pensez que le public est mal informé ?
Absolument.
C'est la motivation essentielle. Il est fort possible soit d'ignorer
des dangers qui sont réels, soit d'avoir des réactions un peu excessives
à des dangers qui ne sont pas réels. C'est notre devoir d'expliquer par
exemple que le scénario à la « Terminator » [révolte des machines qui
décident de détruire les humains, NDLR] ne risque pas de se produire,
car nous n'aurons pas les technologies en question avant plusieurs
décennies et ce n'est pas l'objectif de nos recherches qui sont ouvertes
et partagées avec tous. En revanche, il y a d'autres risques qui sont
probablement plus immédiats...
Comme les biais que peuvent avoir certains algorithmes...
Oui,
on voit certaines entreprises qui proposent des produits à base
d'apprentissage automatique sans considération éthique. Par exemple des
entreprises qui vendent à des villes ou des Etats américains des
logiciels pour estimer la probabilité qu'un criminel récidive : ces
systèmes sont entraînés sur des bases de données qui ont des biais, et
les reflètent dans leurs prédictions. Notre partenariat prend là tout
son sens et a pour objectif d'établir des standards, des recommandations
sur une utilisation correcte de l'intelligence artificielle.
L'une des craintes récurrentes est que les systèmes d'apprentissage automatique soient des « boîtes noires », que l'on sache ce qui entre et ce qui sort sans comprendre ce qui est fait...
C'est
beaucoup moins une boîte noire qu'une personne : au moins on peut
regarder à l'intérieur. Demandez à votre chauffeur de taxi pourquoi il a
donné un coup de volant, il aura bien du mal à vous l'expliquer...
Les craintes qui naissent aujourd'hui viennent-elles du fait que l'on attend trop de choses de l'intelligence artificielle ?
Il
faut se méfier de l'exagération. Nous sommes conditionnés par la vision
que nous avons des robots et de l'intelligence artificielle dans la
science-fiction, et donc on a un peu de mal à s'imaginer ce qui est
possible ou impossible aujourd'hui, ou ce qui le sera dans le futur.
Cela conduit à des problèmes de communication entre les scientifiques,
les industriels, le public, les gouvernements... Par exemple, on est
encore loin de faire des machines qui soient « généralement
intelligentes ». On a des machines qui sont « supérieurement
intelligentes », mais cela veut dire qu'elles sont supérieures dans un
domaine très étroit, comme jouer aux échecs ou au jeu de go.
Le
chemin que l'on essaie de prendre avec l'intelligence artificielle,
c'est de rendre les machines plus généralement intelligentes,
c'est-à-dire plus adaptables, voire capables d'acquérir le sens commun.
Si je dis « Hervé prend sa bouteille et quitte la pièce »,
vous pouvez imaginer une suite d'opérations, car vous savez comment
fonctionne le monde, vous savez qu'Hervé va se lever, qu'il passera par
la porte, qu'il ne va pas voler... Les ordinateurs n'ont pas pour
l'instant la capacité de l'apprendre par observation. C'est la prochaine
étape que l'on essaie de franchir.
Ce que vous appelez le « sens commun » est-il vu comme un objectif atteignable par les chercheurs en intelligence artificielle ?
C'est
certainement atteignable, mais on ne sait pas quand ni avec quelle
technique. Il est clair que le problème sera résolu dans les décennies à
venir. Mais si quelqu'un vous dit qu'une technologie va être développée
dans les vingt ans qui viennent, cela signifie qu'il n'a aucune idée de
combien de temps ça va prendre !
Aucun commentaire:
Enregistrer un commentaire