Rapport Villani & IA : (im)pertinence ?

 

Mesure liminaire d'hygiène intellectuelle : avoir été pendant 12 ans un expert des mathématiques statistiques appliquées à l'équation de Boltzmann et de la théorie du transport optimal, n'implique pas d'être un expert universel de tous les sujets scientifiques. Cette remarque n'implique pas non plus que Cedric Villani ne puisse pas être compétent sur des sujets différents de son expertise première.

 

Donner un sens à l'intelligence artificielle

Tel est le titre du rapport rendu par Cedric Villani le 28 mars dernier, livrable de la mission parlementaire de 6 mois qui a été confié au lauréat de la médaille Fields par le premier ministre.

Ce rapport m'a pour l'instant déçu : je devais trop en attendre. Je serai honnête, ça me perdra ... je n'ai réellement lu que 80 des 235 pages, et parcouru les autres. Je lirai probablement le reste, dans les prochaines semaines, puisque ce rapport se veut visiblement fondateur d'une politique nationale sur l'IA. Ou plus précisément, sur la data. Et c'est bien le problème : ce rapport parle essentiellement de données (agrégation, partage, valorisation) voire de stratégie d'achats de services d'analyses de données. Ce point a, semble-t-il, échappé à pas mal de monde.

Quelle est la cible de ce texte ? Je ne le sais pas vraiment. Vraisemblablement, seuls deux des huit rédacteurs auraient pu écrire du code informatique de manière professionnelle et, peut-être, travailler dans le domaine de l'intelligence artificielle ou des sciences cognitives.

Ce point est important : les rédacteurs parlent donc d'un sujet sur lequel ils n'ont globalement ni réelle expérience, ni vécu. Cela pourrait suffire : qu'ont-ils à dire de pertinent sur un sujet technique (j'insiste) qu'ils ne maîtrisent pas (en majorité) ? Quoi qu'il en soit, en tant que technicien de la data, scientifique de formation et dresseur de données par métier, ce rapport m'était a priori adressé. Il m'a loupé.

Ce billet est donc plus proche d'une réaction d'humeur provoquée par ma lecture partielle dudit rapport, qu'une analyse complète, que je ne ferai probablement pas : trop long, pas le temps, autre chose à faire, comme assister les fondateurs de Dawex ou intégrer OceanData.io dans une structure bien plus ambitieuse, AltGR.

 
Je n’ai jamais été déçu par l’intelligence artificielle parce que je n’ai pas cru une seule seconde en l’intelligence artificielle. Jamais.
— Gérard Berry, informaticien
 

Le piège de la définition

minsky.jpg

Le premier paragraphe de l'introduction propose une définition de l'IA que je trouve vraiment faible: « comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain ». Je m'attendais à plus de recul. Comparons avec la finesse de la définition proposée par Marvin Minsky: « The science of making machines do things that would require intelligence if done by men ». En français, l'IA est la science qui s'intéresse aux machines qui font des choses qui, si elles étaient réalisées par un humain, demanderaient qu'il soit intelligent. Lourd, non ?

Quel besoin de tomber immédiatement dans la comparaison avec l'homme ; pire encore, avec les processus de cognition humaine, véritable terra incognita, toujours en cours de cartographie par les neurobiologistes ? Depuis les glorieux temps des pères fondateurs du domaine (Dartmouth, USA, 1956, ou le papier de McCulloch & Pitts, 1943), la grande bataille conceptuelle de l'IA est justement d'éviter le biais anthropique et d'arriver à imaginer des processus intelligents sans tomber dans la comparaison avec notre connaissance limitée de son implémentation (physique, car câblée) dans un cerveau humain. L'autre bataille est celle de la définition de ce qu'on appelle intelligence. Vaste débat. Définir l'intelligence artificielle est hasardeux, piégeux et ne peut mener qu'à une définition foutraque et incomplète. La définition de l'IA ou plus généralement des sciences cognitives est un bourbier sans nom, donc un sujet absolument passionnant à propos duquel les spécialistes s'écharpent depuis plus de 50 ans. Certains se demandent même si c'est un domaine de recherche précis, à cheval entre l'informatique théorique, l'ingénierie, la cybernétique, la psychologie, la philosophie, sans oublier la biologie et les problèmes bassement techniques d'implémentation. Étudier l'esprit comme si c'était une machine, propose M Boden dans son phénoménal Mind as Machine. Toute personne voulait d'ailleurs parler d'IA et être prise au sérieux devrait s'être attelé à la lecture du Mind as Machine et de Society of Minds (Minsky).

Pourquoi donc tomber dans le panneau au premier paragraphe ? Pourquoi ne pas avoir trouvé un moyen de botter en touche en citant un grand ancien ou en renvoyant à l'intelligence ou à quelque chose du genre « solve kinds of problems now reserved for humans » (McCarthy) ? Ou encore, en faisant un pas de coté avec Terry Pratchett ... Bref. Tout sauf prêter le flanc aussi naïvement sur un point que les râleurs comme moi ne manqueront pas de noter. D'emblée, cette maladresse met mal à l'aise, et invite à s'interroger sur le contexte de la rédaction de ce rapport ainsi que sur les connaissances historiques de base des rédacteurs sur un sujet qu'ils prétendent adresser.

Maybe the only significant difference between a really smart simulation and a human being was the noise they made when you punched them
— Terry Pratchett
 

D'autres points relatifs au contexte de la recherche en IA me posent problème.

Pourquoi se placer uniquement dans un cadre hyper-moderne, en citant par exemple la théorie (fumeuse à mes yeux) de la singularité de Kurzweil, le délire transhumaniste, la Silicon Valley, Palantir et Obama ? Comment ne pas citer A Turing, M Minsky, J McCarthy, A Newell, H Simon et j'en passe ? Les références sont importantes, car elles dévoilent une toile de fond culturelle : citer Blade Runner, Her et 2001 sans parler d'Asimov, écrivain indépassable à mes yeux d'ex-adolescent des années 90, point commun avec mon ex-collègue. Je m'énerverai longuement ce point dans les prochains paragraphes.

Question plus importante, qui pose un sérieux problème de positionnement, voire de pertinence, et qui, à mes yeux, invalide quasiment complètement l'intérêt du rapport : pourquoi à ce point mélanger données et IA ? Les amalgamer n'a aucun sens. La seconde ne va pas vraiment sans la première, bien que ce point puisse être discuté dans le cadre d'une IA symbolique, ce que s'efforcent de nous faire oublier les zélotes des réseaux de neurones (#deeplearning) . Précisons donc un point, qui ne sera peut-être noté que si quelqu'un prend la peine de formuler l'évidence : ce rapport parle essentiellement de constitution, de partage, d'exploitation et de valorisation de bases de données. Ainsi que de politiques publiques, de stratégie de communication, d'initiatives économiques et administratives ... Mais pas du tout d'intelligence artificielle.

Fondamentalement, l’ordinateur et l’homme sont les deux opposés les plus intégraux qui existent. L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con. On essaie de faire des programmes qui font une mitigation entre les deux. Le but est louable. Mais de là à y arriver...
— Gérard Berry, médaille d’or 2014 du CNRS
 

Une infamie culturelle

Certains fâcheux me diront que j'exagère, que je ne suis pas sérieux, voire que je me trompe de combat. Je leur répondrai que c'est une façon bien singulière d'appréhender la vie, donc la science, que de ne retenir des choses que leur coté chiant, aride, sans vie. Un savoir peut être gai, et la culture ou l'imagination peuvent jouer un rôle important dans les activités techniques.

Est-ce de ma faute, d'ailleurs, si le rapport Villani parle de culture, en citant quelques noms de films ou d'auteurs ? Un seul écrivain (Douglas Hofstadter), trois films grand public, une référence au rôle de la science-fiction dans l'imaginaire de la recherche IA ; c'est d'ailleurs bien mince. Trop mince, selon moi. Les considérations qui vont suivre auraient-elle eu leur place dans un rapport pensé comme « une mission d’information sur la stratégie française et européenne en intelligence artificielle », affirmant que, « [plus] que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications » ? Je ne le pense pas et, soyons clair, c'est bien dommage.

Car enfin qui, sinon les écrivains, s'est évertué à défricher le domaine de l'IA, depuis l'après-guerre ? Qui a imaginé les modalités d'interactions entre d'un côté, des machines pensantes, intelligentes ou conscientes, et de l'autre, l'humanité ? Qui a érigé les premières lois de la robotique, véritables principes opérationnels ? Je crois aux pouvoirs de l'imagination, de l'invention, du prospectif sur les activités techniques et humaines. Et s'il se trouvait que je divaguasse, possibilité à ne jamais écarter, il se trouve que, comme beaucoup de professionnels de la science ou de l'informatique, le gamin que j'étais a baigné dans cette imaginaire collectif peuplé par les robots d'Isaac Asimov (R. Daneel Olivaw, R. Giskard Reventlov, l'homme positronique) et HAL d'Arthur C. Clarke et Stanley Kubrick. Bien que fictifs, ces images et ces récits jouent pour moi un rôle de références absolues. Les fâcheux me regarderont peut-être avec condescendance, soit. J'aurais du citer Proust ou Zola, ou un gars à la mode. Mon point n'est pas de généraliser mon vécu, mais d'en donner quelques clés qui ne sont, espérons-le, pas trop embrumées par les années. Et je les envie ces fâcheux, toujours trop sérieux, d'avoir encore cette chance fabuleuse de pouvoir découvrir tous ces mondes, tous ces espoirs, tous ces drames proposés par ces romans science-fiction. Que je relirai, un jour ... mais pas maintenant.

DestinationVoidCover_0.png

Ma référence en terme d'IA, après Asimov, est le Projet Conscience, quadrilogie assez complexe de Frank Herbert et Bill Ransom, qui aborde frontalement le sujet de la création d'une IA dans Destination vide, puis de ses relations avec des humains. Des livres qui font réfléchir, et qui perdent un peu leur lecteur. Le cycle de la Culture de Iain M. Banks aborde l'altérité fondamentale des machines, leur part violemment a-humaine qui n'est pas circonscrite à la pure logique, point passionnant car ce qui nous intéresse dans ces fictions, au final, c'est ce qu'on ne prévoit pas. On retrouve ce sujet dans les agissements du TechnoCore imaginé par Dan Simmons dans son cycle Hyperion/Endymion. L'indépendance totale, l'affirmation et l’émancipation : ces créations prennent très souvent des chemins qui les séparent de l'humanité, sans être toutefois ouvertement hostiles.

Certains auteurs proposent des visions plus sombres et décrivent des IA farouchement hostiles, à l'image de la société des Primes dans les Pandora's Star / Judas Enchained de Peter F. Hamilton, hostile certes, mais indirectement car se bornant à répondre à des impératifs bibliques (« soyez féconds et multipliez-vous, remplissez la terre et soumettez-la »). L'homme est nié, réduit à un statut d'obstacle. Les références multiples du Dune d'Herbert au Jihad Butlerien permettent d'aborder les machines pensantes avec un angle quasi-religieux, donc moral, en rappelant le premier commandement de sa Bible catholique orange.

Tu ne feras point de machine à l’esprit de l’Homme semblable.
— Bible Catholique Orange (Frank Herbert)

Pour finir cet inventaire incomplet et totalement sentimental des mes lectures passées, je citerai la référence fondatrice du cyberpunk, dystopie d'anticipation de la fin du XXème, d'une pertinence phénoménale : Neuromancien, de William Gibson. Ovni littéraire, à classer juste à coté de 1984. Et enfin, j'aborderai très superficiellement un point qui me parait primordial et sur lequel j'aurais souhaité pouvoir lourdement insister : l'humour absurde du cycle du Guide Galactique de Douglas Adams qui réussit le tour de force de ne jamais se prendre au sérieux tout en abordant les thèmes classiques de l'IA avec, toujours, un pas de coté. Marvin, l'androide paranoide, « brain the size of a planet » ; les allègres transports verticaux de la compagnie cybernétique de Sirius; et DeepThought, qui calcule la réponse à la question définitive de la vie, de l'univers et du reste (42).

Je pourrais continuer longtemps. Les références culturelles ne manquent pas. Quel dommage de s'être limité à 2001 et d'avoir profité d'une telle audience pour faire un énorme hors-sujet sur Blade Runner !

It gives me a headache just trying to think down to your level.
— Marvin (Douglas Adams)
Life! Don’t talk to me about Life!
— Marvin (Douglas Adams)

 

Ce rapport ne me parle donc pas

Et pourtant, ce rapport me concerne. Si ma lecture superficielle est bonne, j'ai vu passer mon profil plusieurs fois : entrepreneur dans l'innovation numérique, issu des formations techniques d'excellence et cochant pas mal de cases (grande école, thèse de doctorat, recherche, startup tech etc).

bayesian_methods_4.png
 

Pourtant, je ne suis pas expert de l'IA - qui oserait se revendiquer comme tel ? - mais un praticien du terrain. Je m'imagine, peut-être faussement, partiellement représentatif d'une partie des développeurs, décideurs opérationnels et techniciens implémentant l'IA (ou ce qu'ils appellent ainsi), car travaillant sur des projets réels basés sur les besoins des entreprises, en retrait des cercles de décisions parisiens et des tribunes médiatiques pseudo-techniques. Ce n'est ni bien, ni mal, ce n'est pas un positionnement non plus, c'est juste une réalité.

Fort d'une pratique quotidienne et d'une certaine expérience de la programmation, je peux affirmer que cette forme de jacobinisme parisien ne décidera pas de ce que nous implémenterons dans nos algorithmes. Impossible ! Comprennent-ils seulement ce que nous écrivons, dans ces algorithmes et autres heuristiques d'optimisation sous contraintes ? L'éthique, gros et beau sujet politique, ne s'érige pas, ne se proclame pas : elle se pratique, au jour le jour. Pour rester purement factuel, les décisionnaires finaux sur ces point techniques précis ne sont pas les clients, encore moins le législateur, puisqu'ils ne sont souvent que peu au fait des processus de décisions algorithmiques et des biais plus ou moins subtils constitutifs des datasets. Les décisionnaires sont les développeurs qui, généralement, font ce qu'ils peuvent. Oui  à l'éthique en bottom-up, pas top-down. Nous pourrions en parler longtemps, et ce billet est déjà bien trop long.

La langue m’intéresse aussi parce que, qu’est-ce que programmer un ordinateur ? C’est parler à quelqu’un de totalement obéissant, qui ne pose jamais de question, qui ne s’ennuie jamais. Quand on y pense, c’est une activité belle et absurde de parler à un abruti aussi absolu que l’ordinateur.
— Gérard Berry, CNRS
 

Bref. Trop long !

Pour finir sur une note positive et constructive, voici quelques idées glanées ça et là qui m'ont paru intéressantes, sinon indispensables, si la France veut réellement avoir un impact fort sur la R&D dans l'IA :

  • pousser les chercheurs à monter des initiatives privées, ces deux milieux sont généralement étanches;
  • simplifier les démarches administratives pour les innovations techniques liées à l'exploitation et la valorisation des données, car sans données, il est difficile de travailler réellement sur des algorithmes d'apprentissage automatique ;
  • augmenter sensiblement les salaires des scientifiques (tous) est à mes yeux d'une absolue nécessité pour qui souhaite attirer des professionnels compétents et offrir des débouchés plus attrayants aux étudiants;
  • ouvrir la thématique de la responsabilité des techniciens qui programment des algorithmes dont l'impact sur la vie des citoyens peut ne pas être négligeable.

Ces idées, ainsi que quelques autres, me parlent car elles résonnent avec mon vécu d'ex-professionnel de la R&D scientifique, qui a créé sa structure et vit maintenant de ses prestations commerciales dans le domaine de la valorisation de données.

On revient toujours au même problème du gouffre entre l’intelligence humaine et la connerie de la machine. Programmer, ça consiste à combler un gouffre absolu entre l’intelligence et la connerie. Quand j’enseignais à des petits, je leur donnais comme consigne : « Essayer d’être aussi bêtes qu’un ordinateur. » Les enfants me répondaient : « C’est trop difficile. »
— Gérard Berry, Collège de France

Beaucoup de bruit pour ... ?

Au final, un coup dans l'eau ?
Une occasion gâchée, à mes yeux.

Je me demande surtout pourquoi scikit-learn, la librairie open-source de l'INRIA, n'est pas citée.

Vous retrouvez une interview complète de Gérard Berry ici.

 

 
 

Ce billet vous a ébloui par sa pertinence folle et un rare sens de l'à-propos ? N'en loupez plus aucun en vous abonnant à la newsletter d'OceanData, garantie sans pub ni sabir de communicants.

 
Thomas Gerbaud