Laurent Alexandre - l'IA, une bêtise révolutionnaire ?

 

Un des derniers papiers de Laurent Alexandre (« chirurgien, énarque et entrepreneur », l'Express du 23 mai 2018) était consacré à la bêtise de l'IA. Soit. Ça me semble plutôt différent des discours que je l'entends d'ordinaire prononcer, mais je n'aurais pas l'outrecuidance d'aller rechercher des papiers, voire des pages d'un de ses livres, où il aurait pu, peut-être, dire le contraire.

 

Synthèse

Voici un résumé de son papier, comme le fait souvent mon frère : un paragraphe = une phrase. Et on travaille sur ce qu'il en ressort.

 

L'intelligence artificielle est d'une bêtise crasse, et c'est cette bêtise qui change le monde.
Suivent sept révolutions, toutes liées à cette bêtise :

  1. L'IA créé des monopoles (GAFA/BATX), car elle est basée sur la constitution et l'exploitation de bases de données massives.
  2. L'IA nous drogue, en favorisant les comportements addictifs chez les utilisateurs pour accroître, encore, la masse des données d'apprentissage.
  3. L'IA créé, déploie et améliore des outils rendant possible l'installation d'une société de surveillance, grâce aux progrès réalisés par exemple dans la reconnaissance faciale.
  4. L'IA augmente la complexité du monde, et favorise ainsi certaines inégalités sociales et intellectuelles.
  5. L'IA crée un risque politique, car les clés du futur sont dans les mains de certains techniciens, appartenant à une caste de fait, qui échappent aux processus démocratiques.
  6. L'IA change nos représentations du monde, en nous forçant à l'adapter à ses besoins en données étiquetées.
  7.  L'IA est victime de nombreux biais, subtils et complexes, qui sont issus de ses méthodes d'apprentissage statistiques, qui peuvent accentuer les inégalités du monde, au lieu de les corriger.

Sommes-nous prêts à corriger les défauts des IA ?


 Je ne devrais peut-être pas reproduire ce texte de l' Express .

Je ne devrais peut-être pas reproduire ce texte de l'Express.


Discussion

De manière générale, je suis toujours très étonné de lire des papiers traitant d'intelligence artificielle sans me voir proposer une définition de ce que l'auteur entend par là. Et ça me désoblige quelque peu.

Que peut-on donc entendre par IA ?

maison_34_altinf500_gaz_sup2000_niv1_white.png

Parle-t-on de réseaux de neurones profonds ... ah, excusez-moi, de #deeplearning ?
Parle-t-on de ce que le petit monde technophile des media pense comprendre de la communication au rouleau compresseur des GAFAM ?
Parle-t-on d'algorithme d'apprentissage automatique ?
Parle-t-on d'analyse de données massives ?
Parle-t-on d'IA générale (horizontale) ou spécialisée (verticale) ?
Parle-t-on de programmes auto-apprenants, conscients et autonomes ?
Parle-t-on du techno-système aux contours flous et sans réelle gouvernance, représenté dans l'imaginaire collectif par les géants du numérique ?
Parle-t-on des évolutions techniques ou sociétales ?
Parle-t-on de l'évolution et la modernisation des outils numériques dans les entreprises ?
Parle-t-on du mouvement de fond de migration des capacités de traitement informatique et de la puissance de calcul vers des solutions de type serveur lourd/client léger, marquant le retour du balancier vers l'époque des mainframes IBM/System 360 ?
Parle-t-on d'entités non-humaines agrégeant les visions romantiques des auteurs de science fiction des années 70, 80 ou 90 ?
...
Bref, de quoi parle-t-on ?
Pas clair.
Ce point restant bien obscur, reprenons le résumé, et discutons.

[1 | l'IA créé des monopoles ?]
OK. Attention au soit-disant monopole des réseaux de neurones sur toutes les autres formes d'algorithmes d'apprentissage automatique ! L'ingénierie - et la R&D ? il faudrait vérifier - est aujourd'hui très active sur le sujet, mais ces algorithmes ne sont pas les seules solutions.

[2 | l'IA nous drogue ?]
Tout à fait d'accord. Société de l'attention, de l’instantané, du temps-réel. Difficile de faire travailler ses neurones dans ces flux
d'informations continues.

[3 | l'IA créé nous surveille ?]
Tout à fait. J'invoque la jurisprudence du couteau, ou de l'énergie atomique pour faire plaisir aux écolos radicaux, qui peuvent aussi bien servir à peler des pommes et à les cuire, qu'à menacer son voisin et l'anéantir. « Science sans conscience » etc, vous connaissez la discussion.

[4 | l'IA complexifie ? ]
Oui, comme toute technologie. Il faut donc s'accorder sur le fait que les ordinateurs et la programmation complexifient le monde. Les gens, globalement, maîtrisent assez peu les outils dont ils se servent.

[5 | l'IA est un risque politique ?]
Ça se discute. A de rares exception près, en a-t-il déjà été autrement ? Passons-nous d'une oligarchie à l'autre , d'une ploutocratie à une technocratie ? On pourrait en débattre. Pas bien sûr, au final, que les formes de pouvoir soient fondamentalement modifiées, même si ceux qui l'exercent, eux, soient remplacés. Mon avis personnel sur le sujet, qui n'est justifié par aucune forme de connaissance avancée et n'est donc pas plus pertinent que mon analyse du jeu de Paul Pobga, est que les vrais mouvements tiennent plus des lentes évolutions des courants profonds que de l'écume de surface, si mousseuse soit-elle.

[6 | l'IA change notre représentation ?]
Pertinent et passionnant : doit-on se représenter le monde comme le voit un algorithme de classification ? Peut-on tout étiqueter, décrire et objectiver de façon rationnelle. Pas sûr du tout. Or, dans cette grande tendance à vouloir mesurer le monde, nos actions, les hommes, les chats, on en oublie que, parfois, il n'y a pas de frontières nettes ou de critères bien définis. Ce qui implique de raisonner avec des probabilités, des corrélations, de possibles relations de cause à effet ... manque de bol, et sans vouloir manquer de respect à qui que ce soit, nous sommes (presque) tous nuls en proba/stats.

d799549011738a4e9881af9b910c5d3b.jpg

[7 | l'IA a des biais ?]
Je vais vous éviter de vous plonger dans un débat inutile et cependant présenté comme complexe et d'importance stratégique (cf le rapport Villani, par exemple) ; le nœud du problème est simple : les algorithmes ne répètent que ce qu'on leur apprend. Donc si le dataset d’entraînement est biaisé ou peu représentatif, les prédictions le seront aussi. Toute la difficulté se ramène donc à avoir du recul
sur les résultats fournis par un programme (ça parait totalement évident pour qui a déjà joué avec un algo un peu complexe ou des données non maîtrisées ... des données réelles, en fait), pouvoir analyser les paramètres de la modélisation, et comprendre les données, bien entendu. Fin du débat, point de philosophie ou d'éthique là-dedans, encore moins de morale.


The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.
— Eliezer Yukdowsky (2008)
 

Synthèse

Si on oublie la forme volontairement provocatrice et autoritaire du discours, dictées par des contraintes journalistiques que j'imagine volontiers, ce papier est plutôt pertinent sur le fond. Une question se pose, comme souvent avec ce que je peux lire ou entendre provenant de Laurent Alexandre : ses discours, souvent lapidaires et provocants, sont-ils une synthèse compacte d'une pensée organisée, minutieuse et argumentée, ou plutôt un ensemble de faisceaux de pensées, d'intuitions fulgurantes et de spéculations osées ? Le lecteur peut-il, en creusant, mettre à jour un discours cohérent bâti sur des fondations solides, ou doit-il lui-même se construire une réflexion en suivant les pistes, parfois évanescentes voire contradictoires, lancées par l'auteur ? J'avoue que je n'ai pas encore tranché.

Un papier intéressant, en définitive, plus que je ne l'imaginais - j'avoue ;-)

Mes autres billets sur le sujet, pour celles et ceux que mes pérégrinations impromptues pourraient intéresser :

Thou shalt not make a machine to counterfeit a human mind.

— Frank Herbert (Dune)
  1. Intelligence artificielle - I (www)
  2. Intelligence artificielle - II (www)
  3. Superintelligence (www)
  4. La guerre des intelligences (www)

Have fun,

Physicien, centralien et entrepreneur,
Thomas Gerbaud (@tgerbaud) est aujourd'hui fondateur de AltGR.


 

L'abonnement à la newsletter ? C'est ici.