Robert Voyer : « Ce sont pour les choses sur lesquelles on a le moins de certitudes, que l’on va déployer les plus grands désastres. »
Robert Voyer est docteur en informatique, spécialisé dans l’intelligence artificielle, maître de conférences à l’Institut Mines-Télécom Business School, conférencier et professeur dans l’enseignement supérieur et architecte des systèmes d’information.
Kernews : On est dans une évolution tellement rapide des technologies que le modèle institutionnel de l’enseignement n’est parfois pas pertinent, puisque la technologie peut dépasser en quelques semaines un module de formation. Comment vous adaptez-vous à cela ? J’imagine que l’on ne donne pas seulement des cours de MS-DOS à l’institut Mines-Télécom…
Robert Voyer : L’institut Mines-Télécom a une particularité unique en France. C’est une école publique et, sur le campus même, nous avons deux écoles : une école d’ingénieurs et une école de management. L’école de management profite des enseignements qui sont délivrés aux ingénieurs. Pour former nos managers, il y a toujours eu une composante technologique très importante. Par exemple, quand on travaille sur l’intelligence artificielle, on aborde toutes les implications, notamment sur le plan éthique.
Qu’entendez-vous par éthique lorsqu’il s’agit de l’intelligence artificielle ?
Il faut distinguer un certain nombre de valeurs. Une valeur morale, c’est quelque chose qui prend en compte le bien-être humain et qui tient compte des conséquences que cela peut avoir sur la société et l’humanité.
Peut-on penser à la destruction d’emplois ?
C’est une question plus générale, car il faut aussi prendre en compte la vie de l’entreprise. Il y a l’économie d’un côté et l’éthique de l’autre, comme en politique d’ailleurs, où il y a la politique d’un côté et la morale de l’autre. Ce sont deux ordres différents et nous avons besoin des deux. On sait très bien qu’une entreprise qui ne change pas, qui n’évolue pas, va mourir.
Cela fait penser à Kodak…
Cela fait aussi penser à Wilkinson. Au XIXe siècle, l’entreprise était spécialisée dans les armes blanches, les épées et les couteaux. Il y a eu des lois interdisant les duels. Ensuite, il y a eu des armes à feu et les entreprises devaient s’adapter à ce changement. Wilkinson a conservé son savoir-faire, non plus pour faire des armes, mais des lames de rasoir. C’est pour cette raison que le logo est illustré par deux sabres.
Poursuivons notre réflexion sur l’éthique : le débat a-t-il été ouvert lorsque la première intelligence artificielle de Microsoft a sorti des raisonnements racistes ?
Le problème portait sur l’éthique de l’alimentation de cette intelligence artificielle.
Si, par exemple, je mouline des dizaines de pages de Mein Kampf dans une intelligence artificielle, elle va sortir les pires abominations…
C’est exactement ce qui s’est passé avec l’exemple que vous prenez, bien entendu pas avec Mein Kampf, mais avec des informations racistes et xénophobes qui ont été reproduites. C’est le point le plus important. Prenons l’exemple de ChatGPT, puisque tout le monde en parle. Elle ne reproduit que des éléments et des contenus à partir desquels elle aura été formée. Et cela a des conséquences importantes. Noam Chomsky a publié une tribune dans le New York Times il y a quelques mois, en expliquant que l’utilisation de ChatGPT amenait un progrès à plusieurs niveaux et, pour la première fois, nous avons une intelligence artificielle qui passe avec succès ce que l’on appelle le test de Turing. Ce test, imaginé dans les années 50, permettait de qualifier une machine d’intelligente à partir d’un certain nombre de questions. Ce test est assez simple : une personne va interagir avec un programme d’intelligence artificielle et un humain. Si la personne n’arrive pas à distinguer l’humain de la machine, on peut dire que le programme a passé avec succès le test de Turing. Noam Chomsky note aussi que ces systèmes qui produisent du contenu risquent de provoquer « la banalité du mal », comme le disait Hannah Arendt. Je veux dire que ces systèmes ont une indifférence morale. Ils vont produire du contenu, sans jamais prendre de décision et sans avoir la moindre responsabilité sur ce qu’ils produisent.
Justement, faisons la différence entre l’homme et la machine. Je connais beaucoup d’Arabes qui font des plaisanteries amusantes sur leurs coreligionnaires, en les caricaturant, tout comme les Juifs ont un sens de l’humour formidable, par exemple quand ils racontent des blagues juives. L’être humain sait faire la distinction entre l’humour et le racisme. Or, les mêmes phrases, analysées par une machine, ne seraient plus comprises…
Absolument. C’est exactement le cas, la machine ne peut pas comprendre une expression au premier degré, au deuxième degré, ou au troisième degré… Elle ne fait que de la production en fonction des informations qu’elle a reçues lors de sa formation. Prenons un autre exemple. Une machine va faire de la reconnaissance d’images. Quand nous faisons de la reconnaissance, nous le faisons à partir de modèles dont on dispose . On sait ce qu’est un chien, un chat ou un être humain… La machine va faire cette reconnaissance à partir d’éléments anecdotiques dans l’image. C’est un danger. On a toute une littérature qui s’est développée pour tromper ces systèmes dans la reconnaissance d’images et nous avons des exemples assez étonnants. La machine ne fonctionne que sur une reconnaissance superficielle. Dans la production des mots, des contenus et des textes, c’est à peu près la même chose. On essaie de nous faire peur, à travers des déclarations de gens très compétents, en nous expliquant que l’intelligence artificielle va nous dépasser et que cela risque de mettre en péril l’humanité. Je n’en crois rien !
Ces gens tentent-ils d’expliquer que ce contrôle de l’IA sera une sorte de vérité informatique absolue, en niant toute possibilité de débat ?
À partir du moment où la machine a dit quelque chose, c’est vrai, c’est bien le fond de votre pensée. Sur des sujets très pointus, on peut imaginer cela. C’est plutôt une intelligence artificielle étroite, focalisée sur un domaine d’activité bien particulier, donc elle est imbattable pour traiter certains types de problèmes. Il y a tout un courant qui annonce que nous sommes à la fin de la science et que nous n’avons plus besoin des lois physiques et des lois mathématiques, car l’intelligence artificielle permettrait de se passer de l’élaboration des lois physiques. De la même façon, je n’en crois rien !
La fin de la science a déjà commencé par l’abandon de la contradiction et du débat, car quiconque qui tente de combattre intellectuellement se fait traiter de complotiste…
Absolument, alors que ce sens critique, initié par Descartes, a été le rayonnement de la France. J’ai retrouvé cette possibilité de débat avec ChatGPT en faisant un jeu de rôle. Par exemple, j’ai demandé à ChatGPT de s’exprimer au nom de trois personnages : Épicure, Spinoza et Kant. J’ai presque fait ressusciter ces trois personnages et je les ai retrouvés. J’ai aussi interrogé ChatGPT sur le problème de l’appartenance de la France à l’Union européenne, en lui demandant tous les arguments pour me convaincre que la France a tout à gagner à rester dans l’Union européenne, en utilisant son immense connaissance. Et c’est un débat qui a duré très longtemps… J’ai l’impression d’avoir réussi à lui faire accepter mes arguments. Par exemple, sur les subventions européennes, j’ai répondu que nous donnions beaucoup plus d’argent que nous n’en recevions et ChatGPT a répondu que j’avais raison… Idem pour d’autres arguments sur ce même sujet.
En fait, vous avez enrichi la base d’argumentaires de ChatGPT qui a accepté vos réflexions, tout simplement parce que vous n’étiez pas en face d’un militant politique. Or, quand il ne peut pas répondre, quelqu’un qui espère faire carrière en politique se contente de taxer son interlocuteur de complotisme…
Oui, mais ChatGPT a repris les arguments de jeunes diplômés de Sciences-Po ou de l’ENA, comme l’Europe c’est la prospérité, mais avec une certaine ouverture. L’intelligence artificielle est née en 1956, donc elle a une histoire mouvementée. Au départ, comme toute nouvelle discipline, il faut des investissements, donc convaincre des gouvernements. On a obtenu des résultats extraordinaires dès le début des années 60. Il y a eu un engouement, mais les résultats attendus n’étaient pas au rendez-vous. Alors, on est entré dans le premier hiver de l’intelligence artificielle. Dans les années 70, on ne faisait plus d’intelligence artificielle. Dès les années 50, on avait appelé cela l’intelligence artificielle. Les scientifiques disaient clairement qu’il s’agissait de créer des programmes permettant de résoudre des problèmes qui, habituellement, ne sont résolus que par des êtres humains. À l’époque, c’était des ordinateurs à tube, c’était vraiment impressionnant. Ensuite, il y a eu un renouveau dans les années 80, avec les systèmes experts, en intégrant de la connaissance. Avec cela on allait régler tous les problèmes, y compris dans le domaine médical… Donc, il y a eu des investissements. Derrière, on est retombé dans un deuxième hiver de l’intelligence artificielle. Ensuite, il y a eu un renouveau en 2012 avec l’explosion de l’apprentissage automatique, à partir des données, grâce à l’amélioration des algorithmes. Il est très coûteux d’entraîner un réseau de neurones, cela nécessite beaucoup de données, et l’utilisation des cartes graphiques a permis d’effectuer jusqu’à 1 000 milliards d’opérations à la seconde. Autre point : la disponibilité d’énormes quantités de données. Je me méfie de l’engouement actuel et j’espère que nous n’allons pas tomber dans un troisième hiver…
Toute personne avide de pouvoir peut se servir de ces données : un dictateur peut entraîner des catastrophes humaines avec l’intelligence artificielle… On va repérer quelqu’un par ses fréquentations médiatiques, par sa consommation, grâce à sa carte bancaire, par la reconnaissance faciale…
On le voit déjà avec le crédit social en Chine : c’est un modèle qui enthousiasme énormément de dirigeants politiques…
Le passe sanitaire était-il déjà une première forme de crédit social ?
Oui. Maintenant ce sera le passe carbone. Et nous n’en sommes qu’au début.
On pouvait penser que les populations seraient rebelles face à cela, mais on a vu la docilité de la majorité des gens au moment de la crise sanitaire, jusqu’à l’acceptation de ne pas s’asseoir sur la plage, mais de rester en position debout…
Je parle presque au nom de mon ami André Comte-Sponville, cela valait vraiment le coup de faire ce que Paul Valéry appelait un nettoyage de la situation verbale. On a confondu le bien et la valeur. À partir du moment où l’on a considéré que la santé était la valeur suprême, d’accord, il fallait protéger les plus fragiles, y compris les personnes âgées. Mais on a confondu une valeur et un bien. La santé est un bien, c’est le bien le plus important, mais ce n’est pas une valeur. Une valeur est admirable et estimable, alors que le bien est désirable et enviable. Par exemple, je ne vais pas admirer quelqu’un parce qu’il est plus riche que moi ou parce qu’il est en meilleure santé… Je vais admirer quelqu’un parce qu’il est plus courageux ou parce qu’il est plus aimant. En confondant les deux, on a abouti aux dérives que vous évoquez pendant la crise sanitaire.
Revenons au passe climatique : on retrouve là encore les bons sentiments. D’ailleurs, dans l’histoire du monde, les plus grandes catastrophes se sont toujours produites au nom de bons sentiments…
Exactement. On anticipe déjà les orientations futures. Sans vouloir polémiquer, avec le réchauffement climatique, quand il a fait chaud, on n’a pas parlé d’El Nino, parce que beaucoup de climatologues disaient plusieurs mois à l’avance qu’il y aurait des fluctuations avec des hausses et des baisses de température. Quand il a fait plus chaud dans les années précédentes, on disait que c’était dû à l’anticyclone des Açores. Cette année, on n’a plus parlé de l’anticyclone des Açores, mais d’un dôme de chaleur. C’est justement pour des choses sur lesquelles nous n’avons pas de certitudes, que l’on assiste au déploiement des plus grandes violences. Montaigne évoquait les gens que l’on mettait au bûcher parce qu’ils n’étaient pas de notre religion… Bizarrement, ce sont pour les choses sur lesquelles on a le moins de certitudes, que l’on va déployer les plus grands désastres.