La Baule+ : D’abord, qu’est-ce que l’éthique ? L’être humain a-t-il une éthique au fond de luimême ? On éprouve des remords, des scrupules, cela peut commencer dès la naissance. Toutefois, l’intelligence artificielle n’a pas cela… Enrico Panai : Vos questions sont intéressantes car, dans certaines études, on observe que les primates ont un sens de la justice. Par exemple, quand un chercheur donne une meilleure prime à un singe, plutôt qu’à un autre, les autres manifestent un sentiment d’injustice. Cela signifie que certains principes vont au-delà de l’enseignement et du langage. Les animaux reconnaissent quelque chose qui est juste et injuste, on voit donc que l’éthique est très profonde au fond de nous. Dans son étymologie, l’éthique vient du grec, mais on a la morale et les mœurs qui viennent du latin. Cela signifie plus ou moins la même chose, ce sont les coutumes et les habitudes de la société. On vit ensemble et on partage certaines règles. C’est pour cela que lorsque l’on se rencontre pour une réunion dans un bureau, tout le monde vient habillé, mais sur la plage tout le monde est en maillot de bain. C’est l’éthique simplifiée. Certains font la différence entre la morale et l’éthique, mais je suis plutôt dans une école philosophique visant à utiliser le terme de la même façon. Société ► Entretien exclusif avec le spécialiste européen de l’éthique dans l’IA la baule+ 26 | Juin 2025 Enrico Panai : « Il y a tout un mécanisme qui essaye d’arnaquer le processus cognitif des personnes. » Enrico Panai est un éthicien de l’IA avec une formation en philosophie et une vaste expérience en conseil. Il a été professeur adjoint en Humanités numériques pendant sept ans à l’Université de Sassari (Italie). Titulaire d’un doctorat en Cybergéographie et Éthique de l’IA, il est le fondateur du cabinet de conseil BeEthical.be. Il enseigne l’IA Responsable à l’EMlyon Business School, ainsi qu’à l’université La Cattolica de Milan. Il est également président de l’Association des Éthiciens de l’IA. Actuellement, il occupe un rôle majeur au sein du Comité français de normalisation pour l’IA. Il est le coordonnateur du groupe de travail sur les aspects fondamentaux et sociétaux de l’IA au CEN-CENELEC JTC21, l’organisme européen de normalisation dédié à la production de livrables répondant aux besoins du marché et de la société européens. Enrico Panai conseille les plus grandes entreprises européennes, ainsi que des gouvernements, et il donne aussi des conférences pour le FBI aux États-Unis. Son dernier ouvrage, publié en italien et en français, est une invitation à démystifier les enjeux complexes de l’IA. « L’éthique de l’intelligence artificielle expliquée à mon fils » d’Enrico Panai est publié aux Éditions Mimesis. La prise de conscience de l’acceptabilité, ou non, d’une situation Vous notez que chez les singes, c’est ancré au fond d’eux-mêmes. Prenons l’exemple d’un petit enfant qui n’aurait pas reçu une éducation morale ou éthique et qui commencerait à se livrer à un acte de cruauté, comme arracher les ailes d’un oiseau blessé. Souvent, au fond de luimême, l’enfant se sent mal et il comprend très vite s’il réalise un acte cruel. Mais un robot alimenté par l’intelligence artificielle, qui ferait le ménage sur une terrasse, irait déposer cet oiseau blessé directement dans un sac-poubelle, sans se poser la moindre question éthique… C’est l’histoire d’Adam et d’Ève et de la pomme de la connaissance. Ils ont fait une erreur parce qu’ils ne connaissaient pas la différence entre le bien et le mal. C’est après être arrivés à cette connaissance qu’ils ont commencé à faire la distinction entre ce qui est bien et ce qui est mal. L’exemple que vous prenez est typique. C’est la prise de conscience de l’acceptabilité, ou non, d’une situation. Cela arrive aussi avec les adultes. Quand on travaille sur l’éthique avec des développeurs informatiques, on les amène naturellement à prendre conscience des risques éthiques. Il y a tout un parcours pour comprendre la source des problèmes et où il faut apporter un système permettant de réduire cela. C’est ce que nous faisons dans toutes les entreprises. L’intelligence artificielle ne fait qu’emmagasiner des données, sans s’interroger sur leur destination. Donc, si vous téléchargez des centaines de livres racistes ou antisémites, l’intelligence artificielle va croire que c’est quelque chose de tout à fait normal… Oui, mais l’intelligence artificielle ne va pas se demander si c’est normal ou non, elle fait simplement de la statistique. Si l’ensemble des livres qui composent une base de données pour entraîner une machine sont des mauvais livres, le résultat sera mauvais. Mais cela apporte un autre problème. On utilise des biais de la société pour entraîner des machines. Nous avons des discriminations dans la société, donc on reprend les données de la société, et les machines feront naturellement des discriminations. Ce qui est intéressant, c’est que l’analyse de ces données nous permet d’avoir un projecteur sur ces discriminations. Le système de l’intelligence artificielle n’est qu’une loupe pour comprendre les discriminations existantes, entre les genres ou entre les religions. Quand c’est une machine qui ressort cela, ce n’est pas acceptable, donc on a envie de corriger son résultat. C’est donc une partie positive de ce que nous vivons. Qu’est-ce qui vous a donné l’envie de traiter ce sujet à travers un dialogue entre un père et son fils ? C’était d’abord une astuce littéraire à partir d’une soirée réelle avec mon fils, qui était dans sa dernière année de lycée et qui m’a demandé de lui expliquer clairement mon métier. Ce n’est pas simple, parce que je travaille à différents niveaux, avec des ingénieurs sur des systèmes, des analystes, mais aussi des dirigeants pour créer la gouvernance des sociétés. Cette conversation m’a inspiré. J’ai voulu reprendre les origines philosophiques de l’éthique. On a beaucoup utilisé les dialogues dans l’histoire de la philosophie, donc ce n’est pas véritablement une nouveauté. Alors, j’ai voulu aller davantage en profondeur dans les concepts en sortant du niveau théorique. Les machines ne sont pas programmées comme des logiciels et on a donc réellement un problème à attribuer une responsabilité On parle souvent d’éthique en évoquant les grands sujets, mais cela va bien au-delà. Prenons l’exemple d’un vendeur qui essayera de vendre un produit, comme une tablette haut de gamme, à une dame âgée, en sachant pertinemment qu’elle ne saura pas s’en servir, tandis qu’un commerçant qui fera preuve d’éthique lui proposera un modèle d’entrée de gamme avec quelques fonctionnalités essentielles… Un site de commerce en ligne peut-il faire preuve d’éthique dans ses recommandations ? Dans toute situation où il y a un agent qui fait une action et une personne en face, les actions du vendeur sont en permanence basées sur l’éthique, c’est comme le langage. On parle beaucoup d’éthique dans le domaine de l’intelligence artificielle, mais cela date de l’apparition du numérique parce que, pour la première fois, on a un problème d’allocation de la responsabilité. Qui est responsable si quelque chose est mal fait? Si c’est un vendeur, c’est une personne. Mais si c’est une machine, comment lui attribuer la responsabilité de quelque chose? Les machines ne sont pas programmées comme des logiciels et on a donc réellement un problème à attribuer une responsabilité, puisque la logique est basée sur des statistiques. Dans ce contexte, on ne peut même pas rendre responsable le développeur et c’est toute la difficulté que nous avons aujourd’hui. Le modèle économique des réseaux sociaux, c’est celui de nous prendre notre temps, et cela ne nous rapporte rien L’éthique peut aussi nous amener à réfléchir sur l’utilité des choses. Prenons l’exemple des réseaux sociaux qui ont la promesse implicite de diffuser du contenu pour atteindre gratuitement un large public. Il y a des commerçants qui passent des heures à publier du contenu, certains payent même des gens pour faire cela, alors qu’en réalité on sait que la promesse est fausse et certains experts évoquent même un déséquilibre éthique, puisque la portée naturelle ne dépasse pas les 5 %. Sommes-nous dans un monde théâtralisé, où l’on ne sait plus ce qui est vrai et ce qui est faux ? C’est tellement réel que je travaille en ce moment sur un projet international sur les architectures de la décision visant à amener une personne à prendre une décision au lieu d’une autre décision. On a commencé à présenter un standard international qui sera reconnu au niveau ISO. Ce qui est intéressant dans ce que vous dites, c’est qu’il y a tout un mécanisme qui essaye d’arnaquer le processus cognitif des personnes. C’est peutêtre difficile à comprendre. C’est un sujet très important aux États-Unis. Récemment, j’ai donné des conférences pour le FBI et le Département de la Justice aux États-Unis, parce qu’ils ont compris que les systèmes
RkJQdWJsaXNoZXIy MTEyOTQ2