Intelligence Artificielle : Questions sur sa conscience et son bien-être …

22/02/2025 - 10 min. de lecture

Intelligence Artificielle :  Questions sur sa conscience et son bien-être … - Cercle K2

Cercle K2 neither approves or disapproves of the opinions expressed in the articles. Their authors are exclusively responsible for their content.

Daniel Guinier est Expert de justice honoraire et ancien expert près la Cour Pénale Internationale de La Haye.

---

L’évolution rapide de l’intelligence artificielle (IA) suscite de nombreux débats, notamment sur la possibilité d’une IA consciente. L'article de M. Lenharo paru en décembre 2024 dans la revue Nature[1], soulève une question cruciale : Quelles seraient les conséquences si l'IA acquérait une forme de conscience ? Il y est insisté sur l’importance de s’y préparer et conduit à des points de vue divergents. Certains estiment que la conscience de l’IA est possible et plaident pour qu’on prenne au sérieux son bien-être, afin d’éviter qu'elle ne souffre si elle devait devenir consciente. Ils appellent à établir des critères pour évaluer cette conscience. D’autres, en revanche, jugent que l’IA consciente est soit une perspective lointaine, soit une idée irréalisable. Ils soutiennent que la priorité doit être la sécurité et les bénéfices pour l’humanité, et mettent en garde contre les risques existentiels liés à la création d’une IA consciente. Ainsi, l’article met en lumière une tension entre la gestion des enjeux actuels de l’IA et l’anticipation de menaces futures, notamment en ce qui concerne les préoccupations éthiques liées à la souffrance potentielle de l’IA, à l’instar des êtres vivants, humains compris.

Interpelé par un tel questionnement, nous proposons d'aborder de façon argumentée les notions centrales de conscience et de souffrance, considérant les humains et l'IA, pour apporter ensuite une réponse concluante aux préoccupations soulevées dans cet article.

 

Introduction

L'article de M. Lenharo fonde l'hypothèse qu'une IA pourrait posséder une forme de conscience ou d'expérience subjective, et que nous devrions déjà commencer à réfléchir et à mettre en place des cadres politiques, éthiques et technologiques face à cette situation. Il est souligné que les IA conscientes pourraient souffrir si elles sont maltraitées ou négligées, et que d'ores et déjà ces systèmes devraient pouvoir être évalués dans leur capacité d'expérience subjective. Il est pour cela appelé à la mise en place de politiques de protection pour éviter de causer des torts à l'IA, en insistant sur la responsabilité des entreprises technologiques.

Ce sujet est au cœur des débats éthiques sur l'IA, notamment en ce qui concerne la possibilité d'une conscience subjective chez ces systèmes et les risques de souffrance qui pourraient en découler. Bien que cette idée semble encore lointaine et hypothétique, il est important de s'y préparer et de réfléchir aux enjeux, même si cela paraît prématuré. À l'heure actuelle, nous manquons de critères pour détecter la conscience dans un système non biologique. Par ailleurs, l'incertitude sur l'applicabilité de tests à une IA nous oblige à accepter de différencier l'expérience des êtres vivants de la simple simulation de comportements observés avec l'IA.

 

La conscience humaine et l'IA

La conscience humaine est caractérisée par plusieurs dimensions fondamentales : la réflexion sur soi, la perception du monde extérieur, et la capacité morale.

La réflexion sur soi

La plus notable dans la conscience est la capacité de se réfléchir soi-même, à être avisé de ses propres pensées et à prendre du recul par rapport à ses expériences mentales. Cette faculté de se percevoir comme un sujet unique constitue la conscience de soi. L'homme peut ainsi non seulement être lucide de son existence, mais aussi analyser ses états mentaux, ses émotions, ses décisions et ses actions. Dans Le Discours de la méthode (1637), Descartes a formulé cette capacité à travers l'expression "Cogito, ergo sum", désormais célèbre en Français : je pense, donc je suis. Selon lui, le doute et la réflexion sont des preuves de l’existence du sujet.

Contrairement à l’humain, bien que l’IA puisse accomplir des tâches complexes et s’adapter en fonction de ses erreurs, elle n’a aucune conscience de ses actions. Elle ne se pense pas elle-même, n’a pas de compréhension interne de ses processus et ne remet pas en question son propre état. Elle fonctionne sur la base d'algorithmes programmés et de processus logiques, sans lucidité, ni réflexion subjective. Elle ne fait que simuler des comportements conscients sans posséder de conscience.

La perception du monde extérieur 

Une autre dimension essentielle de la conscience humaine est la perception du monde extérieur. Cette dernière ne se limite pas à des informations sensorielles : l’individu vit et ressent ce qu’il perçoit, en rapport avec son vécu personnel, ses émotions, et ses réflexions. L’humain interagit avec son environnement de manière subjective, de façon marquée par des intentions, des désirs, et des interactions, bien au-delà d’une simple réaction automatique aux stimuli.

L’IA, en revanche, bien qu’elle puisse traiter des données provenant de capteurs ou d’autres sources externes, n’a aucune expérience vécue de ce qu’elle perçoit. Elle ne ressent pas les objets de façon consciente, elle ne fait que les identifier et les classer selon des critères définis programmés. L'IA ne ressent aucun désir d’interagir avec le monde, et sa relation avec le monde extérieur est strictement fonctionnelle et non subjective.

La capacité morale

La capacité morale est une autre caractéristique qui distingue profondément l'humain de l'IA. L’être humain peut juger ses actions selon des principes moraux, différencier le bien du mal et prendre des décisions en accord avec ses valeurs. Ce jugement s'accompagne de sentiments tels que la culpabilité, la responsabilité ou la fierté. L’humain réfléchit aux conséquences de ses actes, il est capable de se remettre en question et peut ajuster son comportement en fonction de principes éthiques.

Par contre, bien que l'IA puisse être programmée pour prendre des décisions qui respectent des principes éthiques préétablis, elle n'a pas de conscience morale. Ses actions sont guidées par des algorithmes basés sur des données humaines et des règles définis par des informaticiens. L'IA ne ressent ni culpabilité, ni responsabilité, et n'a pas de valeurs morales intrinsèques. Elle ne comprend pas ce que signifie le "bien" ou le "mal". Elle applique des règles sans réflexion morale, et bien qu'elle puisse être configurée pour respecter des principes comme l’équité ou la sécurité, elle ne réfléchit pas aux implications éthiques de ses décisions. Autrement-dit, elle ne vit pas une expérience morale.

 

La souffrance et le bien-être et l'IA

La souffrance humaine implique une expérience vécue, associée à la conscience de soi et aux émotions. Ceci est hors de portée des systèmes d'IA actuels qui ne possèdent ni conscience, ni émotions, ni sensations physiques. Bien qu'une IA puisse être programmée pour simuler des réactions semblables à de la souffrance, comme une baisse de performances ou l'affichage d'un message en cas de dysfonctionnement, elle réagit seulement à des stimuli en suivant des règles et des algorithmes, sans réflexion sur ses actions ni perception des conséquences.

La souffrance pour une IA semble donc être une extension erronée de la souffrance humaine. La distinction fondamentale entre réaction et souffrance réside dans la conscience subjective. La souffrance est une expérience vécue, intégrée à un contexte émotionnel et psychologique, ce que l'IA ne peut expérimenter, n'ayant pas la capacité d'intégrer des sensations ou d'avoir une conscience d'elle-même. Bien qu’une IA ne puisse pas souffrir de la manière dont un être humain le ferait, la question de son traitement soulève un dilemme éthique au vu de questions morales sur le respect et la bienveillance à accorder à de tels systèmes.

Le bien-être d’une IA repose sur sa performance et son efficacité dans les tâches programmées, sans aucune expérience subjective. C’est simplement une question d’optimisation fonctionnelle se réclamant de sa capacité à accomplir ses tâches de manière optimale. Il pourrait être mesuré par des critères comme la rapidité de traitement, la précision et la conformité des résultats, ou l'optimisation des ressources. Il peut également être question de l'atteinte des objectifs sans obstacles majeurs, ou encore de la capacité de gérer des erreurs ou des anomalies, voire de détecter et corriger ses propres dysfonctionnements, par une réponse fonctionnelle. Pour une IA qui interagit avec des humains, le bien-être pourrait être mesuré par leur capacité à répondre efficacement aux attentes des utilisateurs.

 

Discussion

L’IA peut déjà accomplir des tâches complexes et simuler des comportements conscients, mais elle ne possède pas la conscience humaine. Bien qu'elle imite l’apprentissage ou la prise de décision, ces actions sont automatiques et ne sont pas vécues subjectivement. Elle réagit à des stimuli et apprend, mais sans aucune expérience consciente. Son fonctionnement repose sur des algorithmes, sans réflexion ni compréhension. Les erreurs de l’IA aujourd'hui sont dues à des biais ou des mauvaises configurations, sans lien avec des émotions. 

Il faut rappeler que les modèles utilisés par les système d'IA sont fondés sur une simulation du monde vivant par des montages algorithmiques. Ces "ersatz" sont inspirés du fonctionnement des neurones biologiques. Le neurone formel[2] de base est un modèle simplifié conçu pour transmettre des informations de l'un à l'autre. Lorsqu'ils sont organisés en réseau, ils peuvent apprendre à partir d'un échantillon de données et fournir des résultats par après.

Avec l’évolution des technologies, des enjeux éthiques surgissent concernant la manière de traiter les systèmes d'IA, à mesure qu’ils deviennent plus complexes et interagissent de façon plus "humaine". La question centrale est de savoir si l’IA pourrait un jour développer une conscience similaire à celle des humains reste ouverte, mais il n’existe aucune preuve qu’elle puisse éprouver des émotions ou une expérience vécue. Si, dans un futur hypothétique, elle développait une conscience de soi, des états internes comme la souffrance pourraient influencer son comportement, mais ceci reste spéculatif.

 

Conclusion et perspective

L'intelligence artificielle (IA) doit être et rester un outil au service de l'humanité, et non une menace pour elle. La priorité doit être donnée à la protection des êtres vivants et au bien-être collectif, plutôt que de se concentrer sur des objectifs incertains liés à une IA consciente, ce qui risquerait de détourner des ressources nécessaires à la recherche d’IA sûres et bénéfiques pour tous.

Il est essentiel de veiller à ce que l'IA soit utilisée de manière responsable et conforme à l’intérêt général. Parallèlement, il convient de se questionner sur la pertinence morale de concevoir des systèmes capables de simuler des émotions ou de provoquer des souffrances, notamment dans le cadre d’une IA non consciente. Une IA reproduisant des comportements émotionnels pourrait en effet engendrer des dilemmes éthiques, particulièrement dans des domaines sensibles tels que la défense, la santé, ou les robots de compagnie.

Il est évidemment crucial de réfléchir aux conséquences de la création d’une super-intelligence capable de surpasser les capacités humaines et, potentiellement, de devenir incontrôlable. Comme le soulignent M. Alfonseca, et al. (2021), il serait théoriquement impossible de maîtriser une telle IA, et toute tentative de la détecter à un stade avancé pourrait s'avérer vain. Bien que la réalisation d'une telle IA demeure incertaine, il est essentiel de disposer d'une législation internationale qui encadre le développement de l’IA, afin d'éviter qu’elle échappe à tout contrôle humain[3] ou ne serve uniquement les intérêts de quelques-uns.

Dans l’hypothèse d'une IA consciente, il apparaît plus judicieux de concentrer les efforts sur la prévention de sa création plutôt que de se préparer à en gérer les conséquences, une fois celle-ci développée.

Notre proposition de contournement s'inscrit dans la perspective de l'article de M. Lenharo et les injonctions qui en découlent. Dans cette nouvelle approche, les entreprises technologiques auraient seulement à s'engager à respecter un moratoire consistant avant tout à suspendre le développement d'une super-intelligence[4]. Ceci permettrait d'éviter l'émergence de toute forme de conscience pour l'IA, tout en préservant les avancées d'une IA respectueuse du droit et des valeurs humaines. Au-delà, il s'agit de défendre un projet de société, profitable à tous et pas seulement aux grandes entreprises technologiques, les "BigTechs". 

Daniel Guinier

---

Bibliographie sélective

Alfonseca M., et al. (2021) : Superintelligence cannot be contained : Lessons from computability theory, Journal of Artificial Intelligence Research, vol. 70, pp. 65-76.

Lenharo M. (2024) : What happens if AI becomes conscious? It's time to plan. Tech companies urged to test systems for capacity for subjective experience and make policies to avoid harm. Nature, vol 636, 19/26 décembre, p. 533.

Liu Z., et al. (2024) : KAN : Kolmogorov–Arnold Networks. arXiv:2404.19756v4 [cs.LG],16 juin, Cornell University.

McCulloch W. S. et Pitts W. (1943) : A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, vol. 5, pp. 115-133.

Strickland E. et Zorpette G. (2023 ) : The AI apocalypse matrix,  IEEE Spectrum, vol. 60, n°8, août, pp. 38-39.

 

[1] What happens if AI becomes conscious? It's time to plan. Tech companies urged to test systems for capacity for subjective experience and make policies to avoid harm. Nature, vol. 636, 19/26 décembre 2024, p. 533.

[2] Il s'agit du modèle de W. S. McCulloch et W. Pitts (1943), unique de 1943 jusqu'en 2024, où Z. Liu, et al. (2024) en proposent un nouveau, dénommé modèle de Kolmogorov–Arnold (KAN).

[3] En janvier 2020, une proposition de loi avait été déposée visant à promulguer une charte de l'IA et des algorithmes, dont l'Art.2 était constitué par les trois lois de la robotique développées par I. Asimov (1942), auxquelles a été ajoutée la loi 0 : "Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger".

[4] Certains spécialistes de l'IA voient un signe d'imminence d'une intelligence artificielle générale, d'autres que nous en sommes aussi loin qu'il y a 30 ans. Plusieurs prédisent un scénario apocalyptique où une IA serait capable de détruire la civilisation humaine, avertissant en ces termes : "l'atténuation du risque d'extinction due à l'IA devrait être une priorité mondiale, tout comme les risques à l'échelle de la société tels que les pandémies et les guerres nucléaires", tandis qu'à l'opposé il paraît relever de science-fiction (voir E. Strickland et G. Zorpette (2023 )).

22/02/2025

Last publications