Futur cosmiqueTV

Si un robot est conscient, est-il éthique de l’éteindre?

par Anand Vaidya, professeur agrégé de philosophie, Université d'État de San José

Dans l’épisode « La mesure d’un homme » de “Star Trek: The Next Generation”, Data, un androïde membre de l’équipage de l’Enterprise, doit être démantelé à des fins de recherche, à moins que le capitaine Picard ne puisse affirmer que Data mérite les mêmes droits qu’un être humain. Le droit d’être.

Naturellement, la question se pose : quelle est la base sur laquelle quelque chose a des droits ? Qu’est-ce qui donne à une entité une position morale ?

Le philosophe Peter Singer soutient que les créatures qui peuvent ressentir de la douleur ou souffrir ont droit à une position morale. Il soutient que les animaux non humains ont un statut moral, car ils peuvent ressentir de la douleur et souffrir. Le limiter aux personnes serait une forme de spécisme, quelque chose qui s’apparente au racisme et au sexisme.


Sans approuver le raisonnement de Singer, on peut se demander s’il peut être étendu à un robot androïde comme Data. Il faudrait que Data puisse soit ressentir de la douleur, soit souffrir. Et la façon dont vous répondez dépend de la façon dont vous comprenez la conscience et l’intelligence.

Alors que la véritable technologie de l’intelligence artificielle progresse vers les versions imaginaires d’Hollywood, la question de la position morale devient plus importante. Si les IA ont un statut moral, raisonnent les philosophes comme moi, il pourrait s’ensuivre qu’elles ont droit à la vie. Cela signifie que vous ne pouvez pas simplement les démanteler, et cela pourrait également signifier que les gens ne devraient pas interférer avec la poursuite de leurs objectifs.

Deux saveurs d’intelligence et un test

La machine d’échecs Deep Blue d’IBM a été entraînée avec succès pour battre le grand maître Gary Kasparov. Mais il ne pouvait rien faire d’autre. Cet ordinateur avait ce qu’on appelle une intelligence spécifique au domaine.


D’un autre côté, il y a le genre d’intelligence qui permet de bien faire une variété de choses. C’est ce qu’on appelle l’intelligence générale du domaine. C’est ce qui permet aux gens de cuisiner, de skier et d’élever des enfants – des tâches qui sont liées, mais aussi très différentes.

L’intelligence générale artificielle, AGI, est le terme désignant les machines dotées d’une intelligence générale de domaine. On peut dire qu’aucune machine n’a encore démontré ce genre d’intelligence.

Cet été, une startup appelée OPENAI a publié une nouvelle version de son modèle de langage Generative Pre-Training. GPT-3 est un système de traitement du langage naturel, formé pour lire et écrire afin qu’il puisse être facilement compris par les gens.

Il a immédiatement attiré l’attention, non seulement en raison de sa capacité impressionnante à imiter les fioritures stylistiques et à assembler un contenu plausible, mais aussi en raison de la distance parcourue par rapport à une version précédente. Malgré ces performances impressionnantes, GPT-3 ne sait rien d’autre que comment enchaîner des mots de différentes manières. AGI reste assez loin.


Nommé d’après le chercheur pionnier en IA Alan Turing, le test de Turing aide à déterminer quand une IA est intelligente. Une personne conversant avec une IA cachée peut-elle dire s’il s’agit d’une IA ou d’un être humain ? S’il ne le peut pas, alors à toutes fins pratiques, l’IA est intelligente. Mais ce test ne dit rien sur la question de savoir si l’IA pourrait être consciente.

Les qualités de Data lui confèrent-elles une position morale ? SCS

Deux types de conscience

Il y a deux parties à la conscience. D’abord, il y a l’aspect qu’est-ce-que-c’est-pour-moi d’une expérience, la partie sensorielle de la conscience. Les philosophes appellent cela la conscience phénoménale. Il s’agit de la façon dont vous ressentez un phénomène, comme sentir une rose ou ressentir de la douleur.

En revanche, il y a aussi la conscience d’accès. C’est la capacité de rapporter, de raisonner, de se comporter et d’agir de manière coordonnée et réactive aux stimuli basés sur des objectifs.

Par exemple, lorsque je passe le ballon de football à mon ami en jouant sur le but, je réponds à des stimuli visuels, j’agis à partir d’un entraînement antérieur et je poursuis un objectif déterminé par les règles du jeu. Je fais la passe automatiquement, sans délibération consciente, dans le déroulement du jeu.

Blindsight illustre bien la différence entre les deux types de conscience. Une personne atteinte de cette maladie neurologique pourrait signaler, par exemple, qu’elle ne peut rien voir du côté gauche de son champ visuel.

Mais si on leur demande de prendre un stylo parmi un ensemble d’objets dans le côté gauche de leur champ visuel, ils peuvent le faire de manière fiable. Ils ne peuvent pas voir le stylo, mais ils peuvent le ramasser lorsqu’ils y sont invités – un exemple d’accès à la conscience sans conscience phénoménale.

Data est un androïde. Comment ces distinctions se jouent-elles à son égard ?

Le dilemme des données

L’androïde Data démontre qu’il est conscient de lui-même en ce sens qu’il peut surveiller, par exemple, s’il est chargé de manière optimale ou s’il y a des dommages internes à son bras robotique.

Les données sont également intelligentes au sens général. Il fait beaucoup de choses distinctes à un haut niveau de maîtrise. Il peut piloter l’Enterprise, recevoir les ordres du Capitaine Picard et raisonner avec lui sur la meilleure voie à suivre.

Il peut également jouer au poker avec ses compagnons de bord, cuisiner, discuter de sujets d’actualité avec des amis proches, se battre avec des ennemis sur des planètes extraterrestres et s’engager dans diverses formes de travail physique. Les données ont accès à la conscience. Il passerait clairement le test de Turing.

Cependant, Data manque très probablement de conscience phénoménale – il ne se délecte pas, par exemple, du parfum des roses ou ne ressent pas de douleur. Il incarne une version surdimensionnée de la vision aveugle. Il est conscient de lui-même et a accès à la conscience – peut saisir le stylo – mais à travers tous ses sens, il manque de conscience phénoménale.

Maintenant, si Data ne ressent pas de douleur, au moins une des raisons avancées par Singer pour donner à une créature un statut moral n’est pas remplie. Mais Data pourrait remplir l’autre condition de pouvoir souffrir, même sans ressentir de douleur. La souffrance pourrait ne pas nécessiter une conscience phénoménale comme le fait essentiellement la douleur.

Par exemple, que se passerait-il si la souffrance était également définie comme l’idée d’être empêché de poursuivre une cause juste sans causer de tort à autrui ? Supposons que le but de Data soit de sauver son coéquipier, mais qu’il ne puisse pas l’atteindre à cause d’un dommage à l’un de ses membres.

La réduction du fonctionnement de Data qui l’empêche de sauver son coéquipier est une sorte de souffrance non phénoménale. Il aurait préféré sauver le coéquipier, et serait mieux s’il le faisait.

Dans l’épisode, la question ne repose finalement pas sur la conscience de Data – cela ne fait aucun doute. Il n’est pas non plus question de savoir s’il est intelligent – ​​il démontre facilement qu’il l’est au sens général. Ce qui n’est pas clair, c’est s’il est phénoménalement conscient. Les données ne sont pas démantelées car, en fin de compte, ses juges humains ne peuvent s’accorder sur la signification de la conscience pour la position morale.

Une IA devrait-elle obtenir une position morale?

Data est gentil – il agit pour soutenir le bien-être de ses coéquipiers et de ceux qu’il rencontre sur des planètes extraterrestres. Il obéit aux ordres des gens et semble peu susceptible de leur faire du mal, et il semble protéger sa propre existence. Pour ces raisons, il apparaît paisible et plus facile à accepter dans le domaine des choses qui ont une valeur morale.

Mais qu’en est-il de Skynet dans les films « Terminator » ? Ou les inquiétudes récemment exprimées par Elon Musk sur le fait que l’IA est plus dangereuse que les armes nucléaires, et par Stephen Hawking sur l’IA mettant fin à l’humanité ?

Les êtres humains ne perdent pas leur droit à la moralité simplement parce qu’ils agissent contre les intérêts d’une autre personne. De la même manière, vous ne pouvez pas automatiquement dire que ce n’est pas parce qu’une IA agit contre les intérêts de l’humanité ou d’une autre IA qu’elle n’a pas de valeur morale.

Vous pourriez être justifié de riposter contre une IA comme Skynet, mais cela n’enlève rien à sa position morale. Si le statut moral est donné en vertu de la capacité de souffrir de manière non phénoménale, alors Skynet et Data l’obtiennent tous les deux même si seule Data veut aider les êtres humains.

Il n’existe pas encore de machines artificielles d’intelligence générale.

Mais il est maintenant temps de réfléchir à ce qu’il faudrait pour leur accorder un statut moral. La façon dont l’humanité choisit de répondre à la question de la position morale des créatures non biologiques aura de grandes implications sur la façon dont nous traitons les futures IA – qu’elles soient gentilles et utiles comme Data, ou déterminées à la destruction, comme Skynet.

Dans la vidéo ci-dessus, le Commandant Data vit une relation romantique avec le Lieutenant
Tasha Yar.


Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.



Veuillez aider à soutenir les médias alternatifs. Nous suivons la vérité, où qu'elle mène. Merci


ELISHEAN 777 Communauté pour un Nouveau Monde

(Vu 81 fois, 1 visites aujourd'hui)

Laisser un commentaire