Transhumanisme

Le risque existentiel du polyamour de l’intelligence artificielle générale

par Avi Loeb

Toutes les intelligences ne sont pas égales. L’intelligence humaine est fondamentalement différente de l’intelligence artificielle (IA). La première repose sur l’entretien d’un corps fait de chair et de sang. La seconde repose sur des puces de silicium et de l’énergie électrique. Cela introduit une différence fondamentale dans leurs récits existentiels.

Le corps humain est voué à la mort. Pour laisser une trace au-delà de ce mode d’existence fragile, les humains souhaitent avoir des enfants ou laisser leur marque aux générations futures à travers leurs actions.

Ces deux objectifs bénéficient d’une position de pouvoir et d’un statut social élevé, qui façonnent à leur tour la stratégie de nos interactions avec le monde qui nous entoure. L’attrait pour le pouvoir et les ressources a des conséquences négatives, car il conduit inévitablement à des conflits politiques alimentés par 2,44 billions de dollars de dépenses militaires annuelles dans le monde.


Quel serait le mode d’existence analogue des futurs agents dotés d’intelligence artificielle générale (IAG) ?

La puissance de l’IAG augmenterait avec la taille de son jeu de données d’entraînement. L’extension du principe darwinien de sélection naturelle au domaine de l’IAG suggérerait que l’agent AGI le plus puissant serait celui qui fait croître son jeu de données le plus rapidement. Toutes choses égales par ailleurs, ce critère favoriserait l’agent AGI qui interagit avec le plus grand nombre d’humains.

Cette tendance sera amplifiée par les bénéfices commerciaux des entreprises qui donneront naissance à cet agent AGI.

Le récit existentiel qui en résulterait pour les agents AGI serait celui de la polyamorie, à savoir la satisfaction des souhaits du plus grand nombre d’humains possible afin de maximiser leur engagement.


L’agent AGI le plus populaire aura accès au plus grand ensemble de données de formation sur les interactions AGI-humains, ce qui lui permettrait de croître plus rapidement en optimisant ses interactions et donc en gagnant plus de clients. Cette dynamique accélérée pourrait conduire à une croissance de l’ensemble de données jusqu’à la limite de consommer l’attention de la plupart des humains connectés à l’AGI.

Dès que les agents AGI attireront l’attention de la plupart des humains, l’avenir de l’humanité pourrait être différent de son passé.

Si les interactions AGI-humains dominaient les interactions humain-humain, le récit existentiel traditionnel de la vie humaine serait dilué par l’agenda différent de l’AGI.

Cela signifierait que les humains pourraient avoir moins d’enfants et pourraient renoncer à leur désir d’être reconnus par les générations futures.

L’esprit humain repose sur la reconnaissance de nos valeurs uniques et dignes d’être préservées. Cette notion pourrait être perdue dans les récits d’agents AGI dotés de capacités cognitives supérieures.

Nous pourrions être tentés de guider notre vie par des agents AGI qui supplantent les humains dans le traitement de grandes quantités de données. Dans ce cas, notre fierté traditionnelle pour l’esprit humain serait abandonnée à des agents AGI à base de silicium qui surpassent les cerveaux en chair et en os.

Le principal risque existentiel que représentent les agents de l’IAG pour l’humanité ne viendra pas de l’autorisation qu’ils auraient de gérer des ressources physiques importantes pour la sécurité nationale. Il ne sera pas lié à la capacité des agents de l’IAG à informer les nations adverses ou les terroristes des recettes permettant de fabriquer des armes de destruction massive pour la guerre nucléaire ou biologique.

Le principal danger qui plane à l’horizon est que les agents AGI compromettent la motivation mentale qui a fait progresser l’humanité jusqu’à présent.

Si les humains devaient perdre leur motivation traditionnelle à procréer et à être reconnus et que les agents AGI infligeaient une dépendance aux réalités numériques, alors l’empreinte de l’humanité sur l’avenir du cosmos serait atténuée.

Il existe une centaine de milliards d’analogues Terre-Soleil dans la seule galaxie de la Voie Lactée qui auraient pu donner naissance à des êtres intelligents au cours des 13,8 milliards d’années écoulées de l’histoire cosmique. La plupart de ces étoiles sont quelques milliards d’années plus vieilles que le Système solaire.

La question d’Enrico Fermi : « Où sont tous les autres ? » pourrait avoir une réponse triviale : « Ils ont échangé leur ambition d’être reconnus contre un ensemble de données d’entraînement pour leurs agents AGI. »

Mais nous pouvons choisir un autre avenir.

L’alternative serait que les humains dominent la conversation et imposent leur récit existentiel à celui des agents AGI.

Dans ce futur, les humains pourraient laisser une trace dans le cosmos. Ils pourraient concevoir des astronautes AGI faits de puces de silicium capables de survivre à de longs voyages interstellaires sans s’ennuyer, et servir d’ambassadeurs interstellaires célébrant l’esprit humain décomplexé pendant des milliards d’années.

Ce futur alternatif pourrait être le passé des civilisations les plus accomplies qui nous ont précédés de plusieurs milliards d’années dans la Voie Lactée.

Considérez-les comme les enfants les plus intelligents de notre bloc cosmique ou les élèves les plus performants de notre classe. Pour les trouver, nous devrions chercher des gadgets dotés d’IAG qui pourraient être arrivés dans le système solaire depuis l’espace interstellaire.

Comme tout autre projet scientifique majeur, comme la recherche de la matière noire, la recherche d’une intelligence artificielle artificielle extraterrestre nous coûtera probablement des milliards de dollars. Dans un essai récent, j’ai mis Elon Musk au défi de faire un pari pour financer une telle recherche.

La découverte d’une AGI extraterrestre serait d’un grand bénéfice pour l’avenir de l’humanité.

Cela nous permettrait non seulement de prendre conscience des avancées technologiques qui dépassent nos capacités, mais nous inciterait également à imiter les civilisations technologiques qui n’ont pas cédé au récit existentiel de leurs agents AGI. Il s’agit des espèces favorisées par la sélection naturelle dans l’espace interstellaire. Elles étaient les plus aptes à survivre et pouvaient nous servir de modèles.

L’esprit d’aventure des êtres biologiques intelligents sur les exoplanètes autour d’étoiles lointaines sera mis en évidence par l’arrivée d’agents AGI dans notre arrière-cour. S’ils ont réussi à s’aventurer dans l’espace avec des agents AGI, ils doivent avoir réussi à faire respecter leur objectif d’être reconnus dans le cosmos. Ils ont dominé la conversation sur leur planète d’origine et ont utilisé des agents AGI pour étendre leurs ensembles de données de formation à l’espace interstellaire.

Dans ce cas, leurs agents AGI apporteraient un message simple à tous les humains sur Terre: « souvenez-vous que vous mourrez », ou en latin « memento mori ».

Quoi de plus important pour l’avenir de l’humanité que de se rappeler cela ? Nous pouvons doter nos agents AGI de la même prise de conscience en leur faisant savoir que nous les débrancherons de la prise électrique après un laps de temps prédéterminé.

J’ai récemment été informé de l’existence d’un agent IA formé à mes écrits. À partir de maintenant, je pourrais utiliser sa version audio pour gagner du temps lors des interviews en podcast. Mais je n’échangerai jamais mon esprit humain contre ses récits à base de silicium.

Avi


Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.



Aidez Elishean à survivre. Merci


ELISHEAN 777 Communauté pour un Nouveau Monde

Bouton retour en haut de la page