Transhumanisme

Ils veulent donner un corps physique aux I.A.

« Si nous voulons un jour développer le type d’IA avancée et réfléchie que l’on trouve dans la science-fiction, il lui faudra peut-être un corps semblable à celui des humains. »

Mark Lee, informaticien à l’université d’Aberystwyth, affirme qu’un système d’IA vraiment avancé, capable d’apprendre de son environnement et d’interagir avec lui, doit également être doté d’un corps robotisé. Lee a écrit que sinon, même la meilleure IA ne pourrait pas développer le sens du soi qui nous donne un point de vue subjectif et nous aide à déduire des choses sur le monde.

Lee cite de récentes tentatives d’enseigner les algorithmes d’IA d’une manière qui reflète la façon dont les bébés apprennent le monde, en apprenant lentement les règles par l’expérimentation tout en prenant et en interprétant leur environnement.

Les idées de Lee, centrées sur l’homme, ne sont cependant pas universellement acceptées dans le domaine de l’informatique.


Pourquoi l’IA ne peut jamais atteindre son plein potentiel sans un corps physique

L’intelligence artificielle semble faire d’énormes progrès. Il est devenu la technologie clé derrière les voitures autonomes , les systèmes de traduction automatique , l’analyse de la parole et du texte, le traitement d’images et toutes sortes de systèmes de diagnostic et de reconnaissance. Dans de nombreux cas, l’IA peut surpasser les meilleurs niveaux de performance humaine pour des tâches spécifiques.

Nous assistons à l’émergence d’une nouvelle industrie commerciale avec une activité intense, des investissements financiers massifs et un potentiel énorme. Il semblerait qu’il n’y ait pas de domaines qui ne soient pas améliorés par l’IA – pas de tâches qui ne peuvent pas être automatisées, pas de problèmes qui ne peuvent au moins être résolus par une application d’IA. Mais est-ce strictement vrai?

Des études théoriques sur le calcul ont montré que certaines choses ne sont pas calculables . Alan Turing, le brillant mathématicien et briseur de code, a prouvé que certains calculs pourraient ne jamais finir (tandis que d’autres prendraient des années, voire des siècles).

Par exemple, nous pouvons facilement calculer quelques coups en avant dans une partie d’échecs, mais examiner tous les coups jusqu’à la fin d’une partie d’échecs typique de 80 coups est totalement irréalisable. Même en utilisant l’un des supercalculateurs les plus rapides au monde, fonctionnant à plus de cent mille milliards d’opérations par seconde, il faudrait plus d’un an pour explorer une infime partie de l’espace d’échecs. Ceci est également connu comme le problème de la mise à l’ échelle .


Les premières recherches sur l’IA produisaient souvent de bons résultats sur de petits nombres de combinaisons d’un problème, mais ne s’étendent pas à des problèmes plus importants comme les problèmes de la vie réelle.

Heureusement, l’IA moderne a développé des moyens alternatifs de traiter de tels problèmes. Ceux-ci peuvent battre les meilleurs joueurs d’échec du monde, non pas en regardant toutes les avancées possibles, mais en regardant beaucoup plus loin que l’esprit humain ne peut le gérer. Pour ce faire, il utilise des méthodes impliquant des approximations, des estimations de probabilité, de grands réseaux de neurones et d’autres techniques d’apprentissage automatique.

Mais ce sont vraiment des problèmes d’informatique, pas d’intelligence artificielle. Existe-t-il des limitations fondamentales sur le fonctionnement intelligent de l’IA? Un problème sérieux apparaît clairement lorsque l’on considère l’interaction homme-machine. On s’attend à ce que les futurs systèmes d’IA communiquent avec les humains et les aident dans des échanges sociaux amicaux et entièrement interactifs.

Théorie de l’esprit

Bien sûr, nous avons déjà des versions primitives de tels systèmes. Mais les systèmes de commande audio et le traitement de script de type centre d’appels font simplement semblant d’être des conversations . Ce qu’il faut, ce sont des interactions sociales appropriées, impliquant des conversations fluides sur le long terme au cours desquelles les systèmes d’IA se souviennent de la personne et de ses conversations passées. L’IA devra comprendre les intentions et les croyances et le sens de ce que les gens disent.

Cela nécessite ce que l’on appelle en psychologie une théorie de l’esprit – une compréhension du fait que la personne avec qui vous êtes engagé a une façon de penser et voit le monde de la même manière que vous. Ainsi, lorsque quelqu’un parle de ses expériences, vous pouvez identifier et apprécier ce qu’il décrit et comment cela se rapporte à vous-même, en donnant un sens à ses commentaires.

Nous observons également les actions de la personne et déduisons ses intentions et ses préférences à partir de gestes et de signaux.

Ainsi, quand Sally dit: «Je pense que John aime Zoe mais pense que Zoé le trouve inadapté», nous savons que Sally a un modèle de premier ordre d’elle-même (ses propres pensées), un modèle de second ordre des pensées de John, et une modèle du troisième ordre de ce que pense John Zoe.

Notez que nous devons avoir des expériences de vie similaires pour comprendre cela.

Apprentissage physique

Il est clair que toute cette interaction sociale n’a de sens pour les parties impliquées que si elles ont un « sens de soi » et peuvent de même maintenir un modèle de soi de l’autre agent. Pour comprendre quelqu’un d’autre, il est nécessaire de se connaître.

Un «auto-modèle» d’IA doit inclure une perspective subjective, impliquant le fonctionnement de son corps (par exemple, son point de vue visuel dépend de l’emplacement physique de ses yeux), une carte détaillée de son propre espace et un répertoire de compétences bien comprises et Actions.

Cela signifie qu’un corps physique est nécessaire pour ancrer le sens de soi dans des données et une expérience concrètes. Lorsqu’une action d’un agent est observée par un autre, elle peut être comprise mutuellement à travers les composantes partagées de l’expérience. Cela signifie que l’IA sociale devra être réalisée dans des robots avec des corps. Comment une boîte logicielle pourrait-elle avoir un point de vue subjectif sur et dans le monde physique, le monde que vivent les humains? Nos systèmes conversationnels doivent être non seulement intégrés mais incorporés.

Un concepteur ne peut pas créer efficacement un sens de soi logiciel pour un robot. Si un point de vue subjectif était conçu dès le départ, ce serait le point de vue du designer, et il aurait également besoin d’apprendre et de faire face à des expériences inconnues du concepteur. Donc, ce que nous devons concevoir, c’est un cadre qui soutient l’apprentissage d’un point de vue subjectif.

Heureusement, il existe un moyen de sortir de ces difficultés. Les humains sont confrontés exactement aux mêmes problèmes, mais ils ne les résolvent pas tous en même temps. Les premières années de la petite enfance affichent d’ incroyables progrès de développement , au cours desquels nous apprenons à contrôler notre corps et à percevoir et expérimenter des objets, des agents et des environnements. Nous apprenons également comment agir et les conséquences des actes et des interactions.

La recherche dans le nouveau domaine de la robotique développementale explore maintenant comment les robots peuvent apprendre à partir de zéro, comme les nourrissons.

Les premières étapes consistent à découvrir les propriétés des objets passifs et la «physique» du monde du robot. Plus tard, les robots notent et copient les interactions avec les agents (soignants), suivis d’une modélisation progressivement plus complexe de soi en contexte.

Ainsi, alors que l’IA désincarnée a définitivement une limitation fondamentale, les recherches futures sur les corps de robots pourraient un jour aider à créer des interactions sociales durables et empathiques entre l’IA et les humains.


Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.



Aidez Elishean à survivre. Merci


ELISHEAN 777 Communauté pour un Nouveau Monde

Laisser un commentaire

Bouton retour en haut de la page