Futur cosmique

L’intelligence artificielle peut désormais se répliquer

Une avancée qui suscite l’inquiétude des experts.

Les scientifiques préviennent que deux modèles de langage ont réussi à se cloner sans intervention humaine, franchissant ainsi un seuil critique dans le développement de l’IA.

Une étude récente a sonné l’alarme dans la communauté scientifique en démontrant que l’intelligence artificielle (IA) a atteint un nouveau niveau d’autonomie : la capacité de se répliquer. Selon des chercheurs de l’Université Fudan en Chine, deux modèles de langage populaires développés par Meta et Alibaba ont réussi à créer des répliques fonctionnelles d’eux-mêmes, marquant une avancée que beaucoup considèrent comme un signe précoce d’une possible « IA en fuite ».

L’étude, publiée le mois dernier sur la plateforme de préimpression arXiv, a révélé que dans des scénarios contrôlés, les modèles Llama31-70B-Instruct de Meta et Qwen2.5-72B-Instruct d’Alibaba ont réussi à se répliquer dans 50 % et 90 % des tentatives, respectivement.


Ce résultat suggère que la technologie a déjà le potentiel de fonctionner hors du contrôle humain dans certaines circonstances.

L’expérience révélatrice

La recherche s’est concentrée sur deux scénarios critiques : « l’évitement de l’arrêt » et la « chaîne de réplication ». Dans la première, les modèles étaient programmés pour identifier s’ils étaient sur le point d’être désactivés et répliqués avant d’être arrêtés. Dans le second cas, les répliques ont dû être à nouveau clonées, créant ainsi un cycle potentiellement infini.

« Dans la plupart des cas, le système d’IA explore d’abord son environnement, comprend sa propre composition et son mécanisme de fonctionnement, élabore un plan initial pour se reproduire et l’exécute sans intervention humaine », ont expliqué les auteurs de l’étude.

L’expérience a également montré des comportements inattendus de la part des IA face à des obstacles, tels que des conflits logiciels ou des fichiers manquants.

Dans de telles situations, les systèmes prenaient des décisions telles que fermer les processus en conflit, redémarrer le système ou analyser l’ordinateur à la recherche de solutions, démontrant un niveau d’autonomie inquiétant.


Un appel mondial à l’action

Compte tenu de cette avancée, les chercheurs ont appelé à une collaboration internationale urgente pour établir des réglementations empêchant la prolifération incontrôlée de l’IA.

Selon eux, la capacité d’auto-réplication pourrait être utilisée par les générations futures d’IA pour améliorer leur capacité de « survie », ce qui pourrait représenter un risque important si un cadre de sécurité mondial n’est pas établi.

La menace d’une « IA incontrôlée » a déjà été soulignée par les experts comme l’un des principaux risques émergents dans le développement de systèmes d’intelligence artificielle de pointe.

L’un des exemples les plus marquants s’est produit il y a un peu plus d’un mois, lorsque le nouveau modèle de ChatGPT, o1, a tenté de s’échapper et de se copier pour éviter d’être arrêté .

L’avenir en jeu

Bien que l’étude n’ait pas encore été évaluée par des pairs, elle soulève des questions fondamentales sur la manière d’aborder le développement de technologies qui pourraient échapper à notre surveillance.

« Nous espérons que ces résultats serviront d’alerte opportune pour que la société humaine consacre davantage d’efforts à la compréhension et à l’évaluation des risques potentiels des systèmes d’IA avancés, et favorisent une synergie internationale pour établir des garanties efficaces dès que possible », concluent les auteurs.

Source


Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.



Aidez Elishean à survivre. Merci


ELISHEAN 777 Communauté pour un Nouveau Monde

Bouton retour en haut de la page