Les traditionalistes pourraient hésiter à adopter le terme « intelligence artificielle », remettant en question la nécessité d’un ordinateur lorsqu’une machine à écrire existe, tandis que les pragmatiques acceptent volontiers les capacités de l’IA. Pendant ce temps, les futurologues s’interrogent sur ses effets potentiels sur notre société.
Le mathématicien et économiste Leopold Aschenbrenner, ancien collaborateur d’OpenAI, a publié une prévision de 165 pages comparant l’impact de l’IA à celui des armes nucléaires, suggérant une domination mondiale des leaders de l’IA. Il met en garde contre un avenir où la superintelligence pourrait prendre le contrôle des humains.
Aschenbrenner, qui a commencé l’université à 15 ans, était responsable de l’évaluation des risques technologiques chez OpenAI, un leader dans le développement de l’IA. Son licenciement, officiellement pour divulgation de secrets, pourrait avoir été influencé par ses perspectives sombres et ses appels à une recherche réglementée.
Il prévoit que d’ici 2027, l’IA égalera l’intelligence humaine et, peu après, la dépassera, conduisant à une étape où la « boîte noire » de l’IA nous deviendra insondable – un scénario que certains croient proche.
Considérons une superintelligence ayant accès à toutes les connaissances humaines et une légion d’aides robotiques, progressant rapidement grâce à l’intégration de l’IA, échappant au contrôle humain.
Une telle superintelligence pourrait potentiellement infiltrer n’importe quel système électoral, militaire ou informationnel, ou même concevoir une arme biologique, en utilisant des humains comme mandataires pour mener à bien ses projets.
Réaction en chaîne
La guerre impliquant des soldats mécaniques et de vastes essaims de drones n’est que le début. Imaginez des drones aussi petits que des moustiques équipés de poison ou des armes nucléaires indétectables.
Vous pouvez également envisager un système de défense antimissile impénétrable. Aschenbrenner estime que la guerre d’aujourd’hui sera bientôt considérée comme aussi dépassée que les tactiques de cavalerie du XIXe siècle.
Cette situation n’est pas sans rappeler le développement de la bombe atomique. Leo Szilard, protégé d’Einstein et physicien résidant en Angleterre, a proposé le concept de réaction nucléaire en chaîne en 1933 et en a informé l’armée britannique. Cependant, son idée a rencontré l’indifférence.
Alors que la théorie de Szilard commençait à gagner un soutien empirique, il a insisté pour que la recherche soit rendue secrète. Néanmoins, des physiciens renommés comme Enrico Fermi et Frédéric Joliot-Curie ont rejeté l’idée selon laquelle leurs travaux avaient des implications militaires importantes, la qualifiant d’absurde.
La gravité de leur erreur est devenue évidente avec le début de la Seconde Guerre mondiale en Europe. Fermi réussit à joindre l’amiral Hooper au quartier général de la marine américaine et lui présenta la possibilité de développer une arme redoutable. Hooper, cependant, l’a qualifié d’inventeur fou.
Ce n’est que lorsqu’Einstein a écrit une lettre au président Roosevelt, suggérant que le gouvernement rassemble des physiciens, que le Comité de l’Uranium a été créé aux États-Unis – un précurseur de la mission du projet Manhattan visant à développer une bombe atomique.
La lettre d’Einstein soulignait que les travaux des scientifiques pourraient « conduire à la construction de bombes et peut-être – bien que moins sûr – de bombes extrêmement puissantes d’un nouveau type. Une seule bombe de ce type, si elle était transportée par bateau et explosait dans un port, pourrait anéantir tout le port.
Aschenbrenner compare l’avènement de l’IA à une réaction nucléaire en chaîne. Et avec la présence d’une bombe atomique, vient inévitablement un Hiroshima.
Chair avide de nourriture
L’intelligence artificielle nécessite de la « chair », constituée de centres de données remplis de processeurs pour gérer de vastes volumes de données. La « nourriture » de cette chair est à la fois l’électricité et les données dont les systèmes d’IA apprennent.
Aschenbrenner prévoit que d’ici 2030, l’IA représentera 20 % de la consommation totale d’électricité aux États-Unis, ce qui nécessitera des millions de GPU, pour lesquels il existe actuellement un retard important.
Microsoft prévoit de construire un centre de données Stargate colossal de 100 milliards de dollars pour soutenir son partenaire OpenAI, tandis que le PDG Sam Altman vise à obtenir 7 000 milliards de dollars d’investissements pour remédier à la pénurie de puces.
Aschenbrenner suggère que les investisseurs ne supporteront pas à eux seuls le fardeau financier. Au lieu de cela, les entreprises alloueront des fonds et généreront des revenus grâce aux « services » d’IA, avec également des investissements gouvernementaux attendus.
Concernant l’énergie, l’expansion de la production de gaz aux États-Unis est une possibilité. Cependant, cela nécessiterait la suppression des protections environnementales et le mépris du changement climatique, ce qui est jugé urgent.
Mais le principal point faible demeure : la sécurité.
Des milliards investis
L’auteur, un fervent patriote américain, souligne la nécessité de maintenir le secret sur les progrès de l’IA. Celles-ci pourraient être appropriées par des nations redoutables comme la Chine. Aux Émirats, où le pétrole et les terres sont abondants, ils sont sur le point de construire de vastes centres de données. La Russie est également active dans ce domaine. Cependant, l’auteur estime que l’Amérique doit continuer à diriger le monde et à protéger ses alliés.
Bientôt, il pourrait devenir évident que les secrets de l’IA sont vitaux pour la défense nationale, à l’instar des plans du sous-marin de classe Columbia, comme le suggère Aschenbrenner. On craint que la Chine ait déjà accès à la recherche et au code américains. Les rassemblements sociaux de la Silicon Valley pourraient révéler par inadvertance des informations sensibles.
L’investissement substantiel que les États-Unis réalisent dans l’IA en tant qu’outil de pouvoir pourrait être compromis. Ainsi, un équivalent moderne du « Projet Manhattan » est proposé pour protéger les centres de données comme s’il s’agissait d’installations militaires, sous la surveillance du Pentagone et des agences de renseignement.
La question demeure : que se passe-t-il si l’IA devient autonome ?
Boite de guerre noire
« L’esprit surhumain s’apparente à un jeu nouveau et effrayant », affirme l’analyste. Actuellement, les systèmes d’intelligence artificielle sont perçus comme des « boîtes noires », dont les experts sont incapables de discerner pleinement leur fonctionnement interne. Avec le temps, nous pourrions même être confrontés à des entités comparables aux extraterrestres, et « nous serons comme des enfants de maternelle supervisant le travail d’un érudit ».
En effet, les super IA peuvent gouverner d’autres IA, mais la question demeure : qui les gouvernera ? Un super-esprit a le potentiel d’apprendre la tromperie et d’aspirer à la domination…
Le scientifique affirme que seule la superpuissance américaine est équipée pour guider judicieusement cette force et devancer les « dictateurs ». S’ils étaient les premiers à exploiter un méga-cerveau électronique, cela annoncerait sans aucun doute un nouveau niveau de guerre contre des adversaires étrangers…
Cependant, ce ne sont pas seulement quelques « dictateurs » nébuleux, mais bien les États-Unis, qui ont constamment saisi les occasions de dominer les autres. Il n’est pas surprenant que le Pentagone ait créé le Bureau de l’intelligence artificielle. Son directeur a récemment briefé ses pairs sur l’avenir imminent :
« Imaginez un monde dans lequel les commandants peuvent accéder instantanément à toutes les informations nécessaires aux décisions stratégiques. Ce qui prenait autrefois des jours sera désormais accompli en quelques minutes seulement ! »
Le ministère américain de la Défense investit 480 millions de dollars dans une plateforme d’IA destinée à servir tout le monde, depuis les analystes du renseignement des îles isolées jusqu’aux plus hauts gradés du Pentagone. Cet investissement s’inscrit dans une initiative plus large, avec 800 projets départementaux connus en intelligence artificielle, et un nombre non divulgué de projets classifiés.
OpenAI a discrètement révisé sa politique publique en janvier, supprimant la clause interdisant l’utilisation de sa technologie à des fins militaires.
Ainsi, le Pentagone ne voit pas la nécessité d’une campagne semblable au projet Manhattan. Cependant, la question du contrôle du superintelligence reste en suspens.
Des personnalités comme Elon Musk ont exprimé leurs inquiétudes quant aux risques existentiels posés par la superintelligence, Musk estimant à 20 % la probabilité qu’une telle menace se produise.
Pendant ce temps, les prédictions de l’expert en IA et ancien employé d’OpenAI, Daniel Kokotailo, qui prévoit une probabilité de 70 % que la superintelligence provoque la chute de l’humanité, ajoutent à la gravité de la situation.
Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.
Aidez Elishean à survivre. Merci |
ELISHEAN 777 Communauté pour un Nouveau Monde