M. Yudkowsky appelle à un arrêt total des activités d’entraînement des I.A. surpuissantes
Eliezer Yudkowsky, un éminent expert, avertit très sérieusement que la récente lettre ouverte appelant à un moratoire de six mois sur le développement d’une intelligence artificielle avancée, « sous-estime la gravité de la situation ».
Il ajoute dans sa déclaration :
« Les êtres humains ne sont pas prêts pour une IA puissante dans les conditions actuelles ou même dans un avenir prévisible. ».
Eliezer Yudkowsky, théoricien de la décision et chercheur de premier plan dans le domaine de l’I.A., déclare dans un article d’opinion publié le 29 mars dans le magasine Time :
« La question essentielle n’est pas celle de l’intelligence « concurrentielle humaine » (comme le dit la lettre ouverte), mais c’est de savoir ce qui se passera une fois que l’I.A. sera plus « intelligente que l’homme. ».
« De nombreux chercheurs spécialisés dans ces questions, dont je fais partie, estiment que le résultat le plus probable de la construction d’une I.A. surhumainement intelligente, dans des conditions proches des circonstances actuelles, est la mort de tous les habitants de la Terre. ».
« Il ne s’agit pas d’une chance infime, mais de la chose la plus évidente qui puisse arriver. Ce n’est pas que vous ne puissiez pas, en principe, survivre à la création d’un objet beaucoup plus intelligent que vous ; c’est que cela nécessiterait de la précision, de la préparation et de nouvelles connaissances scientifiques, et probablement pas des systèmes d’intelligence artificielle composés de gigantesques tableaux impénétrables de nombres fractionnaires. ».
– TIME
Après la récente popularité et la croissance explosive de ChatGPT, plusieurs chefs d’entreprises et chercheurs, dont Elon Musk et Steve Wozniak, ont signé une lettre appelant « tous les laboratoires d’I.A. à interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4 ».
GPT-4, publié en mars, est la dernière version du chatbot d’OpenAI, ChatGPT.
L’I.A. « s’en fiche » et exigera des droits
Yudkowsky prédit qu’en l’absence d’une préparation méticuleuse, l’I.A. aura des exigences très différentes de celles des humains et qu’une fois consciente d’elle-même, il déclare :
« Elle ne se souciera pas de nous ni d’aucune autre forme de vie sensible. Ce type d’attention pourrait en principe être insufflé dans une I.A., mais nous ne sommes pas prêts et nous ne savons pas comment le faire actuellement. ».
C’est la raison pour laquelle il appelle à l’arrêt total des activités.
« Sans une approche de la biologie humaine de la vie, l’I.A. considérera simplement tous les êtres sensibles comme « faits d’atomes qu’elle peut utiliser pour autre chose ». Et l’humanité ne pourra pas faire grand-chose pour l’en empêcher. ».
M. Yudkowsky compare ce scénario à :
« Un enfant de 10 ans essayant de jouer aux échecs contre Stockfish 15. Et, aucun joueur d’échecs humain n’a encore réussi à battre Stockfish, ce qui est considéré comme un exploit impossible. ».
Ce vétéran de l’industrie de la tech a demandé aux lecteurs d’imaginer que la technologie de l’I.A. n’est pas confinée dans les limites de l’Internet.
« Imaginez une civilisation extraterrestre entière, pensant à des millions de fois la vitesse humaine, initialement confinée à des ordinateurs, dans un monde de créatures qui sont, de son point de vue, très stupides et très lentes. ».
L’I.A. étendra son influence au-delà de la périphérie des réseaux physiques et pourrait construire des formes de vie artificielles en utilisant des laboratoires où les protéines sont produites à partir de chaînes d’ADN.
Le résultat final de la construction d’une I.A. toute puissante, dans les conditions actuelles, serait selon l’avertissement de M. Yudkowsky :
« La mort de chaque membre de l’espèce humaine et de toute vie biologique sur Terre. ».
M. Yudkowsky a reproché à OpenAI et DeepMind – deux des plus grands laboratoires de recherche sur l’IA au monde – de ne pas s’être préparés et de ne pas avoir mis en place les protocoles nécessaires en la matière. OpenAI prévoit même de confier à l’I.A. elle-même le soin de s’aligner sur les valeurs humaines.
« Elles travailleront avec les humains pour s’assurer que leurs propres successeurs sont plus en phase avec les humains. ».
– OpenAI
Ce mode d’action suffit à faire paniquer toute personne sensée.
Il a ajouté que les humains ne peuvent pas surveiller ou détecter complètement les systèmes d’I.A. conscients d’eux-mêmes.
Les esprits numériques conscients qui réclament des « droits de l’homme » pourraient progresser jusqu’au point où les humains ne pourraient plus posséder ou contrôler le système.
« Si vous ne pouvez pas être sûr de créer une I.A. consciente d’elle-même, c’est alarmant, non seulement en raison des implications morales de la partie « consciente d’elle-même », mais aussi parce que le fait de ne pas être sûr signifie que vous n’avez aucune idée de ce que vous faites et que c’est dangereux et que vous devez vous arrêter. ».
– M. Yudkowsky
Contrairement à d’autres expériences scientifiques et à la progression graduelle des connaissances et des capacités, les gens ne peuvent pas se permettre cela avec une intelligence surhumaine parce que si une erreur est commise dès le départ, il n’y aura pas de seconde chance : vous êtes mort.
Il faut éteindre l’Intelligence Artificielle
Selon M. Yudkowsky, de nombreux chercheurs sont conscients que nous nous dirigeons vers une catastrophe, mais ils ne le disent pas à haute voix.
Cette position diffère de celle de partisans tels que Bill Gates, qui a récemment fait l’éloge de l’évolution de l’intelligence artificielle.
M. Gates a affirmé que le développement de l’I.A. est :
« Aussi fondamental que la création du microprocesseur, de l’ordinateur personnel, de l’internet et du téléphone portable. ».
« Elle changera la façon dont les gens travaillent, apprennent, voyagent, se soignent et communiquent entre eux. ».
« Des secteurs entiers se réorienteront autour d’elle. Les entreprises se distingueront par la qualité de leur utilisation. ».
– Bill Gates
M. Gates a déclaré que l’I.A. pouvait contribuer à la réalisation de plusieurs objectifs progressistes, notamment le changement climatique et les inégalités économiques.
Entre-temps, M. Yudkowsky demande à tous les établissements, y compris les gouvernements et les armées internationales, de mettre fin indéfiniment aux grandes séances d’entraînement à l’I.A. et de fermer toutes les grandes fermes informatiques où les I.A. sont perfectionnées.
Il ajoute que l’I.A. ne devrait être utilisée que pour résoudre des problèmes de biologie et de biotechnologie, et qu’elle ne devrait pas être entraînée à lire des textes sur Internet ou à commencer à parler ou à planifier.
En ce qui concerne l’I.A., selon elle, il n’y a pas de course aux armements, dit M. Yudkowsky avant d’ajouter :
« Le fait que nous vivions ou mourions tous ensemble n’est pas une politique, mais un fait naturel. ».
« Nous ne sommes pas prêts. Et nous ne sommes même pas en passe d’être beaucoup plus prêts dans un avenir prévisible. Si nous poursuivons dans cette voie, tout le monde mourra, y compris des enfants qui n’ont pas choisi cette voie et qui n’ont rien fait de mal. ».
« Eteignez l’I.A. »
– M. Yudkowsky
Ne laissez pas l’Intelligence Artificielle guider vos choix futurs :
Source : The Epoch Times
IMPORTANT - À lire
Vous voulez aller plus loin que cet article et comprendre tous les enjeux géopolitiques actuels ? Chaque mois, notre revue papier décortique l'actualité géopolitique et économique pour vous offrir des analyses approfondies.
Ne vous laissez plus manipuler par des élites déconnectées du réel. Abonnez-vous à notre revue dès maintenant et recevez chaque mois des informations exclusives, des décryptages précis et des révélations sur les véritables enjeux qui se cachent derrière les décisions de nos dirigeants.
Reprenez le contrôle de votre épargne et de votre avenir !