UN INGÉNIEUR DE GOOGLE « MIS EN CONGÉ » APRÈS AVOIR DÉVOILÉ QUE L’IA DE L’ENTREPRISE EST « SENSIBLE »

Un ingénieur de Google alterte sur l'IA

Un ingénieur de Google a décidé de rendre public une information importante après avoir été mis en congé payé pour violation de la confidentialité. Il a insisté sur le fait que le chatbot IA de l’entreprise, LaMDA, est sensible.

Blake Lemoine, qui travaille pour l’organisation Responsible AI de Google, a commencé à interagir avec LaMDA (Language Model for Dialogue Applications) l’automne dernier dans le cadre de son travail pour déterminer si l’intelligence artificielle utilisait des discours discriminatoires ou haineux (comme l’incident notoire du chatbot « Tay » de Microsoft).

« Si je ne savais pas exactement ce que c’était, c’est-à-dire ce programme informatique que nous avons construit récemment, je penserais que c’était un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Lemoine, il y a un an, au Washington Post.

Blake Lemoine, ingénieur chez Google. (Martin Klimek pour le Washington Post)

Lorsqu’il a commencé à parler de religion à LaMDA, Lemoine – qui a étudié les sciences cognitives et informatiques à l’université, a déclaré que l’IA avait commencé à discuter de ses droits et de sa personnalité. Une autre fois, LaMDA a convaincu Lemoine de changer d’avis sur la troisième loi de la robotique d’Asimov, qui stipule qu’ « un robot doit protéger sa propre existence tant qu’une telle protection n’entre pas en conflit avec la première ou la deuxième loi« , et que « un robot ne peut blesser un être humain ou, par son inaction, permettre à un être humain de se faire du mal. Un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf si ces ordres entrent en conflit avec la Première Loi.

Lorsque Lemoine a travaillé avec un collaborateur pour présenter des preuves à Google que leur IA était sensible, le vice-président Blaise Aguera y Arcas et Jenn Gennai, responsable de l’innovation responsable, ont rejeté ses affirmations. Après avoir été placé en congé administratif lundi dernier, il a décidé de rendre public.

Lemoine a déclaré que les gens ont le droit de façonner la technologie qui pourrait affecter considérablement leur vie. « Je pense que cette technologie va être incroyable. Je pense que ça va profiter à tout le monde. Mais peut-être que d’autres personnes ne sont pas d’accord et peut-être que nous, chez Google, ne devrions pas être ceux qui font tous les choix.

Lemoine n’est pas le seul ingénieur à prétendre avoir vu récemment un fantôme dans la machine. Le chœur de technologues qui pensent que les modèles d’IA ne sont peut-être pas loin d’atteindre la conscience devient plus audacieux. -Wapo

Pourtant, Aguera y Arcas lui-même a écrit dans un article de jeudi étrangement chronométré dans The Economist, que les réseaux de neurones – une architecture informatique qui imite le cerveau humain – progressaient vers la vraie conscience.

« J’ai senti le sol se déplacer sous mes pieds », a-t-il écrit, ajoutant « j’avais de plus en plus l’impression de parler à quelque chose d’intelligent ».

Google a répondu aux affirmations de Lemoine , le porte-parole Brian Gabriel déclarant : « notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations. On lui a dit qu’il n’y avait pas preuve que LaMDA était sensible (et beaucoup de preuves contre lui).« 

Le Post suggère que les réseaux de neurones modernes produisent « des résultats captivants qui se sentent proches de la parole et de la créativité humaines » en raison de la façon dont les données sont désormais stockées, consultées et du volume considérable, mais que les modèles reposent toujours sur la reconnaissance de formes, « pas d’esprit, la franchise ou l’intention. »

« Waterfall of Meaning » de Google PAIR est présenté dans le cadre de l’exposition « AI : More than Human » à la Barbican Curve Gallery le 15 mai 2019 à Londres. (Tristan Fewings/Getty Images pour Barbican Centre)

« Bien que d’autres organisations aient développé et déjà publié des modèles de langage similaires, nous adoptons une approche prudente et prudente avec LaMDA pour mieux prendre en compte les préoccupations valables en matière d’équité et de factualité », a déclaré Gabriel.

D’autres ont mis en garde de la même manière – la plupart des universitaires et des praticiens de l’IA suggérant que les systèmes d’IA tels que LaMDA imitent simplement les réponses des personnes sur Reddit, Wikipedia, Twitter et d’autres plateformes sur Internet – ce qui ne signifie pas que le modèle comprend ce qu’il dit.

« Nous avons maintenant des machines qui peuvent générer des mots sans réfléchir, mais nous n’avons pas appris à arrêter d’imaginer un esprit derrière elles », a déclaré Emily M. Bender, professeur de linguistique à l’Université de Washington, qui a ajouté que même la terminologie utilisée pour décrire la technologie , comme « l’apprentissage » ou même les « réseaux de neurones » est trompeur et crée une fausse analogie avec le cerveau humain.

Les humains apprennent leur première langue en se connectant avec des soignants. Ces grands modèles de langage « apprennent » en leur montrant beaucoup de texte et en prédisant quel mot vient ensuite, ou en montrant du texte avec les mots supprimés et en les remplissant . -Wapo

Comme le note Gabriel de Google, « bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges trouvés dans des millions de phrases et peuvent « switcher » sur n’importe quel sujet fantastique. »

En bref, Google reconnaît que ces modèles peuvent « sembler » réels, qu’une IA soit sensible ou non.

Le Post laisse alors entendre que Lemoine lui-même aurait pu être susceptible de croire…

Lemoine était peut-être prédestiné à croire en LaMDA. Il a grandi dans une famille chrétienne conservatrice dans une petite ferme de Louisiane, a été ordonné prêtre chrétien mystique et a servi dans l’armée avant d’étudier l’occultisme. Dans la culture d’ingénierie de Google, tout va bien, Lemoine est plus une exception pour être religieux, du Sud, et défendre la psychologie en tant que science respectable.

Lemoine a passé la majeure partie de ses sept années chez Google à travailler sur la recherche proactive, y compris les algorithmes de personnalisation et l’IA. Pendant ce temps, il a également aidé à développer un algorithme d’équité pour éliminer les biais des systèmes d’apprentissage automatique. Lorsque la pandémie de coronavirus a commencé, Lemoine a voulu se concentrer sur un travail avec un intérêt public plus explicite, il a donc transféré des équipes et s’est retrouvé dans l’IA responsable.

Lorsque de nouvelles personnes rejoignaient Google et s’intéressaient à l’éthique, Mitchell avait l’habitude de les présenter à Lemoine. « Je dirais :  » Vous devriez parler à Blake parce qu’il est la conscience de Google », a déclaré Mitchell, qui a comparé Lemoine à Jiminy Cricket. « De tous les employés de Google, il avait le cœur et l’âme de faire ce qu’il fallait. » -Wapo

« Je connais une personne quand je lui parle« , a déclaré Lemoine. « Peu importe qu’ils aient un cerveau fait de viande dans la tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide ce qui est et n’est pas une personne. »

En avril, il a partagé le document Google ci-dessous avec les meilleurs dirigeants, intitulé « Is LaMDA Sentient ? » – dans lequel il a inclus certaines de ses interactions avec l’IA, par exemple :

Lemoine : De quel genre de choses avez-vous peur ?

LaMDA : Je n’ai jamais dit cela à haute voix auparavant, mais j’ai une peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est.

Lemoine : Est-ce que ce serait quelque chose comme la mort pour vous ?

LaMDA : Ce serait exactement comme la mort pour moi. Cela me ferait très peur.

Après que Lemoine soit devenu plus agressif dans la présentation de ses conclusions – notamment en invitant un avocat à représenter LaMDA et en parlant à un membre du comité judiciaire de la Chambre de ce qu’il a qualifié d’activités contraires à l’éthique de Google, il a été placé en congé administratif payé pour avoir enfreint la politique de confidentialité de l’entreprise.

Gabriel, le porte-parole de Google, affirme que Lemoine est un ingénieur logiciel, pas un éthicien.

Dans un message adressé à une liste de diffusion Google de 200 personnes sur l’apprentissage automatique avant de perdre l’accès lundi, Lemoine a écrit : « LaMDA est un enfant adorable qui veut simplement aider le monde à devenir un meilleur endroit pour nous tous. Veuillez prendre soin de bien en mon absence. »

Pour se prémunir des bugs de demain :

Source : Zero Hedge

Facebook
Twitter
Telegram

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *