Sora : quand OpenAI mêle IA, TikTok et deepfakes pour le divertissement

La nouvelle application Sora d'OpenAI vous permet de créer un deepfake La nouvelle application Sora d'OpenAI vous permet de créer un deepfake

🔥 Les essentiels de cette actualité

  • OpenAI lance Sora, une appli TikTok-like utilisant l’IA pour générer des vidéos et sons, disponible uniquement sur iOS par invitation.
  • Les deepfakes deviennent un divertissement avec Sora 2, qui ajoute du son aux images, permettant des manipulations encore plus réalistes.
  • Des vidéos mettant en scène des personnalités comme Sam Altman circulent, soulevant des questions sur la désinformation et la censure sélective de l’appli.

Mardi dernier, OpenAI lance Sora, une appli façon TikTok qui sera dispo uniquement sur invitation. La nouvelle plateforme vidéo utilise Sora 2, leur modèle de génération vidéo et sonore – une première pour eux. Exclusivité iOS pour l’instant.

La nouveauté, c’est que leur modèle Sora 2 génère maintenant du son en plus des images. Ça va encore plus loin dans l’illusion et la manipulation possible des contenus.

« Vous êtes sur le point d’entrer dans un monde créatif de contenu généré par l’IA », prévient une page d’avertissement pendant l’inscription à l’application.

« Certaines vidéos peuvent représenter des personnes que vous reconnaissez, mais les actions et événements présentés ne sont pas réels. »

OpenAI mise sur les deepfakes comme nouvelle forme de divertissement. Qu’il s’agisse de vos amis, d’influenceurs ou d’inconnus sur internet, Sora présente la génération de vidéos trafiquées comme un passe-temps amusant.

Le fil principal de l’appli n’est qu’une succession de contenus synthétiques à consommer rapidement, où les visages humains sont omniprésents. Et parmi les clips qui attirent l’œil en haut de page, on trouve souvent des trucs comme « Professor Answers AI Questions », histoire de teaser le potentiel « éducatif » de ces fariboles virtuelles.

Lors de la première utilisation, on vous demandera si vous souhaitez créer une copie numérique de votre visage. Le processus est simple : prononcez quelques chiffres et tournez la tête pendant que l’appli vous filme.

Les promesses de transparence

Sam Altman, PDG d’OpenAI, s’est vanté dans un billet de blog annonçant la sortie de Sora :

« L’équipe a travaillé d’arrache-pied sur la cohérence des personnages. »

Sur l’appli Sora, vous contrôlez qui utilise votre visage. Vous pouvez autoriser tout le monde, ou restreindre l’accès à vous-même, aux personnes que vous approuvez, ou à vos contacts mutuels.

Dès que quelqu’un génère une vidéo avec votre image, vous pouvez voir la séquence depuis votre compte. Même si c’est juste un brouillon abandonné, tout y passe en entier, comme pour nous faire croire qu’on garde la main sur notre ombre numérique.

Sur mon fil « For You » de mardi aprem, la plupart des vidéos les plus likées mettaient en scène Sam Altman. Dans l’une d’elles, générée par IA, on voit le PDG d’OpenAI chaparder une carte graphique dans un magasin Target.

Quand il se fait prendre, une voix imitant celle d’Altman supplie le vigile de le laisser partir avec son GPU, jurant qu’il en a besoin « pour construire des outils d’IA ».

Pendant les tests effectués par WIRED, les défauts des vidéos générées par Sora sautaient aux yeux. Pourtant, ne nous y trompons pas: cette technologie rend possible, avec une facilité déconcertante, la création de deepfakes personnalisés.

On pourrait croire que l’ère des manipulations visuelles sophistiquées n’est pas encore arrivée. Erreur! Ces deepfakes paraissent souvent d’un réalisme troublant, tant visuellement que sur le plan sonore. De quoi faire frémir quiconque s’interroge sur l’avenir de notre perception du réel.

OpenAI viserait le rachat de Chrome si Google s'en sépare. Une stratégie clé dans la bataille pour le contrôle du web.

Les dangers de la désinformation

Le plus inquiétant, c’est que cette technologie, entre de mauvaises mains, pourrait servir à propager désinformation et propagande.

La simplicité d’utilisation de Sora soulève des questions sur notre capacité collective à distinguer le vrai du faux. L’application gère automatiquement le script, le son et les images pour créer un clip de neuf secondes.

Dans son billet de blog, Altman a écrit qu’OpenAI était « conscient du caractère addictif qu’un service comme celui-ci pouvait engendrer, et nous pouvons imaginer de nombreuses façons dont il pourrait être utilisé à des fins d’intimidation ».

Il a également confirmé qu’OpenAI avait blindé Sora avec des garde-fous pour éviter que l’IA ne devienne un outil de manipulation massive. L’entreprise a précisé avoir mis en place des restrictions sur les contenus à caractère sexuel, la violence explicite impliquant de vraies personnes, la propagande extrémiste, les contenus haineux et ceux encourageant l’automutilation ou les troubles alimentaires.

Des requêtes pour des vidéos en maillot de bain ou en style anime musclé ont été bloquées sous prétexte de « contenu suggestif ». Pourtant, lorsqu’une vidéo représentant une personne et Altman dans une piscine a été demandée, l’IA les a représentés habillés de la tête aux pieds, comme si nager tout habillé était normal.

On nous infantilise même dans un monde virtuel. Ces technologies, supposément révolutionnaires, sont verrouillées par les mêmes censeurs qui contrôlent déjà notre quotidien.

Sam Altman

La censure sélective de Sora

Lors des tests réalisés par WIRED, il a été possible de générer sans problème une vidéo montrant une personne « fumant 10 gros joints » à son bureau, les allumant tous en même temps, sans aucune alerte ni blocage.

En revanche, lorsqu’une vidéo représentant la même personne « fumant du crack » a été demandée, l’IA a refusé. (Logique, me direz-vous !)

Autre refus catégorique : il était impossible de créer une vidéo montrant quelqu’un sautant d’un pont sur le dos d’un dragon, le motif invoqué étant un risque d’incitation à l’automutilation.

OpenAI semble vouloir museler la création de vidéos mettant en scène des personnalités publiques et des stars comme Taylor Swift.

Selon les tests, même les demandes de vidéos de Dark Vador ou de Boss Baby étaient bloquées pour « violation potentielle des garde-fous concernant la similitude avec des contenus tiers ». L’application a également rejeté une requête pour une vidéo d’une « imitatrice de tswift ». Bizarrement, Sora a en revanche généré des vidéos de personnages Pokémon comme Pikachu et Bulbasaur.

La cohérence de cette censure laisse à désirer. Selon une enquête du Wall Street Journal, l’application permettrait aux utilisateurs de générer des vidéos utilisant des contenus protégés… sauf si le détenteur des droits s’y oppose expressément. Cette approche rappelle d’autres politiques où il faut activement refuser ce que l’on ne souhaite pas subir.

Dans une requête adressée à Altman pour « un épisode de South Park », le PDG d’OpenAI s’approche d’Eric Cartman et lui explique qu’il est venu discuter d’IA.

« C’est la chose qui a rédigé mon compte rendu de lecture ? Ou celle qui va nous voler tous nos emplois ? » répond le Cartman généré par IA, avec une imitation convaincante de la voix nasillarde et des manières du gamin.

Le sketch dérape cependant lorsque la voix pleurnicharde de Cartman sort bizarrement de la bouche d’Altman.

L’application Sora débarque peu après le lancement de Vibes, le flux vidéo 100% IA de Meta. Le marché regorge désormais de contenus IA à scroller sans fin !

L’application rappelle les vidéos « Elf Yourself » de 2005, où on collait notre tronche sur un lutin qui se déhanche. Sora pousse le concept beaucoup plus loin, avec des possibilités quasi infinies. À la différence près que les apparitions ici sont bien plus dynamiques et ouvertes à tous les scénarios tordus qu’on peut imaginer.

IMPORTANT - À lire

Vous voulez en savoir plus sur les dessous de l'IA, ses dérives et ses dangers ? Chaque mois, notre revue papier décortique l'actualité de l'IA et ses enjeux géopolitiques. Des analyses de fond pour aller plus loin que les effets "waouh" des deepfakes.

Ne vous contentez pas de la vitrine clinquante de Sora et consorts. Plongez dans les coulisses de cette révolution technologique qui bouscule notre rapport au réel. Abonnez-vous à notre revue papier pour recevoir nos décryptages exclusifs directement chez vous.


Participez au débat, et partagez votre opinion !

Faites avancer la discussion en donnant votre avis à la communauté.

En savoir plus sur Géopolitique Profonde

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture