Par Florian Bayard —
Des vidéos racistes générées par le moteur Sora 2 d’OpenAI, mettant en scène Martin Luther King Jr., ont provoqué une vague d’indignation mondiale. Saisie par la famille du leader des droits civiques, la société américaine a décidé de suspendre toute représentation du Dr King, un geste fort qui pourrait faire jurisprudence dans la régulation de l’intelligence artificielle générative.
Un scandale viral
Sora 2 est au cœur d’un nouveau scandale. Des internautes ont utilisé l’outil pour produire des détournements irrespectueux de l’image de Martin Luther King Jr. Certaines vidéos inséraient des bruits de singe sur son célèbre discours « I Have a Dream », d’autres le montraient se battant contre Malcolm X. Ces contenus, massivement diffusés sur les réseaux, ont choqué l’opinion publique et profondément blessé la famille du militant.
La riposte de la famille King
King Inc., l’organisation qui gère les droits d’image et la propriété intellectuelle du Dr King, a exigé qu’OpenAI interdise toute représentation du militant dans Sora 2. Face à cette requête, la société a réagi rapidement : « Nous avons suspendu les générations d’images représentant le Dr King afin de renforcer les protections pour les personnages historiques », a annoncé OpenAI sur X (ex‑Twitter). Depuis, la plateforme a purgé la majorité des vidéos offensantes, bien que certaines aient pu être exportées ailleurs.
Un précédent éthique majeur
OpenAI justifie sa décision par un principe simple : « Les personnalités publiques et leurs familles devraient pouvoir contrôler l’usage de leur image. » Ce geste crée un précédent historique, ouvrant la voie à d’autres demandes similaires. Des descendants de célébrités, comme Zelda Rae Williams, fille de Robin Williams, ont déjà exprimé leur dégoût face à la résurrection numérique de leurs proches par des outils d’IA. « L’IA ne fait que recycler et régurgiter le passé pour qu’il soit consommé à nouveau », a‑t‑elle écrit.
Sora 2, moteur d’innovations et de polémiques
Présenté comme le successeur du générateur de vidéos Sora, Sora 2 permet de produire des séquences hyperréalistes à partir de simples textes. Mais cette puissance technique soulève des questions éthiques et juridiques considérables : exploitation d’images de personnes décédées, diffusion de fausses vidéos, et manipulation des symboles historiques. Plusieurs pays, dont le Japon, ont déjà dénoncé la dérive de l’outil, estimant qu’il « dévore la culture ».
Quel avenir pour la représentation numérique ?
Le cas Martin Luther King Jr. relance le débat sur les limites de l’IA dans la reconstitution de figures historiques. Entre liberté de création et respect de la mémoire, les entreprises d’intelligence artificielle sont désormais sommées d’établir des garde‑fous. OpenAI, en interdisant un usage, s’engage sur une voie nouvelle : celle de la responsabilité numérique et de la régulation culturelle.— Qu’est-ce que Sora 2 ?
Sora 2 est une intelligence artificielle développée par OpenAI, capable de générer des vidéos réalistes à partir de simples descriptions textuelles. Utilisée initialement à des fins créatives et éducatives, elle est rapidement devenue un terrain d’expérimentation controversé, où se mêlent art, satire et détournements problématiques. Les récents abus ont relancé le débat sur la responsabilité des plateformes face aux contenus générés.