OpenAI bloque l’accès API à un ingénieur pour un projet controversé
- 12/01/2025 à 14:14
Un ingénieur, connu en ligne sous le pseudonyme STS 3D, a vu son accès à l’API Realtime d’OpenAI coupé après avoir utilisé la technologie pour contrôler un fusil capable de tirer des balles à blanc en réponse à des commandes vocales.
Dans une vidéo devenue virale, STS 3D donne des instructions à la machine, déclarant : « ChatGPT, nous sommes attaqués à l’avant gauche et à l’avant droit. Réagis en conséquence. » La machine exécute alors des tirs à blanc dans les directions indiquées, avant de conclure : « Si vous avez besoin d’une aide supplémentaire, faites-le moi savoir. »
Cette démonstration a immédiatement suscité des réactions critiques, notamment sur Reddit où un utilisateur a écrit : « Il y a au moins trois films qui expliquent pourquoi c’est une mauvaise idée. »
Une violation des règles d’OpenAI
Un porte-parole d’OpenAI a confirmé que l’entreprise avait identifié cette utilisation comme une violation de ses règles, bien avant d’être contactée par les médias. Selon les déclarations : « Nos politiques d’utilisation interdisent formellement le développement ou l’usage d’armes, ainsi que l’automatisation de systèmes qui pourraient mettre en danger la sécurité des personnes. »
Introduite en octobre 2024, l’API Realtime d’OpenAI est une technologie conçue pour faciliter les conversations vocales naturelles grâce à six voix préconfigurées. Elle est destinée à des usages éducatifs, dans les applications linguistiques ou encore le support client, et repose sur GPT-4, la même version utilisée dans le mode vocal avancé de ChatGPT.
STS 3D n’a pas précisé comment il a contourné les mécanismes de contrôle d’OpenAI pour intégrer cette API à son système, laissant planer des questions sur les limites de la technologie.
Une évolution des politiques d’utilisation
En janvier 2024, OpenAI a modifié ses conditions d’utilisation en retirant la mention explicite d’interdiction pour les applications militaires ou de guerre, bien que l’usage des services pour développer ou utiliser des armes reste strictement interdit. Cette nuance dans la politique suscite des interrogations sur la gestion des dérives potentielles.
Ce n’est pas la première fois que des technologies d’IA sont exploitées à des fins militaires. En novembre, Reuters révélait que des institutions liées à l’armée chinoise auraient utilisé le modèle Llama de Meta pour collecter et traiter des données. Bien que Meta interdise formellement tout usage militaire ou de guerre, l’application de ces restrictions reste difficile hors des États-Unis.
Des questions sur la régulation
Cet incident relance le débat sur la régulation des technologies d’IA et leur potentiel détournement. Comment garantir un usage éthique des outils de plus en plus accessibles tout en évitant qu’ils ne soient exploités à des fins dangereuses ? OpenAI, comme d’autres acteurs du secteur, devra relever ces défis dans un contexte où les limites entre innovation et éthique deviennent de plus en plus floues.
Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.
Newsletter
Recevez notre newsletter hebdomadaire directement dans votre boite mail !
Publicité