OpenAI crée un comité de sécurité pour encadrer le développement de l'IA

OpenAI crée un comité de sécurité pour encadrer le développement de l'IA

OpenAI, la société à l'origine de ChatGPT, vient de franchir un pas significatif avec la création de son "Comité de Sécurité et de Sûreté". Cette initiative vise à rendre la gestion de l'intelligence artificielle plus responsable et cohérente sur le plan de la sécurité.

Dans la course effrénée vers l'Intelligence Générale Artificielle (AGI), OpenAI ne cache pas ses ambitions. Sam Altman, le PDG, membre du nouveau comité, est résolu à positionner son entreprise en tête de cette quête. L'AGI est perçue comme le niveau où l'IA atteindra une intelligence similaire à celle de l'humain, capable d'apprendre de manière autonome. Avec le lancement récent de GPT-4o, qui accepte et traite des entrées en texte, en audio, et en images, OpenAI a déjà posé les jalons de son prochain modèle, encore plus avancé.

Le GPT-4o, présenté au public le 13 mai, a été bien accueilli, bien que les débats autour de ses capacités réelles et des implications éthiques des technologies similaires aient pris de l'ampleur. Il y a peu, OpenAI a confirmé à Wired la dissolution de son équipe dédiée à la sécurité de ses modèles d'IA, ces responsabilités ayant été redistribuées au sein de l'entreprise. Cette décision fait suite aux départs de figures clés comme Ilya Sutskever, co-fondateur, et Jan Leike, co-responsable de l'équipe de sécurité. Leur départ serait lié à des inquiétudes concernant l'insuffisance des efforts d'OpenAI pour développer ses technologies de manière responsable.

Face à ces critiques, la formation du comité de surveillance par OpenAI semble être une réponse réfléchie. Dans leur communiqué, la société souligne son ouverture à un "débat robuste à ce moment crucial". La première mission du comité sera d'évaluer et d'améliorer les processus et protections d'OpenAI durant les 90 prochains jours, avant de présenter ses recommandations au conseil d'administration.

Que se passera-t-il après ces 90 jours ? Les recommandations, une fois approuvées, seront publiées publiquement d'une manière alignée avec les principes de sécurité et de sûreté.

Le comité est composé de Bret Taylor, président, Adam D’Angelo, PDG de Quora, et Nicole Seligman, ancienne cadre chez Sony Entertainment, ainsi que six employés d'OpenAI, y compris Sam Altman. OpenAI a également mentionné qu'elle consulterait des experts externes dans ce processus.

Je reste sceptique quant à la capacité d'OpenAI, ou de toute grande entreprise technologique, à prioriser la sécurité et l'éthique autant que la conquête de l'AGI. C'est regrettable que l'ambition de dominer le marché l'emporte souvent sur la considération des conséquences de leurs actions, qui peuvent affecter profondément de nombreuses personnes.

J'aimerais me tromper et voir un monde où toutes les entreprises technologiques mettent l'éthique et la sécurité au même niveau que l'innovation. Mais pour l'instant, dans le domaine de l'IA, la réalité semble bien différente, et sans conséquences réelles, il est peu probable que des entreprises comme OpenAI modifient substantiellement leur approche.

Source : Bloomberg

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.