Départ tumultueux à OpenAI : la sécurité reléguée au second plan ?

Départ tumultueux à OpenAI : la sécurité reléguée au second plan ?

Ça bouge chez OpenAI ! L'équipe dédiée à la "Superalignement", en charge de maîtriser les IA puissantes de demain, vient de fermer ses portes. Moins d'un an après sa création en été 2023, l'initiative a été stoppée net.

Selon Bloomberg, OpenAI explique vouloir intégrer cette équipe de manière plus profonde dans ses efforts de recherche pour mieux atteindre ses objectifs de sécurité. Mais les tweets de Jan Leike, ancien chef de l'équipe qui a claqué la porte, racontent une autre histoire : des tensions internes et une lutte pour les ressources.

Jan a balancé pas mal de choses sur X vendredi dernier. Selon lui, construire des machines plus intelligentes que l'humain est un jeu dangereux, et OpenAI a une responsabilité énorme sur les épaules. Mais il semble que les beaux produits passent avant la culture de la sécurité. Pour couronner le tout, l'annonce du départ de Jan est tombée juste après celle de Sutskevar, co-fondateur et figure clé de l'équipe, qui a quitté le navire six mois après une révolte interne liée au bref renvoi du PDG Sam Altman.

Quand OpenAI a lancé l'équipe de Superalignment, l'entreprise avait promis d'allouer 20% de sa puissance informatique à ce projet crucial pour contrôler les futurs systèmes d'IA. Mais apparemment, obtenir les ressources nécessaires devenait de plus en plus compliqué, d'après Jan. Son équipe luttait contre vents et marées, et les désaccords sur les priorités de l'entreprise l'ont poussé à bout.

Et ce n'est pas tout. D'autres ont aussi quitté l'équipe ces derniers mois. En avril, deux chercheurs auraient été virés pour fuite d'informations.

Pour l'avenir, John Schulman, autre co-fondateur, prendra la tête des efforts de sécurité, avec Jakub Pachocki, qui a piloté le développement de GPT-4, en tant que nouveau scientifique en chef.

OpenAI ne chôme pas pour autant : une nouvelle équipe de "préparation" a vu le jour en octobre pour anticiper les risques catastrophiques liés aux systèmes IA, incluant des menaces cybernétiques et autres dangers nucléaires, biologiques et chimiques.

Pour l'instant, OpenAI se tait sur les allégations de Jan, mais un porte-parole a indiqué qu'Altman s'exprimerait dans les jours à venir.

Source : Bloomberg

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.