Nvidia, Microsoft et OpenAI rejoignent le groupe de sécurité IA de Biden
- 09/02/2024 à 23:00
C'est officiel : plus de 200 boîtes et institutions, des géants de la tech aux universités américaines, se sont ralliées au Consortium pour la sécurité de l'IA lancé par l'administration Biden. L'objectif ? Prendre les devants sur la régulation de l'intelligence artificielle et s'assurer que les États-Unis restent les leaders du peloton.
Parmi les grands noms qui montent à bord, on retrouve Microsoft et Nvidia, a annoncé jeudi le Département du Commerce des États-Unis. Cette nouvelle équipe s'est formée suite à l'ordre exécutif de Biden en octobre dernier, qui appelait à une régulation de l'IA, et compte désormais plus de 200 membres, allant des universités américaines aux firmes tech et financières internationales.
Leur mission ? Développer des lignes directrices nationales sur tout un tas de sujets : des filigranes IA à la sécurité, en passant par la red teaming. La red teaming, c'est cette pratique où on se fait passer pour des adversaires potentiels, en engageant par exemple des hackers "éthiques", pour déceler les vulnérabilités d'une techno.
Gina Raimondo, la Secrétaire au Commerce des États-Unis, n'a pas manqué de souligner le potentiel immense de l'IA, tout en reconnaissant les risques. "On va s'assurer que l'Amérique reste en tête", a-t-elle affirmé. "Ensemble, on peut relever ces défis pour développer les mesures et les standards nécessaires pour maintenir notre avantage compétitif et développer l'IA de manière responsable."
Le consortium voit aussi la participation de poids lourds comme Adobe, Amazon, Apple, GitHub, Hewlett Packard, IBM, Linux, Meta, et Qualcomm. Des firmes IA telles que Anthropic et OpenAI font également partie du lot, d'après la liste du Département du Commerce.
Côté universités, MIT, Cornell, Princeton, Duke, Johns Hopkins, NYU, Georgia Tech, et USC sont de la partie.
Bruce Reed, adjoint au chef de cabinet de la Maison Blanche, a mis l'accent sur l'importance de l'unité dans cette démarche : "Pour rester au niveau de l'IA, il faut agir vite et s'assurer que tout le monde, du gouvernement au secteur privé en passant par le monde académique, rame dans la même direction." Grâce à l'ordre exécutif historique de Biden, le Consortium pour la sécurité de l'IA offre un forum crucial pour travailler ensemble à réaliser les promesses et gérer les risques de l'IA."
Certaines entreprises tech ont déjà commencé à marquer le contenu généré par l'IA de leur propre initiative. L'année dernière, Google et OpenAI ont annoncé qu'ils chercheraient des moyens de signaler le contenu généré par l'IA.
Cette semaine, Meta et OpenAI ont partagé leurs efforts pour étiqueter les images générées par IA. Bien que perfectibles, les étiquettes IA de Meta et les ajouts de métadonnées d'OpenAI sont des premiers pas vers plus de transparence autour du contenu généré par l'IA, alors que les deepfakes et l'art IA continuent de se propager en ligne.
Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.
Newsletter
Recevez notre newsletter hebdomadaire directement dans votre boite mail !
Publicité