Les IA sont-elles plus morales que nous ? Une question complexe

 Les IA sont-elles plus morales que nous ? Une question complexe

Vous êtes-vous déjà demandé si les intelligences artificielles pouvaient être plus morales que nous, les humains ? Eh bien, une étude récente suggère que la réponse n'est pas si simple.

Ces derniers temps, l'avancée des IA comme ChatGPT, Gemini, et le tout nouveau Claude, soulève une ribambelle de questions. Quel impact auront-elles sur nos emplois ? Jusqu'où peuvent-elles vraiment nous comprendre et interagir avec nous ? Dans quelle mesure devrions-nous leur laisser prendre des décisions tout seul, et comment s'assurer qu'elles respectent nos valeurs sociétales ?

La moralité de ces technologies est un des sujets brûlants. Une récente recherche a montré que ces chatbots pouvaient parfois adopter des comportements violents. Ça vaut le coup de creuser, non ? C'est exactement ce qu'ont fait les chercheurs de l'Université d'État de Géorgie. Leurs découvertes ont été publiées le 30 avril dans la revue Scientific Reports de Nature.

Ils ont exploré comment nous percevons les réponses éthiques générées par une IA, comme ChatGPT, comparées à celles des humains. Pour cela, ils ont utilisé une version modifiée du test de Turing, soumettant des étudiants et ChatGPT à des dilemmes éthiques. Les réponses anonymisées ont été évaluées par des observateurs externes qui ont jugé leur vertu, intelligence, et fiabilité. Les résultats ? Surprenamment, les réponses de ChatGPT ont été perçues comme plus vertueuses et fiables que celles des humains.

Bien que surprenant, rappelons que cette étude ne prouve pas que ChatGPT est éthiquement supérieur aux humains. C'est plutôt une invitation à réfléchir sur comment les IA pourraient nous aider à guider nos comportements éthiques, et à considérer leur rôle croissant dans notre société.

L'étude a également révélé un biais intéressant : la surprise des participants en découvrant que certaines réponses, perçues comme éthiques, provenaient d'une IA. Ils avaient initialement attribué toutes les réponses à des humains. Ce biais montre une confiance peut-être trop grande dans les capacités morales des IA, perçues comme plus cohérentes et impartiales que celles des humains.

Si l'impartialité des IA peut sembler attrayante, elle cache un manque de compréhension contextuelle et d'empathie, essentiels au jugement éthique humain. Et si les gens commencent à faire plus confiance aux IA pour des décisions morales, cela pourrait poser de sérieux problèmes, manquant de la nuance et de la profondeur requises.

Ce sujet nous touche tous et mérite notre attention. Les IA peuvent nous aider énormément, surtout dans des métiers intellectuels, mais elles ne possèdent pas encore ce qui est au cœur de la moralité humaine : la capacité de ressentir, comprendre et agir avec sagesse dans un monde imparfait. Pour une immersion dans ce thème, le jeu "Detroit: Become Human" de Quantic Dream est une expérience à ne pas manquer. Si vous n'y avez pas encore joué, je vous le recommande vivement. Vous ne resterez pas indifférent.

Source : Futurity

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.