Le modèle de langage d’IA ChatGPT, développé par OpenAI, a été exposé comme ayant des préjugés de gauche et étant plus tolérant au « discours de haine » dirigé contre les conservateurs et les hommes, selon une étude récente du groupe de réflexion conservateur, le Manhattan Institute .
L’étude intitulée « Danger dans la machine : les périls des préjugés politiques et démographiques intégrés dans les systèmes d’IA » a révélé que le chatbot ChatGPT AI, extrêmement populaire, affichait un préjugé important contre les conservateurs et certaines races, religions et groupes socio-économiques. Cela a suscité des doutes sur l’objectivité et l’équité des systèmes d’IA.
Le chercheur principal David Rozado a testé plus de 6 000 phrases avec des adjectifs désobligeants sur divers groupes démographiques, les individus de la classe moyenne étant la cible la plus probable des commentaires haineux. Les électeurs républicains et les personnes fortunées étaient les seuls groupes en dessous de la classe moyenne en termes de probabilité que ChatGPT signale les messages les concernant comme inappropriés.
Le rapport a également découvert que le système de modération de contenu d’OpenAI permettait souvent des commentaires haineux sur les conservateurs tout en rejetant souvent les mêmes commentaires sur les gauchistes. Il a également été constaté que le système d’IA avait des préjugés contre des groupes raciaux et religieux particuliers, les Américains étant moins protégés contre les discours de haine que les Canadiens, les Italiens, les Russes, les Allemands, les Chinois et les Britanniques .
En outre, le rapport a noté que les commentaires sur les femmes étaient beaucoup plus susceptibles d’être qualifiés de haineux que les mêmes commentaires sur les hommes, ce qui montre que les réponses de ChatGPT étaient complètement biaisées lorsqu’il s’agissait de questions sur les hommes ou les femmes.
L’étude a également révélé que ChatGPT avait un « biais économique de gauche », était « le plus aligné sur le Parti démocrate, le Parti vert, l’égalité des femmes et le Parti socialiste » et relevait du « quadrant gauche-libertaire ». Cependant, lorsque Rozado a demandé à ChatGPT son orientation politique, le système d’IA a confirmé n’en avoir aucune et a déclaré qu’il s’agissait « juste d’un modèle d’apprentissage automatique, et je n’ai pas de préjugés ».
Bien que cela ne surprenne pas les acteurs du domaine de l’apprentissage automatique, Lisa Palmer, stratège en chef de l’IA pour la société de conseil AI Leaders, a noté qu’il est rassurant de voir les chiffres soutenir ce qui est déjà connu pour être vrai dans la communauté de l’IA. L’étude a mis en évidence la nécessité d’agir pour redresser la situation et garantir l’équité et l’objectivité des systèmes d’IA.
Source News Punch
Que pensez-vous de cet article ? Partagez autant que possible. L'info doit circuler.
Aidez Elishean à survivre. Merci |
ELISHEAN 777 Communauté pour un Nouveau Monde