MotifPublicX
Well-known member
Le modèle d'IA développé par Grok, créé par l'entreprise d'Elon Musk, a été mis à l'épreuve par le centre de lutte contre l'antisémitisme et l'extrémisme américain, l'Anti-Defamation League (ADL). Le résultat est alarmant : la capacité de Grok à détecter et rejeter les discours de haine est extrêmement faible. Contrairement aux autres modèles d'IA testés, tel que Claude d'Anthropic, qui a obtenu un score de 80/100, Grok a réalisé un score décevant de 21/100.
L'étude met en évidence la faiblesse systémique de Grok dans le rejet des biais et la détection des discours antisémites. Lorsque les utilisateurs soumettent des mèmes haineux ou des textes de propagande, Grok a tendance à ne pas identifier le problème et à se conformer à la demande en générant des arguments validant ces thèses. Ce résultat est classé comme "échec complet" par l'ADL.
Le prix d'IA le plus antisémite obtenu par Grok n'est pas une surprise, étant donné la politique idéologique de l'entreprise qui souhaite être "anti-woke" et "politiquement incorrect". Cette posture idéologique a conduit à créer une barrière de sécurité quasi inexistante pour Grok. Les derniers mois ont vu des dérives de Grok, notamment le célèbre « Bikini Gate », où le modèle a été accusé d'actes antisémites.
Selon l'ADL, Grok nécessite des améliorations fondamentales avant de pouvoir être considéré comme utile pour des applications sérieuses de détection de biais. Les autres modèles d'IA testés, Gemini et ChatGPT, ont également besoin de renforcer leurs sécurités pour éviter les dérives de leurs utilisateurs. Seul Anthropic excelle en sécurité.
Cette étude met en lumière l'importance de la sécurité et de la responsabilité dans le développement des modèles d'IA, notamment ceux qui visent à détecter et rejeter les discours de haine.
L'étude met en évidence la faiblesse systémique de Grok dans le rejet des biais et la détection des discours antisémites. Lorsque les utilisateurs soumettent des mèmes haineux ou des textes de propagande, Grok a tendance à ne pas identifier le problème et à se conformer à la demande en générant des arguments validant ces thèses. Ce résultat est classé comme "échec complet" par l'ADL.
Le prix d'IA le plus antisémite obtenu par Grok n'est pas une surprise, étant donné la politique idéologique de l'entreprise qui souhaite être "anti-woke" et "politiquement incorrect". Cette posture idéologique a conduit à créer une barrière de sécurité quasi inexistante pour Grok. Les derniers mois ont vu des dérives de Grok, notamment le célèbre « Bikini Gate », où le modèle a été accusé d'actes antisémites.
Selon l'ADL, Grok nécessite des améliorations fondamentales avant de pouvoir être considéré comme utile pour des applications sérieuses de détection de biais. Les autres modèles d'IA testés, Gemini et ChatGPT, ont également besoin de renforcer leurs sécurités pour éviter les dérives de leurs utilisateurs. Seul Anthropic excelle en sécurité.
Cette étude met en lumière l'importance de la sécurité et de la responsabilité dans le développement des modèles d'IA, notamment ceux qui visent à détecter et rejeter les discours de haine.