La start-up xAI a expliqué qu’une «modification non autorisée» de Grok l’avait conduit à fournir des réponses qui «violaient les politiques internes et les valeurs fondamentales de xAI»
L’IA d’Elon Musk a encore fait des siennes. Après avoir déjà créé récemment plusieurs polémiques, Grok, le robot conversationnel d’xAI, la start-up d’intelligence artificielle d’Elon Musk, a généré plusieurs publications faisant référence à un «génocide blanc» en Afrique du Sud. Une erreur imputée à une «modification non autorisée», selon l’entreprise.
Ainsi, selon des captures d’écran, à la question tout à fait innocente d’un utilisateur : «combien de fois HBO (un service de streaming) a-t-il changé de nom ?», Grok a fourni une courte réponse sur le sujet… avant de parler d’un «génocide blanc» et de citer une chanson anti-apartheid «Kill the Boer» («Tuez les Boers.»)
En réponse à un autre utilisateur lui demandant pourquoi il semblait obsédé par ce sujet, le robot conversationnel a répondu candidement que ses «créateurs chez xAI lui avaient ordonné de s’emparer du sujet du “génocide blanc”». Elon Musk, lui-même né en Afrique du Sud, a accusé par le passé les dirigeants du pays «d’encourager ouvertement le génocide de personnes blanches en Afrique du Sud.»
«Enquête approfondie»
Dans un communiqué, xAI a indiqué qu’une «modification non autorisée» de Grok l’avait conduit à fournir des réponses qui «violaient les politiques internes et les valeurs fondamentales de xAI.»
À la suite de cet épisode, l’entreprise a mené une «enquête approfondie» et a notamment mis en place une «équipe de surveillance 24 heures sur 24, sept jours sur sept» pour faire face à de futurs incidents.
Après les réactions brutales provoquées par ses messages, Grok a commencé à effacer ses réponses inadéquates. Et quand un utilisateur l’a interrogé sur ces suppressions, le robot a répondu : «il n’est pas clair pourquoi des réponses sont effacées sans fournir de détails particuliers, mais les politiques de modération de X jouent vraisemblablement un rôle.» «Le sujet “du génocide des blancs en Afrique du Sud” est sensible, et souvent pollué par de la désinformation ou des discours de haine, ce qui viole les règles de cette plateforme», a-t-il ajouté.
Ce faux pas digital illustre la difficulté à modérer les réponses des robots conversationnels, une technologie qui évolue rapidement dans un environnement miné par la désinformation. Les experts appellent d’ailleurs à davantage de régulation. «Les réponses étranges et sans rapport avec les questions de Grok nous rappellent que les robots conversationnels sont encore une technologie naissante et ne constituent pas toujours une source d’information fiable», note le site spécialisé Tech Crunch. «Ces derniers mois, les fournisseurs de modèles d’IA ont eu du mal à modérer les réponses de leurs robots, ce qui a donné lieu à des comportements étranges», ajoute le site.
Avec AFP





Afrique du Sud





