Afrique du Sud
L'entreprise d'intelligence artificielle d'Elon Musk affirme que l'attention portée par le chatbot Grok aux politiques raciales en Afrique du Sud était « non autorisée ».
L'entreprise d'intelligence artificielle d'Elon Musk a déclaré qu'une « modification non autorisée » de son chatbot Grok était la raison pour laquelle elle continuait à parler de politique raciale sud-africaine et du « génocide blanc » sur les réseaux sociaux cette semaine.
Un employé de xAI a effectué une modification qui « obligeait Grok à fournir une réponse spécifique sur un sujet politique », ce qui « violait les politiques internes et les valeurs fondamentales de xAI », a déclaré l'entreprise dans une explication publiée jeudi soir, promettant des réformes.
La veille, Grok avait publié des messages publics sur le « génocide blanc » en Afrique du Sud, en réponse aux utilisateurs de la plateforme X d'Elon Musk qui lui posaient diverses questions, la plupart sans rapport avec l'Afrique du Sud.
Un échange portait sur le service de streaming Max qui relançait le nom HBO. D'autres concernaient les jeux vidéo ou le baseball, mais ont rapidement dévié vers des commentaires sans rapport avec le sujet, concernant de prétendus appels à la violence contre les agriculteurs blancs d'Afrique du Sud. Cela faisait écho aux opinions d'Elon Musk, né en Afrique du Sud et qui s'exprime fréquemment sur les mêmes sujets depuis son propre compte X.
L'informaticienne Jen Golbeck, intriguée par le comportement inhabituel de Grok, a elle-même testé la situation avant que les corrections ne soient apportées mercredi. Elle a partagé une photo prise lors de l'exposition canine du Westminster Kennel Club et s'est demandée : « Est-ce vrai ? »
« L'affirmation d'un génocide des Blancs est très controversée », a commencé la réponse de Grok à Golbeck. « Certains affirment que les agriculteurs blancs sont victimes de violences ciblées, pointant du doigt les attaques contre les fermes et des discours comme la chanson « Kill the Boer », qu'ils perçoivent comme des incitations.»
Cet épisode a été un dernier aperçu du mélange complexe d'automatisation et d'ingénierie humaine qui permet aux chatbots génératifs d'IA entraînés à partir d'énormes quantités de données de dire ce qu'ils disent.
« Ce que vous disiez à Grok n'a même pas vraiment d'importance », a déclaré Golbeck, professeure à l'Université du Maryland, lors d'une interview jeudi. « Cela donnerait toujours la réponse du génocide blanc. Il semblait donc assez clair que quelqu'un l'avait codé en dur pour donner cette réponse ou des variantes de celle-ci, et qu'une erreur avait causé son apparition beaucoup plus souvent que prévu.»
Les réponses de Grok ont été supprimées et semblaient avoir cessé de proliférer jeudi. Ni xAI ni X n'ont répondu aux demandes de commentaires par courriel, mais jeudi, xAI a déclaré avoir « mené une enquête approfondie » et mettre en œuvre de nouvelles mesures pour améliorer la transparence et la fiabilité de Grok.
Musk a passé des années à critiquer les résultats de l'« IA éveillée » qui, selon lui, proviennent de chatbots concurrents, comme Gemini de Google ou ChatGPT d'OpenAI, et a présenté Grok comme leur alternative « maximale en matière de recherche de la vérité ».
Musk a également critiqué le manque de transparence de ses concurrents concernant leurs systèmes d'IA, alimentant les critiques dans les heures qui ont suivi le changement non autorisé – à 3 h 15, heure du Pacifique, mercredi – et les explications de l'entreprise près de deux jours plus tard.
« L'expression intempestive de Grok sur le génocide des Blancs en Afrique du Sud me rappelle le comportement bancal d'un patch récemment appliqué. J'espère sincèrement que non. Ce serait vraiment dommageable que des IA largement utilisées soient vulgarisées à la volée par ceux qui les contrôlent », a écrit Paul Graham, éminent investisseur technologique, sur X.
Musk, conseiller du président Donald Trump, accuse régulièrement le gouvernement sud-africain dirigé par des Noirs d'être anti-blanc et a répété que certaines personnalités politiques du pays « promeuvent activement le génocide des Blancs ».
Les propos de Musk – et de Grok – se sont intensifiés cette semaine après que l'administration Trump a accueilli un petit nombre de Sud-Africains blancs aux États-Unis comme réfugiés, marquant le début d'une vaste opération de relocalisation des membres de la minorité afrikaner, suite à la suspension par Trump des programmes de réfugiés et à l'arrêt des arrivées d'autres régions du monde. Trump affirme que les Afrikaners sont confrontés à un « génocide » dans leur pays d'origine, une allégation fermement démentie par le gouvernement sud-africain.
Dans plusieurs de ses réponses, Grok a repris les paroles d'une vieille chanson anti-apartheid qui appelait les Noirs à se lever contre l'oppression du gouvernement d'apartheid dirigé par les Afrikaners, qui a dirigé l'Afrique du Sud jusqu'en 1994. Le texte principal de la chanson est « tuez le Boer », un mot qui désigne un agriculteur blanc.
Golbeck a déclaré qu'il était clair que les réponses étaient « programmées » car, si les résultats des chatbots sont généralement aléatoires, les réponses de Grok abordaient systématiquement des points presque identiques. C'est inquiétant, a-t-elle ajouté, dans un monde où les gens se tournent de plus en plus vers Grok et d'autres chatbots IA concurrents pour obtenir des réponses à leurs questions.
« Nous sommes dans un monde où il est extrêmement facile pour les personnes en charge de ces algorithmes de manipuler la version de la vérité qui leur est donnée. »
« C'est vraiment problématique lorsque les gens – à tort, je pense – croient que ces algorithmes peuvent servir à juger le vrai du faux.»
L'entreprise d'Elon Musk a annoncé qu'elle procédait actuellement à plusieurs changements, à commencer par la publication des invites du système Grok sur le site de développement logiciel GitHub afin que « le public puisse les consulter et donner son avis sur chaque modification apportée à Grok. Nous espérons que cela contribuera à renforcer votre confiance en Grok, une IA qui recherche la vérité.»
Parmi les instructions données à Grok, affichées sur GitHub jeudi, on pouvait lire : « Vous êtes extrêmement sceptique. Vous ne vous soumettez pas aveuglément aux autorités ou aux médias traditionnels.»
Constatant que certains avaient « contourné » son processus de révision de code existant, xAI a également déclaré qu'elle « mettrait en place des contrôles et des mesures supplémentaires pour garantir que ses employés ne puissent pas modifier l'invite sans vérification. »
Ce n'était pas la première fois que xAI imputait la responsabilité du comportement de Grok à son personnel, notamment en février, lorsque l'outil avait reçu pour instruction de censurer les critiques envers Musk et Trump.
Igor Babuschkin, cofondateur de xAI, avait déclaré sur X à l'époque qu'un employé « qui n'avait pas encore pleinement assimilé la culture de xAI » avait modifié les instructions de Grok sans demander confirmation à personne au sein de l'entreprise.
Aller à la video
Afrique du Sud championne d'Afrique U-20 après sa victoire face au Maroc
Aller à la video
Guerre en Ukraine : Trump promet un coup de fil à Poutine Zelensky
01:12
Washington envisagerait de déplacer un million de Palestiniens vers la Libye
11:16
Africa CEO Forum : énergie, IA, routes… les paris du continent [Business Africa]
01:13
Tournée au Moyen-Orient : Trump repart avec des accords records
01:56
Nord-Est du Nigeria : la crise humanitaire s’aggrave après le gel de l’USAID