23/12 07:31

Attentat de Sydney lors de la fête juive d'Hanoukka : Grok, l'intelligence artificielle développée par Elon Musk, a diffusé de fausses informations sur Internet

Grok, l'intelligence artificielle (IA) développée par Elon Musk, a diffusé de fausses informations sur l'attentat de Sydney, en suggérant par exemple qu'une victime n'en était pas une ou en identifiant mal un témoin ayant désarmé l'un des assaillants, ont constaté mardi l'AFP et des experts.

Les assistants virtuels comme Grok, appelés "chatbots", fournissent en temps réel des réponses aux utilisateurs demandant des détails ou des éléments de contexte sur des informations et des images, les géants de la tech ayant par ailleurs largement réduit leurs effectifs dédiés à la vérification des faits.

Le dimanche 14 décembre, un père et son fils ont tiré sur une foule rassemblée sur la plage de Bondi pour la fête juive de Hanouka, faisant au moins 15 morts et 42 blessés. Cette attaque, qualifiée d'attentat "antisémite" et "terroriste" par les autorités australiennes, a suscité une avalanche d'informations et images en ligne, notamment sur X, où Grok est très utilisé. Le chatbot a mal identifié Ahmed al Ahmed, célébré en "héros" en Australie après une vidéo le montrant en train d'arracher le fusil d'un des auteurs de l'attentat.

L'homme, grièvement blessé, est toujours hospitalisé. Mais Grok affirme que ces images correspondaient à "une vieille vidéo virale montrant un homme grimpant à un palmier dans un parking", suggérant une "mise en scène". Quant à Ahmed al Ahmed, d'origine syrienne, Grok l'identifie comme un otage israélien détenu par le Hamas.

Interrogé sur une autre scène de l'attaque, Grok assure qu'il s'agit d'images de la tempête Alfred, qui a frappé l'est de l'Australie au début de l'année. Sur l'insistance d'un utilisateur, le chatbot a fait marche arrière et reconnu que les images provenaient de l'attaque. Contacté par l'AFP, le développeur de Grok, xAI, a répondu par un message automatique: "Les médias traditionnels mentent".

Après l'attaque de Sydney, des internautes ont diffusé une image de l'un des survivants, affirmant à tort qu'il s'agissait d'un "plastron", selon l'organisme de surveillance de la désinformation NewsGuard. Ce terme (en anglais "crisis actor") est utilisé par les complotistes pour mettre en doute l'authenticité de crimes de masse et des victimes qu'ils font.

Au sujet de la photo du survivant de Sydney, Grok parle d'une "mise en scène". Les experts estiment que l'IA peut être utile, pour géolocaliser des images par exemple, mais jugent pour l'heure impossible de remplacer les humains pour vérifier les faits et expliquer le contexte.

Ailleurs sur le web

Vos réactions

Portrait de Touché01
23/décembre/2025 - 09h16

Une autre fois j'ai demandé à grok des infos sur une conférence de presse, avec date, d'il y a 15 ans avec un actrice dans une tenue argentée très classe.

A ma surprise il m'a sorti des photos de cette conférence (photos que je ne demandais pas) avec l'actrice seule dans sa tenue argentée, donc il savait de quoi je parlais. Sauf qu'il m'a certifié qu'elle portait un pull rouge à col roulé et n'avait jamais porté de tenue argentée ... (on  se croirait dans le Jeu de rôles Paranoia avec l'ordi fou)

L'IA, est forte pour analyser des données économiques complexes, croiser les infos et les analyses, surtout Grok. Mais quand c'est super simple, super basique, là cela peut facilement partir complètement en vrille !

Portrait de Touché01
23/décembre/2025 - 08h45

Le lendemain du match de boxe du youtubeur contre un boxeur pro j'ai demandé à chatgpt des infos sur ce match. Pour chatgpt ce match n'a jamais existé. smiley

Les moteurs IA et l'actualité récente ... ce n'est pas totalement au point