
Meta in der Kritik: KI-Chatbot verbreitet Falschinformationen nach Trump-Attentat
Der KI-Chatbot von Meta hat nach dem versuchten Attentat auf den republikanischen Präsidentschaftskandidaten Donald Trump für erhebliche Kontroversen gesorgt. Die Ereignisse rund um den Vorfall und die Reaktionen des Chatbots haben den Technologiekonzern in Erklärungsnot gebracht.
Verwirrung und Kritik nach Chatbot-Aussagen
Die Bilder des versuchten Attentats auf Donald Trump bei einer Wahlkampfveranstaltung in Pennsylvania gingen um die Welt und sorgten für großes Aufsehen. Doch als Nutzer den KI-Chatbot von Meta zu dem Vorfall befragten, entstand Verwirrung. Zunächst bestritt der Chatbot den Angriff auf Trump, später behauptete er sogar, das Attentat habe nie stattgefunden.
Diese widersprüchlichen Aussagen führten zu heftiger Kritik, insbesondere von Trump-Unterstützern. In sozialen Medien wurden Screenshots von Unterhaltungen mit Meta AI geteilt, die die Weigerung des Chatbots, Fragen zum Attentat zu beantworten, dokumentierten.
Meta rechtfertigt sich: „Halluzinationen“ der KI
Meta erklärte in einem Blogeintrag, dass man den Chatbot zunächst absichtlich nicht über das Attentat habe sprechen lassen. Rund um schlagzeilenträchtige Ereignisse gebe es häufig widersprüchliche Angaben und unbegründete Spekulationen, so der Konzern. Doch auch nachdem der Chatbot mit Informationen über das Attentat gefüttert worden sei, habe er „in wenigen Fällen“ behauptet, es sei nicht passiert. Meta führte dies auf sogenannte „Halluzinationen“ der KI zurück.
„Halluzinationen“ sind ein bekanntes Problem bei KI-Softwares, bei dem Sprachmodelle falsche Informationen erfinden. Auch wenn sie mit korrekten Daten trainiert wurden, können Bots teils falsche Antworten liefern. Diese Problematik brachte Meta in erhebliche Erklärungsnot.
Fehlerhafte Faktenchecks und manipulative Bilder
Ein weiteres Problem trat auf, als ein Foto von Trump und seinen Leibwächtern unmittelbar nach dem Attentat fälschlicherweise mit einem Faktencheck-Label versehen wurde. Ursprünglich war eine manipulierte Version des Bildes markiert worden, in der ein Lächeln auf den Gesichtern der Bodyguards ergänzt wurde. Metas automatisierte Systeme konnten den Unterschied zwischen den Bildern jedoch nicht erkennen und fügten das Faktencheck-Label auch zum Originalfoto hinzu.
Trumps Reaktion: Vorwürfe der Wahlmanipulation
Donald Trump selbst äußerte sich auf seiner Plattform Truth Social über Meta AI. „Da haben wir es wieder, ein weiterer Versuch, die Wahl zu manipulieren!!!“, schrieb der 78-Jährige. Er forderte: „GO AFTER META AND GOOGLE.“ Auch Google musste sich gegen Behauptungen wehren, die Autovervollständigung habe Suchergebnisse über das versuchte Trump-Attentat zensiert. Der Konzern veröffentlichte auf X eine Richtigstellung.
Das Attentat ereignete sich am 13. Juli bei einem Wahlkampfauftritt. Ein Mann schoss auf Trump. Die Kugeln töteten einen Zuschauer und verwundeten zwei weitere Personen. Trump selbst wurde am Ohr getroffen.
Die Debatte um die Rolle von Künstlicher Intelligenz in der Verbreitung von Informationen und die damit verbundenen Risiken bleibt weiterhin brisant. Angesichts der bevorstehenden Wahlen in den USA wird der Druck auf Tech-Konzerne wie Meta und Google weiter zunehmen.

Exklusives Live-Webinar am 23.04.2025 • 19:00 Uhr Der größte Raubzug aller Zeiten Wie Du systematisch enteignet wirst Webinar mit 8 Top-Experten am
23.04.2025 • 19:00 Uhr
23.04.2025 • 19:00 Uhr
Exklusive Experten-Runde:

Peter Hahne

Kolja Barghoorn

Ralf Flierl

Dr. Marc Faber

Patrick Baab

Peter Boehringer

Ernst Wolff
Seien Sie dabei, wenn Dominik Kettner und seine hochkarätigen Gäste Peter Hahne, Kolja Barghoorn, Ralf Flierl, Dr. Marc Faber, Patrick Baab, Peter Boehringer und Ernst Wolff die wahren Hintergründe der systematischen Enteignung durch neue Steuern, den digitalen Euro und versteckte Abgaben enthüllen. Mit interaktiver Fragerunde und der Chance auf Gold im Wert von 15.000€!



Tausende bereits angemeldet
- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik