Die Entscheidung von Elon Musks Plattform X, künftig KI-Chatbots Community Notes zur Faktenprüfung verfassen zu lassen, stößt auf Kritik. Damian Collins, ehemaliger britischer Technologieminister, warnt davor, dass dies zur Förderung von „Lügen und Verschwörungstheorien“ führen könnte.
Was X plant
Bisher wurden Community Notes von Menschen geschrieben, die unter strittigen Beiträgen als Faktencheck erscheinen. Nun sollen KI-Sprachmodelle diese Texte erstellen, bevor Nutzer sie freigeben.
- X sieht darin eine Verbesserung der Informationsqualität im Internet.
- Die KI soll „neutrale, gut belegte Zusammenfassungen“ liefern.
- Nutzer mit unterschiedlichen Ansichten sollen die Notizen bewerten und entscheiden, ob sie angezeigt werden.
Keith Coleman (X-Vizepräsident Produkt) betont, dass es ein Pilotprojekt sei: „KI hilft Menschen, Menschen entscheiden.“
Kritikpunkte
Collins sieht die Gefahr einer „industriellen Manipulation dessen, was Menschen sehen und glauben“ bei X mit seinen rund 600 Millionen Nutzern.
Auch Andy Dudfield (Full Fact) warnt, dass die Pläne die Belastung der menschlichen Prüfer erhöhen und dazu führen könnten, dass Notizen vollständig von KI erstellt, geprüft und veröffentlicht werden – ohne menschliche Sorgfalt.
Samuel Stockwell (Alan Turing Institute) betont, dass KI zwar helfen könne, die Menge an Falschbehauptungen zu bewältigen, jedoch „Halluzinationen“ und das selbstbewusste Verbreiten ungenauer Inhalte problematisch seien.
Vertrauen in menschliche Faktenchecks bleibt höher
Studien zeigen, dass Nutzer menschlich erstellten Community Notes mehr vertrauen als automatischen Warnhinweisen. Untersuchungen haben zudem ergeben, dass viele Falschinformationen auf X weiter große Reichweiten erzielen, da Community Notes oft nicht genügend Upvotes erhalten, um angezeigt zu werden.
Fazit
Die Einführung von KI-Faktencheckern auf X könnte zwar die Effizienz steigern, birgt jedoch das Risiko, Fehlinformationen unbeabsichtigt zu verstärken, wenn Schutzmechanismen fehlen. Die Diskussion verdeutlicht, dass Technologie zur Bekämpfung von Falschinformationen menschliche Aufsicht weiterhin benötigt, um Vertrauen und Qualität zu sichern.