Eine neue Studie der Columbia Journalism Review hat alarmierende Ergebnisse über die Genauigkeit von KI-gestützten Suchwerkzeugen veröffentlicht. Die Untersuchung ergab, dass mehr als 60 Prozent der Anfragen an verschiedene KI-Modelle falsche Antworten lieferten, was ernsthafte Bedenken hinsichtlich ihrer Zuverlässigkeit aufwirft.
Wichtige Erkenntnisse
- Über 60 % der Anfragen an KI-Tools führten zu falschen Antworten.
- Die Fehlerquote variierte stark zwischen den getesteten Plattformen.
- Premium-Versionen von KI-Tools schnitten in einigen Fällen schlechter ab als kostenlose Versionen.
- Viele KI-Modelle ignorierten die Robot Exclusion Protocol-Einstellungen von Verlagen.
Die Studie im Detail
Die Columbia Journalism Review testete acht KI-gestützte Suchwerkzeuge, indem sie diesen Auszüge aus Nachrichtenartikeln zur Verfügung stellte und sie aufforderte, die entsprechenden Überschriften, Originalverlage, Veröffentlichungsdaten und URLs zu identifizieren. Die Ergebnisse waren besorgniserregend:
- ChatGPT Search: 67 % der Anfragen waren falsch.
- Grok 3: 94 % der Anfragen führten zu falschen Antworten.
- Perplexity: 37 % der Anfragen waren inkorrekt.
Die Forscher bemerkten, dass die KI-Modelle häufig plausible, aber falsche Antworten gaben, anstatt zuzugeben, dass sie keine verlässlichen Informationen hatten. Diese Tendenz war bei allen getesteten Modellen zu beobachten.
Probleme mit Quellenangaben
Ein weiteres zentrales Ergebnis der Studie war, dass viele KI-Tools Schwierigkeiten hatten, korrekte Quellenangaben zu liefern. Oft wurden Links erfunden oder es wurde einfach keine Antwort gegeben, wenn nach einer Quelle gefragt wurde. Dies wirft Fragen zur Integrität der Informationen auf, die von diesen Tools bereitgestellt werden.
Die Rolle von KI in der Informationssuche
Die Studie zeigt, dass etwa 25 % der Amerikaner KI-Modelle als Alternativen zu traditionellen Suchmaschinen nutzen. Dies ist besonders besorgniserregend, da viele junge Menschen mit KI-Tools wie ChatGPT aufwachsen und diese als ihre Hauptquelle für Informationen verwenden. Die Gefahr besteht darin, dass sie sich auf diese Systeme verlassen, ohne die notwendigen kritischen Denkfähigkeiten zu entwickeln.
Fazit
Die Ergebnisse der Studie verdeutlichen die Notwendigkeit, vorsichtig mit den Informationen umzugehen, die von KI-gestützten Suchwerkzeugen bereitgestellt werden. Während diese Technologien das Potenzial haben, die Informationssuche zu revolutionieren, ist es entscheidend, dass Nutzer die Grenzen und Fehleranfälligkeiten dieser Systeme verstehen. KI sollte als Werkzeug zur Unterstützung des eigenen Wissens und nicht als Ersatz für fundierte Recherche und kritisches Denken betrachtet werden.