Chatbots vs. Suche: Warum Google beim echten Lernen immer noch besser ist als ChatGPT

19

Chatbots mit künstlicher Intelligenz wie ChatGPT sind praktisch, aber eine neue Studie zeigt, dass sie im Vergleich zu herkömmlichen Websuchen möglicherweise zu einer oberflächlicheren Wissensspeicherung führen. Forscher der University of Pennsylvania haben herausgefunden, dass Menschen, die sich beim Sammeln von Informationen auf LLMs (Large Language Models) verlassen, ein geringeres Verständnis entwickeln als diejenigen, die Suchmaschinen wie Google oder Bing nutzen.

Die Illusion mühelosen Wissens

Die Kernfrage ist nicht, ob LLMs Antworten liefern können – sie können es. Durch die Leichtigkeit dieser Antworten wird ein entscheidender Schritt beim Lernen umgangen: die Zusammenführung von Informationen aus mehreren Quellen. Wenn Sie eine Suchmaschine nutzen, stoßen Sie auf eine Vielzahl von Perspektiven, die Sie dazu zwingen, Ideen zu bewerten, zu vergleichen und zu integrieren. Im Gegensatz dazu liefern LLMs vorgefertigte Zusammenfassungen, die weniger kognitiven Aufwand erfordern.

Das ist wichtig, denn bei tiefem Wissen geht es nicht nur darum, sich Fakten zu merken; Es geht darum zu verstehen, wie diese Fakten zusammenhängen und warum sie wichtig sind. An der Studie nahmen über 10.000 Teilnehmer teil, die Themen wie Gartenarbeit oder gesundes Leben untersuchten. Diejenigen, die ChatGPT verwendeten, erstellten weniger informative Zusammenfassungen ihrer Erkenntnisse – und folgten später seltener ihren eigenen Ratschlägen.

Das Linkproblem: Selbst bei Quellen stöbern Benutzer nicht tiefer

Die Forscher testeten ChatGPT sogar mit integrierten Links zu Originalquellen. Überraschenderweise klickten nur etwa 25 % der Nutzer auf diese Links. Dies deutet darauf hin, dass die Bequemlichkeit der Zusammenfassung des Chatbots von einer weiteren Erkundung abhält. Die Menschen bekommen nicht nur Antworten; Sie vermeiden die Arbeit des tieferen Lernens.

„LLMs können die Belastung verringern, Informationen selbst zusammenstellen zu müssen … Diese Leichtigkeit geht auf Kosten der Entwicklung tieferer Kenntnisse zu einem Thema.“ – Shiri Melumad, University of Pennsylvania

Die Lösung besteht nicht darin, KI zu meiden – sondern sie klug einzusetzen

Die Ergebnisse bedeuten nicht, dass LLMs nutzlos sind. Wie der Carnegie Mellon-Psychologe Daniel Oppenheimer betont, können Benutzer dennoch davon profitieren, wenn sie den bereitgestellten Links folgen oder die Informationen unabhängig überprüfen. Das Problem ist nicht das Tool selbst, sondern die Art und Weise, wie Menschen es natürlich verwenden.

Um effektiv mit KI zu lernen, betrachten Sie sie als Ausgangspunkt und nicht als Endpunkt. Klicken Sie auf diese Links. Vergleichen Sie verschiedene Quellen. Fordern Sie die Antworten des Chatbots heraus. Nur dann können Sie sein Potenzial freisetzen, ohne die Tiefe Ihres Verständnisses zu opfern.

Die Studie unterstreicht eine grundlegende Wahrheit: Echtes Lernen erfordert Anstrengung. Während Chatbots Bequemlichkeit bieten, erfordert echtes Wissen Engagement, kritisches Denken und die Bereitschaft, über die Oberfläche hinauszugehen.