Für alle Fragen rund um unsere Webseite, unsere Medien und Abonnements finden Sie hier den passenden Ansprechpartner:
Übersicht AnsprechpartnerBeitrag von Henning Beck aus managerSeminare 316, Juli 2024
Als ich neulich in meinem Keller aufräumte, kramte ich durch eine Box mit meinen früheren Radsachen: alte Rennradhelme in der Größe von Wassermelonen, zerdrückte Trinkflaschen, Trikots voller Werbebanner – und lauter zerfaserte Landkarten. Potz Donner, dachte ich mir, früher bist du noch mit einer echten Papierkarte losgefahren und musstest noch dein Gehirn anschalten, um zu wissen, wo du bist. Heute hat das Navigationssystem diese Tätigkeit vollständig übernommen – und Menschen vertrauen diesen Geräten zu hundert Prozent. So sehr, dass sie stumpfsinnig ihrem Navi hinterherfahren. Das funktioniert, solange man das Ziel korrekt eingeben hat.
Dieses Beispiel illustriert einen unterschätzten psychologischen Effekt unserer technischen Gegenwart: den Overtrust-Effekt. Das Phänomen, dass Menschen einem technischen System „übervertrauen“. Menschen haben Unbehagen, in einem selbstfahrenden Auto zu sitzen? Das Gegenteil ist der Fall: Selbst unausgereiften selbstfahrenden Autos schreiben Menschen mehr Fähigkeiten zu, als sie dürften, schlafen am Steuer ein oder lesen Zeitung. Ähnliches kennt man von Robotern, die Menschen den richtigen Weg zeigen sollen. Selbst wenn sie offenkundig in die falsche Richtung weisen, folgen Menschen dieser Anweisung – und laufen sehenden Auges in Sackgassen. Der Grund: Menschen glauben, dass technische Systeme ausgereift sind. Jemand wird sich schon etwas dabei gedacht haben, sonst wären diese Dinger ja nicht zugelassen. Doch so verlernen wir das kritische Denken und Nachfragen.
Besonders gefährlich wird diese Denkvereinfachung bei digitalen „Wissens-Systemen“ wie Chatbots oder KI-Agenten. Sie kommen unfassbar eloquent daher und versprühen ein rhetorisches Selbstbewusstsein, dass wir sonst nur von Experten kennen. Folglich schreiben wir solchen Systemen Fähigkeiten zu, die sie gar nicht besitzen – oder fallen blauäugig auf falsche Aussagen herein. Gerade im Wissenserwerb kommt es jedoch darauf an, Dinge zu hinterfragen und nicht sofort für bare Münze zu nehmen. Gute Bildung schult genau diese Fähigkeit, nicht vorschnell jeder Quelle zu vertrauen, sondern (selbst-)kritisch zu bleiben.
Die Geschichte menschlicher Technologie ist eine andauernde Geschichte von Denkvereinfachungen. Menschen nehmen solche Vereinfachungen dankbar an – und setzen oftmals noch einen obendrauf, wie der Overtrust-Effekt zeigt. Aus dieser „selbstverschuldeten Unmündigkeit“ kann man jedoch ausbrechen. In Weiterbildungsformaten sollte KI beispielsweise nicht als Wissensquelle eingesetzt werden. Wer einen Chatbot nach einer Information fragt, wird eine Antwort bekommen. So erzieht man Menschen jedoch zur Passivität. Man konsumiert den Output, den ein Computersystem liefert.
Man könnte KI aber auch einsetzen, um beim Denken zu assistieren. Im Bildungsbetrieb gibt es wunderbare Beispiele dafür, wie ein KI-Chatbot die Rolle eines fiktiven Gesprächspartners einnehmen kann. So kann Geschichtsunterricht lebendig werden, wenn man sich mit einem (virtuellen) Ruhrgebiets-Bergarbeiter vor 150 Jahren unterhält. KI könnte auch unendlich viele Testfragen erstellen und mir dadurch helfen, mich auf einen Prüfungsstoff vorzubereiten. Oder ich fordere sie auf, mir Aufgaben zu stellen, die ich bearbeiten oder interpretieren soll. Der Trick ist, den Spieß umzudrehen: KI soll mir Fragen liefern, keine Antworten. So hilft sie mir, besser (und nicht weniger) zu denken.
Meine Landkarten habe ich übrigens aufgehoben. Sie sind schließlich das einzige Druckerzeugnis, das man jedes Mal „in einer neuen Richtung“ liest. Mich macht das kreativ.
Sie möchten regelmäßig Beiträge des Magazins lesen?
Für bereits 10 EUR können Sie die Mitgliedschaft von managerSeminare einen Monat lang ausführlich testen und von vielen weiteren Vorteilen profitieren.