Für alle Fragen rund um unsere Webseite, unsere Medien und Abonnements finden Sie hier den passenden Ansprechpartner:
Übersicht AnsprechpartnerIn einer Welt, in der die Verbreitung von Fake News schon so manchen Skandal ausgelöst hat, wird es gerade für Wissensarbeiterinnen und -arbeiter immer wichtiger, seriöse Inhalte von falschen oder fehlerhaften zu unterscheiden. Der zunehmende Einsatz von Tools mit generativer Künstlicher Intelligenz wie ChatGPT und Google Bard macht das nicht einfacher, wie eine aktuelle Studie der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz (JGU) zeigt. Dabei ging es um die Frage, wie die mehr als 600 englischsprachigen Studienteilnehmenden die Glaubwürdigkeit von KI-generierten Inhalten und von Menschen erstellten Inhalten auf verschiedenen Plattformen einschätzten.
Das Ergebnis: KI-generierte und von Menschen erstellte Inhalte wurden als ähnlich glaubwürdig beurteilt. Doch die Studie offenbarte noch mehr, so Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie: „Noch faszinierender ist, dass die Teilnehmer KI-generierten Inhalten eine höhere Klarheit und Anziehungskraft zusprachen, obwohl es keine signifikanten Unterschiede in Bezug auf die wahrgenommene Nachrichtenkompetenz und Vertrauenswürdigkeit gab – und das, obwohl KI-generierte Inhalte nach wie vor ein hohes Risiko für Fehler, Missverständnisse und halluzinatorisches Verhalten aufweisen.“
Die Studie kann unter msmagazin.info/AICredibilty heruntergeladen werden.
Beitrag von Nathalie Langen aus managerSeminare 313, April 2024