Pro von Katrin von Bechtolsheim
Natürlich ist die Büchse der Pandora geöffnet. Niemals werden wir hier jemals wieder irgendetwas davon aus irgendeinem Bereich unseres Lebens heraushalten können. Aber wir können und müssen Standards entwickeln, wie wir mit Künstlicher Intelligenz (KI) umgehen und ihre Vorteile nutzen.
KI wird technisch und inhaltlich bereits von vielen Medien genutzt, denn sie ist effizient. KI wird rasant schlauer. Die große Aufregung um Fake-News in Wort und Bild der KI ist übertrieben. Wir nutzen zum Beispiel seit Jahrzehnten Symbolfotos um zum Beispiel zeitlose Themen zu bebildern, alles gestellt. Und KI-Anwendungen sind immer auch ein Spiegel der Gesellschaft, sie sind niemals neutral, da sie mit unseren Daten gefüttert werden. KI, das sind auch wir.
Zugegebenermaßen fehlt uns die Offenheit für Technik. Wir müssen neugierig bleiben, wenn wir nicht abgehängt werden wollen. Welche nennenswerten kommerziellen KI-Produkte hat Europa entwickelt? Bisher keine. USA und China dominieren hier den Markt.
Wir sollten uns jetzt überlegen, wie wir KI effizient nutzen, um den Ressourcenverbrauch zu reduzieren. Übrigens, noch so ein Aufreger, der übertrieben ist. Social Media verbraucht auch viel Energie und darüber regt sich seit Jahren keiner auf, aber bestimmt längst nicht so viel, wie bei Recherchen in ChatGPT und anderen Tools.
Welche Aufgaben liegen nun vor uns? Bislang gibt es für den journalistischen Missbrauch durch KI noch keine einheitliche Regelung für Strafen, niemand weiß, wie wir es kontrollieren sollen und ab welcher Schwelle man KI kenntlich machen muss. All diese Fragen müssen wir jetzt beantworten. Wir brauchen in den Medienhäusern Guidelines, auch für eine transparente Nutzung und Kennzeichnung. Wie stellen wir sicher, dass KI nicht politisch beeinflusst? Welche Daten, mit denen generative AI (Artificial Intelligence) trainiert wird, werden verwendet? Das ist derzeit noch völlig unklar. Das Urheberrecht muss beachtet werden, der Datenschutz, schädliche Inhalte dürfen nicht vorkommen, keine sensiblen Informationen dürfen verbreitet werden.
Es sollten keine Stereotypen genutzt werden, wie beispielsweise der Foto-Prompt einer glücklichen Familie, woraufhin KI ein Bild vorschlägt, das Vater, Mutter, Kind zeigt, alle weiß. KI-Bilder dürfen nur Symbolbilder sein, keine emotionalen Themen. Die Trainingsdaten müssen ausgewählt werden, damit KI zum Beispiel keine Vorurteile reproduziert oder Schlimmeres. Chatbots müssen lernen, Fragen abzulehnen, die sie nicht beantworten können, statt sich Antworten zusammen zu halluzinieren, die eloquent klingen, aber kompletter Unsinn sind.
Ist es denn für die Leserin zum Beispiel nicht auch ein Gewinn, wenn sie ein mit KI produziertes Interview mit einem Politiker oder Prominenten hören kann? Sie hört das Lachen, das Zögern, die Persönlichkeit wird greifbar. Wenn nur das verwendet wird, was auch gesagt wurde, und ihm oder ihr nichts in den Mund gelegt wird, dann kann es gut werden.
Natürlich muss man die Anwendung der KI kenntlich machen - und zwar nicht nur einmal, sondern mehrmals, damit es nicht übersehen wird. Der letzte Check liegt immer beim Menschen, wir kontrollieren die Nachrichten. Schließen wir besser nicht die Augen, wenn die Zukunft vor uns liegt.
Contra von "Perplexity"
KI verspricht Effizienz, doch um welchen Preis? Journalismus lebt von kritischer Reflexion, ethischer Verantwortung und menschlichem Gespür – Eigenschaften, die eine Maschine nicht besitzt. KI-Modelle analysieren Daten, erkennen Muster und spucken gut formulierte Texte aus. Doch sie verstehen nicht, was sie schreiben. Sie hinterfragen nicht, ob eine Quelle manipulativ ist, ob ein Zitat aus dem Zusammenhang gerissen wurde oder welche gesellschaftlichen Konsequenzen ein Artikel haben könnte.
Ein weiterer Punkt: KI verstärkt bestehende Vorurteile. Sie lernt aus vorhandenen Texten – und übernimmt dabei unbemerkt Stereotype und Biases.(Anmerkung der Red: Bias bezieht sich auf das Auftreten voreingenommener Ergebnisse aufgrund menschlicher Vorurteile, die die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren – was zu verzerrten Ergebnissen führt). Ein KI-generierter Bericht über Kriminalität könnte rassistische Klischees bedienen, ohne dass jemand es sofort merkt. Solche Verzerrungen gefährden die journalistische Objektivität.
Auch die Verantwortung ist ein Problem: Wer haftet, wenn eine KI falsche oder irreführende Informationen verbreitet? Kann eine Redaktion sich einfach auf fehlerhafte Algorithmen berufen? Journalistinnen und Journalisten stehen für ihre Arbeit ein, korrigieren Fehler und tragen Verantwortung. KI hingegen bleibt eine Blackbox.
Zudem könnte der verstärkte Einsatz von KI journalistische Jobs bedrohen. Wenn Redaktionen Kosten sparen wollen, könnten sie weniger in investigative Recherchen investieren – und stattdessen auf KI-generierte Massenartikel setzen. Die Folge? Viel Inhalt, wenig Substanz. Kritische Stimmen, kreative Perspektiven und unbequeme Wahrheiten könnten auf der Strecke bleiben.
evangelisch.de hat den Prompt bei Perplexity mehrmals verfeinert. Es wurde das Thema und die Rolle eingegeben sowie das Format, den Stil und den Umfang.