KI und ChatGPT für Anfänger

01.06.2023
Künstliche Intelligenz
Peter Welchering

Berichte über die künstliche Sprachintelligenz ChatGPT4 haben bei vielen Menschen, die mit Sprache und Texten arbeiten, Alarmstimmung ausgelöst - insbesondere bei Journalist: innen. Wird ChatGPT bald ihre Arbeit ersetzen? 

Künstliche Intelligenz im journalistischen Alltag – Wie wirkt sich ChatGPT aus? lautete deshalb das Thema unseres Einführungs-Webinars mit Peter Welchering, das auf großes Interesse stieß (Zusammenfassung als pdf-Datei im Anhang).

Was sagt eigentlich der Chatbot (textbasiertes Dialogsystem, das Chatten mit einem technischen System erlaubt) selbst zu der Frage, welche Auswirkungen er haben wird?

Er hat beruhigend geantwortet: "Künstliche Intelligenz wird im journalistischen Alltag immer häufiger eingesetzt, um Prozesse zu automatisieren und die Arbeit von Journalisten zu erleichtern. Zum Beispiel können Algorithmen genutzt werden, um große Mengen an Daten zu analysieren und relevante Informationen herauszufiltern. Auch bei der Erstellung von Texten können AI-Systeme ("Artificial Intelligence" - künstliche Intelligenz) unterstützen, indem sie automatisch Artikel generieren oder Texte auf Grammatik und Rechtschreibung prüfen. Künstliche Intelligenz kann dazu beitragen, dass Journalisten ihre Arbeit schneller und effizienter erledigen können, um so noch bessere Ergebnisse zu erzielen. Allerdings ist es wichtig zu betonen, dass künstliche Intelligenz niemals den menschlichen Faktor ersetzen kann. Journalisten bleiben unverzichtbar, um komplexe Zusammenhänge zu verstehen, Hintergründe zu recherchieren und die Qualität von Informationen zu bewerten.

Vorsicht ist geboten!

Wissenschaftsjournalist Peter Welchering hat den Teilnehmer: innen gleich zu Anfang in einem Beispiel verdeutlicht, was passieren kann, wenn man die Warnung des ChatBot, der Mensch müsse  "Hintergründe recherchieren und die Qualität von Informationen bewerten, nicht beherzigt. 

Da gibts dann Falschmeldungen, wie es der Tagesschau passiert ist, die über eine Veröffentlichung des amerikanischen Investigativ-Journalisten Seymour Hersh berichtete. Der hatte im Februar 2023 vermutet, dass staatliche Mächte hinter den Gaspipeline-Explosionen in der Ostsee vor der Insel Bornholm stecken. Taucher hätten Sprengladungen an den Pipelines platziert. Er benutze im Text das Verb "plant" für platzieren. Die ARD berichtete kurz darauf von Pflanzen-Sprengstoff, weil der Text-Translator das Wort plant mit Pflanze übersetzt hatte. Und offenbar niemand die mögliche Sprengkraft nachvollzogen hatte.

Auf die Frage, wie er lernt, hat der ChatGPT beim Test zunächst mit "something went wrong" geantwortet. Erst bei der Umformulierung der Frage, wer ihn trainiert, antwortete er: "Ich wurde von einem Team von Entwicklern und Ingenieuren programmiert und trainiert, die über umfangreiche Kenntnisse in den Bereichen künstliche Intelligenz, maschinelles Lernen und Sprachverarbeitung verfügen. Diese Experten haben mir eine Vielzahl von Daten und Informationen zur Verfügung gestellt, die ich nutzen kann, um Fragen zu beantworten und Aufgaben auszuführen. Darüber hinaus werde ich kontinuierlich weiterentwickelt und verbessert, um meine Fähigkeiten und mein Wissen zu erweitern.

Welchering hat in seinem Seminar aufgezeigt, wo überall heute schon künstliche Intelligenz eingesetzt wird. Wir nutzen Übersetzungswerkzeuge aus dem Internet; wandeln Text in Sprache um oder umgekehrt Sprache in Text – nicht nur für blinde Menschen eine große Erleichterung. Wir suchen Fotos im Netz, erkunden, wie das Wetter an einem bestimmten Tag und Ort zu einer bestimmten Uhrzeit war. Ein wichtiges Hilfswerkzeug für die Polizei - zum Beispiel.

Spannend, aber kompliziert ist, wie ChatGPT trainiert wird und wie das Gelernte überprüft wird.  Ein sehr vielschichtiger Prozess über viele Ebenen, die Programmierung ist Mathematik pur. Dann wird immer wieder verglichen, Wahrscheinlichkeiten berechnet.

Die Software ChatGPT lernt durch den Dialog mit Menschen dazu. Es müsse sichergestellt werden, so Welchering, dass Menschen keinen Blödsinn verbreiten, der sich dann im Netz fortpflanzt und als Wissensquelle benutzt wird. Deshalb sei es wichtig, nur faktengeprüfte Informationen einzugeben. Die Universität Hohenheim habe für Schulungen ihrer Studentinnen einen Internet-Tutor entwickelt, in den nur eingespeist werden darf, was zuvor genauestens überprüft wurde.

Das wird eine große Herausforderung. Dann die Frage, ob künstlich erzeugte Texte gekennzeichnet werden müssen. Wird man in Zukunft noch unterscheiden können, was von einem Menschen stammt und was von einer Software? Und wie ist das mit dem Urheberrecht, wenn sich der Chatbot aus dem Wissen von Menschen bedient?

Text: Annette Rose

 

 

 

 

 

 

Downloads