Ein Hauptproblem bei kreativer Arbeit, die in einen Text münden soll, ist die Ideenfindung. Man braucht eine gute Idee, um diese dann so auszuformen, dass daraus dann über Recherche zu einer umsetzbaren Idee gelangt werden kann. Diese Aussage gilt für fiktionale wie für non-fiktionale Texte. Sie gilt auch dann, wenn die Idee letztlich nicht zu einem Text führt, sondern zu einer anderen Form der Umsetzung (z.B. Video oder Podcast).

Können textorientierte KI-Systeme wie ChatGPT hierfür genutzt werden?

Über diese Frage kann man lang und intensiv nachdenken, man kann es aber auch einfach ausprobieren. Dazu lese man folgenden Dialog, der weder gekürzt noch erweitert, noch in sonst irgendeiner redaktionellen Weise bearbeitet wurde.

Beginn des Dialogs

Prompt: ich bin Technikjournalist, und mein Chef möchte zehn Artikelideen zu einem Kurzartikel im Umfang von etwa 3 bis 400 Wörtern zu einem Thema der künstlichen Intelligenz und ihrer praktischen Anwendbarkeit im Journalismus. Nenne mir zehn Ideen, die ich in diesem Zusammenhang ausarbeiten könnte.

ChatGPT: Natürlich! Hier sind zehn Ideen, die Ihnen als Ausgangspunkt für Ihre Artikel dienen können:

Automatisierte Artikelgenerierung: Wie künstliche Intelligenz verwendet werden kann, um automatisch Artikel zu schreiben und wie das den Arbeitsprozess von Journalisten beeinflusst.

Social-Media-Analyse: Wie künstliche Intelligenz eingesetzt werden kann, um Social-Media-Plattformen wie Twitter und Facebook zu analysieren und wertvolle Erkenntnisse für Journalisten zu gewinnen.

Sprachverarbeitung: Wie künstliche Intelligenz eingesetzt werden kann, um gesprochene Sprache in Text umzuwandeln, um Interviews und Aufnahmen zu transkribieren.

Vorhersage von Trends: Wie künstliche Intelligenz verwendet werden kann, um Trends in Daten und Verhaltensmustern zu identifizieren, um Journalisten bei der Vorhersage von Geschichten und der Entdeckung neuer Trends zu unterstützen.

Personalisierte Nachrichten: Wie künstliche Intelligenz eingesetzt werden kann, um personalisierte Nachrichten für individuelle Nutzer zu erstellen, um die Benutzerbindung zu erhöhen.

Bildanalyse: Wie künstliche Intelligenz eingesetzt werden kann, um Bilder und Videos zu analysieren, um mehr Informationen und Erkenntnisse zu gewinnen.

Sprachübersetzung: Wie künstliche Intelligenz verwendet werden kann, um Texte und Sprache in verschiedene Sprachen zu übersetzen, um den Austausch von Nachrichten und Informationen zu erleichtern.

Faktenermittlung: Wie künstliche Intelligenz eingesetzt werden kann, um die Faktenermittlung bei Nachrichten und Artikeln zu unterstützen und die Verbreitung von Fehlinformationen zu reduzieren.

Chatbots und KI-Assistenten: Wie künstliche Intelligenz eingesetzt werden kann, um Chatbots und KI-Assistenten zu erstellen, um den Kundenservice und die Interaktion mit Lesern zu verbessern.

Voice-Assistenten: Wie künstliche Intelligenz eingesetzt werden kann, um Voice-Assistenten wie Alexa oder Google Home zu verbessern, um die Nachrichten- und Informationsbeschaffung zu erleichtern.

Ich hoffe, diese Ideen helfen Ihnen bei der Erstellung von Artikeln!

Prompt: Erzähl mir mehr zu folgendem: ich bin Technikjournalist und mein Chef möchte zehn Artikelideen zu einem Kurzartikel im Umfang von etwa 3 bis 400 Wörtern zu einem Thema der künstlichen Intelligenz und ihrer praktischen Anwendbarkeit im Journalismus. Nenne mir zehn Ideen, die ich in diesem Zusammenhang ausarbeiten könnte.

ChatGPT: Natürlich, gerne!

Automatisierte Artikelgenerierung: In diesem Artikel könnten Sie tiefer auf die automatisierte Artikelgenerierung eingehen und erklären, wie künstliche Intelligenz verwendet wird, um automatisch Artikel zu schreiben und wie das den Arbeitsprozess von Journalisten beein

Prompt: erzähle mir mehr zum Thema Faktenermittlung: Wie künstliche Intelligenz eingesetzt werden kann, um die Faktenermittlung bei Nachrichten und Artikeln zu unterstützen und die Verbreitung von Fehlinformationen zu reduzieren.

ChatGPT: Die Faktenermittlung ist ein zentraler Aspekt der journalistischen Arbeit. In einer Welt, in der Fehlinformationen und Fake News immer verbreiteter werden, wird es immer wichtiger, eine zuverlässige Quelle von Informationen und Fakten zu haben. Hier kann künstliche Intelligenz eine Rolle spielen.

Eine Möglichkeit, künstliche Intelligenz zur Faktenermittlung einzusetzen, besteht darin, automatisierte Fact-Checking-Systeme zu entwickeln. Diese Systeme nutzen Algorithmen, um eine Vielzahl von Quellen zu analysieren und zu überprüfen, ob die darin enthaltenen Informationen korrekt sind. So können Journalisten schneller und effektiver Fakten überprüfen und Missinformationen aufdecken.

Ein weiterer Ansatz ist die Verwendung von künstlicher Intelligenz zur Analyse von Sprache und Text. Hier können Algorithmen verwendet werden, um Texte zu analysieren und zu verstehen, welche Aussagen gemacht werden und welche Fakten genannt werden. Dadurch können Journalisten schneller erkennen, ob eine Behauptung falsch oder ungenau ist und diese entsprechend kennzeichnen oder korrigieren.

Neben der Überprüfung von Fakten können auch künstliche Intelligenz-basierte Systeme verwendet werden, um die Verbreitung von Fehlinformationen zu reduzieren. So können beispielsweise Algorithmen eingesetzt werden, um Social-Media-Beiträge zu identifizieren, die falsche oder irreführende Informationen enthalten, und diese automatisch zu markieren oder zu löschen.

Natürlich gibt es auch Herausforderungen bei der Verwendung von künstlicher Intelligenz zur Faktenermittlung. Zum einen müssen die Algorithmen trainiert werden, um zuverlässige und genaue Ergebnisse zu liefern. Zum anderen besteht die Gefahr von Fehlern und Vorurteilen, wenn die Algorithmen nicht richtig kalibriert sind oder unzureichende Trainingsdaten verwenden.

Insgesamt kann künstliche Intelligenz jedoch eine wichtige Rolle bei der Faktenermittlung und der Reduzierung von Fehlinformationen spielen, wenn sie richtig eingesetzt und trainiert wird.

Prompt: Wie könnten  Fact-Checking-Systeme arbeiten, damit sie in der Lage sind, Fakten von Pseudo-Fakten oder Spekulationen zu unterscheiden?

ChatGPT: Fact-Checking-Systeme können auf verschiedene Weise arbeiten, um zwischen Fakten und falschen oder spekulativen Informationen zu unterscheiden.

Eine Methode ist, ein Regelwerk zu verwenden, das auf einem Satz von validierten Fakten und Regeln basiert. Wenn ein Text oder eine Aussage geprüft wird, kann das System das Regelwerk anwenden, um zu bestimmen, ob die Aussage mit den validierten Fakten und Regeln übereinstimmt. Wenn die Aussage nicht übereinstimmt, kann das System eine Warnung ausgeben oder den Text markieren.

Ein anderer Ansatz ist, Machine-Learning-Algorithmen zu verwenden, um das System zu trainieren, um Muster in Texten zu erkennen, die darauf hinweisen könnten, dass eine Aussage falsch ist. Das System kann dann Texte analysieren, um diese Muster zu finden und eine Warnung auszugeben, wenn es glaubt, dass eine Aussage falsch ist.

Ein weiterer Ansatz ist, ein Netzwerk von Fact-Checking-Organisationen zu erstellen, die gemeinsam Informationen sammeln und prüfen. Diese Organisationen könnten dann Informationen und Fakten validieren und in einer Datenbank speichern, auf die das System zugreifen kann. Das System könnte dann die Validierungsergebnisse nutzen, um die Genauigkeit von Aussagen zu bestimmen.

In jedem Fall ist es wichtig, dass das Fact-Checking-System über eine ausreichende Datenmenge verfügt, um eine genaue Überprüfung durchzuführen. Es ist auch wichtig, dass das System kontinuierlich trainiert und verbessert wird, um mit den sich verändernden Sprachmustern und neuen Informationen Schritt zu halten.

Prompt: Mich interessiert folgender Ansatz: Ein anderer Ansatz ist, Machine-Learning-Algorithmen zu verwenden, um das System zu trainieren, um Muster in Texten zu erkennen, die darauf hinweisen könnten, dass eine Aussage falsch ist. Das System kann dann Texte analysieren, um diese Muster zu finden und eine Warnung auszugeben, wenn es glaubt, dass eine Aussage falsch ist.   Welche Wissenschaftler oder Institutionen vertreten diesen Ansatz, wo kann ich weiter recherchieren wenn ich diesen Ansatz genauer kennenlernen will. Welche weiteren Informationen und Details kann man jetzt schon zu diesem Ansatz hier übermitteln.

ChatGPT: Es gibt eine Vielzahl von Wissenschaftlern und Institutionen, die sich mit diesem Ansatz beschäftigen und Machine-Learning-Algorithmen für Fact-Checking-Anwendungen verwenden. Einige bekannte Beispiele sind:

Full Fact: Eine britische Non-Profit-Organisation, die sich der Förderung von Faktenchecks verschrieben hat und Machine-Learning-Techniken für die automatische Erkennung von Fehlinformationen einsetzt.

Factmata: Eine weitere Non-Profit-Organisation, die sich mit dem Einsatz von Machine Learning für Faktenchecks und die Bekämpfung von Desinformation beschäftigt.

Google Fact Check Explorer: Ein Tool von Google, das Machine-Learning-Algorithmen verwendet, um Faktenchecks aus verschiedenen Quellen zu sammeln und darzustellen.

DARPA: Die Defense Advanced Research Projects Agency der USA hat ein Programm namens „Media Forensics“ gestartet, das sich auf die Entwicklung von Technologien konzentriert, um gefälschte Medieninhalte zu erkennen und zu bekämpfen, einschließlich Texten, Bildern, Audio und Video.

Wenn Sie mehr über diesen Ansatz erfahren möchten, können Sie zum Beispiel nach Forschungsarbeiten von Wissenschaftlern oder Veröffentlichungen von Institutionen suchen, die sich mit diesem Thema befassen. Ein guter Ausgangspunkt könnte die Recherche in akademischen Fachzeitschriften oder Konferenzbeiträgen im Bereich Machine Learning, Natural Language Processing oder Computational Journalism sein. Auch die genannten Organisationen und deren Publikationen können weitere Einblicke in diese Thematik bieten.

Prompt: Ich konnte feststellen, dass die genannten Institutionen tatsächlich existieren. Punkt bei der vierten Institution ist aber nicht so ganz klar, ob sie tatsächlich diese Aufgaben angeht.

ChatGPT: Sie haben Recht, dass DARPA eine Regierungsbehörde der USA ist, die sich hauptsächlich auf Forschung und Entwicklung im Bereich der nationalen Sicherheit konzentriert. Das Programm „Media Forensics“, das ich erwähnt habe, ist jedoch tatsächlich Teil eines breiteren Forschungsprojekts der DARPA, das sich auf die Entwicklung von Technologien zur Bekämpfung von Desinformation konzentriert. Das Programm „Media Forensics“ soll dabei helfen, gefälschte Medieninhalte zu erkennen und zu bekämpfen, einschließlich Texten, Bildern, Audio und Video. Es ist jedoch wichtig zu beachten, dass DARPA keine zivile Fact-Checking-Organisation ist und dass die von ihnen entwickelten Technologien eher für militärische oder sicherheitsrelevante Anwendungen gedacht sind.

Prompt: Gibt es hierzu eine URL?

ChatGPT: Ja, Sie können weitere Informationen zum DARPA-Programm „Media Forensics“ auf der offiziellen Website der DARPA finden. Die Website bietet eine ausführliche Beschreibung des Programms sowie Links zu Forschungsberichten, die im Rahmen des Programms veröffentlicht wurden. Hier ist der Link zur Website: https://www.darpa.mil/program/media-forensics

Prompt: Der Link funktioniert, der Inhalt der Webseite ist mit dem beschriebenen identisch.

ChatGPT: Das freut mich zu hören, dass der Link funktioniert und der Inhalt der Webseite mit dem beschriebenen übereinstimmt. Wenn Sie weitere Fragen haben oder weitere Informationen benötigen, stehe ich Ihnen gerne zur Verfügung.

Ende des Dialogs

Die eingangs gestellte Frage,

Können textorientierte KI-Systeme wie ChatGPT dafür genutzt werden, um Ideen für die Textproduktion zu bekommen, die sogar einen Einstieg in die Recherche ermöglichen?

kann also klar mit Ja beantwortet werden. Allerdings klappt das nicht immer so gut, wie hier in diesem Beispiel. Oft landet man in einer Sackgasse, bekommt vom System Fake-Infos oder muss immer wieder neu ansetzen, um den Prozess in der Spur zu halten. Auch diese Varianten müssen gezeigt werden, aber dafür gibt es demnächst weiter Blogbeiträge.

Transparenzhinweis: Der Dialog wurde weder geändert noch gekürzt oder erweitert. Ich habe lediglich einige Schreibfehler in den Prompts korrigiert. Auch in den Prompts wurden genauso wie in den Antworten keine inhaltlichen Veränderungen vorgenommen.

Hinweis auf weitere Recherche-Möglichkeiten:

 

Verwandte Artikel: