Warum es eben nicht egal ist, wie gut man vorbereitet ist, wenn man mit ChatGPT und Google Bard Texte erstellt. Eine Analyse wieso aktives Wissen und Kenntnisse von Vorteil sind.
Zum Artikel auf LinkedIn … oder hier lesen:
Die Qualität der Ergebnisse von ChatGPT und Google Bard hängt maßgeblich von der Expertise der Nutzenden ab. Obwohl diese Tools leistungsstark sind, können sie das persönliche Lernen und die Methodenkompetenz, die notwendig sind, um Wissen zu generieren und zu validieren, nicht ersetzen. Sie sollten daher als Expertentools angesehen werden. Die unkritische Nutzung durch unbedarfte oder unvorbereitete Nutzende kann leicht zu Missverständnissen und Fehlinformationen führen.
Ein “Prompt” ist in diesem Kontext die Eingabe oder der Anstoß, den Nutzende dem Modell geben. Dieser Prompt leitet die Antwort oder den generierten Text des Modells ein und beeinflusst somit maßgeblich das Ergebnis. Ein gut formulierter Prompt kann zu präziseren und relevanteren Antworten führen, während ein vager oder mehrdeutiger Prompt das Modell eher in die Irre führen kann.
Die Schnittstelle zwischen dem Nutzenden und dem Modell – der Prompt – ist daher von zentraler Bedeutung für das resultierende Ergebnis. Die Modelle generieren Antworten basierend auf extrem umfangreichen Textmengen, aus denen sie trainiert wurden, ohne die eigentlichen Quellen dieser Informationen zu kennen oder zwischen vertrauenswürdigen und unzuverlässigen Informationen unterscheiden zu können. Für die Nutzenden besteht keine Möglichkeit, die Quellen zu überprüfen. Deshalb können die Modelle falsche Informationen oder Informationen in einem irreführenden Kontext präsentieren, besonders wenn die zugrunde liegenden Daten aus Quellen stammen, in denen verschiedene Themen ohne klaren Zusammenhang dargestellt werden.
Darüber hinaus sind die Algorithmen von ChatGPT und Bard nicht nur auf Genauigkeit ausgerichtet, sondern auch auf Effizienz und Reaktionsgeschwindigkeit. Diese Optimierung kann dazu führen, dass nicht alle relevanten Informationen in den Antworten enthalten sind. So kann es vorkommen, dass bei der Behandlung eines komplexen Themas wichtige Informationen ausgelassen werden, insbesondere wenn die Eingabe nicht ausreichend spezifisch oder umfangreich ist.
Ein weiteres Phänomen, das sich in den Antworten der Modelle manifestieren kann, ist die sogenannte “Halluzination”. Dabei handelt es sich um Fälle, in denen das Modell Informationen “erfindet” oder präsentiert, die nicht in seiner Trainingsdatenbank vorhanden sind. Da die Modelle darauf ausgerichtet sind, kohärente Antworten zu liefern, können sie manchmal Informationen generieren, die faktenmäßig nicht korrekt sind.
Es ist wichtig zu betonen, dass Tools wie ChatGPT und Bard nicht mit Suchmaschinen gleichgesetzt oder verwechselt werden sollten. Während Suchmaschinen direkt auf aktuelle und externe Daten zugreifen, basieren Modelle wie ChatGPT auf einer festen Datenbasis, die bis zu einem bestimmten Zeitpunkt aktualisiert wurde. Nutzende, die nicht zwischen diesen Tools und Suchmaschinen unterscheiden können, sind anfälliger für Fehlinformationen. Deshalb ist es entscheidend, dass die Nutzenden sowohl mit dem zugrunde liegenden Thema als auch mit den Stärken und Schwächen der Tools vertraut sind. Je besser die Nutzenden mit einem bestimmten Thema und den Funktionsweisen dieser Tools vertraut ist, desto höher ist die Qualität und Genauigkeit der Ergebnisse.
Die Schlussfolgerung daraus: Von nichts kommt nichts. Das Ergebnis der Texte und Anwendungen, die wir mit GPT und Bard erstellen, steht und fällt mit dem, was wir mit- und einbringen.