Drei Mythen über KI, die nicht stimmen

 

Der neue Trend, künstliche Intelligenz (KI) zum Schreiben von Texten zu verwenden, ist nicht ohne Probleme. Wenn du beim Schreiben eines Textes die Hilfe einer KI heranziehen willst, musst du dir drei Dinge klar machen: Künstliche Intelligenz ...

  • … produziert Fake News.
  • ... begeht automatisch Plagiate.
  • ... arbeitet nicht wissenschaftlich.

Mit KI-Faktencheck erfährst du, wie man KI richtig nutzt und wo die Gefahren liegen.


Mythos #1: Eine KI kann nicht lügen

Tatsache: KI produziert Fake News

 

Die KI ChatGPT wurde anhand von Millionen von Texten traniert, im Dialog plausibel klingende Antworten auf fast jede Frage zu geben. Das Problem: „Statt, wie ein Mensch, einfach zu sagen: ‚Das weiß ich nicht‘, erfindet der Algorithmus Antworten und präsentiert diese selbstsicher als Fakten“, stellt die Zeit fest.  Das wurde mehrfach wissenschaftlich nachgewiesen. Das hat auch ein Anwalt gemerkt, der sein Plädoyer durch die KI schreiben ließ. Leider waren alle angeblichen Urteile erfunden. Der Anwalt sagte, „er habe das Gericht nicht täuschen wollen, sondern sich nur auf Zusicherungen von ChatGPT verlassen, dass die erwähnten Fälle authentisch seien. Der Chatbot habe dazu auch Texte angeblicher Urteile ausgegeben […]. Diese Dokumente enthielten ihrerseits Verweise auf Fälle, die sich als frei erfunden herausstellten“, so der Spiegel.

Fazit: Eine KI ist kein Computer, sondern ein Algorithmus, der menschliches Denken nachahmen und aufgrund von Fakten Schlüsse ziehen soll. Daher kann die KI auch lügen.

 

  • Mit dem Faktencheck findest du heraus, ob das, was die KI für deine Arbeit geschrieben hat, auch wirklich stimmt.

Mythos #2: Die Daten, die von einer KI verarbeitet werden, sind frei verfügbar.

Tatsache: KI begeht Plagiate

 

Bei ChatGPT und anderen KI ist das Risiko enorm, ein Plagiat zu begehen. Die KI hat Millionen von Texten gespeichert, aus denen sie ihre Antworten generiert. Viele der Texte unterliegen dem Urheberrecht. Wenn die KI Texte ohne Quellenangaben verwendet, ist das ist pures Plagiat. Viele Autoren haben ChatGPT bereits verklagt, weil die KI ihre Texte ohne Einwilligung benutzt.

Quellen gibt die KI jedenfalls nicht an. Das gibt die KI auch unumwunden zu: „Es ist wichtig anzumerken, dass ich als KI-Modell keine direkte Verbindung zu externen Quellen habe und daher keine spezifischen Quellen zitieren kann. Meine Antworten basieren auf dem allgemeinen Wissen und der Zusammenfassung von Informationen während meines Trainingsprozesses“, hat mir ChatGPT auf eine spezifische Frage geantwortet.

Fazit: Du weißt nicht, ob der Text, den die KI geschrieben hat, rechtlich geschützt ist.

  • Mit dem Fachlektorat kriegst du eine Arbeit, die genau auf Plagiate geprüft wurde.

Mythos #3: Ich kann die KI alles fragen

Tatsache: Du musst sehr genau wissen, was du die KI fragst

 

Wenn dich jemand aus heiterem Himmel fragt, "Wie geht das?", kannst du die Frage nur beantworten, wenn du den Kontext kennst und die Nuancen in der Fragestellung verstehst. Das kann die KI nicht. Daher muss man sehr genau wissen, wie man einer KI fragen stellt, um keine irreführenden Antworten zu bekommen. Die KI weist jedenfalls nicht auf Fehler hin.

Fazit: Menschen können Fragen interpretieren, eine KI braucht genau Informationen über den Kontext der Frage.

  • Beim Prompting erarbeiten wir gemeinsam eine Strategie, um die KI zu befragen.

Daher der Faktencheck

 

Fragt also lieber jemanden, der etwas davon versteht. Ich nehme mich deiner Arbeit an, verbessere sie und überprüfe sie. Wenn du etwas hast, das von einer KI stammt und geprüft werden muss, ruf mich an, und wir klären alles weitere.