Anfang letzter Woche hatte Liam Porr nur von GPT-3-Karten gehört. Aber am Ende der gleichen Woche benutzte er das neue KI-Modell schon darauf zu kommen komplett gefälschter Blog unter einem erfundenen Namen zu arbeiten.
Es soll alles nur ein lustiges Experiment sein. Aber dann erreichte einer der Beiträge die Nummer 1 in den Hacker News, und nur sehr wenige Benutzer bemerkten, dass der Blog vollständig vom KI-System stammte. Einige haben ihn sogar abonniert.
GPT-3 ist das bislang leistungsstärkste KI-Tool zur Sprachgenerierung. Es wurde viel darüber spekuliert, was dies für die Produktion von Inhalten bedeuten könnte – aber Porrs Blog ist das einzige bekannte konkrete Beispiel dafür. Das Bemerkenswerteste an dieser Erfahrung war, dass es so einfach war, sagt der Informatikstudent an der University of California in Berkeley – „es war der beängstigende Aspekt“.
Angst vor Missbrauch
GPT-3 ist größtes und neuestes AI-Modell von OpenAI, die die in San Francisco ansässige Forschungsorganisation seit Mitte Juli vertreibt. Mit der früheren Version GPT-2 machte OpenAI im Februar letzten Jahres Schlagzeilen, weil es wurde aus Angst vor Missbrauch zurückgehalten. Diese Entscheidung wurde sofort kritisiert, und einige Forscher beschuldigten das Labor, nur Shows zu machen. Im November OpenAI veröffentlichte dann das Modellweil es keine eindeutigen Anzeichen von Missbrauch gab.
Mit GPT-3 ging das Labor nun anders vor: Der Algorithmus wurde weder ausgeblendet noch veröffentlicht. Stattdessen durften ausgewählte Forscher es für private Betatests verwenden, um ihr Feedback zu erhalten und die Technologie vor Jahresende zu kommerzialisieren.
Porr bewarb sich um die Teilnahme und füllte ein Formular mit einfachen Fragen zum Verwendungszweck aus. Aber er wartete nicht auf eine Entscheidung. In der KI-Community von Berkeley fand er schnell einen Doktoranden, der bereits Zugriff auf den Algorithmus hatte und zur Zusammenarbeit bereit war. Also schrieb Porr ein kleines Skript, das GPT-3 eine Überschrift und eine Einführung in einen Blog-Beitrag gab und dann mehrere Vollversionen davon generierte. Sein erster Beitrag (der an die Spitze der Hacker News kam) war, wie alle folgenden, nichts anderes als eines dieser Computerprodukte mit wenig oder keiner Neugestaltung.
Produktivitätstipps von AI
„Es dauerte nur wenige Stunden von der Idee, Doktoranden zu kontaktieren, den Blog und den viralen ersten Beitrag zu erstellen“, berichtet Porr. Um größere Nachbearbeitungen zu vermeiden, musste er die Stärken und Schwächen von GPT-3 verstehen. „Er kann recht gut schreiben, ist aber nicht sehr logisch und rational“, erklärt der Student. Deshalb entschied er sich für eine beliebte Blog-Kategorie, die nicht auf strenger Logik beruht: Produktivität und Selbstverbesserung.
Dann schrieb Porr Schlagzeilen mit einer einfachen Formel: Er schlug in Medium und Hacker News nach, was derzeit in diesem Bereich gefragt ist, und fand etwas relativ Ähnliches. „Unproduktiv? Vielleicht sollten Sie weniger züchten“, lautete eine seiner Richtlinien für KI, eine andere „Mut und Kreativität sind wichtiger als Intelligenz“.
Nach fast zwei Wochen fast täglicher Beiträge schloss Porr das Projekt ab mit einer selbst geschriebenen kryptischen Nachricht: Unter der Überschrift „Was würde ich mit GPT-3 machen, wenn ich keine Moral hätte?“ Er erklärte seinen eigenen Prozess in hypothetischer Form. Auf seinem richtigen Blog folgte am selben Tag ein direkteres Geständnis.
Man glaubt, menschlich zu sein
Er wollte beweisen, dass GPT-3 als menschlicher Schriftsteller bestehen kann, sagt Porr. Tatsächlich haben Dutzende von Lesern während seines automatisierten Artikels Kommentare hinterlassen, die die Aufmerksamkeit von Hacker News auf sich gezogen haben. Und obwohl der Algorithmus manchmal seltsam schrieb oder Fehler machte, vermuteten nur drei oder vier von ihnen, dass hier niemand am Werk war. Andere Benutzer antworteten ebenfalls mit negativen Bewertungen zu all diesen Beiträgen.
Experten sind seit langem besorgt, dass das Schreiben von Algorithmen auf natürliche Weise zu solchen Situationen führen kann. Seit den ersten Informationen über GPT-2 wurde über Missbrauch spekuliert. In einem eigenen Blogbeitrag konzentrierte sich OpenAI auf die Möglichkeit, die KI-Tools zu verwenden Erzeugt große Mengen an Desinformation. Aber auch vorher Viel Spam mit beliebten Google-Keywords wurde bereits gewarnt.
Laut Porr zeigt sein Experiment eine weniger dramatische, aber dennoch sensible Möglichkeit: Mit dem Tool könnten Menschen eine Menge Clickbait-Inhalte generieren. „Es ist möglich, dass es eine Flut mittelmäßiger Blog-Posts gibt, weil die Eintrittsbarrieren jetzt so niedrig sind“, sagt er. Dies kann den Wert von Online-Inhalten erheblich verringern. Trotzdem plant er weitere Experimente mit GPT-3 – aber jetzt will Porr auf die Genehmigung durch OpenAI warten. „Vielleicht sind sie wütend, weil ich es getan habe“, sagt er, „es war auch ein bisschen albern.“
(Weiterführende Schule)
+ There are no comments
Add yours