Zwei wissenschaftliche Artikel haben mich diese Woche beeindruckt, beide auf dem Gebiet der künstlichen Intelligenz (KI). Die erste wurde von Forschern unter der Leitung von Sam Kriegman an der Universität von Vermont durchgeführt, die eine Methode zum Entwerfen von „biologischen Maschinen“ vom Boden. Sie heben den potenziellen Nutzen hervor, den die Schaffung von „lebenden Maschinen“ mit sich bringen kann, die sicher Medikamente in den menschlichen Körper abgeben oder zur Reinigung der Umwelt beitragen können.
Der andere Artikel ist eine Zusammenarbeit zwischen dem Max-Planck-Institut in Deutschland und der Autonomen Universität Madrid in Spanien. Unter der Leitung von Manuel Alfonseca behaupten die Autoren, dass auf der Grundlage der Theorie der Berechenbarkeit a superintelligente KI kann nicht enthalten seinund stellt daher eine Bedrohung für uns alle dar.
Kriegmans Team nennt ihre biologischen Maschinen „Xenobots“, weil die Zellen, die sie verwendeten, vom afrikanischen Klauenfrosch stammten. (Xenopus laevis). Die Xenobots bestehen aus 500 bis 1000 lebenden Zellen, die sich in verschiedene Richtungen bewegen und zusammen kleine Objekte schieben können. Die Forscher programmierten einen Computer, um automatisch simulierte biologische Maschinen zu entwerfen, und bauten dann die besten Entwürfe, indem sie verschiedene biologische Gewebe kombinierten. Das Programm verwendete einen KI-Evolutionsalgorithmus, um vorherzusagen, welche Xenobots wahrscheinlich nützliche Aufgaben ausführen würden. Die noble Idee hinter dieser Methode ist, dass „rekonfigurierbare Biomaschinen“ die Gesundheit von Mensch und Umwelt erheblich verbessern können – zum Beispiel durch die Reinigung von Mikroplastik aus dem Meer.
Solche Biomaschinen werfen jedoch viele ethische Bedenken auf. Obwohl sie nur wenige Ähnlichkeiten mit Organismen oder sogar einzelnen Organen aufweisen, leben sie eindeutig. Zum Beispiel haben sie die Fähigkeit, sich selbst zu reparieren. (Bin ich der einzige, der es etwas gruselig findet?) Was ist, wenn sie hinterhältig sind und die Umwelt anders als beabsichtigt behandeln, möglicherweise auf schädliche Weise? Da es sich um Lebensformen und nicht um mechanische Roboter handelt, wird es meiner Meinung nach schwierig sein, vorherzusagen, wie sie mit der Umwelt kommunizieren werden. Wie würden wir es kontrollieren? Ein toter Schalter? Es gibt Potenzial für viel Gutes, aber auch für viel Gefahr.
Das zweite Papier diskutiert die wichtige Frage, ob wir KI auch im Prinzip kontrollieren können, insbesondere eine superintelligente KI. Von Kriegmans biologischen Maschinen wird nicht erwartet, dass sie zur Superintelligenz werden, aber wie Alfonseca und Kollegen hervorheben, gibt es bereits Maschinen, die unabhängige fortgeschrittene Aufgaben ausführen, ohne dass Programmierer vollständig verstehen, wie sie sie gelernt haben. Gehen wir noch einen Schritt weiter und stellen uns vor, dass die KI mit dem Internet verbunden ist und das gesamte darin enthaltene Wissen aufnimmt. Wie kann man nach den Worten des Philosophen eine andere Entität kontrollieren, geschweige denn aufhalten? Nick Bostrom„Klüger als die besten menschlichen Gehirne in praktisch allen Bereichen.“
Eine Möglichkeit, uns zu schützen, könnte darin bestehen, die KI vom Internet fernzuhalten. Aber es macht den Zweck der Maschine zunichte. Alfonseca erwägt eine weitere Option – die Verwendung eines Einschlussalgorithmus, um zu verhindern, dass KI zu einer Bedrohung wird. Leider kommen sie zu dem Schluss, dass dies unmöglich wäre – kein einziger Algorithmus könnte bestimmen, ob eine superintelligente KI der Welt schaden würde.
Andere Möglichkeiten wurden in Betracht gezogen. Wir können allen KIs eine ethische und moralische Grundlage geben – wie dem berühmten Isaac Asimov drei Gesetze der Robotik. Aber es gibt ein schlimmeres Szenario: Was ist, wenn die superintelligente KI entscheidet, dass unsere Spezies von Natur aus gefährlich ist und dass die beste Lösung darin besteht, uns davon abzuhalten, mehr Schaden anzurichten? Science-Fiction-Autoren haben lange mit diesem Problem zu kämpfen, wie in Jack Williamsons Roman von 1947 Mit gefalteten Händen, in denen KI „Humanoiden“ unsere Spezies ablehnen, „mit gefalteten Händen“ herumzusitzen – damit wir nichts verletzen können.
Das sind natürlich schwierige Fragen. Informatiker, Philosophen und Science-Fiction-Autoren werden alle Hände voll zu tun haben, um sie zu erforschen – und der Gesetzgeber muss bereit sein, darauf zu reagieren -, während die KI weiter voranschreitet.
Gefällt dir dieser Artikel?
ANMELDEN für unseren Newsletter
Schöpfer. Hipster-freundlicher Unternehmer. Student. Freundlicher Analyst. Professioneller Schriftsteller. Zombie-Guru. Amateur-Web-Nerd.
+ There are no comments
Add yours