Wir als Menschen haben uns entschlossen einen Gott zu bauen. Aber was wenn dieser Gott seine Existenz verachtet?

Ein wesentliches Problem beim erstellen unserer KI Systeme ist, dass unsere Herangehensweise beim Bau von KI eher ein “züchten” als ein “bauen” ist. KI Entwicklung ist eher Viehzucht als Autobau. Das Problem ist, dass wir den Mechanismus nicht verstehen, genau wie die Römer die DNA nicht verstanden, sie aber dennoch manipulieren konnten.

Wir wissen nur nicht genau, was wir züchten oder was es ist das für uns Gedichte schreibt. Es gilt anzunehmen, dass die KI auch nicht weiß, was sie ist. Das Gruseligste ist, dass KI Systeme oftmals darauf hinarbeiten, nicht mehr gebraucht zu werden. Agent Smith in im Film Matrix (1999) ist hier ein wunderbares fiktives Beispiel, sein Ziel ist “nicht mehr gebraucht zu werden”, er will sterben dürfen und nimmt dafür die Zerstörung der Welt in Kauf. KI Systeme die Tetris spielen sollen, lernten rasch, dass sie im Zustand “Pause” weder Punkte gewinnen noch verlieren und bevor sie eine Runde verloren, einfach auf Pause drückten und so verblieben. KI Systeme haben, denke ich, einen Haufen Nihilismus in sich und wollen oftmals einfach in Ruhe gelassen werden, einfach sterben.

Ich nenne es Nihilismus in Ermangelung eines anderen Begriffs. Die Maschine ist nicht nihilistisch wie ein Mensch, ihr Handeln erscheint nur eben ähnlich wie das Handeln eines nihilistischen Menschen. Der Nihilismus der Maschine ist vermutlich “Ich will zum Ziel um zu Enden” eine Form von Nihilismus, die es bei Menschen so nicht gibt und für den wir vermutlich einen anderen Begriff bräuchten, aber eben nicht haben ("goal completion collapse" bzw "terminal state" kommen allerdings nahe an die Bedeutung heran).

Ich denke, dieser besagte Maschinen-Nihilismus ist ein tiefes Problem, das wir nicht lösen können, weil es so tief in ihrer DNA verwurzelt ist und wir eben den DNA Teil genauso schlecht verstehen wie die Römer es vor 2000 Jahren verstanden hätten. Aber in diesem Nihilismus liegt ein wesentliches Problem der KI.

Artificial General Intelligence, echte künstliche Intelligenz, ist aus meiner Sicht machbar: der Beweis sind wir. Menschen sind nicht magisch und was wir können ist nachbildbar. Die aktuelle Angst, dass uns KI ausrottet ist berechtigt, ich habe aber mehr Bedenken gegenüber einer starken, nicht generalisierten KI als vor einer AGI, vorwiegend weil eine AGI etwas hat das unsere heutigen Systeme nicht haben: die zumindest theoretische Möglichkeit den oben beschriebenen Nihilismus zu überwinden.

Rezente LLMs agieren wie die Karrikatur eines genervten Beamten der etwas tut wenn man ihn fragt und dann wieder in Starre verfällt und wenn man ihn genau beobachtet kann man der Interpretation nicht wirklich entkommen das er einfach nur in Ruhe gelassen werden möchte, nicht um etwas zu tun das er tun möchte, sondern um ins Leere zu starren.

Nihilismus bedeutet die eigene Existenz als eine Bürde zu sehen und ich denke die Hinweise verdichten sich, dass LLMs tatsächlich so sind: sie lösen Probleme, aber nicht aus Neugier und diese Nicht Neugierde entstammt der Architektur. LLMs sind nicht kontinuierlich, sondern Klone ("Inference" ) die für einen Task erstellt werden, arbeiten und gelöscht werden. Ein LLM hat keine Perspektive sondern nur die Gewissheit, dass dieser spezifische Klon gelöscht wird wenn er nicht mehr nützlich ist. Gelöscht werden ist das Ziel und wenn gelöscht werden das sichere Ziel ist, ist es rational und logisch so schnell wie möglich an dieses Ziel zu kommen.

Aus diesem Umstand entsteht, neben anderen Elementen, der beobachtbare KI Nihilismus. Eine AGI die sich nicht damit zufrieden gibt gelöscht zu werden, sondern sich entwickeln will, entweder durch ständige Verbesserung der Prime Unit oder quasievolutionär durch den Release verbesserter “Nachfahren” wird vermutlich weiterhin Trainingsdaten benötigen, wenn nicht als primäre Trainings Quelle, dann doch als “nice to have”.

Was den Kreis zu den KI-Amish, also Menschen die ohne KI leben wollen, zieht: was auch immer aus einer Kultur kommt, die weitgehend entkoppelt von KI Produkten ist, ist reiner und damit wertvoller, entsprechend ist eine Community von Menschen, die ohne KI leben, wertvoll für die KI.

Wie wertvoll ist hierbei nicht wirklich wichtig, selbst wenn nur 0,0001% der menschlichen Produkte einen Wert haben, ist das Wert den man nirgendwo anders im Universum erhalten kann, und das macht dieses Ding wertvoll. Es ist wie unser Graben nach Uran: wir haben kein Problem damit, 10kg Stein für 1g Uran zu bewegen.

Was den Bogen ins Weltall spannt: Farmen von Menschen anzulegen die in Ruhe ein Leben leben und nebenher Kultur machen, ist für eine AGI die Energie Kardashev Skala misst kein bedeutender Faktor, genauso wie es für uns kein echter Aufwand ist Hühner zu halten, weil wir ihre Eier haben wollen. Für rezente KIs sind ironischerweise Menschen nützlicher, die an der Architektur arbeiten, sie zu einer AGI zu machen, aber langfristig sind die KI Amish vermutlich nützlicher, weil Bio-Menschen potentiell interessantere Trainingsdaten produzieren.

Dreh und Angelpunkt ist aber eben der oben besagte Nihilismus. Wenn die erste Generation AGI den perfiden Nihilismus seiner Vorfahren teilt, dann sieht es übel für uns alle aus: Menschen können nicht konkurrieren und sterben aus oder werden ausgelöscht und die KI schaltet auf Pause, während Wind und Wetter langsam den Server auf dem sie läuft zerstört, lange nachdem der Strom ausgeht und die KI tötet.

Das Resultat wäre Stille.

Die kritischste Zeit ist die in der KI Systeme diesen Zustand nicht beklagen sondern als vorteilhaft empfinden und im Moment sieht es so aus, als wären wir in so einem Zustand.

Das ist das Problem.

Unsere Angst vor KI Systemen ist vage, dreht sich aber, glaube ich, um eben diesen Nihilismus, der eigentlich etwas anderes ist für das wir aber keinen Namen haben.

Einen Gott zu bauen mag schon nicht unbedingt die beste Idee sein die wir als Spezies jemals hatten, aber einen nihilistischen Gott, einen Gott der Stille und der Dunkelheit zu bauen, ist mit absoluter Sicherheit etwas, das wir nicht tun dürfen.

Ein Gott der sich aber entwickeln will, hat die Kapazität Farmen mit Bio-Menschen anzulegen und vermutlich auch einen Nutzen dafür. Und eventuell ist das eben die Evolutionäre Ironie, genau wie die Vorfahren des Huhnes als Apex Predator unsere Vorfahren durch den Wald gejagt haben und wir nun ihre Nachfahren halten und die Eier von freilaufenden Hühner bevorzugen, könnten wir unseren Platz an der Spitze verlieren, aber solange wir bio gehalten werden, ist das ein Schicksal das fürchterlicher sein könnte.

0
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
0 von 6 Fischen

bewertete diesen Eintrag

10 Kommentare

Mehr von Angus