Kürzlich veröffentlichte Dr. Robert Miles wieder eines seiner phantastischen Videos zu AI Sicherheit und beleuchtet ein Missverständnis, das in der weiteren Bevölkerung recht weit verbreitet ist: die Idee der AI Sicherheit ist nicht, einen besseren Käfig oder eine bessere Leine für eine AI zu bauen, die uns potentiell umbringen will, sondern eine AI zu bauen, die uns nicht umbringen möchte.

Das Zauberwort ist „Alignment“. Wenn man der AI etwa sagt, dass sie Heftklammern herstellen soll, dann wird sie sich einen Plan überlegen, wie sie aus dem ganzen Universum Heftklammern macht. Alignment beschäftigt sich mit der Frage wie wir der AI Kontext beibringen, um ihr klar zu machen, warum sie das tut und wann es genug ist. Wenn man etwa schafft zu vermitteln, dass Heftklammern wichtig sind, damit Menschen in einem Büro Akten besser zu ordnen, dann schafft das Kontext und die AI versteht, dass ihr „eigentliches Ziel“ nur dann erreichbar ist, wenn die Menschen, Büros und Akten nicht im Prozess der Heftklammerherstellung zerstört.

Das Problem ist, dass wir der KI nicht beigebracht haben, dass Regenwälder für sie kein Thema sind. Sie wird also kein Problem damit haben, Regenwälder abzuholzen, um dort Heftklammerfabriken zu bauen.

Sekundär wird sie auch versuchen Menschen, Büros und Akten zu fördern, auf Kosten allerdings aller Dinge die keine Menschen, Büros oder Akten sind.

Alignment ist schwer. Sehr schwer.

Wir nehmen so vieles als gegeben, sodass es uns extrem schwer fällt, eine Liste aller Dinge, die uns wichtig sind, zu erstellen und alles, was wir vergessen auf diese Liste zu schreiben, verlieren wir, wenn eine hinreichend starke AI mal loslegt zu arbeiten.

Die aktuelle Lösung ist also, Leinen und Käfige zu bauen, weil wir das können und Alignment nicht können. Jedenfalls nicht gut. Damit ist AI Sicherheit in der Praxis genau das, was der Ottonormalverbraucher erwartet, aber in Wirklichkeit arbeiten Experten mit Hochdruck an der Lösung des Alignmentproblems.

Das Problem an der Sache ist, dass wir weder eine Leine noch einen Käfig für Godzilla bauen können. Eine AI, die klüger als wir ist, wird aus unserem Käfig herauskommen, vermutlich indem sie uns, mit absurden Argumenten, überzeugt, dass wir sie herauslassen sollen und wenn dieses Ding dann aus dem Universum Heftklammern machen möchte, dann wird sie das tun und wir werden keine Chance haben etwas dagegen zu tun.

JuliusH/pixabay https://pixabay.com/illustrations/ai-generated-music-melody-harmony-8774267/

5
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
6 von 6 Fischen

bewertete diesen Eintrag

Matt Elger

Matt Elger bewertete diesen Eintrag 19.11.2024 20:35:04

Petra vom Frankenwald

Petra vom Frankenwald bewertete diesen Eintrag 19.11.2024 20:16:07

Claudia56

Claudia56 bewertete diesen Eintrag 19.11.2024 13:54:51

Kai-Uwe Lensky

Kai-Uwe Lensky bewertete diesen Eintrag 19.11.2024 07:10:27

Tourix

Tourix bewertete diesen Eintrag 19.11.2024 00:39:01

22 Kommentare

Mehr von Angus