Jede Sprache auf der Welt, alle 6000, haben kennen das Konzept „gut genug“ bis auf eine: die Mathematik. Und das ist ein Problem für die Forscher die sich mit künstlicher Intelligenz beschäftigen.

Eine der großen Ängste die Menschen im Bezug auf KI haben ist, dass die AI ihr Ziel zu energisch verfolgt. Gäbe man etwa einer KI den Auftrag Büroklammern herzustellen würde sie nicht ruhen bevor nicht das ganze Universum nur noch aus Büroklammern besteht.

Geben wir der AI zB den Auftrag 1000 Bleistifte zu besorgen würde sie nicht einfach 1000 Bleistifte bestellen (wie ein Mensch), denn es könnte ja sein, dass die nicht ankommen, also bestellt sie an anderer Stelle nochmal 1000. Aber auch das garantiert keinen Erfolg, sondern nur 99,9993% Erfolgswahrscheinlichkeit. Da geht mehr!

Gibt man der AI nur den Auftrag 1000 Bleistifte zu bestellen, setzt aber keine anderen Ziele, wie etwa nicht all das Geld das man hat in Bleistifte anzulegen, wird die AI alles daran setzen um ihr Ziel mit an Sicherheit grenzender Wahrscheinlichkeit zu erreichen, das inkludiert das Verkaufen von Haus und Hof um noch ein paar Millionen Bleistifte zu bestellen. Nur um sicher zu gehen.

Eine AI wird also alles in ihrer Reichweite opfern um das zu erreichen was sie haben will. In knapperen Worten: die AI wird gigantische Werte von Dingen opfern die ihr unwichtig sind um lächerlich kleine Dinge zu bekommen die ihr wichtig sind. Wir nennen das das „Alignment Problem“.

Und hier sehe ich den Job der Zukunft: Menschen die im wesentlichen nichts anderes tun als der AI zu sagen: „reicht schon, hör auf“

Was uns die Forschung im Bereich der künstlichen Intelligenz demonstriert ist, dass Konzepte die uns absurd trivial vorkommen wie „reicht schon“, auf mathematischer Ebene extrem komplex sein dürften und das kann bedeuten, dass der Mensch doch noch eine Weile gebraucht wird um die AI effizient und vor allem sicher, einzusetzen.

1
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
6 von 6 Fischen

bewertete diesen Eintrag

Matt Elger

Matt Elger bewertete diesen Eintrag 17.04.2023 20:13:01

9 Kommentare

Mehr von Angus