Mitunter lernen wir etwas über uns wenn wir wo anders hinsehen. Der Treibhauseffekt etwa wurde nicht entdeckt weil wir uns die Erde angesehen haben, sondern die Venus. Ein Perspektivenwechsel hilft oft enorm.

Dr. Robert Miles von der Universität Nottingham ist einer der führenden Forscher im Bereich künstliche Intelligenz. Sein Schwerpunkt liegt dabei in der AI Sicherheit, sprich wie man eine künstliche Intelligenz dazu bringt uns nicht alle umzubringen. Wenn man sich also damit beschäftigt etwas zu bauen, muss man sich eingehend mit den fundamentalen Größen dieser Sache beschäftigen. Im Falle von Dr. Miles ist das Intelligenz und Motivation. Sein Einblick in diese Dinge sind dabei erstaunlich und bringen ihn in Konflikt mit Menschen die sich mit der gleiche Sache auf höhere Ebene beschäftigen, etwa Psychologen wie Dr. Bradley M. Pinker.

Ein interessantes Problem liegt in der sogenannten „utility function“. Dieses Stück Software ist eine Funktion die Zustände der Welt bewertet.

Das System betrachtet dabei die Welt (bzw. einen Teil davon) und wirft einen Zahlenwert aus. Er führt als Beispiel an dass eine Welt in der er eine Tasse Tee mit Milch vor sich stehen hat einen Wert haben könnte, etwa 10. Eine Welt in der er keinen Tee hat einen geringeren Wert hätte, etwa 5 und eine Welt in der auf seinem Schreibtisch ein hungriges Krokodil sitzt einen deutlich geringeren Wert, etwa -10 000.

Die Idee ist einer künstlichen Intelligenz damit zu vermitteln in welche Richtung sie arbeiten soll. Im Idealfall wäre das „unsere utility function“ also „was wir wollen“, im Gegensatz zu „was wir ihr auftragen“.

Ein Roboter mit diesen Informationen würde etwa dafür sorgen dass im Büro von Dr. Miles immer Tee aber niemals ein Krokodil vorhanden wäre.

Vor allem aus dem Bereich der Psychologie kommt nun häufig die Kritik dass diese Herangehensweise, insbesondere um Menschen zu verstehen, unzureichend sei, da Menschen deutlich komplexer denken.

Dr. Miles wirft hier ein dass das nicht zutrifft. Wenn wir vor der Wahl zwischen Zuständen (zb.: A und B) stehen dann bevorzugen wir entweder

A über B,

B über A oder

es ist uns gleichgültig.

Es gibt keine weiteren Zustände.

Das tatsächliche Problem liegt in der „Transitivität“.

Das bedeutet dass wenn ich

Wenn ich A über B bevorzuge und

B über C bevorzuge, dann

bevorzuge ich auch (vermutlich) A über C.

Menschen denken aber nicht so.

Menschen können etwa:

Wien gegenüber Berlin,

Berlin gegenüber Peking und

Peking gegenüber Wien bevorzugen.

Das würde bedeuten dass ständig von Berlin nach Wien, von Wien nach Peking und von Peking nach Berlin und Weiter nach Wien reisen würden, wenn wir könnten.

Genau hier kommen viele unserer Verhaltensmuster her die Probleme in der Welt schaffen. Eine künstliche Intelligenz kann diese Schleifen (potentiell) erkennen und sie durchbrechen. Wir aber sind oftmals unfähig aus diesen Kreisläufen auszubrechen. Wir glauben eine Aktion zu wollen, die Handlung führt zu Konsequenzen, diese Konsequenzen führt zu neuen Handlungen die uns dann über einige Schritte wieder zurück zum Anfang führen.

Ein Klassiker in diesem Bereich stellt der Verfassungskreislauf nach Platon dar: Gesellschaften bewegen sich ständig zwischen Monarchie, Aristokratie, Demokratie und wieder zurück zur Monarchie im Kreis. Menschen in Demokratien rufen nach starken Führern und die Menschen in Monarchie nach Rechten für das Volk. Wir bewegen uns also in einer generationenlangen Schleife.

Ähnliche Verhaltensmuster sehen wir überall, das Klischee der Frau die sich den wilden Rocker mit nachhause nimmt, ihn zähmt, sich langweilt und ihn dann für einen wilden Rocker verlässt, existiert ja nicht völlig unbegründet.

Künstliche Intelligenzen könnten uns helfen aus solchen Schleifen auszubrechen indem sie uns sagen dass wir gerade in so einer Schleife stecken und vermutlich könnten sie das recht gut weil es für ihre Funktion recht wichtig ist diese Dinge zu erkennen. Würden sie Schleifen nicht erkennen können, würde sich das System schlicht „aufhängen“ und wäre nicht mehr funktionsfähig.

Diese Überlegungen werfen hoch interessante Fragen auf und beleuchten uralte Probleme mit einem völlig neuen Licht. Eventuell verstehen wir erst jetzt, wo wir versuchen Intelligenz zu bauen, was unsere Ziele und Motivationen wirklich sind.

Eventuell belebt die Kybernetik gerade die Philosophie in einer Art und Weise die wir seit Jahrhunderten nicht erlebt haben.

Wir leben in aufregenden Zeiten!

maximizedigital https://maximizedigital.com/your-business-online/artificial-intelligence/

5
Ich mag doch keine Fische vergeben
Meine Bewertung zurückziehen
Du hast None Fische vergeben
6 von 6 Fischen

bewertete diesen Eintrag

Tourix

Tourix bewertete diesen Eintrag 29.05.2020 22:40:08

Frank und frei

Frank und frei bewertete diesen Eintrag 29.05.2020 18:08:39

Matt Elger

Matt Elger bewertete diesen Eintrag 29.05.2020 16:49:27

Claudia56

Claudia56 bewertete diesen Eintrag 29.05.2020 14:17:48

Kai-Uwe Lensky

Kai-Uwe Lensky bewertete diesen Eintrag 29.05.2020 11:48:57

12 Kommentare

Mehr von Angus