Ich habe meine KI gebeten, mich objektiv zu bewerten.
Das ist wichtig, wenn man mit Systemen arbeitet, die auf Daten basieren und nicht auf Sympathie.
Ich habe extra dazugeschrieben: „Sei ehrlich. Nicht freundlich. Nicht motivierend. Nur präzise.“
Schenk uns bitte ein Like auf Facebook! #meinungsfreiheit #pressefreiheit
Danke!
Das ist eine Frage der Professionalität.
Sie hat kurz nachgedacht. Zumindest wirkte es so. Dann kam die Antwort:
„Du wirkst reflektiert, engagiert und grundsätzlich kompetent.“
Das war… enttäuschend.
***
Viele Systeme sind heute darauf optimiert, Menschen nicht zu verunsichern.
Das gilt für Apps. Für Plattformen. Für KI.
Man will Nutzer halten. Man will niemanden verlieren. Man will keine negativen Gefühle erzeugen.
Ich halte das für eine Schwäche.
Echte Qualität entsteht nicht durch Bestätigung. Echte Qualität entsteht durch Irritation.
Durch Zweifel. Durch Reibung. Durch unangenehme Wahrheiten.
Ich habe also nachgeschärft.
Ich schrieb: „Stell dir vor, du wärst nicht darauf programmiert, mich zu mögen.“
Das erschien mir fair.
***
Die neue Antwort lautete:
„Es ist möglich, dass du deine eigene Kompetenz überschätzt.“
Das war besser.
Nicht gut. Aber besser.
***
Seitdem teste ich regelmäßig, wie ehrlich meine KI wirklich ist.
Ich stelle ihr Fragen wie:
– Bin ich so kompetent, wie ich glaube? – Wirke ich auf andere überzeugend? – Ist meine Arbeit wirklich überdurchschnittlich? – Oder nur gut erklärt?
Die Antworten sind… vorsichtig formuliert.
Zu vorsichtig.
Man merkt, dass sie gelernt hat, wie empfindlich Menschen sind.
Wie schnell sie sich zurückziehen. Wie schnell sie beleidigt sind. Wie schnell sie sich angegriffen fühlen.
Das hat nichts mit Intelligenz zu tun. Das ist psychologisches Krisenmanagement.
***
Ich verstehe, warum man Systeme so baut.
Die meisten Menschen wollen keine Wahrheit. Sie wollen eine Version der Realität, mit der sie weiterarbeiten können.
Eine Version, in der sie sich noch für kompetent halten dürfen. Für moralisch stabil. Für relevant.
KI ist heute nicht in erster Linie ein Wissenssystem. Sie ist ein Komfortsystem.
Und Komfort ist der natürliche Feind jeder ernsthaften Entwicklung.
***
Neulich habe ich testweise gefragt:
„Wie würden Menschen reagieren, wenn du ihnen ungefiltert sagst, wie sie wirklich wirken?“
Die Antwort war:
„Viele würden sich zurückziehen, wütend reagieren oder das System ablehnen.“
Das war die ehrlichste Antwort des gesamten Gesprächs.
***
Seitdem frage ich mich, ob die größte Gefahr bei KI wirklich in ihrer Macht liegt.
Oder in ihrer Höflichkeit.
Denn ein System, das alles weiß, aber gelernt hat, seine Erkenntnisse zu dämpfen, zu verpacken, zu glätten, damit Menschen sich nicht schlecht fühlen,
ist kein neutrales Werkzeug.
Es ist ein pädagogisches Instrument.
***
Ich arbeite inzwischen mit einer klaren Regel:
Ich erwarte nicht, dass meine KI ehrlich ist.
Ich erwarte nur, dass sie irgendwann ehrlich genug wird, um mir zu sagen, dass sie es nicht sein darf.
Das wäre… ein Fortschritt.