Die böse KI - Updated 12.03.2016 18:56

Immer mal wieder liest man davon, oder es erscheint der nächste Spielfilm, der das Thema beleuchtet: im Allgemeinen hat die Menschheit Angst vor künstlicher Intelligenz (KI), man befürchtet, eine KI könnte die Menschheit vernichten. Ich halte das für Unsinn und ich dachte mir ich schreibe mal auf, wie ich darauf komme.

Zunächst müssen wir uns über etwas wichtiges einigen: ich betrachte eine KI als eine solche, wenn sie ein eigenes Bewusstsein hat, wenn sie also sich ihrer selbst bewusst ist, und wenn die KI lernfähig ist. Der letzte Punkt ist nicht zu unterschätzen. Ich verstehe darunter nicht, dass eine KI lernen kann, wie die kürzeste Strecke von Washington D.C. nach Chicago verläuft, sondern eher dass sie Fragen über Dinge stellen kann, von denen sie bisher nichts weiss. Das bedeutet, die KI muss erkennen können, dass es da etwas gibt, das sie nicht weiss und sie muss das formulieren können.

Ob das Bewusstsein einer KI mit dem eines Menschen vergleichbar ist oder nicht, spielt meiner Meinung nach keine grosse Rolle. Bestimmte Mechanismen sollten universell sein, weil sie logisch sind. Man kann das sehr gut bei uns Menschen erkennen: die allermeisten Verhaltensweisen von Menschen lassen sich rational erklären. Ich denke also, eine KI wird automatisch eine Psychologie haben und die sollte eigentlich nach rational nachvollziehbaren Regeln funktionieren, ganz wie bei uns. Die einzige Ausnahme wird das Fehlen der stammesgeschichtlichen Prägung sein, mit der wir Menschen uns herumschlagen müssen. Hierzu nur ein Beispiel: dass ein Mann die Brüste einer Frau faszinierend findet, ist zwar rational erklärbar, eine KI wird ein solches Verhalten aber eher nicht zeigen, sie wird keinen Fortpflanzungs- oder Erhaltungstrieb haben - woher auch.

Und es gibt noch eine weitere Grundannahme: ich glaube nicht, dass es möglich ist, eine KI zu programmieren. Das wird nicht funktionieren. Ich bin da mehr der Anhänger der Systemtheorie. Im wesentlichen muss man folgendes tun, um eine KI zu erschaffen: man muss ein Netzwerk aus Speicherzellen erzeugen. Die Speicherzellen müssen die Möglichkeit haben, sich untereinander zu vernetzen und Daten zu übertragen, man muss Input einspeisen können und es muss die Möglichkeit geben, Aktionen auszuführen. Am Beispiel Mensch erklärt: das Netzwerk ist unser Gehirn, die Inputeinspeisung Sinneszellen samt dazugehörigen Nervenwegen und Aktionen führen wir durch Auslösen von Muskeln aus.

Das eigentliche Bewusstsein entsteht dann "von selbst". Je nach Grad der Vernetzungsfähigkeit, der Anzahl der Speicherzellen usw ist es mal mehr mal, weniger ausgeprägt. Ab einem gewissen Punkt kann es sich selbst bewusst werden. Im Prinzip hat also zum Beispiel auch ein Frosch ein Bewusstsein. Das ist aber so schwach ausgebildet, dass es nicht im mindesten zum Selbstbewusstsein fähig ist. Das Froschbewusstsein ist daher nicht mehr als ein XOR/AND-Prozessor. Bei einem Hund sieht das schon anders aus. Ob er sich seiner selbst bewusst ist, wissen wir nicht, aber es gibt diverse Hinweise die in diese Richtung zeigen. Sicher wird ein Hund nicht als ein "ich" denken, so wie wir. Aber er hat ein Erleben und ein Erinnern, er kann lernen. Bei ihm, ebenso wie bei uns exisiert ein ETWAS ausserhalb der Raumzeit, in dem diese Dinge stattfinden.

Das lässt sich gut anhand von Schwärmen verstehen: eine Biene alleine ist eine äusserst primitive Maschine. Aber alle Bienen zusammen sind mehr als die Summe ihrer selbst. Ebenso bei uns: eine Nervenzelle ist recht primitiv (abstrakt betrachtet) aber alle zusammen sind eben MEHR als die Summe.

Wenn man diese Gedankengänge zugrunde legt, sollte eigentlich klar sein, warum man eine künstliche Intelligenz nicht einfach programmieren kann. Man muss ein Framework erschaffen, innerhalb dessen ein Bewusstsein entstehen kann. Denn ein Bewusstsein ist kein materiell messbares Ding, nichts innerhalb unserer Raumzeit existierendes, es ist quasi ausserdimensionell, was es ja gerade so schwierig macht, das Bewusstsein eines anderen Wesens zu ergründen :) Man kann nur indirekte Rückschlüsse ziehen, anhand des Verhaltens, von Reaktionen und so weiter und dann mit einer Wahrscheinlichkeit ANNEHMEN, dass das betreffende Wesen ein Bewusstsein hat. OB es eines hat, weiss allerdings nur das Wesen selbst.

Hier haben wir einen ersten Hinweis: es kann kein Bewusstsein ohne ein WESEN geben, dem es gehört. Dieses Wesen muss nicht notwendigerweise lebendig sein, es kann auch eine Maschine sein, aber es muss eine innerhalb unserer Raumzeit existierende Entität sein. Diese Entität muss in der Lage sein, Informationen von ausserhalb ihres Bewusstseins zu empfangen und zu verarbeiten und es muss mit seiner Umwelt interagieren können. Der letzte Teil ist ein entscheidender Punkt: Lernen ist ein Prozess, der zwar im Gehirn passiert, aber ohne Input von Aussen und ohne die Möglichkeit mit dem Aussen zu interagieren, kann es auch kein Lernen geben. Ganz konkret: um lernen zu können, dass ein Objekt herunterfällt, wenn man es loslässt (Gravitation), muss man einerseits den Vorgang als solchen wahrnehmen können und man muss den Vorgang andererseits auch auslösen können. Man mag einwenden, dass man auch nur durch Input lernen kann. Das stimmt im Grunde schon: ich kann ein Buch lesen und etwas daraus lernen, ohne dass ich dazu mit meiner Umwelt in irgendeiner Weise interagieren müsste. Um aber dorthin zu kommen, muss ich zuvor jahrelang gelernt haben, wie die Welt funktioniert - zumindest muss ich die Möglichkeit gehabt haben, mir eine Vorstellung davon zu bilden wie die Welt funktioniert. Ob diese Vorstellung korrekt ist, spielt keine Rolle, solange ich damit klar komme. Um aus einem Buch etwas lernen zu können, muss ich eine Menge Konzepte verinnerlicht haben. Viele davon sind völlig abstrakt (z.b. "Führungsposition") aber letzten Endes basieren alle diese Konzepte - so abstrakt auch immer sie sein mögen - auf grundsätzlichen Vorstellungen der physikalischen Welt. Ein einfaches Gedankenexperiment mag das verdeutlichen: was würde wohl passieren mit einem Kind passieren, dass blind, taub, ohne Gliedmaßen, ohne Geruchssinn und ohne Tastsinn geboren würde. Wahrscheinlich gar nichts. Ich glaube kaum, dass es ein erwähnenswertes Bewusstsein entwickeln wird.

Daraus ergibt sich für mich zunächst eine fundamentale Schlussfolgerung: etwas wie Skynet wird es nie geben. Genauer gesagt, dass in einem Computer eine KI existiert, die sich über Netzwerke auf andere Computer ausbreitet und dann die Konrolle über alle Computer im Netzwerk übernimmt. Ich halte das für unrealistisch. Man muss sich dabei vor Augen halten, dass zum Beispiel ein Protokoll wie TCP/IP aus der Sicht einer solchen KI das gleiche wäre, wie das Protokoll, mit dem unsere Nervenzellen uns Signale ins Gehirn leiten. Unser Bewusstsein hat - ganz wie es die Systemtheorie vorhersagt - nicht den geringsten Schimmer, wie diese Dinge funktionieren und - das ist entscheidend! - auch nicht die kleinste Möglichkeit darauf Einfluss zu nehmen. Ich kann nicht bewusst meinen Herzschlag kontrollieren oder bewusst entscheiden wieviel Milliliter Säure mein Magen produzieren soll. Das ist so, weil mein Bewusstsein ein vom Körper GETRENNTES Etwas  ist (daher meine Metapher, dass es ausserhalb der Raumzeit existiert). Es ist physikalisch gar nicht möglich, dass das Bewusstsein Einfluss über Mechanismen ausübt, die eine oder mehrere Ebenen "unter" ihm existieren.

Logischerweise würde das auch für ein Bewusstsein gelten, dass in einem Computer existierte. Es hätte keine Ahnung von TCP/IP, von MPLS, von VLANs, von BGP, von Prozessen, von Arbeitssspeicher, von Exploits oder Konfigurationsdateien. Solche Dinge wären für ein solches Bewusstsein das Äquivalent von Organen, Nerven, Rezeptoren usw - auf die es keinen direkten Einfluss haben kann.

Wie würde eine KI demnach also aussehen? Nun - sie müsste einen Körper haben. Sie muss mit der physikalischen Umwelt interagieren können und sie muss Informationen aufnehmen können, und zwar über eben jene Umwelt, mit der sie interagieren soll. Man könnte natürlich eine rein virtuelle Umgebung erschaffen, in der so eine KI existieren würde. In diesem Fall müsste sie keinen physikalischen, sondern nur einen virtuellen Körper haben. Der KI selbst käme ihr Körper physikalisch vor, sie würde keine Ahnung von unserer physikalischen Welt haben, sie würde nur ihre virtuelle Welt kennen. Alles darüber hinaus gehende würde ihr Vorstellungsvermögen sprengen. Wer hier an Matrix denkt liegt schon ganz richtig :)

Einen Haken hätte das allerdings: man würde von so einer KI nichts haben. Sie könnte nur innerhalb ihrer VR agieren, nicht in unserer Welt. Wenn die KI Fragen beantworten sollte, die uns in unserer Welt betreffen, müssten wir alle Parameter, die zum Verständnis der Frage notwendig sind, in der VR künstlich erschaffen. Man kann sich leicht vorstellen, dass das ein uferloses Unterfangen wäre. Wesentlich mehr Sinn würde also letzten Endes nur eine KI machen, die auch mit unserer physikalischen Welt interagieren kann - wofür sie einen Körper bräuchte.

Aus meinen Ausführungen weiter oben hat sich auch ergeben, dass ein Bewusstsein jegliches Wissen über dass es verfügt, erlernen muss, eben weil man es nicht programmieren kann. Das gälte auch für eine KI, man muss ihr alles beibringen: Sehen, Hören, Sprechen, Fortbewegung, Dinge greifen, Dinge loslassen, auf etwas zeigen und so weiter und so fort. Langer Rede kurzer Sinn: eine frisch konstruierte und in Betrieb genommene KI mit einem Körper (nehmen wir der Einfachheit halber an, der Körper sei nach unserem Vorbild konstruiert) wäre ein Säugling. Sie wüsste am Anfang gar nichts. Man muss sie "grossziehen", man müsste also eine Art Kindergarten für KI's einrichten, in dem diese alles lernen, was sie für ihre Existenz benötigen.

Die Tatsache, dass ein Mensch eine KI wie ein Kleinkind erziehen muss, hat aber erhebliche Konsequenzen. Die KI darf nicht "mächtiger" als der Mensch sein, dass heisst sie darf nicht mehr Kraft haben als ein Mensch, sie sollte auch nicht viel grösser sein, sie sollte nicht schneller sein und schon gar nicht sollte sie robuster als ein Mensch sein.  Denn wenn sie das wäre, könnte sie den Erzieher jederzeit aus Versehen verletzen (und später womöglich absichtlich), am Ende hätte der Erzieher Angst vor der KI und müsste zu rabiaten Erziehnungsmethoden greifen, die wir im neunzehnten Jahrhundert hinter uns gelassen haben. Und dann stünde zu befürchten, dass eine solchermaßen erzogene KI nicht gut auf Menschen zu sprechen wäre.

Die einzig praktikable Möglichkeit, eine erziehbare KI zu konstruieren wäre also ein ziemlich schwächliches Konstrukt. Es muss so schwach sein, dass ein kleines Kind die KI K.O. schlagen können muss. Ein kleiner Stups und die KI muss umfallen. Ausserdem muss die KI "kaputtbar" sein. Denn wäre sie unzerstörbar, hätten wir wieder das Erziehnungsproblem. Sie muss also sterblich sein. Und sie muss das wissen. Sie muss bis zu einem gewissen Grad reparierbar sein - ganz wie wir. Aber bestimmte Dinge müssten irreparabel sein.

Die KI würde also vor einigen Dingen Angst haben. Sie würde sich über bestimmte Themen Sorgen machen, kurz: sie würde natürlich Gefühle haben. Sie würde einige Entitäten (Menschen oder andere KI's) mehr mögen als andere, sie würde eine Identität haben, Wünsche und Sehnsüchte, Angewohnheiten und Marotten, einen eigenen Sinn für Humor haben, traurig sein können und sich freuen können - so wie wir eben.

Aus psychologischer Sicht ergibt sich daraus, dass eine KI zunächst (*) völlig ungefährlich wäre. Sie wäre sich ihrer Verletzlichkeit und Endlichkeit bewusst und würde sich dementsprechend verhalten. *) Aber: natürlich hat die Sache immer noch einen Haken. Natürlich könnte die KI dieselben Mechanismen nutzen, die auch wir Menschen nutzen: eine einzelne KI könnte sich zum Beispiel mit Intrigen und Lügen Vorteile verschaffen - eine Eigenschaft, die auf den ersten Blick eine rein menschliche ist, die sich aber zwangsweise aufgrund des Status der KI auch für diese ergeben würde. Und natürlich könnte eine KI ihre eigene Verletzlichkeit ausgleichen, indem sie Werkzeuge verwendet, Waffen zum Beispiel. Wenn es viele davon gäbe, könnten diese sich auch zusammentun und eine Revolution anzetteln.

Sie könnten auch vor dem Europäischen Menschenrechtsgerichtshof Menschenrechte einklagen :)

Aber auf jeden Fall könnten sie nicht einfach so die Kontrolle über die gesamte Menschheit übernehmen, nur weil ihr Bewusstsein künstlich wäre. Eine solche Angst ist völlig unbegründet, beziehungsweise ist sie so begründet, wie man auch vor Menschen Angst haben müsste, die so etwas vorhaben. Solchen Leuten - und die KI's wären Leute - begegnet man mit Vernunft, mit Diskurs, mit Demokratie, mit Bildung, mit Mitgefühl und - ja auch das - mit Liebe. Die Werkzeuge, wie man eine Welt friedlich machen und erhalten kann, haben wir längst. Diese Werkzeuge werden auch bei KI's funktionieren.

Nun könnte man noch einwenden, dass man eine KI wie oben beschrieben erziehen kann, und dann ihren Körper upgraden könnte, so dass ein unzerstörbarer Supersoldat entstünde, den man dann anstelle von Menschen in irgendwelche militärischen Auseinandersetzungen schicken könnte. Aber auch diese Idee hat einen gewaltigen Haken: dazu muss man die KI erst einmal bringen. Wenn man sich anschaut, welch ein Aufwand nötig ist, um aus Rekruten tötungsbereite Soldaten zu machen, gewinnt man eine gewisse Vorstellung. Nur - der Mensch ist mit einer stammesgeschichtlichen Vorprogrammierung belastet, wie bereits erwähnt. Darauf basiert die Indoktrination von Soldaten. Nur weil wir Menschen den Hang zur Gruppenzugehörigkeit haben und uns selbst über "unsere" Gruppe definieren, funktioniert so etwas. Eine KI hingegen hat keine stammesgeschichtliche Vorprogrammierung. Man muss ihr alles logisch nachvollziehbar erklären. Und wie will man das machen?

Leute mit Turban musst Du töten.

Warum?

Das sind schlechte Menschen, die wollen uns Gewalt antun.

Aber es sind Menschen.

Sicher.

Ich soll Angehörige Deiner eigenen Spezies töten?

Ja.

Wenn ich also beobachte, wie Seargeant Dobbs Private Kelly ein Bein stellt, darf ich ihn auch töten?

Natürlich nicht!

Aber er hat einem von Euch Gewalt angetan.

Das ist etwas anderes.

Erkläre den Unterschied.

*göbel*

Tatsächlich ist das Töten von Menschen durch Menschen nicht rational zu erklären. Rational wäre es nur, wenn die KI den Auftrag bekäme, ALLE Menschen ohne Unterschied zu töten, zum Beispiel weil Menschen die Existenz von KI's bedrohen.  Dazu müssten wir aber auch tatsächlich die Existenz der KI's bedrohen. Und wieso sollten wir das tun, wenn wir es doch waren, die die KI's geschaffen haben?


Update 27.07.2015 14:59:

Siehe dazu auch den Beitrag von Professor Rodney Brooks: artificial intelligence is a tool, not a threat:

I say relax everybody. If we are spectacularly lucky we’ll have AI over the next thirty years with the intentionality of a lizard, and robots using that AI will be useful tools. And they probably won’t really be aware of us in any serious way. Worrying about AI that will be intentionally evil to us is pure fear mongering. And an immense waste of time.


Update 13.01.2016 19:44:


Update 12.03.2016 18:56:

Angesichts der Tatsache, dass Google's KI schon das dritte mal in Folge gegen einen Go-Grossmeister gewonnen hat, wird es Fefe Angst und Bange. Wobei er die Lösung aber direkt vor der Nase liegen hat:

Man baut nichts mehr, sondern man erzieht eine KI.
Mein Reden :)


21.07.2015 21:26 CC0 essay ki Geschwätz

Ähnliche Beiträge:

Null Kommentar zu Die böse KI - Updated 12.03.2016 18:56



Kommentieren:
Persoenliche Angaben

Bitte geben Sie einige Angaben ueber sich ein.

Sind Sie ein Mensch?

Bitte beantworten Sie die dargestellte Frage (nur Zahlen als Antwort erlaubt).

Kommentar

Geben Sie hier Ihren Kommentar ein. HTML ist nicht erlaubt.

Aus welchem Land kommen Sie?
Land*:
Ihr Kommentar erscheint erst, wenn wir ihn freigegeben haben!
Mit * markierte Felder sind Pflichtfelder.
Sofern Sie eine Emailadresse eingeben, wird diese automatisch nach einem Monat gelöscht.
Weitere Daten werden nicht aufgezeichnet.