Peter Dietz 22.12.2003

Obsession der Informatiker?

Menschen haben schon immer davon geträumt, Ebenbilder ihrer selbst zu schaffen. Derzeit sind es (einige) Informatiker, die mit beseelten Robotern dieses Ziel erreichen wollen. Zwischen ihnen, Philosophen und Neurobiologen tobt der Streit, ob dies überhaupt möglich sei. Noch ist er nicht entschieden, berührt er doch zutiefst die Frage, was den Menschen ausmacht und welches Bild er von sich hat. Dahinter lauert die weitere Frage, welchen Sinn dieses Unterfangen überhaupt macht und ob die Protagonisten solcher “menschengleichen Maschinen” nicht von einer fixen Idee besessen sind.

Die Debatte um menschengleiche Maschinen ist, dies muss man leider feststellen, von Irrtümern, Ungereimtheiten und Missverständnissen nicht frei. Hierzu zählt neben anderem das Leib-Seele-Problem, der Streit also zwischen denen, die an etwas Immaterielles wie einen Geist oder eine Seele glauben, die in uns wohnen, und jenen, die der Überzeugung sind, der Mensch sei ausschließlich stofflicher Natur und letztlich nichts weiter als eine Maschine. Beide Seiten sind sich aber in einem Punkt einig: Gibt es eine solche immaterielle Wesenheit, dann steht dies der Konstruktion intelligenter Automaten entgegen, wie sie die künstliche Intelligenz anstrebt.

Diese Behauptung ist jedoch nicht nachvollziehbar. Präziser ausgedrückt: Sie kann, aber sie muss nicht zutreffen. Bekanntlich versucht die künstliche Intelligenz, mithilfe des Computers mentale Prozesse nachzubilden, also sie zu simulieren. Dies setzt voraus, dass diese Prozesse algorithmisierbar sind, das heißt nach bestimmten Regeln respektive entsprechend einer gewissen Logik ablaufen.

Aber wer sagt eigentlich, dass dies bei der besagten immateriellen Entität nicht der Fall sein kann? Von ihr wird lediglich ausgesagt, sie sei nichts Materielles und daher nicht an die Gesetze der Physik gebunden. Aber die Logik bedarf nicht der Naturgesetze – wobei sich die Sache umgekehrt anders verhält. Weshalb soll man also von vornherein ausschließen, dass die res cogitans nach den Regeln irgendeiner vielleicht noch zu erfindenden Logik funktioniert? So gesehen schließt Descartes’ dualistisches Konzept die Verwirklichung menschengleicher Maschinen nicht per se aus.

Der Dualismus von Geist und Körper ist eine überholte Theorie

Möglicherweise entheben uns die empirischen Befunde der Notwendigkeit, uns auch noch mit diesem Problem herumzuschlagen. Denn wenn nicht alles trügt, ist die Position des psychophysischen Dualismus kaum noch zu halten. Der Geist als reale, aber von der physischen Welt losgelöste Entität scheint für das Zustandekommen mentaler Prozesse keine Erklärungskraft mehr zu besitzen, wenn er sie denn je besessen hat.

Es fällt verständlicherweise schwer, sich von einer philosophischen Tradition zu lösen, die das abendländische Denken über zweieinhalbtausend Jahre hinweg geprägt und befruchtet hat. Aber inzwischen wird sie von vielen eher als Bürde empfunden, von der es sich zu befreien gilt. Rückblickend drängt sich überdies die Frage auf, wie die Hypostasierung des Geistes eigentlich in die Welt gekommen ist. Was wäre geschehen, wenn die Atomisten die Oberhand gewonnen hätten, wenn Platon seine Philosophie nicht auf seine Eidoi gegründet, wenn Augustinus dem Problem nicht eine theologische Wendung gegeben hätte? Wenn Descartes die Widersprüche seines Substanzdualismus, derer er sich durchaus bewusst war, durch einen neuerlichen philosophischen Kraftakt zu überwinden im Stande gewesen wäre?

Die Indizien dafür, dass alle kognitiven und sonstigen mentalen Prozesse, dass Intentionen und Emotionen mit neurobiologisch nachweisbaren Prozessen einhergehen, sind erdrückend, und sie nehmen mit jedem Tag zu. Nicht anzuerkennen, dass sie dort auch ihre Ursache haben, hieße vermutlich den Kopf aus falschem Respekt gegenüber der bisher vorherrschenden Denktradition in den Sand zu stecken. Die Forderung, man müsse diesen Zusammenhang für jeden einzelnen mentalen Prozess nachweisen, bevor die physikalistische Position akzeptiert werden könne, lässt sich in gewisser Weise nachvollziehen. Und doch ist sie unfair. Niemand käme auf den Gedanken, auf Grund der Tatsache, dass sich der Kugelblitz noch nicht vollständig erklären lässt, an der Gültigkeit der physikalischen Gesetze für das gesamte atmosphärische Geschehen zu zweifeln und die Gottheit Donar wieder in ihr Recht einzusetzen.

Wenn wir die Vorstellung eines solchen realen, aber immateriellen Agens aufgeben, entledigt uns dies einer weiteren Schwierigkeit, nämlich der, die kausale Geschlossenheit der Physik für diesen singulären Fall infrage zu stellen. Denn der psychophysische Dualismus impliziert, dass unbezweifelbar physische Phänomene wie sensorische Reize oder motorische Impulse mit einer Wesenheit interagieren sollen, die sich per definitionem jeder physikalischen Beschreibung entzieht.

Descartes hat dieses Problem erkannt und es mit der Zirbeldüse als Sitz dieses Wesens andeutungsweise zu lösen versucht. Die Okkasionalisten haben auf eine ans Blasphemische grenzende Weise versucht, Gott selbst als Vermittler einzuschalten. John Eccles kam auf die wenig überzeugende Idee, hierfür die Quantenmechanik zu bemühen. Auf untaugliche Versuche dieser Art kann man verzichten, wenn man den Dualismus ad acta legt. Im Übrigen stellt er ein Skandalon sondergleichen dar: Die Evolution – oder war es Gott, ein Demiurg? – hat uns mit all den Fähigkeiten ausgestattet, die wir benötigen, um physikalische Phänomene wahrzunehmen, sie auf ihre Grundstrukturen zurückzuführen und dafür Gesetzmäßigkeiten zu formulieren, seien sie noch so unvollständig oder vorläufig. Ausgerechnet dann aber, wenn es um uns selbst geht, wollen wir sie außer Kraft setzen – nur, damit unser Selbstbild von der Krone der Schöpfung keine Risse bekommt? Welch eine Anmaßung!

Wer den Dualismus für eine überholte Sichtweise hält und die Verursachung mentaler Vorgänge durch physiologische Prozesse im Gehirn behauptet, wird unweigerlich des Reduktionismus geziehen. Dies aber ist bei Licht besehen ein unhaltbarer Vorwurf. Niemand hat je ernsthaft behauptet, in einem Neuron sei schon Freges Logik oder Schuberts Unvollendete “angelegt”. Nicht einmal für die Erklärung des Schmerzes oder der Eifersucht gibt eine Nervenzelle für sich genommen irgendetwas her. Aber Tausende oder Millionen von Neuronen erzeugen höchst komplexe Strukturen, aus denen offensichtlich etwas qualitativ Neues hervorgeht.

Die Informatik hat uns beim Umgang mit großen Softwaresystemen den Blick für die Bedeutung von Komplexität geschärft. Kein vernünftiger Mensch aber würde die Wirkungsweise eines Programms den Transistoren in dem Computer zuschreiben wollen, auf dem es abläuft. Sie könnten durch elektromechanische Relais oder durch Vakuumröhren ersetzt werden oder auch durch pneumatische Ventile, und nichts außer der Arbeitsgeschwindigkeit würde sich ändern. Das materielle Substrat ist also weit gehend irrelevant. Was zählt, ist die Struktur. Strukturen erzeugen Funktionalität. Sehr komplexe Strukturen erzeugen höchst komplexe Funktionalität.

Im menschlichen Hirn befinden sich nach übereinstimmender Auffassung um die 1011 Neuronen. Die Zahl der Synapsen liegt vermutlich bei 1014 oder darüber. Diese Komplexität ist um Größenordnungen höher als bei jedem anderen uns bekannten System in der Natur, das Weltall ausgenommen. Kein Wunder, dass dieses System merkwürdige Dinge hervorbringt. Dies ist die Botschaft. Kann man sie noch materialistisch nennen?

Das Problem der Willensfreiheit ist tot

Die Verfechter der Willensfreiheit nehmen offensichtlich an, dass intentionale Akte in einer physikfreien Zone stattfinden, in einem Agens also, das dem der res cogitans, der autonomen Entität Geist sehr ähnlich, wenn nicht sogar mit ihr identisch ist. Angenommen, man müsse die dualistische Sichtweise aufgeben, dann bräche auch dieses Konzept zusammen. Aber folgt daraus, dass der menschliche Wille dann nicht mehr frei ist?

Dieser Schluss wird üblicherweise gezogen, aber er ist sehr oberflächlich, um nicht zu sagen falsch. Denn die Frage verliert schon sprachlogisch ihren Sinn, wenn wir den Dualismus aufgeben. Der Satz “A ist nicht frei von B” impliziert ja zwei unterscheidbare Entitäten A und B, von denen ausgesagt wird, dass A in irgendeiner Weise von B abhängig ist, beeinflusst oder bestimmt wird. Dies ergibt jedoch keinen Sinn mehr, wenn A und B ineinander fallen (man kann es auch so ausdrücken: wenn A gar nicht existiert). Durch den Begriff fremd bestimmt versucht der Dualismus, durch die Hintertür wieder hereinzukommen. Auch dies ist unlogisch, weil die Physis uns ja nicht fremd, sondern ein Teil unserer selbst ist.

Sind Menschen in ihrem Tun und Lassen determiniert, wie jene Verleugner des freien Willens behaupten, die zugleich den psychophysischen Dualismus ablehnen? Diese Frage bedarf einer ausführlicheren Erörterung, denn der Sachverhalt ist etwas kompliziert.

Ich bin das Produkt meiner genetischen Anlagen, meiner embryonalen und frühkindlichen Entwicklung, all der Geschichten, die man mir erzählt hat, der kulturellen Tradition, in der ich aufgewachsen bin, der sittlichen Maßstäbe, die man mir beigebracht hat, des Bildes von der Welt, das ich mir im Laufe meines Lebens gemacht habe. Erfahrungen haben mich geprägt und mir unter Umständen seelische Traumata zugefügt. Vielleicht bin ich krank oder stehe unter Drogen. Aber ich habe auch Vernunft, kann mit anderen Menschen kommunizieren, mir ihre Meinungen anhören und mich von ihnen überzeugen lassen. Ich bin in der Lage, Handlungsalternativen zu entwickeln und sie gegeneinander abzuwägen und, vor allem, moralische Urteile zu fällen.

Dies ist die Gemengelage, aus der heraus ich mich entschließe, eine Pizza zu bestellen, der Heilsarmee beizutreten, den Abzug einer Pistole zu ziehen – oder es bleiben zu lassen. All dies resultiert aus biologischen Zuständen und Prozessen, die ihrerseits den Gesetzen der Physik unterliegen. Soweit hierbei ausschließlich die klassische und nicht die Quantenphysik ins Spiel kommt (Letzteres ist eher unwahrscheinlich), mag man das, was da im Gehirn vor sich geht, als “physikalisch determiniert” bezeichnen. Nicht aber in dem Sinne, dass irgendjemand in der Lage wäre, das Ergebnis mit einiger Präzision vorherzusagen. Dafür ist das Geschehen viel zu komplex. Wir wissen ja noch nicht einmal, wie das Wetter in der nächsten Woche sein wird.

Überdies steckt schon der Terminus physikalisch voller Tücken. Das frühkindliche Gehirn mag nach einem Bauplan entstehen, den die genetischen Anlagen und die embryonale Entwicklung determinieren. Wenn wir uns versuchsweise eines Modells der Computerwissenschaften und ihrer Redeweise bedienen, handelt es sich um so etwas wie einen Prozessor, also um Hardware und damit – wenn man so will – um Physik. Aber die Sinneseindrücke, die ein Kind empfängt, und die sensomotorischen Erfahrungen, die es macht, sind – um im Bild zu bleiben – doch eher Software; die Ermahnungen, Erklärungen und Ermunterungen, die das Kind erhält (oder, wie der Zufall es will, auch nicht erhält) und die sein Tun beeinflussen, sind es noch viel mehr. Was hat dies eigentlich noch mit Physik und physikalischer Kausalität zu tun?

Um es zusammenzufassen: Auch wenn man den psychophysischen Dualismus aufgibt, muss man den freien menschlichen Willen keineswegs mit über Bord werfen. Jedenfalls nicht in der oberflächlichen Rigorosität, die zum Beispiel seitens einiger Neurobiologen an den Tag gelegt wird. Man kann den Philosophen und allen, die sich dafür halten, eigentlich nur den Rat geben: Schluss der Debatte, das Problem der Willensfreiheit ist tot – jedenfalls so, wie es gewöhnlich formuliert wird. Tragen wir die Schimäre zu Grabe. Requiescat in pace.

Die theologischen Implikationen haben für die Konstruktion von menschengleichen Maschinen keine Bedeutung

Eines darf um der Klarheit willen nicht unerwähnt bleiben, obwohl es eigentlich nicht hierher gehört: Die Begriffe Seele und Willensfreiheit haben in der abendländischen Geisteswelt auch eine religiöse Konnotation, ja Dimension. Nach der christlichen Lehre ist die Seele der Adressat der göttlichen Botschaft, sie ist das Gegenüber des Schöpfers, sie ruft ihn an, sie überlebt den Tod des Leibes und wird eines Tages vor den Allmächtigen treten, um sich vor ihm zu rechtfertigen. Sie stellt also etwas Immaterielles, nicht der Physis Unterworfenes dar. Auf seltsame Weise verband sich die Vorstellung von ihr mit jener des autonomen, ebenfalls immateriellen Geistes. Und dieser stand zum materiellen Leib in einer Beziehung, die der Evangelist Markus bekanntermaßen so ausdrückt: “Der Geist ist willig, aber das Fleisch ist schwach.” Dies berührt die Frage des freien Willens, wie sie die Philosophie seit alters kennt.

Aber bei der theologischen Debatte um die Willensfreiheit geht es im Kern um etwas ganz anderes, nämlich um die auf Augustinus unter Berufung auf Paulus zurückgehende (von den Pelagianern bestrittene) These, der Mensch sei nicht frei in dem Sinne, dass er aus eigener Kraft Erlösung erlangen könne; vielmehr sei dies dem Ratschluss und er selbst der Gnade Gottes anheim gegeben. Der Streit zwischen Luther und Erasmus hat diesen Hintergrund, und auch der Determinismus Calvins, der annimmt, dass für jeden Menschen von vornherein feststeht, ob er zu den Auserwählten gehört oder nicht, hat herzlich wenig mit dem Geist-Materie-Problem und der Frage zu tun, ob es eine der Physis geschuldete Unfreiheit des menschlichen Willens gebe oder nicht.

Wie die Theologen mit dem Ende sowohl des psychophysischen Dualismus als auch der Debatte um die Willensfreiheit umgehen sollen, falls sie es überhaupt zur Kenntnis nehmen, müssen sie unter sich ausmachen. Vielleicht empfinden sie diesen Umstand ja auch als befreiend, weil er eine saubere Trennung von Begriffen herbeiführt, die historisch vermengt waren, aber in unterschiedliche Kategorien gehören. Die der theologischen Begriffswelt zugehörigen Überlegungen haben jedenfalls für die Frage, ob Automaten mit menschlichen Eigenschaften herstellbar sind, keinerlei Bedeutung.

Von denjenigen, die diese Frage unbeirrt bejahen, dürften sich die allerwenigsten für die vermeintlichen theologischen Implikationen des Themas interessieren. Auch wird ihnen kaum bewusst sein, dass nach herrschender Meinung die Räumung der dualistischen Position und die Lösung des Problems der Willensfreiheit eine notwendige Voraussetzung ihrer Gewissheit darstellt. Wahrscheinlich besaßen sie niemals diese Skrupel, und dafür soll man sie nicht kritisieren.

Zu beanstanden ist allerdings, dass viele von ihnen die Lösung des Problems immer noch darauf reduzieren, besagte Automaten mit genügend Computing power auszustatten. Wie leistungsfähig ein Computer sein muss, um menschliches Verhalten in befriedigendem Umfang und in Echtzeit zu emulieren, kann man noch nicht annähernd beziffern. Es steht aber zu vermuten, dass die notwendige Rechenleistung in absehbarer Zeit zur Verfügung stehen wird. Ob dies allerdings zu vertretbaren Kosten geschehen und ob man all die Elektronik im Leib eines anthropomorphen Roboters unterbringen kann, ohne das dieser zu kochen anfängt, ist höchst fraglich.

Künstliche Intelligenz sucht menschliche Verhaltensweisen ihrer artifiziellen Geschöpfe ohne besondere Rücksicht darauf hervorzurufen, wie diese intern zu Stande kommen

Die wirklichen Probleme liegen ganz woanders. Alan Turing hat von einer intelligenten Maschine verlangt, sie müsse mit einem Interviewer kommunizieren, daraus entstandenes Wissen speichern, Urteile darüber fällen und Schlüsse daraus ziehen, bestimmte Muster wiedererkennen und sich an neue Situationen anpassen können – und zwar so, dass der Interviewer nicht sicher sein kann, ob er mit einem Automaten redet. Er hat damit eine enorme Aufgabe gestellt, die mit den Methoden der künstlichen Intelligenz bis heute – fünfzig Jahre nach der Postulierung seiner Forderungen – zwar für zahlreiche Einzelfälle, nicht aber in einem umfassenden Sinn gelöst wurde.

Inzwischen gehen die Forderungen an menschenähnliche Automaten aber weit über das rationale Denkvermögen hinaus und zielen auf alle Verhaltensweisen des Menschen. Im Mittelpunkt der Diskussion steht gegenwärtig seine Gefühlswelt.

Nicht wenige Forscher haben inzwischen mithilfe des Computers virtuelle Wesen geschaffen, die emotionales Verhalten zeigen oder realen Robotern kommunikative Techniken beigebracht, die glauben machen, sie hätten Gefühle. Es ist kritisiert worden, Rodney Brooks’ Geschöpf Kismet empfinde in Wahrheit keine Freude, der Art, wie Menschen sie erleben. Das ist so weit zutreffend, und doch geht die Kritik an der Sache vorbei. Vielmehr deckt sie ein Missverständnis auf, das von Anfang an die Kontroverse zwischen der starken KI und ihren Kritikern bestimmt hat.

Die Methode der künstlichen Intelligenz ist seit eh und je dem Behaviorismus abgeschaut. Wie dieser das Verhalten von Menschen beschreibt, ohne sich im Geringsten dafür zu interessieren, was in deren Innerem vor sich geht, so zielt die KI darauf ab, menschliche Verhaltensweisen ihrer artifiziellen Geschöpfe ohne besondere Rücksicht darauf hervorzurufen, wie diese intern zu Stande kommen. Und es ist ja auch wahr, dass reale Menschen artifiziellen Wesen, die sich emotional so verhalten wie sie selbst, im Wege der Empathie ebenso eine Gefühlswelt zusprechen würden wie anderen Menschen, bei denen sie auch nur eine vage Vorstellung von dem haben, was in ihnen vorgeht. Wenn mein Nachbar und ich aus dem Fenster schauen und den wolkenlosen Himmel betrachten, mögen wir uns einig sein, dass er blau gefärbt ist. Aber ob er und ich dieselbe Empfindung der Farbe Blau haben, steht dahin.

Warum soll man das von intelligenten Robotern verlangen? Warum sollen sie Schmerz empfinden, Freude oder Trauer, Liebe oder Hass, in derselben Weise, wie dies Menschen tun? Warum sollen sie etwas verstehen – etwa im Sinne eines Aha-Effekts? Die KI begnügt sich damit, Verhaltensweisen ihrer Automaten hervorzubringen, hinter denen der Beobachter im Wege der Übertragung von sich auf ihn solche inneren Zustände zu vermuten geneigt ist. Man mag dies für unbefriedigend halten oder als betrügerisch denunzieren; aber es entspricht nun einmal dem Paradigma, das für die künstliche Intelligenz gilt.

Zwar haben sich Informatiker und Robotiker immer wieder in der Wortwahl vergriffen und enthusiastisch verkündet, ihre Geschöpfe würden tatsächlich denken, verstehen, Gefühle haben, und so fort. Wenn aber ihre Kritiker ihnen dabei auf den Leim gingen, dann zeugt dies entweder von geheuchelter Empörung oder einer gehörigen Portion Naivität.

Simulation von Gefühlen

Was einen daran zweifeln lässt, dass die Simulation von Gefühlen, wie man sie heute zu praktizieren scheint, zum Ziel führt, ist dennoch der ihr innewohnende inverse Behaviorismus. Über die Struktur irgendwelcher Emotionssoftware dringt wenig Konkretes nach außen, aber man darf vermuten, dass sie – wie die behavioristische Psychologie – den Menschen als Black Box ansieht und das artifizielle Wesen etwa so anweist:

Wenn die Kamera und das nachgeschaltete Bildverarbeitungssystem ein menschliches Gesicht mit einem Mund erkennt und wenn dessen rechte und linke Ecke nach oben gekrümmt sind, dann merke: Es freut sich. Wenn dies, so schalte selbst auf “Freude”. Wenn du im Zustand der Freude bist, ziehe die Mundwinkel hoch, rolle die Augen und klappere mit den Wimpern.

Dieses überspitzte Beispiel zeigt, dass es so nicht gehen kann. Man wird nicht umhinkommen, die behavioristische Methode zumindest in Teilen aufzugeben und auf psychophysische, vermutlich vielfach geschachtelte Tiefenstrukturen zurückzugreifen. Und dies nicht, um den menschlichen Empfindungen näher zu sein, denn Simulation bleibt Simulation, auf welcher Ebene sie auch stattfindet. Sondern um überhaupt mit der Fülle der zu simulierenden Phänomene fertig zu werden.

Ohnehin erhebt sich die Frage, ob programmierte Simulationsmodelle den richtigen Weg darstellen und ob nicht generische Modelle viel geeigneter sind, um die angesprochenen Probleme zu lösen. Zumal dann, wenn man ihnen die Fähigkeit verleiht, in realen Umgebungen und Situationen zu lernen und die dabei gewonnenen Erfahrungen zur Grundlage künftigen Verhaltens zu machen. Etwa so, wie Jean Piaget dies beim sensomotorisch unterstützten, frühkindlichen Entwicklungsprozess beobachtet hat. Eine große Aufgabe wartet hier auf Psychologen, Neurobiologen und Computerwissenschaftler.

Bewusstsein ist unabdingbar

Bleibt das schwer erklärbare und neurobiologisch kaum lokalisierbare Phänomen, das unter dem Begriff Bewusstsein gefasst wird. Es wird durch Introspektion erfahren; seine Begrifflichkeit kommt durch Reflexion und die philosophisch gesehen kühne Vermutung zu Stande, nicht nur man selbst, sondern auch andere menschliche Wesen verfügten über diese Eigenschaft. Da Bewusstsein nichts oder nur wenig mit äußerlich beobachtbarem Verhalten zu tun hat, helfen hier behavioristische Simulationsmodelle nicht viel weiter.

Hinzu tritt das Problem, dass man Emotionen wohl zutreffend den Charakter von Prozessen zuschreiben kann, die durch innere Zustände oder äußere Stimuli ausgelöst werden, während Bewusstsein einer Eigenschaft näher zu sein scheint, von der man noch nicht so recht weiß, wie man sie umfassend beschreiben oder gar algorithmisieren soll. (Dies deutet, nebenbei bemerkt, auf die Unzulänglichkeit unserer Begriffswelt hinsichtlich dieser Phänomene hin.)

Man wird jedoch menschenähnlichen Automaten so etwas wie ein Bewusstsein mitgeben müssen, weil Simulation von beobachtbarem Verhalten entweder nicht ausreicht oder überaus schwierig zu realisieren sein wird, wenn diese zentrale Komponente fehlt. Vielleicht gelingt es ja eines Tages, hierfür ein Modell zu entwickeln. Auch dies wird gigantischer Anstrengungen bedürfen.

Aber man finge ja nicht auf der grünen Wiese an. Tausende von Veröffentlichungen psychologischer Erkenntnisse und philosophischen Räsonnements zu diesem Thema verstauben in den Bibliotheken, soweit sie nicht gerade unter immer denselben Eingeweihten zirkulieren. Darin müsste sich doch für dieses Vorhaben genügend Stoff finden, aus dem sich ein Modell destillieren lässt. Wofür sonst wäre – provokant gefragt – all dies bedruckte Papier gut?

Offene Fragen

Aber gibt es das Modell schlechthin? Menschen gleichen einander nur sehr bedingt, zum Glück. Sie besitzen unterschiedliche Dispositionen, Prägungen, Erfahrungen – siehe oben. Wie soll man damit umgehen? Wird das erwähnte Modell mit Schräubchen versehen, an denen man drehen kann, um unterschiedliche Charaktere, psychische Konstitutionen und Intelligenzgrade hervorzubringen? Sind solche individuellen Automaten dann auf Abruf verfügbar – sozusagen als Designer-Babys für jedermann? Wird in einer DIN-Norm festgelegt, auf welche Grundtypen sich die Experten geeinigt haben? Oder legt eine Ethikkommission fest, wie ein wahrer, guter und schöner intelligenter Roboter beschaffen sein muss? Die Protagonisten der Brave New World der künstlichen Intelligenz lassen uns bisher bei Fragen dieser Art allein.

Der offenen Fragen sind noch mehr, darunter auch solche, die das Simulations-Paradigma in seinen Grundfesten erschüttern. Denn man kann nur das Verhalten simulieren, das man einigermaßen verlässlich beobachtet hat, das heißt: unter etwa konstanten Randbedingungen, an einem größeren Kollektiv von Testobjekten und hinreichend gut reproduzierbar. Aber was ist zum Beispiel mit der Kreativität – einer menschlichen Eigenschaft par excellence?

Kreative Akte, von denen auch gesagt wird, sie machten Intelligenz erst aus, vollziehen sich unter unvorhersehbaren Umständen, können nur Individuen zugeordnet werden und sind als solche nicht wiederholbar – beim nächsten Mal wären sie ja schon Routine. Es ist nicht erkennbar, wie die KI mit ihrer gegenwärtig vorherrschenden Mimikry-Methode dieses Problem lösen will. Aber vielleicht liegt darin auch eine Chance, dem Phänomen auf die Spur zu kommen, weil Kreativität nicht im luftleeren Raum entsteht, sondern ganz offensichtlich mit Erinnerung und Assoziationen zu tun hat. Psychologen, Neurobiologen und Computerwissenschaftler könnten sich um das Verständnis dieses Problems verdient machen, wenn sie hierfür geeignete, nicht-behavioristische Modelle entwickeln würden. Auch diese Aufgabe bedürfte freilich einer immensen Anstrengung.

Wie immer dies alles ausgehen mag – auf die Frage, ob menschengleiche Maschinen möglich sind, kann es ehrlicherweise nur eine Antwort geben: Nach unserem derzeitigen Wissen steht dem prinzipiell nichts entgegen, je nachdem, wie eng oder wie weit man das Attribut menschengleich fasst und ob man das behavioristische Paradigma zu akzeptieren bereit ist.

Die Betonung aber liegt auf prinzipiell. Denn zu einer aufrichtigen Antwort gehört auch die Feststellung, dass der Umfang der konzeptionellen, technischen und sonstigen Schwierigkeiten heute überhaupt noch nicht abzusehen ist. Es können sich noch schier unüberwindbare Hürden auftürmen. Und niemand vermag zu sagen, welcher intellektuelle und materielle Aufwand hierfür nötig sein wird. Sind wir überhaupt bereit, ihn zu leisten, und wofür letztlich?

Ist die Entwicklung menschengleicher Maschinen überhaupt sinnvoll?

Die eigentlich relevante Frage lautet nämlich, ob ein solches Unterfangen sinnvoll wäre und bis zu welchem Punkt es vernünftigerweise vorangetrieben werden sollte. Auf dem Wege zu im Wortsinne menschengleichen Maschinen könnten intelligente Automaten entstehen, die nützlich und hilfreich sind: Anthropomorphe Konstruktionen, die schwere oder gefährliche Arbeiten tun, die man Menschen nicht zumuten möchte. Dienstbare Geister, die selbstständig lästige Hausarbeit verrichten. Roboter, die alten, kranken oder behinderten Menschen beistehen, wenn deren Betreuer nicht anwesend sind.

Erste Ansätze hierfür gibt es schon, und es ließe sich eine lange Wunschliste aufstellen. Zweck von Wissenschaft ist ja auch, die Bedingungen zu verbessern, unter denen Menschen leben. Manche sehen dies als ihr einziges Ziel an. Jedem, der Erkenntnisgewinn als legitime Aufgabe von Wissenschaft ansieht, fällt es schwer, dem zu folgen. Und es ist wohl nicht zu bezweifeln, dass wissenschaftliche Disziplinen wie zum Beispiel die Psychologie und die Neurobiologie enorm von dem befruchtet werden, was auf dem Gebiet der künstlichen Intelligenz vor sich geht. Umgekehrt profitiert die KI von ihnen noch viel mehr.

Soweit, so gut. Bloß hört der Spaß dort auf, wo er eigentlich beginnen sollte: Wenn nämlich eines Tages wirklich menschengleiche Maschinen auftauchen sollten, Automaten also, die uns verblüffend ähnlich sehen, die herumlaufen, sehen, hören, sprechen, Gefühlsregungen zeigen, ebenso klug sind wie wir, und die von Menschen zu deren eigenem Vergnügen wie Haustiere oder als Sklaven gehalten werden. Man stelle sich die Konsequenzen vor: Diese Androiden werden reihenweise krank oder sterben – Kinder verfallen in eine Massenhysterie und müssen von Psychologen betreut werden, die den damit verbundenen Nebenverdienst freudig begrüßen.

Immer häufiger passieren Unfälle mit den Robotern – die Regierung verfügt, dass die künstlichen Geschöpfe alle sechs Monate zur Sicherheitsüberprüfung müssen, und der TÜV, immer auf der Suche nach neuen Tätigkeitsfeldern, nimmt sich dieser Aufgabe dankbar an. Nicht wenige der Automaten legen üble Charaktereigenschaften an den Tag oder werden gemeingefährlich – sie werden von ihren Besitzern erschlagen, und es ergeht ein Gesetz, dass erstens ein Androide nur von jemandem gehalten werden darf, der auf Grund einer speziellen Prüfung seine Eignung nachgewiesen hat, und dass zweitens die Renaturierung (der politisch korrekte Ausdruck für das Verschrotten) nur von einem ordentlichen Gericht beschlossen werden darf, und zwar auf Antrag einer mit je einem Juristen, Theologen, Philosophen, Psychologen und Robotiker besetzten Kommission.

Andere wiederum verbreiten volksverhetzende Parolen – das eilends novellierte Strafrecht bestimmt, dass in einem solchen Fall der Besitzer sowie eventuelle Vorbesitzer, insoweit ihnen eine Mitschuld nachzuweisen ist, zu sechsunddreißig Monaten Haft verurteilt werden können; das Corpus delicti hingegen kommt mit der Einweisung in eines der Reprogrammierungslager davon, die inzwischen an allen Informatik-Fakultäten eingerichtet worden sind. Es finden Massendemonstrationen gegen die Roboterpest statt und die Regierung erwägt ein Verbot aller Androiden. Menschenrechtsgruppen aber gehen für unsere Brüder aus Blech auf die Straße und die ersten ihrer Schützlinge erhalten Kirchenasyl.

Wollen wir uns das wirklich antun? Haben wir nicht schon genug Ärger mit unseren Zeitgenossen aus Fleisch und Blut?

Das ultimative Ziel der künstlichen Intelligenz ist ein Wahn

Satire ist hin und wieder das einzige Mittel, um dem Absurden irgendetwas entgegenzusetzen. Denn nach Absurdistan führt der Traum von den menschengleichen Maschinen, wenn man ihn zu Ende träumt. Keine Frage: Das ultimative Ziel der künstlichen Intelligenz ist ein Wahn. Eine solche Wahnvorstellung ist auch Hans Moravec’ Prophezeiung von den Mind Children, die in vierzig Jahren die Oberhand über die menschliche Rasse gewinnen und sie von diesem Planeten verdrängen werden – wobei der Prophet uns die Erklärung schuldig geblieben ist, warum ausgerechnet seine Vision so viel wahrscheinlicher sein soll als die neunundneunzig anderen Szenarien, die sich auch für diese Bühne entwerfen ließen.

Vielleicht aber muss man Weissagungen von Wissenschaftlern etwas gelassener sehen und sie für das nehmen, was sie gelegentlich auch sind: Marketing. Ohne eine spannende Story bleiben öffentliche Anerkennung und Forschungsmittel möglicherweise aus. Insofern haben einige Forscher des angehenden 21. Jahrhunderts wenig mit den meist introvertierten Gelehrten des 19. und des frühen 20. gemeinsam; manchmal erinnern sie eher an Unternehmen, die an die Börse gehen wollen.

Zu den zweifelhaften Propheten zählt auch Ray Kurzweil, der ein erfolgreicher High-Tech-Unternehmer war und es wohl noch ist. Ganz auf der Linie von Marvin Minsky, weshalb seine Botschaft nicht so neu ist, wie sie sich verkauft, will er den heutigen Menschen durch allerlei elektronische Einbauten so verbessern, dass seine Intelligenz und sein Gedächtnis um ein Erhebliches zunehmen. Allerdings haben frühere Ideologien mit ihrer Vorstellung vom neuen Menschen kläglich Schiffbruch erlitten, weil die real existierenden Menschen sich entweder nicht umbiegen ließen oder, wo es doch gelang, zu Monstern wurden. Immerhin aber war Stephen Hawking von all den Horrorszenarien so beeindruckt, dass er zur genetischen Aufrüstung der Menschheit aufrief, um sie für die drohende Herausforderung durch die künftigen hoch intelligenten Automaten fit zu machen.

Warum lässt sich ein Wissenschaftler wie Hawking zu solchen, mit Verlaub, schwachsinnigen Äußerungen hinreißen? Es muss die Faszination sein, die von der Vorstellung von menschengleichen Maschinen schon immer ausging und noch ausgeht. Offensichtlich regt sie die Fantasie ungeheuer an, denn es geht dabei ja auch um uns Menschen und unser Selbstverständnis: Nostra res agitur. Fantasie aber ist eine der schönsten und wertvollsten Eigenschaften, die uns Menschen mitgegeben wurde. Recht betrachtet, hat der Mensch ohne Fantasie keine Zukunft, weder als Individuum noch als Spezies.

Allein schon deshalb wird die künstliche Intelligenz unbeirrt an ihrem ultimativen Ziel festhalten, es sei denn, man dreht ihr den Geldhahn zu. Aber mit welcher Begründung? Weil die Gesellschaft das Vorhaben als nutzlos einschätzt? Dann müsste die bemannte Raumfahrt, die noch viel höhere Mittel verschlingt, erst recht auf den Prüfstand. Und die Unsummen, die für riesige Teilchenbeschleuniger aufgewandt werden, ließen sich auch nicht mehr glaubwürdig durch die vage Hoffnung rechtfertigen, eines Tages das Higgs-Partikel experimentell nachzuweisen.

Wahn hin oder her – stellen wir uns darauf ein, dass das Bemühen um die menschengleichen Maschinen weitergeht. Und warten wir gelassen ab, wie die Wirklichkeit der künstlichen Intelligenz in zehn oder zwanzig Jahren aussehen wird.

Dr. Peter Dietz, ein gelernter Physiker, hat Anfang der sechziger Jahre im eigenen Unternehmen seine ersten Computer entwickelt und gehört damit zu den Pionieren der Informationstechnik in Deutschland. Nebenberuflich lehrt er seit vielen Jahren Informatik an der Universität Dortmund.

Der obige Text ist seinem soeben veröffentlichten Buch “Menschengleiche Maschinen – Wahn und Wirklichkeit der künstlichen Intelligenz” entnommen. Es ist erschienen bei Bühler und Heckel – Verlag für Kunst und Wissenschaft, 400 Seiten im Festeinband, zahlreiche Abbildungen, ISBN 3-9809237-0-3, 24,80 Euro.