image

DR.MARIOHERGER

image

Wenn Affen
von Affen
lernen

Wie künstliche Intelligenz
uns erst richtig
zum Menschen macht

image

Copyright 2020:

© Börsenmedien AG, Kulmbach

Gestaltung Cover: Holger Schiffelholz

Gestaltung, Satz und Herstellung: Sabrina Slopek

Bildquellen Umschlag: Shutterstock

Gesamtherstellung: Daniela Freitag

Lektorat: Karla Seedorf

Korrektorat: Elke Sabat

Druck: GGP Media GmbH, Pößneck

ISBN 978-3-86470-649-3

eISBN 978-3-86470-650-9

Alle Rechte der Verbreitung, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Verwertung durch Datenbanken oder ähnliche Einrichtungen vorbehalten.

Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http://dnb.d-nb.de> abrufbar.

image

Postfach 1449 • 95305 Kulmbach

Tel: +49 9221 9051-0 • Fax: +49 9221 9051-4444

E-Mail: buecher@boersenmedien.de

www.plassen.de

www.facebook.com/plassenverlag

Für Sebastian, Gabriel und Darian.

And for May Kou.

image

Inhalt

Einleitung

1Affen lernen von Affen

2Menschsein und Intelligenz als Ziellinie

3Intelligente Schönheitsflecken

4Stille Post für Androiden

5Von Cyborgs, Fyborgs und dem Menschsein

6Moralisierende Babys und Ethikchips

7Zombies und die Siegerfaust

8Das Gorilla-Problem

9Kreativitätsexplosion

10Replikanten und liebestolle Bonobos

11Lieber Gott, erklär uns doch die KI

12Unsereiner lässt andere arbeiten

13Was könnte Gutes geschehen?

image

Einleitung

„Auf die Frage von Lex Fridman, was Elon Musk eine Superintelligenz fragen würde, antwortete Musk nach langem Überlegen: „Was befindet sich außerhalb der Simulation?‘“

Die Koreaner ließen ihren Tränen ungezügelten Lauf. Sie weinten bitterlich, als sie die Neuigkeit erfuhren. Nein, es handelte sich nicht um den Tod eines nordkoreanischen Diktators, wo man lieber öffentlich Tränen vergießt, was das Zeug hält, um nicht Zweifel an seiner Regimetreue zu wecken. Wir reden hier von Tränen, die den Tod eines Traums oder Glaubens beweinten, dass Menschen auch noch die nächsten Jahre die Vorherrschaft bei Go beibehalten würden. Nun aber hatte eine Maschine den südkoreanischen Go-Weltmeister regelrecht gedemütigt und zugleich menschlich und doch „außerirdisch“ gespielt. Und das kam bei den Fans des in Asien äußerst beliebten Spiels einem Schock gleich.

Nicht so sehr der Sieg der Maschine über einen menschlichen Weltmeister war das Interessante, sondern was danach geschah. Auch nicht, dass eine Maschine irgendwann gewinnen wird, noch wie sie gewann, sondern was ein paar Wochen danach geschah, das sollte uns noch mehr staunen lassen.

Als AlphaGo, Googles auf künstlicher Intelligenz (KI) basierender Go-Computer, den koreanischen Weltmeister Lee Sedol im März 2016 mit 4:1 bezwang, war die Go-Welt buchstäblich aus dem Häuschen. Die Menschen weinten und Experten diskutierten aufgeregt, wie diese fünf Spiele verlaufen waren. Lee Sedol hatte sich anfänglich weniger Sorgen um den Spielausgang gemacht, von dem er dachte, dass er ihn eventuell knapp, aber doch für sich ausmachen würde. Er war eher neugierig gewesen, wie sein Gegner spielen würde. Der Vergleich mit dem Schachturnier von 1997 von Deep Blue gegen Garri Kasparow wurde immer wieder zitiert.

Doch solch ein Vergleich zwischen Schach und Go ist nicht so einfach, wie er im ersten Moment scheint. Während bei Schach sich die Komplexität mit jedem Zug verringert, vor allem wenn Spielfiguren geschlagen werden und vom Brett verschwinden, so ist bei Go genau das Umgekehrte der Fall, wo auf dem 19x19-Felder-Gitter bei jedem Zug Spielsteine auf die Kreuzungslinien hinzugefügt beziehungsweise umgelegt werden.

Lee Sedol erwartete, dass die Maschine, die aus vergangenen Spielen gelernt und daran trainiert hatte, bei überraschenden Zügen ihre Probleme haben wird, da sie für sie unbekannt sein müssten. Deshalb verlagerte sich der Koreaner auf eine für ihn ungewöhnliche Spielweise. Er ließ sich auf eine außergewöhnliche und zugleich riskante Strategie ein. Doch genau das wurde ihm zum Verhängnis. AlphaGo gewann das erste Spiel und lernte dabei aus den Schwächen seines menschlichen Gegners.

War die erste Partie schon erstaunlich klar an die Maschine gegangen, so verblüffte erst recht der 37. Zug im zweiten Spiel die Beobachter und Lee Sedol. AlphaGo hatte einen Stein auf eine Position gesetzt, die nach menschlicher Logik und Spielerfahrung zu vermeiden, ja, sogar ein Fehler gewesen wäre. Aus statistischer Sicht bot dieser Zug nur eine Chance von 1:10.000, damit zu gewinnen. Doch genau dieser erwies sich als spielentscheidend.1

Nach menschlichem Verständnis bringen im frühen Stadium eines Spiels Steine auf den Kreuzungspunkten der dritten Linie kurzfristige Vorteile, auf der vierten dann langfristige Stärken bei der Eroberung des Spielfelds. Einen Stein auf die fünfte Reihe zu setzen, wird als wenig optimal betrachtet, da ein solcherart „verschwendeter“ Zug dem Gegner die Chance gibt, sich kurz- und langfristig strategische Vorteile durch die Bedeutung der dritten und vierten Linie zu sichern. Doch genau auf einen Kreuzungspunkt der fünften Gitterlinie setzte AlphaGo einen Stein. Und 50 Spielzüge später erwies sich genau dieser Zug als genial, als die schwarzen und weißen Steine sich langsam an genau diesen Stein heranarbeiteten und AlphaGo den Vorteil und Sieg brachten.

„Seit Jahrtausenden spielen Menschen Go, aber erst ein KI-System zeigt uns, dass wir bislang nicht einmal die Oberfläche des Spiels angekratzt haben“, meinte der chinesische Go-Spieler Ke Jie. Wäre der Zug von einem Menschen gemacht worden, hätte man dazu Intuition gesagt. Aber wie bezeichnet man so etwas bei einer Maschine? Der einzige Sieg, den Lee Sedol der Maschine abrang, wird auch der letzte Sieg eines menschlichen Go-Spielers gegen eine Maschine gewesen sein. Diese Niederlage führte im Go-besessenen Asien zu Bestürzung. Weinende Spielbeobachter und heftige Diskussionen waren die Folge.

Während die Öffentlichkeit nach wie vor diese Partien diskutiert und Go-Spieler die Züge der Maschine zu imitieren versuchen – ohne sie dabei, so nebenbei erwähnt, vollständig zu verstehen –, ist das, was in weiterer Folge geschah, noch spannender. Und dazu muss man die Entstehungsgeschichte der AlphaGo-Maschine verstehen.

DeepMind war ein 2010 vom 1976 in London geborenen Demis Hassabis gegründetes KI-Start-up, das von Google 2014 gekauft wurde. In Gesprächen zwischen den Gründern der beiden Unternehmen wurde schnell die Herausforderung, die Go bietet, klar. Im Gegensatz zu Schach, wo es eine endliche Zahl von Positionen und Zügen gibt und man mit reiner Rechenkraft arbeiten kann, bietet Go trotz einfacher Regeln einfach zu viele mögliche Züge an. Auch wird Schach bei fortgeschrittenem Spiel einfacher, da sich weniger Figuren auf dem Brett befinden und es damit weniger Zugmöglichkeiten gibt, während Go mit jedem neu positionierten Stein komplexer wird. Rechengeschwindigkeit allein hilft da nicht. Die Algorithmen von Schach und Go sind somit fundamental anders.

DeepMind entwickelte deshalb AlphaGo, um zu demonstrieren, dass man Go mithilfe künstlicher Intelligenz besser spielen kann, als menschliche Champions es schaffen würden. Dem KI-System wurden die Go-Regeln eingegeben und die Forscher fütterten es mit einer riesigen Bibliothek von 30 Millionen Spielen aus der Vergangenheit. Diese Bibliothek umfasste Spiele, die Menschen über Jahrhunderte gespielt und aufgezeichnet hatten. Im Oktober 2015 war es dann so weit. Das KI-System machte seine ersten Schritte auf dem Spielfeld und besiegte mit Fan Hui auch gleich zum ersten Mal einen menschlichen Go-Champion. Nach einer Reihe von Partien gegen den Menschen begann AlphaGo die nächste Trainingsphase und spielte unermüdlich Spiele gegen sich selbst, um seine Spielstärke nun ohne Menschen zu verbessern. Im März 2016 trat AlphaGo, auf diese Art vorbereitet, gegen Lee Sedol an – und gewann.

Die DeepMind-Forscher hörten an dieser Stelle aber nicht auf, sondern setzten ein neues KI-System für Go auf: AlphaGo Zero. Diesmal allerdings mit einem kleinen, aber entscheidenden Unterschied. AlphaGo Zero wurde nicht mit einer Bibliothek an Spielen gefüttert, die Menschen in der Vergangenheit gespielt hatten, sondern dem System wurden nur die Spielregeln selbst eingegeben. Daher auch der Zusatz Zero im Namen: Es wurde sozusagen von null – also ohne dem System menschliches Spielverhalten und Züge zu vermitteln, die „tabula rasa“ – begonnen.

Ab dann überließ man das System sich selbst – für ganze drei Tage – und ließ es dann gegen seinen Vorgänger AlphaGo antreten. Das Ergebnis war niederschmetternd – für die Menschen. Dieses neue System – ohne das Wissen, wie menschliche Spieler Go-Partien je gespielt hatten – schlug das alte AlphaGo-System mit 100 zu 0.2

Für Hassabis sind die KI-Algorithmen von AlphaGo wie das Hubble-Teleskop. Sie sind Werkzeuge, um die Erforschung des Themas noch tiefer und intensiver angehen zu können. Sie dienen nicht dazu, den Menschen zu ersetzen, sondern ihn zu ermächtigen. Sowohl bei Schach als auch bei Go haben die Menschen nicht einfach aufgegeben, weil die Maschine besser spielt. Sie haben neue Lust am Spiel gewonnen und sind dank des von der Maschine Gezeigten besser geworden.

Diese beiden „Turniere“ stellten für das Go-verrückte China einen einschneidenden Moment dar. Es war der chinesische „Sputnik-Moment“, benannt nach dem Moment, als die Sowjetunion mit Sputnik den ersten Satelliten in eine Erdumlaufbahn brachte und die Amerikaner in Folge massive Investitionen in die Wissenschaft und Weltraumforschung tätigten, um den Rückstand aufzuholen. Die chinesische Regierung identifizierte ohne weiteres Zögern künstliche Intelligenz als eine Schlüsseltechnologie und gab die Richtung vor. Bis 2030 will das Land bei KI eine globale Dominanz erreichen.

Garri Kasparow, der ehemalige Schachweltmeister, der einen wesentlichen Beitrag zur Entwicklung von Schachcomputern geleistet hatte und bekanntermaßen 1997 gegen IBMs Deep Blue verloren hatte, wies in einer Kolumne in Science auf einen weiteren Unterschied zwischen AlphaGo Zero und Deep Blue hin.3 AlphaGo Zero spielt gemäß Kasparow nicht Go mit den inhärenten Prioritäten und Vorurteilen von Programmierern, sondern hat einen offenen und aggressiven Spielstil, der eher strategisch denn taktisch erscheint. Weil sich ein KI-System wie eben AlphaGo Zero „selbst programmiert“, scheint dieser Spielstil für Kasparow eher „die Wahrheit zu reflektieren“.

Sind AlphaGo oder Deep Blue nun intelligent? Haben sie Intuition? Denken sie strategisch oder taktisch? Denken sie überhaupt? Freuen sich die Maschinen über ihre Siege? Und warum stellen gerade diese Spielausgänge Wendepunkte in der menschlichen Geschichte dar? Was sind die Gründe für die emotionalen Reaktionen der Spielbeobachter?

Wir berühren mit diesen Fragen eine Reihe von für Menschen wichtige Punkte, die zum Kern der menschlichen Existenz führen. Was bedeutet Menschsein und was ist der Sinn unserer Existenz? Wir haben uns daran gewöhnt, dass Maschinen und Werkzeuge uns an physischer Kraft und Ausdauer überlegen sind. Und wir ziehen fleißig Nutzen daraus.

Mit künstlicher Intelligenz erleben wir nun, wie Maschinen uns auch in kognitiver Kraft zu übertrumpfen beginnen. Und das wirft eine Reihe von philosophischen (und für manch einen auch religiösen) Fragen auf. Was ist Intelligenz eigentlich genau? Und was Bewusstsein? Können Maschinen Empathie haben und Emotionen und Gefühle zeigen? Haben wir Menschen überhaupt verstanden, was das ist? Haben wir einen freien Willen und können Maschinen den entwickeln? Wollen wir das überhaupt? Welche Moral und Ethik sollten wir solchen Maschinen beibringen, wenn überhaupt? Und wenn wir Maschinen mit Superintelligenz schaffen, die uns in allen Belangen überlegen sein werden, hat dann ein Gott oder Schöpfer, der uns angeblich geschaffen hat, nicht eigentlich versagt, weil er/ sie/es etwas weniger Perfektes kreiert hat? Macht uns das nicht eigentlich zu Göttern?

Was auch immer die Antworten sein werden oder die neuen, noch interessanteren Fragestellungen, die zweifelsohne aufgeworfen werden, eines ist sicher: Diese von uns geschaffene neue Technologie wird uns zu einem fundamental besseren Verständnis führen, was Menschsein eigentlich bedeutet. Wie die erste Mondumrundung eines mit Astronauten besetzten Raumschiffes völlig unerwartet zu einem neuen Blick auf die Erde führte, so wird die Beschäftigung mit künstlicher Intelligenz uns helfen, uns selbst besser zu verstehen. Wie der Fokus auf das Ziel, auf dem Mond zu landen, unseren Fokus zurück auf die Erde brachte, genauso wird uns der Fokus, künstliche Intelligenz zu schaffen, zu einem besseren Verständnis von uns selbst bringen.

Und dazu ist es zunächst nötig, unseren Fokus auf unsere Artverwandten zu richten: nämlich auf Affen.

1In Two Moves, AlphaGo and Lee Sedol Redefined the Future. https://www.wired.com/2016/03/two-moves-alphago-lee-sedol-redefined-future/

2AlphaGo Zero: Learning from scratch, https://deepmind.com/blog/alphago-zero-learning-scratch/

3Garri Kasparov: Chess, a Drosophila of reasoning. In: Science 07, Vol. 362, Issue 6419, Dezember 2018, S. 1087, https://science.sciencemag.org/content/362/6419/1087

KAPITEL 1

image

Affen
lernen
von Affen

„Mehrheit der Affen
bezweifelt, dass der Mensch
von ihnen abstammt.“

SCHLAGZEILE AUS
DER POSTILLON

Seit den 1950er-Jahren beobachten japanische Forscher auf der Insel Kōjima eine kleine Kolonie von Makakenaffen. Die Arme und Beine der zwischen einem halben und dreiviertel Meter großen Makaken sind typischerweise in etwa gleich lang. Manche der insgesamt 23 Arten haben lange und andere gar keine Schwänze. Jeder von uns hat sicherlich schon einmal das entzückende Bild von in vulkanischen Quellen badenden Makaken gesehen, deren nasses Kopfhaar ganz strubbelig wegsteht. Kein Wunder, dass diese niedlichen Primaten unter Wissenschaftlern für Studien beliebt sind.

Im Zuge ihrer Forschung begannen die Wissenschaftler, den Affen Süßkartoffeln zu essen zu geben. Nach einiger Zeit begann ein weibliches Jungtier, das die Forscher auf den Namen Imo getauft hatten, die Kartoffel vor dem Verzehr in Wasser zu tauchen, um den Sand abzuwaschen. Bei den älteren Affen war das nicht beobachtet worden. Sie hatten die Kartoffeln nur mit der Hand abgeputzt. Was mit diesem einen Jungtier begann, breitete sich langsam in der ganzen Kolonie aus. Mehr und mehr Makaken wuschen die Kartoffeln und nun erwachsene Jungtiere lehrten dieses Verhalten ihren eigenen Sprösslingen.

Imo kam aber auf einen weiteren Trick. Sie wusch die Kartoffeln nicht nur mit Wasser, sondern mit Meerwasser. Nach jedem Biss in die Kartoffel wiederholte sie das Waschen und „salzte“ somit ihren Snack. Auch das wurde ihr von den anderen Affen abgeschaut und nachgemacht.

Andere Primaten lernen ebenso voneinander neue Tricks. Gleich 39 verschiedene Verhaltensweisen, von Werkzeuggebrauch, Werbeverhalten bis zur Fellpflege, konnten von Jane Goodall und anderen Forschern bei einer groß angelegten Studie von Schimpansen beobachtet und identifiziert werden.1 Das Spannende hier ist, dass diese Verhaltensweisen isoliert in den einzelnen Gruppen entstanden waren.

Westafrikanische Schimpansen sind bekannt für die Verwendung von dünnen und dicken Ästen, um Ameisen zu fressen. Zuerst bohren sie mit einem dickeren Ast ein Loch in einen Ameisenhügel, dann schieben sie einen Grashalm in das Loch und warten darauf, dass genug Ameisen sich darin verbeißen. Den Grashalm ziehen sie dann durch ihre Finger und verschlingen die Ameisen auf einmal. Bemerkenswert ist dabei, dass die Schimpansen nicht am Boden sitzen bleiben, sondern auf einem Ast hängend den Ameisenhaufen bearbeiten. Das verhindert, dass sie von den verständlicherweise erbosten Ameisen am Boden attackiert und gebissen werden. Auch die Länge der eingesetzten Stöckchen variiert, je nachdem, mit welcher Art von Ameisen die Schimpansen es zu tun haben. Im Schnitt sind die Stöckchen 64 Zentimeter lang, aber bei schnelleren Ameisenarten muss schon mal ein 76 Zentimeter langer Ast herhalten.2 Diese Technik, um an Ameisen heranzukommen und sie zu verzehren, wird von Generation zu Generation weitergegeben. Das Wort „nachäffen“ kommt nicht von ungefähr. Affen lernen von Affen.

Was aber geschieht, wenn Affen von Menschen unterrichtet werden? Das beobachteten wir zum ersten Mal dank Koko ab den 1970er-Jahren. Koko war ein westliches Flachlandgorillaweibchen, das am 4. Juli 1971 – dem amerikanischen Unabhängigkeitstag, der traditionell mit Feuerwerken gefeiert wird – unter dem japanischen Namen Hanabi-ko (deutsch: Feuerwerkskind) im Zoo von San Francisco geboren wurde. Einige Zeit darauf fragte die Stanford-Doktorandin und Psychologin Francine Patterson beim Zoo an, ob sie sich für ihre Studien zur Tierpsychologie Koko „ausleihen“ könne. Der Zoo stimmte nach einigem Zögern zu, nicht zuletzt, weil die Gorillakolonie unter einer Form von Ruhr gelitten hatte, die es erforderlich machte, das junge, bereits stark in Mitleidenschaft gezogene Gorillaweibchen zu isolieren.

Somit begann ab 1972 eine 46-jährige Zusammenarbeit, in der Patterson Koko die amerikanische Variante der Zeichensprache beibrachte. Zusammen mit Wörtern, die Patterson dazu sprach, verfügte das Gorillaweibchen sehr bald über ein umfangreiches Vokabular. Die mehr als tausend Wörter der nun sogenannten Gorilla Sign Language, die Koko nach vielen Jahren verstand, gaben einen Einblick in ihre kognitiven Leistungen, ihren Charakter und unter anderem auch in ihren Humor.

Dieser zeigte sich immer wieder. So sprang sie einmal in ein im Wohnwagen montiertes Waschbecken und riss es dank ihres Körpergewichts aus der Verankerung. Als sie daraufhin von den Forschern zur Rede gestellt wurde, zeigte sie in Zeichensprache „Kate war schlimm!“ und meinte damit die Forschungsassistentin, die bei dem Ereignis dabei gewesen war. Ein andermal stahl sie einen roten Wachsmalstift, auf dem sie herumzukauen begann. Als Patterson sie zur Rede stellte, nahm sie den Wachsmalstift, zeigte „Lippe“ und bewegte den Stift wie einen Lippenstift zuerst über ihre Ober- und dann über ihre Unterlippe.

Sie erwies sich auch als sehr kreativ beim Erfinden neuer Wörter, indem sie ihr bekannte Bezeichnungen kombinierte. Eine Maske bezeichnete sie als „Augenhut“, eine Pinocchio-Puppe als „Elefantengesicht“. Auch schimpfen und fluchen konnte sie. „Vogel“ (die sie nicht mochte), „Nuss“ (Englisch „nut“, was sowohl „Nuss“ als auch so viel wie „verrückt“ bedeuten kann), „Toilette“ und „schmutzig“ zählten dabei zu ihren bevorzugten Schimpfwörtern. Tatsächlich schuf sie sich ein reichhaltiges Vokabular, um jemanden zu beleidigen. Mehr als zwei Dutzend Wortkombinationen hatte sie sich angeeignet, um unterschiedliche Personen, Tiere oder Dinge zu beschimpfen.

Bei einer Dokumentation zu Vögeln zeigte sie auf sich, dass sie ein Vogel sei. Auf das ungläubige Gesicht der Forscherin reagierend, deutete sie, dass auch die Forscherin ein Vogel sei. Bis sie es nicht mehr aushielt und sich als „Koko (der) Vogelclown“ zu erkennen gab.3

Koko, für die Patterson die Gorilla Foundation zum Schutz von Primaten gegründet hatte und die von dem Wohnwagen auf einem Parkplatz der Stanford University nach einigen Jahren in ein eigenes Gelände in Woodside umziehen konnte (deren Niederlassung sich bis heute noch dort befindet), war nicht der einzige Primat, mit dem Sprach- und Intelligenzforschungen betrieben wurden. Schon vor Koko konnte ein weiblicher Schimpanse namens Washoe ein paar Dutzend Zeichen zur Kommunikation verwenden. Und Koko hatte später noch das Gorillamännchen Mike als Gefährten, der sich aber als weniger lernbegierig als Koko und als eher schweigsam erwies.4

Interessanterweise zeigte sich Koko auch gern von ihrer widerspenstigen Seite. Wenn ihr eine Aufgabe als zu langweilig erschien, tat sie das genaue Gegenteil oder alberte herum. Bei einer Gelegenheit zerbrach sie Plastiklöffel und wollte damit nicht aufhören. Erst auf die bewusste Aufforderung, die Löffel zu zerbrechen, tat sie das Gegenteil und hörte damit auf. Oder als die Forscherin sie aufforderte, das ihr bestens bekannte Handzeichen für „trinken“ (eine Faust mit ausgestrecktem Daumen, die an den Mund geführt wird) zu zeigen, sah sie ihr in die Augen, formte die Faust mit ausgestrecktem Daumen und führte sie – an das Ohr.5 Kokos Spracherwerbsfähigkeiten ungeachtet haben Gorillas nicht die Bestrebung, Menschen werden zu wollen, genauso wenig wie wir Gorillas werden wollen. Koko blieb, was sie war, vielleicht sogar mehr, als sie es ohne den Erwerb von Zeichensprache gewesen wäre.

Auch der niederländische Primatenforscher Frans de Waal erforscht sein vielen Jahren Schimpansen, Bonobos und andere Affengattungen. Er studiert deren Charakter und die Dynamiken der Affenkolonien. In seinem Buch „Mama’s Last Hug“ schildert er unter anderem die Interaktion eines im Sterben liegenden greisen Schimpansenweibchens mit einem gleichfalls hochbetagten Forscher, der jahrzehntelang mit ihr gearbeitet hatte. Dabei zeigten die Gesten der Schimpansin – ihr freudiges Grinsen, als sie ihn erkannte, und das besänftigende Klopfen auf seinen Nacken, als wolle sie ihm sagen: „Sei nicht besorgt, meine Zeit ist gekommen“ –, wie vertraut und berührend diese Interspezieskommunikation sein kann.

Wie auch immer man zu diesen Studien stehen mag – immerhin wurde Koko in eine künstliche, von Menschen geschaffene Welt hineingeboren und lebte vor allem mit Menschen, nie aber länger in einer Gruppe unter ihresgleichen: Sie geben einen faszinierenden Einblick in die kognitive Welt unserer Artverwandten, die einiges zum Verständnis von Primaten und der Achtung vor ihnen beigetragen haben. Es verwundert deshalb nicht die weltweite Trauer, als Koko am 19. Juni 2018 im Alter von 47 Jahren im Schlaf sanft verschied.6

Bei der Forschung mit Primaten und anderen Tiergattungen, die zu neuen Erkenntnissen zu Sprache oder Werkzeuggebrauch führt, ist eine Reaktion immer vorhersehbar: Viele Forscher und Menschen fühlen sich in ihrem Menschsein bedroht. Was als für Menschen einzigartig gesehen wird, wie eben der Gebrauch von Sprache, Intelligenz, Bewusstsein, Wissen oder die Verwendung von Werkzeugen, kann gemäß diesen Kritikern nicht auch Tieren (oder in späterer Folge Maschinen) zugeschrieben werden. Washoes und Kokos Gebrauch von Sprache wurde von starken Reaktionen und Ungläubigkeit begleitet, die Forscher wurden von den Kritikern attackiert. Den Primaten wurde abgesprochen, dass sie die Sprache verstehen und bewusst anwenden. Es handle sich um reine Reflexe, um Imitationen von Gesten der Forscher, die aber keinem Sprachverständnis entsprechen würden. Sich kaum unterscheidende ähnliche Forschungsergebnisse bei Babys und Kindern wurden hingegen sofort als Sprachverständnis interpretiert. Und wenn das alles nichts hilft, dann definiert man eben um, was Sprache, Intelligenz oder Werkzeuggebrauch ist.

Solche Reaktionen zeigen die tiefe Verunsicherung, die offenbar viele Menschen umtreibt, dass wir vielleicht doch nicht so einzigartig zu sein scheinen, wie wir meinen. Carl Jung war wie zahllose andere der Meinung, dass die Erforschung anderer Gattungen uns keine Erkenntnisse in Bezug auf uns Menschen liefern würde. Menschliche Selbsterkenntnis durch die Erforschung von Primaten schien ihm absurd. Und Jungs Meinung sollte uns heute als ebenso absurd erscheinen.

Hat Francine Patterson Koko damit auf eine höhere kognitive Ebene, zumindest in Teilen, gebracht? Frans de Waal, den ich dazu befragte, meinte vorsichtig:

„Ich glaube, wir alle schöpfen unser [kognitives] Potenzial aus, ebenso wie andere Primaten. Zum Beispiel zeigte Koko keine Kognition, die normale Gorillas nicht auch haben. Nur hat sie die vielleicht auf eine für uns leichter verständliche Weise gezeigt.“

„I think we’re all at our potential, including other primates. For example, Koko hasn’t shown any cognition that regular gorillas don’t have. But she may show it in a way that we recognize more easily.“

Wenn aber unter unsere Fittiche genommene Primaten zu solchen Leistungen fähig sind, wie ist das bei anderen Tiergattungen? Und vor allem, wie wäre es, wenn Menschen von einer höheren Intelligenz geschult würden? Francine Patterson meinte, dass Kokos Leistung die jedes anderen Affen übertroffen hat, nicht weil sie klüger gewesen wäre, sondern weil wir ihr mit der Zeichensprache ein Werkzeug an die Hand gegeben hatten, mit der wir Menschen Zugang zu ihrer angeborenen Intelligenz hatten. Und für Koko erwies sich die Sprache auch als Hilfsmittel, ihr Umfeld zu verstehen, in das sie hineingeboren worden war. Zu welcher Leistung wären wir fähig, wenn uns jemand oder etwas ein ähnlich mächtiges Werkzeug an die Hand gäbe?

Affen, Menschen und Maschinen

Das vorliegende Buch habe ich – als Mensch – für Sie – als Mensch – geschrieben. Ich bringe Ihnen (hoffentlich) Neues bei, das Sie in Ihrem Umfeld und für Ihre Bedürfnisse angepasst verwenden können. So machen wir es seit Jahrtausenden. Als Eltern belehren wir unsere Kinder, wir bringen in Schulen, an Universitäten oder in Betrieben den künftigen Generationen das Wissen bei, auf dem sie aufbauen können und das sie befähigt, das Leben zu meistern und die Menschheit voranzubringen. Der Lehrling lernt vom Meister die Handgriffe, die nötig sind, um einen Schuh zu reparieren, ein Brot zu backen oder ein Auto zu reparieren. Auf Konferenzen wird vermittelt, was es mit der digitalen Transformation auf sich hat und wie wir erfolgreich ein Unternehmen gründen. Wir lernen von den neuesten Forschungsergebnissen der akademischen Kollegen oder hören inspirierende Vorträge, wie Menschen schwierige Hürden in ihrem Leben überwunden haben.

All das entspricht dem Stand von „Affen, die von Affen lernen“. Und ich meine das nicht despektierlich. Immerhin hat uns das zu dem Stand an Fortschritt gebracht, von dem unsere Generation von allen bisherigen menschlichen Generationen am meisten profitiert. Das Wissen unserer Vorfahren, ihre Bräuche, ihre Erfahrungen und Wertvorstellungen machen das aus, was wir heute sind. Der genetische Vorteil, dass wir dank evolutionär fortgeschrittener Kaumuskeln, einer vielseitig einsetzbaren Zunge und unseres Gehirns komplexe Sprache entwickeln konnten, machte die Wissensansammlung und Informationsvermittlung an die Mitglieder unsere Gattung erst möglich.

Doch reicht das aus, um den Anforderungen in einer modernen Welt gerecht zu werden? Nutzen wir überhaupt unser volles Potenzial aus? Und ich meine damit nicht nur die privilegierten Teile der Welt mit Zugang zu ausgezeichneten Ausbildungssystemen. Was würde es für die Menschheit bedeuten, wenn wir überall auf dem Planeten jedem Einzelnen und jeder Einzelnen die volle Entwicklungsfähigkeit ihres inhärenten Potenzials ermöglichen könnten?

Erinnern Sie sich an die Go-Spieler, die nunmehr die Züge Alpha-Gos nachzuahmen versuchen? Hier ist eine Intelligenz in einer eingeschränkten Domäne besser als Menschen. Sie spielt Go, die der bisherigen menschlichen Spielweise überlegen ist. Wäre sie imstande, uns unter ihre Fittiche zu nehmen und ihre Spielweise Menschen beizubringen, auf welches Niveau beim Go-Spiel könnten wir Menschen aufsteigen?

Das ist nur der Anfang. Andere Domänen warten ebenso darauf, dass Menschen sie auf einem höheren Niveau beherrschen. Wäre es nicht schön, wenn Ärzte noch besser und früher Krankheiten diagnostizieren und entsprechende Behandlungen vornehmen könnten?

Konsequent durchdacht, könnten wir mit einer künstlichen Intelligenz jedem von uns eine künstliche Lehrmaschine zur Seite stellen, die uns Lehrinhalte und Interessengebiete individuell angepasst aufbereitet, sie uns in der Geschwindigkeit und der Weise vorträgt, wie sie für jeden Einzelnen von uns am besten sind, uns andere Interessengebiete erschließt und dabei motivierend und inspirierend wirkt. Die perfekte Lehrerin.

Schon die Khan Academy, die Tausende an exzellenten Lehrvideos online bereitstellt, zeigt Teile dieser Charakteristiken. Anstelle einer Lehrerin, die im Klassenraum vor zwei Dutzend Schülern unterrichten muss, ohne auf jedes Kind individuell eingehen zu können, kann sich jedes Kind mit der Khan Academy individuell das Tempo einteilen und sich die Inhalte so oft und so langsam oder so schnell wie nötig durcharbeiten. Zwar sind die Erklärweise und die Art der Wissensaufnahme für die Kinder gleich, aber zumindest das Tempo und die Zahl der Wiederholungen sind individualisierbar.

Jeder Mensch lernt unterschiedlich. Manch einer lernt am besten durch Zuhören, andere durch Mitschreiben, dem Nächsten hilft das Nachplappern und wieder andere wollen die Inhalte lieber beim Lesen aufsaugen. Und gar nicht so wenige müssen sich dabei bewegen und herumgehen, um ihr Hirn anzuregen. Wie auch immer der bevorzugte Lernstil von Affe zu Affe – Pardon: Mensch zu Mensch – ist, heute ist ein individuelles Eingehen auf den Schüler nur beschränkt möglich. Zu wenig skalierbar und zeitlich verfügbar sind menschliche Lehrkräfte, vor allem die besonders guten. Wir haben sicherlich bis dato Hervorragendes auf diesem Gebiet geleistet. Die Menschheit heute ist eine Wissensgesellschaft, die es ohne all das Lehren und Lernen, ohne die Anwendung des Wissens und die Schöpfung neuen Wissens niemals so weit geschafft hätte.

Wir erleben nun aber eine Periode, in der wir Werkzeuge schaffen, die uns den nächsten Schritt bei der kognitiven Entwicklung ermöglichen. Künstliche Intelligenz ist die mächtigste Technologie, die Menschen jemals geschaffen haben, auch wenn wir die genauen Möglichkeiten und Auswirkungen noch nicht vollständig begreifen können. Und das zu Kosten, die unschlagbar niedrig sind.

Bedarf für solch eine Technologie gibt es ausreichend. Nicht nur bei uns, wo individuell angepasste smarte Assistenten, die weit über das hinausgehen, was wir heute darunter verstehen, uns von der Geburt bis zum Tod begleiten und uns unterrichten und unterstützen. Viel mehr Auswirkungen werden sie aber in Ländern haben, wo es heute keinen, einen nur geringen oder unzureichenden Zugang zu Bildung gibt. Selbst wenn Kinder beispielsweise im Sudan eine Schule besuchen, sind immer noch zu viele Lehrer dort selbst kaum ausgebildet. Die besten Schüler dort wären in unserem Land nur im untersten Leistungsviertel anzutreffen.7 Man stelle sich vor, welchen intellektuellen Schatz wir da heben könnten, wenn jedes Kind den für sich bestmöglichen Lehrer haben könnte. Und das können wir in bestimmter Form bereits in China beobachten. Dort bietet das Unternehmen Squirrel AI einen KI-Lehrer an, der sich an die Bedürfnisse und den Lernstil jedes einzelnen Schülers anpassen kann. Die Ergebnisse bislang sind vielversprechend, allerdings gibt es auch Kritik. Squirrel AI fokussiere sich aktuell zu sehr auf standardisierte Tests, bereite aber kaum auf die geforderte Anpassungsfähigkeit in einer sich stark ändernden Welt vor.8

Bevor wir begreifen können, wie künstliche Intelligenz unser Verständnis von Menschsein verändern wird, sollten wir uns jene Begrifflichkeiten und Konzepte genauer ansehen, die wir als typisch menschlich betrachten oder als unabdingbare Voraussetzung für unseren Umgang mit KI-Systemen. Ich kann jetzt schon verraten, dass wir weniger über uns und unser Menschsein wissen, als wir denken.

Neben Schulen stellt beispielsweise auch der medizinische Sektor in diesen aufstrebenden Ländern ein Nadelöhr dar. Indien oder der ganze afrikanische Kontinent sind chronisch mit Ärzten und medizinischem Personal unterversorgt. Das Problem ist weniger fehlendes Geld. Die Länder haben – wie uns Hans Rosling in seinem Buch „Factfulness“ oder Steven Pinker in „Enlightenment Now“ erklären – mittlerweile ausreichend Mittel, um Krankenhäuser zu bauen und zu betreiben. Wenn es nur Ärzte und Krankenpfleger in genügender Anzahl gäbe. Die Versorgungslücke in Indien ist so groß, dass wir bei den aktuellen medizinischen Ausbildungszahlen ungefähr 300 Jahre benötigen würden, um sie zu füllen.

Auch hier kann künstliche Intelligenz helfen. Sie könnte in geeigneten Diagnosegeräten eingesetzt die Triage – also die Vorauswahl – zwischen Patienten vornehmen, die tatsächlich ein Krankenhaus aufsuchen und von medizinischen Spezialisten untersucht werden sollten, und jenen, bei denen ein Krankenpfleger ausreicht. Malaria, Hauterkrankungen und jede Art von Wehwehchen könnten so in einem ersten Schritt von der KI analysiert und weitere Schritte empfohlen werden.

Wenn ich auf den folgenden Seiten von künstlicher Intelligenz, Maschinen, Robotern und Computern spreche, dann verwende ich für die Zwecke dieses Buches die Begriffe in austauschbarer Weise. Etwas vom Menschen Geschaffenes, das mit künstlicher Intelligenz und eventuell einem Körper versehen ist, dient den Menschen, um Aufgaben, die mit Denken verbunden sind, für uns zu erledigen. Ich meine damit nicht Kaffeemaschinen oder Kühlschränke, die Flüssigkeiten aufwärmen, Dinge kühlen, Sachen transportieren, unsere Wäsche waschen oder Rohstoffe umwandeln. Ich beziehe mich auf Maschinen, die Informationen transportieren, Ideen transformieren, Zahlen aufsummieren, Antworten auf Abfragen geben und Ziele in Pläne verwandeln.

1A. Whiten, J. Goodall, W. C. McGrew, T. Nishida, V. Reynolds, Y. Sugiyama, C. E. G. Tutin, R. W. Wrangham & C. Boesch: Cultures in chimpanzees; Nature volume 399, S. 682-685 (17. Juni 1999), https://www.nature.com/articles/21415

2Chimpanzees have favourite ‚tool set‘ for hunting staple food of army ants, https://www.cam.ac.uk/research/news/chimpanzees-have-favourite-tool-set-for-hunting-staple-food-of-army-ants

3National Geographic: Conversations With a Gorilla, https://www.nationalgeographic.com/magazine/1978/10/conversations-with-koko-the-gorilla/#close

4Website der The Gorilla Foundation http://koko.org/

5Francine Patterson, Eugene Linden: The Education of Koko, Holt, Rinehart and Winston, New York, 1981

6Remembering Koko, a Gorilla We Loved, https://www.newyorker.com/culture/postscript/remembering-koko-a-gorilla-we-loved

7Steven Pinker: Enlightenment Now. The Case for Reason, Science, Humanism, and Progress, Viking, 2018

8China has started a grand experiment in AI education. It could reshape how the world learns, https://www.technologyreview.com/s/614057/china-squirrel-has-started-a-grand-experiment-in-ai-education-it-could-reshape-how-the/

KAPITEL 2

image

Menschsein
und Intelligenz
als Ziellinie

„Eine Doppelconférence ist ein Dialog zwischen einem G’scheiten und einem Blöden, wobei der G’scheite dem Blöden etwas Gescheites möglichst gescheit zu erklären versucht, damit der Blöde möglichst blöde Antworten darauf zu geben imstande ist – mit dem Resultat, dass zum Schluss der Blöde zwar nicht gescheiter, aber dem Gescheiten die Sache zu blöd wird. Beide haben daher am Ende nichts zu lachen. Dafür desto mehr das Publikum.“

KARL FARKAS

Das Verhalten eines Schimpansen, den sie David Greybeard getauft hatten, erweckte die Neugier der Primatenforscherin Jane Goodall. Aus der Ferne hatte sie beobachtet, wie er Grashalme in die Erde steckte, wieder herauszog und in den Mund nahm. Das wiederholte sich etliche Male. Bei näherer Untersuchung realisierte Jane Goodall, was der Schimpanse da gemacht hatte. Die Ameisen hatten sich in den Grashalm verbissen und er konnte sie somit herausziehen und verspeisen. David Greybeard hatte ein Werkzeug verwendet, um „Ameisen zu fischen“.1

Goodalls Beobachtung hatte Auswirkungen auf die Definition von Menschsein und Intelligenz. Ihr Mentor Louis Leakey, der als Paläoanthropologe und Archäologe Jane bei der Forschung mit Primaten unterstützt hatte, meinte zu ihrem Bericht über den Werkzeuggebrauch bei Schimpansen:

„Nun müssen wir entweder den Begriff Werkzeug neu definieren, den Begriff Mensch neu definieren oder Schimpansen als Menschen akzeptieren.“

Bis dahin herrschte unter Forschern die Ansicht, dass nur Menschen Werkzeuge gebrauchen und ebendiese Tatsache den Menschen von allen anderen Spezies unterschied. Heute ist uns bekannt, dass eine Reihe von Tieren gleichfalls Werkzeuge verwendet. Krähen können recht komplexe Aufgaben mit Stöckchen und anderen Werkzeugen lösen.2

Eine der Aufgaben, die Forscher Krähen und Primaten vorlegen, besteht darin, dass die Tiere mehrere Werkzeuge in unterschiedlicher Reihenfolge benutzen müssen, um einfache Schlossverriegelungen zu öffnen und zu einer versteckten Leckerei zu gelangen. Diese für die Tiere neuartigen Aufgaben erfordern Planung, Überlegung, die Auswahl oder Herstellung eines geeigneten Werkzeugs, den geschickten Gebrauch desselben, eine Fehleranalyse, die Überredungskunst, einen Artgenossen oder jemanden außerhalb der eigenen Gattung zur Hilfe zu bewegen, und nicht zuletzt die Motivation, diese Aufgabe anzupacken und zu lösen. Diese Fähigkeiten beschreiben unserem Verständnis nach Intelligenz.

Intelligenz ist die generelle mentale Fähigkeit, die unter anderem die Fähigkeiten zum logischen Denken, Planen, Problemlösen, abstrakten Denken, zum Verstehen komplexer Ideen, eine schnelle Auffassungsgabe und das Lernen aus Erfahrung umfasst. Sie besteht nicht aus reinem Lernen aus Büchern, fachspezifischen akademischen Kompetenzen oder der Fähigkeit, Tests erfolgreich zu absolvieren. Es handelt sich um umfassendere und komplexere Fähigkeiten, die Umgebung zu verstehen, sich einen Reim darauf zu machen, und herauszufinden, was zu tun ist.3

Max Tegmark, MIT-Professor, Autor von „Leben 3.0“ und Gründer des Future-of-Life-Instituts, definiert Intelligenz als „die Fähigkeit, komplexe Aufgaben zu lösen“. Wir könnten nun eine Definition nach der anderen zu Intelligenz vorstellen. Allerdings änderten wir über die Jahre freimütig die Definition von Intelligenz und bestimmten sie immer wieder aufs Neue. Lange galt als ein Zeichen von Intelligenz bei Maschinen die Fähigkeit, Schach zu spielen. Strategische Spiele wie Schach oder Go sind ja generell die Drosophila für KI. So wie die Fruchtfliege für Biologen ist Schach für die Informatik das Vehikel, um Intelligenz zu studieren.4 Eine Maschine würde dann als intelligent gelten, wenn sie den Schachweltmeister besiegen könne. 1997 geschah genau das. IBMs Deep-Blue-Schachcomputer gewann gegen Garri Kasparow mit 3½ zu 2½.5

Damit hatten Maschinen aber nicht den Zenit der Intelligenz erreicht und waren fortan Menschen gleichgestellt. Was passierte, war etwas anderes. Sofort wurden Gründe angeführt, warum es sich bei Deep Blue nicht um „echte“ Intelligenz handeln würde. Deep Blue würde einfach seinen Vorteil von Brute Force, also der Rechengeschwindigkeit, ausnutzen, die es dem Computer erlaubt, Millionen von Zügen und deren Erfolgschancen in sehr kurzer Zeit vorauszuberechnen. Und das sei doch nur „dummes“ Rechnen. Von wahrer Intelligenz könne man jedoch erst dann sprechen, wenn die Maschine wie der Mensch so etwas wie Intuition besäße, wie es beispielsweise das Spiel Go erfordern würde, denn da komme man mit Brute Force wegen der aberwitzig vielen möglichen Spielzüge nicht weiter.

Und dann geschah genau das im Frühjahr 2016 mit AlphaGo, das Lee Sedol besiegte. Mit einem ungewöhnlichen Zug, den wir bei Menschen der Intuition des Spielers zuschreiben würden. Gestatten wir AlphaGo mit diesem Sieg dieselbe Intelligenzstufe wie Menschen zu? Wir kennen die Antwort: Natürlich nicht! Die Maschine verwendet ja nur ein „neuronales Netzwerk“ mit vielen Daten und simpler „Matrixrechnung“, auch wenn wir deren Zusammenwirken nicht völlig verstehen. Aber Intelligenz sei doch etwas ganz anderes.

Der Computerwissenschaftler Larry Tesler nannte das „KI-Effekt“. Dieser Effekt tritt auf, sobald eine Maschine ein intelligentes Verhalten an den Tag legt, das Beobachter unverzüglich als „unechte Intelligenz“ bezeichnen. Intelligenz ist im Umkehrschluss immer das, was Maschinen noch nicht können.6 Sobald wir wissen, wie Maschinen das machen können, und sie das Ziel erreichen, verschieben wir die Ziellinie.

Intelligenz aus diesem Blickwinkel und mit dieser Ziellinie – wer auch immer sie setzt – scheint sehr rasch als zu eng und einseitig definiert. In den vergangenen Jahren entwickelte sich ein neues Verständnis von Intelligenz und deren Unterarten, etwa soziale Intelligenz, emotionale Intelligenz, kulturelle Intelligenz, Schwarmintelligenz, Körperintelligenz, sogar spirituelle Intelligenz und das beinahe unüberschaubare Spektrum an tierischer und sogar pflanzlicher Intelligenz. Und nicht zu vergessen: Wir wurden als Gattung auch deshalb so erfolgreich, weil wir kollektiv, kollaborativ und verteilt unsere Intelligenzen und die damit verbundenen Fähigkeiten zusammenbringen können. Es benötigt Tausende von Menschen, damit wir so etwas Simples wie einen Bleistift produzieren können, und kein Einzelner weiß genau, wie man einen Bleistift wirklich macht. All diese Fähigkeiten bilden die allgemeine menschliche Intelligenz.

Der Informatiker Tomaso Poggio sagt, Intelligenz sei somit nicht nur ein Wort, sondern viele Probleme – nicht einer, sondern mehrere Nobelpreise. Der bereits verstorbene amerikanische KI-Forscher Marvin Minsky sprach deshalb auch von der „Society of Mind“ als Kontrast zur „Theory of Mind“.7 Für Poggio zählt das Problem der Intelligenz zu den größten Rätseln der Menschheit, gleichwertig mit dem des Ursprungs des Universums und von Zeit und Raum. Jeder Fortschritt im Verständnis, wie Intelligenz funktioniert und wie sie auf Maschinen übertragen werden kann, hätte einen gewaltigen Multiplikatoreffekt, weil wir damit Maschinen entwickeln können, die uns beim Lösen der großen Fragen von Wissenschaft und Technologie helfen könnten.

Genauso wie uns Kopernikus mit dem Umstieg vom geozentrischen Weltbild, bei dem die Erde als Mittelpunkt der Dinge galt, zum heliozentrischen Weltbild mit der Sonne im Mittelpunkt völlig neue Perspektiven eröffnete, sollten wir uns vom Fokus auf den anthropozentrischen Begriff von Intelligenz lösen und zu einer allgemeinen Form und Definition kommen. Intelligenz ist ein multidimensionales Spektrum, das in unterschiedlichen Ausprägungen für jede Spezies und Maschine angepasst auftreten kann. Eine Spezies oder eine Maschine bewegen sich jeweils nur in einem kleinen Teil des gesamten multidimensionalen Intelligenzraumes.

Der Grund, warum wir uns mit dem Begriff und der Definition von Intelligenz so schwertun, ist unsere Erwartung, dass unsere Interaktion mit einem künstlichen System irgendwie „menschenähnlich“ ist. Also so, dass wir eine sinnvolle Konversation über alle möglichen Dinge mit der Maschine führen können und sie dabei auch „Hausverstand“ zeigt, unsere Normen kennt und uns nicht durch ihre Limitationen frustriert, sondern sich als hilfreich bei vielen Aufgaben erweist. Natürlich wird die Interaktion mit künstlicher Intelligenz anthropozentrisch, also auf den Menschen gerichtet sein. Immerhin ist solche Intelligenz von Menschen geschaffen, genauso wie von Koalas geschaffene KI „koalazentrisch“ wäre.

Unsere Herausforderung ist, dass wir an Maschinen andere Ansprüche zu stellen scheinen als an Tiere. Von unserem Hund erwarten wir nicht, dass er den Müll hinunterbringt. Unsere Katze werden wir nicht beauftragen, das Paket vom Paketboten entgegenzunehmen und eine Unterschrift zu leisten. Wir verlangen von diesen Tieren lediglich, dass sie Einbrecher oder Mäuse verjagen und für niedliche Hunde- und Katzenvideos posieren. Während Intelligenztests für Menschen auch einiges an abstraktem Denken abfragen, kommt soziale Intelligenz darin fast nicht vor. Dabei wären beispielsweise Schimpansen oder Gorillas uns darin haushoch überlegen.

Maschinen stellen sich als komplexer und unbegreiflicher dar. Erwarten wir von einem Auto, dass es selbstständig bremsen kann? Noch vor wenigen Jahren hätten wir mit einem „selbstverständlich nicht“ geantwortet. Heute gibt es in vielen Autos sogenannte Fahrerassistenzsysteme, die die Bremsen automatisch betätigen können, wenn es zu einer gefährlichen Situation kommt. Noch können wir uns nicht vollständig auf die Zuverlässigkeit solcher Systeme verlassen. Aber schon bald werden mit selbstfahrenden Autos nur noch solche Systeme von Computern gesteuert werden und auf den Straßen unterwegs sein, und der Mensch wird vom Lenken befreit sein. Unser rationales Selbst hat in der Zwischenzeit gelernt, dass Maschinen weiterentwickelt werden und immer mehr können. Von Telegrafen stiegen wir auf Telefone und nun auf Messenger-Apps um. Versetzten Ballons als erste Fluggeräte die Menschen vor 200 Jahren noch in ungläubiges Staunen, sehen wir heute Flugzeugreisen als normalen Teil unseres Lebens an.

Bei Tieren erwarten wir eine Entwicklung in so kurzer Zeit nicht. Es erweckt unsere Neugier, wenn ein Tier Fähigkeiten zeigt, die man ihm normalerweise nicht zuschreibt. Als das Pferd Kluger Hans durch Nicken und Hufestampfen Rechenaufgaben seines Herrn richtig beantworten konnte, war das eine Sensation.8 Auch wenn der kluge Hans nicht wirklich rechnen konnte, so lernten wir doch etwas Neues aus diesem Fall: Pferde sind ungemein begabt darin, Gesichtszüge und Körperhaltungen von anderen zu erkennen und zu interpretieren.

Hinzu kommt, dass wir uns anmaßen, Intelligenz zu verstehen und verstehen zu müssen. Ludwig Wittgenstein gab uns dazu schon vor 100 Jahren eine Antwort. In seinem berühmten Satz „Wenn ein Löwe sprechen könnte, wir könnten ihn nicht verstehen“ gibt uns der Philosoph einen Hinweis darauf, ob wir andere Intelligenzen überhaupt verstehen können. Die Erfahrungen, die ein Löwe in seiner Welt, mit seinen Sinnen und in seinem Körper macht, sind so fundamental anders als die, die wir Menschen machen, dass wir nicht nur Schwierigkeiten hätten, uns gegenseitig verständlich zu machen, sondern wir uns gleich gar nicht verstehen würden. Löwen schleichen auf vier Beinen durch hohes Gras und jagen schnell laufende Tiere, während Menschen auf zwei Beinen unterwegs sind und ihre Hände gebrauchen, um Objekte für ihre Zwecke zu benutzen. In diesem Kontext greifen Löwen und künstliche Intelligenzen auf konzeptuelle Strukturen zurück, die sich von menschlichen grundlegend unterscheiden und andere Probleme mit sich bringen.

Im Animationsfilm „Spione Undercover“ mit Will Smith als Stimme des Superspions Lance Sterling wird der Hauptdarsteller vom jungen Wissenschaftler Walter Beckett versehentlich in eine Taube verwandelt. Mit Schrecken muss Lance Sterling erkennen, dass er nun die Fähigkeit besitzt, mit seinen Taubenaugen eine Rundumsicht zu haben. Er kann also nach vorn schauen und gleichzeitig seinen eigenen Hintern im Blickfeld behalten. Was der Film anschaulich visualisiert, darüber haben sich schon andere Gedanken gemacht. Franz Kafkas Roman „Die Verwandlung“, Pixars Animationsfilm „Alles steht Kopf“ oder der Film „Being John Malkovich“ sind nur einige der vielen künstlerischen Ansätze, mit der Verwandlung in andere Lebewesen oder den inneren Gefühlswelten dramaturgisch umzugehen.

Vielleicht macht es ein anderes Beispiel klarer, ob wir Intelligenz so bewerten und bemessen sollten – und damit eine Ziellinie ziehen, die wir ohnehin nach Belieben weiter verschieben –, wie wir das bisher machen. Nämlich mit dem Menschen im Mittelpunkt. Wir können uns sicherlich vorstellen, dass wir mit einigem Forschungsaufwand und dem Einsatz von Milliarden Euro ein Material schaffen, das in seinen Eigenschaften Holz extrem ähnlich ist. Es wäre vermutlich nicht ganz einfach, aber das sollte uns nicht hindern. Solange dieses künstliche Holz (KH) aber keine weiteren Eigenschaften aufweist, die natürlichem Holz überlegen sind, stellt sich die Frage, warum wir KH schaffen wollen? Vor allem, da doch natürliches Holz billig produziert werden kann und im Überfluss vorhanden ist. Stattdessen haben wir mit Beton, Ziegeln, Fliesen, Glas oder Blechen andere Baustoffe zur Verfügung, die weitere Attribute und Holz gegenüber vorteilhaftere Eigenschaften mitbringen. Wir setzen auch keine willkürliche Ziellinie für „lignumzentrische“ Kriterien, die Beton, Ziegel und Glas erfüllen müssen, um der Definition von Baustoff gerecht zu werden.

Genau das machen wir aber mit Intelligenz. Genauso wie Holz heute billig produziert werden kann und im Überfluss vorhanden ist, sind menschliche Gehirne billig, auf lustvolle Weise zu produzieren und im Überfluss vorhanden. Wir würden das Potenzial von künstlichen Intelligenzen nicht vollständig ausschöpfen, würden wir sie menschlicher Intelligenz ähnlich machen und an ihr messen wollen. Und mit Wittgenstein gesprochen macht es auch wenig Sinn. Zudem sollte nicht unser vordringliches Ziel sein, künstliche Intelligenz nur