Die Internetseite des Europäischen Parlaments definiert KI wie folgt:
Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen. Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. Der Computer empfängt
Daten (die bereits über eigene Sensoren, zum Beispiel eine Kamera, vorbereitet oder gesammelt wurden), verarbeitet sie und reagiert. Kl-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.
[1] Das besondere Merkmal von KI besteht darin, dass ein System neue Informationen aufnehmen kann — durch Kameras, Sensoren, Protokollierung eigener Maschinenwerte, Speicherung von Googleanfragen usw., dass diese Daten auf Grundlage bisheriger Informationen ausgewertet werden und damit das eigene Verhalten weiterentwickelt wird. Auf diesem Weg optimiert sich eine Maschine kontinuierlich, und zwar selbst. Beim autonomen Fahren z.B. scannt das Auto die Umgebung, interpretiert die Daten nach bestimmten Vorgaben und passt anschließend Geschwindigkeit und Richtung an. Personalisierte Werbung beim Online-Shopping lernt aus bisherigen Suchanfragen, der Verweildauer auf bestimmten Produktseiten, der persönlichen Klickgewohnheit auf YouTube. Beim „Smart Farming“ lernen Roboter aus ihrer eigenen Arbeit auf dem Feld das Unkraut immer besser vom Getreide zu unterscheiden. Damit ahmt KI menschliche Fähigkeiten nach; sie imitiert sein Denken und Entscheiden. Ist also zu erwarten, dass KI irgendwann mit „menschlicher Intelligenz“ identisch sein wird? Oder sogar besser?
Was ist „menschliche Intelligenz“? Auch menschliches Denken kennt das Phänomen der Selbstoptimierung. Wir lernen aus Erfahrung. Wir beobachten immer wieder, wie sich der Himmel bewölkt und anschließend Regen fällt. Daraus erschließen wir eine Regelmäßigkeit und nehmen in Zukunft bei Wolken einen Regenschirm mit. Mit wachsender Datenmenge merken wir, dass bei dunklen Wolken die Regenwahrscheinlichkeit höher ist, bei weißen geringer. Wir präzisieren unsere Wetterprognose und nehmen den Schirm nur noch bei bestimmten Wolken mit. Denken funktioniert irgendwie wie Kl.
Dabei übersieht man leicht zwei wesentliche Unterschiede: Menschliches Denken ist verbunden mit (a) bewusster Erfahrung und mündet in (b) verstandene Bedeutung.
(a) Das Faktum bewusster Erfahrungen Nimmt ein Mensch über seine Sinne neue Informationen wahr, leiten — vereinfacht gesagt - seine „Kameras“ (Augen) und „Mikrophone“ (Ohren) neuronale Impulse an sein „Rechenzentrum“ (Gehirn) weiter, die dort verarbeitet und gespeichert werden und in der Folge sein weiteres Verhalten bestimmen. Das ist die physische Seite der menschlichen Intelligenz, die tatsächlich große Ähnlichkeit mit KI aufweist. Dieser Blickwinkel ist legitim. Die Ergebnisse der Neuromedizin zeigen uns, dass man damit eine bestimmte Seite des menschlichen Denkens nachvollziehen kann. Doch mit dieser physischen Beschreibung ist das Phänomen „menschliches Denken“ nicht vollständig erfasse. Wenn wir dunkle Wolken sehen, einen
Donner hören und Wind spüren, und anschließend den Regenschirm einpacken - ja, dann laufen im Körper bestimmte neuronale Prozesse ab. Aber gleichzeitig machen wir eine Bewusste Erfahrung von Luft, Schall und Farbe. Der Mensch erlebt bewusst Wolken, Donner und Wind. Der Sachverhalt dieses Erlebens kommt in der neurologischen Beschreibung des Denkprozesses nicht vor. Möglicherweise kann die Wissenschaft eines Tages den komplexen biochemischen Prozess zwischen Wahrnehmung der Wolken und Muskelbewegung zum Regenschirmeinpacken restlos nachvollziehen; der Akt wäre dann physikalisch vollständig beschreibbar. Doch trotzdem würde gehen: Die bewusste Erfahrung des Wetters und das Erlebnis des Nach-dem-Regenschirm-Greifens wäre davon nicht berührt.
Ein besonders eindrückliches Beispiel ist die bewusste Erfahrung von Schmerz: Bei einem versehentlichen Griff auf eine heiße Herdplatte entfährt uns intuitiv ein „Aua“ und wir ziehen spontan die Hand zurück. Die überhöhte Temperatur wird von den Sinneszellen der Hand an das Hirn weitergeleitet, dort verarbeitet und eine akustische und muskulöse Reaktion ausgelöst. In jedem Computer steckt ein primitiver Nachbau dieses Mechanismus; erreicht die Temperatur eine kritische Grenze, wird ein Warnsignal ausgelöst und das Gerät Schalter sieh ab. Hat der Computer deswegen eine bewusste Erfahrung von Schmerz? Ist die überhöhte Temperatur eine erlebte Wahrnehmung? Sicher nicht. Wer wäre überhaupt dieser „Er“ der Schmerzerfahrung? In der physikalischen Beschreibung der Temperaturkontrolle des Computers kommt die Schmerzerfahrung nicht vor. Genauso wenig findet sich in der neurologischen Beschreibung von körperlichen Schmerzmechanismen ein bewusstes Erleben dieses Schmerzes. Bewusste Erfahrungen lassen sich mit physischen Kategorien nicht darstellen - obwohl jeder weiß, dass es solche bewussten Erfahrungen gibt.
Der amerikanische Philosoph Thomas Nagel hat diesen Sachverhalt in seinem bekannten Aufsatz „What Is It Like to Be a Bat?“’ anschaulich erklärt: Fledermäuse nehmen ihre Umgebung nicht primär mit ihren Augen wahr, sondern durch ein komplexes Ultraschall-Radarsystem. Unsere Wissenschaft kann die physische Seite der Fledermausorientierung inzwischen ungefähr nachvollziehen, eines Tages vielleicht sogar vollständig. Komplett unzugänglich ist uns dagegen die Erfahrung „wie es ist, eine Fledermaus zu sein“, d.h. ihre eigene bewusste Erfahrung der Raumwahrnehmung mittels ihres Echosystems. Diese Erfahrungswirklichkeit lässt sich physisch nicht darstellen.
[2] [3] Kurz: Das Phänomen von bewusster Erfahrung (sei es von Tieren oder Menschen) ist eine Dimension, die wir physisch nicht fassen und damit auch technisch nicht nachbauen können. Technisch möglich ist es, die äußerlichen Reaktionen auf solche Erfahrungen zu imitieren; d.h. bestimmte Verhaltensmuster durch KI berechnen zu lassen, sodass der Eindruck von emotionalen Erfahrungen, von Einfühlungsvermögen oder Sympathie entsteht. Sprachantworten oder körperliche Gesten eines Roboters könnten dann emotionale Erfahrungen vortäuschen. Ein echtes personales Gegenüber mit Bewusstsein für die Kommunikation ist dabei nicht gegeben.