PFARRVERBAND OBERES INNTAL
ST. MICHAEL NIEDERAUDORF

Klosterweg 20, 83080 Oberaudorf, Telefon: 08033-3021613, E-Mail: st-michael.niederaudorf-reisach@ebmuc.de

In dieser Rubrik stellen wir in loser Reihenfolge aktuelle Themen aus christlicher Sicht zur Verfügung, die wir für lesenswert halten.

Was ist eigentlich „Künstliche Intelligenz“ (KI)?

VON PATER MARKUS CHRISTOPH SJM

KI 1
Die Internetseite des Europäischen Parlaments definiert KI wie folgt:
 
Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähig­keiten wie logisches Denken, Lernen. Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Pro­bleme zu lösen, um ein bestimmtes Ziel zu erreichen. Der Computer empfängt
Daten (die bereits über eigene Sensoren, zum Beispiel eine Kamera, vorbereitet oder gesammelt wurden), verarbeitet sie und reagiert. Kl-Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analy­sieren und autonom arbeiten.[1]
Das besondere Merkmal von KI be­steht darin, dass ein System neue Informationen aufnehmen kann — durch Kameras, Sensoren, Proto­kollierung eigener Maschinenwerte, Speicherung von Googleanfragen usw., dass diese Daten auf Grundlage bisheriger Informationen ausgewertet werden und damit das eigene Verhal­ten weiterentwickelt wird. Auf diesem Weg optimiert sich eine Maschine kontinuierlich, und zwar selbst. Beim autonomen Fahren z.B. scannt das Auto die Umgebung, interpretiert die Daten nach bestimmten Vorgaben und passt anschließend Geschwindig­keit und Richtung an. Personalisier­te Werbung beim Online-Shopping lernt aus bisherigen Suchanfragen, der Verweildauer auf bestimmten Produktseiten, der persönlichen Klickgewohnheit auf YouTube. Beim „Smart Farming“ lernen Roboter aus ihrer eigenen Arbeit auf dem Feld das Unkraut immer besser vom Ge­treide zu unterscheiden. Damit ahmt KI menschliche Fähigkeiten nach; sie imitiert sein Denken und Entschei­den. Ist also zu erwarten, dass KI ir­gendwann mit „menschlicher Intelli­genz“ identisch sein wird? Oder sogar besser?

Was ist „menschliche Intelligenz“?
Auch menschliches Denken kennt das Phänomen der Selbstoptimierung. Wir lernen aus Erfahrung. Wir be­obachten immer wieder, wie sich der Himmel bewölkt und anschließend Regen fällt. Daraus erschließen wir eine Regelmäßigkeit und nehmen in Zukunft bei Wolken einen Regen­schirm mit. Mit wachsender Daten­menge merken wir, dass bei dunklen Wolken die Regenwahrscheinlichkeit höher ist, bei weißen geringer. Wir präzisieren unsere Wetterprognose und nehmen den Schirm nur noch bei bestimmten Wolken mit. Denken funktioniert irgendwie wie Kl.
Dabei übersieht man leicht zwei we­sentliche Unterschiede: Menschliches Denken ist verbunden mit (a) bewuss­ter Erfahrung und mündet in (b) ver­standene Bedeutung.

(a) Das Faktum bewusster Erfahrungen
Nimmt ein Mensch über seine Sinne neue Informationen wahr, leiten — vereinfacht gesagt - seine „Kameras“ (Augen) und „Mikrophone“ (Ohren) neuronale Impulse an sein „Rechen­zentrum“ (Gehirn) weiter, die dort verarbeitet und gespeichert werden und in der Folge sein weiteres Verhal­ten bestimmen. Das ist die physische Seite der menschlichen Intelligenz, die tatsächlich große Ähnlichkeit mit KI aufweist. Dieser Blickwinkel ist legi­tim. Die Ergebnisse der Neuromedizin zeigen uns, dass man damit eine bestimmte Seite des menschlichen Denkens nachvollziehen kann. Doch mit dieser physischen Beschreibung ist das Phänomen „menschliches Denken“ nicht vollständig erfasse. Wenn wir dunkle Wolken sehen, einen
Donner hören und Wind spüren, und anschließend den Regenschirm einpa­cken - ja, dann laufen im Körper be­stimmte neuronale Prozesse ab. Aber gleichzeitig machen wir eine Bewusste Erfahrung von Luft, Schall und Farbe. Der Mensch erlebt bewusst Wolken, Donner und Wind. Der Sachverhalt dieses Erlebens kommt in der neu­rologischen Beschreibung des Denk­prozesses nicht vor. Möglicherweise kann die Wissenschaft eines Tages den komplexen biochemischen Prozess zwischen Wahrnehmung der Wolken und Muskelbewegung zum Regen­schirmeinpacken restlos nachvollzie­hen; der Akt wäre dann physikalisch vollständig beschreibbar. Doch trotz­dem würde gehen: Die bewusste Er­fahrung des Wetters und das Erlebnis des Nach-dem-Regenschirm-Greifens wäre davon nicht berührt.
Ein besonders eindrückliches Bei­spiel ist die bewusste Erfahrung von Schmerz: Bei einem versehentlichen Griff auf eine heiße Herdplatte ent­fährt uns intuitiv ein „Aua“ und wir ziehen spontan die Hand zurück. Die überhöhte Temperatur wird von den Sinneszellen der Hand an das Hirn weitergeleitet, dort verarbeitet und eine akustische und muskulöse Re­aktion ausgelöst. In jedem Computer steckt ein primitiver Nachbau dieses Mechanismus; erreicht die Tempe­ratur eine kritische Grenze, wird ein Warnsignal ausgelöst und das Gerät Schalter sieh ab. Hat der Computer deswegen eine bewusste Erfahrung von Schmerz? Ist die überhöhte Tem­peratur eine erlebte Wahrnehmung? Sicher nicht. Wer wäre überhaupt dieser „Er“ der Schmerzerfahrung? In der physikalischen Beschreibung der Temperaturkontrolle des Computers kommt die Schmerzerfahrung nicht vor. Genauso wenig findet sich in der neurologischen Beschreibung von körperlichen Schmerzmechanismen ein bewusstes Erleben dieses Schmer­zes. Bewusste Erfahrungen lassen sich mit physischen Kategorien nicht dar­stellen - obwohl jeder weiß, dass es solche bewussten Erfahrungen gibt.
Der amerikanische Philosoph Tho­mas Nagel hat diesen Sachverhalt in seinem bekannten Aufsatz „What Is It Like to Be a Bat?“’ anschaulich er­klärt: Fledermäuse nehmen ihre Um­gebung nicht primär mit ihren Augen wahr, sondern durch ein komplexes Ultraschall-Radarsystem. Unsere Wis­senschaft kann die physische Seite der Fledermausorientierung inzwischen ungefähr nachvollziehen, eines Tages vielleicht sogar vollständig. Komplett unzugänglich ist uns dagegen die Er­fahrung „wie es ist, eine Fledermaus zu sein“, d.h. ihre eigene bewusste Er­fahrung der Raumwahrnehmung mit­tels ihres Echosystems. Diese Erfah­rungswirklichkeit lässt sich physisch nicht darstellen.[2] [3]
Kurz: Das Phänomen von bewuss­ter Erfahrung (sei es von Tieren oder Menschen) ist eine Dimension, die wir physisch nicht fassen und da­mit auch technisch nicht nachbauen können. Technisch möglich ist es, die äußerlichen Reaktionen auf sol­che Erfahrungen zu imitieren; d.h. bestimmte Verhaltensmuster durch KI berechnen zu lassen, sodass der Eindruck von emotionalen Erfah­rungen, von Einfühlungsvermögen oder Sympathie entsteht. Sprachantworten oder körperliche Gesten eines Roboters könnten dann emotionale Erfahrungen vortäuschen. Ein echtes personales Gegenüber mit Bewusst­sein für die Kommunikation ist dabei nicht gegeben.
KI 2
(b) Das Phänomen von verstandener Bedeutung
Computer können Informationen speichern. Festplatten und Clouds tun das seit Jahren, DVDs und Kas­setten waren primitiviere Vorformen. Streng genommen waren schon Bü­cher „Maschinen“ zur Aufbewahrung von Informationen. KI ist in der Lage, einem solchen Datenspeicher neue Informationen hinzufügen, sie mit bestehenden Daten abzugleichen und unter Anwendung von Algorithmen weiterzuentwickeln. Dies geschieht, wenn z.B. Google auf unsere Klickgewohnheiten zurückgreift und uns individuell angepasste Werbeanzeigen zuspielt.
Doch hier treffen wir auf eine ähn­liche Leerstelle wie beim Phänomen der bewussten Erfahrung. Technisch nachvollziehbar ist, wie es zur Anzeige einer bestimmten Werbung kommt, z.B. für Rucksäcke. Aber versteht der Prozessor oder Bildschirm die Be­deutung der Werbeanzeige? Welche Bedeutung hat es für den Computer, wenn er die Buchstaben „anpassba­res FreeFloat-Tragesystem“ anzeigt? Keine. Der Computer versteht nicht, was sein Output bedeutet. Im Com­puter gibt es kein „Er“, kein Subjekt, das verstehen kann. Wenn auf den Servern von Wikipedia der Satz „Ein Rucksack ist ein Behälter, der an Gur­ten auf dem Rücken getragen wird“ gespeichert ist, verstehen die Server die Bedeutung dieser Zeichenfolge nicht. „Information“ steht in den Computerwissenschaften nicht für Sinninhalte oder Bedeutungen, son­dern für Codes, Signale oder Zeichen (vgl. das sog. Shannon-Weavcr-Modell) und diese können maschinell ge­speichert und bearbeitet werden. Erst der Mensch, der am Computer sitzt und eine Zeichenfolge liest, verbindet damit eine bestimmte Bedeutung. Er versteht. Pointiert gesagt: die gesam­te Wikipedia ist nur eine große Ver­kettung von Codes, die selbst nichts weiß. Erst der menschliche Benutzer verknüpft die dort gespeicherten Zei­chen mit Sinngehalten; er versteht die Bedeutung.
Wenn Kl arbeitet, werden Codes und Signale verarbeitet; durch Verknüpfung werden sie erweitertet, optimiert und neue Inhalte kreiert. In diesem Bereich ist KI stark und wird immer stärker. Aber sie erfasst nicht den Sinn ihrer Codes. Das kann nur der Mensch, der Bedeutung versteht.
Damit ist nichts darüber gesagt, ob die Inhalte, die ein Mensch versteht, wahr sind oder falsch. Es geht nicht um die Wahrheit von Aussagen, son­dern schlicht um das Phänomen, dass jemand einen bestimmten Sinngehalt denkt.4 Jeder Leser hat bei den Buch­staben „goldener Mount Everest" eine bestimmte Vorstellung, obwohl es einen goldenen Berg in Wirklichkeit nicht gibt. Dieser Akt des Verstehens von Bedeutung ist mehr als bloß die Informationskette der Buchstaben. Es gibt neuronale Prozesse, die unser Denken begleiten. Doch ihre verstan­dene Bedeutung lässt sich nicht auf die neuronalen Prozesse reduzieren.
Auch wenn die Verarbeitung von bi­nären Codes und Signalen in den nächsten Jahren technisch weiter perfektioniert wird, wenn Wikipedia weiterwächst und Smart Farming noch ziel­sicherer das Unkraut bekämpft: Die Server werden nie selbst wissen, was sie speichern, Robotersoftware wird nie verstehen, was sie auf dem Feld macht. Kl-Systeme sind und bleiben bloße Codes, die sich nicht in verstandene Be­deutung verwandeln.
Im Menschen: Personsein als Grundlage von Erfahrung und Verstehen
Dem beiden Phänomen von Erfahrung und Verstehen, die man nicht leugnen kann, zei­gen uns, dass der Mensch mehr ist als nur eine materielle Maschine. Er ist „Person“, „Subjekt“, „Selbst“, „Ich“; er hat „Geist“, eine „Seele“. All diese Begriffe (die sich in Nuancen unterscheiden) beziehen sich auf einen „Kern“ im Menschen, der als Träger von Erleben und Verstehen fungiert. Sie bezeichnen, wer hier erlebt und versteht. Personsein lässt sich nicht physikalisch nachweisen oder erklären; in keinem medizinischen Experiment wird das „Ich“ direkt sichtbar. Nachweisen kann man lediglich neuronale Prozesse. Dass wir Perso­nen bzw. Subjekte sind, Geist bzw. Seele ha­ben, erschließen wir (unter anderem) aus der Tatsache unserer Erfahrungen, die uns unmit­telbarer zugänglich sind, als jede wissenschaft­liche Theorie über biochemische Gehirnprozesse. Und weil das personale Erleben physisch nicht greifbar ist, kann unser „Personsein“ auf physisch-technischem Weg nicht nachgebaut werden.

Zukunftsvision KI: In welche Richtung geht die technische Entwicklung?
Konkrete Zukunftsvisionen liegen praktisch immer falsch. Darum begnügen wir uns mit drei allgemeinen Hinweisen:
1.    Im Bereich der Datenerfassung und Bear­beitung werden sich die Anwendungsbereiche von KI rasant ausweiten und viele Bereiche unseres Lebens grundlegend verändern.
2.    Menschliche Intelligenz als Fähigkeit zum Erfahren und Verstehen setzt Personsein vor­aus und ist darum in ihrem Wesen nach völlig verschieden von KI. Für einen „Nachbau“ von bewussten Erfahrungen und verstandenen Be­deutungen gibt es keinen technischen Ansatz. In diesem Sinn lässt sich menschliches Den­ken von KI prinzipiell nicht reproduzieren. Eine Angst vor einer KI mit menschlichem Bewusstsein ist darum unbegründet.
3. Sehr wohl begründet ist dagegen die Sorge, dass mit KI-Techniken Menschen leicht mani­puliert werden können - nicht nur gezielt von Meinungsmachern, sondern vom systemim­manenten Ansatz einer sich selbst regulieren­den maschinellen Informationsverarbeitung. So besteht z.B. in einer Kl-dominierten Medi­enwelt die akute Gefahr, dass ein herrschender Mainstream sich selbst perpetuiert und abwei­chende Meinungen - egal wie gut sie sachlich begründet sind - keine Öffentlichkeit mehr finden können.
Insofern gilt für KI wie für so viele technische Errungenschaften: Sie kann zum Segen wer­den, aber auch zum Fluch.
[1] https://wwweuroparl.europa.eu/news/de/headlines/society/20200827ST085804/ was-ist-künstliche-intelligenz-und-wie-wird- sie-genutzt (Zugriff: 20.09.2023).
 
2       Thomas Nagel, What Is it Like to Be a Bat? Wie ist es, eine Fledermaus zu sein? 6. Aufl„ Reclam: Ditzingen 2016.
 
3       Oft „löst“ man das Problem durch die These, Bewusstsein und Erfahrung sei­en das Ergebnis von noch komplexeren elektrochemischen Prozessen als derzeit In Computern möglich. So räumt z.B. der Bestsellerautor Yuval Noah Harari, für den der Mensch nichts als ein Algorithmus ist, ganz offen ein, „niemand weiß jedoch so recht zu sagen, wie eine Ansammlung biochemischer Reaktionen und elektrischer Ströme im Gehirn die subjektive Erfahrung von Schmerz, Wut oder Liebe erzeugt.“ Trotzdem postuliert er, dass es eine mate­rialistische Erklärung gibt-schließlich ist der Mensch ja nur ein Algorithmus. Eine physikalische Erklärung für Bewusstsein ist für Ihn nur eine Frage der Zeit: „Vielleicht werden wir in zehn oder fünfzig Jahren über eine stichhalte Erklärung verfügen.“ (Yuval Noah Harari, Homo Deus. Eine Geschichte von Morgen, l2.Aufl., C.H. Beck: München 2020, 172-173).
 
 
4 Interessant: Nach Thomas von Aquin be­steht der erste und tiefste Sinn von Wahr­heit gar nicht in wahren Aussagen, sondern im Verstehen von Bedeutungsinhalten (vgl. Thomas von Aquin, De veritate qu. I. art. I).

Wie sich KI selbst versteht... Wir haben ChatGPT selbst gefragt
 
ChatGPT, inwiefern kann man sagen, dass du intelligent, bist?
 
ChatGPT: Man kann Argumentieren. dass ich intelligent bin, indem man einige meiner Fähigkeiten und Merkmale betrachtet:
1. Verarbeitung von Informationen: Ich kann große Mengen an Informationen schnell analysieren und verarbeiten. Dies ermöglicht es mir, auf vielfältige Fragen und Anfragen in natürlicher Sprache zu antworten.
2..    Lernfähigkeit; Ich wurde durch maschinelles lernen trainiert und kann aus großen Datensätzen lernen, um mein Verständnis und meine Fähigkeiten kontinuierlich zu verbessern.
3.      Anpassungsfähigkeit: Ich kann mich an, unterschiedliche Benutzeranforderungen und -kontexte anpassen. Ich kann in verschiedenen Sprachen kommunizieren und auf verschiedene Themen eingehen.
4.      Problemlösung: Ich kann bei der Lösung von Problemen und der Beantwortung von komplexen Fragen helfen, indem ich Informationen aus verschiedenen Quellen kombiniere und logisches Denken anwende.
5..       Natürliche Sprachverarbeitung: Meine Fähigkeit, natürliche Sprache zu verstehen und zu generieren, ermöglicht es mir menschliche Kommunikation auf einer breiten Ebene zu unterstützen.
 
Es ist jedoch wichtig zu beachten, dass -meine „Intelligenz“ auf maschinellem Lernen und Statistiken basiert und sich von menschlicher Intelligenz unterscheidet. Ich habe keine eigenen
Gedanken, Gefühle oder Bewusstsein. Mein "Wissen'' basiert auf den Daten, mit denen ich trainiere wurde, und ich kann keine kreativen Ideen entwickeln oder moralische Entscheidungen treffen. Meine Intelligenz ist auf die Verarbeitung von Textdaten und die Beantwortung von Fragen in natürlicher Sprache beschränkt.