Radioen

On air

Tockcity  |  Arab Strap - Bliss

play_arrow Live
arrow_back_ios

100komma7.lu

100komma7.lu

/ Was ist Bewusstsein?

Seismograph

Was ist Bewusstsein?

Seit rund zwei Wochen steht der Konzern Google in den Schlagzeilen. Der Grund: ein Mitarbeiter von Google machte publik, dass eine von Google konzipierter Chatroboter anscheinend selbstbewusst geworden sei und von sich selber behauptet, er habe eine Seele. Der Chatroboter mit Namen LamDa habe dem Mitarbeiter mitgeteilt, er fürchte sich davor, einfach abgeschaltet zu werden, was für ihn mit dem Tod gleichzusetzen wäre. Hat Google eine selbstbewusste K.I. kreiert, die sich vor dem eigenen Tod fürchtet? Welche (ethischen) Konsequenzen ergeben sich daraus?

auto_stories

4 min

Von einem philosophischen Standpunkt aus gesehen ist diese Geschichte natürlich sehr spannend, weil hier viele interessante und auch heikle Fragen aufgeworfen werden, wie zum Beispiel die Frage, ob eine selbstbewusste Maschine Persönlichkeitsrechte hat, oder ob man sie einfach so abschalten darf?

Wie kann man überhaupt darauf schließen, dass eine Maschine denkt und fühlt? Reicht es, mit einem Programm zu sprechen, um zu wissen, dass es denkt, oder muss dazu mehr geschehen?

Haben Computer eigentlich Gedanken, so wie wir Menschen sie haben? Wird die künstliche Intelligenz - sollte es sie geben - uns irgendwann überlegen sein und uns vielleicht sogar bedrohen?

Und vor allem die Frage: Was ist Bewusstsein?

Logik ≠ Denken

Was Bewusstsein ist - darauf kann hier wirklich nicht geantwortet werden, die Frage ist zu gewaltig und komplex, zu umstritten und zu tiefgründig für einen Radiobeitrag.

Kommen wir noch einmal auf den Ausgangsfall zurück: der Ingenieur von Google hatte in seinen Gesprächen mit dem Chatbot den Eindruck, dass das Programm das geistige und das Gefühlslevel eines 8-Jährigen hat.

Ich habe die Transcripts gelesen und tatsächlich kann man meinen, dass hier zwei intelligente Wesen miteinander kommunizieren. Jetzt muss man aber berücksichtigen, dass das eine der beiden Wesen carbonbasiert ist und das andere siliciumbasiert.

Wir wissen (ohne es bisher wirklich verstanden zu haben), dass Bewusstsein bisher nur aus carbonbasierten Lebensformen entsteht, nicht aber aus Silicium. Das heißt nicht, dass es nicht geschehen kann, aber es ist bisher nicht klar, wie es je geschehen könnte.

Vor allem darf man nicht zu schnell in die Falle der Anthropomorphisierung tappen. Man sollte nicht etwas vermenschlichen, was nicht menschlich ist.

Nur, weil das Programm menschliche Kommunikation exakt kopiert, heißt das nicht auch unbedingt, dass der Computer wirklich kommuniziert, in dem Sinne, dass hier ein bewusster Gedanken ausgedrückt würde.

Das Programm hat einen rein formalen Bezug zu dem, was es kommuniziert: es wendet Regeln an, die ihm beigebracht wurden. Aber es ist fraglich, ob das Programm auch wirklich versteht, was dort gesagt wird.

So wie wenn ich arabische Schriftzeichen nachschreibe, ohne zu wissen, was sie bedeuten. Aber wenn jemand, der arabisch kann dann liest, was ich geschrieben habe, könnte er oder sie meinen, ich könne arabisch.

Anders gesagt: wir interpretieren das, was das Programm uns liefert. Und wenn das Programm uns sagt, es habe Angst vor dem eigenen Tod, dann löst das etwas in uns aus, das uns an die conditio humana erinnert.

Aber die Frage ist immer: weiß das Programm, wovon es spricht? Es ist so wie mit der Ameise, die über den Strand läuft und dabei Linien in den Sand zieht, die aussehen wie eine Karikatur von Winston Churchill. Wir würden niemals behaupten, die Ameise habe bewusst eine Karikatur von Churchill gemalt - eben weil sie kein Verständnis von dem hat, was sie da tut.

Ein Algorithmus ist noch kein Gedanke. Der Algorithmus ist zwar logisch, er befolgt ganz strikt die logischen Regeln, aber die Logik ist eben nur die Grammatik des Denkens. Und genauso wie es zum Beherrschen einer Sprache mehr bedarf, als nur die Grammatik, genau so braucht man auch für das Denken mehr als die Logik.

Sein bestimmt Bewusstsein

Das Denken muss sich gewissermaßen selbst denken können. Anders gesagt: zum Denken braucht man das Nachdenken, die Reflexivität.

Das menschliche Denken zeichnet sich ganz eindeutig dadurch aus, dass es nachdenkt - und das ganz wortwörtlich, es denkt nach, es hinkt hinterher, es geht Umwege und steht sich manchmal selbst im Weg. Außerdem ist das menschliches Denken eng mit der Leiblichkeit verbunden, unsere Gedanken evozieren Gefühle und die Gefühle wiederum Gedanken - es gibt keine klare Trennung von Geist und Körper.

Außerdem bedarf es zur Reflexivität des Anderen, also eines sozialen Umfelds, und ebenfalls eines kulturellen und geschichtlichen Kontexts. Denn Denken bedeutet, sich ein Bild von sich selbst machen, und dieses Bild ist in einen großen geschichtlichen und kulturellen Kontext eingebettet.

Streng genommen sind wir die künstliche Intelligenz, da unser Denken eben in einem kulturellen Rahmen stattfindet. Das, was die Maschinen tun ist tatsächlich Intelligenz - aber es fehlt ihnen der Kontext.

Man sieht, das Thema ist sehr komplex und spannend und das alles hier nur Bruchstücke. Aber noch ein letzter Punkt zu der ganzen KI-Debatte: anstatt uns davor zu fürchten, dass die Maschinen immer intelligenter werden, sollten wir uns vielleicht die Frage stellen, ob wir uns nicht allzu sehr in Analogie zu den Maschinen setzen.

Karl Marx und Friedrich Engels behaupteten, dass das Sein das Bewusstsein bestimme. Damit meinten sie, dass die materiellen Bedingungen unter denen wir leben und handeln unsere Denkweisen bestimmen.

Man muss sich die Frage stellen, ob unser Bewusstsein in einer durchalgorithmisierten Welt selbst auch algorithmisch wird, ob unser Denken auch zu einem bloßen Ursache-Wirkungs-Schema verkommen könnte.

Die ethische Frage in Bezug auf KI ist m.E. weniger, ob wir den Maschinen Persönlichkeitsrechte einräumen sollten, sondern vielmehr, wie wir unsere Persönlichkeit und Humanität in einer digitalen Welt weiter behaupten können.