«

»

Mai 31 2018

Künstliche Intelligenz zum Zweiten!

Maurice de Coulon

Maurice de Coulon, Schwabsoien

Gibt es so etwas wie eine »digitale Würde«? – Sollen »intelligente« Roboter Rechte haben?

Nachdem das Klonen von Menschen doch ein zu großer Tabubruch wäre, wird einerseits immer weiter in Richtung digitale Optimierung des Menschen geforscht und auch schon munter experimentiert. Andererseits wird versucht, Menschen ersetzende Maschinen mit solchen »Eigenschaften« auszustatten, dass diese dem Menschen immer ähnlicher und in ihren dienlichen Fähigkeiten sogar bald überlegen werden. Ja sie sind schon dabei, als zuverlässige Pflegekräfte oder als zu (fast) allem fähige »Gespiel*innen« eingesetzt zu werden. Es gibt nichts, was es nicht gibt!

Der künstliche Mensch wird bald, nicht nur ein zu allem bereiten Partner für diejenigen, die sich den Stress mit eigenwilligen Naturmenschen ersparen wollen, er wird sogar derart »intelligent«, dass er vielleicht überraschenderweise auch nicht alles mit sich machen lässt, ja vielleicht sogar die Führung in der Beziehung zu seinem Menschenpartner übernimmt, oder ihm noch gefährlich auf die Pelle rückt. Und dann? Was wird alles passieren, bevor der Mensch auf die Idee kommt, seinem künstlichen Mitmenschen den »Saft« abzudrehen, vor­ausgesetzt, es gelingt ihm, im brachialen Kampf mit der Mitmenschmaschine noch den Schalter rechtzeitig zu erreichen, bevor er zu ihrem Opfer wird? Oder das Ding wird so vernetzt sein, wie schon die Autos von einer Stelle, auf die wir keinen sofortigen oder direkten Zugriff haben, ferngesteuert also fremdbestimmt. Also, nichts mit abschalten oder deaktivieren!

Da stellen sich wirklich Fragen, mit welchen sich, zum Glück, nicht nur Wissenschaftler, sondern auch Theologen, Philosophen und Rechtsfachleute intensiv beschäftigen. Allein schon die Unfälle mit »selbstfahrenden« Autos weisen darauf hin, dass die Auswüchse in der Anwendung der künstlichen Intelligenz aus dem Ruder zu laufen drohen, wenn nicht bald eine klare definitorische und regulierende Basis für den Umgang mit den digitalen Helfern und erst recht mit den humanoiden Maschinen geschaffen wird.

Das Interview in der französischsprachigen Tageszeitung »Le Temps« mit dem Genfer Anwalt Nicolas Capt, Spezialist für Medienrecht, bestätigte auf erfreuliche Weise die Richtung der Gedanken, über die ich zum Thema »künstliche Intelligenz« schon in der OHA-Januar-Ausgabe berichtete.

Gefragt, ob man von einer »digitalen Würde« bei Robotern ausgehen könne, nachdem es schon Rechtsanwälte gebe, die das Prinzip eines Roboterrechts vertreten würden, weist Capt darauf hin, dass ein Roboter – ob als materieller Gegenstand oder als Betriebssystem- oder Applikationssoftware wie Cortana und andere hilfreiche (oder lästige) »Computerheinzelfrauchen«, oder noch humanoide Maschinen, aber auch Chatbots – tatsächlich einem einfachen Toaster oder einem Mikrowellengerät viel näher stehen als einem Lebewesen. Man solle ja nicht die Simulation der menschlichen Intelligenz oder die Imitation der Gestalt eines Menschen mit diesem selbst verwechseln, geschweige denn sie ihm gleichsetzen. Denn auch wenn jemand, der einen Roboter als Ersatz für eine Bezugsperson oder ein Bezugstier in Anspruch nimmt, der Versuchung erliegen sollte, zu ihm ein emotionales Verhältnis einzugehen, handelt es sich bei dem, wie der Roboter darauf reagiert, immer nur um die Simulation menschlicher Reaktionen, aber nie um den Ausdruck eines eigenständigen Bewusstseins, echter Empfindungen oder spontane Gesten des Gegenübers.

Denn, selbst wenn diese Maschinen in Zukunft sogar eine Art »Selbstbewusstsein« erlangen würden – ihr Verhalten könnte die Annahme nahelegen, dass sie »von sich aus« entscheiden, weil die geradezu exponentiell steigerbare Variationsvielfalt der Reaktionen dieser Maschinen sie unberechenbar macht – würde es rechtfertigen, der humanoiden Maschine Rechte zu verleihen? Sollte denn die Richtlinie nicht die des Lebens sein? Welchen Status wir auch immer diesen Maschinen zuweisen, die Frage, ob ihr »Können« auf eine Art Wesenhaftigkeit beruht, ist eine rein philosophische Frage.

Auf die Frage, ob eine Grenze dann überschritten sein wird, wenn die Maschine in der Lage sein wird, »eigenständige«, weil auf nicht erkennbar vorprogrammierte Berechnungen beruhende Entscheidungen zu treffen, antwortet Capt, dass dies sogar schon der Fall sei. Beim Spielprogramm AlphaGo kann das Programm eigene Spielzugsentscheidungen treffen. Dabei handelt es sich aber um nur sektorielle Entscheidungen, die in ganz speziellen Fällen oder in begrenzten Bereichen zustande kommen. Ein Schriftstellerfreund Capts wies ihn sinnigerweise darauf hin, dass er – im Gegensatz zum Maschinenhumanoiden – sich einen Cappuccino zubereiten könne, während er über die Fortsetzung eines Romans sinnieren oder ihm gerade eine Gedichtzeile einfallen würde. Er meinte, eine künstliche Intelligenz würde nie eine echte Intelligenz werden, da es nie, wie ein Poet, paradoxe Situationen entwerfen könne. Also wird die künstliche Intelligenz nie zum Poeten gereichen. Sie wird sich höchstens zum Schüttelreimen eignen.

Capt sieht deswegen keinen Grund, der »intelligenten Maschine« einen Rechts-(schutz)status zu gewähren. Was sollte denn da geschützt werden, die Hardware oder die Software? Konsequenterweise also werden diese Produkte niemals einen Rechtspersonenstatus erhalten.

Auf die Frage, ob es ratsam wäre, die Anwendungen künstlicher Intelligenz, die ein Gefahrenpotenzial darstellen, zu regulieren, meint Capt, dass ein Problem darin liegen könne, dass sich in vielen Anwendungen nicht mehr erklären oder rekonstruieren lasse, wie die Maschine überhaupt dazu kam, sich so oder so zu verhalten bzw. diese oder jene »Lösung« einer Aufgabe vorzuschlagen. Denn durch »reverse engineering« ließen sich die ganzen Berechnungswege genauso wenig objektivieren, wie es sich nach dem Öffnen der Schädeldecke eines Menschen erkennen ließe, wie sein Gehirn den oder jenen Gedanken erzeugt.

Und auf die Forscher, die jetzt schon meinen, man müsse die Roboter davor schützen, von Menschen missbraucht zu werden, könne man nur antworten, dass solange wir es nicht mit Lebewesen zu tun haben, es keinen möglichen Schutz gibt. Denn, so Capt, Sex mit einem Roboter, ist das Gleiche wie Sex mit einem Mikrowellengerät zu haben. Eher sollte man sich fragen, ob es statthaft wäre, dass Erwachsene mit digitalen Sexpuppen schlafen, die Kindern gleichen, denn dies könne durchaus dazu führen, dass diese Personen ihr Verhalten an lebenden Objekten wiederholen. Daher hält es Capt für dringender, die Menschen vor den Robotern zu schützen als umgekehrt. Es wäre seiner Meinung nach fatal, sich beim Ziel zu verwählen.

Für mich als Lebensphänomenologe ist die Sache so klar wie die Tatsache, dass kein Wissenschaftler jemals das Wesen eines Lebewesens herausisolieren wird, also das, was ihn in Wahrheit zum Lebewesen macht, das absolute LEBEN. Daher werden die Maschinen, seien sie noch so ausgeklügelt konzipiert, vermeintlich intelligent und noch so menschenähnlich, dass sie sogar ihre Bezugsmenschen zu Tränen rühren können, sie werden ein Artefakt bleiben, das von einer Pseudointelligenz, von einem Intelligenzsurrogat, von einem elektronischen und maschinellen Programm bewegt und gesteuert, und deshalb auch immer abgeschaltet oder deaktiviert werden kann. Aber leben werden diese Artefakten nie. Dem Leben sei Dank!

Maurice de Coulon, Schwabsoien

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Bitte bleiben Sie sachlich. Beiträge mit beleidigenden oder herabwürdigenden Inhalten oder Aufrufen zu Straftaten werden ebenso gelöscht wie solche, die keinen Bezug zum Thema haben. Ein Anspruch auf Veröffentlichung besteht nicht!

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>