DIE VERANTWORTBARKEIT DES DENKENS

Künstliche Intelligenz aus ethischer Sicht


Rafael Capurro

  
 
 
  
Zuerst veröffentlicht in: Forum für interdisziplinäre Forschung 1/1998, 15-21.


EU Project ETHICBOTS (2005-2008)


ethicbots

  ETHICBOTS Seminar



  
INHALT

Einleitung

1. Der Fall Weizenbaum...
2. ... und die Folgen
3. Die Verantwortbarkeit des Denkens

Anmerkungen


Kurzfassung

Die Systeme der "Künstlichen Intelligenz"  so wie die Informatik insgesamt, geben seit einigen Jahren Anlaß zum intensiven Nachdenken über damit zusammenhängende ethische Fragen. Ausgehend von der von Joseph Weizenbaum ausgelösten Diskussion werden in diesem Aufsatz einige Thesen Weizenbaums sowie deren Folgen erörtert. Die KI-Systeme entlassen uns nicht aus der Verantwortbarkeit des Denkens und Handelns in diesem Bereich.



 

"Ich weiss vielleicht wie sies so weit gebracht:
Sie denken: wenn sie denken seis gedacht!"
(R. Fahrner, Drei Spiele, 243) (1)



EINLEITUNG

Die Systeme der "Künstlichen Intelligenz" (Roboter, Expertensysteme u.a.) sind bereits zum Teil aus der Experimentierstube heraus und verbreiten sich zunächst bei der Industrieproduktion bald aber in vielen anderen Bereichen des gesellschaftlichen Lebens. Daß diese "Speerspitze" der Informatik eine neue epochale Umwälzung ("dritte industrielle Revolution") mit sich bringt, ist bereits zu einem Gemeinplatz geworden. Was sich aber dabei verändert sind nicht zuletzt - wir selbst. Insofern ist jede Technik nicht bloß instrumentell und somit auch "neutral" sondern von ihrer ethischen Seite her zu betrachten.

Eine ethische Reflexion über KI (Künstliche Intelligenz) setzt wiederum eine Erhellung des Gesamtzusammenhangs zwischen der technologischen Zivilisation und den (überlieferten) ethischen Maßstäben voraus, die kaum geleistet worden ist. (2). Einige Hinweise auf die folgenden drei Ansätze mögen hier, um die "Weitsicht" zu eröffnen, genügen. Mit seinem "Prinzip Verantwortung" stellt Hans Jonas die herkömmliche Ethik der Pflichten und der Einzel­verantwortung in Frage. Jonas denkt an eine Gesamt- oder Kollektiverantwortung für die Folgen unseres technischen Handelns, die auf die Zukunft hin gerichtet ist (im Gegensatz zur Betonung der Gegenwart in der herkömmlichen Ethik) und die sich auf die ges­amte Natur (im Gegensatz zum Anthropozentrismus) erstreckt (3). Der "homo faber" braucht nach Jonas ein verschärftes kritisches Bewußtsein gegenüber utopischen Zielen. Vorsicht ist angesagt, sowie das (neu) Erlernen von Furcht und Sorge (4). Jonas' Ethik gründet auf einer Ontologie aber, im Gegensatz zu Platon, auf einer Ontologie des Vergänglichen.

Im Zeichen der "dritten industriellen Revolution" sieht Günther Anders den Menschen als "antiquiert" (5). Er betrachtet als einer der Hauptaufgaben der Philosophie der Technik, "den dialektischen Punkt ausfindig zu machen und zu bestimmen, wo sich unser Ja der Technik gegenüber in Skepsis oder in ein unverblümtes Nein zu verwandeln hat." (6) Diese Skepsis, auf die Zukunft hin gerichtet, wird zur "prognostischen Hermeneutik". Deuten wird zu einer „moralischen Aufgabe": Die Apparate "verraten uns die Welt von morgen und den Typ unserer Kindeskinder, sofern es solche noch geben wird.“ (7)

Schließlich möchte ich auf den "a-logischen" Ansatz des belgischen Philosophen Gilbert Hottois hinweisen (8). Hottois sieht die technische Entwicklung als einen Durchbruch unseres logischen, instrumentellen und theoretischen Anthropozentrismus. Die Technik wird von einem nicht-ethischen Prinzip ("Alles ist möglich") geleitet, demgegenüber auf der einen Seite "Vorsicht", auf der anderen Seite eine ethische Option für die Menschheit zu gelten haben.

Mit der KI sowie mit der Computertechnik insgesamt steht m.E. der menschliche "logos" nicht vor der Frage des Deutens und Verant­wortens einer ihm "äußerlich" bleibenden Technik, sondern er steht selbst auf dem Prüfstand, Ankläger und Angeklagter zugleich. Wenn das aber so ist, dann tritt die ethische Frage hier unausweichlich und in aller Schärfe hervor: Der "logos" nämlich, so sagt Aristoteles im 6. Buch der Nikomachischen Ethik, ist, in Sachen Sittlichkeit, zugleich "phronesis" (1144 b 23ff). Wie aber, wenn es uns technisch gelingt, "logos" und "phronesis" voneinander zu trennen? Wie stellt sich dann die Frage nach der Verantwortbarkeit dieses "Denkens"?

Daß Sprache und Denken keine "unschuldige" Angelegenheit sind, daß man, mit anderen Worten, nicht nur "bestraft" werden kann für das, was "tut" sondern auch für das, was man "sagt", das erfahren wir nicht zuletzt am Beispiel jener Schicksale, die u.U. mit ihrem Leben dafür zahlten und noch zahlen, an den "Andersdenkenden" also in den Diktaturen aller Zeiten. Eine Geschichte des Denkens in diesem Sinne bleibt bis heute weitgehend noch ungeschrieben. Der Titel "Ethik und Denken" verliert dabei seine scheinbare philosophische Abstraktheit. Ein Kapitel aus dieser Geschichte stellt die heutige Diskussion um die "künstliche Intelligenz" dar.

Im Folgenden möchte ich einige Kernpunkte der heutigen Diskus­sion erörtern, die ihren Ausgangspunkt in Joseph Weizenbaums' "Anklage" nimmt. In der Bundesrepublik wird diese Diskussion vorwiegend im Rahmen des Arbeitskreises "Grenzen eines verantwortbaren Einsatzes von Informationstechnik" der Gesellschaft für Informatik (GI/FB 8) sowie des "Forum Informatik für Frieden und gesellschaftliche Verantwortung" (FIFF) geführt.


1. DER FALL WEIZENBAUM...

Es gibt Aufgaben, so Weizenbaum im Vorwort seines berühmten Buches "Die Macht der Computer und die Ohnmacht der Vernunft" (9) "zu deren Lösung keine Computer eingesetzt werden sollten, ungeachtet der Frage, ob sie zu deren Lösung eingesetzt werden können." (10) Weizenbaums Einstellung gegenüber der KI ist also eine durch und durch ethische. Sie kommt vor allem in den Kapiteln 8 ("Künstliche Intelligenz") und 10 ("Gegen den Imperialismus der instrumentellen Vernunft") zum Ausdruck.

Wenn wir den Menschen, so W. im Kap. 8, zu einer Spezies der Gattung "informationsverarbeitender Systeme" reduzieren, werden sowohl der Intelligenzbegriff als auch die Probleme, mit denen wir als Menschen konfrontiert sind, auf unzulässige (sprich: unverantwortliche) Weise verkürzt. Diese Verkürzung hat, nach W., nicht nur falsche methodische Voraussetzungen, sondern auch ethisch nicht verantwortbare Folgen. Weizenbaums Kritik des Intelligenzbegriffs der "künstlichen Intelligentsia" zielt vor allem darauf hin zu zeigen, daß die Rede von der Intelligenz, die unabhängig von jedem Bezugssystem (Individuum, Familie, Kultur usw.) darstellbar (und meßbar) wäre, sinnlos ist. Der Intelligenzbegriff wird ferner von anderen menschlichen Fähigkeiten isoliert, was, im Falle einer rückwirkenden Deutung auf den Menschen, zu verkehrten Schlußfolgerungen führt. Weizenbaum hält, m.E. zu Recht, die Frage, was Computer jemals werden leisten können oder nicht (11), für eine „fruchtlose Übung“ (12). In Wirklichkeit handelt es sich darum zu zeigen, daß die menschliche (individuelle und gattungsmäßige) Sozialisation ganz anders verläuft als im Falle eines "sozialisierten Computers".

Dementsprechend werden also "menschliche Probleme" (oder "Angelegenheiten", da der Begriff "Problem" vorbelastet ist) für den Computer stets fremd bleiben. Oder, anders ausgedrückt, die Analogie zwischen der menschlichen und der Computer-Intelligenz trifft nur in einem "äußerst schwachen Sinne" zu. Dasselbe gilt für die Rede vom "informationsverarbeitenden System". Menschliches Denken schließt Eingebungen, Ahnungen sowie unsystematische und "ganzheitliche" Modalitäten ein, die zu einer "intuitiven" bzw. "metaphorischen" Auffassung der Wirklichkeit führen. Die Konstruktion einer Maschine "nach dem Bild des Menschen", die aber ausschließlich mit logisch-rationalen Mitteln arbeitet, wird deshalb niemals das "tiefe" Verständnis besitzen, um jenen "Rest von Geheimnis" aufzuspüren, der in jedem Wort, in jedem Ausdruck eines mit allen biologischen, psychologischen, sozialen und kulturellen Bedingtheiten reifenden menschlichen Lebens, steckt.

Diese (meistens "unbewußt") bleibende Schicht ist dem Computer "absolut fremd" und dementsprechend fordert W., daß Computer gerade bei jenen Entscheidungen nicht eingesetzt werden sollten, die Klugheit erfordern. Damit ist vor allem die meistens unthematisch bleibende Kenntnis des "Wertkontextes", worin z.B. juristische und psychiatrische aber auch politische Urteile eingebettet sind, gemeint. Nicht nur das moralische, sondern auch Kants (vor allem in Hannah Arendts Interpretation) (13) ästhetisches Urteil ist also damit gemeint. Weil wir so wenig von der menschlichen Intelligenz, auch und gerade auf der biologischen Ebene, wissen, ist also bei der Computeranalogie größte Vorsicht geboten.

Weizenbaum warnt mit Recht vor der Gefahr der Instrumentalisie­rung der Vernunft, wodurch wir unsere Sprache und damit uns selbst "entmannen" (14). Wenn er die Mystifizierung bzw. "Pseudo-Konkretheit" (Whitehead) von Begriffen wie "Sprache", "Verstehen", "Intelligenz", "Denken" usw. in Zusammenhang mit dem Computer zu entlarven versucht, dann mit der Absicht, nicht die Vernunft an sich, sondern "den Imperialismus der instrumentellen Vernunft" zu bekämpfen (15). Dieser "Imperialismus" führt, nach W., zu einem "neuen Konformismus". Das bedeutet, m.E., der Vollzug der Anfangs erwähnte Trennung von "logos" und "phronesis" und die Aufgabe der letzteren unter der Herrschaft des ersteren in der Form der "instrumentellen Vernunft". Der "neue Konformismus" erlaubt, nach W., den ethischen Bezug ("die wenigen einfachen Wahrheiten, die in unseren Herzen und in die Heiligen Bücher einer jeden der vielen Religionen der Menschheit geschrieben sind") nicht (15). Hier sieht W. die Wurzel der "Enthumanisierung des Menschen": Der Mensch wird als "Objekt" anstatt als "ganzer Person" behandelt.

Nicht nur in bezug auf den Computer hat also die Erkenntnis die Unschuld verloren. Was tun? Weizenbaum warnt u.a. vor Versuchen, das Gehirn eines Tieren mit einem Computer zu koppeln (so etwas wäre "obszön"), vor dem Ersatz menschlicher Funktionen, die mit Respekt, Verständnis und Liebe zusammenhängen, sowie vor der automatischen Erkennung menschlicher Rede (nicht also "bloß" vor dem "Verstehen" einer natürlichen Sprache). Es geht ihm aber dabei stets um die Beurteilung der konkreten Forschungsziele, etwa im militärischen Bereich, die das konkrete ethische Urteil des Einzelnen herausfordert und die hier, wie anderswo, keine "einfache" allgemeine Lösung erlaubt. Das Buch schließt mit einem Appell an die Zivilcourage.

Weizenbaums Buch wurde im Jahr seiner Erscheinung (1976) vor drei MIT-Kollegen besonders scharf kritisiert (17). Man warf ihm u.a. vor, sich auf ethische Prämissen zu stützen, die er (Weizenbaum) für außerhalb jeder argumentativen Begründung hielt (Buchanan). Diesen "anti-rationalistischen" Vorwurf faßte Lederberg als "Obskurantismus" auf: Weizenbaum behauptet eine fundamentale Nicht-Verstehbarkeit des menschlichen Gehirns. Am schärfsten ging McCarthy mit W. ins Gericht: Seine Attacken scheute Argumente "ad hominem" nicht. Anstelle der bisher erfolglos gebliebenen Philosophie sowei der "Ideologien" gilt es für McCarthy, den Weg der Wissenschaft und (Computer-)Technik zur Enträtselung des Menschen (weiter-) zu gehen. In seiner Antwort schrieb Weizenbaum:

"Kann es einen Weg in Richtung eines wahrhaften Modells des Menschen geben, der philosophisches und moralisches Denken nicht nur einschließt, sondern auch letztlich voraussetzt?" (18)

Eine ausgewogenere Beurteilung der Thesen Weizenbaums vertritt Pamela McCorduck, die Weizenbaums "Schrei vom Herzen" zwar ernst nimmt ohne aber die Befürchtungen (voll) zu teilen. Die Relativierung der menschlichen "Spezies" durch das Computermodell führt zu der Frage, ob der Mensch eine höhere Beachtung verdient als andere Arten. Die Antwort der "Humanisten", einschließlich W., ist ein entschiedenes "Ja". Daraus wurde aber, wie McCorduck richtig bemerkt, oft ein Freibrief für die Ausbeutung anderer Arten abgeleitet. Gegenüber diesem Mißbrauch könnte die KI zur Ernüchterung beitragen, d.h. sie könnte als Korrektiv dienen, um unsere Beziehungen zu den anderen Dingen zu überdenken: "Wir sind teil, nicht Herrscher, des Universums.“ (19) Weizenbaums Suche nach "klaren Grenzen" wirkt für McCorduck nicht überzeugend. Mir scheint aber, daß McCarthys Rezept ("Was nicht getan werden sollte, sollte von niemandem ("anyone or anything") getan werden") uns die von McCorduck erhoffte Lösung nicht gibt, sondern erst die Frage aufwirft, um die es eigentlich geht.

Diese Soll-Frage ist also noch offen. Wir müssen uns fragen, so McCorduck, wie diese Maschinen uns vor uns selbst anders erscheinen lassen (werden). Es geht also dabei um nichts mehr und nichts weniger als um uns selbst (20). Wird uns die "Maschine als Lehrerin" (Nietzsche) (21) zu einer Neubestimmung ("redefinition") des Menschseins führen? Und werden wir dabei eher die Geführten sein? Wenn wir heute eine "praktische Entscheidung" treffen (treffen wir sie eigentlich?), und KI weiter betreiben, ist nicht bereits (!) dabei eine Entscheidung über uns selbst im Gange? Die "praktischen Entscheidungen", die die Verantwortung für einen möglichen "Kurs auf den Eisberg" betreffen, sollten, nach Weizenbaum, nicht "in abstracto" sondern hier und heute getroffen werden (22).

Wir müssen uns, mit anderen Worten, weigern in "Laboratorien des Todes" (weiter) zu arbeiten. Das gilt vor allem in bezug auf die militärischen Anwendungen der KI. Paradigmatisch sind hierzu in der Bundesrepublik die Argumente von D.L. Parnas ("Warum ich an SDI nicht mitarbeite") auf der einen und H.W. Hofmann ("Einsatz moderner Informationstechnik im militärischen Bereich: Für den Verteidiger notwendig und verantwortbar") auf der anderen Seite (23).


2. ... UND DIE FOLGEN


Unter der Überschrift "Sanity & Survival" erörtert D.R. Hofstadter den Wahnsinn des Augenverschließens vor der Möglichkeit eines Nuklearkrieges, vor allem aber des Augenverschließens vor denen, die bereits konkrete Schritte unternehmen, um einen solchen Krieg „denkbar" zu machen. Hofstadter setzt seine Hoffnung auf eine "phase transition", d.h. auf eine kollektive Einsicht in die
Verrücktheit dieses "Weges" (24).

Hofstadters Ansatz scheint mir (weiterhin) von einem "bio-technischen" Solipsismus geprägt zu sein, d.h. die Zusammenhänge der Weltoffenheit und Intersubjektivität bleiben bei der Erörterung dessen, was "cognition" heißen soll, aus. Weitreichend scheint mir der "konstruktivistische" Ansatz von H.R. Maturana und F.J. Varela: Der Baum der Erkenntnis (München 1987), der von T. Winograd und F. Flores (a.a.O.) auf die Informatik "übertragen" wurde. Wenn nicht nur die "inneren Stimmen" der Maschine sondern auch die der Gesellschaft die makroskopische Erscheinung bestimmen, wenn die Argumente oder die verbalisierten Gründe an der Oberfläche nur die Spitze des Eisbergs eines unendlich reichen "Kampfes" von Einzelbestimmungen, Ängsten, Riten, Überzeugungen usw. sind, dann ist eine solche Sicht von "Maschine" oder "Gesellschaft" nicht mehr, nach Hofstadter, eine "mechanistische" sondern eine "organische und lebendige". Die "Menschheit als Ganzes" erscheint dabei Hofstadter als "heilig" oder, zumindest etwas "in" ihr. Der Bedrohung dieser Erscheinungsweise des Menschseins durch das "Schreckliche und Profane" in jedem von uns gilt jetzt mit der "heiligen" (und man könnte vielleicht auch sagen "heilenden") Kraft in ebenfalls jedem (!) von uns entgegenzutreten. Nur so können wir vielleicht diejenigen werden, die wir (noch) sind (25).

Auch eine "optimi­stische" Betrachtung der Kl in theoretischer und praktischer Hinsicht, wie sie etwa M. Boden vertritt, (26)  läßt so etwas wie "moral dignity" in bezug auf die "Handlungsweisen" dieser Maschine  nur in einem sehr "schwachen Sinne" Maschine zu. Im "Humanismusstreit" um die KI hebt etwa P.C. Rogers die "kognitivistische" und "rationalistische" Einseitigkeit, die die Analogie Menschen/KI in sich trägt, als eine Verkürzung des Menschseins hervor (27). Rogers' Argumentation scheint mir insoweit richtig, als es vor allem darum geht, die Computermetapher  zu erkennen (dazu mehr am Schluß dieses Aufsatzes). Seine Erörterung der "Intuition" und der "Emotionen" gibt aber m.E. wiederum nur eine verkürzte Fassung dieser Phänomene wieder. Die Gegenüberstellung Intuition vs. Rationallität bleibt eine vordergründige, solange man nicht etwa das Phänomen des "Vorverständnisses" in Betracht zieht (28). Die "Emotionen" sind nicht bloß subjektiv,sondern vor allem in ihrem "welterschließenden" Charakter deutbar (29).

Der Zusammenhang zwischen KI bzw. Computer und Verantwortung läßt sich, nach Snapper  (30), nicht auf die ganze Breite (und Tiefe) des menschlichen Handlungs- und Entscheidungsbegriffs ausdehnen, wohl aber partiell: Computer können in einem juristischen Sinne für ihre "Entscheidungen" verantwortlich gemacht werden, ohne ihnen dabei "Absichten" zu unterstellen. Diese Auffassung, die Snapper im Rahmen der Aristotelischen Ethik (Nikom. Ethik, 3. Buch) entfaltet, wäre z.B. für versicherungsrechtliche Fragen von praktischer Bedeutung. Eine weitergehende Deutung etwa des (Dennettschen) Intentionalitätsbegriffs auf KI-Systeme, die u.a. dazu führt, die dabei immer noch verbleibenden Unterschiede zwischen dem In-der-Welt-sein des Menschen und dem einer sich ihrer "Umwelt" anpassenden "Maschine" "vertuscht", und von Verantwortung gleichermaßen spricht, scheint mir verfehlt (31).

Wie aber, wenn "Frankenstein's children" tatsächlich "auf die Welt" kommen? (32) Dann hätten wir ihnen gegenüber, so Lloyd, eine ethische Verantwortung, die aber im Falle einer "Kollision" mit unseren Werten zu unseren Gunsten sich verschieben müsste! Die andere "Alternative", nämlich uns solche "artificial minds" untertan zu machen, erscheint (mit Recht!) als eine ethisch dubiose Sache: "On balance, we should not pursue artificial minds." (33)

Die ethische Frage stellt sich aber, wie Torrance richtig bemerkt, (34) wenn wir nicht nur "Teile" unserer "Intelligenz" in Form von Computerprogrammen verkörpern (der "enge Anspruch"/"narrow claim") sondern im Falle des "weiten Anspruchs" ("wide claim"), wenn wir also von "metal life" im vollen Sinne des Wortes sprechen. Warum? Weil dieses nämlich erst die Fragen nach dem Glücklichsein, dem Leiden usw. aufwirft, die wir etwa bereits gegenüber den Tieren, aber nicht gegenüber einer "bloß" intel­ligenten Maschine haben. Wenn wir also, so Torrance, in der Lage wären, Maschinen mit Bewußtsein zu schaffen, dann hätten wir auch mit "einigen wichtigen neuen ethischen Problemen" zu tun. Vor ein solches "Faktum" gestellt, wäre das nicht bloß Sache unserer ethischen Entscheidung, so Torrance gegen Sloman, ob wir sie so ansehen wollen oder nicht. Mir scheint, daß Torrance die ethischen Fragen in dem Sinne verkürzt, daß er etwa das Anliegen der Ethik gegenüber der Natur insgesamt ("ökologische Ethik"), die die Technik umfassen sollte (ohne aber dabei notwendigerweise "bewußtseinszentriert" oder gar anthropo- zentrisch zu sein), nicht berücksichtigt.

Daß ethisches Bewußtsein sich erst ergibt, wenn Bewußtsein im Spiele ist, ist trivial solange man, wie Torrance hervorhebt, nicht Bewußtsein mit "Intelligenz" verwechselt. Wir sind also mit anderen Worten mit-verantwortlich für das Gelingen des offenen (!) Ganzen (Natur, Mensch, Technik), dessen "verborgene" Ordnung uns "in aenigmate" in der Kunst auf- (und ein-) leuchten mag. Nicht bloß dadurch, daß wir Bewußtsein "haben", müssen wir uns "ethisch verhalten" (d.h. Rücksicht nehmen), sondern dadurch, daß wir, wie Schirmacher bemerkt, die Techniker inmitten der Natur sind. (35) Unsere moderne Technik ist weitgehend rücksichtslos, d.h. "unmoralisch", weil wir dadurch, so wie wir sie heute betreiben, die Welt und uns selbst zerstören. Durch unsere technischen Handlungen tragen wir am Weitergelingen (oder Nichtgelingen) einer nicht bloß nahrung-, sondern auch sinnstif­tenden "Ordnung" (deren Maßstäbe weder "naturgegeben" noch bloß "gesellschaftsbezogen" sind) bei.

Letzteres scheint mir der "gattungszentrierten" Vorstellung über die Einbettung der KI in der "sozialistischen Gesellschaft" zugrunde zu liegen (36). Die Entscheidung gegen den Profit zugunsten der Gesellschaft ist zwar ein, ethisch gesehen, wichtiger "Fortschritt", der aber (nicht notwendigerweise!) eine anthropozentri­sche Vision voraussetzt. Das bedeutet wiederum, daß der Marxis­mus, wenn auch meistens in seinen "unorthodoxen" Formen (37), ein sinnstiftendes ja "revolutionäres" Potential zu entfalten vermag, zumal wenn er sich von den Überresten theologischer Dogmatik befreit und sich auf den Weg in eine nicht vorgezeichnete Richtung macht. Marxismus und "Perestroika"?



3. DIE VERANTWORTBARKEIT DES DENKENS



Die Frage nach der Verantwortbarkeit (auch des "künstlichen" ) Denkens bzw. nach den "Grenzen des verantwortbaren Computerein­satzes" (C. Floyd) (38) läßt sich, wie wir gesehen haben, nicht ohne Deutung des Menschen als "denkendes Wesen" stellen. Was heißt "Denken"? Die Antwort eines "unverdächtigen" Denkers lautet: "Aber, was bin ich denn? Ein denkendes Ding. Was ist ein denkendes Ding? Ein Ding das zweifelt, begreift, bejaht, verneint, will, nicht will, vorstellt und auch empfindet." (39) "Denken" bedeutet also, auch schon bei Descartes, eine reichhal­tigere Tätigkeit als etwa die der "intelligenten" logisch ablaufenden "Symbolmanipulation". Sie ist eine Tätigkeit, die als Teil (!) unserer Antwort auf die Welt aufgefaßt werden kann. Sie ist deshalb, sofern wir sie als menschliche Tätigkeit verstehen, von den anderen Bedingungen des Menschseins (Leiblichkeit, Natalität, Mortalität, Weltlichkeit, Sozialität usw.) untrennbar (40). Daß wir diese Antwort stets zu verantworten haben, versteht sich fast von selbst. Daß wir sie aber, auch im Falle einer "künstlichen Nachahmung" unseres Denkens, verantworten müssen, ist die Aufgabe, die wir uns selbst als dieœ Techniker, die wir nun einmal sind, stellen. Im Hinblick auf die Sittlich­keit steht die Schaffung "künstlicher Intelligenz" vor drei Alternativen:

1) Homunkulus-Alternative: d.h. wir versuchen den Menschen in all seinen Bedingtheiten nachzuahmen. Wie? Die "triviale" Lösung: wie bisher. Oder durch "andere Mittel", die aber genau (!) dieselben Bedingungen zu erfüllen hätten. Wir hätten in diesem Falle "weiterhin" die Verbindung von Vernunft und Sittlichkeit.

2) Frankenstein-Alternative: d.h. wir versuchen selbstbewußte (!) Intelligenz ohne Sittlichkeit zu schaffen. Die Gefahr unserer Selbstzerstörung wäre dabei groß. Um diese Gefahr zu meiden, könnten wir versuchen "ihm/ihr" (!?) sittliche Normen "beizubrin­gen".  Das läuft aber (letztlich) entweder auf die Homunkulus-Alternative oder auf die Unmöglichkeit allgemeine Gebote mit passenden Interpretationen für alle Situationen einzuprogram­mieren, hinaus. Um ein "vollwertiges" sittliches "System" zu erzeugen, müssten es letztlich alle Bedingungen erfüllt werden, die auch für uns gelten (Alternative 1). Die unsittlichen Varianten, die sich z.B. aufgrund der Gen-Technologie eröffnen (Bestiarium-Alternative!), müssen insgesamt von uns verantwortet werden.

3) Golem-Alternative: das ist das Gebiet der "science fiction", so wie in der Literatur seit vielen Jahrhunderten und neulich, z.B. von S. Lem, beschrieben wird (41). Auf die Bedeutung der Geschichte der Automaten kann hier nicht näher eingegangen werden. "Künstliche Intelligenz", das wäre so etwas wie das Produkt unserer Selbstvergötterung. Keine Menschen? Keine Maschinen? sondern? Die Religionsmythologie hat eine passende Gestalt: die Engel. Verkörpern "Golemscomputer" die mythologische Engelsgestalt im technologischen Zeitalter? Eine Beurteilung dieser "Sittlichkeit" würde sich uns, wie Lem es beschreibt, weitgehend entziehen.

Die zweite Alternative, mit ihrem asymptotischen Ziel, ist die, die wir, vermutlich für lange Zeit, zu verantworten haben. Es geht dabei u.a. um den Fortschritt des Wissens über uns selbst. Es ist aber zu bemerken, daß auch wenn es uns eines Tages gelänge, auf diese Art und Weise verblüffende "menschenähnliche" Wirkungen zu erzielen, wir ja, wie die Wissenschaftstheorie unserer Tage immer wieder betont, niemals eine absolute Sicherheit über die Vollständigkeit unseres Ursachenwissens hätten. Mit anderen Worten, wir könnten uns des "Erfolgs" wegen rühmen, hätten wir ihn zu verantworten, und könnten uns trotzdem nicht einbilden, wir hätten "den Menschen durchschaut", genausowenig, wie wir uns des völligen (!) "Durchschauens" von irgendetwas rühmen können. Ob dieser Weg hier und heute praktisch, d.h. im Hinblick auf den möglichen Mißbrauch, (weiter-)beschritten werden sollte, das ist die konkrete ethische Frage, die z.B. Weizenbaum mit allem nötigen Ernst gestellt hat. Guter Rat ist, auch hier, teuer. In praktischer Hinsicht ist Vorsicht, im ethischen Sinne der "prudentia" (oder "phronesis"), wie sie z.B. Hottois fordert, das Gebot der Stunde. In theoretischer Hinsicht, also in bezug auf den "Humanismusstreit", möchte ich folgende Bemerkung, in Anschluß an Ortega y Gasset, machen (42).

Während die geläufige Meinung das wissenschaftliche Denken als "eindeutig" bzw. "metapher-frei" hält, hebt Ortega die Unerläßlichkeit" (!) der Metaphern nicht nur in der Dichtung, sondern auch in Philosophie und Wissenschaft hervor. Allerdings ist der Unterschied der, daß Philosophie und Wissenschaft sich der Metaphern bedienen, während Dichtung Metapher ist. Mit anderen Worten: Philosophie und Wissenschaft verstehen Metaphern grundsätzlich "in modo obliquo" d.h. im übertragenen, Dichtung "in modo recto", d.h. im wörtlichen Sinne. Bei der Philosophie kommt es vor allem auf die "Bewegung" zwischen diesen beiden Möglichkeiten an. Die Wissenschaft benutzt also wissentlich (!) die Metaphern, indem sie auf die Teilidentität des Verglichenen achtet. Ab da wird die Metapher wissenschaftlich falsch, künstlerisch aber interessant! Und umgekehrt: Das künstlerische Schaffen von neuen Metaphern birgt ein wissenschaftliches Potential in sich.

Dichtung ist auch Forschung und - Forschung kann zur, im schlechten Sinne, "Dichtung" werden, wenn sie glaubt, wissenschaftlich zu bleiben und dabei unkritisch die Teilidentitäten einer Metapher "vergißt". Hier liegt die Gefahr des theoretischen Menschenmodells, das der KI zugrunde liegt. Dieser Gefahr können wir auf zweifacher Weise begegnen: erstens, indem wir Wissenschafts- und Metaphernkritik in der Wissenschaft betreiben. Zweitens, indem wir uns in Kunst, Dichtung und Philosophie immer von Neuem schaffen, d.h. indem wir unsere Selbst- bzw. Fremdbestimmungen/deutungen, individuell und sozial, von den eigenen Neurosen bis hin zu den "schreienden" Situatio­nen sozialer Ungerechtigkeit und unerträglicher Gefahr durch selbstverschuldete Entwicklungen, in Frage stellen und verändern.

Wenn wir die KI in diesem Sinne im metaphorischen und selbstkri­tischen Gespräch der Menschheit einbinden, d.h. wenn wir sie hermeneutisch verstehen (43), dann kommt alles darauf an, auf die außerhalb der Identität verbleibende Verbindung von "logos" und "phronesis", auf den ethischen Charakter der Sprache also, immer von Neuem hinzuweisen. Sollten wir von der scheinbaren Unschuld der Sprache als KI so beeindruckt werden, daß wir sie auch wörtlich ("in modo recto") verstehen, wären wir wahrscheinlich nah dran, ein Volk (bzw. eine Menschheit) von Knechten zu werden, der elektronischen Massensteuerung mehr oder weniger total unterworfen. Wir hätten dabei das "vergessen", was Aristoteles im 6. Buch seiner Nikomachischen Ethik sagt, daß die Sprache ("logos") die Verabredung ("phronesis") ist, die wir jeweils treffen, um miteinander (wie es die "sophia" fordert) auszukom­men, daß sie also das Ethische its (44t. In einem beachtenswerten neuen Ansatz haben T. Winograd und F. Flores gezeigt, daß die KI in unserem auf Verantwortung basierendem Gespräch, eingebettet werden kann und sollte (45). Was wir über unser Denken denken und was wir dabei tun ist nicht "gleich-gültig". Der Dichter warnt uns vor der möglichen Täuschung:

"Ich weiss vielleicht wie sies so weit gebracht:
Sie denken: wenn sie denken seis gedacht!"

"Sie", das sind wir, wenn wir z.B. KI betreiben. Die Täuschung liegt aber nicht nur darin, daß unser Denken nie das Denken ist, sondern auch darin, daß wir glauben, wenn wir denken sei es gedacht, d.h. daß wir glauben, wir wussten schon, was Denken "heißt", auch und vor allem im Heideggerschen Sinnen dessen, was uns "zu denken gibt" (46). In bezug auf die KI ist dieses nicht zuletzt - wir selbst, sofern wir uns dabei immer rätselhafter werden.

Im "Informationszeitalter" ist die Bildung zum "Non-Konformismus" höchstes Gebot. Sie ist auch nicht von der Verantwortung zum Kompromiß zu trennen. Mit der Waffe des Wortes, unserer stärksten Waffe, können wir töten oder Freundschaft schließen. Sie ist aber kein Instrument, sondern wir sind ihr, d.h. uns selbst immer schon einander überantwortet.


ANMERKUNGEN



1. 
Rudolph Fahrner: Drei Spiele. München 1972.

2. 
Vgl. C. Mitcham, R. Mackey Ed.: Philosophy and Technology. New York 1983; H. Lenk, G. Ropohl Hrsg.: Technik und Ethik. Stuttgart 1987; P. Durbin Ed.: Technology and Responsibility. Dordrecht 1987.

3. 
Hans Jonas: Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation (Frankfurt: Suhrkamp, 1984).

4. 
a.a.O. S. 64, 391-393. Zu den Phänomenen "Furcht" und "Angst" vgl. v.Vf.: Frohmutiges Denken. Aspekte der Angst bei Platon und Heidegger. In: Schriftenreihe der Freien Akademie, Hrsg. v. J. Albertz (Wiesbaden 1988).

5. 
Günther Anders: Die Antiquiertheit des Menschen (München 1987, 2 Bde.) Bd. 2, S. 347: "Wir selbst bleiben dem Stande unserer Technik nicht angemessene antiquierte Wesen, nämlich nach wie vor wie zu Großvaters Zeiten darauf angewiesen, es uns Zeit kosten zu lassen, um an einen anderen Raumpunkt zu gelangen. Was unsere Bilder können, können wir noch nicht.“

6. 
a.a.O. S. 127.

7. 
a.a.O. S. 428.

8. 
Gilbert Hottois: Le signe et la technique. La philosophie à l’ épreuve de la technique (Paris 1984); vgl. auch v.Vf.: Technics, Ethics, and the Question of Phenomenology. In: A.-T. Tymieniecka, Hrsg.: Morality within the Life- and Social World. Analecta Husserliana XXII (Dordrecht 1987) S. 475-482.

9. Joseph Weizenbaum: Die Macht der Computer und die Ohnmacht der Vernunft (Frankfurt a.M. 1978).

10. a.a.O. S.10.

11. Vgl. Hubert L. Dreyfus: Die Grenzen künstlicher Intelligenz. Was Computer nicht können (Königstein/Taunus 1985); H.L. Dreyfus, S.E. Dreyfus: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition (Reinbeck b. Hamburg 1986).

12. J. Weizenbaum, a.a.O. S. 279.

13. Vgl. Hannah Arendt: Das Urteilen. Texte zu Kants politischer Philosophie (München 1985) S. 170.

14 J. Weizenbaum, a.a.O. S. 327.

15. a.a.O. S. 334.

16. a.a.O. S. 346.

17. Three Reviews of J. Weizenbaum's "Computer Power and Human Reason" by B.G. Buchanan, J. Lederberg, J. McCarthy (Stanford Artificial Intelligence Laboratory, Nov. 1976, Report Nr. STAN-CS-76-577).

18. J. Weizenbaum: A Response to John McCarthy. In: Three Reviews, a.a.O. S. 28.

19. Pamela McCorduck: Machines Who Think. San Francisco 1979, S. 326.

20. Vgl. Terry Winograd, Fernando Flores: Understanding Computers and Cognition (New Jersey 1986). Dazu v.Vf.: Die Informatik und das hermeneutische Forschungsprogramm. In: Informatik-Spektrum 10 (1987).  Vgl. auch meine "Hermeneutik der Fachinformation" (Freiburg/München 1986).

21. Vgl. F. Nietzsche: Menschliches, Allzumenschliches, Bd.2, 2.Abt. (Der Wanderer und sein Schatten) Nr. 218 (Werke, hrsg. K. Schlechta, Frankfurt 1972, Bd.1). Eine umfassende Studie zur Frage der Technik bei Nietzsche liegt, m.W., nicht vor. Zum Einfluß des Computers für die Selbsbestimmung des Menschen vgl. Sherry Turkle: Die Wunschmaschine. Vom Entstehen der Computerkultur (Reinbek b. Hamburg, 1984) (engl. Orig.: The Second Self. Computers and the Human Spirit. New York 1984). Vgl. v.Vf.: Zur Computerethik. Ethische Fragen der Informationsgesellschaft. In: H. Lenk, G. Ropohl: Technik und Ethik, a.a.O. S. 259-273; ferner: La cosa para pensar (Das Ding zum Denken). In: Cuaderno de psicoanálisis freudiano (Montevideo) 1986, S. 147-155 (franz. Orig.: La chose à penser. Inst.f. Romanistik, Univ. Mannheim; Die Inszenierung des Denkens. In: Mensch - Natur - Gesellschaft (1988).

22.  J. Weizenbaum: Kurs auf den Eisberg (Piper, 1987).

23.  D.L. Parnas: Warum ich an SDI nicht mitarbeite. In: Informatik-Spektrum 10 (1987) S. 3-10; H.W. Hofmann: Einsatz moderner Informationstechnik im militärischen Bereich. In: Informatik-Spektrum 10 (1987) S. 11-23.

24. Douglas R. Hofstadter: Metamagical Themas: Questing for the Essence of Mind and Pattern (New York 1985) S. 790 ff.

25.  D.R. Hofstadter: Metamagical Themas, op.cit. S. 795- 796.

26.  Margaret Boden: AI and human freedom. In: M. Yazdani, A. Narayanan, Hrsg.: Artificial Intelligence. Human effects (Chichester: Horwood, 1985) S. 196-221; vgl. a.a.O.: Artificial Intelligence and Natural Man (Hassocks, 1977) bes. S. 454-473; sowie: Methodological Links between Artificial Intelligence and other disciplines. In: F. Machlup, U. Mansfield, Hrsg.: The Study of Information. Interdisciplinary Messages (New York: Wiley, 1983) S. 229-236. Zum Informationsbegriff vgl. v.Vf.: Was ist Information? In: H. Heilmann, Hrsg.: Handbuch der modernen Datenverarbeitung 133 (1987) S. 107-114.

27. P.C. Rogers: AI as a dehumanising force. In: M. Yazdani, A. Narayanan, op.cit. S. 222-234.

28.  Vgl. v.Vf.: Hermeneutik der Fachinformation, a.a.O.

29.  Vgl. Medard Boss: Grundriß der Medizin und der Psychologie (Bern 1975, 2.Aufl.), der auf die Heideggersche Analyse der "Stimmung" zurückgreift.

30.  J.W. Snapper: Responsibility for Computer-Based Errors. In: Metaphilosophy 16 (1985) 4, S. 296-306.

31. Vgl. W. Bechtel: Attributing Responsibility to Computer Systems. In: Metaphilosophy 16 (1985) 4, S. 289-295.

32. 
D. Lloyd: Frankenstein's Children: Artificial Intel­ligence and Human Value. In: Metaphilosophy 16 1985) 4, S. 307-318.

33. a.a.O. S. 317

34. S. Torrance: Ethics, Mind and Artifice. In: Karamjit S. Gill Ed.: Artificial Intelligence for Society. Chichester 986, S. 55-72

35. Wolfgang Schirmacher: Technik und Gelassenheit. Zeitkritik nach Heidegger. Freiburg/München 1983.

36. Vgl. die Beiträge im Jg. 31 (1985) Heft 6 der Wiss. Zeitschrift der TH Ilmenau.

37. Vgl. z.B. die Werke L. Kolakowskis. Anknüpfungspunkte zu einem Dialog zwischen Hermeneutik u. (marxistischer) Dialektik in bezug auf die Computertechnologie findet man z.B. in meiner "Hermeneutik der Fachinformation" a.a.O. S. 14-15.

38. Christiane Floyd: Wo sind die Grenzen des verantwortbaren Computereinsatzes? In: Informatik-Spektrum 8 (1985), S. 3-6.

39. R. Descartes: Oeuvres et Lettres (Paris 1952) S. 278. Vgl. v.Vf. La chose à penser (a.a.O.)

40.  Vgl. v.Vf. Hermeneutik der Fachinformation, a.a.O. S. 98-119.

41. Vgl. Stanislaw Lem: Also sprach GOLEM (Frankfurt a.M. 1984). Auf die Bedeutung der Geschichte der Automaten kann hier nicht näher eingegangen werden. Vgl. H. Swoboda: Der künstliche Mensch (München 1967); M. Tietzel: L'homme machine. In: Zt. f.allg. Wiss.theorie XV/1 (1984) S. 34-71.

42. Vgl. José Ortega y Gasset: Las dos grandes metáforas. In: ders.: El Espectador (Madrid 1966) Bd. III/IV, S. 199-215.

43. Vgl. v.Vf. Die Inszenierung des Denkens, a.a.O. Ferner: Hermeneutik der Fachinformation, a.a.O. S. 204-209; Hermeneutics and the Phänomenon of Information.

44. Diese Einsicht verdankt der Vf. einem persönlichen Gespräch mit Hans-Georg Gadamer.

45. T. Winograd, F. Flores: Understanding Computers and Cognition, a.a.O.

46. Vgl. Martin Heidegger: Was heißt Denken? (Tübingen 1971); vgl. Martin Heidegger: Was heißt Denken? (Tübingen 1971); vgl. L. Rubinoff: The Metaphysics of Technology and the Crisis of Rationality. In: D. Lovekin, D.P. Verene, Eds.: Essays in Humanity and Technology (Dixon 1978): "We must look perhaps, as Heidegger has urged, to the history of metaphys­ics  in order to learn how it is possible for us to have grown thoughtless without having been aware of it." (S. 35); eine fruchtbare Deutung des Denkens Heideggers (und Nietzsches) vertritt Gianni Vattimo: La fine della modernità (Mailand 1985) vgl. meine Rezension: Das Ende der Moderne. In: Philos. Jahrbuch 94 (1987) 1, S. 205-209. Zur Kritik der KI aus Heidegg­erschen Sicht vgl. auch K. Leidlmair: Artificial Intelligence als ein philosophisches Problem. In: Philos. Jahrbuch 94 (1987) 2, S. 372-387.


Letzte Änderung: 17. Juli 2017

 

 
    

Copyright © 2005 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author.
 

 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Interviews