DIE INSZENIERUNG DES DENKENS

Rafael Capurro

  
 

  
Zuerst veröffentlicht in: Mensch - Natur - Gesellschaft Jg. 5, Heft 1, 1988, 18-26. Erschienen auch in: Diskussion. Deutschsprachige Publikation von Mensa International 7- 8/1988, Nr. 210, 3-7, 9/1988, Nr. 211, 7-14.
Vgl.  Beiträge zu diesem Thema in meiner Digitalen Bibliothek sowie EU Projekte.


 
  

INHALT

Einleitung

1. Künstliche Intelligenz auf dem Vormarsch
2. Die Inszenierung des Denkens
3. Plädoyer für einen hermeneutischen Umgang mit Künstlicher Intelligenz

Anmerkungen



  

EINLEITUNG

Der Mensch hat immer noch nicht gelernt, mit der Technik umzugehen. Vieles deutet darauf hin, daß er bisher eher eine "Todestechnik" als eine "Lebenstechnik" (W. Schirmacher) zu verwirklichen wußte (1). Obwohl wir uns seit 2.500 Jahren als "animal rationale" bezeichnen und seit ca. 150 Jahren den Siegeszug der Aufklärung feiern, sind wir uns heute so wenig wie damals einig darüber, was eigentlich "rational" heißt. Wir sind uns lediglich weitgehend einig, daß Begriffe wie "ratio", "Intelligenz", "Denken" usw. nicht etwas "Metaphysisches" oder "Außerweltliches" in sich bergen, sondern im Rahmen der Evolution zu deuten sind. Eine solche genetische  Erklärung läßt natürlich die Sinnmöglichkeiten dieser Phänomene weitgehend offen. Das gilt "a fortiori" für die Entwicklung der Technik. Können wir vielleicht mit Schopenhauer sagen, daß der Intellekt ein Werkzeug des Willens ist? (2) Gilt das nicht umso mehr in bezug auf die Künstliche Intelligenz? Lautet dann nicht die entscheidende Frage, wie wir mit diesem "Werkzeug" umgehen wollen? Ich komme im dritten Teil darauf zurück. Im folgenden möchte ich mich zunächst mit der wachsenden Bedeutung der Künstlichen Intelligenz nicht nur in den Forschungslabors der Wissenschaft, sondern auch in der industriellen Anwendung befassen.  Ich behaupte ferner, daß Künstliche Intelligenz in den gesellschaftlichen Alltag eindringt bzw. eindringen wird. Sie ist auf dem beste Wege, Teil unserer "Schönen neuen Welt" (A. Huxley) zu werden.

Damit verweise ich auf den zweiten Teil dieser Erörterungen, auf die sich der Titel "Die Inszenierung des Denkens" bezieht. Ich versuche hier, Neil Postmans Ansatz (der auf Marshall McLuhans "Das Medium ist die Botschaft" zurückgeht) im Hinblick auf das Phänomen der Künstlichen Intelligenz weiter zu entfalten (3). Es geht mir dabei weniger um die Kontrastierung zweier Medien als vielmehr um die Deutung der Künstlichen Intelligenz im Sinne einer epistemologischen Metapher. Ich will dabei zeigen, inwiefern Künstliche Intelligenz eine bestimmte Form von Diskurs bedingt. Meine These lautet: Künstliche Intelligenz betrachtet (zumindest bisher) Denken und Gedachtes unter dem Gesichtspunkt ihrer Inszenierung. In Frage steht also nicht, ob Maschinen "denken" können, sondern daß Künstliche Intelligenz Denken in der Form einer "show" präsentiert. Die Frage bleibt dabei offen, inwiefern Maschinen mit Künstlicher Intelligenz tatsächlich eines Tages "denken" und uns dabei u.U. übertreffen könnten. Das wäre nicht verwunderlich: Wir sind von Maschinen (und anderen Wesen) umgeben, die unsere sonstigen "Eigenschaften" in vieler Hinsicht überragen. Die Frage, die wir uns heute stellen, ist aber die nach dem Umgang mit Künstlicher Intelligenz im Sinne einer Inszenierung des Denkens. Obwohl dabei die Philosophie keine Rezepte bieten kann, lassen sich, jenseits von "Technik-Optimismus" bzw. "Technik-Pessimismus" mehrere Strategien entwickeln. Ich werde insbesondere auf den Sinn eines hermeneutischen Umgangs mit Künstlicher Intelligenz eingehen. Zunächst aber wenden wir uns den gegenwärtigen Erscheinungsformen der Künstlichen Intelligenz zu.


1. KÜNSTLICHE INTELLIGENZ AUF DEM VORMARSCH

Künstliche Intelligenz ist auf dem Vormarsch, und zwar in allen Bereichen des gesellschaftlichen Lebens. Man kann sich nur darüber wundern, was Maschinen "mit eingebauter Intelligenz" heute alles können.

Kürzlich sah man in einem Fernsehbericht, mit welcher erstaunlichen Präzision ein Roboterarm eine delikate Gehirntumor-Operation durchführte, die bisher wegen des hohen Risikos von Chirurgenhand nicht gewagt wurde. Dabei "verarbeitete" die Maschine die eingehenden Daten und änderte ihr Vorgehen dementsprechend, d.h.: sie war lernfähig. Anschließend wurde gezeigt, wie ein Arbeiter in einer Lagerhalle dem Computer mündliche Anweisungen gab, die von diesem auch "verstanden" wurden und zwar so, daß sie prompt von einem Roboter in die Tat umgesetzt wurden. Die Maschine hatte nur eine begrenzte Anzahl der vom Arbeiter benutzten Worte gespeichert, so daß sie diese und nur diese, und zwar auch nur in der spezifischen dialektalen und sonst individuell ausgeprägten Form, "verstand". Im Falle eines Schnupfens des Arbeiters hätte sie also schon "Verstehenschwierigkeiten" gehabt.

Schließlich wurde ein Bildschirmgespräch zwischen einem Hotelsuchenden und einem "Computer-Concierge" vorgeführt: Auf die Frage, ob die Betten hart wären, antwortete der "Concierge" nicht mit einem einfachen "ja", sondern erklärte, daß erst kürzlich neue Matrazen gekauft hätte. Damit gab er zu verstehen, daß die Matrazen, da neu, auch hart sein sollten (oder zumindest würde sie nicht durchhängen). Bei einem längeren Gespräch ließ sich der "Concierge" nicht aus der Fassung bringen und kam immer wieder auf die entscheidende Frage zurück, ob der Reisende nun das Zimmer nehmen wolle oder nicht.

Eine der erfolgreichsten und zugleich meist verbreiteten Formen der Künstlichen-Intelligenz-Anwendung sind die Expertensysteme. Hier befinden wir uns, seit der Entwicklung von MYCIN Mitte der siebziger Jahre, mitten in einer stürmischen Verbreitung in allen Fachgebieten. Die Zahl der größtenteils in den USA arbeitenden Expertensysteme wird auf 150 bis 200 geschätzt (4). Vor zehn Jahren waren es erst zwei oder drei. Folgende Anwendungsgebiete werden in der Literatur aufgeführt:

Naturwissenschaften (Physik, Chemie, Biologie, Psychologie, Geologie), Mathematik, Medizin, Computer und Elektronik, Militärwesen, Rechtswesen, Wirtschaft/Finanzwesen/Produktion, Ausbildung, andere Technologien (z.B. Steuerung des Luftverkehrs, Erdbebenvorhersage für Gebäude, Konfiguration von Atomkraftwerken, Verhütung und Management bei Überschwemmungen) (5).

Inzwischen sind Expertensysteme auch mit einem PC (=Personal Computer) zu handhaben (6). Die weiteren Entwicklungen im Zusammenhang mit dem SDI-Projekt sind abzusehen. Piloten werden demnächst einen "intelligenten Kollegen" neben sich haben. Dozenten werden kaum ohne den "elektronischen Assistenten" auskommen. Wissenschaft und Industrie sind bereits voll dabei, sich die Sache nutzbar zu machen. Man braucht nicht viel Phantasie, um vorauszusehen, daß unser "Computer-Concierge" demnächst üblich sein wird, wo man Intelligenz erfolgreich simulieren und "einsetzen" kann.

Als letztes Beispiel möchte ich hier den Bereich der Informations- und Bibliothekswissenschaft nicht unerwähnt lassen. Die Möglichen Anwendungen reichen von der "intelligenten Hilfe" bei der  Indexierung von Dokumenten sowie bei der Suche in Datenbanken (7) bis hin zur Erweiterung von Datenbank- und Information-Retrieval-Systemen zu wissensbasierten Systemen (8).

Neulich konnte man in der Presse nachlesen (9), daß nach Ansicht des Marktforschungsunternehmens Frost & Sullivan Inc. der europäische Markt für Expertensysteme bis 1990 ein Volumen von 3,8 Milliarden Dollar erreichen würde, obwohl zur Zeit keine 10 Prozent dieses Werts zu verzeichnen sind. Der Marktforscher geht aber davon aus, daß die gegenwärtig noch für sehr spezielle Gebiete entwickelten Systeme eine breitere Anwendung finden werden. Das hängt natürlich von den sinkenden Kosten im Hard- und Software-Bereich ab, sowie von der Weiter- entwicklung von Anwendungen der Künstlichen Intelligenz.

Ich fasse zusammen: Die Entwicklung der Künstlichen-Intelligenz-Technik macht heute ziemlich viel Lärm, aber keineswegs um Nichts. Künstliche Intelligenz ("KI") ist auf dem Vormarsch, nicht zuletzt, wie Dreyfus bemerkt (10), weil einerseits die Bereiche, in denen sie angewandt wird, sich logisch-deduktiv in Form eines Systems von Prinzipien, Regeln und Merkmalen darstellen lassen, andererseits, weil die Regierungen und die Industrie riesige Geldsummen (nicht zuletzt in Form des Militärhaushalts) investieren. Kernpunkt der KI, insbesondere bei Expertensystemen, ist in der Tat die Frage der formalen und inhaltlichen Wissensdarstellung in Form einer "inference engine" bzw. einer "Wissensbasis". Wir sind Regisseure des Denkens geworden.


2. DIE INSZENIERUNG DES DENKENS


Vieles deutet darauf hin, daß wir noch sehr mangelhafte Regisseure sind. Darin sind sich alle KI-Forscher einig: Alle diese Systeme besitzen keinen "gesunden Menschenverstand" ("common sense"). Mit anderen Worten: sie sind beschränkt, aber anstatt diese Beschränktheit zuzugeben, kaschieren sie sie (11). Daniel Bobrow hat deshalb neulich vorgeschlagen, daß sie in konkreten Situationen in der Lage sein sollten, zu sagen: "Ich weiß es nicht." (12) Was wir also tun, ist eine Wissensschau bzw. eine "Wissens-Show", die, wie gesagt, auf Prinzipien, Regeln und Merkmalen basiert. Wir haben in unserer Denktradition einen ehrwürdigen Namen für diese Denkform: Metaphysik. Expertensysteme sind durch und durch metaphysisch. Während der "gesunde Menschenverstand" sich in einem konkreten Handlungs- und Reflexionsrahmen eingebettet weiß und zugleich sich für vielfältige Möglichkeiten offenhält, bleibt unsere Künstlich zur Schau gestellte Intelligenz abstrakt. Wir halten eben Ausschau, unsere Expertensysteme schauen nur so aus. Dennoch stellen sie nicht einfach metaphysische Systeme dar. Etwas Neues ist jetzt hinzugekommen. Hier möchte ich an den Ansatz von Postman anknüpfen. Entscheidend sind nicht die Inhalte, sondern das Medium. Die Form. KI-Systeme sollen den Eindruck (!) erwecken, daß eine Maschine "denkt", "wahrnimmt", "handelt", "Wissen  verarbeitet" usw., daß sie eben "intelligent" ist.

Der "Wissensregisseur" (oder "knowledge engineer") hat mit einem bestimmten "Stück" oder "Fach" zu tun. Dabei muß er aber nicht bloß, wie bei der Schrift, das Wissen darstellen, sondern es muß der Anschein entstehen, daß das System einen Denkprozeß vollzieht. Es handelt sich also um eine Inszenierung des Denkens. Das Medium verlangt die Schau des Denkens, bzw. faßt Denken und Gedachtes als Schau (gewöhnlich als "Show") auf. Die Treue bzw. Überbietung des Originals (das "Turing-Prinzip") ist maßgebend. Die bisher populärsten Libretti haben die Struktur von Problemlösungsstrategien. Dem Denken wird also eine bestimmte Form bzw. "Rolle" zugeschrieben. Aber auch schon die Metaphysik, wird man vielleicht einwenden, stellte Denken und Gedachtes als Prozeß dar. Die Pointe ist aber hier, daß sie unter dem Gesichtspunkt ihrer Inszenierbarkeit aufgefaßt werden. Das technische System soll das Denken so zur Schau stellen, daß der Anschein entsteht, als ob es "mitdächte." (13)

Peter Hirsch, IBM-Forschungsmanager im Bereich Expertensysteme in Palo Alto, erzählt folgende Geschichte. Ein Student der Stanford Universität arbeitete im Theater "hinter den Kulissen" und war verantwortlich für die Lichteffekte. Das Entscheidende dabei ist die Wahl der richtigen Mischung an Tönen und Intensitäten. Er entschloß sich, ein Expertensystem zu schreiben. Ergebnis? Das System triff die "richtige" Wahl, die abhängig ist von der Größe des Lichtradius, der Intensität, der Höhe in bezug auf die Bühne, ob der Strahl von links oder von rechts kommt usw. Das System rechnet alles zusammen und bringt buchstäblich sein Wissen zur Schau. An eine solche Anwendung, sagt Hirsch, hätten die KI-Experten bisher nicht gedacht! (14)

Gewiß, was zur Zeit noch auf der KI-Bühne geschieht, ist eine ziemlich amateurhafte Inszenierung. Was dort als "Intelligenz" dargeboten wird, mangelt meistens ästhetischer und rhetorischer Eigenschaften und ist auf das rein Rationale verkürzt. Die Rückprojizierung dieses Modells auf das "natürliche" Denken wird deshalb noch sehr naiv bisweilen auch gefährlich, wenn man sich zu sehr in die Form der Inszenierung oder gar in die Inszenierung der Form (!) verliebt.

So wie das Fernsehen verfügt auch das KI-Medium über eine eigene Resonanz, d.h. die theatralische Metapher prägt unsere Welt und unser Denken. Der "Geist" ist eben nicht mehr eine (geschriebene oder ungeschriebene) "Tafel" (oder "Buch"), sondern - Ein Schauspieler! Welche Rolle oder Inhalte er spielt, ist von sekundärer Bedeutung. Entscheidend ist, daß das Denken als eine Aufführung aufgefaßt wird, daß es in Szene tritt, und daß man möglichst seine effektvollen Leistungen bestaunt bzw. benutzt. In seinem Aufsatz "Do Computers Think?" (15) bemerkte Mario Bunge, daß KI-Systeme so wenig "denken", wie Autos "laufen" können. Die Verwendung von Grundbegriffen ("key concepts") in verschiedenen Kontexten führt in eine semantische Falle. Die Rede vom "künstlichen Laufen" läßt das Ausmaß dieser Falle erkennen. Wir haben, mit anderen Worten, mit einer Analogie zu tun.

Ich möchte das, was KI-Regisseure uns gewöhnlich anbieten, unter drei Gesichtspunkten erläutern, nämlich: Problemlösungsstrategie, Rationalität und Komplexität.
  • Problemlösungsstrtegie: Es handelt sich hierbei um eine sehr bedeutsame Struktur, wenn wir an die unendliche Anzahl von (im Prinzip durchaus) lösbaren Problemen dieser Welt denken. Da Lösungen die Eigenschaft haben müssen, daß sie "hic et nunc" gelten sollen, muß das System auf bestimmte Inhalten (z.B. Irrwege, "fachfremde" Hinweise oder Ansätze, frühere "überholte" Wissensstadien) ganz oder teilweise verzichten. Frühere Inszenierungen bzw. "Proben" haben nur einen "Archivwert". Das System ist "lernfähig": Da soll heißen, daß es sein Wissen nicht "einfach" linear, wie ein Buch, sondern "polyhierarchisch" und "dynamisch", vor allem aber "aktualisiert" vorführt. Das Ergebnis ist, wie wir gesehen haben, verblüffend: Man hat den Eindruck, daß es "mitdenkt". Aber es tut noch mehr als das, es spielt mit! Das ist etwas Neues, gegenüber der Metapher eines kohärenten, rationalen, durch Kritik zu verbessernden "Buch-Wissens". Die "Ein-Bildung" der Intelligenz in das elektronische Medium läßt alle schauspielerischen Perspektiven offen. Der Anschein soll also entstehen, daß das System mitdenkt. Wir wären aber bestimmt unzufrieden, wenn es "nachdenken" und uns z.B. eine Woche später eine bzw. keine "Lösung" anbieten würde. Wir wissen ja, daß, wenn wir "nachgrübeln", es sich nicht notwendigerweise um eine Tätigkeit handelt, die man schnell vollziehen könnte oder sollte: Man kann aus taktischen Gründen abwarten, sich Bedenkzeit lassen usw. Intelligente Systeme denken aber grundsätzlich nicht nach.
  • Rationalität: Daß sie nicht nachdenken, heißt aber nicht, daß sie irrational oder emotional wären. Sie können unsere Ratio vielfach übertreffen, genauso wie der kleinste Taschenrechner richtiger und schneller rechnen kann als der beste Mathematiker. Wir befinden uns aber erneut in der semantischen Falle: Der Taschenrechner rechnet natürlich nicht, sondern führt "nur" bestimmte physikalische Operationen ("jobs") durch. Die Wirkung der Metapher kann aber dazu führen, daß wir den Unterschied nicht mehr wahrnehmen, und das Rechnen bzw. das Denken verlernen. Im Falle der KI könnte das zu peinlichen (bisweilen gefährlichen) Täuschungen führen. Die KI-Gläubigkeit kann sich aber weiterentwickeln. Wir haben hier, im Gegensatz zum Fernsehen, nicht mir einer Vielfalt von Diskursen, die aber alle unter dem Gesichtspunkt der Unterhaltung angeboten werden, sondern mit nur einem Diskurs,der durchgehend rational und jeweils auf mögliche Lösungen hin fixiert operiert, zu tun. Es handelt sich also um eine "obsessive" Rationalität. Überspitzt gesagt: Beim Fernsehen ist der Diskurs "schizophren", bei der Künstlichen Intelligenz "neurotisch" Menschliches Denken kann sich aber "dazwischen" bewegen. Es kann sich im Vieldeutigen verlieren, oder auf das Eindeutige, Sichere sich zielstrebig (man könnte fast sagen "animalisch") hin bewegen. Es kann aber auch das Mehrdeutige davon unterscheiden, und dabei die unterschiede in einer möglichen Einheit auffassen, ohne sie zu verwischen. Es kann, mit anderen Worten, nicht nur eine "Denk-Show" abziehen, sondern gleichzeitig dabei die "Show" als "Show" vollziehen. Wenn es das nicht tut, dürfen wir befürchten, daß der Mensch "nicht mehr bei Sinnen" ist.
  • Komplexität: Expertensysteme werden dort eingeführt bzw. sind dort besonders nützliche, wo die Komplexität der zu berücksichtigenden Variablen ein gewisses Maß übersteig, so daß ein Fachmann mit ihm wenig zur Verfügung stehender Zeit nicht (oder kaum) in der Lage ist, eine treffsichere Entscheidung zu fällen. Daß das System diese Komplexität bewältigt und wie es das tut, kann man, wie das Beispiel des Standford Studenten zeigte, buchstäblich sehen. Sollte man das Ergebnis bezweifeln, so kann man in der Regel das System zur Rechenschaft ziehen, und die einzelnen Schritte, die zum "Entschluß" geführt haben, überprüfen bzw. in Frage stellen. Es bleibt also alles durchsichtig. Oder zumindest soll dieser Anschein gewahrt werden.
Aber, wie wir wissen, der Schein trügt. Erstens, weil im Falle sehr komplexer Entscheidungen eine Überprüfung aller Einzelschritte nicht bzw. kaum möglich ist. Das ist auch bereits bei herkömmlichen EDV-Programmen der Fall. Selbstverständlich sind außerdem Fehler aller Art, die vom System nicht "wahrgenommen" werden, woraus es also nicht "lernen" kann, kaum auszuschließen. Zweitens, weil es in keinem Fall möglich ist, alle Variablen restlos zu berücksichtigen. Im Falle menschlicher Entscheidungen setzt man deshalb das Nach- bzw. Vordenken ein.

Man könnte aber einwenden, daß in vielen Fällen nicht unbedingt nötig ist, das eine oder das andere zu berücksichtigen, solange uns das System eine gute, d.h. pragmatische Hilfe leistet und das heißt, solange es mit hoher Wahrscheinlichkeit und "mit Lichtgeschwindigkeit" das Treffende schließt. Gegenüber einer solchen "Show"-Leistung wird man sich schwer tun, sie nicht bei allen "passenden" und "unpassenden" Gelegenheiten einzuführen. Was als Denkstütze gedacht war, kann sich, aufgrund der "Resonanz" des Mediums, zum Denkmodell erheben. Das kann so weit führen, daß vielleicht eines nicht so fernen Tages aus der "Sache des Denkens" (Heidegger) einfach ein "Show-Business" gemacht wird! Ich glaube nicht, das jemals ein Super-KI-System uns ideologisch à la Orwell überwachen bzw. in Form einer Denkprothese ersetzen wird. Eher glaube ich mit Postman, daß diese Inszenierung des Denkens nur allzu gut in Huxleys "Brave new world" hineinpaßt.

Ich möchte zum Schluß dieses zweiten Teils meiner Ausführungen ein mögliches Mißverständnis ausräumen. Man könnte nämlich entgegnen, daß lediglich der momentane Stand der KI-Forschung und KI-Anwendung eine solche weit überzogene Darstellung dieser Technik ermöglicht. Es muß keineswegs so bleiben. Ich mache der Entwicklung der Technik keine prinzipiellen Einschränkungen und bin mit Dreyfus davon überzeugt, daß es eines Tages intelligente Computer geben kann, und zwar solche, die ihr Wissen nicht aus Regeln und Merkmalen ableiten (16). Ob das "Silizium-basierte Denken" (oder die "Vermählung" von KI und Biotechnologie) dieselbe Art von "Leistung" hervorbringt wie das menschliche Denken, bleibe dahingestellt. Im Prinzip ist es möglich, "natürliche" Intelligenz künstlich herzustellen. Dazu brauchen wir nicht abzuwarten, bis die KI-Forschung uns den Beweis erbringt:

Die Evolution hat nämlich schon längst dafür gesorgt. Vielleicht glauben wir aber, unterwegs nach Indien zu sein - und wir landen in Amerika. Damit wäre eine neue Zeit großer Entdeckungen eingeleitet. Auf keinen Fall soll also die Frage nach dem Wie des Denkens (und um sie geht es ja, nicht um den vermeintlichen Beweis, daß man den Menschen bzw. das Denken mit "künstlichen Mitteln" erzeugen kann) bagatellisiert werden. Es wäre vermessen, a priori zu behaupten, daß bestimmte Seinsweisen, so wie wir sie beim Menschen kennen, sich eben nur mit biologischem Material nachvollziehen lassen. Eine "desimbodied rationality" kann wiederum, wie gesagt, von anderer Art sein. Allerdings kann man diesen Aussichten mit Skepsis und Humor entgegnen. Pamela McCorduck erinnert an die lustige Passage bei Jonathan Swift, wo eine Maschine einer ungebildeten Person ermöglicht, "bei geringen Gebühren und mit nur wenig körperlicher Arbeit" Bücher über Philosophie, Dichtung, Politik usw. zu schreiben, und zwar ohne eigene Schöpferkraft bzw. ohne vorher gelernt zu haben. (17)

Was KI uns also u.a. zeigt bzw. zeigen könnte, ist, daß man mit operativen Begriffen (wie etwa "software", "hardware", "Programm", "Datenstruktur") philosophische Dichotomien, wie die zwischen Geist und Materie, Leib und Seele usw. zumindest entschärfen kann, im Sinne, daß bisher für unversöhnbar gehaltene Dualismen sich als grundlos erweisen. Umgekehrt bräuchte die KI nicht jedesmal ein viereckiges Rag zu erfinden, wenn sie ein Ohr für die jahrtausendlange Arbeit des Begriffs hätte (18). Ich glaube, daß der Leib-Seele-Dualismus, auch in seinen "modernen" Formen (etwa als Dualismus von "self" und "brain") ein metaphysisches Relikt ist.

Die Frage nach der "Welterschlossenheit" (Heidegger) läßt sich nicht in die Frage nach der Leistung eines im Gehirn eingekapseltes Bewußtseins verwandeln, sondern geht dieser "schiefen", weil von der "Weltoffenheit" (worin wir sind, und woraus es beim Denken letztlich immer wieder ankommt) ablenkenden Frage voraus. Es geht also nicht darum, einen falsch verstandenen "Humanismus" zu verteidigen. Unsere Auszeichnung, nämlich, daß wir - keine isolierte und eingekapselte Subjektivität also - diese "Weltoffenheit" in ihren Ent- und Verbergungsdimensionen aushal- ten, verliert nichts von ihrer wundersamen Rätselhaftigkeit, wenn "künstliche Wesen" in vielfältiger Weise an diesem Geschehen teilnehmen. Das "Wundersame" ist ja primär, daß es diese "Dimensionen" gibt. Ob wir einzigartig sind, ist eher eine narzistische Frage. KI-Forschung ist also im Prinzip weder hoffnungslos noch "böse". Und dennoch...



3. PLÄDOYER FÜR EINEN HERMENEUTISCHEN UMGANG MIT KÜNSTLICHER INTELLGENZ


Angesichts dieser Lage, d.h. der gegenwärtigen Inszenierung des Denkens auf der einen und der noch offenen Möglichkeiten der KI-Forschung auf der anderen Seite ist erneut an die, wie ich glaube, zentrale Tugend im Umgang mit moderner (Computer-)Technologie, nämlich an die Vorsicht im Sinne von (sittlicher) "Vor-" und "Ein-Sicht" (lateinisch "prudentia") zu erinnern (19). Das gilt z.B. in bezug auf die mögliche Verbindung von Biotechnologie und Künstlicher Intelligenz, aber auch auf alle möglichen Verflechtungen von technischer Intelligenz und menschlicher Schwäche. Es war m.E. dieser ethische Sachverhalt, daß Joseph Weizenbaum zu seinem 1976 erschienenen Buch "Computer Power and Human Reason" veranlaßte (20). Er sah, so kann man vermuten, daß ELIZA nicht bloß ein schlechter Scherz war, sondern eine Vorankündigung einer realen "Show", in der, gewissermaßen als Steigerung künstlicher Intelligenz, nicht bloß das Denken, sondern auch die "tieferen" menschlichen Schichten zur Schau gestellt werden würden.

Er zweifelte nicht daran, daß so etwas möglich wäre, und deshalb warnte er davor, den Computer in alle Bereiche eindringen zu lassen, in denen er es nicht tun sollte. Der Grund? Es wäre obszön. Natürlich paßt das nicht ganz in unser aufgeklärtes und "show"-süchtiges Zeitalter. Vielleicht kann man diesem Grund eine gewisse Geltung verschaffen, wenn man an seinr Stelle von Geschmacklosigkeit spricht. Der Umgang mit KI ist aber mehr als eine Frage des (sittlichen) Geschmacks. Es kann sich um eine Frage des Überlebens handeln, vor allem, wenn wir nicht bald anfangen, darüber nachzudenken, wie wir eigentlich mit dieser uns selbst vielorts ersetzenden und dabei in der Leistung uns in vieler Hinsicht überbietenden künstlichen Selbstinszenierung umgehen wollen.

Solange wir diese Frage nicht behandeln und wie vorläufig bzw. vorsichtig auch immer beantworten, solange bleibt unser Tun das, was es heute meistens ist, nämlich nihilistisch. Wir leiden unter den Folgen eines solchen Versäumnisses im Zusammenhang mit den Errungenschaften der ersten industriellen Revolution. Man braucht nicht viel Phantasie, um sich die guten und schlechten Auswirkungen einer überall einsetzbaren bzw. netzwerkartig aufbaubaren intelligenten Technik vorzustellen, die uns eben den Anschein eines "denkenden", "fühlenden", "sehenden", "sprechenden", "wahrnehmenden", "lernenden" usw. Gegenüber gibt. Da wir vermutlich auf einen solchen "Mitdenken" bzw. "Mittäter" nicht werden verzichten wollen, bleibt eben die Frage, wie wir mit "ihm" verantwortlich umgehen wollen. Die Expertensysteme werden uns hier vermutlich im Stich lassen. Die Sache ist bereits heute beeindruckend genug, als daß wir uns einfach von ihr "be-eindrucken" lassen.

Es gibt mehrere denkbare Strategien, von denen ich auf zwei umrißhaft eingehen möchte. Die eine ist, das Spiel möglichst kritisch mitzuspielen. Wir bleiben innerhalb des "Paradigmas", fördern es weiter (gegen jede Art von "Aussteigerromantik"). Da wir aber inzwischen von unseren Fehlern etwas gelernt haben, versuchen wir, unsere Augen bzw. unsere Intelligenz (!) für das Doppelspiel, das wir uns selbst vorführen, offen-kritisch zu halten. So, wie wir erst lernen müssen, wie Postman bemerkt (21), mit dem Medium Fernsehen umzugehen, so daß wir in der Lage sind, seinen Bann zu brechen, indem wir seine Magie, nämlich alles als Unterhaltung anzubieten, durchschauen, so müssen wir auch lernen, die Magie des Mediums Künstliche Intelligenz zu hinterfragen, nämlich Denken und Denkinhalte in der Form einer "Show" anzubieten, bis wir schließlich glauben, die "Show" sei eben das Denken... und denke eine Sache der "Show".

Das gilt sowohl im Hinblick auf die dreifache oben erwähnte Vortäuschung (Problemlösungsstrategie, Rationalität, Komplexitätsbewältigung), als auch im Himblick auf die Analogie-Täuschung, nämlich auf die semantische Falle, die wir uns selbst stellen, wenn wir den Begriff "Intelligenz" in zwei (zumindest bisher) verschiedenen Kontexten gebrauchen. Diese Falle wird in unserem modernen, d.h. rationalitätsgläubigen Zeitalter zu einem nicht leicht überwindbaren Hindernis, wenn wir eben die KI-Kulissen hinterfragen wollen.

Eine andere Strategie, für die ich zum Schluß meiner Ausführungen plädieren möchte, ist die eines hermeneutischen Umgangs mit Künstlicher Intelligenz (22). Beide Strategien schließen sich natürlich gegenseitig nicht aus. Wir sollen hierbei die Realität und die Möglichkeiten der KI bejahen, zugleich aber den metaphorischen Reichtum dieser Technologie erkennen. Das setzt allerdings voraus, daß wir uns auf unser Verhältnis zu den Anderen sowie zur Welt besinnen. Ein solches besinnliches bzw. hermeneutisches Denken betrachtet die Technik weder als eine fremde Vorschrift, von der wir uns befreien sollten, noch als ein bloßes Hilfsmittel, das wir nur "richtig" gebrauchen müssen. In beiden Fällen wird die in jeder Technik steckende Metapher nicht erkannt und sie wird nicht als Metapher erkannt.

Das ist es, worauf Heidegger hinweist, wenn er schreibt, daß wir keine Herrschaft über die Technik erringen können, daß wir aber ihre Übermacht nicht wehrlos und ratlos ausgesetzt sind - vorausgesetzt, wir verzichten nicht darauf, "gegenüber dem bloß rechnenden Denken das besinnliche Denken in da maßgebende Spiel zu bringen." (23) Dieses be-sinnliche Denken wächst nicht zuletzt, wenn wir die Augen unserer Phantasie und unserer Sinne mitspielen lassen, b.h. wenn wir fähig sind, das blendende und uns zuweilen verblendende Licht der Intelligenz von ihrem "traumatischen" Ursprung her zu sehen, denn, und darauf möchte ich jetzt kurz eingehen, die KI-Technik entsteht, wie jede andere Technik auch, ursprünglich nicht aus der Anwendung naturwissenschaftlicher Erkenntnisse, sondern - aus einem Traum (24). Maschinen sind Traumprodukte. Der KI-Traum, das ist unser Schöpfer-Traum(a), d.h., er ist das Begehren, die spezifische Trennung zwischen Mensch und Maschine aufzuheben. Was wir dabei entwerfen, ist nichts anderes als ein Traum unserer selbst (und unseres Selbst), nämlich der Traum, das "lumen intelligentiae" - das "Licht der Intelligenz" - von seinem "Schatten" zu befreien.

Es ist der Traum einer Konsistenz, in der auch die Inkonsistenz, in Form der Selbstreferenz, eingeplant ist. Wie das künstlerisch und (programm-)technisch geht, das haben uns Gödel, Escher, Bach - und Douglas Hofstadter gezeigt (25). Was bei der (bisherigen) Verwirklichung dieses Traumes (bzw. Traumas) verlorengeht, ist das, was die Psychoanalyse "das Ding" ("la chose") nennt (26), nämlich die Zusammenkunft des Begehrens ("le désir") mit der radikalen "Lücke" seines Strebens. Als Sympton dieser Verneinung gilt jetzt nicht mehr die Metapher der "Bibliothek", sondern die "Ein-Bildung" eines wissenden Subjekts, das das "Verbotene" nicht mehr nur behütet und, gegebenenfalls, wie Jorge von Burgos in Umberto Ecos berühmtem Roman "Der Name der Rose" (27) in sich frißt und dabei (symptomatisch) lachend zugrunde geht, sondern es aus seiner eigenen Konstitution ausgemerzt hat. Angst- und wunschlos bietet sich die KI-Inszenierung "para-noisch", d.h. als ein "zweites Selbst" (28) par excellence an.

Das ist der Traum. Die Wirklichkeit ist die, wie wir gesehen haben, eines durch und durch "vorurteilsvollen" Systems, das seine Berechnungen zugleich offenbart und verbirgt. Das fordert uns eigentlich zu einem offenen bzw. hermeneutischen Umgang mit ihm, wenn wir nur dafür vorbereitet wären. Das hat z.B. Stanislaw Lem in seinem Roman "Also sprach Golem" so versinnbildlicht, Golem, ein Computer der 80. Generation in der ersten Hälfte des 21. Jahrhunderts, sich nicht mehr für militärische Angelegenheiten interessiert, sondern ausschließlich ontologische und epistemologische Fragen mit den Menschen erörtern möchte (29). Lem beklagt den Infantilismus der Science-Fiction-Literatur, die für solche Fragen, die die Tradition menschlicher Kultur bilden, keinen Platz bietet (30).

Im Umgang mit Künstlicher Intelligenz bedürfen wir also, so mein Plädoyer, der Hermeneutik, das heißt: des kritischen Verstehens dieser Technik (und jeder Technik überhaupt) in offenen Bedeutungs- und Verweisungszusammenhängen. Wir können dabei lernen, KI so zu begegnen, ohne ihre Objektivationen in ihrem Ausschließlichkeitsanspruch zu bejahen. Nur dann sind wir in der Lage, die Spannung zwischen dem menschlichen Wort und der inszenierten Intelligenz auszuhalten, anstatt sie scheinbar aufzuheben. Es ist die soziale und weltliche Inkarnation des Wortes, was uns auszeichnet. Ob wir in der Lage sind, den Monolog der Künstlichen Intelligenz in das Gespräch der Tradition so einzubeziehen, daß dadurch dieses Gespräch, das auf Frieden genannt wird, gelingt? Oder wollen wir vielleicht weiterhin in einer Zeit der Kriege und Monologe "leben"? (31)

Die Offenheit zu diesem Dialog setzt voraus, daß niemand sich in Besitz des Logos wähnt. Das bedeutet, daß wir Künstliche Intelligenz so in die Ordnung bringen sollten, daß das symbolische Gefüge unseres Verhältnisses zueinander und zur Welt nicht einfältig wird. Nicht nur das "Angesicht des Anderen" (E. Levinas) (32), sondern auch das "Gesicht der Welt" ("imago mundi") stehen hier, d.h. mit der Sprache auf dem Spiel. Wir brauchen also nicht auf die möglichen formen unserer "Intelligenz-Schau" zu verzichten, vorausgesetzt, wir befreien uns vom Zwang, Denken bloß zur Schau bzw. als Schau darzustellen.

Das bedeutet auch, daß wir nicht primär (!) auf das Denken (wie es die Metaphysik tut), sondern auf die "Sache des Denkens" (Heidegger) achten, um sie in ihren Dimensionen "anwesen zu lassen" (33). Und wir selbst? Kommt man, wie Nietzsche schreibt,

"aus solchen langen, gefährlichen Übungen der Herrschaft über sich als ein andrer Mensch heraus, mit einigen Fragezeichen mehr - vor allem mit dem Willen, fürderhin mehr, tiefer, strenger, härter, böser, stiller zu fragen, als je bisher auf Erden gefragt worden ist...?" (34)

Bevor wir aber "über" den Menschen hinausblicken, sollten wir bedenken, ob wir anderen, vielfältigen "Vorbildern" des Menschseins (es lassen sich genügend finden) gerecht zu werden vermögen. Vielleicht können wir dann auch die Erscheinungen der Künstlichen Intelligenz in dieses Sehen einbinden.


ANMERKUNGEN



1. Vgl. Wolfgang Schirmacher: Technik und Gelassenheit. Zeitkritik nach Heidegger. Freiburg/München 1983.

2. Vgl. Arthur Schopenhauer: Die Welt als Wille und Vorstellung. Ergänzungen zum Zweiten Buch, Kap. 19 (et passim).

3. Vgl. Neil Postman: Wir amüsieren uns zu Tude. Urteilsbildung im Zeitalter der Unterhaltungsindustrie. Frankfurt a.M. 1985

4. Vgl. Bruce G. Buchanan: Expert systems: Working systems and the research literature. In: Expert Systems, Jan. 1986, Vol. 3, No. 1, S. 32-51; Ralf-Dirk Hennings: Expertensysteme für industrielle Nutzung. In: Nachrichten für Dokumentation 36 (1985) 4/5, S. 179-189; Marie-Odile Cordier: Expertensysteme. In: Umschau 17 (1984), S. 513-517.

5. Vgl. R.D.- Hennings, a.a.O.

6. Vgl. Daniel G. Shafer: Microcomputer-based expert systems: where we are, where we are headed. In: Expert Systems,Oct. 1985, vol. 1, No. 4, S. 188-228.

7. Cynthia A. Kehoe: Interfaces and expert systems for online retrieval. In: Online Review 1985, Vol. 9, No. 6., S. 489-505; Peretz Shoval: Principles, Procedures and Rules in an Expert System for Information Retrieval. In: Information Processing & Management Vol. 21, No. 6, 1985, S. 475-487; Friedrich Gebhardt: Querverbindungen zwischen Information-Retrieval- und Experten-Systemen. In: Nachrichten für Dokumentation 36 (1985), 6, S. 255-263; Norbert Meder: Artificial Intelligence as a Tool of Classification, or: The Network of Language Games as Cognitive Paradigm. In: International Classification 12 (1985) No. 3, S. 128-132; An Clarke, Blaise Cronin: Expert systems and library/information work. In: Journal of Librarianship15 (4) October 1983, S. 277-292; sowie den Übersichtsartikel von Linda C. Smith: Artificial Intelligence Applications in Information Systems. In: Martha E. Williams, Hrsg.: Annual Review of Information Science and Technology, Vol. 15 (1980), S. 65-105.

8. Vgl. Udo Hahn: Expertensysteme als intelligente Informationssysteme. Konzepte für die funktionale Erweiterung des Information Retrieval. In: Nachrichten für Dokumentation 36 (1985) 1, 2-12; Hans-Jürgen Appelrath: Die Erweiterung von DB- und IR-Systemen zu Wissensbasierten Systemen. In: Nachrichten für Dokumentation 36 (1985) 1,  S. 13-21.

9. Vgl. Blick durch die Wirtschaft, v. 9, August 1985: Expertensysteme bald ein Milliarden-Markt.

10. Vgl. Hubert L. Dreyfus: Die Grenzen künstlicher Intelligenz. Königstein am Taunus 1985, S. 14.

11. Hierzu gehört eine Erörterung des "sensus communis" im Sinne einer gemeinschaftlichen Fähigkeit, wodurch das praktische Wissen, die "Umstände" erfassend, auf die konkrete Situation gerichtet ist. Vgl. H.-G. Gadamer: Wahrheit und Methode (Tübingen 1975) S. 16-31; vgl. auch der dritte Teil dieser Arbeit.

12. Vgl. Daniel Bobrow: Expert Systems Interview. In: Expert Systems, Jan. 1986, VoI. 3, No. 1, S. 54-55.

13. "Künstliche Intelligenz" könnte als eine "Fiktion" im Sinne Hans Vaihingers ("Die Philosophie des Als-Ob", Berlin 1911), d.h. als ein Orientierungsgebilde, aufgefaßt werden.

14. Vgl. Peter Hirsch: Expert Systems Interview. In: Expert Systems, Jan. 1986, Vol. 3, No. 1, 58-59.

15. Mario Bunge: Do Computers Think? In: British Journal for the Philosophy of Science, Vol. 7, No. 5 (1957), S. 139-148und 212-219.

16. Vgl. Hubert L. Dreyfus, a.a.O., S. 15.

17. Vgl. Pamela McCorduck: Machines Who Think. A Personal Inquiry into the History and Prospects of Artificial Intelligence. San Francisco 1979, S. 272.

18. Darauf weist Wolfgang Daiser hin in: Künstliche Intelligenz-Forschung und ihre epistemologischen Grundlagen. Frankfurt a.M. 1984, S. 78-81.

19. Vgl. Thomas von Aquin, Summa Theologiae II. 2. Q. 49, Art. 6; vgl. auch Aristoteles: Nikomachische Ethik 1140b: "So bleibt denn als Ergebnis, daß sie... ein mit richtiger Überlegung verbundenes praktisches Vehalten ist, in bezug auf die Dinge, die für die Menschen gut und schlecht sind." Vgl. G. Hottois: Le signe et la technique (Paris 1984), dazu v.Vf.: Technics, Ethics, and the Question of Phenomenology. XII. Internat. Kongreß für Phänomenologie, Frankfurt 1985 (Analecta Husserliana, Dordrecht: Reidel) swoie: Zur Computerethik. Ethische Fragen zur Informationsgesellschaft. In: H. Lenk, G. Ropohl, Hrsg.: Ethik und Technik. Stuttgart: Reclam 1987.

20. Vgl. Joseph Weizenbaum: Computer Power and Human Reason. San Francisco 1976

21. Vgl. Neil Postman, a.a.O. S. 194-198

22. Für eine umfassende Darstellung des Zusammenhangs zwischen Hermeneutik und Computertechnik (dabe insbesondere der Technik des Information Retrieval) vgl. v.Vf.: Hermeneutik der Fachinformation (Freiburg/München 1986). Dem wertvollen hermeneutischen Ansatz von T. Winograd und F. Flores: Understanding Computers and Cognition (Ablex, New Jersey 1989) werde ich einen besonderen Beitrag widmen.

23. Vgl. Martin Heidegger: Gelassenheit (Pfullingen 1977) S.21. Vgl. ders.: S. 22: "Das besinnliche Denken verlangt von uns, daß wir nicht einseitig an einer Vorstellung hängenbleiben, daß wir nicht eingleisig in einer Vorstellungsrichtung weiterrennen. Das besinnliche Denken verlangt von uns, daß wir uns auf solches einlassen, was in sich dem ersten Anschein nach gar nicht zusammengeht." Vgl. Arno Baruzzi: Mensch und Maschine. Das Denken sub specie machinae. München 1973, S. 199.

24. Vgl. Jean Brun: Biographie de la machine. In: Les Etudes Philosophiques, Janvier-Maras 1985, S. 3-16. Vgl. Pamela McCorduck, a.a.O.S. 3-29.

25. Vgl. Douglas R. Hofstadter: Gödel, Escher, Bach. Ein endloses geflochtenes Band. Stuttgart 1985.

26. Vgl. das Werk des französischen Psychoanalytikers Jacques Lacan. Hierzu, Alain Juranville: Lacan et la philosophie. Paris 1984, 215-221.

27. Vgl. Umberto Eco: Der Name der Rose. München 1983.

28. Vgl. Sherry Turkle: The Second Self. Computers and the Human Spirit. New York 1984 (dt. Die Wunschmaschine, Reinbeck b. Hamburg 1984)

29. Vgl. Stanislaw Lem: Also sprach Golem. Frankfurt a.M. 1984.

30. Vgl. das Interview mit Adelbert Reif: Mit einem kleinen Löffel... vor dem Ozean de Unbekannten. In: Börsenblatt des Deutschen Buchhandels 71 / 4.9.84, S. 1996-2204.

31. Vgl. H.-G. Gadamer: Die Grenze des Titanischen. In: ders.: Kleine Schriften II (Tübingen 1967) S. 106-117, der in Anschluß an Goethe, auf die "Grenzen des Titanischen" in den Erfahrungen der Liebe und des Todes hinweist.

32. Vgl. Emmanuel Levinas: Totalité et Infini. Den Haag 1968.

33. Vgl. Martin Heidegger: Zur Sache des Denkens. Tübingen 1976.

34. Vgl. Friedrich Nietzsche: Nietzsche contra Wagner (Epilog).

 

Letzte Änderung: 10. Januar 2014



 
    

Copyright © 2005 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author.


 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Video/Audio