DIE INFORMATIK UND DAS HERMENEUTISCHE FORSCHUNGSPROGRAMM

Anmerkungen zu einem neuen Ansatz

Rafael Capurro
  
 
 
 
Dieser Aufsatz setzt sich mit dem Buch von T. Winograd und F. Flores: Understanding Computers and Cognition. A New Foundation for Design. New Jersey: Ablex 1986, auseinander (dt. Erkenntnis Maschinen Verstehen. Zur Neugestaltung von Computersystemen. Aus dem Amerikanischen von L. Voet. Mit einem Nachwort von Wolfgang Coy. Berlin: Rotbuch Verlag 1989). Zuerst erschienen in: Informatik-Spektrum (1987) 10: 329-333. Vgl.v.Vf.: Informatics and Hermeneutics. In: C. Floyd, H. Züllighoven, R. Budde, R. Keil-Slawik, Hrsg.: Software Development and Reality Construction. Berlin: Springer 1992,  S. 363-375.
Zu Terry Winograd siehe hier.
Zu Fernando Flores siehe hier.


 
 
 

INHALT

Einleitung  
1. Das Infragestellen der 'rationalistischen' Tradition  
2. Zur Kritik der 'künstlichen Intelligenz'  
3. Die hermeneutischen Prämissen des 'Designs'  
4. Ausblick  

Anmerkungen    

 

 
  
  

EINLEITUNG


Die Diskussion um die sozialen und insbesondere ethischen Fragen, die die Informatik auslöst, ist im vollen Gange /1/. Neben der Atom- und Biotechnologie gehört die Informationstechnologie zweifellos zu den totalisierenden Ausformungen moderner Technik, d.h. zu jenen 'Mächten', die eine unmittelbare Auswirkung auf das Leben insgesamt haben. Das ist bei der Informationstechnologie besonders der Fall, da sie durch ihre Kontroll- und Manipulationsmöglichkeiten nicht nur auf das Leben und seine materiellen Grundlagen einwirkt, sondern auch unsere 'geistigen' Handlungen in vielleicht noch nicht absehbarer Weise bestimmt. Damit meine ich zunächst und vor allem das Medium, in dem wir uns entfalten, nämlich die Sprache. Bei einem Rückblick auf die wissenschaftlichen und philosophischen Bemühungen des 20. Jahrhunderts fällt auf, daß die Sprache eines der zentralen Themen ist. Es genügt, auf die Rolle der Begriffsbildung für die moderne Physik, die Entfaltung der sprachanalytischen Philosophie, die Herausbildung der philosophischen Hermeneutik, das Aufblühen der Semiotik und die Informatik selbst hinzuweisen, um uns bewußt zu machen, daß mit der Sprache zugleich wir selbst und die von uns zu verantwortende Gestaltung unserer Welt in Frage stehen.

Wenn also die Informatik von ihrem Bezug zur Sprache her bestimmt werden soll, dann ist es entscheidend, sich über die vielfältigen Dimensionen dieses Phänomens klar zu werden. Indessen scheint die Meinung zu herrschen, daß die Auffassung von Sprache, so wie in der  Informatik verwendet wird, nämlich als eines Instruments zur Repräsentation von Welt sowie ihrer Manipulation und Kommunikation, nicht nur eine mögliche und nützliche Auffassung ist, sondern daß sie auch als die grundlegende zu gelten hat. Das ist aus der Sicht einer Einzelwissenschaft nicht verwunderlich, da sie ihre Grundbegriffe nicht in Frage stellt, zumal wenn sie "Normalwissenschaft" (Th.S. Kuhn) bleibt. Umgekehrt gilt, daß sich ganz neue Horizonte für Forschung und Praxis eröffnen, wenn andere Dimensionen als die instrumentale in den Vordergrund gerückt und diese wiederum der Informatik zugrunde gelegt werden. Das setzt aber voraus, daß man die instrumentale Auffassung von Sprache als eine solche erkennt, d.h. sie auf ihre Grenzen hin untersucht. Ein solches Unternehmen ist nicht einfach, da die Herkunft dieser Auffassung eng mit der Entwicklung der abendländischen Philosophie und Wissenschaft zusammenhängt. Wenn eine Untersuchung dieser Art für die Informatik von Bedeutung sein sollte, müßte sie außerdem sowohl auf die gegenwärtigen Probleme als auch auf die Entwicklungstendenzen dieses Faches eingehen. Mit anderen Worten, es ist nicht leicht, die bestehenden Grundlagen eines Faches in Frage zu stellen, sie durch neue zu ersetzen und daraus die theoretischen und praktischen Konsequenzen für die künftige Arbeit abzuleiten.

Eine solche Leistung liegt jetzt in bezug auf die Informatik in dem Werk von Terry Winograd und Fernando Flores vor /2/. Dieser Ansatz, der hier im einzelnen dargestellt und analysiert werden soll, ist insofern besonders wertvoll, als es sich bei den Autoren um zwei Informatik-'insider' handelt, die die Möglichkeit eines 'Fort-schrittes' in der Notwendigkeit eines 'Rück-schrittes' bzw. einer kritischen Analyse der Grundlagen dieses Faches gesehen und geleistet haben. Terry Winograd, der durch sein um 1970 am MIT entwickeltes KI-Programm SHRDLU bekannt wurde, gehört (neben A. Newell, H. Simon, M. Minsky, J. McCarthy, J. Weizenbaum u.a.) zu den KI-Pionieren. Er forscht am 'Center for the Study of Language and Information' an der Stanford Universität. Fernando Flores war 1970-1973 Wirtschafts- und Finanzminister Chiles unter Salvador Allende und befaßt sich mit der Anwendung der Informatik insbesondere im Bereich des Managements. Es ist also eine erstaunliche Leistung der Autoren, wenn sie versuchen, nicht nur aufeinander zuzugehen, sondern sich Gedankenwelten zu öffnen, die zunächst von keiner unmittelbaren Bedeutung für ihre tägliche Forschung und Praxis zu sein scheinen. Vor allem drei Ansätze aus Philosophie und Biologie wenden sich die Autoren zu, um den notwendigen kritischen Abstand zum herrschenden 'Paradigma' zu gewinnen. Grundlegend scheint mir dabei das Heranziehen der Hermeneutik zu sein, d.h. jener philosophischen Theorie, deren Zentrum Intersubjektivität, Sprache und Verstehen bilden /3/. Die Hermeneutik ist der 'rote Faden' dieses Buches: Auch in den beiden anderen Ansätzen, nämlich in der Biologie Maturanas und Varelas /4/ sowie in Searles Analyse der "Sprechakte" /5/, kehrt eine Grundstruktur wieder, die paradigmatisch in der modernen Hermeneutik thematisiert wurde.

Während also die Autoren im ersten Teil ihrer Studie sich diesem "theoretischen Hintergrund" zuwenden, geht es im zweiten Teil um eine konkrete Revision einiger Kernbegriffe der Informatik sowie der KI-Forschung und -Anwendung, wie 'Repräsentation', 'Intelligenz', 'Sprachverstehen' und 'Denken'. Besonders wertvoll aber ist der dritte Teil, in dem das "Design", d.h. der Rahmen für eine sinnvolle Anwendung des Computers vor allem im Management-Bereich behandelt wird. Das, was also zunächst als 'reine' geisteswissenschaftliche Disziplin entstand, verwandelt sich in so etwas wie ein 'Forschungsprogramm' der Informatik, dessen erste Schritte mit dieser Studie gewagt werden /6/. Unsere Analyse folgt dem von den Autoren gekennzeichneten Weg.

  

1. DAS INFRAGESTELLEN DER 'RATIONALISTISCHEN' TRADITION


Was ist 'Tradition'? Der Begriff ist nicht leicht zu definieren, zumal wenn man ihn auf unterschiedliche Bedeutungsfelder (Kunst, Politik, Familie, Kultur usw.) bezieht. Eine gemeinsame Wurzel läßt sich dennoch erkennen, nämlich eine Art 'atmosphärischer' bzw. 'diffuser' Hintergrund, der bestimmte typische Eigenschaften aufweist, sich aber weder in seiner genauen Herkunft (oder in seinen 'Ursachen') noch in konkreten einzelnen Gestalten erfassen läßt. Von dieser Art sind auch 'wissenschaftliche Traditionen', aus denen Theorien, Termini, Fragestellungen, Ziele usw. emporwachsen.

Die Informatik, so die Autoren, ist aus der 'rationalistischen' Tradition entstanden. Den Kern dieser Tradition bildet die Vorstellung von der Sprache als einem System von Symbolen, die in einer bestimmten Struktur die 'Weltdinge' vertreten. Die 'Korrespondez' zwischen dem sprachlich Symbolisierten (oder den 'Inhalten der Aussagen') und den Dingen selbst (oder den 'denotierten Sachverhalten') nennt man (!) Wahrheit. In einer 'Korrespondenztheorie der Wahrheit' sollen die Wortbedeutungen möglichst 'kontextfrei' erfaßt werden. Das 'Organ' zur Erfassung von Wahrheit sowie zur 'Speicherung' und 'Verarbeitung' von Symbolen ist der menschliche 'Geist' bzw. seine Substitute. Die Tätigkeit des 'Geistes' besteht in der Sammlung und Verarbeitung von 'Ideen' oder 'Informationen' sowie in der Auswahl zwischen Alternativen, was man (!) auch 'rationales Verhalten' nennt. Dieses schließt die Bewertung der Folgen (die 'Kritik' also) ein, da man nicht alle Alternativen und deren Folgen im voraus kennen kann. Man sieht, daß eine solche Beschreibung einer Tradition leicht karikierende Züge annimmt, wenngleich sie punktuell auf bestimmte 'Urheber' hinweist. Aus einer solchen Tradition wuchs die Vorstellung von im Computer nachzubildenden 'Problemlösungsstrategien' und mit ihr auch die KI-Forschung sowie die 'cognitive science'.

Die Gefahr von Traditionen besteht aber nicht darin, daß sie sich als 'falsch' oder 'nutzlos' erweisen können, sondern daß sie, eben aufgrund ihres 'diffusen' Charakters, ihre Grenzen nicht zu erkennen geben. Sie können sich also gewissermaßen 'verfestigen' bzw. sich gegen andere 'Einflüsse' 'immunisieren' und unangefochten bleiben.

Das Infragestellen einer Tradition, in diesem Falle der 'rationalistischen', bedeutet also nicht, daß man das Gegenteil behaupten will, etwa das 'Irrationale', sondern daß man versucht, die 'Phänomene' unter anderen Voraussetzungen sehen zu lassen. So soll auch, vor dem Hintergrund einer anderen Tradition, eine "neue Grundlage für Rationalität" entwickelt werden, "und zwar eine, die so streng ist wie die rationalistische Tradition in ihren Zielen, die aber ihre Voraussetzungen nicht teilt" (/2/ S. 8).

Die Atmosphäre dieser anderen Tradition versuchen Winograd und Flores, im Anschluß an die philosophische Hermeneutik, die moderne Biologie und die Linguistik zu erarbeiten.

Die philosophische Hermeneutik /3/ geht aus von der Analyse des Prozesses der Textinterpretation im Sinne einer Wechselwirkung zwischen dem Text zugrundeliegenden 'Horizont' (seine unthematisch bleibende Herkunft oder 'Tradition') und dem 'Horizont' des Interpreten. Von hier aus wird dieses 'Modell' auf die Analyse der menschlichen Existenz (unsere 'Seinsweise') ausgeweitet, d.h. der Mensch wird als ein 'Wesen' verstanden, das sich in einem gewissermaßen 'unentrinnbaren' interpretatorischen Interaktionsprozeß 'in der Welt' vorfindet. Dabei bildet die Sprache zugleich das jeweilige 'Vorverständnis' für das Weltverständnis, d.h. sie ist uns 'vor-gegeben' und wir befinden uns deshalb in einem Spannungsverhältnis (oder in einem 'hermeneutischen Zirkel'): Wir können (und sollen!) zwar unsere 'Vor-urteile' in Frage stellen, aber wiederum nur vor dem Hintergrund unthematisch bleibender Bedingungen. Eine Sonderform dieser Struktur bildet z.B. die wissenschaftliche Forschung.

Während also für die 'rationalistische Tradition' die Welt als eine Sammlung von 'objektiven' (bzw. interpretationsunabhängigen) 'Fakten' gilt, hebt die Hermeneutik die Untrennbarkeit des Verhältnisses 'Interpret-Sache-Interpretation' hervor. Wir können also, wie die Autoren im Hinblick auf die Informatik betonen, unsere 'Vorverständnisse' nie vollständig thematisieren. Ferner geht die Hermeneutik davon aus, daß wir uns in einer (Lebens-)Situation befinden, in die wir gewissermaßen 'hingeworfen' wurden. Diese "Geworfenheit" (Heidegger) zwingt uns zunächst zum Handeln, d.h. zum 'praktischen Umgang mit den Dingen als den "Zuhandenen", die wir in einem 'zweiten Schritt' 'theoretisch (als "Vorhandene") betrachten. Das bedeutet, daß wir mit den Dingen selbst primär umgehen und nicht etwa mit ihren Repräsentationen (oder ihren 'mentalen Abbildungen').

Schließlich ist dieser Umgang mit den Dingen ein Prozeß sozialer Bedeutungserzeugung. "Geworfen" sind wir also nicht nur durch unsere Geburt, sondern auch in jeder Situation, die uns 'unmittelbar' zum Handeln 'zwingt', ohne daß wir uns vorher über die genauen Folgen im klaren sein können. Diese Situationen bilden, wie die Autoren betonen, den Alltag eines Managers. Von hier aus gesehen ist die Sprache nicht etwa ein 'Instrument' zur Bezeichnung von 'Fakten', sondern Teil eines Handlungsprozesses. Hier knüpfen Winograd und Flores an die "Sprechakttheorie" Searles /5/ an, der die Kontextabhängigkeit von "Sprechakten" (etwa 'anweisen', 'anvertrauen', 'ausdrücken', 'erklären' usw.) analysiert. In solchen 'illokutionären' Sprechakten verwirklicht der Sprecher bestimmte Bezüge zu einem offenen Feld von Möglichkeiten (zur 'Welt' also). Dies geschieht immer vor der Möglichkeit eines Mißverstehens bzw. einer 'Panne' (oder 'breakdown').

Die Analyse und Vorhersehbarkeit von 'Pannen' spielt nach Meinung der Autoren gerade beim Entwurf von Computersystemen eine entscheidende Rolle, die im dritten Teil ("Design") ihres Buches erörtert wird. Bei einer solchen 'Panne' schlägt das ursprünglich praktische Verhalten zu den Dingen in ein 'theoretisches' um.

Bei 'Sprechakten' kommt es auf die Konsistenz mit dem jeweiligen Handlungszusammenhang an. Die Vorstellung einer "idealen Kommunikationsgemeinschaft" (Habermas) ist für die Autoren illusorisch. ... Die Formalisierung von Sprachregelmäßigkeiten, die Grundlage der Computerprogrammierung, soll also nicht geleugnet werden. Entscheidend ist aber die Auffassung, daß solche Regelmäßigkeiten aus den gemeinsam zu verantwortenden Handlungen der Sprechenden entstehen. Sie verbinden also nicht ein 'Subjekt' mit einer 'Außenwelt'. Die Logik der Sprechakte ist nicht durch eine innere Struktur prädeterminiert, sondern sie folgt den 'Regeln' eines 'Spiels' (Wittgenstein), die nicht bloß formaler, sondern auch existentieller und sozialer Natur sind. Sprechakte sind zu verantwortende Handlungen ("commitment"). Was auf der menschlichen Ebene sich wie ein freies Spiel zeigt, d.h. das interaktive Verhältnis zwischen Erkenntnis und Erkanntem, läßt sich 'mutatis mutandis' für den gesamten Bereich "autopoietischer Systeme", wie die Biologen Maturana und Varela es nennen /4/, anwenden.

Der "naive Glaube", daß sich durch Wahrnehmung, durch eine entsprechende "Eingabe", eine "objektive Vorstellung" der Umwelt bildet, wird im "interaktiven Modell" in Frage gestellt. "Autopoiesis", so der Kernbegriff dieser Theorie, bedeutet, daß ein Netzwerk von Produktions-, Transformations- und Vernichtungsprozesses eines Organismus durch Wechselwirkungen und Umwandlungen seiner Bestandteile sowohl sich als auch das "topologische Gebiet" seiner Verwirklichung durch eine "strukturelle Verbindung" ("structural coupling") bestimmt. Mit anderen Worten, der sog. 'Lernprozeß' besteht nicht in einer Akkumulation von Vorstellungen über die Umwelt, etwa in der Form von 'Wiedergaben' von 'Fakten', sondern eben in einem "schöpferischen" Prozeß.

Die Aussage "Ein Tier erkennt X" bezieht sich also nicht, wie der Physikalismus fälschlicherweise annimmt, auf die Zustandsbeschreibung eines Systems, sondern ist eine Handlungsstruktur. Beim Menschen liegt die Funktion der Sprache nicht primär in der Denotation von 'Fakten', um sie etwa als 'Information' zu übertragen, sondern Sprache ist 'konnotativ', d.h. sie schafft ein gemeinsames Orientierungsfeld (hermeneutisch: ein 'Vorverständnis') für die interagierenden Systeme. Biologische Systeme sind, nach Maturana, zwar 'mechanistisch', aber nicht 'vorprogrammiert'. Der Versuch, Computersysteme Aktionen durchführen zu lassen, die nicht vorprogrammiert sind, ist insofern einseitig, als keine vollständige Beschreibung von Zielen und Operation jemals einschränken kann, was getan werden kann und wird. Nicht die angebliche Vollständigkeit des Modells ist also entscheidend, sondern die Richtung der Grundstruktur des Feldes, in dem die Umwandlung stattfindet.  

Zusammenfassend und auf die Informatik bezogen lassen sich folgende Schlußfolgerungen ziehen:

1. Es ist ein Unterschied, ob wir Computer entwerfen, die einen scheinbar isolierbaren Intellekt unterstützen sollen, oder ob wir uns fragen, welche Rolle sie in den von uns zu verantwortenden Lebenshandlungen spielen sollen.

2. Die Frage nach den potentiellen Computer-'breakdowns' ist von zentraler Bedeutung beim Design von 'benutzerfreundlichen' Systemen.

3. Aus einem 'hermeneutischen' Verständnis von Erkenntnis und Handlung ergeben sich weitreichende Konsequenzen für das Design von Computerprogrammen.

Diese Schlußfolgerungen bilden die Grundlage für den zweiten Teil dieser Arbeit.  

 

2. ZUR KRITIK DER 'KÜNSTLICHEN INTELLIGENZ'

 
"Computerisierung, Denken und Sprache", so lautet der Titel des zweiten Teiles, in dem sich die Autoren kritisch mit einigen Grundbegriffen der Informatik sowie der KI-Forschung auseinandersetzen.

Dazu zählt zunächst der Begriff 'Programm'. Computerprogramme sind Repräsentationen, d.h. ein Programm ist immer ein "Programm über etwas". Es hat ein 'Fachgebiet', dessen Elemente und Zusammenhänge im Speicher wiedergegeben werden sollen. Dementsprechend hängt die Leistung eines Programms sowohl von der richtigen Wiedergabe als auch von der Effizienz der durchgeführten Operationen ab.

Entscheidend bleibt dabei, daß die Repräsentationen immer die des Programmierers sind, d.h. sie sollen nicht etwas 'für sich' repräsentieren. Das gilt für die unterschiedlichen Ebenen, von der Hard- bis zur Software. Die jeweilige 'höhere' Ebene nennen die Autoren ein 'Fachgebiet' ('subject domain'). Wegen der Interaktion zwischen den Ebenen sind 'Pannen' bzw. 'Mißverständnisse' möglich, die dazu führen können, daß die Programme vom Programmierer nicht intendierte Operationen erzeugen. Wir hätten hier also eine Analogie zu der von Maturana angesprochene 'Autopoiese'.
Inwiefern trifft auch die bereits realisierten bzw. angestrebten Leistungen des Computers die Bezeichnung 'künstliche Intelligenz' zu? Die Autoren weisen zunächst darauf hin, daß zwischen einem Computer und einer Uhr zwar Differenzen bestehen (Autonomie, Komplexität der Zwecke, Plastizität), daß es sich aber um Unterschiede gradueller (und nicht prinzipieller) Art handelt.

Dagegen scheint die Vorstellung von 'Intelligenz' im Sinne eines rationalen Problemlösungsprozesses kaum etwas Gemeinsames zu haben mit den 'existentiellen' Zusammenhängen menschlicher Intelligenz, zum Beispiel mit dem 'umreflektierten' Umgang mit 'Zuhandenem' sowie mit dem Eingebettetsein in eine Situation ('Geworfenheit'). Daraus ergeben sich zwei Konsequenzen:

1. Indem wir etwas thematisieren, lassen wir notwendigerweise andere Möglichkeiten außer acht. Intelligentes Verhalten setzt, mit anderen Worten, eine 'permanente Blindheit' voraus. Es ist also nicht möglich, Programme zu schreiben, die dieser Voraussetzung entgehen können. Oder, umgekehrt gesagt, ein Programm schreibt die 'Blindheit' fest, solange es nicht 'lernfähig' ist.

2. Die 'höchste Stufe' menschlichen Expertentums besteht in der Möglichkeit, auch 'richtig' zu handeln, wenn keine wohldefinierten Probleme vorgegeben sind /7/. Die Formalisierung einer Situation, aufgrund ihres reduktionistischen Charakters, lediglich eine Hilfe im Entscheidungsprozeß. Wenngleich bestimmte Programmierarten (etwa die 'Parameteranpassung' oder die 'kombinatorische Begriffsbildung') eine gewisse 'Lernfähigkeit' des Systems leisten, sind sie nicht in der Lage, ihre eigenen Annahmen zu transzendieren. Ob dies etwa im Sinne der "strukturellen Kopplung" (Maturana) des Systems mit einer "Umwelt" möglich sein wird, ist eine noch ungelöste Frage der KI-Forschung. 'Computerintelligenz' bleibt also auf absehbare Zeit im Rahmen des vom Menschen zu verantwortenden Handlungsbereiches. Eine Betrachtung des Computers 'als ob' er 'rational' bzw. 'intelligent' wäre, ist also wissenschaftlich sinnvoll, solange dabei keine mitzuverantwortende Teilnahme am menschlichen Diskurs gemeint ist.

Wenn bei KI-Programmen von 'Sprachverstehen' die Rede ist, dann im Sinne einer 'Korrespondenz' (oder 'Adäquation') zwischen der Repräsentation und dem 'denotierten' Gegenstand. Die Grundannahme ist dabei, daß die Bedeutung sprachlicher Ausdrücke unabhängig von der jeweiligen Situation bzw. von der jeweiligen Interpretation festgelegt werden kann. Dieser Weg führt aber, wie die Hermeneutik zeigt, in eine Sackgasse.

In den 70er Jahren entstand innerhalb der KI ein neuer Ansatz: Mi Begriffen wie 'frames' (Minsky) oder 'schemas' (Bobrow und Winograd) wurde eine Annäherung an nicht streng logische Verstehensvorgänge gesucht. Solche 'Rahmen' sollten also die Rolle eines 'hermeneutischen Vorverständnisses' spielen. Dadurch sollte das System in der Lage sein, 'nicht-monoton' bzw. anhand von partieller Evidenz zu schließen. Dabei muß aber das System wissen, welche Aspekte einem 'typischen' Fall genügen. Maturanas Intuition liefert hierzu wertvolle Hilfe: Wenn das System eingeschränkte Ressourcen hat, dann sollte sich die Regeln auf die Wechselwirkung des Systems mit der Verrichtung von Aktionen beziehen. Die dabei entstandenen 'Expertensystemen' haben aber dieses Ziel nicht erreichen können.

Die 'Blindheit' ihres 'Verstehens' ist so evident, daß man diesen Begriff nur gebrauchen kann, wenn man sich (erneut) darüber klar wird, daß hiermit kein verantwortungsvolles Handeln impliziert ist. Und dennoch wäre es m.E. verhängnisvoll zu glauben, daß diese Technik (so wie die Technik überhaupt) 'neutral' ist. Solange wir sie unter dem Gesichtspunkt ihrer verantwortbaren Nutzung betrachten, solange ist sie ethisch nicht neutral. Es ist gerade dieser 'Gesichtspunkt', den die Autoren bei ihrer Analyse der gegenwärtigen Entwicklungen im KI-Bereich (Robotik, Interaktion in natürlicher Sprache, Erkenntnismodellierung, Expertensysteme, fünfte Computergeneration) immer wieder betonen:  Die Anthropomorphisierung der Computerleistungen führt nicht nur zu einem 'unrealistischen Optimismus', sondern verursachte u.U. eine Nivellierung der Abstufungen bis hin zu menschlichem Verstehen. In Wahrheit soll es aber, nach den Autoren, darum gehen, auf Nutzen und Gefahren etwa im sozialen Bereich aufmerksam zu machen. Diese Bescheidenheit kann entstehen, wenn die Prämissen der 'rationalistischen Tradition' in Frage gestellt werden.

 

3. DIE HERMENEUTISCHEN PRÄMISSEN DES 'DESIGNS'


Im dritten Teil des Buches geht es um das 'Design', nicht in der engeren Bedeutung des Aussehens etwa eines Gerätes, sondern im Sinne der Einbettung von Computersystemen in menschliche Handlungszusammenhänge. Als Beispiel eines solches Zusammenhangs wird die Arbeit im Büro und insbesondere das 'Management' analysiert. Für die Autoren geht es dabei nicht um Fragen des 'business', sondern der Durchführung von Handlungen, die die ökonomischen, politischen und physischen Bedingungen der Arbeit anderer beeinflussen. Es geht also nicht um Textverarbeitung bei der 'Büroautomation', sondern um das Verstehen der 'Sprechakte' der Manager, sofern diese ein Netzwerk von Gesprächen zu Handlungszwecken führen. 

Dabei kritisieren die Autoren die 'rationalistische' Auffassung des 'decision making' im Sinne einer Suche zwischen Alternativen, wobei also die Einbettung menschlicher Rationalität in Phänomene wie Zweifel, Autorität, Regeln, Intuition, Lernen usw. außer acht bleibt. Ein solches (Miß-) Verständnis läßt ferner sowohl den Charakter der 'Geworfenheit' (also des 'Handelns-Müssens') wie auch die sich immer entziehende Objektivierbarkeit des Vorverständnisses unberücksichtigt. Alternativen müssen aber, wenn wir sie bewerten wollen, vor dem Hintergrund ihrer Entstehung verstanden werden. Dieser 'Horizont' macht die charakteristische 'Unschärfe' einer Entscheidung aus, zu deren Bestimmung die 'Sprechhandlung' beitragen soll. Die Frage, die sich der Manager in einer solchen ungewissen Situation ('situation of irresolution') stellt, ist nicht erkenntnistheoretischer, sondern pragmatischer Natur: "Was muß getan werden, um..." Sie entsteht aus einer 'Pannensituation', deren 'Lösung' sich nicht nur aus vorgegebenen Alternativen, sondern (nicht selten) aus der 'Sprengung' dieser Alternativen (etwa durch neue Handlungsziele) in einem 'Beratungsprozeß' ergibt, der dann zu einem 'Entschluß' führt. Dies bedeutet wiederum nicht das 'Ende' des Problems, sondern eine vorläufige Klärung einer ungewissen Situation.

Vor diesem Hintergrund fragen die Autoren nach der Nutzung von Computersystemen zur Entscheidungsunterstützung vor allem in Organisationen, die als ein Netzwerk von Verpflichtungen aufzufassen sind. Das Vorbereitetsein auf bestimmte 'Pannensituationen' bringt u.U. die Gefahr der Routine bzw. des 'Vorurteils' mit sich. Ein Mechanismus, der sich in die Verfestigung von Blindheit verwandeln kann. Dagegen hilft die hermeneutische Vorstellung eines 'Dauergesprächs'. In diesem Zustand beruhen die Entschlüsse des Managers auf seinem Zuhörenkönnen. Die Kernfrage lautet: "Was ist in dieser Situation möglich?" bzw. "Welche Handlungsmöglichkeiten öffnen sich aufgrund eines Engagements?"

Die Haltung gegenüber der Vergangenheit ist dabei entscheidend: Nur wer einen bestimmenden Horizont als einen solchen erkennt, kann auch auf einen 'neuen' hinweisen. Computersysteme können dabei den 'status quo' einer Organisation bestärken, eine ihnen nicht zugedachte Macht erreichen, wodurch Eigenschaften wie Diskretion und Innovation in den Hintergrund treten, das Verhalten der Mitarbeiter negativ beeinflussen, zur Verschleierung von Verantwortlichkeiten führen usw. Mit einem Wort, das 'Design' von Computersystemen kann unter Ausschaltung der Verantwortungsdimension stattfinden. Ihr Einsatz ist also nicht 'gleich-gültig' bzw. 'neutral'.

Wenn aber diese Dimension 'bewußt' berücksichtigt wird, dann können Computersysteme zu 'Gesprächswerkzeugen' ('tools for conversation') werden. Sie können also dazu eingesetzt werden, um etwa Verpflichtungen zu koordinieren oder zu überwachen, indem sie auf die Frage: "Welches ist der Stand meiner gegenwärtigen Verpflichtungen?" Antwort geben. Für das Design solcher Systeme liefert die Taxonomie der 'Sprechakte' eine wertvolle Hilfe. Ein solches System, das von Flores prototypisch entwickelt wurde /8/, besteht aus wenigen Operationen, deren Ziel die Gesprächskoordination ist. Diese Operationen sind:

  • Generierung eines Sprechakts,
  • Abschlußüberwachung,
  • Beachtung der zeitlichen Zusammenhänge,
  • Analyse des Netzwerkes,
  • automatisierte Anwendung von Wiederholungen,
  • inhaltliche Wiederholungen.
Natürlich kann auch ein solches System nicht mit den offenen Dimensionen eines zwischenmenschlichen Gesprächs verglichen werden. Es ist lediglich ein Teil im Verstehensprozeß innerhalb einer Organisation. Eine entsprechende 'hermeneutische' Ausbildung der Mitarbeiter, d.h. die Vermittlung der jeweiligen Kompetenzen und Verpflichtungen, gehört zur Grundlage eines 'erfolgreichen' Managements.

Wenn also mit 'Design' nicht nur eine Methodologie zur Gestaltung von Geräten, sondern eine 'ontologische' Dimension, d.h. die Einbettung des Computers in die Strukturen unsers 'In-der-Welt-seins' gemeint ist, dann könnten sich neue Möglichkeiten für technische Entwicklungen ergeben, bzw. es kann ein produktiver oder 'hermeneutischer Zirkel' zustande kommen. Mit 'Design' ist also die Frage angesprochen, was es heißt, Mensch zu sein. Dieser Ansatz gewinnt damit paradigmatische Bedeutung und kann auf die Technik insgesamt ausgeweitet werden. Im Hinblick auf die Dimension der 'Zuhandenheit' gewinnt die 'Benutzerfreundlichkeit' einen neuen Charakter: Entscheidend ist die 'Transparenz' und 'Einfachheit'. Eine Analyse des Einsatzbereiches eines Computersystems muß mit der Analyse der möglichen 'Pannensituationen' beginnen. Nicht die Illusion einer vollständigen Aufgeklärtheit sollte angestrebt werden, sondern der Designer sollte in hohem Maße das Bewußtsein für die Blindheit des Systems entwickeln und vermitteln.

 

4. AUSBLICK


Indem wir also Technik entwerfen, so das Fazit dieser Studie, bestimmen wir nicht nur, was wir tun, sondern auch wer wir sind. In der Informatik verbindet sich unsere Verantwortung für das, was wir denken, mit der Verantwortung für das, was wir tun. Diese Schrift, die sich diesem Anspruch stellen will, sollte m.E. in zweifacher Hinsicht als programmatisch verstanden werden: Sie legt die Basis für eine veränderte Auffassung der Grundbegriffe dieses Fachgebietes. Dabei bleibt aber Vieles von dem, was ich das 'hermeneutische Forschungsprogramm' genannt habe, unausgesprochen. Diese 'Blindheit' gehört, wie die Autoren des Öfteren betonen, zu jeder Thematisierung. Es bleibt deshalb hier ein weites Feld für gegenseitige Befruchtung zwischen Hermeneutik und Informatik.

Vielleicht könnte eine solche Befruchtung helfen, die oft beklagte Kluft zwischen den "zwei Kulturen" (C.P. Snow) zu überbrücken. Auf beiden Seiten müßten aber zuvor Barrieren des Mißtrauens und der Mißachtung abgebaut werden. Mir scheint, daß mancher KI-Forscher für ein solches Experiment bereitwilliger ist als einige 'etablierte' Philosophieprofessoren. Innerhalb der Philosophie gibt es aber seit einigen Jahren eine fruchtbare Diskussion um den Rationalitätsbegriff, die die festgefahrenen Bahnen eines engen (bzw. engstirnigen) Rationalismus in Bewegung bringen könnte /9/. Wichtig scheint mir also die Richtung, auf die die Autoren hinweisen.

Einer Wissenschaft zur Krise ihrer Begriffe zu verhelfen (!), ist stets eine sich 'lohnende' Aufgabe, die durch entsprechende Weiterführung honoriert werden sollte. Hier scheint das ethische Potential der Hermeneutik noch nicht ausgeschöpft zu sein. Aber auch die methodologischen, anthropologischen und ontologischen Einsichten über Sprache und Gespräch, Frage und Antwort, Tradition und Kritik, Kultur und Universalität bedürfen einer vertiefenden Analyse und Anwendung aus der Perspektive der Informatik. In einer zweiten Hinsicht scheint mir diese Studie ebenfalls programmatisch. Sie weist nämlich auf eine umfassende Richtungsänderung für das 'Design' hin, ohne aber auf die einzelnen unterschiedlichen Anwendungsgebiete einzugehen bzw. ohne konkrete 'technische Details' zu analysieren. Mit anderen Worten, wir brauchen 'Fallstudien'.

Vielleicht ist die Zusammenkunft von Hermeneutik und Informatik eine für beide Seiten 'heilsame' Entwicklung, in bezug auf die 'Krankheit' nämlich, die der Mensch des ausgehenden 20. Jahrhunderts zumindest in sogenannten 'hochentwickelten' Gesellschaften in sich trägt. 


Anmerkungen

1. Vgl. die Aufsätze von Parnas, D.L., Hofmann, H.W., Bläsius, K.H., Siekmann, J.H.: Info.-Spektrum 10 (1987); Floyd, Ch.: Wo sind die Grenzen des verantwortbaren Computereinsatzes? Info.-Spektrum 8, 3-6 (1985); Yazdani, M., Narayanan, A. (eds.): Artificial Intelligence: Human Effects. Chichester: Horwood 1985; Gill, K.S. (Ed.): Artificial Intelligence for Society. London: Wiley 1986; Capurro, R.: Zur Computerethik. Ethische Fragen zur Informationsgesellschaft, in: Lenk, H., Ropohl, G. (Hrsg.): Technik und Ethik, S. 259-273. Stuttgart: Reclam 1987.

2. Winograd, T., Flores, F.: Understanding Computers and Cognition. A New Foundation for Design. New Jersey: Ablex 1986. Vgl. auch die Besprechungen von Vellino, A., Stefik, M.J., Bobrwo, D.G., Suchman, L.A., Clancey, W.J. sowie die Replik der Autoren in: Artif. Intell. 31, 213-261 (1987).

3. Gadamer, H.-G.: Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen: Mohr 1975; Gadamer, H.-G., Boehm, G. (Hrsg.): Seminar: Die Hermeneutik und die Wissenschaften. Frankfurt: Suhrkamp 1978; Capurro, R.: Hermeneutik der Fachinformation. Freiburg-München: Alber 1986.

4. Maturana, H.R., Varela, F.J.: Autopoiesis and Cognition. The Realization of the Living. London: Reidel 1980; Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens. München: Scherz 1987; Stent, G.S.: Programmatic Phenomena, Hermeneutics and Complex Networks, in: Steinberg, Ch.M., Lefkovits, I. (eds.): The Immune System. Festschrift in Honor of Niels Kaj Jerne, S. 6-13 (Basel: Karger 1981); Tsuda, I.: A Hermeneutic Process of the Brain. Progr. Theor. Phys. Suppl. 79, 241-259 (1984).

5. Searle, J.R.: Speech Acts. Cambridge 1969, dt. Sprechakte, Frankfurt 1971; Eley, L.: Sprache als Sprechakt, in: Simon, J. (Hrsg.): Aspekte und Probleme der Sprachphilosophie, S. 137-189, Braunschweig 1974.  

6. Zum Begriff des 'Forschungsprogramms' in der Wissenschaftstheorie vgl. Lakatos, I.: Falsifikation und die Methodologie wissenschaftlicher Forschungsprogramme, in: Lakatos, I., Musgrave, A. (Hrsg.): Kritik und Erkenntnisfortschritt, S. 89-189, Braunschweig 1974.

7. Dreyfus, H.L., Dreyfus, S.E.: Künstliche Intelligenz. Von den Grenzen der Denkmaschine und dem Wert der Intuition. Reinbek bei Hamburg: Rowohlt 1987.

8. Flores, F.: Management and communication in the office of the future. San Francisco: Hermenet 1982.

9. Poser, H. (Hrsg.): Wandel des Vernunftbegriffs. Freiburg-München: Alber 1981.


Letzte Änderung: 14. Juli  2017
 
 

 
    

Copyright © 2000 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author.  
 

 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Interviews