KÜNSTLICHE INTELLIGENZ UND ROBOTERTECHNOLOGIE

Rafael Capurro
  
 
 
  
Zuerst veröffentlicht in: Mensch - Natur - Gesellschaft  Jg. 3, H. 1 (1986) 45-46.



    

Einleitung

Im Jahre 1947 veröffentliche Alan Turing einen Aufsatz mit dem Titel "Intelligent Machinery", der vielleicht als die Geburtsstunde der Erforschung der Künstlichen Intelligenz betrachtet werden kann. Die Vorstellung, daß Maschinen in der Lage sein können, Tätigkeiten auszuführen, die von Menschen verrichtet werden, hat allerdings eine lange Tradition. Diese reicht bis zur Automatentheorie der Antike zurück. Die Geschichte der modernen Erforschung der Künstlichen Intelligenz ("KI-Forschung") wird gewöhnlich in drei Perioden eingeteilt:

1) 1950-1970: Es ist die Zeit der ersten Programme zur maschinellen Übersetzung. Auch das berühmte und später von seinem Schöpfer J. Weizenbaum scharf kritisierte Frage-Antwort-System ELIZA, das ein nicht-direktives psychoanalytisches Gespräch simulierte, wurde in dieser Zeit entwickelt. Computer lernten Schach spielen und begannen, Muster zu erkennen.

2) Die siebziger Jahre: Neue Formen der Wissensdarstellung und die entsprechenden Suchtechniken werden entwickelt. Terry Winograd erstellt das Programm SHRDLU, das die Interaktion sowohl auf syntaktischer als auch auf semantischer Ebene mit einem Wissensvorrat ermöglicht. Auch Prototypen für das Verstehen von gesprochener Sprache werden entwickelt. Es ist aber vor allem die Zeit, in der die ersten Expertensysteme entstehen. Diese haben als Ziel, Expertenwissen so aufzubereiten, daß bei seiner Abfrage das System das Verhalten eines Fachmanns bei der Lösung eines Problems simuliert. MYCIN war einer der ersten Prototypen im Bereich der medizinischen Diagnose.

3) Seit 1980: Die KI-Forschung beginnt sich zu kommerzialisieren, d.h., vielfältige industrielle Anwendungen werden in Angriff genommen. Die Japaner arbeiten an einer Fünften Computer Generation. Amerikaner und Europäer beschleunigen ihre Forschungsaktivitäten auf diesem Gebiet.

Nach diesem kurzen Überblick über die Geschichte der KI-Forschung soll nun auf den Gegenstand selbst eingegangen werden. Obwohl keine einhellige Meinung über den Forschungsgegenstand der KI-Forschung herrscht, kann dieser als der Versuch angesehen werden, spezifische menschliche Verhaltensweisen, und dabei insbesondere die Intelligenz des Menschen, maschinell nachzuahmen bzw. von einer "intelligenten Maschine", u.U. in noch perfektionierter Form, ausführen zu lassen. Wie man sich leicht vorstellen kann, enthält eine solche Definition zwei Kernbegriffe, die Anlaß zur Kontroverse geben, nämlich "Intelligenz" und "nachahmen". Dabei ist außerdem zu bemerken, daß die KI-Forschung nicht bloß die rein rationalen Fähigkeiten des Menschen, sondern auch die mit ihnen verbundenen leiblichen Funktionen des Wahrnehmens, Empfindens, Erkennens und Handelns "im" Computer bzw. mit seiner Hilfe "nachzuahmen" versucht. Eine zusammenfassende Darstellung über die gegenwärtige Lage der KI-Forschung und ihrer industriellen Anwendung bietet z.B. der amerikanische Report "Artificial Intelligence: A New Tool for Industry and Business. Vol. 1: Technology and Applications, Vol. 2: AI Programs at U.S. Universities" (SEAI Institute, 1984).

KI-Forschung ist ein interdisziplinäres Gebiet, dessen Wurzeln in der Weiterentwicklung der "Rechenmaschinen" liegen. Als Disziplin wuchs sie zunächst mit der von N. Wiener entwickelten Kybernetik zusammen, aber andere Gebiete wie die Psycho- und Soziolinguistik, die Computer-Linguistik, die Neurophysiologie, die Psychologie, die Elektrotechnik und Elektronik und nicht zuletzt auch die Philosophie (insbes. Logik, Erkenntnistheorie und Sprachphilosophie) kamen bald hinzu.

Obwohl Fachklassifikationen ein eher statisches Bild eines Fachgebietes wiedergeben, ohne daß die gegenseitige Verzahnung der einzelnen Gebiete deutlich wird, scheint es im Rahmen dieser kurzen Einführung nützlich zu sein, gewissermaßen als "Über-Blick", darauf hinzuweisen. Ein Beispiel einer solchen KI-Fachklassifikation bietet D.L. Waltz ("Scientific DataLink's Artificial Intelligence. Classification Schema. In: The AI Magazine, Spring 1985, S. 58-63), der folgende zwölf Hauptgebiete nennt:

1. Anwendungen der KI, insbesondere Expertensysteme: in Industrie, Medizin, Wissenschaft und Forschung, Spiele, Büroautomation, militärische Anwendungen, Wirtschaft und Finanzen, Lehre un Ausbildung, Bibliothekswesen, Ingenieurwissenschaften.
2. Automatisches Programmieren: automatische Analyse von Algorithmen, Modifikationen von Programmen.
3. Deduktion und Verifikation von Theoremen: Programmierlogik, mathematische Induktion.
4. Wissensdarstellung: "Frames", Prädikatenlogik, semantische Netzwerke, Abbildungen der physischen Welt, Darstellung der Semantik natürlicher Sprachen.
5. Programmiersprachen und Software: Sprache für Wissensdarstellungen und Expertensysteme.
6. Lernen: Analogien, Begriffslernen, Induktion, Wissenserwerb, "knowledge engineering", Spracherwerb.
7. Verarbeitung von natürlicher Sprache: Sprachgenerierung, Sprachverstehen, Sprachübersetzung, Spracherkennung, Textanalyse, Lexikologie (Thesauri), Entwicklung von "interfaces".
8. Problemlösung, Kontrollmethoden und Suche: Graphen- und Baum-Suchstrategien, heuristische Methoden.
9. Robotik: Manipulatoren, Propeller, Sensoren.
10. Visuelle Wahrnehmung: Modelle, Photometrie, Bewegung, Gestaltwiedergabe.
11. Erkennungsmodelle und psychologische Analyse von Intelligenz: Analyse von Emotionen, Beweisführung, Entscheidungsmodelle, Erinnerungsvermögen, Bewußtseinsmodelle.
12. Soziale und philosophische Aspekte: KI-Paradigmen, Phänomenologie, Kreativität, Hermeneutik, Erkenntnistheorie, Intentionalität, gesellschaftliche Auswirkungen, Geschichte, Forschungsmethodologie.

Wenn man das letzte Gebiet als eine "Meta-Disziplin" versteht, die die KI-Forschung als Ganzes betrifft, dann lassen sich die restlichen elf in drei Kerndisziplinen zusammenfassen, nämlich:

Expertensysteme

Es geht darum, Fachwissen aus einem genau definierten Gebiet so aufzubereiten (in Form einer "Wissensbank"), daß man mit Hilfe der sukzessiven Verknüpfung von Wenn-dann-Beziehungen schrittweise zu einer Problemlösung (bzw. zu einem Prolemlösungsvorschlag) gelangen kann. Neben der Wissensbank gehört auch eine "inference engine", d.h. ein Mechanismus des Schlußfolgerns, dazu. Besondere Schwierigkeiten bereiten dabei die Pflege der Wissensbank sowie die unterschiedlichen Inferenzmechanismen und -strategien. Ferner, da das Expertensystem notwendigerweise in bezug auf seine Wissensvoraussetzungen (hermeneutisch: Vorverständnis) begrenzt ist, so sind auch seine Schlußfolgerungen, je mehr sie die Randzonen betreffen, mit Ungewißtheit bis hin zur abrupten Unwissenheit behaftet. Oder anders ausgedrückt, da die "Fakten" die als Grundlage des Deduktionsprozesses dienen, ihrerseits "dynamischer Natur" sind (im Falle wissenschaftlicher Erkenntnisse haben wir es ja mit hypothetischem Wissen zu tun), können die Lösungen nur einen vorläufigen Charakter haben. Der besondere Vorteil eines Expertensystems besteht aber darin, daß eine große Anzahl von Einzelerkenntnissen als Grundlage einer Schlußfolgerung im Hinblick auf ein bestimmtes Problem zu Rate gezogen werden kann, wozu gewöhnlich nur ein Fachmann (zumindest in einer solchen systematischen Form und in kurzer Zeit) selten (meistens "intuitiv" bzw. aufgrund der langen Erfahrung) in der Lage ist.

Dabei sollten die Zwischenstufen des Folgerungsprozesses jederzeit transparent bleiben bzw. das System muß in der Lage sein, auf besondere Anfrage seine Schlüsse zu "rechtfertigen". Ob solche Systeme in Zukunft "lernfähig" sein werden, d.h. ob sie aufgrund der Eingabe von neuem Wissen ihr bisheriges Vorwissen und die entsprechenden Schlußfolgerungen "automatisch" werden ändern können, ist eine offene Frage.

Entscheidend bei der Entwicklung von Expertensystemen ist die Forschung auf dem Gebiet der Wissensdarstellung (Fachgebiet 4), der Lernprozesse (Fachgebiet 6), sowie der Problemlösungsmethoden (Fachgebiet 8). Die Anwendungen reichen von der medizinischen Diagnose über die industrielle und wirtschaftliche Beratung bis him zum (Aus-)Bildungsbereich. Eine besondere Bedeutung finden Expertensysteme im militärischen Bereich. Wei auch im Falle anderer Technologien sollte hier die philosophische Ethik mit klarem analytischen Verstand die "Sache der Vernunft" in aller Deutlichkeit zur Sprache bringen.


Verarbeitung natürlicher Sprache

Hier geht es darum, den Mensch-Maschine-Dialog von seinen bisherigen Formalisierungen zu lösen, so daß ein "natürlicher" zwischenmenschlicher Dialog "nachgeahmt" werden kann. Das geht bis hin zu Techniken der Spracherkennung und Sprachausgabe. Ähnlich wie das geschriebene Wort muß auch das gesprochene Wort durch eine Zeichencodierung "umgesetzt" werden. Man denke z.B. an einen "Diktierschreiber". Die Schwierigkeiten liegen u.a. in der Forderung sprecherabhängiger Einzelworterkennung. Die Einführung der Schreibmaschine mit Spracheingabe hätte voraussichtlich schwerwiegende Auswirkungen auf den Arbeitsmarkt, weil damit ein großer Teil der konventionellen Sekretariatsarbeit wegfallen würde.

Neben der Schreibmaschine mit Spracheingabe sind weitere künftige Anwendungsgebiete die maschinelle Sprachübersetzung, die Dokumentenanalyse, Kommandoeingaben bei Überwachungssystemen, computergestütztes Lernen/Lehren usw. Im Falle der Dokumentenanalyse geht es z.B. um die automatische Extraktion von (Such-) Deskriptoren (automatisches Indexing), die automatische Herstellung von Kurzfassungen und die automatische Ausgabe von semantischen Netzwerken. Wie im Falle von Expertensystemen muß der Computer in der Lage sein, aufgrund von vorgegebenen Daten (Thesauri, syntaktische und semantische Regeln usw.) die Wissensextraktion und Wissensverarbeitung durchzuführen. Breite soziale Anwendungen (etwa im Dienstleistungsbereich) sind hier denkbar. Die Fachgebiete 6, 7 und 8 gehören zum Kern dieses Bereichs.


Robotik

Hierzu gehört vor allem die Entwicklung auf dem Gebiet der Bildverarbeitung, wodurch z.B. ein Industrie-Roboter in der Lage sein soll, Gegenstände zu sortieren bzw. zu montieren usw. Dem "Roboter-Blick" folgt also ein "Roboter-Griff". Dabei ist sowohl das Erkennen des einzelnen Objekts als auch das des Kontextes von Bedeutung, was z.B. anhand von Musterstrategien erfolgen kann. Dementsprechend spielt das Bildverstehen sowohl in der Robotik als auch in der Verarbeitung natürlicher Sprache (wie Bildverstehen von Graphiken) eine besondere Rolle. Wie auch im Falle des Verstehens von Einzelerkenntnissen kann ein Gegenstand nur im Zusammenhang mit einem bestimmten Koordinatensystem ("frame") "erkannt" bzw. manipuliert werden. M. Minsky hat die Rolle der "frames" eingehend untersucht (vgl. M. Minsky: A Framework for Representing Knowledge. In: J. Haugeland, Ed.: Mind Design. Philosophy, Psychology, Artificial Intelligence. Cambridge: M.I.T. 1981, 95-128).

"Bekannte" Roboter sind z.B. "Freddy" in Edinburgh, der ein hölzernes zerlegtes Spielzeugautomontieren kann, oder "Shakey" am Standorf Research Institute in California, der auf Anweisung Gegenstände von einem Ort zum anderen bringt.

Zur Robotik gehören vor allem die oben erwähnten Fachgebiete 9, 10, und 11.

Es ist hier natürlich sehr naheliegend zu fragen, inwiefern der Begriff der menschlichen "Nachahmung" nicht ins Groteske geraten kann, gerade weil die "Ähnlichkeit" im "Äußeren" auf Anhieb so verblüffend ist. Damit meine ich nicht, daß man gegen die KI-Forschung etwa durch Herausbildung einer (vermeintlichen) "Innerlichkeit" (Seele, Bewußtsein usw.) des Menschen argumentieren sollte. Man kann aber doch die völlig verschiedene Andersartigkeit des menschlichen "Außer-sich-seins" (z.B. durch eine Phänomenologie seines spezifischen "Im-Raume-seins" und "In-der-Zeit-seins") gegenüber den (zumindest bisherigen) maschinellen "Nachahmungen" herausarbeiten. Hiermit wären wir erneut bei den "Meta-Aspekten" (Fachgebiet 13). Es bleibt schließlich zu bemerken, daß die Fachgebiete 2 und 3 (Deduktionssysteme) für die gesamte KI-Forschung sowie für die Computerwissenschaft von Bedeutung sind.

Ich möchte diese kurze Einführung mit einem Zitat von Terry Winograd über die Frage nach den "richtigen Fragen" in der KI-Forschung beschließen. Es lautet:

"Die falschen Fragen sind: "Können Computer intelligent sein?" oder: "Ist dieser spezielle Computer intelligent?". Die richtigen Fragen betreffen das, was wir tun, wenn wir versuchen, ein bestimmtes Gebiet menschlichen Wissens und Könnens in ein formalisiertes System hineinzubringen. Ferner die Frage, wie diese Formalisierung sowohl das, was das System tun kann, als auch die Art und Weise, wie wir unser Leben mit ihm gestalten, bestimmt. Ich habe zusammen mit Fernando Flores soeben ein Buch darüber geschrieben, mit dem Titel "Understanding Computers and Cognition" (Ablex 1985)." (in: D. G. Bobrow, P.J. Hayes: Artificial Intelligence - Where Are We? In: Artificial Intelligence 25 (1985), 275-415).

Fernando Flores war Wirtschafts- und Finanziminister unter Chiles Salvador Allende.

Es erübrigt sich fast zu sagen, daß die KI-Forschung dringend die Ausarbeitung einer eigenen Ethik nötig hat.


letztes Update: 4. November 2019



 
    

Copyright © 2005 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author.
 

 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Interviews