ZUR COMPUTERETHIK

Ethische Fragen der Informationsgesellschaft

Rafael Capurro

  

  
Zuerst veröffentlicht in: Hans Lenk, Günter Ropohl Hrsg.: Technik und Ethik. Stuttgart: Reclam 1987, S. 259-274.


   
    

EINLEITUNG

Ethik hat im Grunde ebensowenig mit einer weltverneinenden und lebensfeindlichen Moral zu tun wie mit einem falschen, weit überzogenen Anthropozentrismus. Die ethische Frage weist stets auf eine ‚Lücke’ hin, die nicht mit Idolen und auch nicht mit neuen (oder alten) Idealen zu füllen ist. Diese ‚Lücke’ ergibt sich zwangsläufig aufgrund der bleibenden Unvollkommenheit unseres Wissens über uns und die Welt, und das heißt auch: über die durch unser Tun sich öffnenden Möglichkeiten. In einer solchen Situation die ethische Frage zu stellen, und man muß sie stellen wollen, da sie von selbst nicht ‚automatisch’ kommt, bedeutet den Versuch, den Mut zur Verantwortung zu wecken, der dem gleicht, sich ohne Geländer auf einem unsicheren Boden zu bewegen. Die entsprechende ethische Grundhaltung ist die einer vorsichtigen Gelassenheit.

Wenn wir deshalb die ethische Frage in Zusammenhang mit der Anwendung bzw. Nutzung des Computers in der Gesellschaft stellen, dann in dem Bewusstsein, dass durch diese Anwendung eine stille Revolution vor sich geht, deren Tragweite wir eben nicht ganz ermessen, geschweige denn beherrschen können und die wir, etwas unbeholfen, mit dem schillernden Ausdruck ‚Informationsgesellschaft’ zu kennzeichnen pflegen (1). Heute ist vielfach von der „Moderne“ und ihrer „Überwindung“, der „Postmoderne“, die Rede (2). Wenn wir die industrielle Revolution als ein Kennzeichen der Moderne verstehen, dann stellt sich die Frage, inwiefern die „Informationsgesellschaft“ uns einen Schritt weiter jenseits der Moderne bringen kann. Als Leitfaden der folgenden Erörterungen zu einer „Computerethik“ (3) möchte ich folgende von Joseph Weizenbaum in seinem Beitrag „Once More: The Computer Revolution“ (4) gestellten Fragen aufgreifen:

(1) „Wer ist der Nutznießer unseres vielpropagierten technischen Fortschritts, und wer sind dessen Opfer?“ Diese Frage möchte ich an dritter Stelle unter der Überschrift „Computer und Macht“ behandeln.

(2) „Welche Grenzen sollten wir, die Menschen im allgemeinen und die Wissenschaftler und Ingenieure im besonderen, der Anwendung von Computern auf menschliche Angelegenheiten auferlegen?“ Hierzu werde ich auf die Themen „Privatheit und Öffentlichkeit“ eingehen.

(3) „Was ist die Auswirkung des Computers […] auf das Selbstbild menschlicher Wesen und auf die menschliche Würde?“ Mit dieser Frage möchte ich beginnen.

 

COMPUTER UND VERANTWORTUNG

Die Harvard-Soziologin Sherry Turkle hat die Frage untersucht, wie der Umgang mit dem Computer auf Menschen wirkt (5). Ihre Frage ist nicht die, was der Computer ist, nämlich eine „analytical engine“, sondern die nach seiner „zweiten Natur“, d.h., ob der Computer als unser widergespiegeltes Selbst wirkt, als ein „beschwörendes Objekt“ („evocative object“), das unsere Hoffnungen und Ängste hervorruft. So kann man feststellen, dass kleinere Kinder die ‚metaphysische’ Frage stellen, ob der Computer lebt, denkt und fühlt. Im Alter von sieben Jahren sind die Kinder damit beschäftigt, die Maschine zu beherrschen. In der Adoleszenz wird der Computer dagegen geradezu als ein Medium zur Selbstreflexion angesehen. Bei Kindern und Erwachsenen gleichermaßen bedeutet der Computer einen Partner, der der Komplexität und Gemeinsamkeit zwischenmenschlicher Beziehungen ermangelt und der somit dazu verführen kann, sich in einer Scheinwelt zu verschließen.

Für Forscher über Künstliche Intelligenz (KI) stellt der Computer ein Instrument zur Analyse des menschlichen Geistes dar. Den Computersüchtigen, den „Hacker“, interessiert weniger ein solches Forschungsziel als vielmehr die pragmatische Frage, was man alles mit dem Computer machen kann. Für Nutzer von Personal-Computern schließlich ist die Frage wichtig, inwiefern die Maschine ihre individuellen Kontrollmöglichkeiten steigert und mehr Sicherheit in bezug auf zu verrichtende Aufgaben verleiht. Diese Ergebnisse werden von der Verfasserin empirisch dokumentiert. Sie faßt ihre Untersuchungen folgendermaßen zusammen:

In meinen Augen liegt eine der wichtigsten Folgen, die für die Kultur aus der Präsenz des Computers erwächst, in der Tatsache, dass die Maschinen Einfluß auf unser Denken über uns selbst haben. Wenn sich hinter der allgemeinen Faszination, die von der Freudschen Theorie ausging, ein beunruhigendes, häufig mit Schuldgefühlen besetztes Vorurteil über das Selbst als etwas Sexuellem verbarg, so verbirgt sich hinter dem wachsenden Interesse an vom Computer beeinflußten Interpretationen des Denkens ein nicht minder beunruhigendes Vorurteil hinsichtlich der Vorstellung vom Selbst als Maschine." (6)

Dabei ergeben sich aus ethischer Sicht zwei komplementäre Überlegungen, welche die von Weizenbaum gestellte Frage nach der Wirkung des Computers auf das Selbstverständnis des Menschen und auf seine menschliche Würde unmittelbar betreffen.

Zum einen stellt der Computer eine Herausforderung unseres vorherrschenden Selbstverständnisses dar, d.h. der Vorstellung vom Menschen als dem "animal rationale" und zugleich des Wertes, den insbesondere die abendländische Zivilisation der Rationalität beimißt. Ethisch gilt es meines Erachtens, diese Herausforderung ernst zu nehmen, d.h., bereit zu sein, unser bisheriges Selbstverständnis in Frage zu stellen, indem wir uns nicht auf eine falsche Defensivposition zurückziehen, während wir in Wahrheit vor der Verantwortung für die von uns selbst geschaffenen Möglichkeiten fliehen. Das gilt unabhängig davon, ob etwa die (inzwischen etwas gedämpften) Forschungsziele der KI-Forschung erreicht werden können oder nicht. Der Computer verändert bereits, wie Turkle hervorhebt, unsere Kultur und unser Denken, individuell und kollektiv. Er wirkt schon überall 'mittendrin' mit. Das heißt wohl auch, daß er bereits 'mitdenkt'. Wie die Sexualität in der Viktorianischen Zeit ist er zugleich Faszination und Tabu. Damit kommen wir zur zweiten Überlegung.

Zum anderen sollten wir ethisch der Versuchung widerstehen, aus dem Computer einen Fetisch zu machen. Wir sollten, so meine ich, das (Schlag-) Wort von der " Intelligenz" ernst nehmen, d.h., uns vor einer schnellen Pseudoidentifikation mit unserem 'zweiten Selbst' hüten und die Andersartigkeit dieser "Intelligenz", die wir selbst geschaffen haben, anerkennen und, was ethisch entscheidend ist, sie auch zu nutzen wissen. Als Hinweis für diese Andersartigkeit könnte man die Ansätze der modernen Psychoanalyse erwähnen, (7) die in letzter Zeit Gegenstand emotionsgeladener Attacken, vor allem von seiten einer zu eng(stirnig) aufgefaßten Rationalität, geworden ist. Auch die moderne Wissenschaftstheorie weist auf die Unvollkommenheit und Undurchsichtigkeit des Menschen und seines vorläufig bleibenden Wissens hin. Nach Wolfgang Stegmüller werden wir niemals über ein vollständiges Erklärungsmodell für den Menschen verfügen, andernfalls hätten wir uns in eine neue Spezies transformiert. (8)

Wir sollten weiterhin versuchen, im Sinne der Aufklärung, selbst zu denken. Das heißt, daß wir uns der 'anderen' Intelligenz im Hinblick auf unsere Entscheidungen bedienen sollten, anstatt uns auf sie 'einfach' zu verlassen. Dementsprechend müßte der Computer als ein 'ewiger Zweifler' in bezug auf die ihm überlassenen Entscheidungen konzipiert werden. Barrie Sherman weist in seinem Buch The New Revolution. The Impact of Computers on Society (9) auf einige Bereiche hin, in denen unsere ethischen Entscheidungen weiterhin fallen sollten. Das sind z.B. die großen Bereiche von Krieg und Frieden, Leben und Tod, von Freiheit und Unterdrückung.

Aber man könnte auch ergänzen, daß in den vielen individuellen und kollektiven Entscheidungen, in denen wir uns bereits auf den Computer verlassen bzw. ihn 'einsetzen', vielleicht noch den 'richtigen' ethischen Umgang mit ihm (sowie mit der Technik insgesamt) lernen müssen, ebenso wie wir nach Jahrtausenden der Ausbeutung unserer Umwelt heute auch unser ethisches Verhältnis zur "Natur" (wieder)entdeckt haben. Wir brauchen eine Ethik der Umgangsformen mit diesen künstlichen Teil unserer selbst. Die "computer literacy" (die Computerbeherrschung im Sinne eines Computeralphabetismus) sollte diese ethische Dimension nicht vernachlässigen. (10). Wir wären falsch beraten, wenn wir glaubten, wir hätten sie schon, nur weil wir wissen, wie der Computer funktioniert. Kurz, wir sind, individuell und kollektiv, für den Computer, besonders für sein Wirken und seine Einsetzung, verantwortlich.


PRIVATHEIT UND ÖFFENTLICHKEIT

Zu Weizenbaums zweiter Frage: Die Rede von Grenzen und Beschränkungen erweckt öfter den Eindruck, als sei man 'gegen' etwas, als zöge man nur die Gefahren und nicht die Chancen, in unserem Fall dieser Technik, in Betracht. Dennoch war hier zugleich eine breite öffentliche Übereinstimmung vorhanden, daß die gefürchtete Orwellsche Vision in Gestalt einer Allpräsenz und Herrschaft des Computers nicht eintreten sollte. Die Diskussion der letzten Jahre in Sachen Datenschutz hat diesem Aspekt einer Computerethik und insbesondere ihren rechtlichen Konsequenzen besondere Aufmerksamkeit geschenkt. Wenn vom Schutz der Privatheit die Rede ist, dann müssen wir in einem ethischen Diskurs versuchen, diesen komplexen Sachverhalt zumindest begrifflich zu klären und somit eine (mögliche) Begründung für die ihm beigemessene Bedeutung liefern. Was heißt Privatheit?

Ich möchte hier, in Anlehnung an Hannah Arendt (obwohl diese ihre Gedanken zunächst am Modell der altgriechischen Gesellschaft entwickelte) (11) Privatheit im Zusammenhang mit Öffentlichkeit bestimmen. Darauf weist bereits der privative (!) Sinn dieses Begriffs hin: Es ist nicht so, daß wir zunächst privat bzw. 'monadisch' existieren und anschließend in Gesellschaft mit anderen, sondern das Primäre ist, wie Arendt sagt, "der öffentliche Raum", "das Gemeinsame", das wir gemeinsam teilen, die Öffentlichkeit.

Von dieser unterscheiden wir das "Privatleben" als einen Teil jener Bedeutsamkeitsbezüge, in denen wir uns eben dem Öffentlichen entziehen. Plastisch ausgedrückt: Das Private ist der Raum innerhalb der 'eigenen vier Wände'. Aber das Private kann auch von seinen nicht-privativen Merkmalen aus betrachtet werden, auf die wir unsere Aufmerksamkeit besonders dann richten, wenn wir von Datenschutz sprechen. Arendt nennt zwei solche Merkmale: erstens, wir brauchen das Private, um überhaupt zu leben. "Kein Teil der uns gemeinsamen Welt wird so dringend und vordringlich von uns benötigt wie das kleine Stück Welt, das uns gehört zum täglichen Gebrauch und Verbrauch." (12) Zweitens: seine "Verborgenheit", d.h. das Private als der Ort, aus dem wir uns vor dem Gesehen- und Gehörtwerden zurückziehen können.

Wenn bisher unsere Diskussion um Computer und Privatheit diese beiden positiven Aspekte in den Vordergrund stellt, dann geschieht dies deswegen, weil durch die Anwendung des Computers Privatheit bedroht erscheint. Dabei geht es um einen bedrohenden Verlust an Überblick und vor allem an Kontrolle über die sogenannten personenbezogenen Daten. (13) An dieser Stelle scheint es angebracht, auf den Unterschied zwischen Privatheit und Integrität hinzuweisen. (14) Unter "Privatheit" verstehen wir das Recht des einzelnen, zu entscheiden, welche Daten über ihn selbst mitgeteilt werden können bzw. sollen, und auch die Verpflichtung der anderen, dieses Recht zu respektieren.

Der Begriff der Integrität bezieht sich auf den einzelnen unter dem Gesichtspunkt seiner Freiheit, d.h. der Möglichkeit, verantwortlich zu handeln, und auf die Verpflichtung der anderen, diese Freiheit zu respektieren. Beide Aspekte sind in bezug auf die Computeranwendung eng miteinander verbunden: Der Kontrollverlust über die eigenen Daten und deren Manipulation kann dazu führen, daß Dritte diese Daten dazu verwenden, nicht nur die Privatheit, sondern auch die Integrität des Betroffenen zu verletzen. Hier spielt das eher technische als ethische Problem der Sicherheit eine besondere Rolle, worauf jedoch hier nicht näher eingegangen werden kann.

Privatheit ist aber, wie erwähnt, kein absoluter Wert. Sie muß stets im Zusammenhang mit dem Bereich des Öffentlichen gesehen werden. Ethisch geht die Gefährdung der Privatheit Hand in Hand mit der Gefährdung des Öffentlichen; das ist aber, glaube ich, bisher nicht deutlich hervorgehoben worden. Wie wir wissen, kann das Öffentliche gerade angesichts seiner im privaten Bereich wurzelnden Vielfalt auf verschiedene Art zerstört werden, z.B. durch Gewaltherrschaft oder in Massengesellschaften. Wir sind auch ethisch verpflichtet, die Vielfältigkeit des Öffentlichen zu schützen, die sich, überspitzt gesagt, nicht auf den Nenner eines alles beherrschenden Computer- (und Verkabelungs-) Systems bringen läßt. Damit Privatheit ihren Sinn erfüllt, bedürfen wir stets des Schutzes des Öffentlichen (im Sinne des subjektiven und des objektiven Genitivs), und umgekehrt. Bei der Anwendung bzw. Nutzung des Computers sollten wir bedenken, daß hier nicht bloß ein Instrument gewissermaßen 'wertneutral' eingesetzt wird, sondern daß jeder Technikeinsatz neue qualitative Färbungen der dargestellten und ausgewerteten Verhältnisse sowie jener zwischen Personen und Computern mit sich bringt. Es liegt an uns, ob wir den Computer 'einfach so hinnehmen', oder ob wir bereit sind, ihn in die Fülle menschlichen Lebens so einzubeziehen, daß er dieser Fülle gerecht wird. Eine Lösung dieses Problems ist ein dringliches Erfordernis einer künftigen Ethik des Computers.


CCMPUTER UND MACHT

Nach den Nutznießern und den Opfern des technischen Fortschritts fragte Weizenbaum, wie erwähnt, in seiner ersten Leitfrage. Er gab bekanntlich in seinem Buch Die Macht des Computers und die Ohnmacht der Vernunft eine der ersten besorgten "Insider"-Stellungnahmen ab,die vor den Gefahren der politischen und verwaltungsmäßigen Machtzentralisierung durch Computersysteme warnen. (15) Dabei sollte man aber zwei Aspekte bedenken, auf die auch Weizenbaum hinweist. Erstens, daß es Machtzentralisierung, sei es z.B. zur Durchführung großer (wissenschaftlich-technischer) Projekte oder zu ihrem Mißbrauch durch politische Diktaturen, bereits lange vor der Erfindung des Computers gab. Zweitens, und darauf zielt Weizenbaums Frage teilweise ab, daß die sogenannte "Computerrevolution" eigentlich keinen notwendigerweise progressiv-revolutionären, sondern u.U. eher einen reaktionären oder zumindest konservativen Effekt im Hinblick auf bestehende odr sich entwickelnde ungerechte soziale Strukturen haben kann. Wir sagten am Anfang, daß im Computerwesen und mit seiner sozialen Verbreitung eine 'stille Revolution' vor sich geht, deren Tragweite wir noch nicht ganz ermessen können. Wir kommunizieren häufig nicht direkt persönlich miteinander, sondern nur vermittelt: über "Medien", seitdem wir Computer (oder Telefon, Telekommunikation, Bigfon, Videokonferenzen usw.) haben.

Das gemeinsame Austragen der Weltoffenheit, die Öffentlichkeit im obengenannten Sinne, das durch die Sprache zu Wort kommt, ist uns dabei jeweils vorgegeben, wenngleich wir für deren Gestaltung, Ausweitung und u.U. sogar für ihre drohende Verkümmerung, bis hin zu ihrer potentiellen Vernichtung, verantwortlich sind. In diesem Sinne gilt auch die These, daß Technik und Wissenschaft in ihrer sozialen Einbettung nicht bloß "wertneutral" sind. Wenn wir eine humane Informationsgesellschaft anstreben, dann sollten wir auch darauf achten, daß die Entwicklung und Anwendung einer so mächtigen Technik am Menschsein, an Werten der Humanität ausgerichtet bzw. daraufhin umorientiert wird. Wie wir Bereits am Beispiel anderer Techniken schmerzhaft erfahren, reichen die Kriterien der Effizienz und der Wirtschaftlichkeit nicht aus, um Technik auf einen 'sanften' Weg zu bringen. In einem sehr beachteten Vortrag zum "Tag der Deutschen Physikalischen Gesellschaft" 1985 forderte deshalb der japanische Wissenschaftler Kennosuke Ezawa eine Technik, die sich an jenem Prototyp orientiert, dem wir unsere eigene Realität als Menschen verdanken: an der Sprache. (16) Sprache ist eine auf unendliche Flexibilität  (Geschichtlichkeit) und auf den zwischenmenschlichen Gebrauch (Intersubjektivität) basierende 'Technik'.

Während die herkömmliche Industrie-Technik der "Moderne" diese Eigenschaften nur sehr unzureichend verkörperte, nähern wir uns (vermutlich), insbesondere mit der Computertechnik, einer 'sanften' geschichtlichen und intersubjektiven Technik. Es geht darum, eine 'nicht-mechanistische', 'postmoderne' Computertechnik zu entwickeln, die den Möglichkeiten und somit auch der 'Macht' des einzelnen, seinen vielfältigen individuellen Bedürfnissen nach Auskunft, Teilnahme am politischen und sozialen Geschehen, Sicherheit usw. gerecht(er) zu werden vermag. Dadurch könnte der anfänglichen gesellschaftlichen Nivellierung eine Pluralisierung folgen. Im wesentlichen möchte ich mich den früheren Ausführungen von Yûjirô Hayashi und einiger seiner Diskussionspartner über eine "kommunikative Gesellschaft" "mit persönlichem Zuschnitt" anschließen. (17)

Aber es gibt noch einen anderen Punkt, der in Weizenbaums Frage direkt angesprochen wird, nämlich die Frage nach den möglichen Opfern. Man braucht in diesem Zusammenhang nur an den bekannten MacBride-Bericht der UNESCO zu denken, (18) um die Gründe für die Zwiespältigkeit zu verstehen, mit der die Länder der Dritten Welt die von den Industrienationen entwickelten und wohl auch beherrschten modernen Kommunikationstechnologien betrachten. Eine Computerethik muß hier mit deutlicher Stimme die Gefahr des Informationskolonialismus bzw. der Bildung von neuen Polaritäten zwischen informationsarmen und -reichen Ländern herausstellen und analysieren. (19) Der französische Philosoph Emmanuel Lévinas hat in seinem auf dem Gebiet der Ethik wohl epochemachenden Buch (20) den totalitären Charakter des menschlichen Logos aufgedeckt (und Computer sind, zumindest bisher, durch und durch 'logisch'), falls dieser sich dem jeweiligen "Anderen" (Individuum, Gesellschaftsgruppe, Nation usw.) verschließt bzw. falls die "unermeßliche" (oder "maß-lose") ethische Beziehung "von Angesicht zu Angesicht" ("face à face"; "relation sans relation", wie Lévinas es paradox ausdrückt), nicht entfaltet wird. In diesem Fall, d.h., wenn nur "gleich-gültige" anonyme "Spielregeln" mehr oder weniger von Anfang an die Entwicklung und Anwendung des Computers bestimmen, werden wir sehr schnell erfahren, wer die "Nutznießer" und wer die "Opfer" sind.


AUSBLICK

Wir sind von der Vorstellung einer Ethik ausgegangen, die sich nicht anmaßen will, von vornherein dogmatisch über "das Gute" oder "das Böse" im Hinblick auf die Zukunft zu entscheiden. Stattdessen verlangen wir die Haltung der vorsichtigen Gelassenheit (lateinisch "prudentia"), deren Ausdruck nicht so sehr ethische Prinzipienaussagen als vielmehr Fragen sind.

Die hier ansatzweise behandelten Fragen kreisen nicht nur um die individuelle oder gar soziale Verantwortung des Informatikers als eines Spezialisten im Hinblick auf die Entwicklungen und Anwendungen der Computertechnik, sondern auch um die allgemeine Verantwortung bzw. um die Mitverantwortlichkeit, die jeder von uns, ähnlich wie im Falle anderer breit angewandter Techniken, trägt. Wir müssen als Gesellschaft, national und international, diese ethische Mitverantwortung erst noch lernen, um sie auch mit-verwirklichen zu können.

Es ist heute oft von der "präventiven" bzw. "vor-sorglichen" Haltung im Hinblick auf den Technikeinsatz und dementsprechend von einer "sorgenden Heger- und Verhinderungsverantwortung" die Rede. (21) Eine solche kollektive Verantwortung, will sie eine ethische sein, muß auch die persönliche Mit-Verantwortung einschließen. Wir müssen hier zu konkreten Formen dieser kollektiven Verantwortung, insbesondere im Hinblick auf die Computertechnik, kommen. Das fängt an mit der Diskussion dieser Fragen während der Ausbildung von Computer-Fachleuten (22) und 'endet' bei der Schaffung von nationalen und internationalen Kommissionen, deren Diskussions- und Forschungsergebnisse ein ethisches Rückgrat für technikpolitische Entscheidungen bilden könnten. Das ist nur möglich, wenn keiner sich von vornherein 'im Besitz der Wahrheit' glaubt, wenn in Gemeinschaft mit anderen gefragt wird, wir die Computertechnik zur Erhaltung von Leben, Natur, Wissen, Sprache, Kultur usw. eingesetzt wird.

Auch im Bereich der großenteils erst noch auszuarbeitenden Computerethik und der Informationsethik im technologischen Zeitalter generell dürfte sich nach wie vor als gültig erweisen, was Franz Böckle formulierte:

"Verantwortung der Wissenschaft kann nur in einer vertieften Reflexion auf das Wesen sittlicher Freiheit deutlich werden. Sittliche Freiheit ist in Pflicht genommene Freiheit. Sie wird in Pflicht genommen durch den Dienst am gemeinsamen Wohl aller, auch der zukünftigen Generationen. Sie hat die menschliche Lebenswelt in ihrer Ganzheit und Vieldimensionalität vor Augen zu halten und zu sichern. Dazu gehört nicht nur die Umwelt, sondern auch das Leben in tragenden Institutionen der Rechtsgemeinschaft. Von dieser Verantwortung kann sich auch die Wissenschaft nicht dispensieren, es sei denn um den Preis des Verlustes der eigenen Freiheit." (23)

Es liegt in unserer Verantwortung, ob wir aus dem Computer einen Fetisch oder, im Sinne Umberto Ecos. ein "offenes Kunstwerk" machen. (24)


ANMERKUNGEN

1. Zu ethischen Fragen einer "Informationsgesellschaft" vgl. Rafael Capurro, Hermeneutik der Fachinformation, Freiburg i.Br./ München 1986 (bes. S. 186-209). Ferner: Otto Ullrich (Hrsg.), Die Informationsgesellschaft als Herausforderung an den Menschen, Frankfurt a.M. 1984; Symposium "Informationsgesellschaft" oder Überwachungsstaat, Strategien zur Wahrung der Freiheitsrechte im Computerzeitalter", Wiesbaden (Staatskanzlei) 1984; Philipp Sonntag (Hrsg.), Die Zukunft der Informationsgesellschaft, Frankfurt a.M. 1983; Gernot Wersig (Hrsg.), Informatisierung und Gesellschaft. Wie bewältigen wir die neuen Informations- und Kommunikationstechnologien?, München 1983.

2. Vgl. Jürgen Habermas, Der philosophische Diskurs der Moderne, Frankfurt a.M. 1985. Dazu Rafael Capurro, "Das Ende der Moderne", [Rez. von:] Gianni Vattimo, La fine della modernità, Mailand 1985, in: Philosophisches Jahrbuch 94, 1, (1987) S. 205 bis 209. Ferner: Hans-Jürgen Heinrichs: Die katastrophale Moderne - Endzeitstimmung, Aussteigen, Ethnologie, Alltagsmagie, Frankfurt a.M. 1985.

3. Vgl. David W. Johnson, J. W. Snapper (Hrsg.), Ethical Issues and the Use of Computers, Belmont 1985; D.W. Johnson, Computer Ethics. A Guide for the New Age, Elgin 1984; Donn B. Parker (Hrsg.), Ethical Conflicts in Computer Science and Technology, Arlington 1982; Abbe Mowshowitz (Hrsg.), Human Choice and Computers. Proceedings of the 2. IFIP Conference on Human Choice and Computers, Amsterdam 1980 (bes. S. 251-269); Hansjörg Geiger / Jochen Schneider (Hrsg.): Der Umgang mit Computern. Möglichkeiten und Probleme ihres Einsatzes, Köln, 2. Aufl. 1981.

4. Joseph Weizenbaum, "Once More: The Computer Revolution", in: Michael L. Dertouzos, Joel Moses (Hrsg.), The Computer Age: A Twenty-Year View, Cambridge (Mass.) 1980, S. 439-458.

5. Sherry Turkle, Die Wunschmaschine. Vom Entstehen der Computerkultur, übers. von Nikolaus Hansen, Reinbek bei Hamburg 1984 (engl. Orig.: The Second Self. Computers and the Human Spirit, New York 1984).

6. Ebd., S. 24.

7. Vgl. die Besprechung des Buches von Sherry Turkle von S. Zizek, "Un lapsus anti-totalitaire?", in L'Ane  21 (1985) S. 36.

8. Vgl. Wolfgang Stegmüller, Neue Wege der Wissenschaftsphilosophie, Berlin 1980.

9. Barrie Sherman, The New Revolution. The Impact of Computers on Society, Chichester 1985.

10. Vgl. Norbert Szyperski, "Jugendförderung in der Informatik - Anforderungen und Probleme", in: Der GMD-Spiegel 2 (1983) S. 10-17.

11 Vgl. Hannah Arendt, Vita activa oder Vom tätigen Leben, München, 3. Aufl. 1983, S. 27-75.

12. Ebd., S. 67.

13. Vgl. zu neueren Arbeiten zum Privatheitsproblem in der Psychologie: Lenelis Kruse, Privatheit als Problem und Gegenstand der Psychologie, Bern 1980; und in der metaphysischen Philosophie: Paul Weiss, Privacy, Carbondale-Edwardsville 1983.

14. Vgl. S. Schwarz: "Research, integrity and privacy. Notes on a conceptual complex", in: Social Science Information  18 (1979) H. 1, S. 103-136. Dazu: Rafael Capurro, Moral Issues in Information Science, in: Journal of Information Science  11 (1985) S. 113-123.

15. Joseph Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, übers. von Udo Rennert, Frankfurt a.M. 1979 (engl. Orig.: Computer Power and Human Reason, San Francisco 1976). Vgl. dazu: Bruce G. Buchanan / Joshua Lederberg / John McCarty, Three Reviews of J. Weizenbaum's "Computer Power and Human Reason" Stanford 1976.

16. Vgl. Kennosuke Ezawa, "Japans Weg in eine Informationsgesellschaft", in: Physikalische Blätter  41 (1985) H. 3, S. 71-73.

17. Ostasien-Institut e.V. / Gesellschaft für Mathematik und Datenverarbeitung (Hrsg.), Kommunikative Gesellschaft. Beiträge einer interkulturellen Tagung zwischen Japanern und Europäern, September 1977, München 1979; darin: Yûjirô Hayashi, "Plädoyer für die functional community" (S. 107-127).

18. Sean MacBride [u.a.], Many Voices - One World. Towards a New More Just and More Efficient World Information and Communication Order, New York 1980.

19. Vgl. J. Conquy Beer-Gabel, Informatisation du Tiers Monde et coopération internationale, Paris 1984; Jörg Becker, Informationstechnonlogie in der Dritten Welt, Frankfurt a.M. 1984.

20. Emmanuel Lévinas, Totalité et Infini, Den Haag 1969 (dt.:Totalität und Unendlichkeit. Versuch über die Exteriorität, übers. von Wolfgang Krewani, Freiburg i.Br. / München 1987).

21. Vgl. Hans Jonas, Das Prinzip Verantwortung, Frankfurt a.M. 1979; H. Lenk, Pragmatische Vernunft, Stuttgart 1979; S. 69ff; H. Lenk, "Zur ethischen Verantwortung des Naturwissenschaftlers", in: Schering AG (Hrsg.), Zur Legitimation der Forschung in einem industriellen Unternehmen, Berlin 1984, (Vorlesungsreihe Schering 10); H. Lenk, "zum Verantwortungsproblem in Wissenschaft und Technik", in: Ethik der Wissenschaften?, hrsg. von Hans Lenk, Hansjürgen Staudinger und Elisabeth Ströker, Bd. 1: Ethik der Wissenschaften? Philosophische Fragen, hrsg. von Elisabeth Ströker, München/Paderborn 1984, S. 87-116. Vgl. ferner den Ansatz von Wolfgang Schirmacher, Technik und Gelassenheit. Zeitkritik nach Heidegger, Freiburg i.Br. / München 1983. Dazu Rafael Capurro, "Technics, Ethics, and the Question of Phenomenology", in: A.-T. Tyminiecka (Hrsg.), Morality within the Life- and Social World, Dordrecht/Boston [i.Dr.] (Analecta Husserliana, 24).

22. Vgl. R. S. King / J. H. Nolen, "A Computer Ethics Course. Sixteenth SIGCSE Technical Symposium on Computer Science Education. New Orleans, 11-15 March 1985", in: SIGCSE Bulletin 17 (1985) H. 1, S. 99-104; J. W. Snapper, "Course Summary: Moral Issues in Computer Science", in: Computer and Society 12 (1982) H. 4, S. 2-6; R.M. Aiken, "Reflections on Teaching Computer Ethics", in: SIGCSE Bulletin 15 (1983) H. 3, S. 8-12; Rein Turn, "Courses on Societal Impacts of Computers", in: Computer and Society 13/14 (1983/84) S. 14-16.

23. Franz Böckle, "Fortschritt wohin? Überlegungen zur Verantwortung in Technik und Wissenschaft", in: Information Philosophie 4 (1985) S. 16 f.

24. Umberto Eco, Das offene Kunstwerk, übers. von Günter Memmert, Frankfurt a.M. 1977. Vgl. Rafael Capurro, "Was ist Information?", in: Handbuch der modernen Datenverarbeitung, hrsg. von Heidi Heilmann [u.a.], Lfg. 133, Wiesbaden 1987. S. 104-114; R.C., "Hermeneutics and the Phenomenon of Information" , in: Carl Mitcham / Wolfgang Schirmacher (Hrsg.), New York Studies in Philosophy and Technology, Bd. 1, New York.

Letzte Änderung: 22. Januar 2012


 
    

Copyright © 2005 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author.
 

 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Video/Audio