EINFÜHRUNG IN DEN INFORMATIONSBEGRIFF

Rafael Capurro  
 
 
 
 

III. Kapitel

Der Informationsbegriff in anderen Disziplinen  

Einleitung   

1. Der nachrichtentechnische Informationsbegriff   
2. Der sprachwissenschaftliche Informationsbegriff   
3. Der kybernetische Informationsbegriff   
4. Der kulturwissenschaftliche Informationsbegriff   
5. Der naturwissenschaftliche Informationsbegriff   
6. Das "Capurrosche Trilemma"  
  
Übungen   

Literatur

 
 
  

Einleitung

Die beiden bisher erörterten Anwendungsgebiete des Informationsbegriffs zeigten mehrmals Hinweise auf andere Theorien und Problemstellungen, die wir jetzt explizit erörtern werden. Das ist zunächst die Nachrichtentechnik. Der moderne Informationsbegriff hat seinen Ursprung in der von Claude Shannon und Warren Weaver entwickelten Informationstheorie in Zusammenhang mit der Frage nach der Übertragung von Signalen in verschiedenen technischen Medien. Die nachrichtentechnische Prägung des Informationsbegriffs setzte sich in der Kybernetik fort und beeinflußte begrifflich, methodisch und technisch die Geistes- und Naturwissenschaften im 20. Jahrhundert. Als Beispiel für die naturwissenschaftliche Problematik soll hier die Auslegung des Informationsbegriffs im Werk des Physikers und Philosophen Carl-Friedrich von Weizsäcker dargestellt werden.   

Die Spannungsbreite dessen, was wissenschaftlich unter Information verstanden wird, zeigt sich deutlich am Beispiel des kulturalistischen Ansatzes. Das führt unmittelbar zu der Frage, ob diese auf den ersten Blick verwirrende Anzahl von Ansätzen und Definitionen von Informationen in sich disparat sind oder ob so etwas wie eine allgemeine Theorie der Information möglich ist, in der die verschiedenen Anwendungen in kohärenter Form untergebracht werden können. Diese Fragen soll am Schluß dieses Kapitels sowie auch im nächsten Kapitel  behandelt werden.

  
 
 
 
 

1. Der nachrichtentechnische Informationsbegriff  

Die Bedeutung des Informationsbegriffs im nachrichtentechnischen Bereich wurde von R.V. L. Hartley sowie später besonders von Claude E. Shannon und Warren Weaver - alle drei Mitarbeiter der Bell Telephone Laboratories - geprägt.   

In seinem Aufsatz Transmission of Information (Hartley 1928) befaßte sich Hartley mit elektrischen Übertragungssystemen. In diesem Kontext fallen die Aspekte der Sachbezogenheit, Inhalt und Relevanz weg, da wir hier nicht mit Menschen, sondern mit Maschinen zu tun haben. Hartley möchte von Information ausschließlich im Sinne eines physikalischen Vermittlungsprozesses auffassen. Er schreibt:   

"It is desirable therefore to eliminate the psychological factors involved and to establish a measure of information in terms of purely physical quantities" (Hartley 1928, S. 536) 
Die Nachrichtentheorie sieht also von der Bedeutung und dem pragmatischen Wert der Information ab.   

Welche Faktoren gehören für Hartley zu einem technischen Übertragungssystem? Ein Sender, ein Zeichenrepertoire ("physical symbols"), ein Auswahlprozeß ("selections") und ein Empfänger. Was nicht dazu gehört ist die Bedeutung der Zeichen oder die Semantik (vom Griech. semainein = bedeuten) und die Wirkung für den Empfänger oder die Pragmatik (vom Griech. praxis = Handlung). Die Zeichen werden lediglich in formaler Hinsicht oder rein syntaktisch (vom Griech. syn = zusammen, und taxis = Ordnung) behandelt. Diese Unterscheidung zwischen Syntax, Semantik und Pragmatik stammt, wie wir gleich sehen werden, aus der Sprachwissenschaft. Mit anderen Worten, Hartley nimmt den Ausdruck Information aus dem menschlichen Gebrauchskontext heraus. Dementsprechend hat Auswahl ("selection") nicht mit menschlicher Entscheidungsfreiheit zu tun.   

Ein Nachrichtensystem trifft also, so Hartley, eine Entscheidung, wenn es mindestens zwei Elemente gibt (n=2). Wenn das Repertoire aus 4 Elementen besteht, dann braucht es zwei Entscheidungen usw. Solche binären Entscheidungen wird man später binary digits nennen, abgekürzt bits. Alle Elemente eines Zeichenrepertoires besitzen somit den gleichen Informationsgehalt ("information content") da die Semantik ausgeschaltet ist. Die Berechnung des Informationsgehalts einer Nachricht ergibt sich aus der Zahl der binären Entscheidungen, was logarithmisch ausgedrückt werden kann. So ist zum Beispiel die Anzahl der binären Entscheidungen oder der Informationsgehalt (IG) im Falle des aus 32 Zeichen bestehenden telegraphischen Systems von Baudot - J.M.E. Baudot, franz. Ingenieur (1845-1903), Erfinder des Mehrfachtelegraphen, nach ihm wurde 1926 das Baud (Abk. Bd) als Maß für die Schrittgeschwindigkeit eines Signals genannt - der Logarithmus dualis (ld) von 32:   

IG = ld 32 = 5 

Oder allgemein:   

IG = ld n bit 

d.h. der Informationsgehalt einer Nachricht ist gleich dem Logarithmus dualis zur Basis 2 von n, gemessen in bit. Dieses Maß ist zugleich ein Maß der Ungewißheit seitens des Empfängers in bezug auf die von der Quelle ausgewählten und ausgesandten Nachrichten. Jede neue Entscheidung bedeutet eine Verringerung von Ungewißheit, d.h. der Informationsgehalt der Nachricht wird präziser. Je größer das Repertoire des Senders, desto größer auch die Ungewißheit des Empfängers. Der Informationswert ist gleich Null wenn kein Auswahlprozeß stattfindet und somit die Nachricht bekannt ist. Mit Ungewißheit ist die objektive Ungewißheit eines physikalischen Systems gemeint.   

Hartley ging von einem Sender und Empfänger bekannten Zeichenrepertoire aus. Ist aber dieses Repertoire unbekannt oder wird ein gesendetes Zeichen aufgrund von Störungen nicht eindeutig durch den Empfänger entziffert, dann haben wir mit Zufallsprozessen und somit mit Wahrscheinlichkeit zu tun. Der Empfänger muß zusätzliche Arbeit bei der Entzifferung aufbringen. Diesem Problem widmeten sich Claude Shannon und Warren Weaver mit der Mathematical Theory of Communication (1949).   

Daraus ergibt sich das klassische Sender-Kanal-Empfänger-Schema der Nachrichtenübertragung oder Informationsübermittlung, nämlich:   

   

SENDER -> KANAL -> EMPFÄNGER 
(Störung/Rauschen) 
   

Das Maß der Information bezieht sich auf die Wahrscheinlichkeit des Auftretens bestimmter Zeichen. Der Sender codiert die Nachrichten in Form von Signalen, die dann vom Empfänger decodiert werden müssen. Bei dieser Verschlüsselung - z.B. in Form von Nullen und Einsen - kann das Signal durch den Kanal gestört werden. Die Auftrittswahrscheinlichkeit eines Zeichens entspricht bei zwei Möglichkeiten 50 Prozent (1 Bit). Die Summe der mit den Auftrittswahrscheinlichkeiten gewichteten Informationsgehalte ergibt den mittleren Informationsgehalt.   

Um den technischen Charakter ihrer Theorie zu unterstreichen, unterscheiden Shannon und Weaver explizit drei Ebenen des Kommunikationsproblems, nämlich:   

Ebene A: wie genau können Zeichen oder Symbole übertragen werden? Das technische Problem.  

Ebene B: wie präzis können Symbole die gewünschte Bedeutung übertragen? Das semantische Problem.  

Ebene C: wie effektiv wirkt die empfangene Bedeutung in der gewünschten Weise? Das Effektivitätsproblem oder das pragmatische Problem.   

Diese drei Ebenen sind, so Weaver, untereinander enger bezogen als zunächst erscheint. Obwohl die semantische Ebene aus dem nachrichtentechnischen Informationsbegriff ausgeklammert wird, haben technische Übertragungs- und Decodierungsprozesse semantische und pragmatische Auswirkungen. Weaver schreibt:   

"The word information, in this theory, is used in a special sense that must not be confused with ist ordinary usage. In particular, information must not be confused with meaning. In fact, two messages, one of which is heavily loaded with meaning and the other of which is pure nonsense, can be exactly equivalent, from the present viewpoint, as regards information. It is this, undoubtedly, that Shannon means when he says, that "the semantic aspects of communication are irrelevant to the engineering aspects." But this does not mean that the engineering aspects are necessarily irrelevant to the semantic aspects." (Shannon and Weaver 1949/1972, S. 8)
Für Shannon und Weaver ist Information etwas, was sich in der Außenwelt abspielt, unabhängig von einem Beobachter oder von einem erkennenden oder beobachtenden menschlichen Subjekt. Ihr Sender-Kanal-Empfänger-Modell bringt zum Ausdruck, daß Information etwas ist, was von einem Sender zu einem Empfänger transportiert wird, wie im Falle von Materie oder Energie. Zugleich ist aber von Mitteilungen ("messages") die Rede, die aus einem Repertoire ausgewählt werden müssen. Dies macht die physikalische Vorstellung von beobachter-unabhängiger Information fragwürdig, denn eine Auswahl kann nur von einem Beobachter vorgenommen werden. Shannon benutzte zwei gegensätzliche Metaphern. Durch die objektive Metapher versuchte er Information als eine materielle Substanz aufzufassen. Seine Theorie bezog sich aber auf die Auswahlmetapher, die in Widerspruch dazu steht (Qvortrup 1993, S. 5).   

Obwohl Shannon und Weaver den Informationsbegriff auf technische Systeme einschränkten verbreitete sich ihre Theorie rasch auf andere natur- und sozialwissenschaftliche Bereiche, für die sie aber nicht gedacht war und wofür sie auch, sofern dort semantische und pragmatische Fragen im Mittelpunkt stehen, ungenügend ist.   

Das Sender-Kanal-Empfänger-Schema suggeriert auch eine Kontrollierbarkeit und Überschaubarkeit sozialer Informationsprozesse, die in Wahrheit, aufgrund der Vielfalt der Sender, Sendungen, Kanäle und Empfänger nicht gegeben ist. Dies kommt deutlich zum Ausdruck, wenn wir an das in den 60er Jahren aufgekommene Problem des Wiederfindens von Information (information retrieval) aus einer Dokumentensammlung denken, wie wir im vorigen Kapitel gesehen haben.  

 

 
 
 

2. Der sprachwissenschaftliche Informationsbegriff

   
Es ist psychologisch fast unmöglich, bemerkte der israelische Mathematiker und Sprachwissenschaftler Yehoshua Bar-Hillel, die Bedeutungsverschiebung von Information im Sinne von Zeichenfolge zu Information im Sinne dessen, was Zeichen bedeuten, zu vermeiden. Zwischen dem semantischen Informationsinhalt einer Nachricht und dem Maß an Informationsinhalt der Nachrichtentechnik besteht keine logische Verbindung. Man ist aber zugleich ständig in Versuchung beide Maße miteinander zu identifizieren und zwar aufgrund der identischen Terminologie. Er schlug deshalb vor, von "Theorie der Signalübertragung" ("theory of signal transmission") anstelle von "Informationstheorie" zu sprechen und überhaupt den Ausdruck Information, "mit all seinen Zweideutigkeiten und semantischen Fallen" innerhalb dieser Theorie nicht mehr zu gebrauchen (Bar-Hillel 1973, S. 296).   

Die Semiotik oder sprachwissenschaftliche Theorie der Zeichen führte in den 30er Jahren - vorbereitet vor allem durch das Werk des amerikanischen Philosophen Charles S. Peirce (1839-1914) - die Unterscheidung zwischen Syntax, Semantik und Pragmatik ein. In seinem Buch Signs, Language and Behavior legte der amerikanische Sprachwissenschaftler Charles William Morris (1901-1979) in Anlehnung an Peirce eine dreidimensionale Semiotik (Syntax, Semantik, Pragmatik) vor. Dabei vertrat er die Auffassung von der informativen Wirkung von Zeichen (Morris 1946).   

In der Alltagssprache unterscheiden wir zwischen informieren und falsch informieren ("misinform") und setzen somit Information in Zusammenhang mit der Wahrheit oder sachlichen Richtigkeit einer Mitteilung. Morris setzt demgegenüber das Moment der Wirkung der Zeichen auf den Empfänger im Mittelpunkt. Der informative Gebrauch von Zeichen hat nicht mit Wahrheit oder Falschheit, sondern Wirkung zu tun. Wir informieren auch wenn wir desinformierend wirken. Nicht die Beziehung der Zeichen zum Sachverhalt (Semantik), sondern die Interpretation der Zeichen durch den Empfänger (Pragmatik) ist für den informativen Zeichengebrauch entscheidend. Informieren hat als Ziel, so Morris, "jemanden zu veranlassen, so zu handeln, als ob eine bestimmte Situation bestimmte Eigenschaften hätte" (Morris 1946/1955, S. 98). Wir erinnern uns in diesem Zusammenhang, daß Hartley die Frage der Interpretation ausdrücklich ausgeklammert hatte.   

Y. Bar-Hillel und der Philosoph Rudolf Carnap (1891-1970) legten wiederum den Schwerpunkt auf eine semantische Theorie der Information. Allerdings geht es dabei nicht um die Bedeutung der Zeichen für Benutzer, sondern um eine logisch-fixierte Sprache, bei der die informative Fähigkeit oder der semantische Gehalt einer Aussage dadurch bestimmt wird, daß sie für wenige oder für viele Zustandsbeschreibungen gilt. Eine Tautologie besitzt keine, eine Kontradiktion unendlich große semantische Information (Bar-Hillel/Carnap 1973).   

Der amerikanische Ingenieur und Wissenschaftstheoretiker Fred Dretske hat in ähnlicher Weise wie Bar-Hillel auf die irreführende Vorstellung hingewiesen, die daraus entsteht, wenn der mit dem Wissensbegriff zusammenhängende Informationsbegriff auf die Symbolverarbeitung durch den Computer ausgedehnt oder sogar mit ihr identifiziert wird. Die im Computer gespeicherten Informationen haben für die Maschine keinen Sinn. Information ist, so Dretske, das, "was Wissen hervorbringen kann" ("Information ist what is capable of yielding knowledge" Dretske 1986, S. 105). Dementspechend können wir nicht sagen, daß zum Beispiel das Licht eines Sternes Information über ihre physische Bestandteile überträgt, sondern es ist der Wissenschaftler, der daraus etwas über den betreffenden Stern erfährt. Mit seiner Theorie der semantischen Information geht Dretske davon aus, daß Symbole erst dann Informationen "enthalten", wenn sie in kausaler Beziehung zu dem Sachverhalt stehen, worauf sie sich beziehen. Wenn C - z.B. das Licht eines Sternes - die Information B enthält - z.B. das Vorkommen einer bestimmten Substanz - und wenn B wiederum die Information A enthält, dann ist A bereits in C enthalten. Wir haben mit einem "Informationfluß" ("flow of information") zu tun (Dretske 1981, S. 65). Was aber Dretske dabei nicht berücksichtigt ist, daß solche Aussagen nicht absolut gelten, sondern theorieabhängig sind. Mit anderen Worten, die Bedeutung einer Aussage ist von einem sie bestimmenden Kontext abhängig (Zoglauer 1996, S. 193).   

Der amerikanische Kommunikationswissenschaftler Donald MacKay vertritt die Auffassung, daß das Moment der Wissensveränderung nicht nur "objektiv", wie bei Bar-Hillel und Carnap, sondern auch "subjektiv" berücksichtigt werden sollte (MacKay 1969). Letzteres kommt im alltagssprachlichen Gebrauch von Information zum Vorschein. Wir sprechen von einem Informationsgewinn, wenn wir etwas wissen, was wir vorher nicht wußten, d.h. wenn unser Wissen sich ändert. Die Frage ist aber, so MacKay, ob wir ein Maß für diese Wissensänderung finden können, das sich weder nach der "idealen" Sprache der Logik noch (allein) nach der wissenschaftlichen Sprache richtet. MacKay definiert Information als das, was etwas zu unserem mentalen Modell der Außenwelt hinzufügt. Information hat also mit der Annäherung unserer Begriffe an die Wirklichkeit zu tun (MacKay 1969, S. 61). Der Informationsgehalt einer Aussage ist deskriptiv, was zweierlei bedeutet. Wenn eine Beobachtung unser Bild von der Realität bestätigt, spricht MacKay von metrischem Informationsgehalt. Ändert sich aber unsere Darstellung, dann haben wir mit einem strukturellen Informationsgehalt zu tun. Information ist, so MacKay, "Bestimmung der Form" ("determination of form"). Diese Definition berücksichtigt, wie schon bei den antiken und mittelalterlichen Erkenntnistheorien, sowohl die "objektive" als auch die "subjektive" Seite der Erkenntnis. Der österreichische Wissenschaftstheoretiker Erhard Oeser bemerkt in seinem Buch Wissenschaft und Information dazu:   

"Damit wird eine Möglichkeit eröffnet, den an und für sich stets subjektiv bleibenden pragmatischen Aspekt des Informationsgehalts oder Informationswertes (value), der immer an den Benutzer der Information gebunden ist, zu präzisieren und zu verobjektivieren. Denn wissenschaftliche Erkenntnis will "objektive Erkenntnis" sein. "Objektivität" der Erkenntnis bedeutet aber nicht die Eliminierung des konkreten erkennenden Subjekts, denn wissenschaftliche Hypothesen und Theorien sind stets Produkte der Tätigkeit eines konkreten realen Erkenntnissubjekts, sondern "Objektivität" kann nur Allgemeingültigkeit, Intersubjektivität oder bestenfalls Transsubjektivität bedeuten." (Oeser 1976, Bd. 2, S. 37) 
 
 
  
  

3. Der kybernetische Informationsbegriff

Der amerikanische Mathematiker Norbert Wiener (1894-1964), der Begründer der Kybernetik, veröffentlichte 1948, ein Jahr vor der Erscheinung des Aufsatzes von Shannon und Weaver, sein Buch Cybernetics or Control and Communication in the Animal and the Machine (Wiener 1948, 1961). Information ist für Wiener, ähnlich wie für Shannon, bezogen auf einen Auswahlprozeß ohne Bezug auf Semantik und Pragmatik. Aber, anders als für Shannon, bedeutet Information für Wiener eine Zunahme von Organisation oder Ordnung: Je organisierter ein System umso größer sein Informationsgehalt. Für Shannon bedeutet aber Information eine Reduktion von Komplexität aufgrund von Auswahlprozessen. Je höher die Wahrscheinlichkeit (oder je "bekannter" die Nachricht), umso kleiner der Informationswert. Bei Wiener verhält es sich umgekehrt: Der Informationswert nimmt mit der Organisation eines Organismus zu. Information wird hier, in Anlehnung an die Physik, als Negentropie bestimmt (Entropie bedeutet Chaos oder Desorganisation). Wiener faßt Information als eine dritte Größe, neben Materie und Energie auf:   
"Information is information not matter or energy" (Wiener 1961, S. 132). 
Information bedeutet also die Zunahme von Ordnung aufgrund der Wechselwirkung innerhalb eines Systems oder zwischen den Systemen. So kann z.B. eine Gruppe von Tieren mehr oder weniger Information haben: weniger, wenn die Tiere für sich leben, mehr, wenn eine gegenseitige Wirkung und somit eine Zunahme oder Akkumulation von Auswahlprozessen stattfindet. Eine Bibliothek, so Wiener, akkumuliert Bücher. Entscheidend sind aber die Auswahltechniken. Und er erwähnt in diesem Zusammenhang die damals durch Vannevar Bush entwickelte Methode der mechanischen Textsuche mit Hilfe von Schlagwörtern (Wiener 1961, S. 158).   

Die chilenischen Biologen Humberto Maturana und Francisco Varela entwickelten in den 70er Jahren eine revolutionäre kybernetische Theorie von biologischen Prozessen in deren Mittelpunkt der Begriff der Autopoiese (Griech. autos = selbst, poiese = machen) oder der Selbstorganisation steht. Lebewesen sind autonome Systeme. Das Produkt ihrer Organisation sind sie selbst. Die klassische Kybernetik analysierte die Wechselwirkung oder Rückkopplung ("feedback") zwischen System und Umwelt und sie stellte dabei - wie im Untertitel von Norbert Wieners Buch ersichtlich - biologische und mechanische Systeme gleich. Lebewesen zeichnen sich aber dadurch aus, daß sie sich auf sich selbst beziehen oder selbstreferentiell sind. Wir haben hier mit einer Kybernetik zweiter Ordnung zu tun. Charakteristisch für selbstreferentielle Systeme ist, daß die Struktur des Milieus mit dem autopoietische Systeme interagieren, Strukturveränderungen im System auslöst, sie aber nicht determiniert, und umgekehrt. Das Ergebnis ist eine Geschichte wechselseitiger Strukturveränderungen, die Maturana und Varela strukturelle Koppelung nennen. Ein Beispiel:   

"Unter allen möglichen Interaktionen finden wir einige, die besonders rekursiv sind oder wiederholt vorkommen. Wenn wir beispielsweise die Membran einer Zelle betrachte, sehen wir, daß durch die Membran ein ständiger aktiver Transport von bestimmten Ionen (wie Natrium und Calcium) stattfindet, wobei die Zelle in Anwesenheit dieser Ionen derart reagiert, daß sie sie in ihr Stoffwechselnetz einbezieht. Dieser aktive Ionentransport findet sehr regelmäßig statt. Als Beobachter kann man sagen, daß die strukturelle Koppelung der Zellen mit ihrem Milieu deren rekursive Interaktionen mit den im Milieu befindlichen Ionen erlaubt. Die zelluläre strukturelle Koppelung läßt Interaktionen nur mit bestimmten Ionen zu. Wenn andere Ionen (z.B. Cäsium oder Lithium) in das Medium eingeführt werden, werden die dadurch ausgelösten strukturellen Veränderungen nicht mit der Verwirklichung der Autopoiese der Zellen in Einklang stehen." (Maturana/Varela 1990, S. 85-86)
Diese Sicht der Interaktionen bei Lebewesen schließt die Vorstellung von Information im Sinne eines Input-Output-Systems oder Sender-Kanal-Empänger-Schemas, bei dem die Systeme gleich bleiben und die Nachricht möglichst störungsfrei und ohne daß sie die Systeme selbst in ihrer Struktur verändert, übermittelt werden soll. Im Gegensatz dazu finden bei Lebewesen aufgrund der Interaktionen strukturelle Veränderungen statt. Man kann sagen, daß es sich bei diesem lebendigen In-Formationsprozeß immer um einen De- und Trans-Formationsprozeß handelt. Nicht die Ionen sind dabei die Informationen. Und auch nicht: Ionen transportieren Informationen. Sondern: aufgrund der Interaktionen der Zellen mit bestimmten Ionen finden "autopoietische" Veränderungen in den Zellen statt.   

Das führt zu einer Revision des Kommunikationsbegriffs im Sinne eines Austausches von Information zwischen einem Sender und einem Empfänger. Information ist kein Ding, das zwischen A und B transportiert wird. Der nachrichtentechnische Informationsbegriff muß in diesem Kontext revidiert werden. Information ist nicht eine Differenz in der Außenwelt, die von einem System aufgenommen wird, ohne sich dabei zu verändern, sondern sie ist eine Differenz, die wiederum eine Differenz in diesem System erzeugt. Genau so lautet die Definition des Biologen und Evolutionstheoretikers Gregory Bateson (1904-1980), die er 1970 aufstellte:   

"what we mean by information - the elementary unity of information - is a difference which makes a difference..." ("Was wir tatsächlich mit Information meinen - die elementare Informationseinheit -, ist ein Unterschied, der einen Unterschied ausmacht" (Bateson 1972, S. 453; Zitat nach Qvortrup 1993, S. 10; dt. 1985, S. 582).
Bateson setzt in diesem Zusammenhang das Wort "Idee" als synonym mit "Unterschied". In einem Stück Kreide, so Bateson in Anschluß an einem Beispiel Immanuel Kants, stecken eine unendliche Anzahl potentieller Tatsachen. Wenn wir ein Stück Kreide wahrnehmen, selektieren wir bestimmte Tatsachen, die dann, so Bateson,   
"zur Information werden. (...) Es bestehen Unterschiede zwischen der Kreide und dem Rest des Universums, zwischen der Kreide und der Sonne oder dem Mond. Und innerhalb des Kreidestücks bestehen für jedes Molekül eine unendliche Anzahl von Unterschieden zwischen seinem Ort und den Orten, an denen es hätte sein können." (Bateson, 1985, S. 582) 
Wie Lars Qvortrup bemerkt, Unterschiede in der physischen Welt erzeugen, nach Bateson, Unterschiede in der mentalen Welt, aber sein Informationsbegriff nivelliert den Unterschied zwischen dem Physischen und dem Mentalen (Qvortrup 1993, S. 11). Dennoch gilt, daß für Bateson, im Gegensatz zu Shannon, Information kein Ding ist, das gespeichert, verarbeitet und verteilt werden kann. Der Kybernetiker Heinz von Förster stellt Information ganz auf die Seite des Mentalen. "Die Umwelt enthält keine Information: die Umwelt ist wie sie ist." schreibt der Kybernetiker  Heinz von Förster (Förster 1985, S. 85). Information bezieht sich auf "eine Äußerung" oder "eine Beschreibung". Information ist deshalb "ein relatives Konzept, das Bedeutung nur dann annimmt, wenn es auf die kognitive Struktur des Beobachters dieser Äußerung (des "Rezipienten") bezogen wird." (ibid.) Information ist, mit anderen Worten, eine (mentale) Konstruktion des Beobachters. Das heißt nicht, daß die Welt selbst nur eine (mentale) Konstruktion wäre, aber, so die Konstruktivisten, es gibt für einen Beobachter keine andere Möglichkeit die Welt zu erkennen, als sie auf der Basis der eigenen Struktur zu beobachten und das heißt auch sie in Wechselwirkung mit anderen Beobachtern zu konstruieren (Schmidt 1987 und 1992). Dies ist eine Kampfansage an die Vorstellung, es gäbe eine "objektive Welt", über die wir verläßliche Informationen bekämen, indem wir sie in unserem Kopf abbilden (Abbildtheorie der Erkenntnis).   

Auf der Basis der Theorie selbstreferentieller Systeme hat der Soziologe Niklas Luhmann den Informationsbegriff ebenfalls im Sinne einer Systemänderung durch eine Außeneinwirkung definiert. Luhmann unterscheidet dabei zwischen organischen und psychischen sowie sozialen Systemen. Letztere sind Sinnsysteme. Bei organischen Systemen bedeutet Selbstreferenz so viel wie Selbstreproduktion. Soziale und psychische Systeme verarbeiten Sinn. Für Luhmann ist Sinn   

"ein Prozessieren nach Maßgabe von Differenzen, und zwar von Differenzen, die als solche nicht vorgegeben sind" (Luhmann 1987, S. 101)
Das Prozessieren von Differenzen findet auf der Basis eines Sinnangebots oder einer Mitteilung statt. Eine Mitteilung ist demnach   
"nichts weiteres als ein Selektionsvorschlag, eine Anregung" (Luhmann 1987, S. 194). 
Information ist dann, so Luhmann in Anschluß an Gregory Bateson,   
"nichts anderes als ein Ereignis, das eine Verknüpfung von Differenzen bewirkt - a difference that makes a difference." (Luhmann, 1987, S. 112)
Allerdings befinden wir uns mit dieser Auffassung von Information explizit auf der Ebene von psychischen und sozialen Systemen. Ferner knüpft Luhmann auch an Shannon und Weaver an, indem er Information als Selektion aus einem Repertoire von Möglichkeiten auffaßt (Luhmann 1987, S. 195). Aber auch hier unterscheidet sich seine Auffassung von Information vom nachrichtentechnischen Informationsbegriff, indem er Information auf sinnkonstituierende Systeme bezieht. Information ist eine "Bestimmung zur Selbstbestimmung" (Luhmann 1987, S. 103).   

Wenn ich jemandem sage: "Heute ist schlechtes Wetter", dann ist das eine Mitteilung, die eine sehr unterschiedliche Bedeutung für den Empfänger haben kann, ja nachdem, was er/sie darunter versteht (z.B. dann soll ich einen Regenschirm mitnehmen, oder: ich sollte lieber zu Hause bleiben usw.). Verstehen heißt die Differenz zwischen Information und Mitteilung zu vollziehen. Die Einheit von Mitteilung, Information und Verstehen konstituiert für Luhmann die Kommunikation:   

"Wenn Kommunikation in Gang kommt, entsteht mithin ein System, das eine besondere Art von Umweltverhältnis unterhält. Umwelt ist ihm nur als Information zugänglich, nur als Selektion erfahrbar, nur über Veränderungen (im System selbst oder in der Umwelt) erfaßbar." (Luhmann 1986, S. 239) 
Dabei löst Luhmann Kommunikation bei sozialen Systemen vom Bezug zu einem individuellen Bewußtsein ab, obwohl letzteres Voraussetzung für die erstere bleibt. Individuelles Bewußtsein ist aber nicht die Selbstreferenz sozialer Systeme (Luhmann 1986, S. 234). Kommunikation basiert nicht auf Konsens, sondern auf Redundanz und Differenz  
"Wenn A durch Kommunikation B über etwas informiert und ihm die Information abgenommen wird, kann C und jeder weitere sich sowohl an A als auch an B wenden, wenn er sich informieren will. Es entsteht ein Überschuß an Informationsmöglichkeiten, der aber gleichwohl funktional sinnvoll ist, weil er das System von bestimmten Relationen unabhängiger macht und es gegen Verlustgefahr absichert. Das gleiche Wissen, die gleiche Einstellung ist jetzt mehrfach vorhanden." (Luhmann 1986, S. 237-238).
Durch die Erzeugung von Redundanz wird das System unabhängiger von der (notwendigen) Kommunikation aufgrund eines individuellen Bewußtseins. Zugleich aber produziert das System Differenz, welche die Gefahr einer allgemein akzeptierten Fehleinstellung verhindert: "Jede Kommunikation lädt zum Protest ein" (ibid.) Man kann jederzeit ein Sinnangebot negieren.   

Von hier aus kritisiert Luhmann die dinghafte Vorstellung von Information und den dazugehörenden Begriff von Kommunikation. Er schreibt:   

"Der elementare, Soziales als besondere Realität konstituierende Prozeß ist ein Kommunikationsprozeß. (...) Voraussetzung für alles Weitere ist demnach eine Klärung des Kommunikationsbegriffs. Üblicherweise bedient man sich hierbei der Metapher "Übertragung". Man sagt, die Kommunikation übertrage Nachrichten oder Informationen vom Absender auf den Empfänger. (...) Die Übertragungsmetapher ist unbrauchbar, weil sie zu viel Ontologie impliziert. Sie suggeriert, daß der Absender etwas übergibt, was der Empfänger erhält. Das trifft schon deshalb nicht zu, weil der Absender nichts weggibt in dem Sinne, daß er selbst es verliert. Die gesamte Metaphorik des Besitzens, Habens, Gebens und Erhaltens, die gesamte Dingmetaphorik ist ungeeignet für ein Verständnis von Kommunikation. Die Übertragungsmetapher legt das Wesentliche der Kommunikation in den Akt der Übertragung, in die Mitteilung. Sie lenkt die Aufmerksamkeit und die Geschicklichkeitsanforderungen auf den Mitteilenden. Die Mitteilung ist aber nichts weiter als ein Selektionsvorschlag, eine Anregung. Erst dadurch, daß diese Anregung aufgegriffen, daß die Erregung prozessiert wird, kommt Kommunikation zustande. Ferner übertreibt die Metapher die Identität dessen, was "übertragen" wird. Benutzt man sie, wird man verführt, sich vorzustellen, daß die übertragene Information für Absender und Empfänger dieselbe sei. Daran mag etwas Wahres sein, aber jedenfalls ist diese Selbigkeit nicht schon durch die inhaltliche Qualität der Information garantiert, sondern sie wird erst im Kommunikationsprozeß konstituiert. Die Identität einer Information muß im übrigen als vereinbar gedacht werden mit der Tatsache, daß sie für Absender und Empfänger sehr verschiedenes bedeutet. Schließlich suggeriert die Übertragungsmetapher, daß Kommunikation ein zweistelliger Prozeß sei, in dem der Absender dem Empfänger etwas mitteilt. Auch hier haben wir Vorbehalte anzumelden." (Luhmann 1987, S. 193-194)
Luhmann betont in diesem Zusammenhang den Unterschied zwischen mündlichen und schriftlichen Mitteilungen. Beim mündlichen Sprechen können Mitteilung und Rede sich so auswirken, daß keine Zeit zum Zweifel und somit zur Auswahl und Information übrig bleibt. Erst durch den Buchdruck wird die Einheit von Information und Mitteilung durchbrochen. Aufgrund dieser Differenz entstehen Prozesse der Wahrheitskontrolle und der Verdachtsartikulation (Luhmann 1987, S. 223). In seiner Schrift Die Realität der Massenmedien schreibt Luhmann, daß vor allem Wahrnehmung und Sprache ein Übermaß an Unterscheidungen bereitstellen:   
"Sätze verwenden viele Worte, also viele Unterscheidungen, um etwas Bestimmtes zu sagen. Aber nur das, was kurzfristig oder längerfristig im Gedächtnis bleibt "macht den Unterschied"." (Luhmann 1996, S. 40) 
Das Zitat ("macht den Unterschied" bzw. "Draw a distinction") stammt aus dem Buch Laws of Form des englischen Mathematikers George Spencer Brown (Brown 1973, S. 3) Entscheidend ist dabei, so Luhmann, die Spezifikation, welches System diese Weisung ausführt. In diesem Zusammenhang wendet sich Luhmann erneut gegen die dinghafte Vorstellung von Informationsübertragung von System zu System. Ferner schreibt Luhmann:   
"Die wohl wichtigste Besonderheit des Codes Information/Nichtinformation liegt in dessen Verhältnis zur Zeit. Informationen lassen sich nicht wiederholen; sie werden, sobald sie Ereignis werden, zur Nichtinformation. Eine Nachricht, die ein zweites Mal gebracht wird, behält zwar ihren Sinn, verliert aber ihren Informationswert." (Luhmann 1996, s. 41) 
So Luhmann in Anschluß an Donald MacKay. Das Ergebnis von Information durch die Massenmedien in der Gesellschaft ist "eine spezifische Unruhe und Irritierbarkeit", die wiederum täglich von eben diesen Medien wiederaufgefangen wird. Vom Konzept der Irritation aus erläutert Luhmann die Zweiteiligkeit des Informationsbegriffs:   
"Die eine Komponente ist freigestellt, einen Unterschied zu registrieren, der sich als Abweichung von dem einzeichnet, was schon bekannt ist. Die zweite Komponente bezeichnet die daraufhin erfolgende Änderung der Strukturen des Systems, also die Eingliederung in das, was für die weiteren Operationen als Systemzustand vorausgesetzt werden kann. Es geht, wie gesagt, um einen Unterschied, der einen Unterschied macht." (Luhmann 1996, S. 47)  
 
 
 

4. Der kulturwissenschaftliche Informationsbegriff

Wir haben gesehen, daß seit Shannon und Weaver der Informationsbegriff aus dem Kontext menschlichen Denkens und Handelns herausgenommen - oder, genauer gesagt, innerhalb dieses Kontextes auf die syntaktische Dimension eingeengt wurde - und auf die Ebene der maschinellen Signalübertragung übertragen wurde. Von hier aus öffnete sich der Weg für eine naturalistische d.h. über die umgangsprachliche anthropologische Bedeutung hinausgehende Auffassung von Information, sofern nämlich ein formalisierter Informationsbegriff auf verschiedenen Wirklichkeitsbereichen angewandt werden konnte.   

Der Informatiker Heinz Zemanek hat auf die zugleich legitime Einschränkung des Informationsbegriffs in der Informatik wie auch auf die Problematik der verschiedenen Perspektiven oder semantischen Kontexten, von wo aus dieser Begriff seitdem thematisiert wurde, hingewiesen. Er nahm dabei Bezug auf die vom österreichischen Philosophen Ludwig Wittgenstein (1889-1951) entwickelte Sprachtheorie, in deren Mittelpunkt die "Sprachspiele" stehen. Unter "Sprachspielen" versteht Wittgenstein die verschiedenen "Lebensformen" in denen wir die Worte mit unterschiedlichen Bedeutungen gebrauchen. Nach Wittgenstein haben wir keine Möglichkeit diese Sichtweisen auf eine einzige ihnen übergeordnete Dimension zurückzuführen. Zemanek zieht daraus folgendes Fazit:   

"Und genau so hängt die Semantik der Information von dem Sprachspiel des Computers ab, in welchem es gebraucht wird - und alle Computerbenützer müssen sich über die Natur und die Reichweite des Sprachspiels klar werden, das sie betreiben - Anwendung um Anwendung sozusagen." (Zemanek 1986, S. 41) 
Zemaneks Beitrag erschien 1986 in einer Festschrift für den Informatiker und IBM-Mitarbeiter Karl E. Ganzhorn mit dem Titel: "Der Informationsbegriff in Technik und Wissenschaft" (Folberth/Hackl 1986). Wenige Jahre zuvor hatte der Physiker Horst Völz eine umfangreiche "Studie zur Vielfalt und Einheit der Information" veröffentlicht (Völz 1982/1983).   

Der vom Konstruktivismus her kommende Philosoph Peter Janich hat die breite Anwendung des Informationsbegriffs in verschiedenen Disziplinen einer eingehenden Kritik unterzogen. Die Naturwissenschaften betrachten Information - so Janich mit Bezug auf das Diktum Norbert Wieners ("Information ist Information, nicht Materie oder Energie") - als etwas, was, analog zu Stoff und Energie, von Maschinen verarbeitet und transportiert werden kann (Janich 1996, S. 290). Sie gehen also einen Schritt über Shannon und Weaver hinaus, die Information im Kontext menschlicher Kommunikation, wenngleich in einem eingeschränkten Sinne, bestimmten. Naturwissenschaften liefern Kausalerklärungen für natürliche Zustände oder Vorgänge. Janich unterscheidet zwischen Kausalerklärungen und informationstheoretische Beschreibungen. Letztere sind von einer menschlichen Zwecksetzung abhängig und beziehen sich also primär auf künstlich hergestellte Objekte.   

Im Falle der vom Menschen künstlich hergestellten Objekten, etwa einem Gemälde oder einem Taschenrechner, tritt also die Dimension eines Zwecks ein, die sich nicht aus einer Kausalbeschreibung - etwa aller Teile einer Taschenrechners oder alle Pigmente eines Ölgemäldes - ableiten läßt, sondern diesen Objekten vorausgeht. Wenn wir also einen Taschenrechner nach seinem Zweck beschreiben, tun wir dies aus der Sicht eines wissenden Konstrukteurs. Diese Sicht nennt Janich eine kognitive oder informationstheoretische Beschreibung (Janich 1996, S. 294).   

Es liegt nahe, dieses technische Modell auf die naturwissenschaftlichen Vorgänge zu übertragen. Damit hätten wir zwar kausale Vorgänge in eine informationstheoretische Terminologie übertragen, es bliebe aber fraglich, ob wir bei solchen "Erklärungen", nicht das voraussetzen, was eigentlich, im Falle der Natur, erst "später" zustande gekommen ist. Denn, so Janich, die Atome oder Moleküle sind nicht im gleichen Sinne "Teile" eines Organismus wie das bei einer künstlichen Maschine der Falle ist, bei der die Idee ihrer Zusammensetzung eben diesen Teilen oder "Komponenten" vorausgeht. Den Unterschied zwischen einer kausalen Erklärung und einer informationstheoretischen Beschreibung erklärt Janich am Beispiel der Rechenmaschine, die zwar nach kausalen Gesetzen "richtig" arbeiten kann, die gelieferten Ergebnisse aber wahr oder falsch sein können.   

Es kann zwar sinnvoll sein, Tiere und Menschen wie Maschinen mit Bezug auf bestimmte Zwecke zu interpretieren. Es läßt sich aber dabei keine Ableitung des zu Erklärenden (des Explanandum) auf der Basis des ihm vorausgehenden (des Explanans) herstellen. Informationstheoretische Erklärungen sind nur mit Bezug auf Sprache und zweckgerichtetes Handeln möglich (Janich 1996, S. 297-298). Es ist auch nichts an Erkenntnis gewonnen wenn wir zum Beispiel sagen, daß ein Gefäß eine Flüssigkeit "informiert". Denn eine solche Redeweise bedeutet entweder nur eine Verdoppelung dessen, was wir kausal beschreiben können oder sie setzt voraus, daß wir zunächst eine informationstheoretische Beschreibung leisten, womit wir dann den Vorgang interpretieren.  Es gibt also, so Janich, keinen Naturgegenstand "Information", sondern die Frage ist, "auf welche menschlichen Handlungen und damit auf welche Handlungsverben oder auch Adjektiva" Information zurückzuführen ist (Janich 1996, S. 300).   

Für Janich gehört Information zum Kontext der menschlichen Praxis des Redens, Zuhörens und Verstehens. Informieren ist ein Prädikat menschlicher Handlung. "A informiert B, daß s" bedeutet nach Janich, daß ein menschlicher Sprecher A einem menschlichen Zuhörer B den sprachlichen Ausdruck s äußert. Der sprachliche Ausdruck s kann wiederum, im Falle einer Behauptung, eine Aussage, die einen Sachverhalt darstellt, sein, im Falle einer Aufforderung ein Aufforderungssatz usw.:   

"Informieren bringt eine klare Rollenverteilung von Sprecher und Hörer zum Ausdruck. Wenn technische Hilfsmittel für Kommunikation ins Spiel kommen - etwa zur Überbrückung von Raum oder Zeit -, sprechen wir (wie bei einer Korrespondenz) von Sender und Empfänger. Schon die Verschriftlichung des gesprochenen Wortes ist ein solches technisches Hilfsmittel des Kommunizierens, an dem Anforderungen an die technische Substitution des gesprochenen Wortes erläutert werden können: das geschriebene Wort muß leistungsgleich mit dem gesprochenen Wort sein - wenigstens in einer besonderen Hinsicht. (Daß mit technischen Substitutionen auch immer etwas an der menschlichen Kommunikation verlorengeht, muß dabei nicht vergessen werden.)" (Janich 1996, S. 301)
Information ist für Janich immer auf Informationshandlungen bezogen. Eine solche Informationshandlung liegt zum Beispiel vor, wenn jemand nach dem Weg zum Bahnhof fragt. Frage und Antwort, Sprecher und Hörer, sind Rollen, die bei einer Informationshandlung gewechselt werden. Sie können auch durch technische Mittel - z.B. einen Automaten - in bestimmter Hinsicht substituiert werden. "Information an sich" ist lediglich eine Abstraktion. Es gibt keine konkreten Gegenstände auf die sich "Information" direkt bezieht, sondern mit Information meinen wir etwas Abstraktes, das bei allen Informationshandlungen invariant bleibt.   

Für den österreichischen Wissenschaftstheoretiker Erhard Oeser hat Information den Charakter eines "Metaprädikats", d.h. Information ist keine Eigenschaft von Objekten, sondern eine Eigenschaft von Eigenschaften, zum Beispiel bestimmter Signale. Wir sprechen von Information in ähnlicher Weise wie bei den natürlichen Zahlen 1, 2, 3,..., die als Abstraktionsklassen äquivalenter Mengen interpretiert werden (Oeser 1976, Bd. 2, S. 11). Für Janich sind diese Mengen immer menschliche Informationshandlungen, d.h. "die Praxis des Redens, Zuhörens und Verstehens, des Austausches von Nachrichten, des Kommunizierens" (Janich 1996, S. 300).   

Nach Janich lassen sich dann, ausgehend vom menschlichen Handlungsbezug, Anwendungen des Informationsbegriffs auf künstliche Gegenstände, im Sinne einer Substitution menschlicher Rede denken, wie am Beispiel des Taschenrechners ersichtlich. Auch eine Anwendung in der Biologie ist möglich, etwa wenn tierisches Verhalten nach Analogie menschlicher Kommunikation verstanden wird. Allerdings sind solche Anwendungen für Janich immer metaphorisch. Sie sind dann sinnlos, wenn sie Kausalerklärungen lediglich verdoppeln.   

Janich knüpft an die alltägliche Bedeutung von Information, "wo es entscheidend auf Verständnis und Geltung ankommt: Wer sich etwa bei der Auskunft der Bahn über Zugverbindungen "informiert", erwartet als selbstverständlich, daß die gegebene "Information" zutrifft, d.h. eindeutig verstehbar und gültig ist. "Nicht richtig informiert" zu sein, gilt als schwere Beeinträchtigung der eigenen Handlungsmöglichkeiten und ist unstrittig ein Orientierungsdefizit." (Janich 1998, S. 169) Janich nennt zwei historische Wurzeln des Informationsbegriffs, nämlich die Herkunft aus dem Lateinischen "informatio/informare" - sowohl im Sinne des Formens eines Stoffes als auch im Sinne von Unterrichten oder Darstellen - und die nachrichtentechnische von Shannon und Weaver geprägte Bedeutung. Letztere bracht nicht nur eine Technisierung, sondern zugleich eine Naturalisierung des Informationsbegriffs zustande. Der Vorgang der technischen Nachrichtenübertragung wurde auf physikalische, chemische und biologische Systeme und letztlich unter einer evolutionären Sichtweise auch auf den Menschen selbst ausgeweitet.   

Dieser Naturalisierung des Informationbegriffs stellt Janich seine "kulturalistische" Kritik entgegen, wonach Information ursprünglich auf den Bereich menschlicher Handlungen in Zusammenhang mit der Aufstellung von Mitteln und Zwecken zu tun hat. So rechnet eigentlich die Rechenmaschine nicht, sondern sie rechnet nur aus der Sicht des Benutzers, sofern sich diese Sicht von der eines Ingenieurs unterscheidet, der das Gerät baut oder repariert und dieses dabei unter einem physikalischen oder mechanischen Gesichtspunkt betrachtet. Diese zwei Beschreibungsebenen, nämlich die des rechnenden Benutzers und die des reparierenden Technikers, sind nicht aufeinander reduzierbar. Die Geltung eines Rechnerergebnisses wird nicht auf die Maschine, sondern auf den Konstrukteur bezogen. Ähnliches gilt für natürliche Organe, wie im Falle unseres Gehirns, wenn dieses nach dem Modell technischer Systeme betrachtet wird. Und schließlich auch für die Genetik ("Erbinformation"). Janich wörtlich:   

"Die Anwendung informationsbegrifflicher Sprechweise auf den Modellbaukasten molekularer Genetik ist eine Analogiebildung", in der eine Semantik hineinprojiziert wird, die eigentlich nur dem menschlichen Handeln eigen ist (Janich 1998, S. 177). 
Im Mittelpunkt von Janichs kulturalistischer Auffassung von Information steht das Auffordern gegenüber dem Behaupten:   
"Grundlegend für gelingende Aufforderungspraxen ist jedoch, daß durch sie eine für die beteiligten Personen gelingende Verbindung der (sprachlichen) Handlung des Aufforderns und der (gegebenenfalls nicht-sprachlichen) Handlung des Befolgens stattfindet." (Janich 1998, S. 178) 
Janich kommt es insbesondere auf die mögliche Standardisierung von Aufforderungen an:   
"Lebenspraktisch spielen in Aufforderungsdialogen häufig bestimmte Invarianzen eine prominente Rolle: Sprecher-, Hörer - und Darstellungsinvarianz. Das heißt, für bestimmte in Aufforderungen erfragte Auskünfte soll es keine Rolle spielen, wer die Auskunft (Sprecher) erteilt, an wen sie geht (Hörer) und mit welchen Worten sie mitgeteilt wird - wie im genannten Beispiel der Fahrplanauskunft selbstverständlich der Fall: Jeder Reisende darf erwarten, am Schalter eine richtige Auskunft zu erhalten; jede Auskunft gebende Person soll gleichermaßen verständliche und gültige Auskünfte geben, und schließlich soll es nicht darauf ankommen, mit genau welchen Worten, in welcher Tonlage, welchem Dialekt usw. die Auskunft gegeben wird, sondern es soll schließlich auf die gelingende Kooperation ankommen". (Janich 1998, S. 179). 
Information ist für Janich an sprachliche Mitteilungen gebunden. Ferner handelt es sich um Mitteilungen, bei denen es auf ein kommunikatives und kooperatives Gelingen ankommt und zwar als Antwort auf eine Aufforderung. Schließlich soll es sich um Mitteilungen, die invariant gegenüber Sprecher, Hörer und Darstellung sind. Dies ist die Grundlage für ihre mögliche technische Substitution. Die jeweiligen Artefakte sind entweder Adressaten oder Urheber von Aufforderungen. Diese metaphorische Zuschreibung gilt auch für das Auffordern nicht-symbolischer Maschinen, wie etwa das Bedienen eines Autos. Eine Anthropomorphisierung oder Vermenschlichung der Maschine ist dabei unvermeidbar, vor allem wenn die Mensch-Maschine Aufforderungsverhältnisse in beiden Richtungen stattfinden. Das Kriterium für ein ge- oder mißlingendes Aufforderungsverhältnis bleibt die zwischenmenschliche Kommunikation und Kooperation.   

Die Standardisierung eines solchen Verhältnisses und ihre maschinelle Substitution ermöglichen aber, daß die von Shannon und Weaver aufgestellte Definition von Information im eingeschränkten Sinne angewandt werden kann. 

  
 
 
 

5. Der naturwissenschaftliche Informationsbegriff

In diesem Abschnitt setzen wir uns exemplarisch mit dem Informationsbegriff in den Naturwissenschaften auseinander. Horst Völz hat eine umfassende Darstellung dieses Themas vorgelegt, auf die wir aber hier nicht eingehen können (Völz 1982-1983; Folberth u. Hackl 1986). Stattdessen wollen wir uns exemplarisch mit der Analyse des Informationsbegriffs beschäftigen, die der Physiker und Philosoph Carl-Friedrich von Weizsäcker in verschiedenen Veröffentlichungen seit Ende der 50er Jahre vorgelegt hat. Wir wählen einige Stationen dieses Forschungsweges aus.   
  
  

1.  "Sprache als Information" (1959) 

Wir beginnen mit dem Vortrag Sprache und Information aus dem Jahre 1959, der in Die Einheit der Natur (1974) wiederabgedruckt wurde. Weizsäcker stellt fest, daß wenn wir gewöhnlich von Information sprechen, von einem sprachlichen Phänomen sprechen. Genauer: Information meint eine bestimmte Art über die Sprache zu sprechen. Das setzt wiederum voraus, daß Sprache mehr ist, als Information. Was meinen wir aber gewöhnlich mit Information? Antwort: die sprachliche Mitteilung von Tatbeständen. Die Sprache ist Träger von Information. Gemeint ist sowohl die gesprochene als auch die geschriebene Sprache, wobei die letzte Form den Vorzug hat, daß sie Information verobjektiviert und nachprüfbar macht. Dabei läßt sich die verobjektivierte Bedeutung von den dafür gebrauchten Zeichen unterscheiden. Hier knüpft Weizsäcker an die damals entstandene Informationstheorie von Claude Shannon und Warren Weaver an, die auf dieser Unterscheidung basiert. Für die Nachrichtentechnik sind die Zeichen nicht aber deren Bedeutung entscheidend oder, anders ausgedrückt, bei einer Nachrichtenübermittlung werden, aus informationstheoretischer Sicht, Zeichen nicht Bedeutungen gezählt. Information kann also, so betrachtet, gemessen werden. Was ist das Maß der Information?   

Als der amerikanische Erfinder Samuel Morse (1791-1872) den ersten elektromagnetischen Schreibtelegraphen um 1840 erfand und 1843 die erste Telegraphenlinie von Washington nach Baltimore errichtete, benutzte er dafür einen binären Punkt-Strich-Code, der Buchstaben in Längen und Kürzen codierte. Diese binäre Codierung erhielt später die Bezeichung "bit of information". Mit einem kurzen und einem langen Stromstoß konnte er die 25 Buchstaben des Alphabets codieren. Die einzelnen Zeichen entstehen also aus einer bestimmten Anzahl von Ja-Nein-Entscheidungen. Durch eine Ja-Nein-Entscheidung hätten wir also nur zwei Fälle oder zwei Buchstaben. Setzen wir aber zwei Entscheidungen hintereinander, ergeben sich vier verschiedene Fälle, bei drei hintereinander gesetzten Zeichen sind es sechzehn Zustände, usw. Für die Darstellung des Alphabets reichen also höchstens fünf Elemente. Computer arbeiten auf der Basis dieser Reduktion von Information auf Ja-Nein-Entscheidungen. Damit wurde es möglich, so Weizsäcker, bestimmte Denkoperationen, die von einem Menschen vollzogen werden, durch eine Maschine ausführen zu lassen. Dabei ist aber zu beachten, daß zwischen dem Entwerfen eines Schemas oder eines Kalküls und dem Kalkül selbst einen Unterschied besteht. Das Denken erschöpft sich also nicht im Kalkül.   

Was ist also Information?  Ein Telegramm enthält Information, ebenso wie ein Kalkül. Information läßt sich auch nachrichtentechnisch messen. Bezeichnen wir mit Information etwas Materielles oder einen Bewußtseinsinhalt? Antwort: weder noch. Denn die Druckerschwärze in einem abgeschickten Telegrammzettel ist verschieden von der Druckerschwärze des in Empfang genommenen Telegrammzettels:   

"Information ist gerade das, was beiden Zetteln gemeinsam ist" (Weizsäcker 1974, S. 51).
Ähnliches gilt für den Bewußtseinsinhalt: Das, was ich gedacht habe, ist verschieden von dem, was der Empfänger denkt. Dennoch ist beiden etwas gemeinsam. Daraus zieht Weizsäcker folgende Schlußfolgerung:   
"Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." (Weizsäcker 1974, S. 51) 
Wir werden im letzten Kapitel auf diese Herkunft des Informationsbegriffs näher eingehen. Information ist  "Form oder Gestalt oder Struktur" (Weizsäcker 1974, S. 52). Form kann sich auf die Struktur eines sinnlich wahrnehmbaren Gegenstandes beziehen, sie kann aber auch, wie im Falle von Information, auf einer höheren Abstraktionsstufe angesiedelt sein. Sie meint aber nicht den Denkvorgang, sondern dem Gedanke selbst.   

Aber nicht jeder Gedanke ist zugleich Information. Zwei Bedingungen sind dafür notwendig: sprachlicher Charakter und Eindeutigkeit. Mit sprachlichem Charakter meint Weizsäcker nicht nur die vom Menschen gesprochene mündliche Sprache, sondern auch Schrift und jede Form von Codierung. Ausgeschlossen ist aber dabei etwa die geometrische Form eines Sterns oder eines Kuchens. Dabei gibt Weizsäcker zu, daß er die Grenze zwischen der sprachlichen und der nicht-sprachlichen Form nicht scharf zu ziehen vermag. Er wird sich in späteren Arbeiten mit dieser Grenze eingehend befassen. Information meint aber nicht nur Sprache, sondern auch Mitteilung. Es muß potentiell von jemandem aufgefaßt werden. Information hat also mit Kommunikation (zwischen Personen) zu tun. Wie steht es aber mit dem biologischen Informationsbegriff? Weizsäcker findet den Gebrauch des Informationsbegriffs in Zusammenhang zum Beispiel mit dem Chromosomensatz "völlig legitim" (Weizsäcker 1974, S. 53), obwohl hier niemand spricht oder einem anderen Menschen etwas mitteilt. Somit stehen wir vor einer Alternative: entweder wir versuchen Information ohne Bezug auf Sprache und Mitteilung zu definieren oder aber wir bezeichnen damit eine Eigenschaft unseres sich sprachlich artikulierenden Denkens. Im ersten Fall meinen wir mit Information meßbare Strukturmengen, im zweiten die von uns herausgehobenen Strukturen. Beide Aspekte gehören aber zusammen, denn gerade wenn wir durch Ja-Nein-Entscheidungen eine Form messen, sind es wir, die dies tun und es ist nicht von vornherein klar, daß alles in der Natur sich so messen läßt. Die Frage also, wie Information jenseits der menschlichen Sprache zu verstehen ist, bleibt in diesem Vortrag weitgehend offen.   

Schließlich kehrt Weizsäcker auf das Verhältnis von Sprache und Information zurück. Mit Hinweis auf Logik und Mathematik betont er, daß die Versuche, Teile der Sprache eindeutig zu machen, stets den Gebrauch der natürlichen Sprache und somit eine nicht in Eindeutigkeit verwandelte Sprache voraussetzen. Eindeutige Definitionen können verdeckte Mehrdeutigkeiten entfalten, die auf den ersten Blick nicht sichtbar sind. Von Euklid bis Gauß ging man davon aus, daß es eindeutige Begriffe und Axiome gibt, die von selbst gewiß sind. Der Philosophie warf man vor, sie könnte solche Fundamente nicht ausweisen. Die Mathematik und Logik im 19. und 20. Jahrhundert (Cantor, Hilbert, Gödel, Tarski) brachten die Grenzen einer solchen Auffassung von Eindeutigkeit und somit auch von Wahrheit zum Ausdruck. Ludwig Wittgenstein hat ebenfalls die Grenzen des "klar sagens" gezeigt. Der Begriff der Information selbst zeigt, daß er, um präzis aufgefaßt zu werden, eine nicht in Eindeutigkeit verwandelte Sprache voraussetzt. Zwischen Sprache und Information besteht ein "unvermeidliche(r) Zirkel" (Weizsäcker 1974, S. 59), denn Wahrheit läßt sich zwar für Kalküle oder Sätze nicht aber für die Sprache als Ganzes setzen. Von diesem "Zirkel" spricht auch die Hermeneutik ("hermeneutischer Zirkel") im Sinne eines in sich fort- und zurücklaufenden Prozesses, bei dem Annahmen explizit gemacht werden (können) ohne aber zu einem endgültigen Fundament zu kommen.   

Weizsäckers Schlußsatz lautet:   

"Die ganz in Information verwandelte Sprache ist die gehärtete Spitze einer nicht gehärteten Masse. Daß es Sprache als Information gibt, darf niemand vergessen, der über Sprache redet. Daß Sprache als Information uns nur möglich ist auf dem Hintergrund einer Sprache, die nicht in eindeutige Information verwandelt ist, darf niemand vergessen, der über Information redet. Was Sprache ist, ist damit nicht ausgesprochen, sondern von einer bestimmten Seite her als Frage aufgeworfen." (Weizsäcker 1974, S. 60)
Weizsäcker hielt diesen Vortrag im Rahmen der Reihe "Die Sprache" der Bayerischen Akademie der Schönen Künste in München und der Akademie der Künste in Berlin. An dieser Reihe waren auch Emil Preetorius, Romano Guardini, Friedrich Georg Jünger, Thrasybulos Georgiades, Martin Heidegger und Walter F. Otto beteiligt (Bayerische Akademie der Schönen Künste 1959). In seinem Vortrag "Der Weg zur Sprache" spricht Heidegger von einem "Geflecht" sowie von einem "Zirkel" in dem die "natürliche" Sprache und die als Information "gestellte" Sprache verflochten sind. Dieser Zirkel besteht eben darin, Sprache mit Bezug auf Information und umgekehrt definieren zu wollen. Dieser Zirkel ist aber, so Weizsäcker, "sinnvoll und unvermeidlich" er ist "die Bedingung der Exaktheit im Denken" (Weizsäcker 1974, S. 53) Die Einsicht in die Verflechtung oder Vernetzung zwischen der exakten oder "in-formierenden" und der mehrdeutigen Natur der Sprache führt zu einer Interpretationstheorie der Information oder "Informationshermeneutik" (Capurro 1986).   
  

2. "Materie, Energie, Information" (1969) 

In dem 1969 geschriebenen aber zunächst unveröffentlicht gebliebenen Beitrag "Materie, Energie, Information" (Weizsäcker 1974) thematisiert Weizsäcker den Informationsbegriff in der Biologie. Er beginnt mit einer Erörterung der Begriffe Form und Materie. Materie heißt auf Griechisch "hyle" d.h. Holz. Ein Schrank ist aus Holz und hat eine bestimmte Form, ein "eidos" oder Wesen. Das Konkrete ist immer ein Zusammengesetzes aus Materie und Form, wobei das, was auf einer Ebene als Materie gekennzeichnet wird, auf einer anderen Ebene wiederum als Form angesprochen wird: Das Holz im Falle des Schrankes ist Materie, es besteht aber selbst aus bestimmten Molekülen, die seine Materie sind usw. Diese Ansicht der Begriffe Materie und Form stammt aus der griechischen Philosophie. Eine andere antike Tradition ist die des Atomismus, wonach es eine letzte selbständige, nicht mehr aufteilbare geformte Materie gibt, nämlich die Atome. Im 19. Jahrhundert tritt aber ein Gegenbegriff zur Materie auf, die Energie:   
"Energie ist das Vermögen, Materie zu bewegen. Dieses Vermögen aber wird durch den Satz von der Erhaltung der Energie substantialisiert. Es wird quantitativ meßbar, und es zeigt sich, daß seine Quantität, ebenso wie die Quantität der Mateerie, zeitlich erhalten bleibt. (Robert Mayer betrachtete den Energiesatz als quantitative Fassung der Regel "causa aequat effectum".) Was erhalten bleibt, betrachet man als eine Substanz, ein in allem Wandel der Erscheinungen sich gleich bleibendes Zugrundeliegendes. So schien es im 19. Jahrhundert zwei Substanzen in de Physik zu geben, Materie und Energie, popularphilosophisch Kraft und Stoff. Die Relativitätstheorie hat uns in gewissem Sinne die Identität der beiden Substanzen gelehrt. Erhaltung der Materie heißt in heutiger Terminologie Erhaltung der Masse; und Energie und Masse sind relativistisch äquivalent." (Weizsäcker 1974, S. 344--345) 
Der Informationsbegriff bringt die Gegenpole des Materiebegriffs, nämlich Form und Bewußtseins wieder ins Spiel. Was ist Information? Antwort:   
"ein Maß der Menge an Form" (Weizsäcker 1974, S. 347). 
Weizsäcker erläutert dies anhand des nachrichtentechnischen Informationsbegriffs. Information und Wahrscheinlichkeit hängen zusammen: Je unwahrscheinlich das Eintreten eines Ereignisses, umso mehr Information enthält es. Wahrscheinlichkeit besagt zwar etwas Subjektives, eine Mutmaßung, aber auch etwas Objektives, sofern etwas Wahres oder intersubjektiv Nachprüfbares über einen Gegenstand ausgesagt wird. Die Information eines Ereignisses ist gleich der Anzahl unentschiedener einfacher Alternativen. Diese bilden die Menge an Form dieses Ereignisses. Je weniger wir über das Eintreten eines Ereignisses wissen, umso größer ist das Maß an Information und somit auch das Maß für die Wahrscheinlichkeit. Dieses steht in umgekehrtem Verhältnis zum Vorwissen.   

Ein Beispiel: Zwei Würfelspieler sollen die Wahrscheinlichkeit des Eintretens des Wertes 2 von beiden Würfeln abschätzen, wobei einer seine Voraussage macht, wenn er die Augenzahl des ersten Würfels kennt. Mit dem Wissenszuwachs über das Eintreten des vorauszusagenden Ereignisses wird also das Maß der Wahrscheinlichkeit immer geringer. Was aber die Würfelspieler wissen ist mehr als die Information über die Zahlen, nämlich sie kennen die ganze Semantik des Würfelspielens und diese macht letztlich auch die "Form der Würfel" aus. Wenn man also dieses umfassende Wissen in Rechnung stellt, wird es einsichtig, daß auf die Frage   

"Wieviel Form enthält das Würfelpaar nun wirklich?" keine einfache Antwort gibt. Was wir über die Gegenstände wissen, hängt immer davon ab, welchen Begriff wir von ihnen voraussetzen oder unter welchem Gesichtspunkt wir sie betrachten. Anders ausgedrückt, das quantifizierte oder objektive Wissen hängt immer von einem Wissen, das jemand von etwas hat, ab. Was man wissen kann ist jeweils die Form (Griechisch: 'eidos') von etwas. Die gewußte Form ist zugleich die Form des Gegenstandes, das subjektive Wissen ist zugleich "objektivierte Semantik" (Weizsäcker 1974, S. 351). 
Daraus leitet Weizsäcker zwei grundlegende Thesen über den Informationsbegriff, auf die er immer wieder zurückkommen wird, ab, nämlich:   
"Information ist nur, was verstanden wird." (Weizsäcker 1974, S. 351) 
und  
"Information ist nur, was Information erzeugt." (Weizsäcker 1974, S. 352) 
Die erste These ist so gemeint, daß auch von einem Organismus, der die DNS-Information in Proteingestalten umsetzt, diese auch "versteht". Information und Verstehen sind also Phänomene des Lebendigen. Daraus wird also die zweite These abgeleitet. Der Informationsbegriff wird hier mit dem Begriff der Bewegung oder, besser gesagt, der organischen Bewegung gleichgestellt. Da diese aber ein energetischer Prozeß ist, stellt sich die Frage, inwiefern dann auch Energie und Information identifiziert werden können.   

Zuvor wird aber die These von der Information als objektivierter Semantik am Beispiel der genetischen Information erläutert. Eine bestimmte Tierart enthält zum Beispiel 2 n bits an genetischer Information. Wenn wir jetzt wissen wollen, wieviel objektivierte Semantik diese Spezies enthält, dann sind zwei Antworten möglich: Entweder genau 2 n oder soviel wie die Formmenge eines ganzen Organismus, d.h. DNS-Buchstaben x Anzahl der Eiweißmoleküle x Anzahl der Zellen... also eine sehr große Zahl. Im ersten Fall handelt es sich um die Information eines bestimmten Individuums dieser Spezies, im zweiten um die Information über die DNS-Kette des Kerns einer beliebigen Zelle eines beliebigen Organismus dieser Spezies. Die zweite Antwort artikuliert nicht den Begriff zu dem die Information eines Organismus gezählt werden soll, sie nimmt also die These: "Information ist nur, was verstanden wird" nicht ernst. Die erste Antwort läßt die Informationserzeugung außer Acht. Weizsäcker betont:   

"die Thesen waren aber so gemeint, daß gerade die Informationserzeugung das Verstehen ist. Offenbar vernachläßigen beide Antworten, daß es sich nicht um statische Information, sondern um Informationsfluß handelt." (Weizsäcker 1974, S. 354) 
Von hier aus wendet sich Weizsäcker den folgenden Thesen zu:   
"Substanz ist Form. Spezieller: Materie ist Form. Bewegung ist Form. Masse ist Information. Energie ist Information" (Weizsäcker 1974, S. 361) 
Die These: "Substanz ist Form" steht im Einklang mit der antiken Vorstellung wonach Form ein relativer Begriff ist. Sie führt in letzter Konsequenz auf die Anahme von "Uralternativen":   
"Alle Formen "bestehen aus" Kombinationen von "letzten" einfachen Alternativen." (Weizsäcker 1974, S. 362). 
Die These: "Materie ist Form" bedeutet, daß die Elementarteilchen aus Uralternativen aufzubauen wären. Die These: "Masse ist Information" besagt, daß Information die Anzahl der in einer Situation eingehenden Uralternativen ist. Die These: "Energie ist Information" bedeutet, daß alles über die Masse Gesagte, auch von der Energie gilt. In der These: "Bewegung ist Form" tritt der Flußcharakter der Information hervor: "Information ist nur, was Information erzeugt; Bewegung bewegt sich selbst" (Weizsäcker 1974, S. 363).   

Die Welt, so Weizsäcker, erscheint von dieser Theorie aus gesehen, als "Inbegriff der Formen". Form meint immer eine wißbare Form. Der Wissende ist der Mensch, aber auch, aufgrund der objektivierten Semantik, ein Meßgerät. Menschen können endlich viel Informationen in endlicher Zeit besitzen. Nach dieser Theorie ist die Möglichkeit, daß Materie denken kann, prinzipiell gegeben, ohne daß aber der Übergang vom "virtuellen" zum "aktuellen" Wissen schon erklärt wäre. Die Begriffe Wahrscheinlichkeit und Information sind statisch, sofern sie objektivierbare Formen meinen. Sofern die Kybernetik von dieser Objektivierung ausgeht und die nicht-objektivierbare Dimension der Geschichte nicht berücksichtigt, stößt sie methodisch auf ihre Grenzen.   
  

3. "Information und Imagination" (1973) 

Vierzehn Jahre nach dem ersten Vortrag in der Bayerischen Akademie der Schönen Künste hielt Weizsäcker im selben Rahmen einen Vortrag mit dem Titel "Information und Imagination". Er beginnt mit der Feststellung, daß der naturwissenschaftliche Wahrheitsbegriff ein technischer ist: Wahr ist das, was planmäßig funktioniert. Weizsäcker schreibt:   
"Information ist wiedererkennbare Wahrheit, und zwar nach einem bestimmten Verfahren, auf das man sich einigen kann, wiedererkennbar übertragene Wahrheit." (Weizsäcker 1973, S. 13)
Die Gegenüberstellung von Information und Imagination impliziert, daß es zwei Wahrheitsbegriffe gäbe. Der naturwissenschaftliche Wahrheitsbegriff, der Informationsbegriff also im Sinne von "wiedererkennbarer Wahrheit" hat seine Wurzeln in der griechischen Philosophie, genauer, in der Philosophie Platons. Die moderne Naturwissenschaft kehrt aber den platonischen Wahrheitsbegriff um. Denn für Platon meint Information, wenn man diesen Begriff von der "Idee" her denkt,   
"die Einwohnung der Form in der Materie oder die Erfüllung der Materie mit Form" (Weizsäcker 1973, S. 17). 
Information ist also im wörtlichen Sinne "Einformung". Dadurch wird dem Ewigen einen Leib gegeben. Das so Geformte kommt dann zur Erscheinung, es wird sichtbar und wahr. Das griechische Wort für Wahrheit ("aletheia") drückt diesen Vorgang des aus der Verborgenheit ("lethe") in die Un-Verborgenheit kommen ("a-letheia") aus. Allerdings ensteht durch diese Verwirklichung der Form im Bereich des sinnlich Wahrnehmbaren ein Abgeleitetes. Das hierarchische Verhältnis zwischen der Idee und ihrer sinnlichen Verwirklichung wiederholt sich wiederum im Falle des durch die Imagination geschaffenen künstlichen Abbildes ("imago") des sinnlich Wahrnehmbaren. Die platonische Philosophie und mit ihr, so Weizsäcker, die davon abgeleitete Wissenschaft, stellt den Begriff der Information im Sinne von Einformung auf einer höheren Stufe als den der Imagination dar. Im Klartext heißt das, daß die Wissenschaft einen höheren Wahrheitsgehalt besitzt als die Kunst. Eine Umkehrung der Verhältnisse im Sinne einer Herabsetzung der Wissenschaft würde die gegenwärtige Macht und den Anspruch der Wissenschaft, die sich aus ihrem Verhältnis zur Wirklichkeit ergibt, nicht überwinden. Allerdings ist die moderne Wissenschaft, von Platon aus gesehen, eine Sache des Verstandes und des Experimentierens, die den Blick der Vernunft auf das Ganze aus den Augen verliert.   

Was tut die moderne Naturwissenschaft? Antwort: Sie buchstabiert das Alphabet der Natur. Sie ist zwar Platonisch das heißt mathematisch orientiert, aber ihr Ziel ist die empirische Prognose. Die Gesetze der Physik werden nicht durch bloße Vernunft erkannt, sondern sie stellen "Bedingungen der Möglichkeit der Entscheidung empirisch entscheidbarer Alternativen" dar (Weizsäcker 1973, S. 20). Sie sind die Rahmenbedingungen für gewinnbare Information. Denn Information, so Weizsäcker seine vierzehn Jahren zurückliegende Definition wiederaufnehmend,   

"gibt es nur unter einem Begriff. Information ist nicht etwas, was auf der Straße herumliegt so wie Kieselsteine, sondern Information wird erzeugt; und sie wird erzeugt nur von denjenigen, welche imstande sind, in Begriffen zu denken. Das drückt sich sprachlich so aus, daß ich in der Sprache sage, welche Information ich gewonnen habe." (Weizsäcker 1973, S. 22) 
Die Sichtweise von Information, die sowohl von der platonische als auch von der neuzeitlichen Transzendentalphilosophie (I. Kant) stammt, bedeutet eine Infragestellung der empiristischen Vorstellung, man könnte Information aus Einzelerfahrungen, "so wie Kieselsteine", sammeln. Begriffe aber müssen der Erfahrung vorausgehen, wenn daraus Information gewonnen werden soll: "Begriffe ermöglichen Tatsachen" (Weizsäcker 1973, S. 23).   

Die moderne Naturwissenschaft basier nicht nur auf dem Begriff der Erfahrung, sondern auch auf dem der Evolution. Was bedeutet Evolution? Antwort: "Vermehrung der Menge an Form" (Weizsäcker 1973, S. 24). Das ist eine andere Formulierung für: "Anwachsen der Information" (ebda.). Diese These spiegelt wiederum jene zweite Sicht von Information im Sinne von "Information ist nur, was Information erzeugt", wider. Weizsäcker löst aber die Spannung zwischen der Informationserzeugung und ihrer 'Wahr-nehmung' durch menschliche Sprache nicht auf. Wenn Wahrheit nach der mittelalterlichen Definition als Anpassung des Gedankens an einen Sachverhalt ("adaequatio intellectus et rei") bestimmt wird, dann leben Tiere, die sich an ihrer Umwelt sozusagen "informatorisch" anpassen, in der Wahrheit. Allerdings nicht im Modus der menschlichen Sprache.   

Durch die Sprache vermögen wir Handlungsmöglichkeiten vorzustellen, wodurch einen Unterschied zwischen dem, was wirklich geschieht und dem Wissen von dem, was geschehen könnte, geschaffen wird. Durch ein solches auf Möglichkeiten hin offenes "symbolisches Handeln" vermag der Mensch anders zu leben als die sonstigen Lebewesen. In dieser Hinsicht spielt die Imagination, im Sinne des Hervorbringens von (bildhaften) Repräsentationen dessen, was geschehen könnte, eine zentrale Rolle. Daraus ergibt sich die Einsicht, so Weizsäcker, daß die naturwissenschaftlich verstandene Information eine "durch bestimmte Spielregeln eingeschränkte" Art von Imagination ist (Weizsäcker 1973, S. 27).   

Information im Sinne von wissenschaftlicher Imagination besteht darin, das, was geschieht, in einzelnen unterscheidbaren und ersetzbaren Stücken zu zerlegen. Information ist sozusagen durch den Verstand und den Willen kontrollierte Imagination. Demgegenüber stellt Weizsäcker die künstlerische Imagination sowie die Vernunft im Sinne des Vermögens, das Gesamte zu denken und davon Rechenschaft zu geben. Wodurch unterscheidet sich diese moderne Auffassung von Information und Imagination gegenüber der aus der griechischen Philosophie tradierten? Antwort: Durch die offen gedachte Zeit. Information im Sinne von kontrollierter Zukunftsimagination ist für Weizsäcker der Schlüssel für das Überleben der Menschheit.   

    

4. "Der Garten des Menschlichen" (1977) und "Aufbau der Physik" (1985) 

In seinem Buch "Der Garten des Menschlichen" stellt Weizsäcker die Begriffe Information, Anpassung und Wahrheit in ihrem bisher erörterten Zusammenhang erneut dar. Auf der einen Seite gibt es Information nur "für Menschen" (Weizsäcker 1977, S. 201). Auf der anderen Seite aber tendiert der moderne Informationsbegriff dazu, sich vom menschlichen Subjekt zu lösen. Kommunikation und Verstehen im Sinne der Schaffung von neuen Strukturen wird durch Organismen und letztlich auch durch Apparate geleistet. Gemeinsam ist dabei dabei der Grundsatz, daß Information nur "für einen Empfänger" gibt. Was heißt "für"? Nicht primär die menschliche Reflexion, sondern "für" kann sich auch auf jede Form von aufnehmenden Strukturen oder Organen beziehen. Der Satz: "Information gibt es nur unter einem Begriff" bedeutet also nicht, daß Information nur im Falle der menschlichen Sprache stattfindet. Organe sind "objektive Begriffe". Information gibt es in diesem Sinne nur "für" ein funktionierendes Organ (Weizsäcker 1977, S. 203).   

Damit knüpft Weizsäcker an seine These über die "objektivierte Semantik" an und folgert die zweite These, nämlich: "Information ist nur, was Information erzeugt". Das funktionierende Organ ist nicht nur Empfänger, sondern immer zugleich auch Sender von Information. Dabei besteht weiterhin die Unterscheidung zwischen der menschlichen Reflexionsfähigkeit, die sich in Form von wahren oder falschen Urteilen über die stattfindenden Ereignisse ausdrückt, und der Art und Weise wie zum Beispiel ein Tier die Meldungen aus der Umwelt selektiert und sich der Umwelt anpaßt. In diesem zweiten Fall spricht Weizsäcker nicht der einzelnen Handlung, sondern dem Handlungsschema einen pragmatisch verstandenen Wahrheitsbegriff zu. Handlungsschemata sind also keine Abbilder der Umwelt, sondern erfolgreiche oder erfolglose allgemeine Handlungsanweisungen. Der Mensch vermag durch symbolische oder sprachliche Repräsentation diese Fähigkeit nicht nur auf die tatsächliche Umwelt, sondern auf Handlungsmöglichkeiten zu beziehen. Begriffe stellen also keine Abbild der Welt dar, sondern sie sind, so Weizsäcker, "ein Bild unseres Handelns", also dessen, was wir mit der Wirklichkeit anfangen können. Erst diese Möglichkeit schafft wiederum höhere Kulturleistungen, wie zum Beispiel die Vorstellung einer an sich seienden Wirklichkeit.   

Im Kapitel "Information und Evolution" des 1985 erschienenen Buches "Aufbau der Physik" schreibt Weizsäcker:   

"Information ist das Maß einer Menge an Form. Wir werden auch sagen: Information ist ein Maß der Gestaltenfülle. Form "ist" weder Materie noch Bewußtsein, aber sie ist eine Eigenschaft von materiellen Körpern, und sie ist für das Bewußtsein wißbar. Wir können sagen: Materie hat Form, Bewußtsein kennt Form." (Weizsäcker 1985, S. 167)
Diese Aussage faßt die beiden Aspekte des Informationsbegriffs, den objektiven und den subjektiven, zusammen. Information meint auf der einen Seite die Menge an Form oder die Gestaltenfülle eines materiellen Körpers. Diese Menge an Form läßt sich auch mit Hilfe des nachrichtentechnischen Informationsbegriffs als Menge an Entscheidungen auffassen, die an einem Objekt getroffen werden. Wenn mit Entropie in der Thermodynamik der Verlust an Ordnung und somit an Form gemeint ist, dann bedeutet aktuelle Information soviel wie die Negation von Entropie. Auf der Seite der wißbaren Form besitzt Information, wie die Kommunikationstheorie lehrt, syntaktische, semantische und pragmatische Dimensionen. Die Zunahme an Form bezeichnet die Naturwissenschaft als Evolution. Dieser Prozeß erstreckt sich vom anorganischen Bereich bis hin zur menschlichen Kultur. Die Evolution im Sinne des Wachsens von Gestalten steht, so scheint es, der thermodynamischen Entropie entgegen. Entropie meint das Maß der Unordnung, Evolution das Maß der Gestaltung. Weizsäcker vertritt aber die gegenteilige Meinung, nämlich   
"Entropiewachstum (ist) identisch mit dem Wachstum an Gestaltenfülle; Evolution ist ein Spezialfall der Irreversibilität des Geschehens" (Weizsäcker 1985, S. 169). 
Wie ist das gemeint? Die Antwort auf diese Frage erstreckt sich über mehrere Abschnitte. Zunächst geht Weizsäcker auf den Zusammenhang von Information und Wahrscheinlichkeit, also auf den nachrichtentechnischen Informationsbegriff ein. Information meint ein Maß des potentiellen Wissens oder des aktuellen Nichtwissens. Weizsäcker 'übersetzt' die nachrichtentechnischen in die thermodynamische Begriffe. Die thermodynamische Entropie mißt den Abstand zwischen dem Wissen des Makrozustandes und dem Umwissen über die Mikrozustände. Die maximale Information ist dann gegeben, wenn die Kenntnis des Makrozustandes zugleich die des Mikrozustandes bedeutet. In der Logik sprechen wir nicht von Zuständen, sondern von Begriffen.   

Information, wie Weizsäcker immer wieder betont, gibt es nur unter einem Begriff oder, anders ausgedrückt, nur in einer durch zwei Dimensionen bestimmten Situation. Im Falle der nachrichtentechnischen Übermittlung eines Telegramms ist der Makrozustand die Buchstaben des lateinischen Alphabets, während der Mikrozustand die Wahl eines bestimmten Buchstabes meint. Für den Molekulargenetiker ist der Makrozustand der Chromosomensatz und der Mikrozustand die Buchstabenfolge der DNS-Kette. Es gibt, mit anderen Worten, keinen absoluten Begriff von Information. Die Wahrscheinlichkeit bezieht sich auf mögliche Ereignisse im Rahmen dieser Bedingungen. Thermodynamik und Evolution scheinen sich aber zu widersprechen, denn der Zweite Hauptsatz der Thermodynamik drückt das Prinzip der Desorganisation aus, während die Evolution von fortschreitender Organisation spricht. Weizsäckers Ausweg aus diesem Dilemma besteht in der These, daß "Gestaltentwicklung selbst eine Entropievermehrung" ist (Weizsäcker 1985, S. 177).   

Die Begründung dieser und die Diskussion anderer Lösungen geht aber über die Ziele unserer Untersuchung. Nur so viel können wir festhalten: "Beide Entwicklungsgesetze besagen, daß das Wahrscheinliche eintreten wird." (Weizsäcker 1985, S. 179). Weizsäcker geht von der Irreversibilität der Zeit aus. So sind auf die Zukunft hin gesehen, sowohl das Eintreten der Entropie als auch die Gestaltentwicklung wahrscheinlich. Bei extremen gestaltarmen Zuständen ist die Entropie sehr gering, während sie bei gestaltreichen Zuständen zunimmt. Das heißt, daß mit zunehmender Entropie die gestaltreicheren Zustände wahrscheinlicher werden. Allerdings unter zwei Bedingungen, nämlich "Existenz einer Bindungsenergie und hinreichend niedrige Gesamtenergie (beziehungsweise Temperatur)" (Weizsäcker 1985, S. 187).   

Diesen Überlegungen schließt sich ein Abschnitt über "Information als Nutzen" an, aus dem wir lediglich Folgendes festhalten:   

"Menschliches Verhalten beruht auf der Fähigkeit, Verhalten nicht nur zu vollziehen, sondern vorzustellen. Hiermit hängt die Fähigkeit quasi unbeschränkter Informationsspeicherung zusammen. Akkumulierte Information ist Macht. Erst diese Reflexion thematisiert Begriffe als Begriffe, also Information als Information. Macht ist ein Humanum." (Weizsäcker 1985, S. 199) 
Die Größe der Information begrifflicher Erkenntnis ist aber, wie Weizsäcker in Anschluß an Karl Popper und Thomas Kuhn feststellt, nicht unendlich, denn allgemeine Gesetze lassen sich nicht empirisch verifizieren. Ein Gesetz faßt also eine endliche Informationsmenge zusammen. Vor dem Hintergrund der Bestätigung ergibt sich immer die Möglichkeit der Erstmaligkeit oder des Neuen, Unvorhergesehenen. Information ist nur möglich, so Weizsäcker im letzten Abschnitt, "wenn einiges gesetzmäßig abläuft (Bestätigung) und doch auch einiges Neues geschieht (Erstmaligkeit)" (Weizsäcker 1985, S. 203).   

"Pragmatische Information ist das, was wirkt" schreibt Weizsäcker in Abwandlung der These "Information ist nur, was Information erzeugt" (Weizsäcker 1985, S. 201). Diese These und ihr Pendant kehren auch am Ende dieses Buches unter dem Titel "Der Informationsstrom" wieder. Form ist aber nicht ein Drittes, neben Materie und Bewußtsein, "sondern ihr gemeinsamer Grund" (Weizsäcker 1985, S. 581).   

Wir schließen dieser Darstellung mit einem Hinweis auf Weizsäckers letztes Buch, "Zeit und Wissen" (Weizsäcker 1992) in dem Weizsäcker in knapp vier Seiten die Entwicklung seines Denkens über den Informationsbegriff zusammenfaßt. Ausgehend von der These, daß die Rekonstruktion der Quantentheorie diese als Theorie der Information aufweist, stellt er zwei Fragen, nämlich: "1. Was ist Information? und 2. Was ist die Bedeutung der Information in de Physik, also in der Natur?" (Weizsäcker 1992, S. 342). Die Antwort auf die erste Frage lautet: "Information ist das Maß einer Menge an Form", wobei die vorausgegangenen Analysen gezeigt haben, wie diese Menge "zwischen zwei Ebenen" definiert und gemessen wird. Was bedeutet aber Form in der Physik? Gegenüber des Verhältnisses von Form und Zeit in der antiken platonischen Eidos-Philosophie betont Weizsäcker, daß Gestalt oder Form nicht als das in der Zeit Beharrende oder gar Ewige, sondern als das "bewegte, reifende, werdende und vergehende" auffaßt (Weizsäcker 1992, S. 343). Das Verhältnis von Form und Bewußtsein wird in der These zusammengefaßt:   

"Die Materie hat die Form, das Bewußtsein erkennt die Form. Die Materie wird für uns nun zu einer Erscheinungsweise der Form" (Weizsäcker 1992, S. 344).
Wenn aber das Bewußtsein ein Produkt der Evolution ist, können wir davon ausgehen, daß wir die Dinge so fassen, wie sie an sich sind? Diese Kantische Frage wird unter Hinweis auf Niels Bohr als "Relikt der klassischen Ontologie" zurückgewiesen, zugunsten eines evolutionären Denkens, wobei wir aber uns dann in einem unvollendeten oder evolutionären Feld bewegen, wo wir "niemals völlig scharfe Begriffe" zur Verfügung haben (Weizsäcker 1992, S. 344). Die Fragen häufen sich:   
"Das Bewußtsein taucht in der Evolution aus dem Meer des Unbewußtsen auf. Ist also doch Form das Zugrundeliegende und Bewußtsein eine ihrer Ausprägungen? Aber wie kann Form Bewußtsein erzeugen? Ist sie selbst geistig? Was könnte man damit meinen?" (Weizsäcker 1992, S. 344) 
Im Vorwort seines Buches zur "Quantentheorie der Information", in dem sich der Physiker Holger Lyre eingehend mit Weizsäckers Informationsbegriff auseinandersetzt, schreibt er:   
"Die Subjekt-Objekt-Problematik zieht sich als roter Faden durch die gesamte Arbeit. Sie steht freilich unabhängig von der Physik (und insbesondere der Ur-Theorie und ihrer Durchführbarkeit) ein tiefgreifendes erkenntnistheoretisches Thema dar, angesichts dessen ich die Meinung vertrete, daß eine konsequente informationsbegriffliche Analyse zu einer Klärung beitragen kann. Unter "konsequent" verstehe ich, daß eine transzendentale Begründung des vollständigen Informationsbegriffs notwendig sein wird. M.E. erweist sich darum der Informationsbegriff durchaus auch außerhalb der Physik als ein bedeutsames terminologisches Werkzeug. Seine begriffliche Reichhaltigkeit entfaltet er aber erst, wenn er nicht verkürzt, sondern vollständig, nämlich unter Berücksichtigung syntaktischer, semantischer, pragmatischer und zeitlicher Aspekte verwendet wird." (Lyre 1998, S. x) 
Die Suche nach einer einheitlichen aber nicht verkürzten Theorie der Information ist in vollem Gange (Hofkirchner 1999). 
 
 
 
  
  

6. Das "Capurrosche Trilemma" 

Der kulturalistische Ansatz von Peter Janich wurde Gegenstand zum Teil heftiger Kritik (Janich 1998). Diese bezog sich vor allem auf Janichs Auffassung, den Informationsbegriff ursprünglich im zwischenmenschlichen Bereich anzusiedeln und die weiteren Anwendungskontexte lediglich im metaphorischen Sinne zuzulassen. Die Meinungen schwanken zwischen einem extremen Kulturalismus und einem extremen Naturalismus.   

Für den Philosophen Andreas Bartels zum Beispiel   

"gibt es gute Gründe, auch biologischen Systemen weit unter der Schwelle des Auftretens von Bewußtsein Zielgerichtetheit zuzusprechen: Biologische Mechanismen sind im Evolutionsprozeß gerade im Hinblick darauf ausgelesen worden, daß diese Mechanismen Resultate hervorbringen, deren Realisierung in der Wechselwirkung mit einer spezifischen Umgebung Vorteile gegenüber Varianten geboten hat. (...) Wie sollte das Auftreten entwickelter bewußter Formen von Informationsverarbeitung verstanden werden, wenn nicht als Ergebnis einer Entwicklung aus nicht-bewußten Vorläufen?" (Bartels 1998, S. 184) 
Der Informatiker Klaus Fuchs-Kittowski und der Biologe Hans Rosenthal verteidigen ein evolutionäres Konzept von Information, dessen Grundgedanke besagt: "eine biologische Struktur entsteht auf der Basis spezifischer (genetischer) Information und ermöglicht funktionelle Aktivitäten, die letztlich die Erhaltung und Reproduktion dieser Information bewirken." (Fuchs-Kittowski/Rosenthal 1998, S. 201).   

Der Informatiker Klaus Haefner vertritt gegenüber Janich eine geradezu entgegengesetzte Auffassung, nämlich:   

"Eine Informationstheorie und damit der Begriff der Information müssen invariant sein gegenüber der betrachteten Ebene, da diese aufeinander aufbauen und ineinander verzahnt sind! D.h. konkret, daß Information und Informationsverarbeitung sowohl auf der physikalischen als auch auf der chemischen, der genetischen, der neuronalen, der sozialen, der technischen sowie der soziotechnischen Ebene angebbar sein müssen." (Haefner 1998, S. 212).
Der Technikphilosoph Klaus Kornwachs zieht folgendes Fazit:   
"Zwar ist Janich zuzustimmen, wenn er - in brillanter Diskussion der Beispiele - es für Unfug hält, aus der materiellen Struktur informationsverarbeitender Systeme den Bedeutungsgehalt der darin wirkenden Information ermitteln zu wollen (...) Gleichwohl löst auch Janich das Problem nicht, wie die verschiedenen Beschreibungsebenen, die weder logisch noch kausal aufeinander reduziert werden können, befriedigend vermittelt werden können." (Kornwachs 1998, S. 222) 
Der Informatiker Wolfgang Hesse stimmt den Kernthesen Janichs im wesentlich zu. Er schreibt:   
"Das Prädikat einer wahren "Informationsgesellschaft" hätte eine menschliche Gemeinschaft erst dann verdient, wenn sie ihre Mitglieder (oder wenigstens deren Mehrheit) in die Lage versetzte, aus der Datenflut das für das eigene Überleben und das der Nachkommenschaft Wesentliche herauszufiltern und die daraus notwendigen Konsequenzen für das alltägliche Handeln zu ziehen." (Hesse 1998, S. 214) 
Diese Kontroverse hat Tradition. Die Wirtschaftswissenschaftler Fritz Machlup und Una Mansfield gaben 1983 einen Band heraus mit dem Titel: "The Study of Information. Multidisciplinary Messages" (Machlup und Mansfield 1983). Für Machlup selbst gehört der Informationsbegriff in den Kontext menschlicher Kommunikation. Mit Information meinen wir, so Machlup, die Handlung des Sagens oder das, was gesagt wird. Innerhalb dieses Kontextes sind wiederum mehrere Attribute - wie zum Beispiel Wahrheit, Nützlichkeit, Neuheit, Reduktion von Ungewißheit - möglich. Ausgehend von dieser Grundbedeutung sind dann, so Machlup, metaphorische Verwendungen möglich. Für Machlup ist, ähnlich wie für Bar-Hillel und Dretske, der Gebrauch des Informationsbegriffs im Kontext der sog. Informationstheorie (Shannon/Weaver) irreführend (Machlup 1983, S. 661).   

Im Jahre 1996 erschien ein von Klaus Kornwachs und Konstantin Jacoby herausgegebener Band: "Information. New Questions to a Multidisciplinary Concept" (Kornwachs/Jacoby 1996), in dem die Breite der Anwendungskontexte des Informationsbegriffs abermals sichtbar wurde.   

Die vor allem aus naturwissenschaftlichen Überlegungen stammenden Idee einer Einheit der Wissenschaften gaben Anlaß zu mehreren internationalen Konferenzen, die sich mit der Möglichkeit einer einheitlichen Theorie der Information befaßten. Eine solche Einheit sollte auf der Basis der Evolutionstheorie und einem darauf basierenden Informationsbegriff möglich sein (Hofkirchner 1999).   

Der Informatiker Peter Fleissner und der Sozialwissenschaftler Wolfgang Hofkirchner haben in einem Beitrag mit dem Titel "Informatio Revisited. Wider den dinglichen Informationsbegriff" (Fleissner/Hofkirchner 1995) die Kontroverse um den Informationsbegriff unter der Überschrift "Das Capurrosche Trilemma" folgendermaßen auf den Punkt gebracht:   

    "Zwar ist sicher, daß der Begriff "Information" fast universell benutzt wird, nämlich in einer großen Zahl spezieller Disziplinen, außerdem im Alltag und in unterschiedlichen Kontexten. Das sagt aber nur wenig darüber aus, wie er in den verschiedenen Bereichen verstanden wird. Nach Capurro gibt es da nur drei Möglichkeiten: Der Informationsbegriff bedeutet in allen Bereichen    
    • entweder genau dasselbe   
    • oder nur etwas ähnliches   
    • oder jeweils etwas ganz anderes.
    Betrachten wir die erste Möglichkeit: Wären die in den verschiedenen Wissenschaften gebräuchlichen Informationsbegriffe synonym, , dann müßte das, was "Information" genannt wird, etwa auf die Welt der Steine (Physik) im selben Sinn zutreffen wir auf die Welt der Menschen (Psychologie etc.). Dagegen sprechen aber gute Gründe, die die qualitativen Unterschiede zwischen diesen Welten ins Treffen führen. Diese Möglichkeit scheidet damit aus.    

    Die zweite Möglichkeit: Nehmen wir an, die Begriffe seien analog. - Welcher der verschiedenen Informationsbegriffe sollte dann das primum analogatum, den Vergleichsmaßstab für die übrigen, und mit welcher Begründung abgeben? Wäre es z.B. der Informationsbegriff einer Wissenschaft vom Menschen, müßten wir in Kauf nehmen, zu anthropomorphisieren, wenn wir nicht-menschliche Phänomene behandeln wollen, d.h. fälschlicherweise Begriffsinhalte von einem Bereich - hier dem menschlichen - auf einen anderen zu übertragen, wo sie nicht passen. Etwas behaupten zu müssen, daß die Atome miteinander reden, wenn sie sich zu Molekülen verbinden usw. Wäre es z.B. ein physikalischer Informationsbegriff, von dem wir ausgehen wollten, handelten wir uns eine physikalistische Reduktion des biologischen oder sozial-kulturellen Informationsgeschehens ein, d.h. die falsche, weil nicht der Komplexität der Gegenstandsbereiche Rechnung tragende Behauptung, was in der Biologie oder in der Kultur informationell abläuft, sei nicht anders, als was im physikalischen Bereich und mit physikalischen Methoden analysiert werden kann. In jedem Falle eine Konsequenz, die zu verwerfen ist. Aus diesem Grund kommt auch diese Möglichkeit nicht in Betracht.    

    Bleibt noch die dritte Möglichkeit: Wenn die Begriffe äquivok wären, also gleichlautende Worte für unvergleichbare Designate - wie stände es da um die Wissenschaft? Sie gliche dem Turmbau zu Babel, die Fächer könnten nicht miteinander kommunizieren, so wie Kuhn das auch von einander ablösenden Paradigmen annimmt, die Erkenntnisobjekte wären disparat, wenn überhaupt abgrenzbar. Also ist auch die letzte Möglichkeit unbefriedigend.    

    Dies ist das Capurrosche Trilemma. Wir müßten annehmen, daß der Wissenschaft nichts anders übrigbleibt, als entweder an der Suche nach einer Weltformel zu scheitern oder mit der subjektiven Beliebigkeit der Projektionen zwischen den unterschiedlichsten Gebieten jeden allgemeingültigen Anspruch aufzugeben oder im Fachidiotentum dahin zu vegetieren. Ein Ausweg aus dem Trilemma scheint nicht zu existieren, ein einheitlicher, vereinheitlichter, einziger Informationsbegriff aus logischen Gründen unmöglich." (Fleissner/Hofkirchner 1995, S. 126-127) 

Als Lösung dieses Trilemmas schlagen Fleissner und Hofkirchner das Paradigma der Selbstorganisation vor. Ein einheitlicher Informationsbegriff, der Allgemeines und Einzelnes miteinander vermittelt, soll dem evolutionären Informationsgeschehen Rechnung tragen. So zeichnet sich zum Beispiel dieses Informationsgeschehen auf der Ebene sozialer Systeme durch eine hohe Anzahl von Freiheitsgraden aus, während dies bei biotischen Systemen nicht der Fall ist. Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die ebenfalls durch Freiheitsgrade gekennzeichnet sind bzw. die nicht vollständig durch ein Ursache-Wirkungs-Verhältnis beschreibbar sind. Information hat also mit Selbstorganisation zu tun. Diese Bedeutung steckte schon im Lateinischen Gebrauch von "informatio/informo", sofern die Tätigkeit des Formens nicht nur eine menschliche (oder göttliche), sondern auch eine durch die Natur selbst vollzogene war:   
"eine Vorwegnahme der heutigen Auffassung von der Selbstorganisation der Materie! Und die Formen kennzeichneten damals Qualitätsunterschiede, also das Informieren einen Prozeß, im Resultat dessen etwas Neues entstand! In-Formation: das selbstorganisierte Sich-in-Form-bringen gleich welchen Systems - das ist der Begriffsinhalt, der an die alte Bedeutung anknüpft und sie im Lichte jüngste Forschungen neu interpretiert. Das ist genau der Inhalt, der verspricht, eine Vielzahl dessen, was mit den unterschiedlichsten Informationsauffassungen gemeint ist, zu vereinigen! Versuchen wir es!" (Fleissner/Hofkirchner 1995, S. 131) 
Janich vertritt, wie wir gesehen haben, die zweite Möglichkeit des Trilemmas, nämlich die der Analogie. Er gibt dem menschlichen Informationsbegriff den Vorzug und betrachtet die anderen Anwendungen als metaphorisch. Im Falle von aufeinander nicht reduzierbaren Anwendungskontexten ist er auch bereit, mit Äquivokationen d.h. also mit "völlig verschiedenen Bedeutungen" zu rechnen. Er schreibt:   
"Das Trilemma verliert ja seine Brisanz, wenn tatsächliche Sprachgebräuche so verstanden werden, daß sie sich auf bestimmte Kontexte beziehen, die (aus Bequemlichkeitsgründen, aber oft auch aus Gründen tatsächlicher Unmißverständlichkeit) nicht ausdrücklich genannt werden. Dazu ein Vergleich: Es stört doch nicht wirklich, daß z.B. das Wort "Masse" für den klassischen Physiker, den Soziologen und den Elektrotechniker völlig verschiedene Bedeutungen hat. Bei drohenden Konflikten oder Trilemmata nenne man einfach den Kontext hinzu, um Mißverständnisse zu vermeiden. Die Schwierigkeiten beim Wort "Information" sind aber wohl mehr denjenigen zu vergleichen, die jemand hat, wenn er z.B. für die klassische Mechanik die dort übliche Verwendung des Wortes "Masse" als eines Fachterminus explizit angeben möchte: Die Physikbücher schweigen. Die Newtonsche Formulierung ist genauso wie moderne axiomatische entweder definitorisch zirkulär oder operativ lückenhaft. Dies hat sich in der Entwicklung von der klassischen zur relativistischen Physik als außerordentlich störend und problematisch erweisen" (Janich 1998, S. 258-259) 
Ich neige zu einer netzwerkartigen Lösung des Trilemmas, die dem nahe steht, was Wittgenstein "Sprachspiele" nennt (Capurro 1998, Capurro 2000). Ich stimme mit Janich überein, daß Begriffe nach ihren jeweiligen Gebrauchskontexten definiert werden können und, wenn es sich um wissenschaftliche Fachtermini handelt, auch sollten. Aufgrund der Komplexität der Realität und der Vielfalt der Perspektiven, die wir einnehmen können, glaube ich, daß die evolutionäre Lösung zwar eine Sicht darstellt, daß sie aber eine Einheit postuliert, die letztlich nur von einem außerweltlichen Beobachter eingenommen werden kann. Ferner bin ich der Meinung, daß die "Familienähnlichkeit" (Wittgenstein) zwischen dem Gebrauch eines Terminus in unterschiedlichen Situationen und für unterschiedliche Zwecke auch das wissenschaftliche Denken durch immer neu entstehende Metaphern und Metonymien "beflügeln" - aber natürlich auch irreführen - kann. Der Übergang vom Paradigma der Linearität zu dem des Hypertextes bietet aber einen Ausweg aus dem Trilemma, der weder eine Reduktion noch einen Ausschluß impliziert.  
 
 
 
      

    Übungen

    1. Erläutern Sie den nachrichtentechnischen Informationsbegriff.  

    2. Was versteht man unter Syntax, Semantik und Pragmatik in bezug auf Information?  

    3. Erläutern Sie Gregory Batesons Definition von Information.  

    4. Erläutern Sie die Luhmannsche Unterscheidung zwischen Mitteilung, Information und Verstehen.  

    5. Was versteht Peter Janich unter einer kausalen im Gegensatz zu einer informationstheoretischen Beschreibung?  

    6. Was sind die Eigenschaften von "Informationshandlungen" nach Peter Janich?  

    7. Erläutern Sie Weizsäckers Thesen: "Information ist nur, was Information erzeugt" und "Information gibt es nur unter einem Begriff".  

    8. Wie übersetzt Weizsäcker den nachrichtentechnische Informationsbegriff in thermodynamische Kategorien?  

    9. Was besagt das "Capurrosche Trilemma" und welche "Lösung" bevorzugen Sie? Begründen Sie Ihre Antwort.

  
  
 
 
  

Literatur 

Bar-Hillel, Y. (1973): An Examination of Information Theory. In: ibid.: Language and Information, London, 275-297.   

Bar-Hillel, Y., Carnap, R. (1973): An Outline of a Theory of Semantic Information. In: Y. Bar-Hillel: Language and Information, London, 221-274.   

Bartels, A. (1998): Janichs Anti-Naturalismus: Zwei Gegenargumente. In: Ethik und Sozialwissenschaften 9, Heft 2, 182-184.   

Bateson, G. (1972): Steps to an Ecology of Mind, New York 1972 (dt. Ökologie des Geistes, Frankfurt a.M. 1985).   

Bayerische Akademie der Schönen Künste Hrsg. (1959): Die Sprache. München.   

Brown, G.S.: Laws of Form, Toronto 1972.   

Capurro, R. (1978): Information, München.  
 

Capurro, R. (1998): "Das Capurrosche Trilemma". In: Ethik und Sozialwissenschaften 9, Heft 2, 188-189.  

Capurro, R. (2000): Informationsbegriffe und ihre Bedeutungsnetze. In: Ethik und Sozialwissenschaften (2000) (i.Dr.)  

Dretske, F.: Minds, Machines and Meaning. In: C. Mitcham, A. Hunning Hrsg.: Philosophy and Technology II, Dordrecht, 1986, S. 97-109.   

Dretske, F. (1981): Knowledge and the Flow of Information, Cambridge.   

Duden (1970): Bedeutungswörterbuch, Mannheim.   

Fleissner, P. u.a.: Der Mensch lebt nicht vom Bit allein. Frankfurt a.M. 1996.   

Fleissner, P., Hofkirchner, W. (1995): Informatio Revisited. Wider den dinglichen Informationsbegriff. In: Informatik Forum 9 (3), 126-131.   

Förster, H.von: Sicht und Einsicht, Braunschweig 1985.   

Folberth, O.G., C. Hackl, C. Hrsg. (1986): Der Informationsbegriff in Technik und Wissenschaft. München.   

Fuchs-Kittowski, K., Rosenthal, H.A.: Eine moderne Biologie bedarf der Kategorie Information. In: Ethik und Sozialwissenschaften 9 (1998) Heft 2, S. 200-203.   

Haefner, K.: Wo ist die Information, Herr Janich? In: Ethik und Sozialwissenschaften 9 (1998) Heft 2, S. 209-212.   

Hartley, R.V.L.: Transmission of Information. In: Bell System Technical Journal 7 (1928) S. 535-563.   

Hesse, W. Information: Das Soma des ausgehenden Jahrhunderts? In: Ethik und Sozialwissenschaften 9 (1998) Heft 2, S. 212-215.   

Hofkirchner, W. Ed. (1999): The Quest for a Unified Theory of Information. Amsterdam.   

Hofkirchner, W. Ed.: The Quest for a Unified Theory of Information. In: World Futures, Vol. 49 (3-4) & 50 (1-4) (1997).   

Janich, P. (1998): Informationsbegriff und methodisch-kulturalistische Philosophie (Hauptartikel), Kritik, Replik. In: Ethik und Sozialwissenschaften. Streiforum für Erwägungskultur. 9, Heft 2,169-268.   

Janich, P. (1996): Konstruktivismus und Naturerkenntnis. Auf dem Weg zum Kulturalismus. Frankfurt a.M.   

Kornwachs, K., Jacoby, K. Eds. (1996): Information. New Questions to a Multidisciplinary Concept. Berlin.   

Kornwachs, K. (1988): Information als wirkende Größe. In: Ethik und Sozialwissenschaften. Streiforum für Erwägungskultur. 9, Heft 2, 220-223.   

Luhmann, N. (1987): Soziale Systeme, Frankfurt a.M.   

Luhmann, N. (1986): Die Realität der Massenmedien, Opladen (2. erw. Aufl.)   

Lyre, H. (1998): Quantentheorie der Information. Mit einem Geletiwort von C.F. v. Weizsäcker. Wien - New York.   

Machlup, F., Mansfield, U. Eds. (1983): The Study of Information. Interdisciplinary Messages. New York   

Machlup, F. (1983): Semantik Quirks in Studies of Information. In: Machlup, F., Mansfield, U. Eds.: The Study of Information. Interdisciplinary Messages. New York, 641-671.   

MacKay, D.M. (1969): Information, Mechanism and Meaning, MIT.   

Maturana, H.R., Varela, F. (1990): Der Baum der Erkenntnis. Die biologischen Wurzeln des menschlichen Erkennens, Goldmann Verlag.   

Morris, Ch. W. (1955): Signs, Language and Behavior, New York 1946   

Oeser, E. (1976): Wissenschaft und Information, 3 Bde. Wien.   

Qvortrup, L. (1993): The Controversy over the Concept of Information. In: Cybernetics & Human Knowing, 2 Nr. 4, 3-24.   

Schmidt, S.S. Hrsg. (1987): Der Diskurs des Radikalen Konstruktivismus, Frankfurt a.M. 1987.   

Schmidt, S.S. Hrsg. (1992): Kognition und Gesellschaft, Frankfurt a.M.   

Shannon, C.E., Weaver, W. (1972): The Mathematical Theory of Communication. Urbana, Univ. of Illinois Press 1949.   

Völz, H. (1982): Information I. Studie zur Vielfalt und Einheit der Information. Berlin   

Völz, H.(1983): Information II. Ergänzungsband zur Vielfalt und Einheit der Information - Theorie und Anwendung vor allem in der Biologie. Berlin   

Völz, H. (1994): Information verstehen - Facetten eines neuen Zugangs zur Welt. Braunschweig.   

Weizsäcker, C.-F. v. (1992): Zeit und Wissen. München   

Weizsäcker, C.-F. v. (1985): Aufbau der Physik. München   

Weizsäcker, C.-F. v. (1977): Der Garten des Menschlichen. München   

Weizsäcker, C.-F. v. (1974): Die Einheit der Natur. München.   

Weizsäcker, C.-F. v. (1973): Information und Imagination. In: C.-F. v. Weizsäcker, G. Mann, H. Weinrich, Th. Sieverts, L. Kolakowski: Information und Imagination. München 1973.   

Wiener, N. (1961): Cybernetics or Control and Communication in the Animal and the Machine. (1948) New York   

Zemanek, H. (1986): Information und Ingenieurwissenschaft. In: O. G. Folberth, C. Hackl, Hrsg.: Der Informationsbegriff in Technik und Wissenschaft. München, 17-52.   

Zoglauer, Th. (1996): Can Information be naturalized? In: Kornwachs, K., Jacoby, K. Eds.: Information. New Questions to a Multidisciplinary Concept. Berlin, 187-207.

  
 
 
   

Inhalt

Einleitung

I. Der Informationsbegriff in der Informationswirtschaft 

II. Der Informationsbegriff in der Informationswissenschaft

IV. Zur Geschichte des Informationsbegriffs

Rückblick und Ausblick 

 
 
   

Copyright © 2000 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author.  
 

 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Video/Audio