EINFÜHRUNG IN DIE INFORMATIONSWISSENSCHAFT

 
Rafael Capurro
 
 
 
 

Kapitel 5: Wissenserschließung und -darstellung

 
 
 
 

Inhalt

5.1 Einführung 
5.2 Klassifizieren 
5.3 Indexieren 
5.4 Kurzreferate 
5.5 Informationsdesign 
5.6 Visualisierung von Information 
5.7 Web-Content-Management 
5.8 Zur Vertiefung 
5.9 Für Fortgeschrittene 

Übungen 
 

 
 
 

5.1 Einführung

    Mit Recht unterscheidet der dänische Informationswissenschaftler Peter Ingwersen zwischen einer "Dokumentenexplosion" (document  explosion) und einer "Informationsexplosion" (information explosion). Denn Information hat, aus informationswissenschaftlicher Sicht, mit der Wissensänderung in der Erkenntnisstruktur (cognitive structure) desjenigen, der Wissen produziert oder empfängt zu tun, und nicht primär mit der Frage nach dem Zugang zu Dokumenten. Letztere ist eine praktische Frage, die von Archivaren, Dokumentaren und Bibliothekaren seit Jahrhunderten mit dem Einsatz unterschiedlicher Technologien gelöst wird. Die eigentliche wissenschaftliche Frage ist aber die nach dem Zugang zu den Inhalten der Dokumente oder, genauer, nach den darin enthaltenen (potentiellen) Wissensänderungen (Ingwersen 1995, S. 139). 

    Diese Frage wurde seit den 30er Jahren im wissenschaftlichen Bereich akut: Angesichts der Fülle an Veröffentlichungen auch in einem "kleinen" Fachgebiet, mußte ein Wissenschaftler zunächst lediglich anhand von Kurzfassungen (abstracts) entscheiden, ob die betreffende Publikation für ihn relevante Informationen enthielt oder nicht. Mit anderen Worten, die Frage, die sich die Informationswissenschaft damals stellte und heute wohl auch stellt, ist die nach den Bedingungen des "intellektuellen Zugangs zur Information" (intellectual access to information) (Ingwersen 1995, S. 140). 

    Im Folgenden gebe ich zunächst einige Grundgedanken wieder, die in meinem Buch "Hermeneutik der Fachinformation" ausführlich(er) dargestellt sind: 

      "Es war vermutlich Calvin N. Mooers, der 1950 den Ausdruck "information retrieval" für das Suchen und Auffinden von "Informationen" aus einem Computerspeicher prägte "(Vgl. R. Kuhlen, Hrsg.: Datenbasen, Datenbanken, Netwerke, München 1979, Bd. 1, S. 15). Die Entwicklung begann mit der Erstellung von bibliographischen Datenbasen. Die dabei suchbare und auffindbare Information besteht aus den Hinweisen zur veröffentlichten (einschließlich "grauen") Literatur eines Fachgebietes. Obwohl der Begriff des Information Retrieval ursprünglich die Informationen selbst und nicht so sehr die Information über Dokumente meinte, wurde und wird er heute zum Teil noch mit "Referenz-Retrieval" gleichgesetzt (G. Salton, J.J. McGill: Introduction to Modern Information Retrieval, New York 1983, S. 7ff). 

    Dennoch, wie wir am Anfang gesehen haben, stellen bereits "Referenz-Datenbasen" eine Möglichkeit des Information Retrieval dar. Hinzu kommen die "Quellen-Datenbasen", die die gesuchte Information selbst, sei es numerische oder textuelle, anbieten. Man spricht hier auch von Daten-/Fakten-Retrieval. Eine weitere daran anschließende Entwicklung bilden die sogenannten Expertensysteme mit der damit zusammenhängenden Forschung im Bereich der "künstlichen Intelligenz". 

    Beim Aufbau einer Datenbasis wird ein Teil des thematisierten Vorverständnisses zum Zwecke seiner (gezielten) Wiederfindung verobjektiviert. Hermeneutisch gesehen sind also Datenbasen verobjektivierte Vorverständnisse. Demnach stellen sich unterschiedliche hermeneutische Fragen, je nachdem was für ein Vorverständnis und in welcher Weise es dargelegt und "retrieval-fähig" gemacht wird. Im folgenden wollen wir diese Problematik einer Hermeneutik des Information Retrieval exemplarisch am Beispiel der bibliographischen Datenbasen erläutern. Unsere Darstellung ist aber insofern generalisierend, als hier nicht auf die Unterschiede bei den einzelnen Fachgebieten eingegangen werden soll. Im Falle bibliographischer Datenbasen gelten als Fachinformationen die Hinweise (u.U. auch der gespeicherte Originaltext) auf die Literatur eines Fachgebietes. Wie Oeser mit Recht bemerkt (E. Oeser: Wissenschaft und Information, S. 86), muß das, was als Information gelten kann, vor und nicht nach dem automatischen Verarbeitungsprozeß feststehen. Dieses Vorverständnis bezieht sich im Falle bibliographischer Datenbasen auf die "dokumentarischen Bezugseinheiten" (DBE) bzw. "Dokumentationseinheiten" (DE) (eine DE geht stellvertretend für eine DBE ein. Vgl. K. Laisiepen u.a.: Grundlagen, S. 106 ff.). Bereits vor der Beschaffung und Auswertung der DBE, muß das jeweilige Fachgebiet abgegrenzt werden. Der darauf folgende Dokumentationsprozeß, der zum Aufbau einer bibliographischen Datenbasis führt, besteht in der formalen Erfassung und inhaltlichen Erschließung der DBE sowie in der entsprechenden Computerverarbeitung, wodurch die Suche nach den vorgegebenen Kriterien ermöglicht wird." (Capurro 1986, 141-143) 

    "Bei der inhatlichen Erschließung von Dokumenten im Hinblick auf den Aufbau von bibliographischen Datenbasen stellen sich insbesondere jene hermeneutischen Fragen in einer spezifischen Form, die mit der Struktur des Verstehens zusammenhängen. Es geht dabei um: 

    a) die Klassifikation, d.h. um die Zusammengehörigkeit der in einem Dokument dargestellten Sachverhalte zum thematisch vorverstandenen Fachgebiet bzw. zur jeweiligen "Hinsicht", unter der die Sachverhalte ausgelegt wurden; 
    b) die entsprechende fachliche Begrifflichkeit, d.h. um den Vorgang der Indexierung; 
    c) schließlich um die thematisierten Sachverhalte selbst, sofern sie in verkürzter Form wiedergegeben werden, also um den Vorgang des Referierens. 

    Diese Vorgänge sollen ermöglichen, daß beim Retrieval so etwas wie eine "Horizontverschmelzung" zwischen dem verobjektivierten Vorverständnis und dem Vorverständnis des Suchenden stattfinden kann. Die aufgebaute bibliographische Datenbasis ist somit wesentlich hermeneutischer Natur: sie ist das Ergebnis einer bestimmten Form der Verobjektivierung eines Vorverständnisses und setzt stets dieses beim Retrieval voraus." (Capurro 1986, 145) 

    Zur Frage der formalen Erfassung vgl. U. Krischker: Formale Analyse von Dokumenten. In: Buder et al.: Grundlagen der praktischen Information und Dokumentation, Bd. I, 63.87. 

    Mit dem Aufkommen des Internet und der damit zusammenhängenden Vielfalt von Formaten hat diese Frage heute eine besondere Relevanz. 
    Vgl. dazu: S. L. Vellucci: Metadata. In: Williams, Martha E. (ed.): Annual Review of Information Science and Technology (ARIST), published on behalf of the ASIS (American Society for Information Science), Information Today Inc., Medford, N.J., Vol. 33 (1998), 187-222. 

    Ein führendes Forum auf dem Gebiet Abstracting/Indexing ist die: 

     
    nfais
     
    Führende Fachvertreter einer sich rasch entwickelnden Netzwissenschaft finden Sie hier: 
     
    Netzwissenschaft
     
    Wenn Sie das Internet besser verstehen wollen, dann hilft diese Adresse bestimmt: 
     
    netplanet.org
     
    Im Folgenden gehen wir auf die Probleme der inhaltlichen Erschließung näher ein. 
     

    5.2 Klassifizieren

    5.2.1 Typologie von Klassifkationssystemen 
    5.2.2 Fachklassifikationen 
    5.2.3 ASIS sig/cr 

    5.2.1 Typologie von Klassifikationssystemen

    Klassifikationssysteme im WWW
     
    "Wissensbezogene Klassifikationen können in verschiedenen Verwendungsbereichen und dabei im Hinblick auf unterschiedliche Intentionen entwickelt werden (Vgl. I. Dahlberg: Grundlagen universaler Wissensordnung, Pullach b. München 1984, S. 30ff). Im Bereich der Wissensvermittlung sind zwei Möglichkeiten zu nennen:
     
  • bibliothekarisch-bibliographische Klassifikationen: sie bezwecken die Anordnung von Dokumenten bzw. Büchern z.B. in Regalen und mittelbar die Vermittlung ihrer Inhalte;
  • dokumentarisch-informemologische Klassifikationen: hierzu gehören die Klassifikationen im Bereich des Information Retrieval. Sie bezwecken die Verortung von Fachinformationen im EDV-Speicher und nicht die Lokalisierung der Dokumente.
  • Im weiten Sinne des Wortes kann auch der im nächsten Abschnitt zu erörternde Vorgang der Indexierung als ein Modus des Klassifizierens bzw. können Klassifikationen und Indexierungsformen als unterschiedliche Stufen eines Vorganges, der denselben Zweck erfüllt, betrachtet werden. Man spricht auch in diesem Zusammenhang von "Dokumentationssprachen". Fachklassifikationen im Information Retrieval dienen also nicht der Fixierung der Dokumente oder ihrer Inhalte an einem Ordnungsschema, sondern sie sollen die Hinsichten bzw. "Horizonte" freilegen, worunter ein Sachverhalt in einem Dokument behandelt wurde bzw. worunter der Suchende zu ihm gelangen kann. Demnach setzt eine Fachklassifikation die Bestimung eines Fachgebietes ("subject field") voraus. In diesem Sinne sagten wir oben (III.3.b), daß Klassifikationen ein "sekundäres" Problem sind. 
     

    5.2.2 Fachklassifikationen

    Die Entwicklung einer Fachklassifkation gibt u.U. die jeweilige Dynamik eines Fachgebietes wieder. Beim Vorgang des Klassifizierens sollen die jeweiligen Sachverhalte in ein "präkoordiniertes" d.h. im voraus festgelegtes "weitmaschiges" Netz von (poly-)hierarchischen Beziehungen eingebettet werden, so daß bei der Suche mögliche Bezüge aufgedeckt bzw. thematisch zusammengehörende Dokumente wiedergefunden werden können. Diese insbesondere aus dem Information Retrieval gewonnene Vorstellung von Fachklassifikationen als Netzwerke ("Facettenprinzip") scheint wiederum ihre eigentlichen Zweck in den Wissenschaften zu entsprechen als die herkömmliche lineare monohierarchische Vorstellung (Vgl. N. Rescher: Cognitive Systematization. Oxford 1979). 

    Eine Fachklassifikation stellt also den dem Dokumentar, dem Autor und dem Suchenden gemeinsamen Rahmen dar oder, mit anderen Worten, sie bildet das vorläufige thematisierte Vorverständnis einer Fachgemeinschaft. Insofern steht im Mittelpunkt des Klassifizierens die Öffnung der Bedeutungsgehalte auf die zum Teil vorverstandenen Hinsichten und die dadurch zu ermöglichende Bildung von neuen Horizonten bei der Suche. Dabei vollzieht der Dokumentar, wie auch der Autor und der Suchende, eine "kreisförmige" Bewegung ("hermeneutischer Zirkel"), indem, vom Text ausgehend, auf das Vorverständnis bzw. auf die Fachklassifikation reflektiert und diese wieder auf die thematisierten Sachverhalte bezieht. Der "Zirkel" ist ein bleibender bzw. ein methodischer. Es ist eine "Zirkelbewegung", in der die Sachverhalte und deren vielfältige Bedeutungs- und Verweisungszusammenhänge ausgelegt werden bzw. in ihren Beziehungs- und Deutungsmöglichkeiten offen bleiben. Die Fachklassifikation soll diese hermeneutische Bewegung und die an ihr Teilnehmenden zusammenhalten ohne die jeweiligen offenen Sinnmöglichkeiten zum Erstarren zu bringen. Sie kann sowenig eine "Wirklichkeit an sich" als eine "Dokument an sich" "abbilden". Die Vorstellung von einer Fachpublikation "an sich" ist genau so absurd, wie die Vorstellung einer "Welt" von "Problemen an sich", oder die der Wortbedeutungen "an sich", d.h. unabhängig vom Satz. Die moderne sprachanalytische Philosophie hat auf diesen letzten Sachverhalt mit hinreichender Klarheit aufmerksam gemacht (E.Tugendhat: Vorlesungen zur Einführung in die sprachanalytischen Philosophie, Frankfurt a.M. 1976) 

    Wenn es also keine absoluten objektiven Kriterien gibt, mit deren Hilfe eine objektive Wirklichkeit begrifflich "abbildbar" wäre, dann stellen Fachklassifikationen einen von einer Fachgemeinschaft vorläufig vereinbarten bzw. bewährten Verständigungsrahmen dar. Es ist insofern mißverständlich, sie primär als Ordnungssysteme zu bezeichnen, sondern sie sollten eher, sofern sie diesen "Abbildungsanspruch" aufgeben, als Verständigungssysteme bzw. Verständigungsinstrumente aufgefaßt werden." (Capurro 1986, 146-148) 
     
    Zur Vertiefung: 
    H.J- Manecke: Klassifikation. In: Buder et al. 1997, Bd. I, 141-160. 
     

    5.2.3 ASIS SIG/CS

    Special Interest Group: Classifications Systems der American Society for Inforamtion Science: 
     
    asis sig/cr
     

    5.3 Indexieren

    5.3.1 Prä- und Postkoordination 
    5.3.2 Extraktionsverfahren 
    5.3.3 Gewichtungsorientierte Verfahren 
    5.3.4 DIN 31 623 
    5.3.5 Bildindexierung 
    5.3.6 Thesauri und Thesaurus-Software im WWW 
     

    5.3.1 Prä- und Postkoordination

    "Ausgehend von dieser Fragestellung folgten, historisch gesehen, die "postkoordinierten" Systeme bzw. die Methode der "gleichordnenden Indexierung" ("coordinate indexing"). Demnach werden die einzelnen u.U. normierten bzw. "kontrollierten" Begriffe einer Fachsprache gleichwertig behandelt, d.h. sie werden nicht in einem System vorgefertigter Hinsichten aufgehoben, sondern jeder Begriff stellt sozusagen eine eigene Hinsicht dar, wie sie das Wort "Index" (lat. "indicare" = hinweisen) es ausspricht. (Vgl. H.H. Wellish: "Index": the word, its history, meanings and usages. In: The Indexer 13, 1983, 3, S. 439-458). 

    Obgleich die Begriffe in ihren vielfältigen Beziehungen untereinander gekennzeichnet werden können, bildet jeder eine gleichwertige Eintragung, und sie werden erst während des Retrieval miteinander verknüpft. Darauf bezieht sich der Hinweis "postkoordiniert". Die kontrollierte Festlegung einer fachlichen Begrifflichkeit führt zur Bildung eines "Thesaurus". Dessen Termini werden "Deskriptoren" genannt. Wersig faßt die Merkmale eines Thesaurus wie folgt zusammen (G. Wersig: Thesaurus-Leitfaden. München 1978): 
     

  • Ein Thesaurus geht aus von der natürlichen Sprache (insbesondere der Fachsprache) eines bestimmten Fachgebietes, dem Sprachgebrauch innerhalb des Fachgebietes (d.h. der dort üblichen Kommunikationspraxis).
  • Ein Thesaurus ist ein Sprach-Kontrollinstrument. Kontrolle wird ausgeübt über: Elemente des Vokabulars, Synonyme, Polyseme.
  • Ein Thesaurus ist ein bedeutungsdarstellendes Instrument (begriffliche Kontrolle).
  • Ein Thesaurus ist ein systembezogenes Instrument.
  • Ein Thesaurus ist ein präskriptives Instrument. Die Vorschriften betreffen: zur Indexierung zugelassene Termini, zur Suche verwendbare Termini, Interpretation von Indexierungs- und Suchtermini.
  • Ein Thesaurus ist ein Orientierungsinstrument über das betreffende Fachgebiet (Sprach- und Kommunikationsgebrauch, Bedeutungs- und Denkstrukturen), sowie über das betreffende System, in dem er eingesetzt wird (Indexierungs- und Retrievalgebrauch, Bedeutungsstrukturen).
  •  
    Ein Thesaurus verobjektiviert einen Teil des begrifflichen Vorverständnisses einer Fachgemeinschaft und stellt dieses als einen normierenden Horizont dar. Sowenig es aber eine Fachgemeinschaft "an sich" oder "Probleme an sich" gibt, sowenig gibt es auch eine Fachsprache "an sich". Die verobjektivierte Fachsprache ist aber, ähnlich wie die Fachklassifikation, an einem temporären Stand der Wissenschaft orientiert. Sie gibt außerdem ein idealisiertes bzw. auf Eindeutigkeit reduziertes Bild einer in Wirklichkeit nicht genau abgrenzbaren Fachsprache wieder. Dennoch scheint hier ein künstlicher Gegensatz vorzuliegen, wenn man die Methode des kontrollierten Vokabulars, die zudem durch die Vergabe von "freien" Schlagworten "ergänzt" werden kann, der auf der "natürlichen Sprache" basierenden entgegensetzt. Auch Fachklasifikationen wurden lange Zeit der Thesaurus-Methode entgegengesetzt, während man sie heute als komplementäre Methoden betrachtet." (Capurro 1986, 151-153) 
     

    5.3.2  Extraktionsverfahren

    Es handelt sich hier im wesentlich um das Freitext-Verfahren sowie um wortorientierte Verfahren. Dazu schreibt Knorz (G. Knorz: Indexieren, in: Buder et al. Bd. I, 130): 
     
    "Das Aufkommen von billigen Massenspeichern schuf eine historisch völlig neue Situation in der Dokumentation: Die Reduktion auf wesentliches wurde teurer als das Anbieten aller Textwörter als Suchbegriffe. Da die Invertierung aller im Text vorkommenden Wortformen (ausgenommen das kleine Inventar an Funktionswörtern und banalen Wörtern) völlig unabhängig von der Art der (Text-)Dokumente und deren Sprache ist und auch keine manuelle Pflege erfordert, sind sie aus der Sicht von Datenbankproduzenten die ideale Erschließungsmethode. Der Freitext in Zusammenhang mit Boole'schen Retrieval ist  auch dann die Basistechnik, wenn weitere Formen der Inhaltserschließung integriert sind (z.B. läßt sich im CT-Feld mit Trunkierung und mit Abstandsoperatoren recherchieren)." 
     

    5.3.3 Gewichtungsorientierte Verfahren

    Zu diesem heute führenden Verfahren schreibt Knorz: 
    "Ein vollständig anderer Weg wird (mit guten Argumenten, siehe Abschnitt B 4.7.3) von der Information-Retrieval-Forschung der letzten 30 Jahre vorgeschlagen (siehe dazu Lit. 23, Lit. 19). Nicht Retrievalsysteme mit logischen Verknüpfungsoperationen stehen hier  im Mittelpunkt des Interesses, sondern Systeme, die Fragerepräsentationen und Dokumentrepräsentationen in  Form gewichteter Index Terms miteinander vergleichen und als Antwort eine Dokumentreihenfolge liefern. Sortierkriterium ist die vom System geschätzte Wahrscheinlichkeit bzw. Plausibilität von Relevanz auf eine gestellte Frage. Da das Retrievalverfahren nicht von manueller Suchstrategie abhängt, sondern fest vorgegeben ist, besteht die Aufgabe darin, die Parameter des Verfahrens (Gewichtungen, Rechenvorschriften) zu optimieren." (G. Knorz: Indexierien, in: Buder et al. Bd. I, 131)
    Zu diesen Parametern zählt insbesondere die  Termgewichtung: Das Gewicht eines Indexterms g(t) errechnet sich aus der Häufgigkeit, mit der t im Dokument vorkommt geteilt durch die Anzahl der Dokumente, in denen t vorkommt. Die Summe der Gewichte von den jeeils im Dokument gefundenen Terms ergibt dann das Gewicht eines Dokuments in bezug auf eine Frage. 

    Eine Weiterentwicklung probabilistischer Verfahren bietet: WebCheck: www.webtop.com 
    Diese wird in DIALOGs Zeitschrift: Dialect (Vol. 6, 2000) folgendermaßen erläutert: 
     

    "On the Web the large search engines report that most people just type in one or two search words. Yet the probabilistic models are best applied if we can tease more words out of the user, at query time. A new tool from Bright Station called WebCheck removes the need to type a search. WebCheck allows the user to highlight text within a desktop document (eamil, Word report. Profound document) and drag it over the WebCheck icon. No typing required. The innovation is to simply used the text of the user's desktop to drive the query, saving the time and hassle for the user to think up a useful query. Have you ever sat at the search box wondering what words to use?  
    WebCheck's innovation is to use the words within the context that you feel you have an information need. Just highlight that email question from your boss, or the paragraph you are writing inside an internal report. Highlight and WebCheck it.  
    WebCheck relies on sophisticated technology to extract the key concepts out of the highlighted text, and then give those key words to the webtop.com search engine. Our studies show that people are using 20 or more words to WebCheck, and that on average webtop.com is extracting and using 8 useful words to perform the WebCheck IR request. This is a fourfould increase in context, where WebCheck performs a preliminary concept extract process.  
    As more and more people jup straight to a search engine Web Site rather than call up the information bureau, it is vital for corporations to make sure staff are not wasting precious minutes getting lost amongst Web search results. Either they should type in more effective searches, or use the WebCheck tool to perform the concept recognition and searching them. 
    Search engines have just moved one stage further - no need to resort to type. Just drag and drop. Soon we will be talkin straight to the engine, and that's when concept analysis and probabilistic models will really come into their own - an analysis of relative value of words or phrases as part of an information retrieval process." 
     

    5.3.4 DIN 31 623: Indexierung zur inhaltlichen Erschließung von Dokumenten

    Inhalt 
    1. Anwendungsbereich 
    2. Zweck 
    3. Begriffe: Dokument, Dokumentationssprache, Deskriptoren, Notationen, Indexierung 
    4. Methoden der Indexierung 
    5. Bewertungskriterien für Indexierungsergebnisse 
    6. Zusätzliche Gesichtspunkte zur Indexierungspraxis 

    Vgl.  
    DIN 2330: Begriffe und Benennungen 
    DIN 2331: Begriffssysteme und ihre Darstellung 
     

    Zur Vertiefung: 
    M. Burkart: Thesaurus. In: Buder et al. 1997, Bd. I, 160-179. 
    R. Fugmann: The Five-Axiom Theory of Indexing and Information Supply. In: Journal of the ASIS 36 (2) 1985, 116-129. 
    M. Hauer: Automatische Indexierung. In: R. Schmidt, Hrsg.: Wissen in Aktion. Wege des Knowledge Managements. 22. Online-Tagung der DGI. Frankfurt a.M. 2.-4. Mai 2000, S. 203-212 
    G. Knorz: Indexieren, Klassieren, Extrahieren. In: Buder et al. 1997, Bd. I, 120-140 
    S.S. Layne: Some Issues in the Indexing of Images. In: Journal of the ASIS 4(8) 1994, 583-588. 
    U. Reimer: Neue Formen der Wissensrepräsentation. In: Buder et al. 1997, Bd. I, 180-207 
    W. Stock: Informationswissenschaft: Kapitel 7: Automatische Indexierung 
     

    5.3.5 Bildindexierung

    Vgl. E. M. Rasmussen: Indexing Images. In: Williams, Martha E. (ed.): Annual Review of Information Science and Technology (ARIST), published on behalf of the ASIS (American Society for Information Science), Information Today Inc., Medford, N.J.. Vol. 32 (1997), 169-196:
     
    "CONSTANTOPOULOS & DOERR identify four techniques used in image retrieval systems to represent the conceptual content of an image: (1) captions (essentially free-text annotations); (2) keywords from a controlled vocabulary; (3) iconic indexing (symbolic objects stored with spatial and attribute information); and (4) hypermedia annotation (a link to text, attribute information or other source." (S. 175-176)
    Zur Frage des Bildretrieval siehe Modul  6. 
     

    5.3.6 Thesauri und Thesaurus-Software im WWW 

    Thesaurus-Software
     
    Thesauri und Thesaurus-Software im WWW
     

    5.4 Kurzreferate / Abstracting

    5.4.1 Was sind Kurzreferate? 
    5.4.2 DIN 1426 
    5.4.3 Forschung 
     

    5.4.1 Was sind Kurzreferate?

    "Als Orientierungshilfe weist ein Kurzreferat besondere Vorteile auf: es erleichtert die Auswahl der Dokumente, hilft die "Sprachbarriere" zu überwinden, hilft den "eiligen Leser" Zeit zu sparen usw.  Im Rahmen einer Hermeneutik des Information Retrieval sind also zwei Funktionen von Kurzreferaten hervorzuheben: sie dienen als Ganzes bei Relevanzentscheidungen und sie können "invertiert" werden und stellen somit eine Bereicherung der Suchbegrifflichkeit dar. In diesem Fall lösen sich Kurzreferate als Suchhilfe in eine Indexierungssprache auf. 

    Die Frage nach der Darstellung des "wesentlichen Inhalts" eines Dokuments ist, wie schon erwähnt, eine im Rahmen einer allgemeinen Texthermeneutik zu behandelnde Frage. Hier genügt der Hinweis, daß die Hermeneutik den Platonismus einer "absoluten Textgegebenheit" in Frage stellt, so daß das Referieren nicht auf die vermeintliche "Wiedergabe" des "Wesens" eines "Inhaltes" abzielt, sondern bestimmte im Text thematisierte Zusammenhänge andeutet, die zu ihren Verständnis ein Vorverständnis voraussetzen. Da dieses Vorverständnis, wie schon gesagt, nur ein vorläufiges ist und Texte nicht "an sich", sondern immer nur zu diesem offenen Horizont "relativ" bleiben, ist die übliche Auffassung von Kurzreferat als eine "Wiedergabe" des "Wesentlichen" nur als relativ zum jeweiligen, u.U. verobjektivierten Vorverständnis zu verstehen."  (Capurro 1986, 162-164) 
     

    5.4.2 DIN 1426: Inhaltsangaben in Information und Dokumentation

    Hauptformen von Inhaltsangaben: Inhaltsverzeichnis, Auszug, Zusammenfassung, Annotation, Kurzreferat, Sammelreferat, Rezension, Sammelrezension, Literaturbericht. 
    Kurzreferate: 
    Hauptformen: Autorenreferat, Fremdreferat, maschinell erstelltes Kurzreferat 
    Kurzreferate nach der Form: Schlagwortreferat, Textreferat, Strukturreferat 
    Kurzreferate nach dem inhaltlichen Bezug: indikatives, informatives, indikativ-informatives Referat 
    Grenzformen des Kurzreferats: ersetzendes Referat, kritisches Referat. 

    Zur Vertiefung:  

    Inderjeet Mani, Mark T. Maybury Eds.: Advances in Automatic Text Summarization. MIT Press 1999. 

    M. Haag: Automatic Text Summarization: Evaluation des Copernic Summarizer und mögliche Einsatzfelder in der Fachinformation der DaimlerChrysler AG. Shaker-Verlag 2002. 

    R. Kuhlen: Abstracts - Abstracting - Intellektuelle und maschinelle Verfahren. In: Buder et al. 1997, Bd. I, 88-120. 
     

    5.4.3 Forschung 

    Endres-Niggemeyer
     
    Endres-Niggemeyer, B.: Summarizing Information. Berlin: Springer-Verlag 1998 
     

    5.5 Informationsdesign

    5.5.1 Screen Design 
    5.5.2 Interkulturelles Informationsdesign 
    5.5.3 Edward R. Tufte 
     

    5.5.1 Screen Design

    • F. Thissen: Screen Design. Handbuch. Berlin 2000 

    •  Elemente des Screen-Designs: 
      - Orientierungselemente 
      - Navigationselemente: Hotspots, Schaltflächen/Buttons, Drawer, "zurück"-Button/Backtrack, Lesezeichen, Landkarten, Clusters, Hyperbolic Tree, Suchfunktion, Index 
      - Inhaltselemente 
      - Screen-Layoutelemente 
      - Interaktionselemente 
      - Motivationselemente 
       
    Literatur  und Websites: 
    - Lexikon Informationsdesign der FH Stuttgart:  
     
    infodesign
     
    - Ann Navarro, Tabinda Kahn: Effective Web Design. San Francisco 1998. 
    - Jared M. Spool et al.: Web Site Usability: A Designer's Guide. San Francisco 1999. 
    www.mkp.com 
    www.uie.com 
     

    5.5.2 Interkulturelles Informationsdesign

    Die konkreten Maßstäbe zur interkulturellen Websitenalyse sollten nicht nur auf einer allgemeinen und formalen Ebene verbleiben, etwa im Sinne einer Feststellung über mehrsprachige Websites, oder, allgemeiner, auf die Frage der Mehrsprachigkeit in Internet beschränkt werden, sondern es geht darum, den Einfluß kultureller Werte, Normen, Ausdrucksformen, Bilder, Farben, Strukturierung von Information, Inhalte, Zugänglichkeit usw. zu analysieren und zwar sowohl bei gemeinnützigen oder non-for-profit Organisationen als auch bei multinational oder global agierenden kleinen, mittleren und großen Unternehmen.    

    Das bedeutet, daß bei der Wahl eines konkreten Untersuchungsobjekts die anvisierte Kultur mitreflektiert werden muß. Diese liefert sozusagen die inhaltlichen Maßstäbe an denen sich dann die Website-Analyse orientieren soll. Kultur ist auch ein Mittel der Politik. Internationale, multinationale, nationale und regionale Institutionen präsentieren sich im Netz entsprechend ihren kulturellen Unterschieden. Wie sehen diese konkret aus?    

    Wie äußert sich Kultur? Primär in der Sprache, das heißt in bezug auf das Internet in Schrift und Bild. Dies impliziert aber auch u.U.  jahrhundertealte Traditionen von Bildern und Assoziationen, die von Kultur zu Kultur unterschiedlich sind. Das Bild einer Krone in England hat zum Beispiel eine andere semantische Resonanz als etwa in den USA.    

    Auch die Regeln des Ansprechens und Werbens sind kulturell unterschiedlich. Es gibt Farben und Farbkompositionen sowie icons, die je nach Kultur und Region anders wahrgenommen werden. Semantische (konnotative und dennotative)  und pragmatische Dimensionen von Sprache (Schrift und Bild) sind von entscheidender kultureller Bedeutung: Welche Aussagen werden in welcher Form und mit welchen Mitteln dargestellt?   

    Kulturen halten sich nicht an nationalen Grenzen, auch wenn sie vor allem im 19. und im 20. Jahrhundert zur Stiftung nationaler Identität ge(miß-)braucht wurden. Auch ihre zeitliche Dimension ist sehr unterschiedlich und sie umfassen religiöse, philosophische, wissenschaftliche, ökonomische und  politische Dimensionen. Wenn wir also zum Beispiel Websites aus islamischen Ländern analysieren, tun wir gut daran, uns zunächst mit der islamischen Kultur auseinanderzusetzen, um festzustellen, inwiefern diese sowohl seitens islamischer Institutionen als auch zum Beispiel seitens eines Unternehmens, der seine Produkte in islamischen Ländern absetzen will, berücksichtigt werden.   

    Interkulturelle Websiteforschung hat, wenn sie Websites-Objekte aus der Wirtschaft analysiert, nicht allein mit Werbestrategie in Zeiten des E-Commerce zu tun, sondern sie betrifft die gesamte Unternehmenskultur in einer globalisierten Wirtschaft.  

    Die Ergebnisse eines Seminars zu diesem Thema finden Sie hier: 
    http://www.frank-thissen.de/infodesign7.htm 
     

    5.6 Visualisierung von Information

    Ein Klassiker der Visualisierung von Information ist Edward R. Tufte
    - The Visual Display of Quantitative Information (1983, 1992) 
    - Envisioning Information (1990) 
    - Visual Explanations : Images and Quantities, Evidence and Narrative  (1997) 
    - Visual & Statistical Thinking : Displays of Evidence for Decision Making (1997) 

    Vgl.auch: S. K. Card, J. D. Mackinlay, B. Shneiderman Eds.: Readings in Information Visualization. Using Vision to Think. San Francisco, CA: Morgan Kaufmann Publishers 1999. Enhält:  
    1 Information Visualization 
    2 Space: Physical Data, 1D, 2D, 3D, Multiple Dimensions, Trees, Networks 
    3 Interaction: Dynamic Queries, Interactive Analysis, Overview + Detail 
    4 Focus + Context: Fisheye Views, Bifocal Lens, Visual Transfer Functions, Alternate Geometry 
    5 Data Mapping: Document Visualization: Text in 1D, Text in 2D, Text in 3D Text in 3D + Time 
    6 Infosphere, Workspace, Tools, Objects: Internet and Infosphere, Information Workspaces, Visually Enhanced Objects 
    7 Using Vision to Think 
    8 Applications and Implications. 
     

    5.7 Web-Content-Management

    Dagmar Rees: Gute Seiten, schlechte Seiten. Wie der eigene Web-Auftritt noch vor dem Start getestet werden kann. CYbiz. Das Fachmagazin für Erfolg mit E-Commerce, März 2001, S. 74-79: 
     
      "Noch vor einem Usability-Test steht eine genaue Definition der Zielgruppe. Auch sollte der Stand der Technik festgelegt werden, mit dem die Zielgruppe voraussichtlich arbeitet. Diese Faktoren sollten schon im Briefing mit den Website-Entwicklern festgehalten werden", empfiehlt Michaela Höhle, Projektleiterin am img-institut für mediengestaltung und medientechnologie der Fachhochschule Mainz, u.a. zuständig für Weiterbildung im Internet und Web-Design. 
     
      Online-Welt = reale Welt 
      Schlechte Web-Seiten entstehen auch, wenn die Einstellung herrscht, dass mit dem neuen Medium Internet alle bisherigen Erkenntnisse über Psychologie und Verhalten von Menschen nichtig werden. Genau das Gegenteil ist der Fall: Im Netz verhalten sich die Anwender wie in der realen Welt. (...) "Ein Online-Kaufhaus muss für die Besucher so klar gegliedert sein wie ein reales Kaufhaus. Sie müssen wissen, wo welche Abteilungen sind, wie sie dorthin kommen, wo die Kassen sind und, ganz wichtig, wie sie wieder raus kommen", beschreibt Michaul Kaufmann vom Beratungs- und Informationszentrum Elektronischer Geschäftsverkehr (BIEG) Hessen bei der IHK Frankfurt die Anforderungen an gute Shop-Seiten." 
       
       
    CYbiz_Übersicht (Quelle: Dipl.-Des. Michaela Höhle, img-institut Mainz): 

      Die "Killer" einer Internet-Seite: 

      • Zu langsamer Zugriff: Seiten (z.B. beim Shop) bauen sich zu langsam auf
      • Fehlende Eindeutigkeit: Was ist ein Link, was nur eine Text-Hervorhebung
      • Zu viel Text
      • Informationen zu alt
      • Die Links laufen ins Leere
      • Verwendete Technik zu neu für die Technikausrüstung der Zielgruppe
      • Die Auflösung ist zu hoch, d.h. die Nutzer sehen nur ein Teil der Seite auf dem Bildschirm
      • Orientierung fehlt: Navigation ist nicht sofort zu erfassen
      • Nutzer kommen nicht mehr zurück: Fluchtweg fehlt
      • Bestellformular ist leer, wenn das System beim Datenabschicken merkt, dass noch Angaben fehlen
      • Beim Bezahlverfahren findet sich keines, das für den Nutzer akzeptabel ist.

      Grundsätzlicher Usability Test: 

      • Selbst testen
      • Im Unternehmen auf so viel verschiedenen Rechnern (Systemen) wie möglich  testen
      • Mit den verschiedenen Internet-Browsern testen (Netscape/Internet Explorer)
      • Verschiedene Auflösungen testen (zur Orientierung: eine Pixelauflösung von 800x600 entspricht einem 15''-Bildschirm, 1024-768 entspricht einem 17''-Bildschirm)
      • Funktioniert die Seite auch bei einer Farbeinstellung von nur 265 Farben?
      • Ist die Schriftart bei jedem Browser die gewünschte?
      • Testen lassen von Zielgruppe und möglichst vielen anderen Personen (Putzfrau, Hausmeister, Technik, Empfang, Logistik)
      • Spontan agieren lassen und dabei beobachten
      • Aufgaben geben: Informationen finden lassen, Bestellung bestimmter Artikel
      • Alle Funktionen durchtesten lassen: z.B. Bestellung abschicken, E-mail abschicken, Links, Seiten ausdrucken lassen, Downloads,
      • Text durchlesen lassen: auf Zielgruppe zugeschnitten? Rechtschreibefehler?
      • Außerhalb testen lassen (Freunde/Bekannte, gute Geschäftspartner)
      • Nach Eintragung in die Suchmaschine: Ist die Seite in den Suchmaschinen zu finden?" 
     

    Hans Obermeier: Gut unterwegs - eine Frage des Inhalts. e-commerce magazin, März 2001, S. 72-74: 
     

      "Das traditionelle Büro befindet sich auf dem Rückzug, die Zahl der mobilen Mitarbeiter steigt. Damit wachsen auch die Anforderungen an deren Informationsversorgung. Eine wichtige Rolle spielen dabei Web-Content-Management-Systeme und darauf aufbauende Informationsportale. Sie vereinen "Interne" und "Externe" unter einem virtuellen Dach. (...) 
      Eine besondere Rolle beim Informationstransfer spielen Hyperlinks. Sie verknüpfen zusammengehörende Dokumente und verschaffen so Telearbeitern udn mobilen Usrn schnell den neuesten Wissensstand. Was geschieht jedoch, wenn Dokumente im Intranet verschoben, umbenannt oder gelöscht werden? Bei herkömmlichen Hyperlinks erhält der Mitarbeiter wenig hilfreiche Meldungen wie etwa "404 File not found". Moderne Systeme, dazu zählt beispielsweise der Hyperware Information Server, arbeiten daher mit so genannten dynamischen Links. Diese werden getrennt von den Dokumenten als Objekte in einer Datenbank gespeichert und passen sich den Änderungen entsprechend automatisch an. (...) 
      Wichtige Informationen werden in Unternehmen nicht selten auf dem Flur, in der Kaffeküche oder in der Kantine ausgetauscht. Um Telearbeiter und ihre mobilen Kollegen nicht vom kurzen Dienstweg auszuschließen, muss das Informationsportal die Rolle des Informanten übernehmen. Wertvolle Dienste leisten auch regelmäßige Newsleter, digitale Entsprechungen von Schwarzen Brettern, sowie "Agenten" und "Augen". Agenten sich Suchprofile, die den Dokumentenbestand im Intranet entweder ständig oder nur zu definierten Zeiten durchsuchen. Werden relevante Dokumente publiziert oder aktualisiert, schickt der Agent seinem Auftraggeber eine e-Mail oder macht einen Vermekr auf dessen "News Page". Augen hingegen beobachten ausgewählte Dokumente oder einen Arbeitsprozeß und melden, wenn Änderungen eintreten. Ergänzt durch Bookmarks, die häufig genutzte Quellen markieren, können sich die Mitarbeiter auf diese Weise ein informelles Netz aufbauen. 
      Durch die genannten Maßnahmen ist die Gefahr einer Trennung in informierte und nicht informierte Mitarbeiter gebannt. Wie gelangt jedoch extern produzierter Content in Echtzeit ins Intranet? WCM-Systeme, die HTML-Kenntnisse oder einen Web-Administrator erfordern, wirken als Flaschenhals. Folglich müssen die Mitarbeiter Informationen im Intranet selbst publizieren - entweder direkt aus Anwenderprogrammen heraus oder per Drag & Drop über den Microsoft Explorer.(...) 
      Die Risiken der fortschreitenden Aufspaltung in traditionelle Mitarbeiter, Telearbeiter und mobile Arbeiter sind die Vereinzelung und eine behinderte Team-arbeit, zudem verteilt sich das Wissen ind den Köpfen auf viele Standorte und ist so nur schwer zugänglilch. Damit im virtuellen Büro die Kommunikation und der Austasuch von Erfahrungen nicht zu kurz kommen, enthalten Informationsportale verschiedene Werkzeuge zum Aufbau sozialer Strukturen. Gerade für Mitarbeiter, die nicht ständig online oder häufig unterwegs sind, bieten sich Diskussionsforen an. In diesen treffen sich die Mitglieder einer Projektgruppe, tauschen Informationen aus und arbeiten gemeinsam an Dokumenten, die dort abgelegt sind. Mittels elektronischer Notizzettel werden Fragen, Antworten und Hinweise plaziert, für einen direkten Kontakt gibt es zudem die Möglichkeit zum Online-Chat. 
      Wie aber findet man den richtigen Gesprächspartner? Eine Möglichkeit sind die "Gelben Seiten" des Unternehmens. Sie verzeichnen neben den Kontaktdaten und die Funktion eines Mitarbeiters seine speziellen Kenntnisse sowie aktuelle Projekte und Dokumente, an denen er gerade arbeitet.(..) 
      Die WAP-Technologie sorgt für einen zusätzlichen Mobilitätsschub beim Content Management. Bisher behinderten vor allem die geringe Mobildfunk-Bandbreite und die aufwendige Konvertierung der Daten durch spezielle Server einen effizienten ransfer von Informationen aus dem Intranet auf WAP-Handys. Abhilfe verspricht hier der neue Mobilfunkstandard GPRS (General Packert Radio Service), der mobilen Datenstransfer annhähernd in ISDN-Geschwindigkeit ermöglicht und kurz vor der Einführung steht." 
       

    5.8 Zur Vertiefung

    1. Frank Thissen:  http://www.frank-thissen.de/infodesign2.htm 
    2. R. Capurro: Glossar zur Sacherschließung. 
    3. M. Rowland, D. Brenner (eds.): Beyond Book Indexing: How to Get Started in Web Indexing, Embedded Indexing, and Other Computer-Based Media. ASIS 2000. 
    4. G. Marchionini, A.Komlodi: Design of Interfaces for Information Seeking. In: Williams, Martha E. (ed.): Annual Review of Information Science and Technology (ARIST), published on behalf of the ASIS (American Society for Information Science), Information Today Inc., Medford, N.J.. Vol. 33 (1998), 89-130. 
    5.Ch. Maar, H.-U. Obrist, E. Pöppel, Hrsg.: Weltwissen - Wissenswelt. Das globale Netz von Text und Bild. Köln 2000, Kap. 3 
     

    5.9 Für Fortgeschrittene

    1. G. Marchionini, A. Komlodi: Design of Interfaces for Information Seeking, In: ARIST 33 (1998), 89-130. 
    2. H.H. Wellisch: Glossary of Terminology in Abstracting, Classification, Indexing, and Thesaurus Construction , 2nd Edition, ASIS 2000. 
    3. Efthimis N. Efthimiadis (ed.): Advances in Classification Research–Vol. 8. Proceedings of the 8th ASIS SIG/CR Classification Research Workshop. Advances in Classification Research, Volume 8 is a compilation of papers prepared for the 8th ASIS SIG/CR Workshop on Classification Research, held at the 60th ASIS Annual Meeting in Washington, D.C. on November 1-6, 1997. Advances in Classification Research. Volume 8 concentrates on such important developments as: Classification Systems as Boundary Objects in Diverse Information Ecologies (Hanne Albrechtsen & Elin Jacob); Automatic Categorization of Statute Documents (Thomas Curran & Paul Thompson); Knowledge Class—A Dynamic Structure for Subject Access  on the Web (Xia Lin & Lois Mai Chan); The Word Association Test in the Methodology of Thesaurus Construction (Marianne Lykke Nielsen); Automatic Text Categorization Using Neural Networks (Miguel Ruiz & Padmini Srinivasan); End-User Searching of Web Resources: Subject Needs and Zero-Hits (Peiling Wang & Line Pouchard). 
     

    Übungen

    1. Erläutern Sie den Unterschied zwischen einem präkoordinierten und einem postkoordinierten Indexierungsverfahren. 
    2. Was ist ein Thesaurus? 
    3. Welche Arten von Referaten kennen Sie und welche Vorteile bieten Kurzreferate bei der Informationssuche? 
    4. Erläutern Sie die Grundelemente des Screen-Designs? 
    5. Was ist und wozu braucht man interkulturelles Informationsdesign? 
    6. Erörtern Sie verschiedene Möglichkeiten der Visualisierng von Information 
     
 
 
Gesamtübersicht
 
 

Kapitel 1: Lehre und Forschung 
Kapitel 2: Historische Aspekte 
Kapitel 3: Grundbegriffe 
Kapitel 4: Der elektronische Informationsmarkt 
Kapitel 6: Information Retrieval 
Kapitel 7: Wissensschaffung 
Kapitel 8: Soziale, rechtliche, politische und ethische Aspekte 
Literatur 
 

 
   

Copyright © 2000 by Rafael Capurro, all rights reserved. This text may be used and shared in accordance with the fair-use provisions of U.S. and international copyright law, and it may be archived and redistributed in electronic form, provided that the author is notified and no fee is charged for access. Archiving, redistribution, or republication of this text on other terms, in any medium, requires the consent of the author. 
.

 
Zurück zur digitalen Bibliothek 
 
Homepage Forschung Veranstaltungen
Veröffentlichungen Lehre Interviews