Die Situation
In Dissertationen werden neuste Forschungsergebnisse ausführlich beschrieben
und dokumentiert. Daher ist ein schneller Zugriff auf diesen Dokumenttyp
besonders wünschenswert. Doch bis dieser in der print-Version über Fernleihe
bei der oörtlichen Bibliothek erfolgen kann, vergeht viel Zeit.
Schneller und effektiver ist da ein Retrieval über die elektronischen
Exemplare. Da diese in den Naturwissenschaften aber oftmals erst auf dem
Fachbereichs-/ bzw. Institutsserver bereitgestellt werden oder in Teilen ueber
preprint-Server einsehbar sind, ist eine Vernetzung dieser dezentralen Archive
notwendig.
Bei den Dissertationsnachweises vor Ort gibt es eine Vielzahl von Arten der
Archive. Grob lassen sich 4 Kategorien unterscheiden.
a) Liste mit Einträgen (Name, Titel, Datum)
b) zusätzlich mit Abstract
c) Volltexte unkommentiert
d) Metadaten und Volltexte
Welche Suchmaschine?
Die heutigen Suchmaschinen sind meist global, wenig spezialisiert.
Hieraus resultieren eine Reihe grundlegender Probleme:
1. Viele "Treffer" sind gar keine, die Benutzer drohen in der Flut der
Antworten zu ertrinken.
2. Viele Datenbankeintraege sind total veraltet, die Links funktionieren nicht
mehr.
3. Die Suchmaschine unterstützt die User nur wenig oder gar nicht bei der
Formulierung von Suchanfragen, da in die Suchmaschine kein Fachwissen
einfliessen konnte.
Besser ist in diesem Fall eine spezialisierte Maschine, die nur in bestimmten,
vorher festgelegten Bereichen sucht - hier z.B. nach den Dokumenten bzw. deren
Einträge auf einem WWW-Server. Auch intern nach kann so nach Dokumenten gesucht
werden.
Eine Möglichkeit dieses zu bewerkstelligen bietet die Harvest-Software.
Warum HARVEST ?
Bei der HARVEST-Software handelt es sich um public domain-Software,
d.h. sie ist frei zugänglich und für jeden erhältlich.
Ein offener Quellcode und freie Schnittstellen, erlauben
Konfigurationsmöglichkeiten und Anbindungen an jedes
bestehendes System.
Neben der Anpassung an örtliche Gegebenheiten ist es auch fuer
Weiterentwicklung offen. Es gibt eine weltweite Community, die
daran arbeitet und in Newsgroups Fragenstellungen behandelt.
Funktionsweise von Harvest
Mit ihren 2 Hauptbestandteilen dem Gatherer und dem Broker erlaubt die Software
eine Bündelung der fachspezifischen Informationen.
Der Gatherer sammelt die Daten von den eingetragenen Adressen ein,
extrahiert daraus die relevanten Informationen. Diese werden dann ins
SOIF-Format (Summary Object Interchange Format) umgewandelt und gespeichert.
Dieses Format erlaubt eine effektive Weiterverarbeitung und einen schnellen
Datenaustauch bei eine Suchanfrage.
Der Boker als Query-Manager übernimmt die eigentliche Indezierung der Daten.
Er kann ueber ein WWW-Formular auf mehrere Gatherer und oder Broker zugreifen
und die Suchanfrage gezielt bearbeiten. Standardmäßig liefert die HARVEST-
Software den Glimpse mit. Es können aber auch andere Programme zur Indexierung
benutzt werden.
Geplante Netzwerkstruktur für einen Dissertations-Suchdienst
Der Broker sollte die Aufgabe erfüllen, die Universitaetsbibliotheken (UBs)
und Die Deutsche Bibliothek (DDB) absuchen zu koennen und auch bekannte links
im Ausland mit einzubeziehen.
So ist eine Vernetzung nationaler Datenquellen / Projekte gewährleistet.
Zur speziellen Suche ist auch eine Eingrenzung / Auswahl der Faecher
wünschenwert. (Fusion als Schlagwort liefert sonst Ergebnisse sowohl
in der BWL wie in der Physik.)
Auch auf der fächerspezifischen Ebene muss aber die länderübergreifende,
z. Zeit europaweite Retrievalmoeglichkeit erhalten sein.
Der Broker kann sowohl der jetzigen Lage einer
verteilten imhomogenen Speicherung wie auch einem eventuell spaeteren
Zentralarchiv gerecht werden. Der schrittweisen Angleichung der
Dissertationenarchive kann so immer Folge geleistet werden ohne abrupte
Umstellung auf ein bestimmtes Softwareprogramm.
Da ein weiterer Ausbau der Retrievalmöglichkeiten von HARVEST im Rahmen des
CARMEN5-Projektes als SFM in Global Info erfolgen wird, ist hier immer auch
ein aktueller Stand der Technik berücksichtigt.
Installation
Meist ist eine Installation vor Ort ausreichend
sei es am FB, im Institut oder dem RZ, kurz auf dem WWW-Server der Uni als
Informationseinheit.
Bei der Installation gibt es einiges zu beachten
s. Anleitung.
Einschliesslich einer guter Vorbereitung ist bei Experten mit
einem Arbeitsauffwand von einem Arbeitstag zu rechnen.
Stand Februar 2001
©
K.Zimmermann