Home Previous Zeitschrift 2001/05 Next Index
 
  Inhalt:
 
 
 
DMS als "schwarze Löcher"
Das Content-Scaling-Problem
Vollautomatisierte Aufbereitung und Verteilung von Contents
Vom Content- zum Wissensmanagement
Autor

 

Vom Dokument zum Wissen

Vorwort

In zahllosen Dokumenten eines Unternehmens ist umfangreiches und wertvolles Organisationswissen enthalten. Mit dem Einsatz von Dokument-Management-Systemen (DMS) wird versucht - Prozesse "rund um diese Dokumente" effizienter zu gestalten und das enthaltene Wissen verfügbar zu machen. Um dieses ehrgeizige Ziel zu erreichen muss neben dem reinen "Management" der Dokumente jedoch eine geeignete Transformation der Informationen stattfinden - die einen direkten, bedarfsgerechten und kontext-sensitiven Online-Zugriff ermöglicht. Wenn hierfür keine geeigneten Lösungen implementiert werden - scheitern Dokument-Management-Systeme in der Praxis häufig am Content-Scaling-Problem (CSP). 

DMS als "schwarze Löcher" 

Viele DMS entstanden in der Vergangenheit auf der Basis von Archivierungssystemen. Im Zentrum stand hierbei das Scannen von Papier-Dokumenten und deren den gesetzlichen und betrieblichen Anforderungen gerechte elektronische Ablage. Erweitert wurde dieser Ansatz sodann durch die Möglichkeit - auch bereits in elektronischer Form vorliegende Files zu archivieren - und verbundene Prozesse mittels computergestützter Workflows effizient auszuführen. Ältere Systeme (Filenet etc.) haben sich von reinen Archivssystemen zu leistungsstarken Dokument-Management- und Workflowsystemen entwickelt - während neue Systeme wie Lotus Domino.Doc auf bestehenden weitverbreiteten Plattformen und deren umfänglichen Diensten aufsetzen und das Dokument-Management in den Mittelpunkt stellen. Leistungsstarke Archivfunktionen können "als AddOn" über eine Schnittstelle angekoppelt werden. Alle DMS basieren heute jedoch auf dem Paradigma - sämtliche Dokumente anstatt im Filesystem oder proprietären Systemen direkt im DMS zu speichern - um Workflows, Zugriffe, Archivierungsanforderungen, Informationsrecherchen u.a.m. optimal abzudecken. Um jedoch eine Nutzung der Informationen durch die eigentlichen "Konsumenten" (Anwender innerhalb und außerhalb des Unternehmens) wirklich zu ermöglichen - ist dieser Ansatz "zu kurz gesprungen". Er führt vielmehr dazu - dass im DMS gespeicherte Informationen über kurz oder lang mehr oder weniger wie in einem "schwarzen Loch" verschwinden - und außer für die Autoren - durch die eigentlichen Nutzer (die Adressaten) der Informationen nicht oder nur sehr unzureichend und mit hohem Aufwand nutzbar sind. Im allgemeinen werden deswegen bestehende Informationen heute mit zusätzlichem Aufwand nochmals auf unterschiedliche Weise eigens für Online-Systeme (WebSites, Online-Datenbanken ...) aufbereitet. Dies führt zu diversen Problemen auf Kostenseite, bei der Datenaktualität, Konsistenz u.a.m. und mit diesen häufig zu einem Scheitern der Projekte. Neben effizienten Abläufen und ordnungsgemäßer Ablage oder Archivierung ist doch der einzige und wichtigste Zweck der Erstellung eines Dokumentes - dessen Informationen für die gegenwärtigen und künftigen Konsumenten optimal nutzbar zu machen. Wofür sonst werden Rundschreiben, Handbücher, Produktbroschüren, ISO 9000 Richtlinien - um nur einige Beispiele zu nennen - geschrieben ? 

Das Content-Scaling-Problem 

Wenn der Aufwand für die Aufbereitung und Verteilung (Online, CD ROM, Papier) von Dokumenten bzw. deren Inhalten mit zunehmendem Volumen (Menge der Information, Anzahl der Dokumente, Anzahl der Empfänger, ...) steigt - liegt ein klassisches Content-Scaling-Problem vor. Der Kostenanstieg kann im besten Falle linear verlaufen - in der Praxis ist er jedoch häufig exponentiell. Das CSP führt häufig zum Scheitern von DMS - Projekten - und bedingt im Zeitalter des "Cyberspace" zunehmend massive Wettbewerbsnachteile. 
 

   
Nachfolgend einige markante Beispiele für das CSP: 
  • Dokumente werden als "File-Attachment" elektronisch bereitgestellt. Die Konsumenten greifen also auf MS-Office, Lotus SmartSuite (...) Formate zu. Auf Konsumentenseite führt dies zu vielfältigen Problemen. Stellen wir uns vor - ein Nutzer sucht nach Informationen zu dem Begriff  "DMS". Die entsprechende Recherche wird ihm eine Trefferliste von sagen wir 20 Dokumenten liefern. Nehmen wir nun an - diese enthält 5 Powerpoint Slides, 5 Word Dokumente, 5 1-2-3 Spreadsheets und 5 WordPro Dokumente. Der Anwender muss jedes einzelne File "downloaden" und in die entsprechende Applikation laden - um zu prüfen ob es die gewünschte Information enthält. Schon das alleine ist ein langwieriger Prozess. Vor allem benötigt der Anwender auch die entsprechende hochkomplexe und umfangreiche Anwendungssoftware (in unserem Falle MS-Office und Lotus SmartSuite). Und wenn er die entsprechende Systemplattform hat (in unserem Beispiel Windows 3.2) auf welcher diese Anwendungen laufen muss er auch noch die "richtige" Version besitzen - da die Formate der Hersteller selten "abwärtskompatibel" sind. Diese Voraussetzungen sind häufig nicht gegeben - und selbst wenn dies der Fall ist - kostet diese Art der Recherche eine Menge Zeit und Geld. 
  • Um dieses Problem zu beheben - werden häufig manuell plattformneutrale "Transformationen" aus den Dokumenten erzeugt .- wie etwa "PDFs" (portable data format). Manche DMS liefern diese auch automatisch als sog. "Renditions". Zwar können nun die Informationen plattform-übergreifend genutzt werden - jedoch eine effiziente Online-Nutzung ist nach wie vor nicht möglich (wer liest schon 10 oder 100 Seiten "PDF" sequentiell am Bildschirm). Es handelt sich um eine Art "elektronisches" Papier - das Ausdrucke in bester Qualität liefert - aber nichts sonst. Wenn sich in einer 100 seitigen Broschüre der "Text auf S. 99" ändert - muss ein kompletter "Upload" beim Informationshersteller und ein kompletter "Download" bei allen Konsumenten gemacht werden. Ein direkter Zugriff auf "S. 99", eine Online-Nutzung der Information, Recherchieren "entlang von Hyperlinks", Volltextsuche mit bildschirmseiten-bezogenen "Trefferlisten" u.v.m. sind nicht möglich. 
  • Bei beiden Verfahren ist zudem der Aufwand nicht zu unterschätzen - der nach jeder Änderung des Originaldokumentes (z.B. im DMS) in Form von "Aktualisierung" der Files in den Online-Systemen entsteht. Häufig kommt es hier zudem zu Konsistenz- und Aktualitätsproblemen. 
  • Um diese Probleme zu umgehen - wählen manche Unternehmen den umgekehrten Ansatz: Informationen werden unmittelbar in "Verteilersystemen" (Notes, Exchange, ISO-9000 Anwendungen, Rundschreibenanwendungen, WebSite-Anwendungen, ...) erfasst. Die Möglichkeit des Zugriffs alleine mit einem Browser vorausgesetzt - können Konsumenten zwar jetzt komfortabel zugreifen - jedoch entsteht nunmehr auf Autorenseite ein erhebliches CSP. Um vernünftige Ausdrucke zu erhalten (Papier wird uns auch im Cyberspace-Zeitalter noch einige Zeit begleiten) - müssen die Informationen aus dem Verteilersystem z.B. in Textsysteme kopiert und dort nachformatiert und bearbeitet werden. Verteilersysteme beherrschen nämlich keine Silbentrennung, keine ausreichenden Kopf-Fußzeilen Funktionen, keine hinreichenden Formatierungsmöglichkeiten u.v.m. Auch arbeiten die Autoren sehr ineffizient: Wenn ein neuer Gliederungspunkt eingefügt werden soll - müssen alle anderen Gliederungspunkte "von Hand" umnummeriert werden. Anstatt einer Anwendung für alle "Dokumentationen" (z.B. Word, WordPro ...) müssen beliebig viele spezielle Anwendungen für unterschiedliche Zwecke beherrscht werden (Anwendung für ISO 9000, für Rundschreiben, für Produkthandbücher ...). Und in fast allen Fällen müssen "Links" von Hand gepflegt und aktualisiert werden. Im "worst case" sieht man sogar bisweilen Autoren - die ihre Infos in "native HTML" pflegen - wobei dann die Vermengung von Inhalt und Logik zu zusätzlichen Nachteilen führt. 
  • Und mit der Zukunftssicherheit sieht es in diesen Fällen gänzlich miserabel aus: Wenn aus welchen Gründen immer Systemplattformen in einem Unternehmen gewechselt werden müssen, steht man vor dem Problem, wie man das riesige zum Teil enorm wichtige Wissen aus diesen verschiedenen Systemen wieder "herausbekommt". Da in diesen Systemen Strukturinformationen gar nicht gespeichert werden (!), kann die Gesamtheit der Informationen auch mit Exportfiltern nicht extrahiert werden. Zudem sind die Filter der Verteilsysteme zumeist nicht ausreichend leistungsstark. 
Die Liste dieser wenigen Beispiele für das CSP könnte beliebig fortgesetzt werden. Es wird jedoch bereits an diesen Beispielen ersichtlich, dass eine Lösung dieses Problems ganz anders geartet sein muss. 

Vollautomatisierte Aufbereitung und Verteilung von Contents 

Um bei der Implementation von DMS nicht "zu kurz zu springen" und die Informationen auch und vor allem für deren Nutzer optimal zugänglich zu machen - müssen die heute üblichen Ansätze um eine "Content-Develop- und Deployment" Komponente erweitert werden. Es müssen "skalierbare" Lösungen implementiert werden - bei denen die Verteilkosten bei steigendem Contentvolumen konstant bleiben. Dazu müssen geeignete Verteilformate ("Hypertext" für Online-Systeme) maschinell erzeugt werden. Im Kern muss der erforderliche Ansatz folgende Kriterien erfüllen: 

  1. Autoren erstellen und pflegen ihre Dokumente mit den gewohnten "Autorentools" (MS Office, Lotus Smartsuite, ...). Diese Werkzeuge unterstützen mit ihren Formaten und Edit-Funktionen die Arbeit der Autoren optimal. Der Autor kann sich auf seine eigentliche Arbeit - die Strukturierung und Erstellung des Inhaltes seiner Dokumente konzentrieren. 
  2. Die Prozesse "rund um das Dokument" (Nutzung spezieller Vorlagen, Reviews, Freigabe, Versionierung, Archivierung, Workflows, ...) werden von einem DMS gesteuert. Damit lässt sich zusätzliche Effizienz auf Autorenseite gewinnen. 
  3. Bei Eintritt bestimmter "Ereignisse" (z.B. Freigabe eines neuen oder geänderten Dokumentes im DMS) muss nun - und das ist entscheidend - eine automatische Transformation in Verteilerformate stattfinden und das Ergebnis dieses Vorganges in eigenen Datenbanken für Konsumenten bereitgestellt werden. Diese Verteilerformate ermöglichen es den Nutzern (Lesern) der Information - auf diese alleine mit einem Browser (und sozusagen dem "Vorwärts-/Rückwärtsknopf) einfach und schnell zuzugreifen. Je nach hinterlegter "Publikationsvorgabe" wird z.B. echter "Hypertext", evtl. kombiniert mit PDF und/oder Sourcefiles (gescannte Anlagen) erstellt. 
Die Online-Aufbereitung muss vollautomatisch vom System durchgeführt werden und u.a. folgendes bewerkstelligen: 
  • Erzeugen eines Inhaltsverzeichnisses (Navigation) 
  • Erzeugen eines Index 
  • Erzeugen von "Sichten" nach bestimmten "Metainformationen" 
  • "Aufsplitten" des Files/Dokumentes in viele kleine "bildschirm-gerechte" Informationseinheiten 
  • Erstellen und Aktualisieren von Hyperlinks 
  • Bildschirmgerechte Umsetzung von Fußnoten, Glossaren, Querverweisen ("PopUps") 
  • Aktualisierung bei Revisionen im Original 
  • Übernahme der Originalformatierungen inkl. Bilder, Tabellen, Objekte u.a.
Diese Lösungsarchitektur bietet eine Vielzahl von Vorteilen und eliminiert das CSP: 
  • Autoren arbeiten in den für sie optimal geeigneten Systemen 
  • Der Schulungsaufwand auf Autoren- und Konsumentenseite (auch ein CSP!) ist minimal 
  • DMS können - wie heute üblich - eingesetzt und integriert werden 
  • Konsumenten können alleine mit einem Browser (oder z.B. Notesclient) online auf riesige - sehr fein strukturierte Informationsmengen zugreifen. 
  • Die Aufbereitung für die Online-Bereitstellung erfolgt komplett systemgesteuert. Das gilt auch für die Aktualisierung von bestehenden Informationen. Online-Contents sind soz. "realtime"-aktuell und immer konsistent. Selbst "Links" werden vom System verwaltet. Dies führt u.a. zu hohen Kosteneinsparungen. 
  • Die Architektur dieser Lösung passt sich bestehenden Infrastrukturen komplett an und ist aufgrund der Aufteilung in die einzelnen Komponenten in hohem Maße zukunftssicher, skalierbar und plattformenabhängig. Insbesondere der wertvollste Teil des "Gesamten" - nämlich die eigentliche Information - ist in einem Format einer Autorenapplikation (MS Office, Lotus SmartSuite ...) gespeichert - das sicherstellt - dass die Information auch noch in vielen Jahren - wenn sich Anforderungen oder Systeme ändern (XML !) - erhalten bleibt. Die Information ist nämlich komplett mit allen Strukturinformationen gespeichert und die genannten Systeme stellen heute bereits leistungsfähige Austauschformate zur Verfügung.
       

Vom Content- zum Wissensmanagement 

Eine in Hypertext transformierte und elektronisch bereitgestellte Information ist eine ideale Basis für ein unternehmensweites Wissensmanagement. Denn nunmehr liegen alle relevanten dokument-spezifischen Informationen in plattformneutraler - direkt online und alleine per Browser nutzbarer Form vor. Recherchen liefern anstatt ganzer Attachments "Bildschirmseiten" mit Informationseinheiten - die wiederum zu weiteren logisch verwandten Themen via "Links" oder "Navigationsmenüs" verweisen. Wissensmanagementsysteme - die etwa reale Abfragen systematisch speichern und "optimieren" (sozusagen "selbstlernende Abfragesystem") - und damit einen Fundus von "Zugangswissen" aufbauen und bereitstellen - können auf dieser Lösung ideal aufbauen - da Wissen sozusagen sehr fein "granuliert" dargeboten und logisch verknüpft wird. Da der Zugriff einfach und ohne viel Technik (nur Browser), auf immer aktuelle Informationen stattfindet - sind auch gute Voraussetzungen für eine hohe Akzeptanz auf Nutzerseite gegeben - vielleicht eines der wichtigsten Kriterien für Content- und Wissensmanagement. 
 
 
 

Paul Caspers
Vorstand der
Coextant Systems GmbH
Schönbergstr. 45
73760 Ostfildern
Tel: 0711 / 45 1000-0
Internet: http://www.coextant.de

Zum Seitenanfang
 


© ADOLPH Verlag GmbH - Letztes Update 03.05.2004