ABLÄUFE IM REAGENZGLAS

AIFB - Nach dem »New-Economy-Hype« konzentriert man sich in vielen Unternehmen wieder auf deren Effizienz. Am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB), an der Universität Karlsruhe (TH), werden Instrumente entwickelt und getestet, um inner- und zwischenbetriebliche Abläufe zu effektivieren.

11. Mai 2005
Bild 1: ABLÄUFE IM REAGENZGLAS
Bild 1: ABLÄUFE IM REAGENZGLAS

Mehr denn je stehen Unternehmen vor der Aufgabe, ihre betrieblichen Abläufe nicht mehr nur unternehmensintern, sondern auch über die Unternehmensgrenzen hinweg zu verbessern und effizienter zu gestalten. Moderne Informations- und Kommunikationssysteme haben die organisatorische Integration von Betrieben und ihren in den überbetrieblichen Wertschöpfungsketten vor- und nachgelagerten Partnern erheblich vereinfacht.

»So zeigen die aktuellen ›critical issues‹ eine Verlagerung von der Entwicklung von E-Business- Strategien hin zur Fokussierung auf die kontinuierliche Verbesserung der überbetrieblichen Abläufe und deren Integration in Informations- und Kommunikationssysteme«, schildert Professor Wolffried Stucky vom Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) an der Universität Karlsruhe (TH). Er leitet gemeinsam mit Professor Andreas Oberweis die Forschungsgruppe Betriebliche Informations- und Kommunikationssysteme am Institut (BIK@AIFB).

Die Forschungsgruppe entwickelt neue Wege, alle im betrieblichen Alltag benötigten Informationen so auf computergestützte Informations- und Kommunikationssysteme zu übertragen, daß sie zur richtigen Zeit am richtigen Ort in der geforderten Qualität verfügbar sind. Die ablauforientierte Abbildung kompletter Wertschöpfungsketten ist ein wichtiger Anwendungsbereich der am Institut entwickelten Software-Systeme.

Für Prof. Andreas Oberweis belegen Erfahrungen aus der Realisierung von Lösungen zum Management von zwischenbetrieblichen Abläufen, daß gerade bei der Abbildung unternehmensübergreifender Wertschöpfungsketten die laufende Überwachung und kontinuierliche Verbesserung der Abläufe zum kritischen Erfolgsfaktor wird. Die aktuellen Business Intelligence-Lösungen leisten dabei wertvolle Dienste. Sie decken die Anforderungen jedoch nur zum Teil ab.

»Gefordert sind eine strukturierte Dokumentation der Abläufe sowie umfassende Analyse- und Bewertungsfunktionalitäten«, so Oberweis. »Ein Softwaresystem zum effektiven und effizienten Management von zwischenbetrieblichen Abläufen sollte, neben Funktionen zur Koordination und Kontrolle, Funktionen zur Modellierung und Simulation umfassen.«

In einem Kooperationsprojekt zwischen dem Institut AIFB und der Promatis Software GmbH, Ettlingen, wird ein solches System prototypisch implementiert und in der Praxis erprobt.

Die Promatis wurde 1994 als Spin-Off des Institutes für Angewandte Informatik und Formale Beschreibungsverfahren gegründet und fördert seitdem aktiv den interdisziplinären Technologietransfer zwischen Forschung und Praxis. Im aktuellen Kooperationsprojekt »Income2010« werden zukunftsweisende Konzepte und Softwarewerkzeuge erarbeitet, die sich nahtlos in die bestehenden Lösungen der Promatis einfügen und diese zu einem ablaufbasierten Management- System für komplexe Wertschöpfungsketten machen.

Interdisziplinärer Technologietransfer

Für Dr. Frank Schönthaler, Geschäftsführer der Promatis Software GmbH, müssen Abläufe und Services jederzeit flexibel auf die Marktanforderungen ausgerichtet werden, um im heutigen Wettbewerb bestehen zu können: »Ein Fehler genügt, und Kunden wechseln zum Wettbewerber, kritische Güter werden verspätet angeliefert oder Mitarbeitern entgehen wichtige Informationen.«

Grundlage des neuen Software-Systems bildet das Promatis-Produkt »Think Performance Manager!«, welches um eine auf Petri-Netzen basierende Modellierungs- und Simulationskomponente für zwischenbetriebliche Abläufe erweitert wird: den NetModeler und den PerformanceSimulator. Im Mittelpunkt der Erweiterung steht zusätzlich ein Monitoring-Modul, das die regelmäßige Leistungsmessung und -bewertung übernimmt und damit die Voraussetzung für eine kontinuierliche Verbesserung der zwischenbetrieblichen Abläufe schafft. Hierzu ist das Monitoring-Modul mit Tools zur Modellierung und Simulation von Abläufen integriert.

»Monitoring«, erläutert Professor Wolffried Stucky, »ist nicht nur eine punktuelle Betrachtung der Prozesse, sondern muß als kontinuierliche Leistungserhebung und -verbesserung verstanden werden.«

Und Dr. Schönthaler ergänzt: »Aus sequenziellen Abhängigkeiten haben sich in den letzten Jahren zunehmend netzwerkartige Kooperationen entwickelt. Ein modernes Management sowohl der Effektivität als auch der Effizienz der zwischenbetrieblichen Abläufe wird durch diese Entwicklung zunehmend erschwert, so daß neue Konzepte und Software-Systeme zur Planung, Steuerung und Kontrolle der komplexen Wertschöpfungsnetzwerke notwendig geworden sind.«

Selbstorganisierende Abläufe

In dem am Institut AIFB in Zusammenarbeit mit Promatis entwickelten Software-Prototyp Net-Modeller werden die zwischenbetrieblichen Abläufe als Petri-Netze modelliert. Petri-Netze sind eine Beschreibungssprache für Abläufe, welche die Vorteile einer graphischen Darstellung und einer präzisen Semantik in sich vereint.

Petri-Netze basieren auf dem einfachen Prinzip, daß sich alle Prozesse aus aktiven und passiven Komponenten zusammensetzen und entsprechend anschaulich grafisch darstellen lassen. Aufgrund ihrer präzisen Semantik können Petri-Netze systematisch simuliert und methodisch analysiert werden. Beispielsweise kann getestet werden, ob ein Ablauf bei gegebenen Rahmenbedingungen vollständig durchlaufen wird oder bereits vor seinem regulären Ende abbricht.

Der PerformanceSimulator dient zur Simulation der Ablaufmodelle und wird zur Validierung der modellierten Wertschöpfungsketten eingesetzt. Mit dem am Institut AIFB entwickelten Software-Werkzeug können solche zwischenbetriebliche Abläufe mit vorgegebenen Rahmenbedingungen gewissermaßen im Reagenzglas durchgespielt und bewertet werden. Die modellierten Abläufe können zusätzlich um Informationen über kritische Zustände und um für diese formulierte Toleranzbereiche ergänzt werden.

Ziel ist dabei, die Selbstorganisation der Abläufe durch ein intelligentes Monitoring-System zu ermöglichen. Die unterschiedlichen Simulationsexperimente dienen der systematischen Konzeption einer sogenannten Buildtime-Konfiguration der Abläufe, die das System in einem beschränkten Umfang selbständig an die aktuellen Rahmenbedingungen im Echtzeitbetrieb zur sogenannten Realtime-Konfiguration anpassen kann. Aus diesem Grund müssen die Abläufe mit operativen Datenquellen verdrahtet werden, die eine beschränkte Selbstkontrolle und Eigensteuerung ermöglichen.

»Es ist sicher unrealistisch«, gibt Prof. Oberweis zu bedenken, »davon auszugehen, daß sich komplexe zwischenbetriebliche Abläufe vollständig spontan und sinnvoll selbst organisieren.« Nach seiner Meinung ist vielmehr »eine evolutionäre und schrittweise Parametrisierung der existierenden zwischenbetrieblichen Abläufe durch das Software-System, ausgehend von einer vorgegebenen Konfiguration und ihrer kontinuierlichen Kontrolle durch geeignete Monitoring-Werkzeuge, erstrebenswert.«

Im Zusammenhang mit dem Ausführen von Eskalations- und Korrekturmechanismen ist zunächst die Frage von Interesse, ob alle kritischen Zustände in der Buildtime-Konfiguration beschrieben worden sind und ob die modellierten Mechanismen zur Behebung der Verletzungen von Toleranzbereichen - signifikanten Abweichungen des Ist-Zustands vom Soll-Zustand - innerhalb der zwischenbetrieblichen Abläufe ausreichend und korrekt sind.

Beim Einsatz des PerformanceSimulators werden zwei Simulationsstrategien unterschieden: Bei der ersten Strategie werden die Simulationsexperimente unter der Vorgabe, daß keine Eskalations- und Korrekturmechanismen notwendig werden, durchgeführt. Beim simulativen Durchspielen der im ProcessModeller spezifizierten Abläufe dürfen nur solche Aktivitäten ausgeführt werden, deren Ergebnisse keine Zielvorgaben verletzen. Dazu muß der PerformanceSimulator für jede Aktivität überprüfen, ob deren Durchführung bei gegebener Parametrisierung einen Eskalationsbeziehungsweise Korrekturmechanismus aktiviert. So kann beispielsweise überprüft werden, welche Prozesse innerhalb einer zwischenbetrieblichen Wertschöpfungskette wann stattfinden müssen und welche Ergebnisse dabei erzeugt werden sollten, so daß alle für die spezifischen Ziele formulierten Toleranzbereiche eingehalten werden.

Eine zweite Simulationsstrategie bezieht die vordefinierten Eskalations- und Korrekturmechanismen mit ein. Durch das Ausführen bestimmter Aktivitäten und Teilprozesse in der Wertschöpfungskette werden Toleranzbereiche verletzt. Die verknüpften Eskalations- und Korrekturmechanismen werden in den Simulationsexperimenten auf ihre Wirkung hin validiert.

Bei der Systemarchitektur des PerformanceSimulators hat man sich für eine zentrale Simulation Engine (SE) entschieden. Sie ermöglicht das Parametrisieren und anschließende Ausführen der Abläufe im Labor und wird nur bei einem der an zwischenbetrieblichen Wertschöpfungsketten beteiligten Unternehmen installiert.

Da Unternehmen in der Regel wirtschaftlich unabhängige Einheiten darstellen, muß gewährleistet werden, daß nicht alle Datensätze der jeweiligen Datenbanken ausgetauscht werden. Durch Teilreplikationen werden nur die simulationsrelevanten Daten der zwischenbetrieblichen Abläufe benötigt. Bei jeder Durchführung einer relevanten Aktivität wird der Replikationsmechanismus angestoßen und der entsprechende Datensatz in allen betroffenen Standorten aktualisiert.

Zukünftige Schritte

Der zunehmende Einsatz von Web-basierten Informationssystemen hat eine Integration von Unternehmen mit ihren in der Lieferkette vor- und nachgelagerten Partnern in den letzten Jahren stark gefördert. Dadurch haben sich die Komplexität der wechselseitigen Verflechtungen und die Anzahl der Partner in den zwischenbetrieblichen Abläufen ständig erhöht.

Die im vorgestellten Projekt am AIFB eingesetzten Methoden sowie das implementierte Modellierungs-, Simulations- und Monitoringwerkzeug können einen signifikanten Beitrag zur Verbesserung des Managements der Abläufe im Rahmen von komplexen Wertschöpfungsketten leisten. Die in den unterschiedlichen Simulationsexperimenten gewonnenen Erkenntnisse führen neben der operativen Verbesserung der Steuerung und Kontrolle der Abläufe auf einer taktisch-strategischen Ebene auch zu einer mittel- bis langfristigen Erhöhung der Effektivität des gesamten Wertschöpfungsnetzwerks.

Ziel einer zweiten Stufe des Kooperationsprojekts zwischen dem Institut für Angewandte Informatik und Formale Beschreibungsverfahren und der Promatis Software GmbH ist es, den NetModeler, den PerformanceSimulator und den think Performance Manager! weiter zu integrieren. Die vielseitigen Funktionalitäten des praxiserprobten think Performance Manager! sollen auch in der Modellierungs- und Simulationsphase verfügbar gemacht werden.

»Ziel ist es«, so die Projektleitung, »die Konzeption und Implementierung eines umfassenden Management Systems für die Modellierung, Analyse, Steuerung und Kontrolle von komplexen Wertschöpfungsnetzwerken zu entwickeln.«

Dipl.- Kfm. Marco von Mevius

Erschienen in Ausgabe: 01/2005