Zurück
#data#dataanalytics#dataquality

Klassisches Prozessmanagement vs. Process Mining – auf die Vorgehensweise kommt es an!

vonPhilip Schreiber
17. Dezember 2021Data & Analytics

In einem vor kurzem stattgefundenen Training zum Thema Business Process Model and Notation (BPMN) wurde mir erklärt, dass ein erster Schritt im klassischen Business Process Modeling (BPM) die Prozesserhebung auf Basis von Workshops, Interviews und Beobachtungen ist. Da habe ich mich gefragt: Ist das beim Process Mining genauso?

Process Mining als Verbindung von Workflow-Management, prozessorientiertem BPM, Geschäftsprozessmodellierung und nicht-prozessorientiertem Data-Mining fordert durch seinen Bottom-up-Ansatz eine andere Vorgehensweise. Es zieht seine Erkenntnisse nicht daraus, wie die Prozessbeteiligten denken oder wie ihre Arbeitsabläufe aussehen. Unabhängig zu sämtlichen in Interviews und Workshops geschilderten Betrachtungsweisen wird auf die in vielen Systemen bereits vorhandenen Transaktions- und Vorgangsdaten in den zahlreichen ERP- und CRM-Systemen geschaut, um die Frage zu beantworten: “Wie finden diese Abläufe wirklich statt?”.

Dieser ganzheitliche Ansatz ermöglicht es, ein oft durchaus unterschiedliches Bild der Ist-Prozesse vergleichbar zum Vorgehen beim klassischen Prozessmanagement zu bekommen. Viele Schwachstellen, Bottlenecks und Loops treten zum Vorschein, die tagtäglich von den jeweiligen Prozessakteuren unbewusst durchgeführt werden.
Nur so kann ein Verständnis über die eigenen Geschäftsprozesse, deren Durchlaufzeiten und Bottlenecks geschaffen werden, um dadurch Service- und Qualitätsverbesserungen durch schnellere Durchlaufzeiten, Prozesseffizienz, Fehlerminimierung zu erreichen. Das Resultat ist eine Steigerung der Kundenzufriedenheit, welche in Zeiten von Niedrigzins, Kundenzentrierung, Digitalisierung, Regulatorik und demographischen Veränderungen wichtiger denn je ist.
Es ist nicht verwunderlich, dass in einer kürzlich stattgefundenen kleinen Umfrage im Rahmen eines Process-Mining-Workshops das Vorhandensein von Ist-Dokumentationen nicht als kritisches Kriterium beim Process Mining angesehen wurde. Vielmehr sind das vorhandene Optimierungspotenzial, das Kosten-Nutzen-Verhältnis (was bringt mir der Einsatz von Process Mining?) und natürlich auch die Verfügbarkeit der Daten entscheidende Kriterien für den Einsatz von Process Mining. Erst wenn diese drei Fragen beantwortet worden sind, sollte mit der Erstellung von Eventlogs, der notwendigen Datenbasis für Process Mining, begonnen werden.
Wollen auch Sie mehr über Ihre real gelebten Arbeitsabläufe im Unternehmen erfahren? Wir helfen Ihnen gerne die notwendigen Eventlogs, den digitalen Fußabdruck aller notwendigen Prozessschritte aus Ihren Systemen zusammenzustellen und unterstützen Sie auch bei der Wahl der richtigen Process-Mining-Lösung. Schaffen Sie die Grundlage für höhere Prozesseffizienz und mögliche Automatisierungen in der Zukunft mit Hilfe von PPI.X Process Mining.
Weiteres hierzu u.a. auch bei https://insurance-experts.ppi.de/weichenstellung-fuer-den-erfolgreichen-process-mining-einsatz/

Philip Schreiber

Philip Schreiber

Aus dem Collaboration Lab crossnative heraus beschäftigt sich Philip im Rahmen der Intelligenten Prozessautomatisierung (IPA) u.a. mit den Themen Process Mining und Hyperautomation. Als studierter Wirtschaftsingenieur ist er bereits seit 2008 erfolgreich in der Beratung Data and Analytics in vielen Versicherungs- und Bankprojekten tätig.

Hier bekommst Du noch mehr

#Hyperautomatisierung#HyOS

Das Automation Plateau: Warum viele Automatisierungsinitiativen stecken bleiben

Vor 3 Tagen veröffentlicht

Unternehmen investieren seit Jahren massiv in Automatisierung. Workflowtools, Robotic Process Automation, digitale Portale und Self-Services sollten Prozesse effizienter machen und Mitarbeiter entlasten. Doch die Realität sieht oft anders aus: Trotz umfangreicher Technologieinvestitionen bleibt der Automatisierungsgrad vieler Organisationen überraschend niedrig.

Der Grund liegt selten in der eingesetzten Technologie. Viel häufiger stoßen Unternehmen an ein strukturelles Problem – das sogenannte Automation Plateau. Sobald Prozesse unstrukturierte Daten enthalten, komplexe Entscheidungen erforderlich sind oder mehrere Systeme zusammenwirken müssen, endet die Automatisierung. Menschen übernehmen wieder die Bearbeitung.

Dieser Artikel zeigt, warum klassische Automatisierungsansätze häufig bei Teilprozessen stehen bleiben – und warum echte Hyperautomatisierung ein anderes Architekturdenken erfordert. Mit HyOS stellt crossnative ein Framework vor, das Daten, Prozesse und Kommunikation systematisch verbindet und so End-to-End-Automatisierung möglich macht.

#HyOS#data#data engine#datawarehouse

Automatische Datenbereitstellung für KI

Veröffentlicht am 02.03.2026

Viele KI-Projekte scheitern nicht an den Modellen, sondern an den Daten. Data Scientists verbringen einen großen Teil ihrer Zeit damit, Daten zu suchen, zu bereinigen und zusammenzuführen, statt Modelle zu entwickeln. Der Beitrag zeigt, warum automatisierte Datenbereitstellung der entscheidende Hebel für erfolgreiche KI-Projekte ist. Am Beispiel des crossnative-Ansatzes wird erläutert, wie Hyperautomatisierung den gesamten Lebenszyklus von Datenprojekten automatisiert – von der fachlichen Analyse über Entwicklung und Test bis zum produktiven Betrieb. Dadurch steigen Datenqualität, Nachvollziehbarkeit und Geschwindigkeit der Umsetzung. Gleichzeitig können sich Teams stärker auf fachliche Fragestellungen konzentrieren und KI-Lösungen schneller in den Nutzen bringen.

#Hyperautomatisierung#HyOS

Scan & Go fürs Service-Center: Warum Sie jetzt einen Supermarkt-Moment brauchen

Veröffentlicht am 14.01.2026

Warum funktionieren moderne Supermärkte heute oft reibungsloser als die Kundenbearbeitung in großen Unternehmen? Während der Einzelhandel mit autonomen Check-out-Systemen Wartezeiten eliminiert, hängen viele Service-Organisationen noch auf einem „Automation Plateau“ fest. Sie digitalisieren lediglich alte, fragmentierte Abläufe, anstatt Prozesse radikal vom Ergebnis her zu denken.

In diesem Beitrag zeigen wir, wie der Weg zum Dark Service Center gelingt. Erfahren Sie, warum Hyperautomatisierung kein reines Technologieprojekt ist, sondern ein methodisches Framework braucht: Unser Hyperautomation Operating System (HyOS). Mit den drei Kern-Säulen – Data, Process und Communication Engine – verwandeln wir unstrukturierte Datenströme in echte Dunkelverarbeitung.

Ob durch die flexible Orchestrierung mit Camunda oder die kundenzentrierte Integration via BSI – wir zeigen Ihnen, wie Sie die Effizienz eines modernen Check-outs auf Ihre gesamte Wertschöpfung übertragen und Service neu definieren.

Alle Blogartikel