Noreja entwickelt Process Intelligence auf Basis eines Knowledge Graph, um Unternehmensprozesse transparenter und besser steuerbar zu machen
Wie ist Noreja entstanden und wer steht hinter der Idee der Plattform?
Noreja ist aus dem wissenschaftlichen Kontext heraus entstanden. Wir sind ein Spin off der Wirtschaftsuniversität Wien und haben im Jahr 2021 ausgegründet. Hinter der Idee steht die Überzeugung, dass Unternehmen ihre Prozessdaten deutlich besser nutzen können, wenn diese nicht nur technisch analysiert, sondern in ihrem tatsächlichen fachlichen und organisatorischen Kontext verstanden werden.
Der Ursprung lag in unserer Forschungsarbeit im Bereich Process Intelligence und datenbasierter Prozessanalyse. Gemeinsam mit einem Industriepartner, einem ERP Anbieter aus Salzburg, haben wir uns intensiv mit den Schwachstellen bestehender Process Mining Lösungen beschäftigt. Aus dieser Forschungskooperation heraus entstand schließlich der Impuls, Noreja als eigenständiges Unternehmen aufzubauen.
Was war der Auslöser, sich mit Noreja auf Process Intelligence und datenbasierte Prozessoptimierung zu fokussieren?
Der konkrete Auslöser war die Beobachtung, dass klassische Process Mining Lösungen in der Praxis oft an zwei Stellen an ihre Grenzen stoßen: bei der Datenanbindung und bei der Nutzbarkeit der Ergebnisse.
Viele bestehende Lösungen setzen voraus, dass Daten zunächst aufwendig transformiert und in bestimmte Formate, etwa Event Logs, überführt werden. Das passt aus unserer Sicht aber häufig nicht zur Realität heutiger IT und ERP Systemlandschaften. Unternehmensdaten liegen verteilt, relational, historisch gewachsen und oft sehr komplex strukturiert vor.
Zugleich sind die resultierenden Prozessmodelle häufig so komplex, dass sie nur von sehr spezialisierten Analysten interpretiert werden können. Für Fachbereiche, Process Owner oder Management sind sie dadurch nur eingeschränkt nutzbar. Genau hier wollten wir ansetzen: Wir wollten Process Intelligence so neu denken, dass sie schneller integrierbar, fachlich verständlicher und näher an der tatsächlichen Datenrealität von Unternehmen ist.
Welche Vision verfolgt Noreja im Umgang mit Unternehmensdaten und Entscheidungsprozessen?
Unsere Vision ist es, beliebige IT Systeme miteinander in Verbindung zu setzen und daraus einen umfassenden Knowledge Graph aufzubauen, der die Realität der Unternehmensprozesse möglichst vollständig abbildet.
Dabei geht es nicht nur um operative Prozessdaten, sondern auch um Kontextdaten: also Informationen darüber, warum bestimmte Prozessvarianten entstehen, welche Abhängigkeiten bestehen, welche Systeme beteiligt sind und welche Auswirkungen bestimmte Prozessmuster haben.
Ein zentraler Bestandteil unserer Vision ist die Kombination aus Knowledge Graph, Agentic AI und sogenannten Frontier Agents. Darunter verstehen wir KI Agenten, die im Hintergrund kontinuierlich und zunehmend autonom an Prozessproblemen arbeiten. Sie sollen beispielsweise dauerhaft Root Causes für Prozessabweichungen identifizieren, die Compliance eines Prozesses überwachen oder relevante Risiken und Optimierungspotenziale erkennen.
Entscheidend ist dabei, dass diese Agenten nicht nur Informationen anzeigen, sondern im richtigen Moment auch konkrete Aktionen vorbereiten oder ableiten können – etwa indem sie Verantwortliche informieren, Handlungsempfehlungen geben oder Maßnahmen zur Prozessverbesserung anstoßen. Die Verbindung aus tiefem Prozessverständnis im Knowledge Graph und autonom arbeitenden KI Agenten ist für uns der nächste große Entwicklungsschritt in der Process Intelligence.
Unser Ziel ist es, Unternehmensdaten so aufzubereiten, dass künstliche Intelligenz sie optimal verstehen und nutzen kann. Auf dieser Grundlage sollen Manager, Process Owner und Fachbereiche künftig deutlich besser in ihren Entscheidungsprozessen unterstützt werden – nicht nur durch Dashboards, sondern durch konkrete, kontextbezogene und handlungsorientierte Erkenntnisse.
Wie möchtet ihr diese Vision in den kommenden Jahren konkret umsetzen?
Wir werden unseren Knowledge Graph konsequent weiterentwickeln und ihn noch stärker darauf ausrichten, von KI Systemen verstanden und genutzt zu werden. Bereits heute bildet unsere Lösung sehr differenzierte Zusammenhänge in Unternehmensprozessen ab. Ein besonderer Fokus liegt dabei auf kausalen Zusammenhängen, nicht nur auf zeitlichen Abläufen.
Das ist ein wichtiger Unterschied: Wir möchten nicht nur zeigen, dass etwas passiert ist oder in welcher Reihenfolge Prozessschritte erfolgt sind. Wir möchten besser verstehen, warum bestimmte Muster entstehen, welche strukturellen Ursachen dahinterliegen und welche Maßnahmen tatsächlich Wirkung zeigen können.
In den kommenden Jahren werden wir deshalb die Schnittstelle zwischen Knowledge Graph und künstlicher Intelligenz weiter ausbauen. Dazu gehören agentenbasierte KI Funktionen, die gezielt Informationen aus dem Graphen abrufen, interpretieren und für konkrete Fragestellungen nutzbar machen. Perspektivisch sollen solche Agenten immer autonomer im Hintergrund arbeiten und Unternehmen kontinuierlich dabei unterstützen, Prozessprobleme zu erkennen, Ursachen zu analysieren und geeignete Maßnahmen abzuleiten.
Damit wollen wir Unternehmen noch präzisere Analysen und bessere Entscheidungsgrundlagen liefern.
An welche Zielgruppen richtet sich eure Lösung und welche Probleme löst ihr für diese konkret?
Unsere Lösung richtet sich vor allem an größere mittelständische Unternehmen sowie an Enterprise Kunden. Besonders relevant sind für uns Unternehmen ab etwa 1.000 Mitarbeitenden bis hin zu Organisationen mit 20.000 Mitarbeitenden oder mehr. Im Markt positionieren wir uns insbesondere unterhalb der sehr großen Fortune 500 Konzerne und sprechen damit Unternehmen an, die komplexe Prozesse und Systemlandschaften haben, aber zugleich pragmatische, schnell integrierbare und wirtschaftlich sinnvolle Lösungen benötigen.
Wir helfen diesen Unternehmen, Transparenz über ihre Prozesse zu gewinnen, Engpässe und Fehlmuster zu erkennen und operative Verbesserungen datenbasiert abzuleiten. Dabei geht es nicht nur um Analyse, sondern auch um die konkrete Wertgenerierung. Deshalb begleiten wir unsere Kunden im Rahmen unserer Lizenzen aktiv dabei, aus den gewonnenen Erkenntnissen tatsächliche Verbesserungsmaßnahmen abzuleiten und umzusetzen.
Wie stellt ihr sicher, dass komplexe Prozesse für Unternehmen verständlich und nutzbar gemacht werden?
Wir arbeiten mit unterschiedlichen Prozessdimensionen beziehungsweise Perspektiven. Das bedeutet: Prozesse können bei uns auf verschiedenen Detailebenen modelliert und analysiert werden.
Ein Process Owner, der für einen klar abgegrenzten Teilprozess verantwortlich ist, muss nicht den gesamten End to End Prozess in voller Komplexität sehen. Er bekommt genau die Perspektive, die für seinen Verantwortungsbereich relevant ist. Gleichzeitig kann eine Person, die einen systemübergreifenden End to End Prozess verantwortet, eine übergreifende Perspektive auf den gesamten Ablauf erhalten.
Dadurch machen wir komplexe Prozesse zielgruppengerecht nutzbar. Unterschiedliche Rollen im Unternehmen erhalten unterschiedliche Sichten auf dieselbe Datenbasis – von der operativen Detailanalyse bis zur Managementperspektive. Das reduziert Komplexität, ohne wichtige Informationen zu verlieren.
Was unterscheidet Noreja von klassischen Process Mining oder Analytics Lösungen am Markt?
Ein wesentlicher Unterschied ist, dass wir keinen klassischen Event Log benötigen. Dadurch ist die Datenanbindung deutlich schneller und näher an der Realität bestehender Quellsysteme. Wir können Daten so verarbeiten, wie sie tatsächlich in ERP oder anderen Unternehmenssystemen vorhanden sind, ohne dass sie zuvor umfangreich transformiert werden müssen.
Zweitens verfolgen wir einen anderen algorithmischen Ansatz. Mit unserem Causal Process Mining Ansatz betrachten wir nicht nur zeitliche Abfolgen, sondern auch strukturelle und kausale Zusammenhänge innerhalb von Prozessen. Dadurch können Nutzer bestimmte Fehlermuster und Prozessprobleme präziser identifizieren und besser verstehen, welche Ursachen dahinterliegen.
Drittens unterscheiden wir uns durch unser Preismodell. Klassische Process Mining und Enterprise Analytics Lösungen bewegen sich häufig im mittleren bis hohen sechsstelligen Lizenzbereich; im Enterprise Segment können auch siebenstellige Beträge entstehen. Wir möchten Process Intelligence für den gehobenen Mittelstand deutlich zugänglicher machen – mit einem transparenteren und niedrigeren Pricing, das besser zur Realität dieser Unternehmen passt.
Damit kombinieren wir technologische Tiefe mit einer Marktpositionierung, die nicht nur auf sehr große Konzerne ausgerichtet ist, sondern auch Unternehmen adressiert, die komplexe Prozesse haben, aber wirtschaftlich pragmatische Lösungen benötigen.
Welche Herausforderungen begegnen euch bei der Integration in bestehende Systemlandschaften?
Eine der größten Herausforderungen ist die Datenqualität. In vielen Unternehmen sind Daten historisch gewachsen, uneinheitlich gepflegt oder über mehrere Systeme verteilt. Besonders anspruchsvoll wird es, wenn unterschiedliche Systeme miteinander verbunden werden müssen und die Beziehungen zwischen den Daten nicht sauber dokumentiert oder nicht eindeutig sind.
Ein zentrales Thema sind dabei Schlüsselbeziehungen, also zum Beispiel IDs, Fremdschlüssel oder andere Identifikatoren, über die Objekte und Ereignisse systemübergreifend miteinander verknüpft werden können. Diese Verbindungen müssen korrekt erkannt und gematcht werden, damit ein belastbares Prozessbild entsteht.
Hinzu kommen Anforderungen rund um IT Security, Datenschutz und den Einsatz von KI. Viele Unternehmen stellen sich zurecht die Frage, ob öffentliche Large Language Models oder Cloud Dienste eingesetzt werden dürfen. Deshalb bieten wir auch vollständig lokale und isolierte LLM Setups an, um Datenschutz und Sicherheitsanforderungen gerecht zu werden.
Wie geht ihr mit der Komplexität großer Datenmengen und unterschiedlicher Datenquellen um?
Unsere Architektur ist darauf ausgelegt, sehr große und heterogene Datenmengen zu verarbeiten. Im Knowledge Graph können auch mehrere Milliarden Objekte abgebildet werden. Dadurch lassen sich komplexe Prozessrealitäten sehr granular modellieren.
Eine besondere Herausforderung besteht darin, dass Unternehmensdaten häufig nicht linear zusammenhängen. Daten laufen oft divergent und konvergent zusammen: Ein Objekt kann sich in viele Folgeobjekte verzweigen, mehrere Objekte können später wieder in einem gemeinsamen Vorgang zusammengeführt werden. Gerade bei Audit Tabellen oder Änderungsprotokollen entstehen dadurch sehr komplexe Join Bedingungen. Dort liegen teilweise Millionen oder Hunderte Millionen Events vor, die korrekt interpretiert und in ihren tatsächlichen fachlichen Zusammenhang gebracht werden müssen.
Hinzu kommen komplexe Kardinalitäten, etwa 1 n, n 1 oder n m Beziehungen. Klassische Prozessmodelle vereinfachen diese Realität häufig stark. Unser Anspruch ist es dagegen, diese Zusammenhänge so abzubilden, wie sie in den Quellsystemen tatsächlich existieren. Genau dafür eignet sich der Knowledge Graph Ansatz besonders gut, weil er auch komplexe Objektbeziehungen, Abhängigkeiten und Prozessstrukturen flexibel modellieren kann.
Für die Verbindung unterschiedlicher Datenquellen nutzen wir unter anderem sogenannte Makro Entitäten. Damit können Daten aus verschiedenen Quellsystemen miteinander in Beziehung gesetzt werden. Voraussetzung ist in der Regel ein gemeinsamer Identifier oder eine fachlich belastbare Logik, über die sich Datenpunkte aus System A mit Datenpunkten aus System B verbinden lassen.
So entsteht ein übergreifendes Prozessverständnis, das nicht an Systemgrenzen endet. Gerade das ist für viele Unternehmen entscheidend, weil reale Geschäftsprozesse selten nur in einem einzigen System stattfinden.
Welche Rolle spielt künstliche Intelligenz in eurer Plattform und wie entwickelt ihr diesen Bereich weiter?
Künstliche Intelligenz spielt für uns eine zentrale Rolle. Wir verstehen uns als AI first Unternehmen. Der Knowledge Graph bildet die fachliche, strukturelle und prozessuale Grundlage, damit KI Unternehmensprozesse nicht nur oberflächlich auswertet, sondern in ihrem Kontext versteht.
Dafür haben wir ein agentenbasiertes System entwickelt. Unterschiedliche Agenten übernehmen unterschiedliche Aufgaben: Ein Agent liest Informationen aus dem Graphen aus, ein anderer interpretiert Kontextinformationen, ein weiterer kann externe Informationen recherchieren oder bestimmte Properties und Datenstrukturen analysieren.
Unser Ziel ist es, KI nicht isoliert auf Daten loszulassen, sondern ihr eine strukturierte, kontextreiche Wissensbasis zur Verfügung zu stellen. Dadurch sollen Analysen präziser, Antworten relevanter und Handlungsempfehlungen belastbarer werden. Insbesondere die Weiterentwicklung in Richtung Frontier Agents ist für uns zentral: also KI Agenten, die dauerhaft an Prozessproblemen arbeiten, Ursachen identifizieren, Compliance überwachen und bei relevanten Abweichungen geeignete nächste Schritte ableiten können.
Diesen Bereich werden wir in den kommenden Jahren konsequent weiter ausbauen.
Welche nächsten Schritte und Entwicklungen plant ihr für Noreja?
Der nächste große Schritt ist der gezielte Aufbau von Vertrieb und Customer Success. Wir möchten im DACH Markt bekannter werden, unsere Lösung breiter in den Markt bringen und insbesondere Unternehmen im gehobenen Mittelstand gewinnen.
Ein wichtiger Fokus liegt darauf, gemeinsam mit Kunden konkrete Success Stories aufzubauen. Wir möchten zeigen, welchen messbaren Wert Process Intelligence schaffen kann – etwa durch effizientere Abläufe, bessere Prozesssteuerung, geringere Fehlerquoten oder fundiertere Entscheidungen.
Produktseitig werden wir weiterhin daran arbeiten, Kontext und Content in der Plattform zu verbessern, damit Nutzer noch schneller zu relevanten Erkenntnissen gelangen. Gleichzeitig treiben wir die Weiterentwicklung unseres Knowledge Graphs und unserer KI Funktionen konsequent voran.
Welche drei Ratschläge würdet ihr anderen Gründern geben, die datengetriebene Geschäftsmodelle aufbauen möchten?
Erstens: Nicht zu technisch denken. Gerade bei datengetriebenen Geschäftsmodellen ist die Versuchung groß, vom Produkt oder von der Technologie her zu denken. Entscheidend ist aber das konkrete Nutzerproblem. Man sollte sehr genau verstehen, für wen man welches Problem löst und welchen Wert die Lösung tatsächlich schafft. Das haben auch wir im Laufe der Zeit immer stärker gelernt.
Zweitens: Risiken eingehen. Als Gründer muss man manchmal Entscheidungen treffen, ohne alles bis ins letzte Detail abgesichert zu haben. Natürlich braucht es Analyse und Vorbereitung, aber zu langes Zögern kann gerade in frühen Phasen gefährlich sein. Man muss bereit sein, Dinge auszuprobieren, zu lernen und bei Bedarf schnell nachzuschärfen.
Drittens: Bei der Personalsuche auf Seniorität achten. Gerade in einem anspruchsvollen technischen Umfeld ist es enorm wertvoll, Menschen ins Team zu holen, die wirklich Verantwortung übernehmen und Arbeit abnehmen können. Natürlich ist das initial teurer, aber sehr juniorige Profile erzeugen am Anfang häufig mehr Betreuungsaufwand, als sie entlasten. Gute Senior Leute können für ein junges Unternehmen ein echter Beschleuniger sein.
Bild Bildcredits @ Noreja
Wir bedanken uns bei Dr. Lukas Pfahlsberger für das Interview
Aussagen des Autors und des Interviewpartners geben nicht unbedingt die Meinung der Redaktion und des Verlags wieder.
Premium Start-up: Noreja

Kontakt:
Noreja Intelligence GmbH
Bruck 12
6914 Hohenweiler
Österreich
https://noreja.com
Lukas.pfahlsberger@noreja.com
Ansprechpartner: Dr. Lukas Pfahlsberger
























