WIE INDUSTRIE UND ÖFFENTLICHE
UNTERNEHMEN DIE HERAUSFORDERUNGEN
DES 21. JAHRHUNDERTS MEISTERN KÖNNEN
Hohe Komplexität erzeugt Ineffizienz und führt zu unnötigen Risiken.
Deshalb muss Komplexität reguliert werden.
1. KOMPLEXITÄT EINFACH
BEHERRSCHEN
WIE INDUSTRIE UND ÖFFENTLICHE
UNTERNEHMEN DIE HERAUSFORDERUNGEN
DES 21. JAHRHUNDERTS MEISTERN KÖNNEN
Unsere vernetzte Gesellschaft wird immer
komplexer. Unternehmensprozesse und
deren Abhängigkeiten können kaum noch
überblickt und kontrolliert werden.
Hohe Komplexität erzeugt
Ineffizienz und führt zu
unnötigen Risiken.
Deshalb muss Komplexität
reguliert werden.
2. Beispiele für Herausforderungen
aufgrund wachsender Komplexität:
• Wie können faule Kredite
erkannt und künftig vermieden
werden?
• Wie können Risiken in einem
Projektportfolio rechtzeitig
identifiziert werden?
• Wie können
Produktionsausfälle verhindert
werden?
• Wie kann der Cash-Flow
garantiert werden?
• Wie kann die Logistik optimiert
werden?
• Wie kann die Sicherheit von
IT- und Netzwerk-
Infrastrukturen verbessert
werden?
Die Wertschöpfung von
Unternehmen hängt inzwischen
von kritischen Infrastrukturen und
dem zuverlässigen, reibungslosen
Zusammenspiel von Systemen,
Netzwerken und Prozessen ab.
Allerdings geht die wachsende
Komplexität zu Lasten von
Effizienz und Profitabilität.
Moderne Technologien erhöhen
gleichzeitig deren Anfälligkeit.
Das extreme Technologie- und
Datenwachstum führt zunehmend
zu unkontrollierbaren Prozessen.
Mit konventionellen Methoden
kann ein Gesamtsystem nicht
mehr ausreichend verstanden
und gesteuert werden.
Bisherige Technologien sind nicht
in der Lage einen ausreichenden
Gesamt-überblick über große
Prozesslandschaften herzustellen.
Konventionelle Analysetechniken
sind begrenzt durch ihre lineare
Sicht-weise und ihre zu große
Detailsicht. Die wichtigsten
Verbesserungspotenziale werden
deshalb nicht frühzeitig
identifiziert.
3. Viele Infrastrukturen werden nahe an ihrer kritischen
Komplexität betrieben. Das Risiko für Verluste durch
Fehler oder Zusammenbrüche steigt daher dramatisch.
In Kooperation mit CINECA, dem Zentrum für
Supercomputer, bietet Ontonix einen radikalen,
innovativen Ansatz, um Probleme trotz
wachsender Komplexität zu analysieren und
Lösungswege aufzuzeigen.
Dabei messen wir die Komplexität, identifizieren
relevante Datenquellen und analysieren in
mehrstufigen Verfahren Systeme und
Subsysteme bis eine Lösung gefunden wird.
Wer Komplexität nicht messen kann,
wird sie auch nicht beherrschen.
Die Theorie zur Quantitativen Komplexität
wurde 2003 auf Basis unserer
patentierten Technologie zum Quantitative
Complexity Management (QCM)
entwickelt.
Durch QCM sind wir als erstes
Unternehmen in der Lage Komplexität zu
messen.
In „A New Theory of Risk and Rating“
(http://www.ontonix.com/Books.htm)
hat Dr. Jacek Marczyk erstmals eine
Theorie mit einem radikalen, innovativen
Ansatz beschrieben und illustriert wie
Komplexitätsmanagement zu einer
modernen Form des Risiko
Managements wird.
In weiteren Arbeiten werden Beispiele
zur praktischen Umsetzung aufgezeigt.
Das Angebot von Ontonix umfasst
Dienstleistungen und Software zur
• Analyse
• Monitoring
• Benchmarking
der Komplexität Ihres Systems in Bezug
auf Prozesse und installierte Techniken.
Als Ergebnis werden Risiken und
Verbesserungspotenziale aufgezeigt.
Die Umsetzung erfolgt schrittweise:
• Vorstudie, Problemanalyse
• Verifizieren und umsetzen der
Verbesserungspotenziale
Messen der verbesserten Prozesse und
Integration in die Steuerungs-systeme
des Unternehmens.
• Benchmarking von Prozessen
4. Copyright 2014 Ontonix Srl. No part of this document may be reproduced in any form without the written permission of Ontonix
ONTONIX S.r.l
Piazza Giuseppe Mazzini 2, 22100 Como, ITALY
www.ontonix.com