Digitalisierung und Innovation/ 03.02.2022 / Patrick Arnold

Neue Geschäftsmodelle durch KI-Datenanalysen in der Cloud

Bisher wurde die digitale Transformation vor allem als Weg wahrgenommen, analoge Prozesse durch Technologieeinsatz schneller und effizienter zu machen. Doch heute kommt es immer mehr darauf an, Daten und Software als Treiber neuer Geschäftsmodelle zu erkennen. Die Strategie dahinter ist, die aktuellen Bedürfnissen der Kunden frühzeitig zu verstehen sowie dazu passende Angebote und Prozessketten zu entwickeln.

Die IT-Infrastruktur muss dabei in der Lage sein, große Mengen an Daten zu erheben, zu aggregieren und zu analysieren. Traditionelle monolithische Architekturen stoßen hierbei schnell an ihre Grenzen; bei ihnen ist es mit einem erheblichen Mehraufwand verbunden, die Schnittstellen zu unterschiedlichen Datenquellen herzustellen und die Daten zu integrieren.

Im Folgenden erfahren Sie mehr darüber, welche Weichenstellungen in der IT-Architektur notwendig sind – und wie Sie KI und Big Data nutzen können, um wettbewerbsfähige Geschäftsmodelle zu entwickeln.  

Eine innovative Datenplattform muss vielfältige Anforderungen erfüllen

Eine besondere Herausforderung, mit der eine moderne IT-Architektur zurechtkommen muss, ist das rapide Datenwachstum. Daher hat die Skalierungsfähigkeit der Architektur höchste Priorität. Sie muss in der Lage sein, mit dem Datenstrom täglich mitzuwachsen. Dabei geht es einerseits um die Verfügbarkeit von Hardware-Ressourcen wie Speicher und Rechenleistung; andererseits um die Integration laufend neuer Datenquellen durch ein ausgefeiltes Schnittstellenmanagement.

Darüber hinaus ist die parallele Verarbeitung von strukturierten, semi-strukturierten sowie auch unstrukturierten Daten ein Muss. Tendenziell nimmt der Umfang der unstrukturierten Daten zu – vor allem getrieben durch Multimedia-Inhalte. Eine moderne Architektur muss geeignet sein, die verschiedenen Datentypen für die weitere Analyse aufzubereiten. Die Zunahme kontinuierlicher Datenströme bedeutet nicht zuletzt auch, dass eine Umstellung von Batchverarbeitung auf Streamverarbeitung erfolgen muss.

Data Meshs beliefern das Enterprise Data Warehouse (EDW) in der Cloud

Um der steigenden Komplexität beim Umgang mit Daten gerecht zu werden, wählen Unternehmen heute einen Data-Mesh-Ansatz. Dabei handelt es sich um ein Organisationsprinzip, welches die Datenverarbeitung nach ähnlichen Prinzipien wie Agilität oder DevOps ordnet.

Früher wurden Daten von den Verantwortlichen der Datenquellen noch undifferenziert in einen Data Lake hineingeleitet. Dieser war das Sammelbecken, aus dem sich die Datenexperten je nach Bedarf bedienen. Allerdings werden Data Lakes mit der Zeit immer größer, komplexer und am Ende sogar unbeherrschbar.

Im Data Mesh wird daher zwischen Datenproduzenten und -anwendern unterschieden; dedizierte Data Product Owner sind dann dafür verantwortlich, beide Seiten zusammenzubringen. Während die Datenquellen vielfältig und verstreut sind, sind das Know-how und die personellen Ressourcen in den meisten Unternehmen hingegen knapp und zentralisiert. Dieser Ausgangslage trägt das Enterprise Data Warehouse (EDW) Rechnung.

Alle Daten, welche das Data Mesh generiert, laufen in dieser zentralen Instanz ein. Dort werden sie gespeichert, gefiltert und vereinheitlicht, um für die Analyse durch KI- bzw. ML-Algorithmen bereitzustehen. Der Zufluss an Daten ist auf den konkreten Einsatzzweck vorstrukturiert. Um im Bild zu bleiben: Früher mussten sich die Datenanalysten aus dem Data Lake noch die passenden Daten mühsam „herausfischen“; im Data Warehouse finden sie die relevanten Daten für ihre Anwendung bereits abnahmefähig vor.

Ähnlich wie bei einem Microservice sind die Daten auf eine bestimmte Domäne runtergebrochen und die Daten liegen wie bei einem entsprechenden Produkt in der Verantwortung eines Teams, das sich um die Domäne kümmert. Die Daten sind nach einem Self-Service Prinzip für jeden Verfügbar und können in eine Datenbank oder ein Reportingsystem von dritten übernommen werden. Dabei wird die Data Governance liegt dabei weiterhin im für die Datendomäne zuständigen Team, das die Entsprechenden Zugriffsmöglichkeiten auf die Daten steuert.

Unternehmen müssen die Weichen neu stellen und eine „Datenkultur“ entwickeln

Wie gelingt es Firmen mit traditionellen IT-Architekturen nun, sich auf die neue datengetriebene Welt einzustellen? Üblicherweise folgt eine Initiative zur Modernisierung den folgenden fünf Schritten:

  1. Migration des bereits bestehenden Data Lake bzw. Data Warehouse in die Cloud;
  2. Aufbrechen der Silostruktur sowie Verfügbarmachen der Analysefunktionen und Aufbau einer Datenkultur im gesamten Unternehmen;
  3. Einführung Kontext-bezogener Entscheidungsfindung in Echtzeit;
  4. „Leap-Frogging“ (also sprunghafte Weiterentwicklung) hin zu einer Ende-zu-Ende-umfassenden KI-Lösung;
  5. Entfesseln datengetriebener Innovationen durch Bereitstellung einer geeigneten KI-Lösung.

CIOs nehmen eine Schlüsselrolle dabei ein, das datengetriebene Unternehmen Wirklichkeit werden zu lassen. Die digitale Transformation ist eine komplexe Aufgabe, die für sie zu den bisherigen dazukommt – aber gleichzeitig nicht delegiert werden kann. Um dabei zu gewinnen, braucht es neben einer weitsichtigen Strategie und der neuesten Technologie das richtige Team aus engagierten Menschen.   

Einblicke

Shaping the future with our clients