Datenarchitektur & KI

KI ist mittlerweile als Thema selbst in kleinere Unternehmen vorgedrungen. Dabei ist die Definition durchaus nicht so eindeutig wie die Diskussion vermuten läßt. Wo fängt KI an und wie hängt sie mit „einfacher“ Prozessautomation, neuronalen Netzen, Machine oder Deep Learning zusammen? Wo sind die Zusammenhänge zu anderen Schlagworten wie Big Data und (Advanced) Analytics? Auch ein Bezug auf ihre kurz-, mittel- und langfristige Anwendung und deren Auswirkung auf Geschäftsmodelle ist häufig noch sehr vage.

KI ist also ein sehr breites Feld mit sehr viel Dynamik, auf dem die meisten Unternehmen noch am Anfang stehen. Unstrittig ist, dass Daten die wesentliche Grundlage sind, um eine funktionierende KI bereitzustellen. Ebenso herrscht wohl bei dem Ziel Einigkeit, dass Menschen von Aufgaben entlastet werden sollen, indem diese durch Maschinen mit möglichst hoher Flexibilität automatisiert werden. Der Grad der benötigten Künstlichen Intelligenz steigt mit der Komplexität und Dynamik der Aufgaben, also der Anforderung an Flexibilität an die KI. Das Potenzial darin ist riesig.

 

ki

 

Wir unterstützen unsere Kunden beim Aufbau von KI-Fähigkeiten, indem wir helfen, die richtigen Grundlagen zu schaffen, die architektonischen Fundamente nachhaltig anzulegen, bedarfsgerechte Lösungen zu selektieren und zu implementieren und auf diesem Entwicklungsweg das jeweils bereits Mögliche schon nutzbar zu machen.

Die Anwendungsfälle für Künstliche Intelligenz sind mannigfaltig. Auf der einen Seite sieht man eine Veränderung des Kerngeschäfts, häufig mit dem Fokus der Effizienz- und Effektivitätssteigerung, wie beispielsweise die vollständige Abwicklung von Kundenprozessen und den Aufbau neuer Vertriebskanäle. Hier wird teilweise schon einfache Prozessautomation bis hin zur Robotic Process Automation (RPA) als Künstliche Intelligenz angesehen.

Auf der anderen Seite können ganz neue Märkte und Zielgruppen durch datenbasierte und/oder digitale Geschäftsmodelle erschlossen werden. Der Erfolg datenbasiert arbeitender Unternehmen wie Amazon, Google, Facebook oder auch Microsoft zeigt das hierin liegende Potenzial. Die Chance für viele Unternehmen besteht in ihren bereits vorhandenen Daten. Jahre der Geschäftstätigkeit mit zunehmender Digitalisierung haben für Unmengen an Daten gesorgt. Und der Datenstrom steigt immer mehr an. Hier liegt ein Schatz, der nur gehoben werden muss. 

Je nach Branche ist das Sammeln neuer und zusätzlicher Daten eine Leichtigkeit. Ganz vorne dabei sind hier Branchen wie Versorger oder Finanzdienstleister.

Allerdings gibt es grundlegende Probleme, die der Hebung des Schatzes im Weg stehen. Datenqualität ist das offensichtlichste. Die Daten liegen häufig in verschiedenen Datenbanken in unterschiedlichen Datenmodellen und sind nur sehr schlecht gepflegt. Das Bedeutet, ein Großteil der Datensätze ist unvollständig, mehrfach angelegt oder schlichtweg falsch. Eine solche Datenbasis führt natürlich nicht zu den gewünschten Ergebnissen, unabhängig von der Qualität der Künstlichen Intelligenz.

Ein weiteres Problem sind die Architektur und die Legacy Systeme mit proprietären Schnittstellen und Datenmodellen, zersplitterten Systemen und ungeeigneten Prozessen. Diese erschweren eine einfache Datenbereinigung und Datenanreicherung sowie die Anbindung neuer Technologien, die für die wirkliche Nutzung von Künstlicher Intelligenz unumgänglich sind.

Dazu kommt, dass der klare Anwendungsfall häufig nicht identifiziert und durchdacht wird. Dies führt zu einer Reihe eigenständiger Piloten, die in gekapselten Umgebungen nicht wirklich skaliert werden können. Der größte Mehrwert hier liegt in der Sammlung von Erfahrungen, selten in einem tatsächlichen Geschäftsnutzen.

Der Weg aus diesen Problemen hin zu einer nachhaltigen KI-Nutzung ist hinreichend komplex. Wir unterstützen unsere Kunden, die Grundlagen für KI zu schaffen, den Weg sicher und nachhaltig zu gehen und dabei den wirklichen Bedarf im Fokus zu behalten.

Künstliche Intelligenz als kontinuierlicher Weg

Künstliche Intelligenz als nachhaltiger und umfänglicher Treiber der künftigen Geschäftsentwicklung nimmt normalerweise einen Entwicklungsweg von der Neugestaltung der Datenstrategie und Datenstruktur über erste Prozessautomatisierungen bis hin zu echter Künstlicher Intelligenz auf Basis von neuro­nalen Netzwerken und entsprechender Technologie. Wir unterstützen unsere Kunden in allen Abschnitten dieser Reise, von der Planung über die Konzeption bis hin zur Umsetzung und den Betrieb. 

Die Insentis hat tiefgreifende Erfahrungen im Bereich Datenqualität, Datenmodellen, Datenbankstrukturen, Datengovernance sowie Datenmigrationen. Hierbei geht es nicht nur um die Daten aus den verschiedenen eigenen Quellen, sondern auch um die Einbindung externer Daten, wie beispielsweise von Lieferanten, Sozialen Netzwerken, Nachrichten, etc. 

Durch unsere starke Verzahnung von IT und betriebswirtschaftlichem Wissen helfen wir unseren Kunden relevante Anwendungsfälle abzuleiten und den tatsächlichen Datenbedarf zu analysieren und abzudecken. Diese Daten aktuell und sauber zu halten ist nicht nur eine Frage der Technologie, sondern auch der Prozesse in Form der Data Governance, die wir ebenfalls mit unseren Kunden definieren und implementieren.

Abhängig von den Anwendungsfällen sind die zu verwendenden Technologien. So stehen etwa unterschiedliche Datenbankentypen zur Verfügung, wie relationale oder nicht relationale Datenbanken oder solche die spezialisiert sind auf Bilder oder Dokumente. Gleiches gilt für die funktionalen Anwendungen, für die Auswertungen oder Automatisierungen. Hier unterstützen wir dabei, die richtige Auswahl zu treffen und verschiedene Elemente effektiv miteinander zu verzahnen.

Die zugrundeliegende Architektur muss zum einen unterstützen, die Daten wie benötigt zugänglich zu machen und die Datenqualität sicherzustellen, zum anderen muss sie offen genug sein, neue Technologien in diesem hoch dynamischen Bereich integrieren zu können. Wir helfen unseren Kunden, diesen Spagat zu meistern.

Dabei ist zu berücksichtigen, dass nicht alles auf einmal umgestellt werden muss. In den meisten Fällen bietet es sich aus verschiedenen Gründen an, nach Prioritäten gestaffelt vorzugehen und so schrittweise Optimierungen durchzuführen. Von Anfang an aber muss das Gesamtbild im Auge behalten werden, um keine Optionen zu verbauen. Entlang des Weges kann man durch eine kontinuierliche analytische Prozessbegleitung bereits erste Mehrwerte generieren. Mit zunehmender Datenqualität und -menge, mit neu eingesetzten Technologien und stärker integrierter Architektur erhöhen sich diese Mehrwerte zunehmend – auch, weil die technologische Entwicklung aktuell kein Ende erkennen lässt.

scroll to top
bdu Logo
Bitkom Logo
IT Security Logo