header_home_wuerfel_1920px.jpg

Big Data Analytics: Nachgefragt bei Gregor Zeiler

Um das Trendthema Big Data Analytics ranken sich viele Mythen und Missverständnisse. Die Bandbreite reicht dabei vom selbstlernenden, krebsheilenden Supercomputer bis hin zum jobfressenden, autonomen Maschinenpark. Aber was verbirgt sich wirklich hinter den komplexen Datenauswertungen? Wie gewinnt man aus einem Meer an unstrukturierten Informationen wertvolle Erkenntnisse und setzt sie gewinnbringend um? Wir haben nachgefragt: bei Gregor Zeiler, Senior Solutions Manager BI/Big Data bei Trivadis.

Herr Zeiler, an die Einführung von Big-Data-Tools im Unternehmen ist oft eine hohe Erwartungshaltung geknüpft. Aber wie schöpfen Unternehmen das Potential von Big-Data-Analysen denn wirklich erfolgreich aus?


Zeiler_Gregor_18x24_SW_bearbeitet-1.jpgGregor Zeiler:
„Selbst das beste Werkzeug hilft ohne einen erfahrenen Handwerker und ein Werkstück mit hoher Qualität nicht viel weiter. Dies trifft im übertragenen Sinn natürlich auch auf Big-Data-Tools zu. Das große Wunder geschieht auch nach Anschaffung einer neuen Big-Data-Software nicht ohne die erforderlichen Begleitmaßnahmen.

Das Wichtigste ist sicher, eine Vorstellung davon zu haben, an welchem Punkt man aus fachlicher Sicht mit den Analysen ansetzten möchte. Dies bildet dann die Grundlage, welche Datenquellen man anzapfen muss. Die Integration der erforderlichen Daten, die Herstellung der Datenqualität, der Umgang mit den Analyse-Tools und das fachliche und analytische/statistische Knowhow sind das Pflichtprogramm. Die Kür stellt dann das virtuose Spiel am Klavier der Analyse-Tools dar. Dort spielt die Musik!“

Die Analysen und die daraus resultierenden Ergebnisse stehen und fallen mit der Qualität der zugrundeliegenden Algorithmen. Aber wer erstellt diese Algorithmen? Sind Unternehmen in Zukunft auf so genannte Data Scientists angewiesen?

Gregor Zeiler: „Ich denke, man darf das nicht so schwarz/weiß sehen. Nicht jede Big-Data-Analyse basiert auf hochkomplexen Algorithmen. Viele Analysen in diesem Bereich sind zwar nicht ganz trivial, aber durchaus von gut geschulten Mitarbeitern aus den Fachbereichen durchführbar . Entscheidend dafür ist das verfügbare Skill-Setting, in diesem Fall hervorragendes fachliches Verständnis der Daten, aber auch tiefes technisches und mathematisches Know-How für die Definition und Justierung der Algorithmen. Wesentlich dabei ist der Mix aus Business- und technischen Fachkenntnissen. Die Personen können aus den Fachbereichen, dem BI Competence Center oder der IT kommen. Die personellen Möglichkeiten sind in jedem Anwenderunternehmen individuell zu bewerten.

Das Modellieren und Justieren – sprich das Einlernen – von komplexen Algorithmen ist meistens eine Angelegenheit von einer kleinen Gruppe von Spezialisten. Das bedeutet aber, dass große Teile der täglichen Analysearbeit von einer breiteren Gruppe – den sogenannten Citizen Data Scientists – bewältigt werden kann.“

160608_Big_Data_Team_01.jpg
Wie lassen sich die Erkenntnisse aus der Big-Data-Analyse denn konkret umsetzen? Könnten Sie ein Beispiel nennen?

Gregor Zeiler: „Gerne. Nehmen wir einmal an, wir möchten in wichtigen Teilen unserer Produktionsanlage eine vorrausschauende Instandhaltung betreiben, damit der aufwändige Maschinenpark nicht durch ungeplante Stillstandzeiten ineffizient wird. Der erste Schritt besteht nun darin, zu analysieren und zu lernen, aufgrund welcher Einflussfaktoren ein Maschinenteil ausfällt oder das Ende seiner Lebenszeit erreicht. Auf Basis dieser Erkenntnisse kann ein Modell eines Algorithmus entwickelt werden, das in der Lage ist, den optimalen Ersatzzeitpunkt des Teils zu prognostizieren. An Sample-Daten wird der Algorithmus eingelernt und validiert. Ist man mit der Prognosequalität zufrieden, kann der Algorithmus in den Prozess eingebunden werden und auf Basis der Echtdaten aus der Anlage die Handlungsempfehlung zu einem bevorstehenden Ersatzzeitpunkt abgeben.“

Sind die Befürchtungen von Mitarbeitern bei all der künstlichen Intelligenz und selbstlernenden Algorithmen bald überflüssig zu werden, berechtigt?

Gregor Zeiler: „Naja, irgendjemand muss doch die vielen intelligenten Maschinen nach Feierabend wieder ausschalten. Wer, wenn nicht der Mensch, könnte das tun? Spaß beiseite − das ist eigentlich eine sehr ernste Angelegenheit. Die Ängste, dass durch die zunehmende Digitalisierung von Prozessen die direkte menschliche Arbeitskraft weiter obsolet wird, sind sicher berechtigt. Mit jeder industriellen Revolution ist ein Stück dieser Arbeitskraft mechanisiert, automatisiert und damit ersetzt worden. Da trägt auch Industrie 4.0 ein weiteres Stück dazu bei.

Im Big Data Umfeld kommt aber noch ein Aspekt dazu. Viele dieser tiefgreifenden Analysen sind zuvor einfach aus Mangel an analytischen Möglichkeiten nicht erfolgt. D. h. es tut sich hier ein neues Tätigkeitsfeld auf, das es ermöglicht, neue Potentiale zu erschließen, die mit konventionellen analytischen Methoden verborgen geblieben wären. Auch Wachstum und damit eine Absicherung des Arbeitsplatzes kann damit bewirkt werden.“

Wo sind intelligente, selbstlernende Maschinen heute schon besser als wir Menschen?

Gregor Zeiler: „Bei all diesen Anwendungsfällen geht es darum, große Datenströme zur Laufzeit – also online – zu analysieren und daraus Erkenntnisse zu ziehen, die dann in einer resultierenden Handlung münden. Als einfaches Beispiel greife ich da gerne auf die mittlerweile in jedem KFZ verfügbaren Funktionen ABS und ESP zurück. Der Mensch merkt erst aufgrund des schon schleudernden Fahrzeugs, dass er sich in der Bremskraft verkalkuliert hat und hat alle Hände voll zu tun das KFZ kontrolliert gelenkt und gebremst zum Stillstand zu bringen. Die intelligente Maschine kann viel feinfühliger und rascher bereits ein blockierendes Rad erkennen, bevor das KFZ schleudert, oder ein bereits schleuderndes KFZ durch gezieltes Abbremsen einzelner Räder wieder in einen kontrollierten Zustand bringen.

New Call-to-action


Es geht also um die Fähigkeit, binnen sehr kurzer Zeit entsprechende Entscheidungen zu Handlungen aus einer großen Menge an Basisinformationen zu ziehen. In diesem Bereich sind uns intelligente Maschinen überlegen. Wer würde heute noch gerne auf ABS und ESP im eigenen KFZ verzichten wollen. Allerdings sollte der gesunde Menschenverstand nie ausgeschaltet oder ersetzt werden. Risiken und Gefahren können erheblich sein, wenn man Algorithmen blindlings vertraut. Algorithmen funktionieren in der Regel im gelernten und bekannten Parameter-Bereich sehr gut. Probleme entstehen, wenn neue unbekannte Abhängigkeiten oder extreme Wertebereiche ins Spiel kommen." 



Weitere Einblicke zum Thema Big Data Analytics erhalten Sie auch im Artikel "Big-Data-Tools alleine reichen nicht aus" auf IT-Zoom.de.

Bildquelle: Stocksnap.io

Topics: Nachgefragt Big Data