Nisa Eski

Nisa Eski

data_analyst
Nisa Eski
Wirtschaftsinformatik
Hochschule Albstadt-Sigmaringen

Hallo zusammen, während meiner Tätigkeit im Werk39 war ich mit der Erstellung meiner Bachelorthesis beschäftigt, die nicht zu den eigentlichen Projekten im Werk39 zählte. Trotzdem war ich sehr gespannt drauf, einen Einblick in ein Innovation Lab, wie das Werk39 zu erhalten.


Aufgrund der Corona Pandemie befand ich mich jedoch bereits nach einem Monat im Homeoffice und musste meine Thesis daher von zuhause weiterschreiben. Dennoch ermöglichten Anwendungen, wie Microsoft-Teams einen effektiven Austausch innerhalb des Bereichs. Somit konnte ich trotz Homeoffice einen tiefen Einblick in die einzelnen Projekte und in die allgemeine Arbeitsweise im Werk39 gewinnen.

bachelor_thesis

Meine Arbeit thematisierte, die „Konzeption und prototypische Umsetzung einer Methodik, für das Stammdatenmanagement im Kontext des E-Business der Aesculap AG“. Hierbei lag der Schwerpunkt auf der Identifikation möglicher Stammdatenfehler, die der allgemeinen Datenqualität schaden und somit das Risiko für weitere Probleme erhöhen. Um eine solche Fehleranalyse durchzuführen, habe ich zwei unterschiedliche Umsetzungsmöglichkeiten, wie einen Algorithmus und eine Machine Learning Lösung entwickelt und getestet. Somit lernte ich in den sechs Monaten verschiedene Techniken und Methoden für die unterschiedlichsten Datenverarbeitungs- und Datenanalyseprozesse kennen.

such_algorithmus

Der erste Teil meiner Bachelorarbeit fokussierte sich auf die Entwicklung eines Algorithmus, der mit der Programmiersprache Python generiert wurde.
Python war mir bereits aus dem Studium bekannt. Allerdingst ermöglichte mir der Aufenthalt im Werk39, meine bisherigen Kenntnisse um einiges zu erweitern. Ich erlernte relativ neue Python Bibliotheken, wie z. B. die FuzzyWuzzy Funktion, die es ermöglicht Abweichungen zwischen Zeichenketten zu erkennen. Somit lernte ich in kurzer Zeit neue Funktionen kennen, mit denen unterschiedliche Datenanalysen durchgeführt werden können. Letztendlich entwickelte ich einen Suchalgorithmus, der es ermöglicht Fehler in den Stammdaten zu identifizieren.

machine_learning

Im zweiten Teil der Arbeit habe ich versucht eine alternative Möglichkeit anhand von Machine Learning zu entwickeln, der die Stammdatenfehler ebenfalls aufdecken soll.
Da mir die Anwendung von Machine Learning zu Beginn meines Projekts unbekannt war, habe ich zunächst eine intensive Analyse über mögliche Lösungsansätze durchgeführt. Somit war ich in kurzer Zeit in der Lage, unterschiedliche Methoden des Machine Learnings, wie z. B. Fast-Text und K-Mean-Clustering zu testen und voneinander abzuwägen.
Jedoch kamen wir zur Erkenntnis, dass Machine Learning keine zielführende Lösung für eine Fehleranalyse in den Stammdaten der Aesculap AG ist.

power_automate

Abschließend wurde die Entwicklung eines prototypischen Workflows geplant, der mögliche Stammdatenfehler mit Hilfe der entwickelten Methodik identifiziert und anschließend eine Verantwortliche Rolle für eine Verbesserung der Daten informiert. Der Workflow soll letztendlich eine Möglichkeit darstellen, mit der die Datenqualität der Aesculap AG verbessert werden kann.
Hierfür erzeugte ich zunächst eine API, mit der der Suchalgorithmus angewendet wird. Mit Hilfe der erstellten API und der Power Automate Anwendung von Microsoft wurde der prototypische Workflow letztendlich erzeugt. Nun kann er zukünftig im Stammdatenmanagement für die Optimierung der Datenqualität betrachtet und weiterentwickelt werden.

fazit

Die Zeit im Werk39 ermöglichte mir im Allgemeinen, mein Wissen aus unterschiedlichen Bereichen weiterzuentwickeln. Außerdem war es sehr interessant für mich, neue Technologien, wie Machine Learning Methoden kennenzulernen.
Schließlich freute es mich sehr, meine fertige Bachelorarbeit der gesamten Aesculap AG bereitzustellen.

Ivan Neufert

Ivan Neufert

data_analyst
Ivan Neufert
Wirtschaftsinformatik
HTWG Konstanz

build_measure_learn 

Hi, in der ersten Zeit habe ich im werk_39 sehr schnell die Lean-Start-Up Methode kennenlernen dürfen und habe diese Methode auch in so gut wie jeder mir übertragenen Aufgabe genutzt. Mir standen bei Fragen jederzeit die Venture – Consultants und Specialists zur Seite und haben mir in Workshops gezeigt worauf es bei ihren Tätigkeiten ankommt, sowie das Mindset @werk_39 gelehrt.  Es war am Anfang ungewohnt so viele „Freiheiten“ im Praktikum zu haben, aber im späteren Verlauf merkte ich, dass genau diese notwendig sind, um neue Innovationen zu schaffen.  

time_tracking_@werk_39

Um eine bequeme Möglichkeit zu bieten seine Arbeitszeiten sowie Dienstreisezeiten zu erfassen, beschäftigte ich mich damit eine Anwendung zu schaffen welches dies für die Mitarbeiter des werk_39 ermöglichen sollte.

Mit Microsoft- Flow und der App IFTTT konnte ich eine Synergie schaffen, die die Arbeitszeiten via GPS Tracking (durch eintreten und austreten eines bestimmten Bereichs) aufzeichnete und die Daten automatisch am Monatsende in die vorgegebene Excel-Tabelle übertragen hat. 
Durch wöchentliche Sprints mit unserem UX-Designer, verbesserte sich durch jedes Feedback die Anwendung immer mehr und wurde von Mal zu Mal benutzerfreundlicher für den User.

web_scraping

Copy and Paste war gestern! Durch web scraping kann man im großen Stil öffentlich, frei zur Verfügung  stehende Daten, durch gezieltes Extrahieren, Informationen gewinnen.

Man kann mit Python ein Script schreiben, welches automatisiert auf einer Webseite die Daten sucht und herausfiltert, die von Interesse sind. Es gibt aber auch fertige Anwendungen, die einem ein Einfaches „scrapen“ ermöglichen. 
Ziel war es bei der Aufgabe eine Datenbank mit möglichst viele, unterschiedlichen Produkten zu füllen, um vergleiche zu anderen Anbieter zu schaffen.

neue_werk39.com_webseite

Da die alte werk39.com Webseite zu einem anderen Webhoster umgezogen werden sollte, war es die Aufgabe den Inhalt der alten Seite zu übertragen und ein neues Design zu schaffen.

Über was ich mir persönlich nie Gedanken gemacht habe, wenn ich eine Seite im Internet besucht habe, waren die Ladezeiten. Es ist sehr wichtig, dass Medien, die dargestellt werden, so klein wie möglich gehalten werden. Denn je schlechter die Performance einer Webseite ist, desto weiter unten steht man im Ranking von den Suchmaschinen.  
Es spielen darüber hinaus noch sehr viele andere Faktoren mit ein, wie man eine zukunftssichere Webseite aufbaut und es hat mich sehr motiviert die Webseite nicht nur im Frontend sondern auch im Backend zu bearbeiten und den Datenverkehr mit Google Analytics zu beobachten. 

fazit

werk_39 bietet dir nicht nur ein Praktikum für deine spezielle Tätigkeit an, in der du dich dann nur dort bewegst. Sondern es bietet dir in jedem Bereich / Projekt die Möglichkeit mitzuwirken und mitzugestalten an.
Hier wird einem die Chance geboten auch mal „outside the box“ zu denken. 

Duc Huy Phan

Duc Huy Phan

data_analyst
Duc Huy Phan
Wirtschaftsinformatik
HFU Furtwangen

daten_modellieren

Hallo Freunde, einer meiner Tätigkeiten im werk_39 war es für verschiedenen Unternehmensbereiche ein Dashboard zu erstellen. Sprich Daten auf Cloud Basis zu modellieren, analysieren und mit Hilfe von einem BI Tool zu visualisieren. Für mich war die große Menge an Daten am Anfang ein kleiner Schock, doch mit der Zeit kam immer mehr Übersicht in den Datensalat, eine Entity-Map entstand und die Verwendung von verschiedenen Tools war selbsterklärend. Durch die verschiedenen Workshops an denen ich teilnehmen durfte, habe ich gelernt worauf es auf eine Datenanalyse ankommt und wie sie besser durchführt.

datenqualität_optimieren

Für eine bessere Datenqualität im Unternehmen, habe ich ein Manifest erstellt bezüglich der Datenhaltung. Häufig wird die Datenqualität aus verschiedenen Gründen ungewollt vernachlässigt, wodurch eine Grundlage für eine weitere Auswertung fehlt. Als ich die Aufgabe am Anfang bekommen habe, habe ich sofort über das Thema recherchiert und einen mehrseitigen Bericht geschrieben, wie man die Datenqualität verbessern kann. Dieser Bericht war aber sehr trocken und zäh, doch durch einen Sketchnote Workshop, habe ich das Ganze überarbeitet und ein großes Sketchnote erstellt.

excelformeln_makros_und_sql

Eine weitere Aufgabe von mir war es, das Bestellverhalten von Krankenhäusern zu analysieren. Zu Beginn habe ich das Ganze in Excel ausgewertet und ich habe dabei gelernt, dass man mit EXCEL nicht nur rechnen kann. Ich habe viele Excel-Tricks zu Formeln und Makros erhalten und Schritt für Schritt hat man mir gezeigt, wie man mit so vielen Daten aus verschiedenen Datentöpfen, eine übersichtliche und detaillierte Auswertung erstellt. Meine Auswertung durfte ich am Ende mit den Live Daten in SQL überführen, was letztendlich für unsere Außendienstmitarbeiter als Grundlage dient.

w39_website

Da unsere Homepage sehr wartungsintensiv, kostspielig und auf einer alten Technologie basierte, war eins meiner Projekt, mir Gedanken über eine neue werk_39 Homepage zu machen. Dafür habe ich zu Beginn des Projektes die einzelnen User Stories für unsere neuen Homepage erarbeitet, mit verschiedenen Mitarbeitern über das Look and Feel der neuen Homepage diskutiert und mich bezüglichen den technischen Anforderungen informiert. Zudem habe ich an einer Schulung teilgenommen, wodurch nichts mehr im Weg stand, eine neue Homepage für das werk_39 zu erstellen.