piwik-script

Deutsch Intern
    Lehrstuhl für BWL und Wirtschaftsinformatik - Prof. Dr. A. Winkelmann

    Wissenschaftliche Arbeiten

    Wissenschatliche Arbeiten am Lehrstuhl für BWL und Wirtschaftsinformatik

    • Die Vergabe von Bachelor-, Master- und Seminararbeiten erfolgt für jedes Semester über ein zentrales Vergabeverfahren.
    • Alle weiteren Informationen entnehmen Sie bitte der entsprechenden Meldung der Fakultät sowie den dort aufgeführten weiterführenden Links und Dokumenten.
    • Beachten Sie in diesem Zusammenhang bitte auch die dort aufgeführten Fristen. Bei Rückfragen zum zentralen Vergabeverfahren steht das Studiendekanat gerne zur Verfügung.
    • Für Fragen bezüglich Voraussetzungen für die Anfertigung einer Abschlussarbeit (z. B. Mindestanzahl an ECTS Punkten) kontaktieren Sie bitte das Prüfungsamt oder das Studiendekanat.

    • Bitte kontaktieren Sie den zuständigen Betreuer Ihres Wunschthemas bezüglich eines ersten Besprechungstermins.
    • Sollten Sie eigene Ideen für eine Abschlussarbeit haben, bspw. aus einer Praxistätigkeit bei einem Unternehmen heraus, sprechen Sie uns an! Praxisthesen können jedoch nur in begrenzter Zahl betreut werden.

    Hinweis: Aufgrund der Masse der Arbeiten kann bei Praxisthemen in Unternehmen keine Geheimhaltungsvereinbarung und kein Sperrvermerk in die Arbeiten eingefügt werden. Falls Sie eine Praxisarbeit in einem Unternehmen planen, klären Sie dies bitte mit dem Lehrstuhl vor der Suche nach einem Betreuer ab!

    • Bevor Sie Ihre Abschlussarbeit offiziell anmelden können, müssen Sie Inhalte und Zielsetzungen mit Ihrem Betreuer abgesprochen haben (siehe 2) Themenfindung und Abstimmung). 
    • Den offziellen Antrag auf Zuteilung einer Bachelorarbeit finden Sie hier. 
    • Den offziellen Antrag auf Zuteilung einer Masterarbeit finden Sie hier. 
    • Bitte beachten Sie unbedingt unsere Zulassungsvoraussetzungen und Hinweise zu den Anmeldeformalitäten:

    Voraussetzungen zur Thesiszulassung:

    Bachelor Master

    100 ECTS in allen Bereichen

    Bestandenenes Wirtschaftsinformatik-Seminar oder vergleichbare Leistung (Anfertigung einer wissenschaftlichen Arbeit und Präsentation der Ergebnisse)

    Bestandenenes Seminar Wissenschaftliches Arbeiten

    60 ECTS in allen Bereichen. (Beachten Sie bitte ausdrücklich die individuellen Vorgaben in der für Sie gültigen Prüfungsordnung)

     Bitte Verwenden Sie zum Anfertigen Ihrer Abschlussarbeit die Dokumentenvorlage für Seminar- und Abschlussarbeiten unseres Lehrstuhls­.­

      

     

    Exposé (doc) (Stand 29.01.2020)

    Dokumentenvorlage für wissenschftliche Arbeiten (doc) (Stand 31.07.2019)

    Dokumentenvorlage für wissenschaftliche Arbeiten (Latex) (Stand 25.02.2020)

    Präsentationsvorlage (ppt) (Stand 14.11.2019)
     

     

     Der Umfang der Abschlussarbeiten beträgt

      

    •  40 Seiten für Bachelorarbeiten und

    •  60 Seiten für Masterarbeiten.

    •  Jeweils exkl. Titelseite, Abstract, Verzeichnissen und Anhang.

     Die Bearbeitungszeit für Abschlussarbeiten beträgt

      

    •  8 Wochen ab Zuteilungsdatum für Bachelorarbeiten und

    •  6 Monate ab Zuteilungsdatum für Masterarbeiten.

    Außerdem empfehlen wir Ihnen die Verwendung einer Literaturverwaltung, bspw. Citavi  hier

    Hilfreiche Links zum Erstellen wissenschaftlicher Arbeiten

     

    • Umfangreicher Literaturbestand der UB Würzburg hier

    • KOMPASS-Kurs: „Systematisches wissenschaftliches Arbeiten (Wirtschaftsinformatiker)“ hier

    • Kurse zum Erstellen wissenschaftlicher Arbeiten hier

    • Angebote des Schreibzentrums hier

     

    Hilfreiche Links zur Recherche

     

     

    • Informationsangebot der Universität hier

    • Einführung in die Datenbankrecherche hier

    • Literaturverwaltung hier

    • Google Scholar hier

     

     

    • Sie müssen drei  (Bachelor: zwei) schriftliche, gebundene Ausfertigungen fristgerecht im Prüfungsamt abgeben.
    • Eine Schriftliche Versicherung / Eidesstaatliche Erklärung ist in der Dokumentenvorlage integriert und muss unterschrieben werden.
    • Weiterhin ist eine elektronische Fassung der Arbeit (z. B. CD/ USB-Stick) in zweifacher (Bachelor: einfach) Ausführung mit der schriftlichen Ausfertigung abzugeben (.pdf, .doc, .docx o. ä.).

    Aktuelle Themenvorschläge

    Bachelor

    In Deutschland wächst der Internethandel kontinuierlich weiter und lässt sich auch durch die weltumspannende Covid-19-Pandemie nicht aufhalten. Immer mehr Menschen bestellen online Produkte und lassen sich diese nach Hause liefern. Unabhängig von der aktuellen Situation wachsen der Umsatz und das Sendungsvolumen im deutschen E-Commerce schon seit Jahren stark an und dementsprechend auch die Retourenquote.

    Betreuer: Kevin Fuchs

    Process Mining in der Logistik und Produktion

     

    Eigene Themenvorschläge können eingebracht werden.

    Eine Kooperation oder Zusammenarbeit mit Unternehmen ist möglich.

    Als Unterstützung können kostenlose Online-Schulungen für Studenten/Forscher in Anspruch genommen werden.

    https://www.celonis.com/de/academic-alliance/

    https://www.coursera.org/learn/process-mining

    Betreuer: Norman Pytel

    Die Produktion wird immer dezentraler und dabei nehmen Kooperationen zwischen Unternehmen eine entscheidende Rolle ein. Bei Über-/ oder Unterauslastung von im Unternehmen angesiedelten Produktionsanlagen und -Maschinen stellt das Kapazitätssharing eine Möglichkeit dar, die eigenen Ressourcen optimal zu nutzen und Schwankungen auszugleichen. In den letzten Jahren haben sich immer mehr Plattformen am Markt etabliert, die einen entsprechenden Service zum Kapazitätsausgleich bereitstellen. Ziel der Arbeit ist es, durch eine strukturierte Literaturrecherche die Möglichkeiten sowie die Restriktionen solcher Plattformmodelle für das Kapazitätssharing herauszuarbeiten.

    Betreuer: Nicolas Neis

    Ziel der Arbeit ist die Evaluation eines bestehenden Kommissionier-Prozesses sowie der im ERP-System damit verbundenen Daten. Aufbauend auf den bestehenden Prozess sollen anhand aktueller Literatur und Forschungsergebnisse mögliche Verbesserungspotentiale aufgezeigt werden.

    Bei Fragen könnt ihr euch jederzeit melden.

    Betreuer: Franz Seubert

    Aktuelle Data Science Anwendungen (KI, Machine Learning, Data Mining) werden meist getrennt von den operativen Systemen entwickelt und betrieben, aus denen die analysierten Daten eigentlich stammen und in denen diese generiert werden. Um die Daten zwischen den Systemen zu transferieren werden hauptsächlich drei Mechanismen herrangezogen ETL, Data Pipeplines und Stream Processing. Die hier fokussierte Arbeit, hat das Ziel den aktuell Forschungsstand und Insdustriestandard zur extraction, also dem austausch von Daten, zwischen Enterprise Software Systemen und KI-Anwendungsplattformen zu analysieren und zu konzeptionalisieren.

    Betreuer: Fabian Gwinner

     

    Themenfelder: Governance, Compliance, Smart Contracts, Colored Coins im Kontext von Produktion und Logistik.

    Die Rückverfolgung von Produkten durch zunehmend verteilte und komplexe Lieferketten ist eine große Herausforderung. Die Blockchain-Technologie soll viele Probleme lösen, da sie verspricht, Zeit zu sparen, Kosten zu vermeiden, Risiken zu reduzieren und das Vertrauen zwischen den Teilnehmern zu erhöhen. Sie führt zu vielen Ansätzen, die eine Nachverfolgung von Waren in Lieferketten ermöglichen. Wir haben festgestellt, dass die vorgeschlagenen Lösungen teilweise redundant zu Rückverfolgungs-Funktionalitäten in ERP Systemen sind. Kern der Arbeit ist es einen Vergleich zwischen verschiedenen ERP Systemen und Blockchainlösungen herzustellen, um jeweilige Vor- und Nachteile zu ermitteln.

    Info: Der Betreuer unterstützt Sie bei der Herstellung von Kontakten zu ERP Herstellern.

    Betreuer: Norman Pytel

    Informationssysteme wie ERP-Systeme verwenden auf unterster Schicht stets Datenbanken zu Speicherung der Betrieblichen Informationen. Verschiedene Hersteller nutzen Dabei ganz unterschiedliche Technoligien und Modelle. Die Vorliegende Arbeit soll Datenbanken unterschiedlicher Systeme komparativ analysieren. Dazu muss sich der Studierende sowohl in den Systemen Bewegen als auch einen technischen einblick erlangen und öffentliche Informationen Nutzen. Ziel ist es, Vergleiche komplexer Datenmodelle zu ermöglichen.

    Vor Kontaktaufnahme bitte zu folgenden Themen informieren: ER-Modelle, Datenbanktypen, SQL / Abfragesprachen

    Nähere Informationen gerne nach Absprache.

    Betreuer: Fabian Gwinner

    Informationssysteme wie ERP-Systeme nutzen innherent verschiedene Programme, um den Prozess eines Unternehmens abzubilden. Die Systeme sind dabei nur Teilweise Process Aware. In der angestrebten Arbeit sollen Prozesse anhand selbt geschaffener Beispiele durchgespielt und komparativ zwischen Systemen analysiert werden. Dazu muss man sich sowohl technisch in den Systemen Bewegen als auch öffentliche Informationen Nutzen. Ziel ist es Evidenz und Datengetrieben auf ein generisches Prozessmodell hinzuarbeiten.

    Vor Kontaktaufnahme bitte zu folgenden Themen informieren: Datenbanktypen, SQL / Abfragesprachen, BPMN, Semantik und Syntax im BPMN.

    Nähere Informationen gerne nach Absprache.

    Betreuer: Fabian Gwinner

    Ziel der Arbeit ist, die Erfassung der Auswirkungen von COVID-19 auf die Digitalisierungsbestreben von KMU.
    Es soll aufgezeigt werden, ob und welche Wirkung COVID-19 auf die Digitalisierungsbestreben in KMU hatte.
    Dies kann zum einen anhand einer qualitativen Umfrage mit KMU angegangen werden zum anderen mit bestehender Forschung aufgearbeitet werden.

    Betreuer: Christoph Tomitza

    Task Mining zur Optimierung von Business Applications

    Task Mining beschreibt, WIE eine Person ihre Aufgaben erledigt. Dabei geht es um das Aufzeichnen und Auswerten von Interaktions- und Bildschirmdaten, während die Aufgaben in einer Business Application erledigt werden. Es soll im Rahmen der Arbeit herausgearbeitet werden, welche Möglichkeiten Task Mining bietet und an welchen Punkten es sich von herkömmlichen Process Mining unterscheidet. Zudem soll aufgezeigt werden, wie Business Applications dadurch weiter optimiert werden können.

     

    Eigene Themenvorschläge können eingebracht werden.

     

    Betreuer: Christian Zeiß

    Automated Frontend-Testing

    Getrieben durch die stetige Weiterentwicklung des Webprogrammings und neuen Strömungen und Trends im Bereich Usability & HCI verändern sich ebenso die Anforderungen an Websiten. Es gilt herauszuarbeiten, welche Möglichkeiten des Usability-Testings unter Berücksichtigung neuester Technologien, wie zb. Automatisierung oder künstliche Intelligenz, es gibt und auf welche Art und Weise sich diese Systeme/Technologien einsetzen lassen. Ein Vergleich der verschiedenen Vorgehen und/oder Implementierung eines Use-Cases rundet die Arbeit ab.

    Gefordert wird die Aufarbeitung verschiedener existierender Möglichkeiten und ein abschließender Vergleich.

    (eigene Implementierung möglich, kein Muss)

     

    Eigene Themenvorschläge können eingebracht werden.

     

    Betreuer: Christian Zeiß

    Webprogramming: Möglichkeiten der Architektur im Zeitalter von Smartphones

    Die gesonderte Darstellung von Websiten für mobile Endgeräte ist nicht die einzige Veränderung des Webprogrammings im Zeitalter des Smartphones. Neue Möglichkeiten der Architektur(Frontend, Backend) wurden bereits erschlossen und sollen im Rahmen dieser Thesis erläutert werden. Anhand eines Use-Cases gilt es abschließend die neuen Möglichkeiten der Architektur von Websiten (konzeptionell/praktisch) darzustellen.

     

    Eigene Themenvorschläge können eingebracht werden.

     

    Betreuer: Christian Zeiß

    Master

    Die Blockchain Technologie steht zunehmend im Interesse zahlreicher Forscher und Praktiker aus dem Finanz-, Logistik und Produktionsumfeld, um neue Integrationsmöglichkeiten entlang komplexer Lieferketten für mehr Transparenz zu schaffen[1]. Dabei gibt es zahlreiche Perspektiven und komplexe Herausforderungen, die bei großen, mittleren und kleinen Unternehmen zu Implementierungsproblemen führen [2]. Die Forschung befindet sich auf diesem Gebiet in ihren Anfängen, wie verschiedene technische (Token-/Smart Contract) Standards zur Rückverfolgung von Produkten mit klassischen Informationssystemen wie Enterprise Resource Planning (ERP), Manufacturing Excecution (MES) Systems oder Warehouse Management Systems (WMS) genutzt werden können [3][4]. Im Kern der Thesis sollen zwei Fertigungsprozesse mit Chargen- und Seriennummern anhand unterschiedlicher ERC-Standards / Tokens (Bspw. ERC721, ERC1155 oder UTXO) abgebildet und gegenübergestellt werden. Als Ergebnis erarbeiten Sie verschiedene Vor- und Nachteile dieser Anwendungsmöglichkeiten, um Industrieunternehmen und zukünftigen Forschern eine erste Entscheidungshilfe zur Implementierung verschiedener Ansätze geben könnte.

    Voraussetzungen: Grundlegende Programmierkenntnisse in Javascript sind zwingend notwendig. Erweiterte Kenntnisse in Informationssystemen wie ERP, MES, WMS oder Produktionsprozessen werden nicht benötigt, da die Arbeit in enger Zusammenarbeit mit den Betreuern stattfindet. Notwendige Daten werden durch die Betreuer zur Verfügung gestellt.

    [1] Sunyaev, Ali, et al. "Token economy." Business & Information Systems Engineering (2021): 1-22.

    [2] Wang, Yingli, Jeong Hugh Han, and Paul Beynon-Davies. "Understanding blockchain technology for future supply chains: a systematic literature review and research agenda." Supply Chain Management: An International Journal (2019).

    [3] Pytel, Norman, Adrian Hofmann, and Axel Winkelmann. "Tracing Back the Value Stream with Colored Coins." (2020).

    [4] Westerkamp, Martin, Friedhelm Victor, and Axel Küpper. "Tracing manufacturing processes using blockchain-based token compositions." Digital Communications and Networks 6.2 (2020): 167-176.

    Betreuer: Norman Pytel, Christian Zeiß

    Informationssysteme wie ERP-Systeme nutzen auf unterster Schicht stets Datenbanken zu Speicherung der betrieblichen Informationen. Verschiedene Softwarehersteller nutzen dabei ganz unterschiedliche Technologien und Modelle. Da Informationen aus unterschiedlichen Systemen für gewissen weitere Anwendungen, Reporting und Prognosezwecke zusammengeführt werden müssen, arbeitet man in der Praxis zunehmend mit Datalakes und Object- ubzw. Online-Storages (z.B. Amazon S3).

    Die vorliegende Arbeit hat das Ziel eine ETL-Software und einen Datalake aufzusetzen, um Daten aus ERP-Systemen unseres ERP-Labors zu extrahieren und für Analyse Zwecke zentral bereitzustellen. Übergeordnete Vision unseres Vorhabens ist es eine Plattform aufzubauen, auf der Studierende abseits der ERP, CRM und PIM Systeme im Labor, den Umgang mit Daten aus analytischer Sicht lernen können. Die Arbeit legt dazu erste Grundsteine.

    Vor Kontaktaufnahme bitte zu folgenden Themen informieren: ER-Modelle, Datenbanken und Datenbanktypen, SQL / Abfragesprachen, ETL, Datalake.

    Vorkenntnisse wären sinnvoll in: Container, Kubernetes, Basic Linux Commands, SQL

    Nähere Informationen gerne bei Kontakt.
    Betreuer: Fabian Gwinner
     

    Informationssysteme wie ERP-Systeme nutzen auf unterster Schicht stets Datenbanken zu Speicherung der Betrieblichen Informationen. Verschiedene Hersteller nutzen dabei ganz unterschiedliche Technoligien und Modelle. Die Vorliegende Arbeit soll Datenmodelle unterschiedlicher Systeme komparativ mittels datengetriebener Methoden analysieren. Hierzu sollen Datengetrieben Methoden zum Modellvergleich recherachiert und analysiert werden sowie Modelle mittels eines ausgewählten verfahrens verglichen werden.

     

    Vor Kontaktaufnahme bitte zu folgenden Themen informieren: ER-Modelle, Datenbanktypen, SQL / Abfragesprachen, Semantik & Syntax der Datenmodellierung
    Nähere Informationen gerne nach Absprache.


    Betreuer: Fabian Gwinner

     

    Verfahren aus den Neurowissenschaften machen es möglich bspw. Gehirnfunktionen und Bereiche des Gehirns zu kokrete Repräsentationen von Wissen unterschiedlicher art zuzuordnen. Diese Verfahren wurden in der Vergangenheit genutzt um ein besseres Verständnis unseres Gehirns zu erlagen. Die Vorliegende Arbeit hat das Ziel aktuelle Verfahren aus der Literatur zu extrahieren und im Bezug auf die adaption dieser Verfahren in der Betriebswirtschaft zu untersuchen.

    Betreuer: Fabian Gwinner 

    Künstliche Intelligenz ist das Buzzword der Stunde. Das Potential zu Effizienz- und Effektivitätssteigerungen in Unternehmen ist enorm. Jedoch ist die Qualität der Modelle und somit der Erfolg von KI-Technologien, im Speziellen von Machine-Learning-Anwendungen, eng mit den vorhandenen Trainingsdaten verbunden. Beispielsweise können verschiedene Bildklassifizierungsverfahren auf die ImageNet-Datenbank, in der über 14 Millionen handgelabelte Bilder vorhanden sind, zurückgreifen. Gerade in betrieblichen Anwendungen wie Rechnungsprüfung, Bedarfsvorhersagen, Produktdesign, Predictive Maintenance oder Inventory Management verfügen Unternehmen nicht über Daten in ausreichender Quantität und Qualität um Modelle zu trainieren. In den letzten Jahren wurden erfolgreich verschiedene Verfahren und Techniken (z. B. Data Augmentation) vorgestellt, die es ermöglichen synthetische Daten zu erzeugen.

    Ihre Aufgabe ist es im Rahmen der Masterarbeit sich einen Überblick über den State-Of-the-Art der Erzeugung bzw. Augmentierung von Daten durch eine strukturierte Literaturrecherche zu verschaffen. Zudem sollen verschiedene Use Cases im betrieblichen Kontext identifiziert werden, wovon einer prototypisch in Python implementiert werden soll.

    Literatur/Inspiration:

    Betreuer: Fabian Gwinner

    Abschlussarbeit zum Thema Produktion- und/oder Materialflussanalyse auf Basis von ERP Systemen, RFID, IoT oder Blockchain-Technologie:

    Ausarbeitung können bspw. auf Basis eines Datensatzes mithilfe von Python oder anderen Tools bearbeitet werden: Disco, ProM, PM4PY,  https://plotly.com/python/sankey-diagram/

    Eine Kooperation mit Unternehmen ist grundsätzlich möglich und erwünscht.

    Bitte kontaktieren Sie den Betreuer, sofern Sie Unterstützung bei der Kontaktsuche zu Industrieunternehmen benötigen.

    Empfehlung: Grundlegende Datenbank und Programmierkenntnisse

     

    Als Unterstützung können kostenlose Online-Schulungen für Studenten/Forscher in Anspruch genommen werden.

    https://www.celonis.com/de/academic-alliance/

    https://www.coursera.org/learn/process-mining

    https://pm4py.fit.fraunhofer.de/

    https://fluxicon.com/disco/

    Betreuer: Norman Pytel

    In den letzten Jahren entwickelte sich ein Trend von der traditionellen Prozessanalyse hin zur datengetriebenen, proaktiven Prozessanalyse. Hierbei werden Methoden des maschinellen Lernens eingesetzt, um  basierend auf, aus Prozessdaten generierten Features oder Embeddings, prozessbezogenen Variablen vorherzusagen. Dabei werden die Prozessdaten aus bestehenden Informationssystemen extrahiert und verarbeitet.  Für die Vorhersage des nächsten Prozessschrittes haben sich Convolutional-Neural-Networks als geeignete Neuronale-Netzwerk-Architektur herauskristallisiert. Aufgrund ihrer Fähigkeit sowohl zeitliche- als auch räumliche Strukturen in den Prozessdaten zu erfassen bieten sie für die Aufgabenstellung großes Potential. Um jedoch ein generalisierbares Modell für die Prozessvorhersage zu erhalten sind große Datenmengen notwendig. In der Bildvorhersage haben sich für die Lösung dieser Problemstellung Transferlernen Methodiken etabliert.

    In dieser Arbeit soll die Anwendbarkeit verschiedener Methoden des Transferlernens für die Vorhersage von Prozessschritten evaluiert werden. Die Methoden sollen basierend auf einem bestehenden Datensatz implementiert werden und ihre Leistungsfähigkeit untersucht und verglichen werden.

    Betreuerin: Myriam Schaschek

    Graphenbasierte neuronale Netze (GNNs) haben sich in bestimmten Domänen, in denen der Input des Netzwerks eine Graphenstruktur hat, z.B. in der Chemie und Molekularbiologie, als nützlich erweisen. Im Vergleich zu traditionellen neuronalen Netzwerken können GNNs Daten mit Graphenstruktur direkt verarbeiten. Diese Eigenschaften lassen sich für Vorhersagen in der Prozessanalyse nutzen. Predictive Process Analytics umfasst  die Aufgabenstellung der Vorhersage zukünftiger Verhaltensweisen einer laufenden Prozessinstanz oder den Wert prozessbezogener Metriken wie Zeiten und Häufigkeiten. Die Vorhersagen unterstützen dabei Prozessarbeiter und -manager bei operativen Entscheidungen.

    In dieser Arbeit soll die Anwendbarkeit verschiedener Machine und Deep Learning Methoden, insbesonder graphenbasierte neuronale Netze, für die Predictive Process Analytics evaluiert werden. Darüber hinaus soll die Erklärbarkeit der verschiedenen Algorithmen untersucht werden. Die verschiedenen Methoden sollen basierend auf einem bestehenden Datensatz implementiert werden und ihre Leistungsfähigkeit untersucht und verglichen werden.

    Betreuerin: Myriam Schaschek

     

    Predictive Process Analytics umfasst  die Aufgabenstellung der Vorhersage zukünftiger Verhaltensweisen einer laufenden Prozessinstanz oder den Wert prozessbezogener Metriken wie Zeiten und Häufigkeiten. Die Vorhersagen unterstützen dabei Prozessarbeiter und -manager bei operativen Entscheidungen. Wenn Prozessvorhersagen Grundlage für Geschäftsentscheidungen sind, ist es entscheidend ein Verständnis für das Verhalten des Modells und der Logik dahinter zu schaffen. Die Anwendung von Vorhersagemodellen mit „Blackbox“-Natur behindert die Implementierung in realen Szenarien, da fehlende Kausalität und Erklärbarkeit der Modelle zu fehlendem Vertrauen der Entscheidungsträger führen.

    In dieser Arbeit soll die Anwendbarkeit verschiedener Ansätze für die Erklärbarkeit sog. Black Box Modelle für die Predictive Process Analytics evaluiert werden. Teil der Arbeit ist die Implementierung und Evaluierung der verschiedenen Methoden basierend auf einem bestehenden Datensatz.

    Betreuerin: Myriam Schaschek

    Das Thema befasst sich mit der Schnittstelle Data Science und Process Mining. Inhaltlich sollen mittels Methoden aus dem Data science Bereich Process Mining Ansätze verbessert werden. Details folgen bei Interesse. Vorwissen oder Willen sich technisch teifer in folgende Gebiete einzuarbeiten wird Vorrausgesetzt:

    - Python: Pandas, Numpy, Timeseries Analysis
    - Process Mining mit PM4PY und Celonis
    - SQL

    Betreuer: Fabian Gwinner

    Die Profilmetall Engineering GmbH ist im Bereich Sondermaschinenbau mit dem Fokus auf Herstellung von Rollformmaschinen und der Integration weiterer umformtechnischer Bearbeitungsschritte (Stanzen, Biegen, …) tätig. Im mittelständischen Sondermaschinenbau ist eine zeit- und kostenorientierte Erledigung von Konzept- und Konstruktionsarbeiten zur Erreichung der Kundenzufriedenheit und Unternehmensziele essenziell.

    Aufgrund der immer wechselnden Anforderungen hinsichtlich Funktion und Aufgabenbereich einer Umformanlage lassen sich die Zeitdauer zur Erstellung der notwendigen Baugruppen erfahrungsbasiert nicht genau abschätzen und es kommt zu Verzögerungen in den Terminplänen, die sich über unterschiedliche Abteilungen hinweg fortpflanzen und den fristgerechten Projektabschluss gefährden.

    Ziel dieser Arbeit ist es, auf der Datenbasis der Nachkalkulation für unterschiedlichste Projekte ein Modell zur baugruppenbasierten Abschätzung der Bearbeitungszeit in einem KMU zu entwickeln und in die Prozessabläufe des Unternehmens zu implementieren. Das Modell dient als Grundlage zur Clusterung und standardisierten Kalkulation neuer Projekte. Die Daten zu den Durchlaufzeiten abgeschlossener Projekte werden hierzu bereitgestellt und mit den Baugruppen korreliert. Das System soll fortlaufend weiter lernen und neue Daten berücksichtigen.

    Kenntnisse in der Datenaufnahme und -verarbeitung sowie im Bereich Maschinenkonstruktion und -fertigung sind zur Bearbeitung dieser Aufgabe hilfreich.

    Die genaue Aufgabenstellung kann noch an die Bedürfnisse des Bearbeiters angepasst werden. Die Bearbeitung erfolgt unter Einhaltung der aktuell gültigen Corona-Bestimmungen. Die Betreuung erfolgt federführend durch den Lehrstuhl und in Kooperation mit der Profilmetall Engineering GmbH.

    Betreuer: Norman Pytel

    Kontakt seitens der Profilmetall Engineering GmbH:
    Peter Sticht | Mail: peter.sticht@profilmetall.de 

    Graphen können für die Darstellung und Speicherung von Daten aus unterschiedlichsten Systemen verwendet werden.
    In der vorliegenden Arbeit soll das Potenzial untersucht werden, Daten aus Informationssystemen wie ERP-Software aktivitätspezifisch zu speichern und verarbeiten.
    Dazu sollen Graphstrukturen und Graphdatenbanken vorgestellt und analysiert werden. Außerdem soll ein konzeptioneller Vorschlag erarbeitet werden, wie eine Implementierung erfolgen kann.
    Auf dieser Basis soll ein Proof-of-Concept aufgebaut werden, um dieses an einem ausgewählten Prozess exemplarisch zu demonstrieren.

    Folgende Kenntnisse von Vorteil aber nicht unbed. nötig: SQL / GraphQL, Einsteigerkenntnisse python, Process Mining / Eventlogs.

    Betreuer: Fabian Gwinner

    Blockchain oder ERP - Rückverfolgbarkeit von Produkten - Hype or Hope?

    Die Rückverfolgung von Produkten durch zunehmend verteilte und komplexe Lieferketten stellt für viele Unternehmen eine große Herausforderung dar [1] . Die Blockchain wird als Technologie angesehen, die viele Probleme und Möglichkeiten verspricht, Zeit zu sparen, Kosten zu vermeiden, Risiken zu reduzieren und das Vertrauen zwischen den Teilnehmern zu erhöhen. Sie führt zu vielen Ansätzen, die eine Nachverfolgung von Waren in Lieferketten ermöglichen. In der aktuellen Forschung haben wir im "Blockchain-Hype" darauf hingeweisen, dass die vorgeschlagenen Lösungen teilweise redundant zu bestehenden Rückverfolgungslösungen in klassischen Informationssystemen wie ERP oder MES sind [2]. Im Kern der Thesis gilt es deshalb zu earbeiten, welche konkreten Defizite State-of-the-Art Rückverfolgbarkeitssysteme aus Sicht der Praxis aufweisen. Zusätzlich sollen verschiedene Herausforderungen in der Zusammenarbeit mit Kunden/Lieferanten ausgearbeitet werden, wenn es um die Rückverfolgung von Produkten über Unternehmensgrenzen hinaus geht. Sie führen hierzu verschiedene Experteninterviews mit Industrieunternehmen durch, um systematisch Problemcluster für Informationssysteme und Prozesse darzustellen. Die Thesis wird durch das Aufzeigen weiterer Anforderungen und Forschungsrichtungen abgerundet.

    Voraussetzungen: Erweiterte Kenntnisse zu Informationssystemen oder Prozesskenntnisse zum Thema Rückverfolgung sind empfehlenswert. Eine Kooperation mit Industrieunternehmen aus der Lebensmittelbranche, Automobilindustrie, Maschinenbau, etc. sind möglich. 

    [1] Wang, Yingli, Jeong Hugh Han, and Paul Beynon-Davies. "Understanding blockchain technology for future supply chains: a systematic literature review and research agenda." Supply Chain Management: An International Journal (2019).

    [2] Pytel, Norman, Adrian Hofmann, and Axel Winkelmann. "Tracing Back the Value Stream with Colored Coins." (2020).

    Betreuer: Norman Pytel