piwik-script

Intern
Lehrstuhl für BWL und Wirtschaftsinformatik - Prof. Dr. A. Winkelmann

Thesen und Seminararbeiten

1. Platzvergabe für Bachelor- und Masterarbeiten

  • Die Vergabe von Bachelorthesen, Masterthesen und Masterseminararbeiten erfolgt für jedes Semester über ein zentrales Vergabeverfahren (FLIP).
    • Alle weiteren Informationen entnehmen Sie bitte der entsprechenden Meldung der Fakultät sowie den dort aufgeführten weiterführenden Links und Dokumenten.
    • Beachten Sie in diesem Zusammenhang bitte auch die dort aufgeführten Fristen. Bei Rückfragen zum zentralen Vergabeverfahren steht das Studiendekanat gerne zur Verfügung.
    • Für Fragen bezüglich Voraussetzungen für die Anfertigung einer Abschlussarbeit (z. B. Mindestanzahl an ECTS Punkten) kontaktieren Sie bitte das Prüfungsamt oder das Studiendekanat.
  • Bachelorseminararbeiten werden von uns direkt organisiert.
    • Die Anmeldung und Organisation, sowie weitere information finden Sie stets in Wuecampus im jeweils zum Semester passenden Kursraum "Bachelorseminar Wirtschaftsinformatik"
    • Bitte beachten Sie außerdem die Meldung im Bereich "Aktuelles" auf unserer Lehrstuhl-Startseite. Fristen und Termine werden dort ebenfalls bekanntgeben.

2. Themenfindung und Abstimmung

  • Bitte kontaktieren Sie den zuständigen Betreuer Ihres Wunschthemas bezüglich eines ersten Besprechungstermins.
  • Sollten Sie eigene Ideen für eine Abschlussarbeit haben, bspw. aus einer Praxistätigkeit bei einem Unternehmen heraus, sprechen Sie uns an! Praxisthesen können jedoch nur in begrenzter Zahl betreut werden.

Hinweis: Aufgrund der Masse der Arbeiten kann bei Praxisthemen in Unternehmen keine Geheimhaltungsvereinbarung und kein Sperrvermerk in die Arbeiten eingefügt werden. Falls Sie eine Praxisarbeit in einem Unternehmen planen, klären Sie dies bitte mit dem Lehrstuhl vor der Suche nach einem Betreuer ab!

3. Offizielle Anmeldung beim Prüfungsamt

  • Bevor Sie Ihre Abschlussarbeit offiziell anmelden können, müssen Sie Inhalte und Zielsetzungen mit Ihrem Betreuer abgesprochen haben (siehe 2) Themenfindung und Abstimmung). 
  • Den offziellen Antrag auf Zuteilung einer Bachelorarbeit finden Sie hier. 
  • Den offziellen Antrag auf Zuteilung einer Masterarbeit finden Sie hier. 
  • Bitte beachten Sie unbedingt unsere Zulassungsvoraussetzungen und Hinweise zu den Anmeldeformalitäten:

Voraussetzungen zur Thesiszulassung:

Bachelor Master

100 ECTS in allen Bereichen

Bestandenenes Wirtschaftsinformatik-Seminar oder vergleichbare Leistung (Anfertigung einer wissenschaftlichen Arbeit und Präsentation der Ergebnisse)

Bestandenenes Seminar Wissenschaftliches Arbeiten

60 ECTS in allen Bereichen. (Beachten Sie bitte ausdrücklich die individuellen Vorgaben in der für Sie gültigen Prüfungsordnung)

4. Bearbeitung der Abschlussarbeit

 Bitte Verwenden Sie zum Anfertigen Ihrer Abschlussarbeit die Dokumentenvorlage für Seminar- und Abschlussarbeiten unseres Lehrstuhls­.­

  

 

Exposé (doc) (Stand 29.01.2020)

Dokumentenvorlage für wissenschftliche Arbeiten (doc) (Stand 31.07.2019)

Dokumentenvorlage für wissenschaftliche Arbeiten (Latex) (Stand 25.02.2020)

Präsentationsvorlage (ppt) (Stand 14.11.2019)
 

 

 Der Umfang der Abschlussarbeiten beträgt

  

  •  40 Seiten für Bachelorarbeiten und

  •  60 Seiten für Masterarbeiten.

  •  Jeweils exkl. Titelseite, Abstract, Verzeichnissen und Anhang.

 Die Bearbeitungszeit für Abschlussarbeiten beträgt

  

  •  8 Wochen ab Zuteilungsdatum für Bachelorarbeiten und

  •  6 Monate ab Zuteilungsdatum für Masterarbeiten.

Außerdem empfehlen wir Ihnen die Verwendung einer Literaturverwaltung, bspw. Citavi  hier

Hilfreiche Links zum Erstellen wissenschaftlicher Arbeiten

 

  • Umfangreicher Literaturbestand der UB Würzburg hier

  • KOMPASS-Kurs: „Systematisches wissenschaftliches Arbeiten (Wirtschaftsinformatiker)“ hier

  • Kurse zum Erstellen wissenschaftlicher Arbeiten hier

  • Angebote des Schreibzentrums hier

 

Hilfreiche Links zur Recherche

 

 

  • Informationsangebot der Universität hier

  • Einführung in die Datenbankrecherche hier

  • Literaturverwaltung hier

  • Google Scholar hier

 

 

5. Abgabe der Abschlussarbeit

Wichtig: Coronabedingt akzeptiert das Prüfungsamt und auch der Lehrstuhl die abgabe in digitaler Form. Bitte informieren sie sich beim Prüfungsamt über die Anzahl der elektronischen Medien (USB)

ist die Pandemiebedingte digitale Form der Abgabge nicht möglich gelten die bekannten Regeln:

 

  • Drei  (Bachelor: zwei) schriftliche, gebundene Ausfertigungen
  • Elektronische Fassung  (.pdf +.docx. / tex) der Arbeit in zweifacher (Bachelor: einfacher) Ausführung auf USB-Sticks.
  • Eine schriftlich unterschriebene Versicherung zur Selbstständigen Leistungserbringung

Aktuelle Themenvorschläge

Bachelor

ERP-Systeme werden in vielen Unternehmen weltweit eingesetzt. Aber welche Systeme sind derzeit State-of-the-Art? Wer ist Markführer und wer die Challanger? Diese und viele weitere Fragen möchten wir in einer großen quantitativen Studie zum Thema "ERP-Nutzung in Deutschland" beantworten. 

Im Rahmen deiner Bachelor-Arbeit arbeitst du daher eng mit einem Team von wissenschaftlichen Mitarbeitern und Prof. WInkelmann zusammen, um die notwendigen Frage zu entwicklen und anschließend die Ergebnisse auszuwerten. 

Betreuer: Christoph Tomitza und Julian Kolb

E-Commerce, der elektronische Handel, ist bedeutend für die Weltwirtschaft und mittlerweile eine etablierte Handelsform.  
Welchen Einfluss nehmen neue Technologie wie bswp. KI auf den elektronischen Handel?
Welche Trends, Strategien und aktuelle Best Practices lassen sich aus der Praxis ableiten?
Wie unterscheiden sich Geschäftsmodelle in Abhängigkeit der Akteure (B2B, B2C, C2C)?
Welche Erfolgsfaktoren lassen sich in Praxis und Wissenschaft identifizieren? Mit welchen Herausforderung sieht sich der Online-Handel konfrontiert (Last Mile Problematik, hohe Retourenquote), gibt es hierfür Lösungsansätze aus der Forschung?

Eigene Vorschläge und Schwerpunktsetzung gewünscht.

Absprachen und Bearbeitung ab April möglich.

Betreuerin:  Sophie Lurz

 

Non-fungible-Token(NFT) und E-Commerce

Ein großes Hype-Thema des vergangenen Jahres waren Non-fungible-Token bzw. die Versteigerung dieser. Auf diversen Plattformen können digitale, einzigartige Werke erworben werden, wie Bilder, Sammelkarten oder personalisierter Merch. Die Transaktionen finden auf der Blockchain statt - Token-Assets werden gegen meist Ether getauscht. Es gilt im Rahmen dieser Arbeit zu untersuchen, inwiefern die Nutzung von NFT den bisherigen E-Commerce verändert.

Was sind NFTs?

Welche Potentiale oder Risiken erscheinen durch NFT?

Wie reagieren bisherige Player auf die Veränderungen im Markt?

 

Eigene Themenvorschläge können eingebracht werden.

 

Betreuer: Christian Zeiß

In Deutschland wächst der Internethandel kontinuierlich weiter und lässt sich auch durch die weltumspannende Covid-19-Pandemie nicht aufhalten. Immer mehr Menschen bestellen online Produkte und lassen sich diese nach Hause liefern. Unabhängig von der aktuellen Situation wachsen der Umsatz und das Sendungsvolumen im deutschen E-Commerce schon seit Jahren stark an und dementsprechend auch die Retourenquote. Die steigende Anzahl an Retouren erzeugen Kosten und benötigen Mitarbeiter Ressourcen.

Wie verarbeiten Unternehmen Retouren?
Wie lassen sich die dadurch entstehenden Kosten minimieren?
Wie können Retouren am besten präventiv vermieden werden?
Welche Vorverarbeitungen sind notwendig um Retouren optimal vorhersagen zu können?

Betreuer: Christoph Tomitza

Process Mining in der Logistik und Produktion

 

Eigene Themenvorschläge können eingebracht werden.

Eine Kooperation oder Zusammenarbeit mit Unternehmen ist möglich.

Als Unterstützung können kostenlose Online-Schulungen für Studenten/Forscher in Anspruch genommen werden.

https://www.celonis.com/de/academic-alliance/

https://www.coursera.org/learn/process-mining

Betreuer: Norman Pytel

Die Produktion wird immer dezentraler und dabei nehmen Kooperationen zwischen Unternehmen eine entscheidende Rolle ein. Bei Über-/ oder Unterauslastung von im Unternehmen angesiedelten Produktionsanlagen und -Maschinen stellt das Kapazitätssharing eine Möglichkeit dar, die eigenen Ressourcen optimal zu nutzen und Schwankungen auszugleichen. In den letzten Jahren haben sich immer mehr Plattformen am Markt etabliert, die einen entsprechenden Service zum Kapazitätsausgleich bereitstellen. Ziel der Arbeit ist es, durch eine strukturierte Literaturrecherche die Möglichkeiten sowie die Restriktionen solcher Plattformmodelle für das Kapazitätssharing herauszuarbeiten.

Betreuer: Nicolas Neis

Aktuelle Data Science Anwendungen (KI, Machine Learning, Data Mining) werden meist getrennt von den operativen Systemen entwickelt und betrieben, aus denen die analysierten Daten eigentlich stammen und in denen diese generiert werden. Um die Daten zwischen den Systemen zu transferieren werden hauptsächlich drei Mechanismen herrangezogen ETL, Data Pipeplines und Stream Processing. Die hier fokussierte Arbeit, hat das Ziel den aktuell Forschungsstand und Insdustriestandard zur extraction, also dem austausch von Daten, zwischen Enterprise Software Systemen und KI-Anwendungsplattformen zu analysieren und zu konzeptionalisieren.

Betreuer: Fabian Gwinner

 

Themenfelder: Governance, Compliance, Smart Contracts, Colored Coins im Kontext von Produktion und Logistik.

Die Rückverfolgung von Produkten durch zunehmend verteilte und komplexe Lieferketten ist eine große Herausforderung. Die Blockchain-Technologie soll viele Probleme lösen, da sie verspricht, Zeit zu sparen, Kosten zu vermeiden, Risiken zu reduzieren und das Vertrauen zwischen den Teilnehmern zu erhöhen. Sie führt zu vielen Ansätzen, die eine Nachverfolgung von Waren in Lieferketten ermöglichen. Wir haben festgestellt, dass die vorgeschlagenen Lösungen teilweise redundant zu Rückverfolgungs-Funktionalitäten in ERP Systemen sind. Kern der Arbeit ist es einen Vergleich zwischen verschiedenen ERP Systemen und Blockchainlösungen herzustellen, um jeweilige Vor- und Nachteile zu ermitteln.

Info: Der Betreuer unterstützt Sie bei der Herstellung von Kontakten zu ERP Herstellern.

Betreuer: Norman Pytel

Informationssysteme wie ERP-Systeme verwenden auf unterster Schicht stets Datenbanken zu Speicherung der Betrieblichen Informationen. Verschiedene Hersteller nutzen Dabei ganz unterschiedliche Technoligien und Modelle. Die Vorliegende Arbeit soll Datenbanken unterschiedlicher Systeme komparativ analysieren. Dazu muss sich der Studierende sowohl in den Systemen Bewegen als auch einen technischen einblick erlangen und öffentliche Informationen Nutzen. Ziel ist es, Vergleiche komplexer Datenmodelle zu ermöglichen.

Vor Kontaktaufnahme bitte zu folgenden Themen informieren: ER-Modelle, Datenbanktypen, SQL / Abfragesprachen

Nähere Informationen gerne nach Absprache.

Betreuer: Fabian Gwinner

Informationssysteme wie ERP-Systeme nutzen innherent verschiedene Programme, um den Prozess eines Unternehmens abzubilden. Die Systeme sind dabei nur Teilweise Process Aware. In der angestrebten Arbeit sollen Prozesse anhand selbt geschaffener Beispiele durchgespielt und komparativ zwischen Systemen analysiert werden. Dazu muss man sich sowohl technisch in den Systemen Bewegen als auch öffentliche Informationen Nutzen. Ziel ist es Evidenz und Datengetrieben auf ein generisches Prozessmodell hinzuarbeiten.

Vor Kontaktaufnahme bitte zu folgenden Themen informieren: Datenbanktypen, SQL / Abfragesprachen, BPMN, Semantik und Syntax im BPMN.

Nähere Informationen gerne nach Absprache.

Betreuer: Fabian Gwinner

Die Digitalisierung nimmt ihren Lauf und betrifft nicht nur Unternehmen sondern auch Privatpersonen im alltäglichen Leben. Unternehmen stehen vielen Herausforderungen der Digitalisierung gegenüber und führen Projekte durch, um den aktuellen Stand der Digitalisierung zu erreichen. Vorallem die KMU haben aufgrund begrenzter Ressourcen größere Hürden die laufende Digitalisierung in ihren Betrieben voranzubringen. Auch die plötzlich aufgetretene COVID-19 Pandemie hat die Ressourcen, Budget und Zielsetzungen der Unternehmen beeinflusst.

Welche Auswirkungen hat COVID-19 auf die Digitalisierungsbestreben von KMU?
Wie sind die Anbieter von Softwareprodukten durch die Pandemie betroffen?
Welche Auswirkungen hat die COVID-19 Pandemie auf die Beratungsbranche?

Betreuer: Christoph Tomitza

Webprogramming: Möglichkeiten der Architektur im Zeitalter von Smartphones

Die gesonderte Darstellung von Websiten für mobile Endgeräte ist nicht die einzige Veränderung des Webprogrammings im Zeitalter des Smartphones. Neue Möglichkeiten der Architektur(Frontend, Backend) wurden bereits erschlossen und sollen im Rahmen dieser Thesis erläutert werden. Anhand eines Use-Cases gilt es abschließend die neuen Möglichkeiten der Architektur von Websiten (konzeptionell/praktisch) darzustellen.

 

Eigene Themenvorschläge können eingebracht werden.

 

Betreuer: Christian Zeiß

Creating an Ethereum landscape - scraping data for main-net and private networks

Blockchain-Netzwerke sind zum großen Teil wenig erleuchtetes Terrain. Es gibt öffentliche und private Netzwerke, welche unterschiedlich eingesetzt werden. Bei Ethereum gibt es das Main-Net, Testnetzwerke und tausende private, unbekannte Netzwerke. Die Insights der einzelnen Netzwerke können zeigen, welche Token wirklich in Smart Contracts implementiert werden oder welche Token/Policies große Ethereum-Konsortien nutzen.

Es soll ein Datensatz generiert werden durch die Nutzung von Web-Scraping-Methoden bzw. API-Nutzung. Des Weiteren gilt es die gesammelten Daten auszuwerten und neue Erkenntnisse zu sammeln.

Zunächst kann sich auf das Main-Net beschränkt werden (etherscan).

Literatur:

  • Adrian Hofmann, Fabian Gwinner, Axel Winkelmann, Christian Janiesch, Security Implications of Consortium Blockchains: The Case of Ethereum Networks, 12 (2021) JIPITEC 347 para 1.  
  • P. Hegedus, "Towards Analyzing the Complexity Landscape of Solidity Based Ethereum Smart Contracts," 2018 IEEE/ACM 1st International Workshop on Emerging Trends in Software Engineering for Blockchain (WETSEB), 2018, pp. 35-39
  • Angelo, Monika Di and Gernot Salzer. “Characterizing Types of Smart Contracts in the Ethereum Landscape.” Financial Cryptography Workshops (2020).

Eigene Themenvorschläge können eingebracht werden.

 

Betreuer: Christian Zeiß

Daten sind das neue Öl – vor Allem im Vertrieb. Dank der anhaltenden Digitalisierung setzen immer mehr Unternehmen auf eine verteilte Vertriebsstrategie und sind dazu auf valide und für den jeweiligen Pointofsale + Markt (Vertriebskanal) angepasste Daten angewiesen. Gerade das Produktinformationsmanagement (kurz PIM) ist dabei das Bindeglied zwischen ERP und CRM und dem digitalen Schaufenster für den Kunden. In dieser Arbeit untersuchen Sie, wie Künstliche Intelligenz helfen kann, um Daten in ERP und PIM noch effizienter und schneller zu optimieren im Bezug auf Kaufverhalten und Kaufentscheidungen.

Diese Abschlussarbeit erstellen Sie in Kooperation mit der Noxum GmbH, ein erfahrenes und dynamisches Team, in Würzburg.

Betreuer: Julian Kolb

Abschlussarbeit in Kooperation mit yaveon, ein Microsoft-Partner, der leistungsfähige Unternehmenslösungen anbietet und Kunden ermöglicht nicht nur ihren kompletten Warenstrom zu organisieren sondern auch Kundenbeziehungen zu pflegen, Vertragsdokumente zu managen sowie alle relevanten Kennzahlen im Blick zu behalten.

Mögliche Themen umfassen:

Bereich Prozesse

  • Prozessorientierte automatisierte Tests des ERP-System Microsoft Business Central 

    Automatisierte Prozesstests vereinfachen die Nutzung eines ERP-Systems immer dann, wenn das System erweitert oder angepaßt wird. Gerade Kunden im regulierten Umfeld sind zu gewissenhaften und dokumentierten Tests verpflichtet, was sehr zeitaufwändig ist und die Umsetzungen von Neuerung oftmals behindert. Automatisierte Tests könnten das Problem schnell und komfortabel lösen. Die Arbeit umfasst die Erarbeitung der wichtigsten Prozess-Testszenarien, der benötigten Testdokumentation und die Konzeption einer auf ERP-Updates  fokussierten, effizienten und dauerhaften Nutzung.
    Weiter soll die Arbeit auch die Möglichkeit beleuchten, wie kundenindividuelle Tests auf Basis der künftigen Standard-Yaveon-Prozesstests ermöglicht werden können und das wenn möglich auf einer konfigurierbaren Ebene. 

  • Komparative Analyse von Microsoft Planungstools 
    Aktuelle gibt es zahlreiche Planungswerkzeuge von Microsoft. Project, Project for the web, Planner, Project Premium, etc.. Ziel der Arbeit ist es zu erforschen, welche Tools für welche Anwendungsfälle geeignet sind. Dabei sollen Vor- und Nachteile und Integrationsmöglichkeiten der Werkzeuge (in Extranet, ERP, ...) untersucht werden und Handlungsempfehlung für den internen Einsatz ausgearbeitet werden. Beispielsweise könnte im Detail Jira und DevOps verglichen werden.
     
  • KI-getriebenes Wissensmanagement in der Prozessindustrie

    Kann Wissen in der Kombination verschiedener IT-Systeme, wie ERP, Teams, Sharepoint schnell und komfortabel genutzt werden, entsteht ein sehr großer Nutzen für Unternehmen. Die Arbeit umfasst die Analyse der nutzenstiftenden UseCases, Konzeption und Erstellung eines Prototypen zur Veranschaulichung und Präsentation für Unternehmen in den Branchen Pharma, Chemie, Food und LifeScience. Ein etabliertes Wissensmanagement-Tool und die Schnittstelle zum ERP-System stellt yaveon zur Verfügung. Die Arbeit konzentriert sich auf die Erarbeitung und prototypische Umsetzung der wichtigsten Use-Cases.

Bereich Marketing

  • Möglichkeiten für ERP als Dienstleistung as a Service 
    Dienstleistungen werden am Markt immer relevanter. Häufig wird ein Produkt nur noch aufgrund der dazu mitgelieferten Dienstleistungen ausgewählt. Auch in der ERP-Welt werden solche Dienstleistungsangebote immer präsenter. Beim Erwerb einer ERP-Software könnten beispielsweise Dienstleistungspakete wie Beratung oder Prozessoptimierung enthalten sein. Diese Thesis zielt darauf ab, herauszufinden, welche Dienstleistungen beim Erwerb einer ERP-Software relevant sind oder sogar ausschlaggebene Grüde für den Erwerb eben dieser ERP-Software darstellen. In diesem Zuge sollen zu den jeweiligen Dienstleistungen passende Geschäftsmodelle erarbeitet werden. Beispiele: Dienstleistungen, die sich als Paket mit fixen Kosten und Stunden (10 Leistungstage für X EUR) eigenen; Dienstleistungen as a Service als monatlich flexible Kosten; Dienstleistungen, die auf Abruf buchbar sind und bei denen die Berechnung im Nachinein stattfinden. 
     
  • Aktuelle SEO Keywords zu ERP für Start-Ups/KMUs und wichtige Meta-Tags zur Beeinflussung von Snippets

    Unternehmen beschäftigen sich heutzutage vermehrt selbst mit dem Thema ERP und der Auswahl von geeigneter Software. Hierfür wird unter anderem die Suche in einer Suchmaschine wie Google genutzt. Damit Unternehmen in einer solchen Suche besser auffindbar sind und die Wahrscheinlichkeit steigt, dass die eigene Webseite von Interessenten angeschaut wird, kann Suchmaschinen Optimierung (SEO) eingesetzt werden. Die Thesis soll sich daher mit dem Thema SEO und den dazugehörigen Möglichkeiten beschäftigen. Der Kern der Arbeit soll es sein, herauszufinden, wie Unternehmen bei der Suche nach einem ERP-System in einer Suchmaschine vorgehen. Die zu betrachtende Zielgruppe sind Start-Ups und KMUs. Herauszuarbeiten sind die Keywords, welche aktuell und in Zukunft am relevantesten für Interessenten sind. Außerdem sollen wichtige Meta-Tags erarbeitet werden, welche der Beeinflussung von Snippets dienen (Ein Snippet wird von der Suchmaschine automatisch generiert und bezieht sich meist auf die hinterlegten Metadaten Title, Description und die gecachte URL einer Seite.).

Bereich ERP

  • Deckungsbeitrags-Berechnung in PowerBI
    Die Auswertungsmöglichkeiten sind in Microsoft Business Central überschaubar. Wie kann eine Nachkalkulation aus ERP Daten mittels PowerBI erfolgen? Welche Daten habe ich bereits? Welche fehlen ggf. noch? Ziel ist es eine moderne Deckungsbeitrags-Berechnung  mit Vor- und Nachkalkulation zu erhalten.
     
  • Aktuell genutze Kanäle bei der Suche nach einem geeigneten ERP-System 
    Unternehmen beschäftigen sich heutzutage vermehrt selbst mit dem Thema ERP und der Auswahl von geeigneter Software. Sie informieren sich über Prozesse und Vorgehensweisen zur ERP- Auswahl sowie über die ERP-Systeme selbst. Hierfür werden verschiedene Kanäle zur Informationssammlung genutzt. Ziel dieser Thesis ist es, herauszufinden, welche Kanäle am relevantesten für potentielle Interessenten sind. Beispiele hierfür könnten Websites von Unternehmen, LinkedIn, Digitale Messen, Suchmaschinen oder auch ERP-Beratungshäuser sein. 
     
  • Konzeption und Umsetzung eines hybriden Schulungskonzeptes als Basis für ERP-Projekte

    Sind Vorort-Trainings und Fahrten quer durch Europa tatsächlich noch State of the Art? Interaktive E-Learnings und Schulungsvideos können helfen, ERP-User schneller, günstiger und mit  einer arbeitszeitoptimierten Zeitplanung zu schulen.
    Dennoch ist der persönliche Kontakt und die Möglichkeit, aktiv Fragen zu klären, essentiell für Zufriedenheit und Lernerfolg.

    Vorarbereitungen inkl. Toolauswahl sind bereits erarbeitet. Es geht in dieser Arbeit um die Erarbeitung eines ganzheitlichen hybriden Schulungskonzepts, das agil angelegt sein soll und folgende Eckpunkte abdeckt: 
    - Grundlegendes Konzept, das auch das optimale Verhältnis zur Einbindung eines Trainers umfaßt 
    - Wirtschaftlichkeits- und Monetarisiearungsmodelle 
    - Akzeptanzuntersuchung und Einarbeitung von Pilotkundenfeedbacks
    - Mehrsprachigkeit
    - Konzeption zur Nutzung auch über Partner für Endkunden und auch zur Partnerqualifizierung selbst

 

Nähere Informationen gerne bei Kontakt.
 

Ansprechpartner: Myriam Schaschek oder Christoph Tomitza

Master

ERP-Systeme werden in vielen Unternehmen weltweit eingesetzt. Aber welche Systeme sind derzeit State-of-the-Art? Wer ist Markführer und wer die Challanger? Diese und viele weitere Fragen möchten wir in einer großen quantitativen Studie zum Thema "ERP-Nutzung in Deutschland" beantworten. 

Im Rahmen deiner Master-Arbeit arbeitst du daher eng mit einem Team von wissenschaftlichen Mitarbeitern und Prof. WInkelmann zusammen, um die notwendigen Frage zu entwicklen und anschließend die Ergebnisse auszuwerten. 

Betreuer: Christoph Tomitza und Julian Kolb

Die Blockchain Technologie steht zunehmend im Interesse zahlreicher Forscher und Praktiker aus dem Finanz-, Logistik und Produktionsumfeld, um neue Integrationsmöglichkeiten entlang komplexer Lieferketten für mehr Transparenz zu schaffen[1]. Dabei gibt es zahlreiche Perspektiven und komplexe Herausforderungen, die bei großen, mittleren und kleinen Unternehmen zu Implementierungsproblemen führen [2]. Die Forschung befindet sich auf diesem Gebiet in ihren Anfängen, wie verschiedene technische (Token-/Smart Contract) Standards zur Rückverfolgung von Produkten mit klassischen Informationssystemen wie Enterprise Resource Planning (ERP), Manufacturing Excecution (MES) Systems oder Warehouse Management Systems (WMS) genutzt werden können [3][4]. Im Kern der Thesis sollen zwei Fertigungsprozesse mit Chargen- und Seriennummern anhand unterschiedlicher ERC-Standards / Tokens (Bspw. ERC721, ERC1155 oder UTXO) abgebildet und gegenübergestellt werden. Als Ergebnis erarbeiten Sie verschiedene Vor- und Nachteile dieser Anwendungsmöglichkeiten, um Industrieunternehmen und zukünftigen Forschern eine erste Entscheidungshilfe zur Implementierung verschiedener Ansätze geben könnte.

Voraussetzungen: Grundlegende Programmierkenntnisse in Javascript sind zwingend notwendig. Erweiterte Kenntnisse in Informationssystemen wie ERP, MES, WMS oder Produktionsprozessen werden nicht benötigt, da die Arbeit in enger Zusammenarbeit mit den Betreuern stattfindet. Notwendige Daten werden durch die Betreuer zur Verfügung gestellt.

[1] Sunyaev, Ali, et al. "Token economy." Business & Information Systems Engineering (2021): 1-22.

[2] Wang, Yingli, Jeong Hugh Han, and Paul Beynon-Davies. "Understanding blockchain technology for future supply chains: a systematic literature review and research agenda." Supply Chain Management: An International Journal (2019).

[3] Pytel, Norman, Adrian Hofmann, and Axel Winkelmann. "Tracing Back the Value Stream with Colored Coins." (2020).

[4] Westerkamp, Martin, Friedhelm Victor, and Axel Küpper. "Tracing manufacturing processes using blockchain-based token compositions." Digital Communications and Networks 6.2 (2020): 167-176.

Betreuer: Norman Pytel, Christian Zeiß

Non-fungible-Token(NFT) und E-Commerce

Ein großes Hype-Thema des vergangenen Jahres waren Non-fungible-Token bzw. die Versteigerung dieser. Auf diversen Plattformen können digitale, einzigartige Werke erworben werden, wie Bilder, Sammelkarten oder personalisierter Merch. Die Transaktionen finden auf der Blockchain statt - Token-Assets werden gegen meist Ether getauscht. Es gilt im Rahmen dieser Arbeit zu untersuchen, inwiefern die Nutzung von NFT den bisherigen E-Commerce verändert.

Was sind NFTs?

Welche Potentiale oder Risiken erscheinen durch NFT?

Wie reagieren bisherige Player auf die Veränderungen im Markt?

 

Eigene Themenvorschläge können eingebracht werden.

 

Betreuer: Christian Zeiß

Creating an Ethereum landscape - scraping data for main-net and private networks

Blockchain-Netzwerke sind zum großen Teil wenig erleuchtetes Terrain. Es gibt öffentliche und private Netzwerke, welche unterschiedlich eingesetzt werden. Bei Ethereum gibt es das Main-Net, Testnetzwerke und tausende private, unbekannte Netzwerke. Die Insights der einzelnen Netzwerke können zeigen, welche Token wirklich in Smart Contracts implementiert werden oder welche Token/Policies große Ethereum-Konsortien nutzen.

Es soll ein Datensatz generiert werden durch die Nutzung von Web-Scraping-Methoden bzw. API-Nutzung. Des Weiteren gilt es die gesammelten Daten auszuwerten und neue Erkenntnisse zu sammeln.

Zunächst kann sich auf das Main-Net beschränkt werden (etherscan).

Literatur:

  • Adrian Hofmann, Fabian Gwinner, Axel Winkelmann, Christian Janiesch, Security Implications of Consortium Blockchains: The Case of Ethereum Networks, 12 (2021) JIPITEC 347 para 1.  
  • P. Hegedus, "Towards Analyzing the Complexity Landscape of Solidity Based Ethereum Smart Contracts," 2018 IEEE/ACM 1st International Workshop on Emerging Trends in Software Engineering for Blockchain (WETSEB), 2018, pp. 35-39
  • Angelo, Monika Di and Gernot Salzer. “Characterizing Types of Smart Contracts in the Ethereum Landscape.” Financial Cryptography Workshops (2020).

Eigene Themenvorschläge können eingebracht werden.

 

Betreuer: Christian Zeiß

Im Internet sind enorme Mengen an Informationen zu finden, diese sind meist in nicht strukturierter Form aufzufinden. Anhand der Optionen des Crawlens und Scrapens können solche Informationen gefunden, extrahiert und strukturiert werden. Jedoch ist das Filtern von unstrukturierten Daten eine Herausforderung, vor allem Textdaten stellen ein Problem dar, da die Bedeutung der Inhalte analysiert werden müssen. Dieses Thema soll anhand einer Analyse von Forschungsausschreibungen in Deutschland angegangen werden.

Welche Thematiken werden in aktuellen Forschungsausschreibungen adressiert?
Kann ein Trend an aktuellen Themen erkannt werden, welche primär gefördert werden?

Betreuer: Christoph Tomitza

Informationssysteme wie ERP-Systeme nutzen auf unterster Schicht stets Datenbanken zu Speicherung der betrieblichen Informationen. Verschiedene Softwarehersteller nutzen dabei ganz unterschiedliche Technologien und Modelle. Da Informationen aus unterschiedlichen Systemen für gewissen weitere Anwendungen, Reporting und Prognosezwecke zusammengeführt werden müssen, arbeitet man in der Praxis zunehmend mit Datalakes und Object- ubzw. Online-Storages (z.B. Amazon S3).

Die vorliegende Arbeit hat das Ziel eine ETL-Software und einen Datalake aufzusetzen, um Daten aus ERP-Systemen unseres ERP-Labors zu extrahieren und für Analyse Zwecke zentral bereitzustellen. Übergeordnete Vision unseres Vorhabens ist es eine Plattform aufzubauen, auf der Studierende abseits der ERP, CRM und PIM Systeme im Labor, den Umgang mit Daten aus analytischer Sicht lernen können. Die Arbeit legt dazu erste Grundsteine.

Vor Kontaktaufnahme bitte zu folgenden Themen informieren: ER-Modelle, Datenbanken und Datenbanktypen, SQL / Abfragesprachen, ETL, Datalake.

Vorkenntnisse wären sinnvoll in: Container, Kubernetes, Basic Linux Commands, SQL

Nähere Informationen gerne bei Kontakt.
Betreuer: Fabian Gwinner
 

Informationssysteme wie ERP-Systeme nutzen auf unterster Schicht stets Datenbanken zu Speicherung der Betrieblichen Informationen. Verschiedene Hersteller nutzen dabei ganz unterschiedliche Technoligien und Modelle. Die Vorliegende Arbeit soll Datenmodelle unterschiedlicher Systeme komparativ mittels datengetriebener Methoden analysieren. Hierzu sollen Datengetrieben Methoden zum Modellvergleich recherachiert und analysiert werden sowie Modelle mittels eines ausgewählten verfahrens verglichen werden.

 

Vor Kontaktaufnahme bitte zu folgenden Themen informieren: ER-Modelle, Datenbanktypen, SQL / Abfragesprachen, Semantik & Syntax der Datenmodellierung
Nähere Informationen gerne nach Absprache.


Betreuer: Fabian Gwinner

 

Verfahren aus den Neurowissenschaften machen es möglich bspw. Gehirnfunktionen und Bereiche des Gehirns zu kokrete Repräsentationen von Wissen unterschiedlicher art zuzuordnen. Diese Verfahren wurden in der Vergangenheit genutzt um ein besseres Verständnis unseres Gehirns zu erlagen. Die Vorliegende Arbeit hat das Ziel aktuelle Verfahren aus der Literatur zu extrahieren und im Bezug auf die adaption dieser Verfahren in der Betriebswirtschaft zu untersuchen.

Betreuer: Fabian Gwinner 

Künstliche Intelligenz ist das Buzzword der Stunde. Das Potential zu Effizienz- und Effektivitätssteigerungen in Unternehmen ist enorm. Jedoch ist die Qualität der Modelle und somit der Erfolg von KI-Technologien, im Speziellen von Machine-Learning-Anwendungen, eng mit den vorhandenen Trainingsdaten verbunden. Beispielsweise können verschiedene Bildklassifizierungsverfahren auf die ImageNet-Datenbank, in der über 14 Millionen handgelabelte Bilder vorhanden sind, zurückgreifen. Gerade in betrieblichen Anwendungen wie Rechnungsprüfung, Bedarfsvorhersagen, Produktdesign, Predictive Maintenance oder Inventory Management verfügen Unternehmen nicht über Daten in ausreichender Quantität und Qualität um Modelle zu trainieren. In den letzten Jahren wurden erfolgreich verschiedene Verfahren und Techniken (z. B. Data Augmentation) vorgestellt, die es ermöglichen synthetische Daten zu erzeugen.

Ihre Aufgabe ist es im Rahmen der Masterarbeit sich einen Überblick über den State-Of-the-Art der Erzeugung bzw. Augmentierung von Daten durch eine strukturierte Literaturrecherche zu verschaffen. Zudem sollen verschiedene Use Cases im betrieblichen Kontext identifiziert werden, wovon einer prototypisch in Python implementiert werden soll.

Literatur/Inspiration:

Betreuer: Fabian Gwinner

Abschlussarbeit zum Thema Produktion- und/oder Materialflussanalyse auf Basis von ERP Systemen, RFID, IoT oder Blockchain-Technologie:

Ausarbeitung können bspw. auf Basis eines Datensatzes mithilfe von Python oder anderen Tools bearbeitet werden: Disco, ProM, PM4PY,  https://plotly.com/python/sankey-diagram/

Eine Kooperation mit Unternehmen ist grundsätzlich möglich und erwünscht.

Bitte kontaktieren Sie den Betreuer, sofern Sie Unterstützung bei der Kontaktsuche zu Industrieunternehmen benötigen.

Empfehlung: Grundlegende Datenbank und Programmierkenntnisse

 

Als Unterstützung können kostenlose Online-Schulungen für Studenten/Forscher in Anspruch genommen werden.

https://www.celonis.com/de/academic-alliance/

https://www.coursera.org/learn/process-mining

https://pm4py.fit.fraunhofer.de/

https://fluxicon.com/disco/

Betreuer: Norman Pytel

In den letzten Jahren entwickelte sich ein Trend von der traditionellen Prozessanalyse hin zur datengetriebenen, proaktiven Prozessanalyse. Hierbei werden Methoden des maschinellen Lernens eingesetzt, um  basierend auf, aus Prozessdaten generierten Features oder Embeddings, prozessbezogenen Variablen vorherzusagen. Dabei werden die Prozessdaten aus bestehenden Informationssystemen extrahiert und verarbeitet.  Für die Vorhersage des nächsten Prozessschrittes haben sich Convolutional-Neural-Networks als geeignete Neuronale-Netzwerk-Architektur herauskristallisiert. Aufgrund ihrer Fähigkeit sowohl zeitliche- als auch räumliche Strukturen in den Prozessdaten zu erfassen bieten sie für die Aufgabenstellung großes Potential. Um jedoch ein generalisierbares Modell für die Prozessvorhersage zu erhalten sind große Datenmengen notwendig. In der Bildvorhersage haben sich für die Lösung dieser Problemstellung Transferlernen Methodiken etabliert.

In dieser Arbeit soll die Anwendbarkeit verschiedener Methoden des Transferlernens für die Vorhersage von Prozessschritten evaluiert werden. Die Methoden sollen basierend auf einem bestehenden Datensatz implementiert werden und ihre Leistungsfähigkeit untersucht und verglichen werden.

Betreuerin: Myriam Schaschek

Graphenbasierte neuronale Netze (GNNs) haben sich in bestimmten Domänen, in denen der Input des Netzwerks eine Graphenstruktur hat, z.B. in der Chemie und Molekularbiologie, als nützlich erweisen. Im Vergleich zu traditionellen neuronalen Netzwerken können GNNs Daten mit Graphenstruktur direkt verarbeiten. Diese Eigenschaften lassen sich für Vorhersagen in der Prozessanalyse nutzen. Predictive Process Analytics umfasst  die Aufgabenstellung der Vorhersage zukünftiger Verhaltensweisen einer laufenden Prozessinstanz oder den Wert prozessbezogener Metriken wie Zeiten und Häufigkeiten. Die Vorhersagen unterstützen dabei Prozessarbeiter und -manager bei operativen Entscheidungen.

In dieser Arbeit soll die Anwendbarkeit verschiedener Machine und Deep Learning Methoden, insbesonder graphenbasierte neuronale Netze, für die Predictive Process Analytics evaluiert werden. Darüber hinaus soll die Erklärbarkeit der verschiedenen Algorithmen untersucht werden. Die verschiedenen Methoden sollen basierend auf einem bestehenden Datensatz implementiert werden und ihre Leistungsfähigkeit untersucht und verglichen werden.

Betreuerin: Myriam Schaschek

 

Predictive Process Analytics umfasst  die Aufgabenstellung der Vorhersage zukünftiger Verhaltensweisen einer laufenden Prozessinstanz oder den Wert prozessbezogener Metriken wie Zeiten und Häufigkeiten. Die Vorhersagen unterstützen dabei Prozessarbeiter und -manager bei operativen Entscheidungen. Wenn Prozessvorhersagen Grundlage für Geschäftsentscheidungen sind, ist es entscheidend ein Verständnis für das Verhalten des Modells und der Logik dahinter zu schaffen. Die Anwendung von Vorhersagemodellen mit „Blackbox“-Natur behindert die Implementierung in realen Szenarien, da fehlende Kausalität und Erklärbarkeit der Modelle zu fehlendem Vertrauen der Entscheidungsträger führen.

In dieser Arbeit soll die Anwendbarkeit verschiedener Ansätze für die Erklärbarkeit sog. Black Box Modelle für die Predictive Process Analytics evaluiert werden. Teil der Arbeit ist die Implementierung und Evaluierung der verschiedenen Methoden basierend auf einem bestehenden Datensatz.

Betreuerin: Myriam Schaschek

Das Thema befasst sich mit der Schnittstelle Data Science und Process Mining. Inhaltlich sollen mittels Methoden aus dem Data science Bereich Process Mining Ansätze verbessert werden. Details folgen bei Interesse. Vorwissen oder Willen sich technisch teifer in folgende Gebiete einzuarbeiten wird Vorrausgesetzt:

- Python: Pandas, Numpy, Timeseries Analysis
- Process Mining mit PM4PY und Celonis
- SQL

Betreuer: Fabian Gwinner

Die Profilmetall Engineering GmbH ist im Bereich Sondermaschinenbau mit dem Fokus auf Herstellung von Rollformmaschinen und der Integration weiterer umformtechnischer Bearbeitungsschritte (Stanzen, Biegen, …) tätig. Im mittelständischen Sondermaschinenbau ist eine zeit- und kostenorientierte Erledigung von Konzept- und Konstruktionsarbeiten zur Erreichung der Kundenzufriedenheit und Unternehmensziele essenziell.

Aufgrund der immer wechselnden Anforderungen hinsichtlich Funktion und Aufgabenbereich einer Umformanlage lassen sich die Zeitdauer zur Erstellung der notwendigen Baugruppen erfahrungsbasiert nicht genau abschätzen und es kommt zu Verzögerungen in den Terminplänen, die sich über unterschiedliche Abteilungen hinweg fortpflanzen und den fristgerechten Projektabschluss gefährden.

Ziel dieser Arbeit ist es, auf der Datenbasis der Nachkalkulation für unterschiedlichste Projekte ein Modell zur baugruppenbasierten Abschätzung der Bearbeitungszeit in einem KMU zu entwickeln und in die Prozessabläufe des Unternehmens zu implementieren. Das Modell dient als Grundlage zur Clusterung und standardisierten Kalkulation neuer Projekte. Die Daten zu den Durchlaufzeiten abgeschlossener Projekte werden hierzu bereitgestellt und mit den Baugruppen korreliert. Das System soll fortlaufend weiter lernen und neue Daten berücksichtigen.

Kenntnisse in der Datenaufnahme und -verarbeitung sowie im Bereich Maschinenkonstruktion und -fertigung sind zur Bearbeitung dieser Aufgabe hilfreich.

Die genaue Aufgabenstellung kann noch an die Bedürfnisse des Bearbeiters angepasst werden. Die Bearbeitung erfolgt unter Einhaltung der aktuell gültigen Corona-Bestimmungen. Die Betreuung erfolgt federführend durch den Lehrstuhl und in Kooperation mit der Profilmetall Engineering GmbH.

Betreuer: Norman Pytel

Kontakt seitens der Profilmetall Engineering GmbH:
Peter Sticht | Mail: peter.sticht@profilmetall.de 

Graphen können für die Darstellung und Speicherung von Daten aus unterschiedlichsten Systemen verwendet werden.
In der vorliegenden Arbeit soll das Potenzial untersucht werden, Daten aus Informationssystemen wie ERP-Software aktivitätspezifisch zu speichern und verarbeiten.
Dazu sollen Graphstrukturen und Graphdatenbanken vorgestellt und analysiert werden. Außerdem soll ein konzeptioneller Vorschlag erarbeitet werden, wie eine Implementierung erfolgen kann.
Auf dieser Basis soll ein Proof-of-Concept aufgebaut werden, um dieses an einem ausgewählten Prozess exemplarisch zu demonstrieren.

Folgende Kenntnisse von Vorteil aber nicht unbed. nötig: SQL / GraphQL, Einsteigerkenntnisse python, Process Mining / Eventlogs.

Betreuer: Fabian Gwinner

Blockchain oder ERP - Rückverfolgbarkeit von Produkten - Hype or Hope?

Die Rückverfolgung von Produkten durch zunehmend verteilte und komplexe Lieferketten stellt für viele Unternehmen eine große Herausforderung dar [1] . Die Blockchain wird als Technologie angesehen, die viele Probleme und Möglichkeiten verspricht, Zeit zu sparen, Kosten zu vermeiden, Risiken zu reduzieren und das Vertrauen zwischen den Teilnehmern zu erhöhen. Sie führt zu vielen Ansätzen, die eine Nachverfolgung von Waren in Lieferketten ermöglichen. In der aktuellen Forschung haben wir im "Blockchain-Hype" darauf hingeweisen, dass die vorgeschlagenen Lösungen teilweise redundant zu bestehenden Rückverfolgungslösungen in klassischen Informationssystemen wie ERP oder MES sind [2]. Im Kern der Thesis gilt es deshalb zu earbeiten, welche konkreten Defizite State-of-the-Art Rückverfolgbarkeitssysteme aus Sicht der Praxis aufweisen. Zusätzlich sollen verschiedene Herausforderungen in der Zusammenarbeit mit Kunden/Lieferanten ausgearbeitet werden, wenn es um die Rückverfolgung von Produkten über Unternehmensgrenzen hinaus geht. Sie führen hierzu verschiedene Experteninterviews mit Industrieunternehmen durch, um systematisch Problemcluster für Informationssysteme und Prozesse darzustellen. Die Thesis wird durch das Aufzeigen weiterer Anforderungen und Forschungsrichtungen abgerundet.

Voraussetzungen: Erweiterte Kenntnisse zu Informationssystemen oder Prozesskenntnisse zum Thema Rückverfolgung sind empfehlenswert. Eine Kooperation mit Industrieunternehmen aus der Lebensmittelbranche, Automobilindustrie, Maschinenbau, etc. sind möglich. 

[1] Wang, Yingli, Jeong Hugh Han, and Paul Beynon-Davies. "Understanding blockchain technology for future supply chains: a systematic literature review and research agenda." Supply Chain Management: An International Journal (2019).

[2] Pytel, Norman, Adrian Hofmann, and Axel Winkelmann. "Tracing Back the Value Stream with Colored Coins." (2020).

Betreuer: Norman Pytel

Daten sind das neue Öl für viele Unternehmen. Dank der anhaltenden Digitalisierung setzen immer mehr Unternehmen auf eine verteilte Vertriebsstrategie und sind dazu auf valide und für den jeweiligen Pointofsale + Markt (Vertriebskanal) angepasste angepasste Daten angewiesen. Gerade das Produktinformationsmanagement (kurz PIM) ist dabei das Bindeglied zwischen ERP und CRM und dem digitalen Schaufenster für den Kunden. In dieser Arbeit untersuchen Sie, wie sich aktuelle PIM-Lösungen unterscheiden lassen, wie sie sich von anderen Systemen (z. B. ERP, PLM oder PDM) abgrenzen lassen, welche Faktoren für den Nutzer wichtig sind und fassen Ihre Ergebnisse in einer Taxonomie zusammen. Zudem möchten wir auch hier einen Blick auf Künstliche Intelligenz als Technologietreiber werfen.

Diese Abschlussarbeit erstellen Sie in Kooperation mit der Noxum GmbH, ein erfahrenes und dynamisches Team, in Würzburg.

Betreuer: Julian Kolb