Die Breite des Browsers ist für eine optimale Anzeige zu schmal.
Gefördert mit Mitteln aus:
Ein gemeinsames Wissenschaftsförderprogramm des Niedersächsischen Ministeriums für Wissenschaft und Kultur und der VolkswagenStiftung.
Ausgezeichnet als:
Expand Collapse
Zukunftslabor
Agrar
Sprecher*innen-Einrichtung
Universität Osnabrück
8 geförderte Einrichtungen
3 Teilprojekte
34 assoziierte Partner
Expand Collapse
Zukunftslabor
Circular Economy
Sprecher*innen-Einrichtung
Technische Universität Clausthal
7 geförderte Einrichtungen
4 Teilprojekte
19 interessierte Partner
Expand Collapse
Zukunftslabor
Energie
Sprecher*innen-Einrichtung
Carl von Ossietzky Universität Oldenburg
7 geförderte Einrichtungen
2 Teilprojekte
28 assoziierte Partner
Expand Collapse
Zukunftslabor
Gesellschaft & Arbeit
Sprecher*innen-Einrichtung
Leibniz Universität Hannover
7 geförderte Einrichtungen
3 Teilprojekte
24 assoziierte Partner
Expand Collapse
Zukunftslabor
Gesundheit
Sprecher*innen-Einrichtung
Universitätsmedizin Göttingen
9 geförderte Einrichtungen
3 Teilprojekte
27 assoziierte Partner
Expand Collapse
Zukunftslabor
Mobilität
Sprecher*innen-Einrichtung
Technische Universität Braunschweig
8 geförderte Einrichtungen
4 Teilprojekte
17 assoziierte Partner
Expand Collapse
Zukunftslabor
Produktion
Sprecher*innen-Einrichtung
Leibniz Universität Hannover
6 geförderte Einrichtungen
5 Teilprojekte
35 assoziierte Partner
Expand Collapse
Zukunftslabor
Wasser
Sprecher*innen-Einrichtung
Carl von Ossietzky Universität Oldenburg
9 geförderte Einrichtungen
4 Teilprojekte
17 assoziierte Partner
Zentrum für
digitale Innovationen
Niedersachsen
Standort Niedersachsen
105 Wissenschaftler*innen
35 Hochschulen und Forschungseinrichtungen
125 Praxispartner
digital klar voraus.
Starkes Forschungsnetzwerk mit Zukunftspersprektive
Das Zentrum für digitale Innovationen Niedersachsen (ZDIN) ver­netzt die Spitzenreiter der niedersächsischen Digitalisie­rungsforschung, um die digitale Transformation des Landes aktiv zu gestalten. Das umfangreiche ZDIN­-Netzwerk aus Wissenschaft und Wirtschaft spannt sich über ganz Niedersachsen. Gemeinsam verzeichnen die Zukunftslabore (Agrar, Circular Economy, Energie, Gesellschaft & Arbeit, Gesundheit, Mobilität, Produktion und Wasser) und die Koordinierungsstelle beeindruckende Projekterfolge, die sie in den nächsten Jahren fortführen werden.
Die Wissenschaftler*innen, Hochschulen und Forschungseinrichtungen sowie Praxis­partnern des ZDIN entwickeln im Sinne einer Denk­fabrik zukunftsweisende Ideen und Lösungen. Die anwendungsorientierten Forschungstätigkeiten des Landes werden gebündelt und koordiniert mit einem gemeinsamen Ziel: den Digitalisierungs­standort Niedersachsen zu stärken.
In themenspezifischen Plattformen – den Zukunftslaboren Digitalisierung – kooperieren Wissenschaftler*innen aus Hochschulforschung und außeruniversitärer Forschung mit Partnern aus der Wirtschaft. Gemeinsam bearbeiten sie branchenspezifische Fragestellungen der Digitalisierung und transformieren die Ergebnisse zu anwendungsfähigen Lösun­gen. Inhaltlich sind die Zukunftslabore an den Bereichen aus­gerichtet, die für Niedersachsen gesellschaftlich, wirtschaft­lich und politisch besonders wichtig sind: Agrar, Circular Economy, Energie, Gesellschaft & Arbeit, Gesundheit, Mobilität, Produktion und Wasser. Kollaborative Projekte und produktive Partnerschaften sind für die Zukunftslabore von großer Bedeutung; sie ge­ben neue Impulse für die Forschung und stellen den Bezug zur Wirtschaft her.
Unsere Vision
Das ZDIN unterstützt interdisziplinäre und anwendungsoriente Forschung im Bereich der Digitalisierung in Niedersachsen.
Unsere Mission
Unsere Arbeit adressiert globale Zukunftsthemen in Schlüsselbranchen und treibt damit die nachhaltige Transformation des Landes voran.
Unser Leitbild
Zusammengehörigkeit
Wir sind die zentrale Forschungs-, Vernetzungs- und Kommunikationsplattform für die niedersächsische Digitalisierungsforschung. Damit bündeln wir die verteilten Digitalisierungskompetenzen aller beteiligten Partner für Niedersachsen. Wir verfolgen unsere Forschungsziele nicht einzeltechnologieorientiert unter natur- und technikwissenschaftlicher Perspektive, sondern betrachten diese in ihren ökonomischen, sozialen, rechtlichen und ethischen Auswirkungen. Nur durch dieses Zusammenspiel der Disziplinen entstehen für die Digitalisierung des Landes notwendige ganzheitliche Lösungen. So profitiert unser Netzwerk vom breiten Wissen heterogener Expert*innen.

Wertschätzung
Wir schätzen eine konstruktive und vertrauensvolle Zusammenarbeit auf Augenhöhe zwischen Wissenschaft, Wirtschaft, Politik und Gesellschaft. Diese beruht auf gegenseitigem Respekt, partnerschaftlichem Vertrauen, Transparenz, Integrität und einem gemeinsamen Selbstverständnis als Digitalisierungsforscher*innen im deutschen und internationalen Kontext.

Innovation
Digital. Klar. Voraus. Wir stehen für nachhaltige digitale Innovationen in Niedersachsen. Gemeinsam entwickeln unsere Partner aus Wissenschaft und Praxis Lösungsansätze für und mit der Gesellschaft und leisten damit einen aktiven Beitrag zum Innovationstransfer. Anwendungsorientierte Grundlagenforschung, Methodenoffenheit und höchste Qualität sind dabei unsere Leitsätze. Dabei ist uns wichtig, dass unsere Forschung positiv in alle Bereiche der Gesellschaft und zum Wohle künftiger Generationen wirkt. Dafür erleichtern wir den Zugang zu wissenschaftlichen Erkenntnissen und können gesellschaftliche Fragen auf dem neuesten Stand der Forschung diskutieren.

Verantwortung
Die Digitalisierung hat hohen Ressourcenbedarf, ist aber gleichzeitig ein wesentlicher Schlüssel auf dem Weg zur Klimaneutralität und Klimagerechtigkeit. Daher inspirieren und koordinieren wir Digitalisierungsforschung und Wissenstransfer von nachhaltigen Technologien. So leisten wir unseren Beitrag für einen verantwortungsvollen Umgang mit Digitalisierung sowie deren Auswirkung auf unsere Umwelt.
Strukturelle Organe
Die Vielseitigkeit der niedersächsischen Digitalisierungsforschung birgt enorme Potenziale in sich, die vereint umso größere Erfolge verzeichnen können. In der Koordinierungsstelle des ZDIN laufen viele Fäden zusammen. Sie bündelt und koordiniert die Forschungs- und Entwicklungsarbeiten verschiedenster Akteure mit einem gemeinsamen Ziel: den Digitalisierungsstandort Niedersachsen zu stärken. Es ist die Aufgabe des Direktoriums, die zahlreichen Forschungsaktivitäten strategisch auszurichten und somit die digitale Transformation des Landes zielgerichtet voranzutreiben. Als beratendes Organ unterstützt der Beirat das Direktorium bei der strategischen Ausrichtung des ZDIN. Hochkarätige Vertreter*innen aus Politik, Wissenschaft und Wirtschaft bilden den Beirat und geben Impulse für die niedersächsische Digitalisierungsforschung.
Transfergedanke
Der Wissenstransfer zwischen Forschung und Wirtschaft ist von entscheidender Bedeutung für die Innovationskraft und Wettbewerbsfähigkeit eines Landes. Durch die enge Zusammenarbeit von Forschungseinrichtungen und Unternehmen können neue Erkenntnisse und Technologien schneller in marktfähige Produkte und Dienstleistungen umgesetzt werden. Dies führt zu einer Steigerung der Wirtschaftsleistung und schafft neue Arbeitsplätze. Der Fokus des ZDIN liegt auf der anwendungsorientierten Digitalisierungsforschung.

Die Transferprojekte des ZDIN stärken den Innovationstransfer in Niedersachsen: Durch ihren engen Austausch untersuchen die beteiligten Wissenschaftler*innen und Praxispartner branchenübergreifende Digitalisierungsthemen und stärken zugleich den Wissenstransfer zwischen Forschung und Wirtschaft. Die Transferprojekte laufen zwölf bis achtzehn Monate und werden aus Mitteln von zukunft.niedersachsen gefördert, einem gemeinsamen Wissenschaftsförderprogramm des Niedersächsischen Ministerium für Wissenschaft und Kultur sowie der VolkswagenStiftung. 2025 startet die erste Förderrunde der Transferprojekte, weitere sind für die kommenden Jahre geplant.
Veranstaltungen
In den unterschiedlichsten ZDIN-Veranstaltungsformaten zu vielfältigen Themen rund um die Digitalisierung in Niedersachsen kommen Akteure und Interessierte aus Wissenschaft, Wirtschaft und Gesellschaft zusammen, um sich zu informieren, auszutauschen und zu vernetzen.

Seit Anfang des Jahres 2024 arbeitet das ZDIN verstärkt mit der Niedersachsen.next Digitalagentur zusammen, um den Transfer zwischen Wissenschaft und Wirtschaft zu stärken. Mit gemeinsamen Formaten wird der Austausch von Know-how und die Vernetzung von Akteur*innen aus Wissenschaft und Wirtschaft gefördert und die Entwicklung neuer Ideen und Technologien unterstützt. Durch die Zusammenarbeit können Kompetenzen gebündelt und Synergien genutzt werden, um die digitale Transformation Niedersachsens gemeinsam voranzutreiben und zu gestalten.
Zukunftslabor
Agrar
Sprecher*innen-Einrichtung
Universität Osnabrück
8 geförderte Einrichtungen
3 Teilprojekte
34 assoziierte Partner
01.10.2020 - 30.09.2025
vernetzt Mehrwert ernten
Informationstechnik ist bereits heute ein unverzichtbarer Teil moderner Maschinen und Prozesse in der Agrar- und Ernährungswirtschaft. Die Digitalisierung der Landwirtschaft, verstanden als umfassende Vernetzung und Integration von Maschinen, Prozessen und Akteuren im landwirtschaftlichen Wertschöpfungsnetz, schreitet voran. Bestehende Strukturen, Anwendungsroutinen und Geschäftsmodelle sowie deren wirtschaftliches, soziales und geographisches Umfeld werden sich massiv verändern. Vernetzung stärkt das Informationspotenzial von Produzierenden und Konsumierenden im Wertschöpfungsnetz erheblich. Sie erlaubt gleichzeitig, den gestiegenen Bedarf nach Information und Transparenz durch Gesellschaft und Politik zu befriedigen. Dies stellt höhere Anforderungen an die Datendurchlässigkeit und Transparenz; in einem Marktumfeld muss Transparenz aber selektiv sein, um akzeptabel zu sein. Akteure müssen ihre Datenhoheit behalten und Informationen zielgruppenspezifisch preisgeben können.
Zentrale Aspekte des Zukunftslabor Agrar sind Fragen des Datenmanagements und der Dateninterpretation, der Automatisierung und Autonomie in der Agrartechnik sowie nach Auswirkungen der Digitalisierung auf das Arbeitsumfeld, die Ausbildungsinhalte und die rechtlichen Rahmenbedingungen in der Agrar- und Ernährungswirtschaft. Weiter wird der Beitrag der Digitalisierung für die Nachhaltigkeit landwirtschaftlicher Prozesse analysiert.
Teilprojekte
in Arbeit
Analyse der Datenaufzeichnungen und Datenflüsse in der Landwirtschaft
Das Teilprojekt befasst sich mit der Problematik von heterogenen, proprietären Datenmanagement-Lösungen in der Landwirtschaft, die keine durchgängigen Standards haben. Daten aus innerbetrieblichen Sensoren werden für nachhaltigen Betriebsoptimierung und die gesetzliche Dokumentation genutzt. Inkompatible Datenmanagement-Lösungen erschweren interne und externe Datenflüsse jedoch. Die Optimierung dieser und die Entwicklung durchgängiger Standards sind somit wichtige Aufgaben in Forschung und Landwirtschaft.
Das Projekt zielt darauf ab, den aktuellen Stand zu ermitteln, um anhand dessen Datenlücken zu identifizieren und diese zu beheben. Zudem soll eine geschützte Transparenz aufgebaut werden. In der letzten Phase werden Anwendungsfälle und konkrete Ideen abgeleitet.
in Arbeit
Praxisorientierte Autonomisierung landwirtschaftlicher Prozesse
Das Teilprojekt beschäftigt sich mit der Integration autonomer Systeme in der Landwirtschaft, die effizienter, ökonomischer und ökologischer als traditionelle Maschinen sind. Während die digitale Transformation in Teilbereichen der Landwirtschaft ein Vorreiter ist, fehlen für eine ganzheitliche Transformation wichtige Bausteine in der Konfiguration der Arbeitsprozesse, wobei die Kooperation von Mensch und digitalem System eine zentrale Rolle spielt. Die adaptive Autonomie umschließt eine Vielzahl von Anwendungsfällen, welche vielfältige Daten aus allen Prozessen der gesamten Verfahrenskette benötigen.
Die Forschenden dieses Teilprojekts erstellen unter anderem konkrete Konzepte zur adaptiven Autonomie und realisieren anhand dieser anschauliche Anwendungsfälle. Zudem untersuchen sie neue Produktionssysteme mit kleinräumigen Teilflächen („Spot Farming“).
in Arbeit
Nachhaltigkeit der Digitalisierung in der niedersächsischen Landwirtschaft
In diesem Teilprojekt werden Nachhaltigkeitsaspekte der Digitalisierung im Agrarbereich beleuchtet. Besonderer Fokus wird dabei auf die drei Säulen der Nachhaltigkeit gelegt: ökonomische, ökologische und soziale Nachhaltigkeit. Diese werden gemeinsam und praxisorientiert betrachtet, um die Beteiligten von dem breiten Einsatz digitaler Technologien zu überzeugen. Eine der zentralen Zielsetzungen des Zukunftslabor Agrar ist es, plausible Modelle der umfassenden Nachhaltigkeit zu forcieren. Digitale Landwirtschaft soll als fortschrittliche, sich lohnende und gesamtnachhaltige Alternative gesehen werden, und damit soll ein Beitrag zur Transformation zu nachhaltigen Agrar- und Ernährungssystemen geleistet werden.
Teilprojekt
Analyse der Datenaufzeichnungen und Datenflüsse in der Landwirtschaft
Status: in Arbeit
Das Teilprojekt befasst sich mit der Problematik von heterogenen, proprietären Datenmanagement-Lösungen in der Landwirtschaft, die keine durchgängigen Standards haben. Daten aus innerbetrieblichen Sensoren werden für nachhaltigen Betriebsoptimierung und die gesetzliche Dokumentation genutzt. Inkompatible Datenmanagement-Lösungen erschweren interne und externe Datenflüsse jedoch. Die Optimierung dieser und die Entwicklung durchgängiger Standards sind somit wichtige Aufgaben in Forschung und Landwirtschaft.
Das Projekt zielt darauf ab, den aktuellen Stand zu ermitteln, um anhand dessen Datenlücken zu identifizieren und diese zu beheben. Zudem soll eine geschützte Transparenz aufgebaut werden. In der letzten Phase werden Anwendungsfälle und konkrete Ideen abgeleitet.
Ansprechperson
Prof. Dr. Jantje Halberstadt
Universität Vechta
Institut für Strukturforschung und Planung in agrarischen Intensivgebieten
Die Automatisierung der Datengewinnung und des Datentransfers ist in der Milchviehwirtschaft am höchsten. In der Schweinemast werden 60 % der Daten noch manuell (per Hand) eingegeben.
Die Informationssuchkosten für gesetzliche Änderungen und Neuerungen sind höher als der Zeitaufwand für die Bearbeitung von behördlichen Formularen: 60 % der aufgewendeten Zeiten sind Suchzeiten.
Agrar-Datenräume bieten das Potenzial für mehr Interoperabilität, die Automatisierung von Datenflüssen und eine geschützte Transparenz.
Der Datenaustausch stößt vielfach an Grenzen, wo es keine Standardisierung von Datenformaten gibt bzw. keine herstellerunabhängigen Normen zum Austausch von Daten (wie bei ISOBUS oder die ISO-Norm 11783). Rechtliche Rahmenbedingungen, die die Hersteller, Softwareanbieter und Cloudbetreiber stärker in die Pflicht nehmen (z.B. wie die europaweite Regelung für einheitliche Schnittstellen USB-C beim Ladekabel vom Handy), wären daher wünschenswert (vgl. EU-Data Act).
Gesetze
Forschungsinteresse:
  • Welche Daten müssen Landwirt*innen erfassen?
Vorgehen:
  • Analyse von Gesetzen und Verordnungen auf Bundes-, Landes- und Europaebene
Ergebnisse/Erkenntnisse:
  • Für einen Landwirtschaftsbetrieb mit Ackerbau und Nutztierhaltung sind mehr als 100 Gesetze und Verordnungen relevant, die der Betrieb zu beachten hat.
  • Die Wissenschaftler*innen des Zukunftslabor Agrar haben eine umfangreiche Datenbank aufgebaut, die alle relevanten Gesetze und Verordnungen für deutsche Landwirt*innen im Ackerbau und in der Nutztierhaltung übersichtlich darstellt. Die Datenbank beinhaltet auch die gesetzlich vorgeschriebenen Datenflüsse zwischen Landwirtschaft und Stakeholdern.
  • Aus der Datenbank kann perspektivisch eine Online-Plattform entstehen, die verschiedene Zielgruppen zur Datenübermittlung und Datenaufbewahrung nutzen können.
Datenerhebung
Forschungsinteresse:
  • Wie erfassen Landwirt*innen in den Wertschöpfungsketten Milchvieh, Masthuhn und Mastschwein ihre Daten?
Vorgehen:
  • Quantitative Online-Umfrage, an der rund 180 deutsche landwirtschaftliche Betriebe aus der Hühner- und Schweinemast sowie aus der Milchviehhaltung teilnahmen
Ergebnisse/Erkenntnisse:
  • Die Datenerfassung in der Wertschöpfungsketten Milchvieh, Masthuhn und Mastschwein erfolgt überwiegend manuell (40 - 60 %).
  • Der Automatisierungsgrad der Datenerfassung hängt mit verschiedenen Faktoren zusammen: Tendenziell ist er bei jüngeren Betriebsleitungen höher als bei älteren. Berufserfahrung und höheres Bildungsniveau wirken sich positiv auf den Automatisierungsgrad aus. Zudem verfügen größere Unternehmen in der Regel über einen höheren Automatisierungsgrad, ebenso wie Unternehmen, die sich auf einen der drei Wirtschaftszweige (Huhn, Schwein, Milchvieh) spezialisiert haben.
  • Die Informationsbeschaffung nimmt den größten Anteil der Zeit ein, der höher ist als der zeitliche Gesamtaufwand für die Einreichung von Anträgen und Anzeigen sowie die Erstellung der Aufzeichnungen selbst. Der hohe Zeitaufwand der Informationsbeschaffung entsteht dadurch, dass eine detaillierte Auflistung der gesetzlichen Pflichten zum Datenaustausch fehlt. Oft ist die Beratung durch Dritte erforderlich. Die Mehrheit der Befragten aller drei Wirtschaftszeige (Huhn, Schwein, Milchvieh) übermittelt die Daten selbst an staatliche Stellen und beauftragt keine Dritte damit.
Datenflüsse
Forschungsinteresse:
  • An welche Stakeholder müssen Landwirt*innen ihre Daten weiterleiten?
Vorgehen:
  • Quantitative Online-Umfrage (s. o.)
Ergebnisse/Erkenntnisse:
  • In allen drei Wertschöpfungsketten sind staatliche Stellen, Bestandstierärzt*innen und Einrichtungen zur Qualitätssicherung die relevantesten Stakeholder, mit denen Daten ausgetauscht werden. In der Milchviehhaltung kommen spezielle Einrichtungen zum Milchqualitätsmanagement dazu.
  • Bei der Tierhaltung werden viele gleiche Daten erhoben (z. B. Futterverbrauch, Tieraktivität, Umweltdaten des Stalles). Diese weichen stark von den Datenarten ab, die im Pflanzenbau anfallen (z. B. Bodenanalysen, Daten zur Aussaat, Niederschläge).
  • Die Datenübertragung erfolgt am häufigsten in Form von Vor-Ort-Inspektionen durch Behörden. Zudem verschicken Landwirt*innen Daten oft analog per Post, da nicht in allen staatlichen Stellen Webschnittstellen vorhanden sind.
  • Die Kosten für den administrativen Aufwand beinhalten Suchkosten (Erhebung von Informationen im Hinblick auf Meldepflichten und Datenaustausch mit staatlichen Stellen) sowie Überwachungs- und Umsetzungskosten (Erstellung und Einreichung von Berichten, Anzeigen, Aufzeichnungen etc. sowie Teilnahme an staatlichen Vor-Ort-Inspektionen)
Handlungsbedarfe hinsichtlich der Digitalisierung
Forschungsinteresse:
  • Welche Hindernisse gibt es derzeit für ein digitales Datenmanagement in der Landwirtschaft und welche Wünsche haben die Landwirt*innen für die weitere Digitalisierung?
Vorgehen:
  • Quantitative Online-Umfrage (s. o.)
Ergebnisse/Erkenntnisse:
  • Schnittstellenprobleme: Zu den Schnittstellenproblemen gehören „analoge Absurditäten“ (z. B. PDF wird ausgedruckt und per Post verschickt), Medienbrüche (z. B. im Stall noch handschriftliche Notizen, im Büro vermehrte Nutzung von Excel-Dateien und ersten Management-Tools) sowie doppelte Datenerhebung in verschiedenen Softwaresystemen aufgrund mangelnder Kompatibilität.
  • Akzeptanzhemmnisse: Die Betriebsleiter*innen zögern, digitale Technologien einzuführen. Gründe sind u. a. geringe Investitionskapazitäten, Ungewissheit hinsichtlich Ressourceneinsparung und Produktivitätssteigerungen sowie auch das Nicht-Vorhandensein externer Angestellter, die hiervon profitieren könnten.
  • Datenhoheit: Landwirt*innen befürchten eine „gläserne“ Überwachungskultur zu ihrem Nachteil, insbesondere wenn es darum geht, Subventionen vom Staat bzw. von der Europäischen Union zu erhalten. Sie sind besorgt, dass sie immer mehr sensible Informationen offenlegen müssen, um Subventionen zu erhalten. In diesem Zusammenhang wünschen sie sich mehr Transparenz bei staatlichen Instanzen und konkrete Ansprechpersonen.
  • Für die weitere Digitalisierung wünschen sich die Landwirt*innen außerdem:
    • mehr offene Standards und eine höhere Kompatibilität,
    • weniger doppelte Datenerhebungen („Once-Only- Prinzip“),
    • mehr Datenhoheit oder Datensouveränität für die Landwirte,
    • eine höhere Datendurchlässigkeit,
    • eine bessere Datenschutzkonformität,
    • eine bessere Integration der Stakeholder im Datenfluss und
    • eine neutrale Beratungsstelle zur Digitalisierung für Landwirt*innen.
Teilprojekt
Praxisorientierte Autonomisierung landwirtschaftlicher Prozesse
Status: in Arbeit
Das Teilprojekt beschäftigt sich mit der Integration autonomer Systeme in der Landwirtschaft, die effizienter, ökonomischer und ökologischer als traditionelle Maschinen sind. Während die digitale Transformation in Teilbereichen der Landwirtschaft ein Vorreiter ist, fehlen für eine ganzheitliche Transformation wichtige Bausteine in der Konfiguration der Arbeitsprozesse, wobei die Kooperation von Mensch und digitalem System eine zentrale Rolle spielt. Die adaptive Autonomie umschließt eine Vielzahl von Anwendungsfällen, welche vielfältige Daten aus allen Prozessen der gesamten Verfahrenskette benötigen.
Die Forschenden dieses Teilprojekts erstellen unter anderem konkrete Konzepte zur adaptiven Autonomie und realisieren anhand dieser anschauliche Anwendungsfälle. Zudem untersuchen sie neue Produktionssysteme mit kleinräumigen Teilflächen („Spot Farming“).
Ansprechperson
Prof. Dr. Stefan Stiene
Hochschule Osnabrück
Fakultät Ingenieurwissenschaften und Informatik
AgriTechnica 2023 Exponat: Variables Einzelkornsäaggregat für Gleichstandssaat als Demonstrator für den Spot-Farming-Ansatz
Demonstrator im Agro-Technicum Osnabrück zum autonomen Messen von Bodenparametern (BoniRob mit Penetrometer) und der parallelen Visualisierung eines Digitalen Zwillings
Veröffentlichung und Präsentation „Navigation anhand einer semantischen Karte (digital twin)“
EuroTier 2024: Demonstrator für datenbasierte, nachhaltige Tierhaltung „Roadmap Poultry - Digitale Controlling Navigation“
Veröffentlichung und Präsentation der objektiven, nicht-invasiven Stressmessung bei Masthühnern
Autonome Roboter
Forschungsinteresse:
  • Welche Voraussetzungen müssen erfüllt sein, damit autonome Roboter in der landwirtschaftlichen Tierhaltung und im Pflanzenbau eingesetzt werden können?
Vorgehen:
  • Die Wissenschaftler*innen statteten Roboterplattformen mit Sensorik und Satellitennavigationssystemen aus, um die Navigation zu testen und die Erfüllung der Aufgabe zu ermöglichen (z. B. Futter im Stall ausbringen, Beikraut auf dem Feld beseitigen).
  • Um Abläufe mit autonomen Verfahren abbilden und testen zu können, erstellten die Wissenschaftler*innen einen digitalen Zwilling des Experimentierfeldes „Agro-Nordwest“, mit dem das Zukunftslabor zusammenarbeitete. Zudem erstellen sie ein ganzheitliches Modell des Experimentierfeldes - und hofes.
  • Zudem beschäftigten sich die Wissenschaftler*innen in einer Literaturstudie mit der Langzeitautonomie der landwirtschaftlich genutzten Roboter. Mit Langzeitautonomie ist gemeint, dass Roboter eine langfristige Aufgabe alleine durchführen können, ohne vom Menschen begleitet zu werden. Anschließend führten die Wissenschaftler*innen Gespräche mit Robotik-Expert*innen, um die Probleme der Robotik in der Praxis zu ermitteln.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen modifizierten verschiedene Roboterplattformen („VertiQ“ zur Futtermischung, „BoniRob“ zum Messen von Bodenparametern, ) und testeten sie auf dem Experimentierfeld „Agro-Nordwest“ unter realen Bedingungen. Mithilfe des ganzheitlichen Modells können sie verschiedene Forschungsaspekte simulieren (z. B. Fahrt des Roboters auf dem Feld sowie zwischen Hof und Feld, Ansteuerung gezielter Punkte zur Bodenprobeentnahme oder Bodenfestigkeitsmessung, Aussaat von Mais).
  • Zudem erarbeiteten die Wissenschaftler*innen gemeinsam mit dem TÜV und der Berufsgenossenschaft ein Sicherheitskonzept, um Personen im Umfeld des Futtermischers zu schützen.
  • Langzeitautonomie wird in der Literatur unterschiedlich definiert. Aus den Expert*innengespräche ging hervor, dass Langzeitautonomie abhängig vom Auftrag bewertet werden muss (z. B. die Aussaat, Pflege oder Ernte von Pflanzen). Für das mit dem Auftrag verbundene Zeitintervall muss der Roboter autonom arbeiten können (Energie aufladen, Werkzeuge reinigen, Daten in einen Speicher hochladen, etc.). Die Landwirt*innen müssen nur die übliche Wartung des Roboters übernehmen.
Spot Farming
Forschungsinteresse:
  • Auf welcher Datengrundlage können die Spots (kleinteilige, homogene Bereiche des Ackers) beim Sport Farming eingeteilt werden?
Vorgehen:
  • Die Wissenschaftler*innen prüften Bodenkarten, digitale Geländemodelle, Ertragskarten, aus Satellitenbildern generierte Indizes sowie Erosionsdaten für die Generierung der Spots.
  • Zudem untersuchten sie unterschiedliche Stufen der Datenverfügbarkeit und ihre Auswirkungen auf die Ergebnisse der Spot Generierung.
  • Darüber hinaus untersuchten sie im Rahmen einer Simulation die Einflüsse anliegender Spots z. B. auf die Verbreitung von Begleitkräutern, um in anschließenden Simulationen Robotersysteme zur Unkrautbekämpfung bewerten zu können.
  • Um zu prüfen, ob die Kartendaten der Realität auf dem Hof entsprechen, führten sie eine Befragung bei Landwirt*innen durch.
Ergebnisse/Erkenntnisse:
  • Eine Kombination aus Bodenschätzungskarten, Bodenkarten, digitalen Geländemodelle und Run-Off-Daten stellen eine gute Grundlage zur Einteilung der Spots dar. Bodenschätzungskarten stellen nützliche Informationen über die Bodenart bereit, Bodenkarten geben Aufschluss über den Bodentyp, digitale Geländemodell liefern ein Relief der Landschaft im zehn-Meter-Raster und Run-Off-Daten informieren über Oberflächenabflussdaten.
  • Die Datengrundlage stimmte gut bis sehr gut mit den Bedingungen vor Ort überein. Teilweise waren die Karten nicht ausreichend hochauflösend (z. B. bei Senkungen auf dem Feld, wo sich Wasser sammeln kann), aber die Datengrundlage war dennoch gut geeignet, um die Bedingungen auf dem Feld real darzustellen.
Tierwohl
Forschungsinteresse:
  • Inwiefern können digitale Technologien das Tierwohl in der Nutztierhaltung, am Beispiel der Masthühnerhaltung, verbessern?
  • Auf welche Weise kann das Stresslevel der Tiere nicht-invasiv (also ohne Blutabnahme) gemessen werden?
Vorgehen:
  • Die Wissenschaftler*innen installierten Sensoren und Kameras sowie u.a. erweiterte Lichttechnik in einem Forschungsstall, in dem Masthühner gehalten werden. Mithilfe dieser digitalen Technologien erfassten sie Parameter, die Aufschluss über die Haltungsumgebung (z. B. Stallklima, Beleuchtung) und das Tierverhalten (z.B. Futter- und Wasserverbrauch, Meidung von einzelnen Stallbereichen) geben.
  • Das übergeordnete Ziel der Wissenschaftler*innen ist es, mithilfe digitaler Technologien Frühwarnsysteme für Landwirt*innen zu etablieren. Werden Landwirt*innen sehr früh über ein verändertes Verhalten der Tiere oder auffällige Werte im Stall informiert, können sie rechtzeitig einschreiten und Gegenmaßnahmen ergreifen. Das dient sowohl dem Schutz der Tiere als auch einem erfolgreichen Mastbetrieb.
  • Die Wissenschaftler*innen sammelten Kotproben, die sie im Labor auf Abbauprodukte von Stresshormonen (Glucocorticoide) untersuchten. Stresshormone werden unter anderem ausgeschüttet, um den Energiestoffwechsel anzuregen und damit dem Körper mehr Energie zur Verfügung zu stellen. Wenn die Stresssituation vorüber ist, werden die Glucocorticoide abgebaut und über Urin und Kot ausgeschieden. Eine Untersuchung des Kots kann also etwas über den Stresszustand des Tieres verraten. Die Wissenschaftler*innen sammelten Kotproben vor und nach Stresssituationen ein, um die Konzentration der Glucocorticoid-Abbauprodukte vergleichen zu können. Als Ereignis wurde u.a. der Ausstallungszeitpunkt gewählt, welches u.a. die Nüchterung, das Greifen und Verladen von Tieren beinhaltet.
Ergebnisse/Erkenntnisse:
  • Digitale Technologien:
    • Die eingesetzten Technologien stammen von unterschiedlichen Herstellern, die jeweils eigene Infrastrukturen besitzen. Daher ist es nur unter erheblichem Aufwand möglich, die unterschiedlichen Technologien in einem System (bspw. Farm Management System) zu verbinden.
    • Einige der getesteten Geräte funktionierten nicht stabil, d. h. die Verbindung zum Server brach teilweise ab, sodass die Daten nicht übertragen werden konnten.
    • Die Lichtsysteme verfügen teilweise über ein breites Spektrum an Einstellungsmöglichkeiten. Die Einstellungen sollten mit Bedacht ausgewählt werden, wofür Kenntnisse der Tierhalter*innen über den Sehsinn des Geflügels notwendig sind. Denn neben den rechtlichen Anforderungen an die Beleuchtung von Geflügelställen müssen auch die Ansprüche der Tiere berücksichtigt werden.
  • Messung des Stresslevels:
    • In Verbindung mit den Aktivitäten um das Ausstallen wie Nüchterung, Greifen und Verladen konnte eine moderat bis mäßig erhöhte Stressantwort der Tiere über die Messung der Stresshormonmetaboliten im Kot nachgewiesen werden.
    • Das langfristige Ziel der Wissenschaftler*innen ist es, ein Frühwarnsystem aufzubauen. Wenn ein erhöhtes Stresslevel bei den Tieren festgestellt wird, können Managementfaktoren verändert werden, um das Tierwohl zu steigern. Zu diesen Managementfaktoren könnten z. B. die Beleuchtung im Stall sowie die Fütterungsintervalle zählen.
Digitaler Zwilling
Forschungsinteresse:
  • Welches Potenzial hat ein digitaler Zwilling für das Risikomanagement in der Nutzgeflügelhaltung und welche Voraussetzungen müssen erfüllt sein, um einen digitalen Zwilling einzusetzen?
Vorgehen:
  • Im Rahmen einer Literaturanalyse ermittelten die Wissenschaftler*innen Möglichkeiten für den Einsatz eines digitalen Zwillings in der Nutztierhaltung
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen fanden heraus, dass ein digitaler Zwilling viele Faktoren abbilden könnte, die sich auf das Tierwohl auswirken (Stall, Technik, Herde, Wetter etc.). Der digitale Zwilling könnte dabei unterstützen, kritische Zustände im Stall früher zu erkennen und somit auf Probleme hinweisen. Sein Einsatz wäre also eine weitere Möglichkeit, um das Tierwohl zu verbessern.
Teilprojekt
Nachhaltigkeit der Digitalisierung in der niedersächsischen Landwirtschaft
Status: in Arbeit
In diesem Teilprojekt werden Nachhaltigkeitsaspekte der Digitalisierung im Agrarbereich beleuchtet. Besonderer Fokus wird dabei auf die drei Säulen der Nachhaltigkeit gelegt: ökonomische, ökologische und soziale Nachhaltigkeit. Diese werden gemeinsam und praxisorientiert betrachtet, um die Beteiligten von dem breiten Einsatz digitaler Technologien zu überzeugen. Eine der zentralen Zielsetzungen des Zukunftslabor Agrar ist es, plausible Modelle der umfassenden Nachhaltigkeit zu forcieren. Digitale Landwirtschaft soll als fortschrittliche, sich lohnende und gesamtnachhaltige Alternative gesehen werden, und damit soll ein Beitrag zur Transformation zu nachhaltigen Agrar- und Ernährungssystemen geleistet werden.
Ansprechperson
Prof. Dr. Silke Hüttel
Georg-August-Universität Göttingen
Department für Agrarökonomie und Rurale Entwicklung
Ökologische Nachhaltigkeitsgewinne durch digitale Landbewirtschaftung sind messbar und entstehen insbesondere durch einen effizienteren Ressourceneinsatz im Bereich synthetischer Inputs; weiteres Potenzial liegt in einer nachhaltigen Landschaftsgestaltung.
Die Erfassung sozialer Nachhaltigkeit bleibt eine Herausforderung.
Akzeptanz von digitalen Technologien kann u.a. durch Demonstration und Information gestärkt und gefördert werden.
Lebenszyklusbasierte Nachhaltigkeitsbewertung digitaler Technologien in der Landwirtschaft
Forschungsinteresse:
  • Wie wirkt sich der Einsatz digitaler Technologien auf die ökonomische, ökologische und soziale Nachhaltigkeit der Landwirtschaft aus?
  • Wie kann eine nachhaltige Akzeptanz digitaler Technologien in der Agrar- und Ernährungsbranche erreicht werden, und welche Rolle spielen dabei mitarbeitergetriebene Innovationen?
Vorgehen:
  • Im Rahmen einer umfangreichen systematischen Literaturanalyse wurde in diesem Teilprojekt zunächst geprüft, wie Nachhaltigkeitsgewinne digitaler Technologien im Agrar- und Ernährungsbereich bewertet werden. In einem systematischen Verfahren identifizierten sie unter mehreren tausend Treffern der Suchmaschinen 603 möglicherweise relevante Studien. Diese sortierten die Wissenschaftler*innen in mehreren Schritten aus, bis schließlich ca. 50 Artikel vorlagen, die allen Kriterien entsprachen (u. a. explizit analysierter Zusammenhang zwischen Digitalisierung im Agrar- und Ernährungsbereich und Nachhaltigkeit, wissenschaftliche Analyse).
  • Zur Betrachtung der nachhaltigen Akzeptanz von Digitalisierung lag zunächst der Schwerpunkt auf der Wertschöpfungskette „Zuckerrübe“, da der Einsatz digitaler Technologien in der Primärproduktion durch Feldrobotik zur Beikrautregulierung bereits praxisreif ist und schon eingesetzt wird.
  • In einem Folgeschritt wird die Einstellung zu Digitalisierung und Nachhaltigkeit sowie das Innovationsverhalten für Stichproben der gesamten Agrar- und Ernährungsbranche untersucht. Dabei werden Mitarbeitende aus allen Bereichen zur unternehmerischen Orientierung, zum strategisches Erneuerungsverhalten des Unternehmens, des persönlichen Nachhaltigkeitsverhalten sowie zum Umgang mit Digitalisierung befragt. Ziel dabei ist es, das Verständnis der Faktoren zu vertiefen, die mitarbeitergetriebene Innovationen vorantreiben und aufzuzeigen, wie Organisationen der Agrarwirtschaft eine Innovationskultur fördern können, um den wachsenden Anforderungen an Nachhaltigkeit und Digitalisierung gerecht zu werden.
Ergebnisse/Erkenntnisse:
  • Erste Ergebnisse zeigen, dass etwa die Hälfte der untersuchten Studien verwendet einen lebenszyklusbasierten Ansatz zur Bewertung der (ökologischen) Nachhaltigkeit, wobei sich die Studien insbesondere auf die ökologische Nachhaltigkeit konzentrieren. Ökologische Nachhaltigkeitsgewinne werden überwiegend durch einen gezielteren Einsatz von z. B. synthetischen Düngern und Pflanzenschutzmitteln in der Landwirtschaft erreicht. Hingegen betrachten wenige Studien die ökonomische Nachhaltigkeit, und die Bewertung der sozialen Komponente von Nachhaltigkeit ist unterrepräsentiert. Bei der sozialen Nachhaltigkeit ist besonders herausfordernd, dass sie bislang weder einheitlich definiert ist noch standardisiert gemessen werden kann. Größere Herausforderungen werden in der Validität und Replizierbarkeit der Ergebnisse gesehen. Die meisten Studien verwenden Fallbeispiele mit sehr selektiven Stichproben. Mehrheitlich ist keine differenzierte kausalanalytische Strategie in den Aufsätzen publiziert/präsentiert.
  • Weitere Erkenntnisse aus der Literaturanalyse: Die Messung des Nachhaltigkeitsbeitrages digitaler Technologien ist insgesamt sehr herausfordernd, da viele neue digitale Technologien noch nicht weit verbreitet sind und demnach Stichproben nicht erhebbar sind. Daher liegen erst wenige Beobachtungsdaten vor, die für fundierte Bewertungen jedoch in großem Umfang notwendig sind.
Nutzungsbereitschaft autonomer Feldroboter
Forschungsinteresse:
  • Welche Faktoren bewegen Landwirt*innen dazu, autonome Feldroboter zur Kontrolle von Beikraut (umgangssprachlich „Unkraut“ genannt) im Zuckerrübenanbau einzusetzen?
Vorgehen:
  • Zunächst führten die Wissenschaftler*innen Gespräche mit zehn Expert*innen aus dem Zuckerrübenanbau (Landwirt*innen, Vertreter*innen von Anbauverbänden) sowie aus der Wissenschaft, um sich Hintergrundwissen zum Zuckerrübenanbau und zum Stand der Technik anzueignen.
  • Daraufhin formulierten sie die Fragen für eine Online-Umfrage, die sie an nord- und westdeutschte Landwirt*innen aus dem konventionellen Zuckerrüben konventionell verschickten. Die Umfrage wurde gezielt an Landwirt*innen aus dem konventionellen Zuckerrübenanbau verschickt, da dort vornehmlich synthetische Pflanzenschutzmittel zur Beikrautkontrolle eingesetzt werden. Rund 350 Landwirt*innen nahmen an der Befragung teil.
Ergebnisse/Erkenntnisse:
  • Landwirt*innen können sich insbesondere dann vorstellen, autonome Roboter einzusetzen, wenn diese effektiv sind. Das bedeutet, dass die Roboter zuverlässig funktionieren und nicht zu viel zusätzliche Arbeit für den Menschen verursachen.
  • Zudem wollen Landwirt*innen die Kontrolle über ihre Arbeitsprozesse behalten.
  • Darüber hinaus ergab die Umfrage, dass Landwirt*innen dem Einsatz von Robotik eher zurückhaltend gegenüberstehen, wenn sie mit ihrer aktuellen Verfahrensweise gut zurechtkommen.
  • Allerdings können sich Zuspruch und positive Signale aus der Bevölkerung hinsichtlich der Nutzung von Robotik positiv auf die Einstellung der Landwirt*innen auswirken.
Zukunftslabor
Circular Economy
Sprecher*innen-Einrichtung
Technische Universität Clausthal
7 geförderte Einrichtungen
4 Teilprojekte
19 interessierte Partner
04.06.2024 - 28.02.2029
digitalisierte Kreisläufe gestalten
Angesicht des steigenden globalen Bedarfs an Rohstoffen und der Endlichkeit natürlicher Ressourcen steht die industrielle Produktion vor der Aufgabe, innovative Lösungen für die Nutzung von Materialien zu finden. Die Transformation zu einer ressourcen- und umweltschonenden Wirtschaft ist essenziell, um die Emissionen von Treibhausgasen zu reduzieren und das Ökosystem zu schützen. Die Digitalisierung fungiert entlang aller Kreisläufe als Innovationstreiberin. Sie steigert die Transparenz über Stoffströme, Komponentenzustände und Produktnutzungsinformationen und ermöglicht damit eine gezielte Wieder- und Weiterverwendung. Gleichzeitig werden neue digitale Service- und Geschäftsmodelle für eine nachhaltigere Produktnutzung möglich und ein konsequenter Informationsaustausch sowie die gezielte Informationsanalyse für alle Prozesse (Rückführung, Reparatur, Demontage, Aufbereitung, Wiederverwendung) im Lebenszyklus gefördert. Hieraus ergeben sich erhebliche Potentiale für die erforderliche Automatisierung, Steuerung und Etablierung einer effizienten Circular Economy.
Zentrale Aspekte des Zukunftslabors sind der Einsatz intelligenter Systeme, innovativer Methoden sowie Best Practices aus dem Bereich der Digitalisierung zur Stärkung und Etablierung der digitalisierten Circular Economy. Hierzu zählen Anwendungen und Konzepte aus den Bereichen Industrie of Things, Industrie 4.0, vernetzte dezentrale und verteilte Systeme, Big Data, künstliche Intelligenz und Data Science, (Software) Ökosystemen und viele weitere.
Teilprojekte
in Arbeit
Digitale Zwillinge und Produktpässe in der Circular Economy
Das Zukunftslabor Circular Economy entwickelt Szenarien und zugehörige Daten- sowie Informationsmodelle für KI-basierte digitale Zwillinge und Produktpässe. Die Wissenschaftler*innen ermitteln zusammen mit Praxispartnern und anderen Akteuren aus Niedersachsen die Anforderungen an die digitale Transformation hin zu einer Circular Economy. Auf dieser Basis erstellen sie umfassende Konzepte für Daten-, Informations- und Lebenszyklusmodelle. Diese Konzepte integrieren die Anforderungen der Stakeholder sowie übergreifende Strukturen des Forschungsdatenmanagements, Prozessabläufe und Schnittstellenbeschreibungen. Sie dienen als Grundlage für die Entwicklung von virtuellen Modellen wie digitalen Zwillingen und Produktpässen. Der Schwerpunkt liegt auf Produkttransparenz und Informationsaustausch, wobei eine Architektur skizziert wird, die Schnittstellen zu anderen Systemen und Infrastrukturanforderungen umfasst.
in Arbeit
Nutzung und Produktkreisläufe in der Circular Economy
Der Fokus des Projektbereichs 2 liegt auf der Entwicklung und Ausgestaltung von Systemen zur Verbesserung des Produktnutzungsverhaltens und der Produktkreisläufe. Der Schwerpunkt liegt hierbei auf der Entwicklung einer Datenplattform sowie der Integration von Anreizsystemen zur Förderung des „Rechts auf Reparatur“. Dabei sind die Hauptziele, die Bedürfnisse der verschiedenen Stakeholder zu erheben, innovative Geschäftsmodelle zu fördern, industrielle Symbiosen zu unterstützen und die Nutzungsphase effizienter zu gestalten.
in Arbeit
Produktdesign und Komponentenkreisläufe in der Circular Economy
Das Zukunftslabor Circular Economy entwickelt und testet digitale Methoden und Technologien für die Herstellung von kreislauffähigen und langlebigen Produkten sowie für die ressourceneffiziente Wieder- und Weiterverwendung von Komponenten. Die Grundannahme ist, dass moderne Produkte aus verschiedenen Komponenten mit unterschiedlichen Lebensdauern bestehen und nur durch eine spezifische Analyse von Zuständen und verbleibender Lebensdauer (Remaining Useful Lifetime) ressourceneffizient genutzt werden können.
in Arbeit
Recycling und Stoffkreisläufe in der Circular Economy
Ein wesentlicher Aspekt der Circular Economy ist, die Ressourcen durch Reparatur zu erhalten und somit Verluste zu minimieren. Eine effektive Rückgewinnung von Ressourcen ist durch die Analyse und Prognostizierung von Stoffströmen und effizienten Recyclingprozessen möglich. Dabei kann die Digitalisierung den Sortierprozess unterstützen und aus den erhobenen Daten einen digitalen Zwilling fertigen. Das Zukunftslabor Circular Economy entwickelt digitale Tools und Verfahren, um Stoff-, Wert- und Produktströme im Kontext von Elektrogeräten zu analysieren und zu bewerten. Dies trägt dazu bei, die Verfügbarkeit und den Bedarf von kritischen Rohstoffen (z. B. Lithium, Aluminium) zu ermitteln und zu steuern. Zudem sollen Anreize für Nutzer*innen geschaffen werden, mit geeigneten Rücknahmestrukturen Produkte und Materialien zurückzugeben. Darüber hinaus sollen mithilfe intelligenter und digitaler Recyclingprozesse und -technologien kritische Ressourcen besser erschlossen werden.
Teilprojekt
Digitale Zwillinge und Produktpässe in der Circular Economy
Status: in Arbeit
Das Zukunftslabor Circular Economy entwickelt Szenarien und zugehörige Daten- sowie Informationsmodelle für KI-basierte digitale Zwillinge und Produktpässe. Die Wissenschaftler*innen ermitteln zusammen mit Praxispartnern und anderen Akteuren aus Niedersachsen die Anforderungen an die digitale Transformation hin zu einer Circular Economy. Auf dieser Basis erstellen sie umfassende Konzepte für Daten-, Informations- und Lebenszyklusmodelle. Diese Konzepte integrieren die Anforderungen der Stakeholder sowie übergreifende Strukturen des Forschungsdatenmanagements, Prozessabläufe und Schnittstellenbeschreibungen. Sie dienen als Grundlage für die Entwicklung von virtuellen Modellen wie digitalen Zwillingen und Produktpässen. Der Schwerpunkt liegt auf Produkttransparenz und Informationsaustausch, wobei eine Architektur skizziert wird, die Schnittstellen zu anderen Systemen und Infrastrukturanforderungen umfasst.
Ansprechperson
Prof. Dr.-Ing. David Inkermann
Technische Universität Clausthal
Lehrstuhl für Integrierte Produktentwicklung
Entwicklung von integrierten Datenmodellen für die digitale Kreislaufwirtschaft.
Erarbeitung des Rahmens für den Einsatz von digitalen Zwillingen und Produktpässe.
Übertragung der KI-basierten digitalen Zwillingen und Produktpässe auf weitere Produkte.
Konzeption von Referenzszenarien und Anwendungsfällen
Forschungsinteresse:
  • Entwicklung von Referenzszenarien und Datenmodelle zur Unterstützung und Optimierung der digitalen Kreislaufwirtschaft.
Vorgehen:
  • Erarbeitung der Anwendungsfälle und durchgängigen Referenzszenarien für die Projektbereiche.
  • Rahmenbedingungen für die bereichsübergreifende Datensammlung und -bereitstellung für KI-basierte Ansätze entwickeln.
  • Entwicklung eines übergreifenden Informations- und Datenmodells.
KI-basierte digitale Zwillinge und digitale Produktpässe
Forschungsinteresse:
  • Verbesserung der Produkttransparenz über den gesamten Produktlebenszyklus
Vorgehen:
  • Entwicklung eines strukturierten Aufbaus für digitale Zwillinge und Produktpässe.
  • Untersuchung des integrierten Einsatzes über die Anwendungsfelder der Projektbereiche hinaus.
  • Identifikation und Gestaltung der erforderlichen Ökosysteme und KI-Technologien für die Implementierung digitaler Zwillinge und Produktpässe.
Teilprojekt
Nutzung und Produktkreisläufe in der Circular Economy
Status: in Arbeit
Der Fokus des Projektbereichs 2 liegt auf der Entwicklung und Ausgestaltung von Systemen zur Verbesserung des Produktnutzungsverhaltens und der Produktkreisläufe. Der Schwerpunkt liegt hierbei auf der Entwicklung einer Datenplattform sowie der Integration von Anreizsystemen zur Förderung des „Rechts auf Reparatur“. Dabei sind die Hauptziele, die Bedürfnisse der verschiedenen Stakeholder zu erheben, innovative Geschäftsmodelle zu fördern, industrielle Symbiosen zu unterstützen und die Nutzungsphase effizienter zu gestalten. Die Wissenschaftler*innen untersuchen, wie neue digitale Geschäftsmodelle und Services den Übergang von einer Wegwerfgesellschaft zu einer Circular Economy unterstützen können. Dazu entwickeln die Wissenschaftler*innen innovative, zirkuläre Geschäftsmodelle und Systeme, z. B. für Sharing-, Reuse- und Repairmodelle. Ein zentraler Aspekt des Erfolgs solcher Systeme ist die Akzeptanz der Nutzer*innen, weshalb intelligente und leicht zugängliche Logistikkonzepte von großer Bedeutung sind. Besonders beachtet werden in diesem Projektbereich KI-gestützte Systeme für Identifikation, Sammlung und Sortierung, um eine Lebensdauernachverfolgung und Nutzungsoptimierung in der digitalen Circular Economy zu ermöglichen.
Ansprechperson
Prof. Dr. Andreas Rausch
Technische Universität Clausthal
Institute for Software and Systems Engineering und Center for Digital Technologies
Konzeption innovativer, zirkulärer Systeme, die die Produktnutzung verbessern
Erprobung innovativer, zirkulärer Systeme, die die Produktnutzung verbessern
Vernetzung der Stakeholder
Vernetzung von Stakeholdern und Förderung von Anreizsystemen
Forschungsinteresse:
  • Die Forschung zielt darauf ab, Anforderungen von Nutzern, Wirtschaft und Bürgern zu erfassen und diese zur Entwicklung von Anreizsystemen zu nutzen, die nachhaltige Lebenszyklusentscheidungen erleichtern.
Vorgehen:
  • Anforderungserhebung und Definition von Szenarien: In enger Zusammenarbeit mit Praxispartnern werden Anforderungen ermittelt, um die Vernetzungsbedarfe und Entscheidungsunterstützung in verschiedenen Wirtschaftsbereichen zu identifizieren. Darauf basierend erfolgt die Definition von Referenzszenarien und Anwendungsfällen, die als Grundlage für die Plattformentwicklung dienen.
Produktservicesysteme
Forschungsinteresse:
  • Die Konzeption und Implementierung innovativer Produktservicesysteme, die Sharing, (Re-)Use und Reparaturmodelle unterstützen, stehen im Fokus. Diese Systeme sollen durch entsprechende Geschäftsmodelle und Datenmodelle für eine verbesserte Kreislaufführung integriert werden.
Vorgehen:
  • Konzeption innovativer Services
  • Vernetzung und Integration: Die Vernetzung der Stakeholder wird durch die Entwicklung einer Vernetzungskomponente gefördert, die in die Datenplattform integriert wird und sowohl Nutzer als auch wirtschaftliche Akteure in den Prozess der Kreislaufwirtschaft einbindet.
Entwicklung einer Datenplattform
Forschungsinteresse:
  • Ein zentrales Forschungsinteresse ist die Entwicklung einer Datenplattform, die Informationen zur Produktnutzung bereitstellt und zur Integration von Anreizsystemen beiträgt, insbesondere zur Förderung des „Rechts auf Reparatur“.
Vorgehen:
  • Entwicklung der Datenplattform und Integration von Anreizen: Im Rahmen der Plattformentwicklung werden die ermittelten Daten und Anforderungen in eine digitale Infrastruktur integriert, die Anreizsysteme zur Unterstützung des „Rechts auf Reparatur“ umfasst. Ziel ist es, die Plattform nutzerfreundlich und praxisnah zu gestalten.
Logistikkonzepte
Forschungsinteresse:
  • Logistikkonzept und Infrastruktur für ein intelligentes Sammel- und Sortiersystem
Vorgehen:
  • Konzeption und Gestaltung eines Sortier- und Logistiksystemdemonstrators
Teilprojekt
Produktdesign und Komponentenkreisläufe in der Circular Economy
Status: in Arbeit
Das Zukunftslabor Circular Economy entwickelt und testet digitale Methoden und Technologien für die Herstellung von kreislauffähigen und langlebigen Produkten sowie für die ressourceneffiziente Wieder- und Weiterverwendung von Komponenten. Die Grundannahme ist, dass moderne Produkte aus verschiedenen Komponenten mit unterschiedlichen Lebensdauern bestehen und nur durch eine spezifische Analyse von Zuständen und verbleibender Lebensdauer (Remaining Useful Lifetime) ressourceneffizient genutzt werden können.
Zur Planung und Steuerung von Lebenszyklusoptionen wie Reparatur, Überholung, Remanufacturing oder Umnutzung generieren die Wissenschaftler*innen mit Industrie 4.0-Technologien und Prognosemodellen Informationen über den Zustand der Komponenten (z.B. Alterung, Verschleiß, Verschmutzung) und den Produktaufbau (z.B. Demontage, Reparatur). Diese Informationen sind die Grundlage für eine gezielte Weiternutzung von Komponenten. Die Forschung umfasst die vorausschauende Gestaltung von Produkten (Circular Product Design), Lebenszyklusplanung (Lifecycle Management), Wiederverwendung durch Reengineering und Reparatur mittels additiver Fertigung sowie das Remanufacturing durch Demontage, Inspektion und Reinigung genutzter Komponenten.
Ansprechperson
Prof. Dr.-Ing. Annika Raatz
Leibniz Universität Hannover
Institut für Montagetechnik und Industrierobotik
Produkteigenschaften und -architekturen für zirkuläre Produkte
Methodik zur Planung und Bewertung von Lebenszyklusoptionen aus Basis von Demontage-parametern und Komponentenzuständen
Erprobte Methodik zur Nachhaltigkeitsbewertung von Reengineering- und Repair-Prozessen
Tool für die Visualisierung von Nachhaltigkeitsbewertung mithilfe Key Performance Indikatoren
Circular Product Design
Forschungsinteresse:
  • Circular Product Design, Lebenszylus- und Netzwerkplanung
Vorgehen:
  • Entwicklung und Validierung einer Entwicklungsmethodik für das zirkuläre Produktdesign auf Basis genutzter Komponenten
  • Konzipierung eines Tools zur Identifikation potenzieller Partner und Produktstrukturen für industrielle Symbiosen sowie zur Gestaltung logistischer Netzwerke zur Realisierung industrieller Symbiosen
Remanufacturing
Forschungsinteresse:
  • Demontage, Remanufacturing und Zustandserfassung
Vorgehen:
  • Planung von Remanufacturing-Prozessen auf Basis einer automatisierten Zustandserfassung und gewonnen Daten aus der Demontage sowie aus der Nutzungsphase
  • Analyse begünstigender und verhindernder Faktoren für Demontageprozesse auf Basis von Produktdaten
  • Entwicklung einer Methode zur Identifikation von Bauteilen für das Remanufacturing auf Basis in der Demontage erfasster Zustände und Prozessparameter
Product-Reengineering
Forschungsinteresse:
  • Product-Reengineering und Additive Repair
Vorgehen:
  • Entwicklung von Designregeln für die additive Fertigung
  • Entwicklung eines digitalen Kriterienkatalogs zur Identifizierung von Konstruktionsmerkmalen mit (automatisierter) Bewertung von Komponenten für das Reengineering
  • Entwicklung digitaler Designunterstützung für das Additive Repair im virtuellen Entwicklungsprozess
  • Digital gestützte Überführung von konventionell gefertigten Bauteilen zu additiv gefertigten Bauteilen
Nachhaltigkeitsbewertung
Forschungsinteresse:
  • Nachhaltigkeitsbewertung und Lebensdauerprognose
Vorgehen:
  • Entwicklung einer Methodik für die Ermittlung der verbleibenden Nutzungsdauer auf Basis von Betriebs- und Nutzungsdaten aus Produkt, Produktumfeld und Demontage
  • Konzipierung eines Werkzeugs zur Identifikation und Bewertung von Lebenszyklusoptionen für die Lebensdauerverlängerung von Produktkomponenten
Teilprojekt
Recycling und Stoffkreisläufe in der Circular Economy
Status: in Arbeit
Ein wesentlicher Aspekt der Circular Economy ist, die Ressourcen durch Reparatur zu erhalten und somit Verluste zu minimieren. Eine effektive Rückgewinnung von Ressourcen ist durch die Analyse und Prognostizierung von Stoffströmen und effizienten Recyclingprozessen möglich. Dabei kann die Digitalisierung den Sortierprozess unterstützen und aus den erhobenen Daten einen digitalen Zwilling fertigen. Das Zukunftslabor Circular Economy entwickelt digitale Tools und Verfahren, um Stoff-, Wert- und Produktströme im Kontext von Elektrogeräten zu analysieren und zu bewerten. Dies trägt dazu bei, die Verfügbarkeit und den Bedarf von kritischen Rohstoffen (z. B. Lithium, Aluminium) zu ermitteln und zu steuern. Zudem sollen Anreize für Nutzer*innen geschaffen werden, mit geeigneten Rücknahmestrukturen Produkte und Materialien zurückzugeben. Darüber hinaus sollen mithilfe intelligenter und digitaler Recyclingprozesse und -technologien kritische Ressourcen besser erschlossen werden.
Ansprechperson
Dr.-Ing. Alexandra Pehlken
OFFIS Institut für Informatik
FuE-Bereich Produktion
Bewertung von Stoff-, Wert- und Produktströmen im Kontext von Elektrogeräten mittels digitaler Werkzeuge
Ermittlung des Bedarfes von kritischen Rohstoffen in Niedersachen (Fokus Elektrogeräte)
Aufzeigen der Erschließung besagter Ressourcen Mittels intelligenter und Digitalisierung-getriebener Recyclingprozesse und -technologien
Kritische Rohstoffe
Forschungsinteresse:
  • Darstellung kritischer Ressourcen für die Elektronikindustrie
Vorgehen:
  • Identifikation, Assessment und Lokalisierung von CRMs mit Relevanz für die Elektronikindustrie in der Circular Economy sowie Ermittlung von CRM-Bedarfen aus EU-Datenbanken & Ansprüchen an Daten inkl. Konzept Digitaler Zwillinge
Ressourcenmonitor
Forschungsinteresse:
  • Ressourcen-Dashboard Circular Economy entwickeln.
Vorgehen:
  • Ressourcen-Dashboard Weiterentwicklung zum Monitoring der Erfassung, Lokalisierung, Prädiktion und Erschließung von Ressourcen der Elektronikindustrie. Fortschritt bei der Verwirklichung der Ziele innerhalb der Circular Economy aufzeigen.
Zukunftslabor
Energie
Sprecher*innen-Einrichtung
Carl von Ossietzky Universität Oldenburg
7 geförderte Einrichtungen
2 Teilprojekte
28 assoziierte Partner
01.10.2020 - 30.09.2024
integrierte Versorgung sichern
Die Digitalisierung spielt in Energiesystemen und für die Energiewende eine bedeutende Rolle. Sie unterstützt beziehungsweise ermöglicht die Erfassung, Überwachung, Kommunikation, Analyse und Optimierung von Messwerten sowie die (Fern-)Steuerung dezentraler Energieumwandlungsanlagen und Betriebsmittel für eine effizientere Betriebsführung, die sich weitgehend automatisiert an die hochdynamisch veränderlichen Prozesse der Energiewirtschaft anpasst. Ein mehrere Sektoren wie Strom, Gas oder Wärme integrierendes Energiesystem schafft einerseits Flexibilität, um auf die Prognoseunsicherheit dezentraler, dargebotsabhängiger Energieeinspeisung reagieren zu können. Gleichzeitig erhöht es die Systemkomplexität drastisch - mit Auswirkungen auf Modellierung und Steuerung. Neben einem Verständnis für neue Wechselwirkungsdynamiken in einem integrierten Energie- und Informationssystem sind zum Teil völlig neue Ansätze zur Analyse und Optimierung dieses Cyber-Physical-Energy-System-of-Systems erforderlich.
Zentrale Aspekte des Zukunftslabors Energie sind maschinelles Lernen und Big Data Analytik in Energiesystemen, cyber-resiliente Energiesysteme und Informationssicherheit, Informations- und Kommunikationstechnologie-basierte Integration neuer Akteure in die System- und Einsatzplanung von dezentralen Energieanlagen sowie Interoperabilität und standardisierte Prozesse multimodaler Energiesysteme.
Teilprojekte
in Arbeit
Erforschung von IKT-Abhängigkeiten in Quartiersversorgungssystemen
Das Teilprojekt untersucht verschiedene Parameter zwischen IKT- und Versorgungsinfrastruktur in digitalisierten Energiesystemen. Es werden intelligente Messsysteme eingesetzt, um das Zusammenspiel von Technologien und Akuteren zur klimafreundlichen Energieversorgung zu erfassen. Dafür ist es entscheidend, technische Rahmenbedingungen und Mindeststandards festzulegen, um die Qualität der Energieversorgung zu gewährleisten. In diesem Kontext sind verschiedene Sicherheitsaspekte, wie die Cyber-Resilienz und Einhaltung der Datenschutzgrundverordnung, relevant. Auch sind Wirtschaftlichkeit und Akzeptanz für eine erfolgreiche Digitalisierung des Energiesystems wichtig.
in Arbeit
Entwicklung einer Plattform für die Erforschung digitalisierter Energiesysteme
Die Wissenschaftler*innen untersuchen die Digitalisierung der Energieforschung und -entwicklung. Zu diesem Zweck wird eine Plattform entwickelt, die Forschende und Praxispartner vernetzen, sowie Erkenntnisse als auch Modelle der Energiesystemforschung in die Praxis übertragen soll. Die Plattform beinhaltet folgende Elemente: die Bündelung fachlicher Kompetenzen in einem Netzwerk, ein digitales Archiv verschiedener Modelle und Best Practices, eine Simulationsplattform und die Schaffung von Transparenz. Diese Elemente begünstigen die Ziele des Zukunftslabors, die Erforschung und Entwicklung digitalisierter Energiesysteme und die Digitalisierung der Energieforschung voranzutreiben.
Teilprojekt
Erforschung von IKT-Abhängigkeiten in Quartiersversorgungssystemen
Status: in Arbeit
Das Teilprojekt untersucht verschiedene Parameter zwischen IKT- und Versorgungsinfrastruktur in digitalisierten Energiesystemen. Es werden intelligente Messsysteme eingesetzt, um das Zusammenspiel von Technologien und Akuteren zur klimafreundlichen Energieversorgung zu erfassen. Dafür ist es entscheidend, technische Rahmenbedingungen und Mindeststandards festzulegen, um die Qualität der Energieversorgung zu gewährleisten. In diesem Kontext sind verschiedene Sicherheitsaspekte, wie die Cyber-Resilienz und Einhaltung der Datenschutzgrundverordnung, relevant. Auch sind Wirtschaftlichkeit und Akzeptanz für eine erfolgreiche Digitalisierung des Energiesystems wichtig.
Es werden konkrete Anwendungsszenarien untersucht, um den Transfer der Erkenntnisse und entwickelten Modelle in die Praxis zu ermöglichen.
Ansprechperson
Prof. Dr. Sebastian Lehnhoff
Carl von Ossietzky Universität Oldenburg
Abteilung Energieinformatik
Entwicklung von simulierten, wiederverwendbaren Quartiersszenarien. Diese sind flexibel anpassbar und erweiterbar und können dadurch in zukünftigen Szenarien einfach integriert werden und auf weitere Forschungsfragen angepasst werden.
Bereitstellung nachnutzbarer Software: Entwicklung des freien OpenSource Tools GridEVA zur Bestimmung der Netzaufnahmefähigkeit von Quartieren für Elektromobilität oder dem NESSI Tool, welche bereits in mehreren Publikationen validiert und mehrfach weiterentwickelt wurden.
Umsetzung standortübergreifender Zusammenarbeit durch die Laborkopplung. Wissenschaftliche Fragestellungen konnten erfolgreich auf geografische getrennte Simulatoren und geografisch getrennte Laborhardware verteilt werden. Dadurch wurde die Expertise der beteiligten Partner gebündelt, was eine gemeinsame Bearbeitung komplexer Forschungsfragen geografisch verteilt ermöglichte.
Durchstichszenarien als Instrument für die kooperative Forschung. Die Zusammenarbeit zwischen den Forschungseinrichtungen wurde ermöglicht und es konnten spezialisierte Fragestellungen gemeinsam bearbeitet werden.
Anwendungsfälle
Forschungsinteresse:
  • Welche Abhängigkeiten gibt es zwischen Informations- und Kommunikationstechnologien (IKT), die zur Steuerung erneuerbarer Energie eingesetzt werden?
Vorgehen:
  • Die Wissenschaftler*innen identifizierten Anwendungsfälle, in denen sensible Abhängigkeiten zwischen dem Energieversorgungssystem und dem IKT-System zu erwarten sind.
  • Auf Basis der Anwendungsfälle wählten die Wissenschaftler*innen des Zukunftslabors Energie drei Quartiere aus, die den Untersuchungsrahmen der Forschungstätigkeiten bildeten. Sie ermöglichten eine umfassende Betrachtung der Wechselwirkungen von IKT in digitalisierten Energiesystemen, waren aber dennoch kleinskalig genug, um Energiesysteme komplett abbilden zu können.
  • Aufbauend auf den Anwendungsfällen und den Quartiersbeschreibungen erstellten die Wissenschaftler*innen Szenarien für die zukünftige Energieversorgung aller drei Quartiere.
Ergebnisse/Erkenntnisse:
  • Insgesamt sind in sechs Anwendungsfällen sensible Abhängigkeiten zwischen dem Energieversorgungssystem und dem IKT-System zu erwarten. 1. Effizienz und Optimalität: der Einfluss verschiedener digitaler Mess- und Überwachungssysteme auf die Effizienz des Energiesystems 2. Technologieakzeptanz: Akzeptanzfaktoren und Nutzungsbereitschaft von Anwender*innen gegenüber verschiedenen digitalen Mess- und Überwachungssystemen. 3. Gebäudeoptimierung: die autonome Energieoptimierung von Gebäuden auf Basis lokaler Flexibilitäten. 4. Verbundoptimierung: die optimierte Energieerzeugung und –verbrauch durch eine gleichmäßige Bewirtschaftung von Gebäuden im Verbund. 5. Flexibilitätsvermarktung: flexible Vermarktung von Energieüberschüssen an Dritte (z. B. Netzbetreiber). 6. Robuster Netzbetrieb: die robuste und stabile Betriebsführung eines digitalisierten Energiesystems.
  • Die Wohnquartiere „Am Ölper Berge“ in Braunschweig und „Energetisches Nachbarschaftsquartier“ (ENaQ) in Oldenburg sowie das Wohn- und Gewerbegebiet „Rüsdorfer Kamp“ in Heide“ eigneten sich, um unterschiedliche Aspekte zu betrachten: Art der Gebäude (Wohn- und Gewerbegebäude), Fertigstellung des Quartiers (bereits vorhanden oder in Planung), Stand der Energieversorgung (fossile Energieträger versus erneuerbare Energien).
  • Für alle drei Quartiere liegen Beschreibungen für die zukünftige Energieversorgung vor. Diese umfassen z. B. die Nutzung zentraler Wärmepumpen im Quartier, die Verwendung industrieller Abwärme, die Erzeugung von Strom durch Solarenergie und der Einsatz eines Energie-Management-Systems zur Reduzierung von Lastspitzen.
  • Basierend auf den Anwendungsfällen wurden im Projekt Durchstichszenarien definiert.
Durchstichszenarien
Forschungsinteresse:
  • • Welche Abhängigkeiten zwischen dem Energieversorgungssystem und dem IKT-System sind sensibel bzw. kritisch?
Vorgehen:
  • Die Wissenschaftler*innen konkretisierten die sechs identifizierten Anwendungsfälle und leiteten daraus Durchstichszenarien ab. In den Durchstichszenarien analysierten die Wissenschaftler*innen unterschiedliche Schwerpunkte und Problemstellungen.
Ergebnisse/Erkenntnisse:
  • Insgesamt betrachten die Wissenschaftler*innen fünf Durchstichszenarien. 1. Flexibilitäten: Nutzung von Flexibilitäten eines Heizungs-, Lüftungs- und Klimasystems zur Lösung von Problemen im Stromnetz. 2. IKT-Störungen: Auswirkungen eines Komponentenausfalls auf andere Komponenten. 3. Elektromobilität: Auswirkungen der zunehmenden Anzahl von Elektrofahrzeugen auf das lokale Niederspannungsnetz eines bestehenden Quartiers. 4. Gebäude: Simulation der Lastgänge eines Mehrfamilienhauses. 5. Netzbetrieb: Sicherung und Stabilität des Netzbetriebes in zunehmend digitalisierten Energiesystemen.
Durchstichszenario Elektromobilität
Forschungsinteresse:
  • Wie viele Elektrofahrzeuge können zeitgleich in einem Quartier geladen werden, ohne dass die Spannungsqualität des öffentlichen Verteilnetzes kritisch beeinflusst wird?
Vorgehen:
  • Für das Szenario Elektromobilität untersuchten sie anhand des Quartiers „Am Ölper Berge“ (Braunschweig) die Netzaufnahmefähigkeit für Elektrofahrzeuge unter Berücksichtigung der DIN EN 50160. Diese Europäische Norm legt Anforderungen für die Spannungsqualität in öffentlichen Verteilnetzen fest.
  • Um die Netzaufnahmefähigkeit des Quartiers „Am Ölper Berge“ zu analysieren, entwickelten die Wissenschaftler*innen mithilfe des mosaik-Frameworks eine Open-Source Co-Simulation. Diese dient dazu, die erforderlichen Komponenten des Energienetzes (Energiesystemmodelle, Steuerungsmodelle, Netzberechnung, Datenspeicherung etc.) nachzubilden und miteinander zu verbinden.
  • Sie testeten mehrere Szenarien in der Co-Simulation. Zunächst simulierten sie die aktuelle Netzaufnahmefähigkeit des Quartiers. Daraufhin führten die Wissenschaftler*innen Verbesserungsmaßnahmen durch, um die Netzaufnahmefähigkeit für das Laden von Elektrofahrzeugen zu erhöhen. In mehreren Szenarien wurden die Wirksamkeit von nutzerseitigen Maßnahmen zur kooperativen Energieerzeugung und -speicherung (z. B. Photovoltaik-Anlagen und Batteriespeicher) sowie intelligente Steuerungsstrategien (Nutzung der Flexibilität der Batteriespeicher zur Deckung des Ladeenergiebedarfs der Elektrofahrzeuge) analysiert.
Ergebnisse/Erkenntnisse:
  • Die Simulationen zeigten, dass es keine nennenswerten Synergieeffekte für die Netzintegration der Elektrofahrzeuge gibt, wenn dem Energienetz lediglich regenerative Komponenten ohne Steuerung hinzugefügt werden.
  • Allerdings heben intelligente Ladestrategien dieses Potenzial und führen zu einer verbesserten Spannungshaltung. Die Netzaufnahmefähigkeit kann um 23 % gesteigert werden, indem Komponenten (z. B. PV-Anlagen, Batteriespeicher und Energiemanagementsysteme) mit einem Netzkorrekturalgorithmus kombiniert werden. Der Algorithmus erkennt Spannungsbandverletzungen und weist das Energiesystem an, das vorhandene Flexibilitätspotenzial (z. B. von Batteriespeichern) zu nutzen, um eine Netzüberlastung zu verhindern und die Versorgungssicherheit weiterhin zu gewährleisten.
  • Werden zusätzlich intelligente Ladestrategien eingesetzt, führt dies zu einer Erhöhung der Netzaufnahmefähigkeit für Elektrofahrzeuge um 43 %. Zu den intelligenten Ladestrategien zählen wir das prognosebasierte Laden (Ladevorgang wird zeitlich gestreckt, um die Belastung für das Stromnetz zu reduzieren), das Solarladen (Elektrofahrzeug wird bei einem Überschuss an Sonnenenergie geladen) und das Nachtladen (Laden zwischen 20 Uhr und 5 Uhr, wenn die Netzlast im Quartier vergleichsweise gering ist)
Durchstichszenario Netzbetrieb
Forschungsinteresse:
  • Wie kann der Netzbetrieb in digitalisierten Energiesystemen sicher und stabil gewährleistet werden?
Vorgehen:
  • Die Verbundpartner des Zukunftslabors Energie verfügen über in Niedersachsen geografisch verteilte Forschungslabore, mit denen verschiedene reale Komponenten heutiger und zukünftiger vermehrt digitalisierter Energiesysteme untersucht werden können. Im ersten Schritt koppelten die Wissenschaftler*innen das Renewable Energy Lab der Hochschule Emden Leer (intelligente Einbindung Einbindung regenerativer Stromerzeugungsanlagen in das elektrische Verteilnetz unter Einsatz moderner Automatisierungstechnik) und das NESTEC Labor des Deutschen Zentrums für Luft- und Raumfahrt (Emulationszentrum für Vernetzte Energiesysteme zur Erprobung des Realbetriebs).
  • Dafür analysierten sie zunächst die IT-Strukturen der Labore hinsichtlich IT Sicherheit, Leistungsfähigkeit und potenzieller Übertragbarkeit. Kriterien für die Modellierung und Strukturierung der Versuche waren unter anderem eine aktuelle Relevanz der Anwendungsfälle in den Verteilnetzen wie etwa Engpassmanagement nach §14a EnWG. Außerdem wählten sie ein geeignetes repräsentatives Stromnetz aus, das sie der Untersuchung zugrunde legten. Darüber hinaus stellten sie Erzeugungs- und Verbrauchsdaten bereit und prüften die Hardware hinsichtlich der Sicherheit im Labor und der Integration von intelligenten Messsystemen. Schließlich führten sie erste Simulationen in einem Niederspannungsnetz mit 21 Netzteilnehmern durch bei dem Labor- und Kommerzielle Hardware im Renewable Energy Lab (Emden) und DLR NESTEC (Oldenburg) eingesetzt wurde. Die Ergebnisse konnten auf dem ETG CIRED Workshop 2021 und ETG Kongress 2023 (ISBN:978-3-8007-6108-1) gezeigt werden.
  • Im zweiten Schritt integrierten die Wissenschaftler*innen eine Wärmepumpe aus dem Heizungslabor der Ostfalia Hochschule (beinhaltet alle wichtigen Anlagenbestandteile der Wärmeversorgung) in die Versuchsumgebung von der Hochschule Emden/Leer und desDLR. Dadurch erweiterten die Wissenschaftler*innen die Laborkopplung um den in zukünftigen Stromnetzen bedeutenden Wärmesektor.
Ergebnisse/Erkenntnisse:
  • Laborübergreifende Simulationen über weite Entfernungen hinweg sind möglich. Selbst Echtzeitanwendungen lassen sich realisieren, wenn diese bei der Entwicklung der Modelle von Anfang an mitgedacht werden. Die typischen Latenzen beim Informationsaustausch für Hin- und Rückweg lagen im Mittel bei 65 ms (Millisekunden).
  • So konnte das Batteriespeichersystem im Emder Renewable Energy Lab die entstehenden Spannungsbandverletzungen durch den Ausfall von PV Einspeisungen rechtzeitig auffangen und damit zum sicheren Betrieb des elektrischen Netzes im DLR NESTEC in Oldenburg beitragen.
  • Im Vergleich zwischen reinen Simulationen und Versuchen mit echten Komponenten hat sich als Vorteil herausgestellt, dass auch unerwartete Effekte oder Wechselwirkungen identifiziert werden, die in einer reinen Simulation möglicherweise nicht berücksichtigt wurden. Daneben lässt sich auch Zeit einsparen, indem nicht erst Modelle der realen Anlagen erstellt werden müssen, sondern direkt mit den echten Komponenten experimentiert werden kann.
Durchstichszenario Gebäude
Forschungsinteresse:
  • Wie sieht die zukünftige Energieversorgung von Gebäuden in einem Quartier aus?
Vorgehen:
  • Zunächst wird der thermische und elektrische Energiebedarf des Quartiers „Am Ölper Berge“ in Braunschweig im Referenzszenario (Baseline) analysiert. Diese Bewertung basiert auf den physikalischen Eigenschaften und Baumaterialien der thermischen Gebäudehülle (z.B. Fenster, Wände, Dach). Dabei werden für jedes Gebäude im Quartier spezifische Strombedarfsprofile generiert.
  • Auf Grundlage der gesammelten Gebäudedaten wird ein Gebäudemodell nach dem 5R1C-Widerstands-Kapazitäts-Modell erstellt. Dieses Modell verwendet meteorologische Daten sowie die Gebäudeeigenschaften, um die Innentemperaturen und den Wärmebedarf der Gebäude zu berechnen.
  • Die gesammelten Informationen der verschiedenen Gebäudetypen werden in Excel-Listen zusammengetragen und in Eingangsdaten für die Simulationen umgewandelt. Diese Daten bilden die Basis für die folgenden Analysen und Simulationen.
  • Weitere Szenarien untersuchen die zukünftigen Energieverbräuche des Quartiers, wobei energetische Maßnahmen, wie z.B. Fassadendämmung oder der Austausch von Fenstern, berücksichtigt werden. Mehrere Konfigurationen für die Versorgung und Nutzung von Energie werden dabei simuliert.
  • In den verschiedenen Zukunftsszenarien wird das Quartier um zusätzliche Komponenten erweitert, wie z.B. PV-Anlagen, Wärmepumpen, Elektrofahrzeuge, Regelungstechnik, Energiespeicher oder Energiemanagementsysteme. Diese Komponenten werden über Co-Simulationen miteinander verbunden, um deren Einfluss auf das Energiesystem zu analysieren. Die unterschiedlichen Konfigurationen und Szenarien werden schließlich miteinander verglichen, um den Einfluss der verschiedenen energetischen Maßnahmen und Technologien auf das Energiesystem und den Gebäudebestand des Quartiers zu bewerten. Dies dient als Grundlage für die Auswahl optimaler Maßnahmen zur Energieversorgung und Effizienzsteigerung des Quartiers. Anschließend folgt eine ökologische Bewertung der Szenarien nach ÖKOBAUDAT und GEG.
Ergebnisse/Erkenntnisse:
  • Im Bestandsquartier liegen ähnliche Profile der Gebäude vor, deren Hauptunterschied in der Art der Warmwasserbereitung liegen. Die verschiedenen Szenarien führen zu unterschiedlichen Strom- und Wärmelasten je nach Konfiguration der Komponenten (z.B. Warmwasserbereitung, PV-Einsatz) und der Effizienz der Wärmepumpe. Außerdem wurde festgestellt, dass Spannungspegel durch Warmwasserbereitung mit Durchlauferhitzern gesenkt werden kann.
  • Die steigende Nutzung von Wärmepumpen, Elektrofahrzeugen und Strom in Pufferspeichern kann zu Netzüberlastungen und Spannungsbandverletzungen führen. Maßnahmen zur Reduktion dieser Netzüberlastungen, wie die Nutzung von Flexibilitäten in elektrischen Speichern, erhöhen die Resilienz des Verteilnetzes. Ein Zukunftsszenario für das Jahr 2045 zeigt, dass der Wärmebedarf, der Strombedarf und die Systemverluste durch verbesserte Gebäudehüllen, optimierte PV-Nutzung und einen effizienteren Betrieb von Wärmepumpen deutlich reduziert werden können.
Durchstichszenario IKT-Störungen
Forschungsinteresse:
  • Wie können Stromversorgungssystem und Kommunikationssystem in einer Simulation gekoppelt werden und wie wirken sich Kommunikationsprobleme auf die Leistung des Netzes aus?
Vorgehen:
  • Aus dem Forschungsinteresse lässt sich ableiten, dass ein Mehrdomänensystem modelliert werden muss, welches die Stromversorgung des Netzes, die Steuerungssysteme sowie ein Modell der bidirektionalen Kommunikation abbildet. Außerdem wird eine Fallstudie erstellt, um die Auswirkungen von Kommunikationsproblemen in einer realen Umgebung zu quantifizieren. Die Kopplung der Systeme erfolgt über das Co-Simulationstool mosaik.
  • Das Stromsystemmodell umfasst verschiedene Komponenten zur dezentralen Energieversorgung im Quartier und sorgt für den Energie- und Leistungsflussausgleich im Netz. Das Gebäudeenergiemanagementsystem (BEMS) überwacht den Lastenausgleich zwischen Energiequellen und Verbrauchern, wie Haushaltslast, Speicher und Elektrofahrzeugladestationen.
  • Das zentrale Quartiersenergiemanagementsystem (CEMS) überwacht das Netz und löst Spannungsprobleme durch Nutzung von Speicherflexibilität. Es simuliert die Stromflüsse im Quartier und leitet Informationen an die BEMS weiter. Die BEMS regulieren das Laden und Entladen der Batterien, um beispielsweise bei Netzüberlastungen Strom einzuspeisen. Dadurch wird die Netzbelastung verringert und die Spannungsniveaus bleiben im Rahmen der durch die DIN EN 50160 festgelegten betrieblichen Standards.
  • Das Kommunikationsmodell (OMNET++) simuliert die Datenübertragung zwischen dem CEMS und den BEMS, um Netzoptimierungen durchzuführen. Hierzu wurde ein Kommunikationsmodell entwickelt, das jeden dezentralen Agenten mit dem zentralen Agenten verbindet, um die Datenübertragung zwischen den Agenten realitätsnah zu simulieren.
  • Bewertungsziele des Durchstichszenarios sind die Verzögerungen bei der Übertragung und Berechnung der Flexibilitätsleistung sowie die Latenzzeiten beim Datenaustausch zwischen zentralen und dezentralen Agenten zu ermitteln.
Ergebnisse/Erkenntnisse:
  • Die Simulationsergebnisse zeigen die Machbarkeit der Umsetzung eines Mehrdomänensystemmodells mit den verwendeten Tools. Erste Ergebnisse zeigen eine mittlere Latenz von etwa 300 ms für den Datenaustausch. Eine wichtige Rolle spielt die Latenz in der Cloud-simulierten Internetverbindung zwischen dem zentralen Agenten (der als gehostet an einem entfernten Standort simuliert wurde) und der lokalen Internetverteilungspunkte. Die Verzögerungen bei der Spannungsanpassung resultieren aus der Berechnungs- und Kommunikationslatenz, was zeitweise Instabilitäten im Netz verursacht. Die Mean Time of Failure (MTOF) beträgt etwa 474 ms, bedingt durch Berechnungszeit (120 ms) und Kommunikationsverzögerung (350 ms).
Durchstichszenarien Flexibilität
Forschungsinteresse:
  • Wie können mithilfe von Flexibilität von Strom und thermischen Energiesystemen Schwankungen im Stromnetz ausgeglichen werden?
Vorgehen:
  • Digitale Technologien sollen eine zuverlässige Energieversorgung sicherstellen, da erneuerbare Energie nicht konstant abgerufen werden können. Zudem führt der steigende Energiebedarf von Elektrofahrzeugen und Wärmepumpen, zu höheren Lastspitzen im Netz. Hier kommen Flexibilitäten ins Spiel. Dabei handelt es sich z. B. um überschüssige Energie (etwa an sehr sonnigen Tagen), die gespeichert und zu Zeitpunkten genutzt wird, in denen ein Energiemangel herrscht. Eine Nutzung der Flexibilitäten im Quartier erfordert, dass mehrere Knoten im Netz miteinander kommunizieren, um die verfügbare Flexibilität zu verteilen.
  • Hierfür simulierten die Wissenschaftler*innen Gebäude einschließlich der Versorgungssysteme, um die Flexibilität der Anlagen zu ermitteln. Zur Erstellung dieser Flexibilitätsprognose ist zunächst ein Fahrplan erforderlich, der auf dem Ansatz der „perfekten Prognose“ basiert. Dieser Fahrplan berechnet im Voraus die Energieflüsse zwischen den verschiedenen Komponenten.
  • Danach wird die Flexibilität für einen definierten Zeitraum berechnet. Diese Flexibilität ist ein multidimensionaler Parameter, der die maximale und minimale Leistung und die maximale und minimale verfügbare Energie der Speichersysteme berücksichtigt.
  • Die Flexibilität wurde dann in einem Multi-Agenten-System überführt, um die Energieflüsse im Quartier zu optimieren, mit dem Ziel, die Lastspitzen zu reduzieren und um das Stromnetz unter validen Betriebsbedingungen wie Spannungsniveaus zu halten.
  • Ein wichtiger Bestandteil des Szenarios ist ein Gebäudemodell, das verschiedene Gebäude und Anforderungen an die Energieversorgung beschreibt. Dieses Modell dient dazu, den Wärmebedarf zu berechnen, der in Verbindung mit den Pufferspeichermodellen steht.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen entwickelten ein umfangreiches Gebäudemodell, das zur Simulation der Energieversorgung dient. Das Modell enthält Komponenten, durch die Gebäude Flexibilitäten bereitstellen können. Dazu zählen Energiespeicher (z. B. Batteriespeicher, Warm-Wasser-Speicher, Heizungsspeicher) und die thermische Masse eines Gebäudes (z. B. speichert ein Klinkerbau Wärme länger als ein Holzbau).
  • Außerdem sind Belegungsprofile für Räume und Gebäude enthalten, um die Nutzungsart des Gebäudes spezifizieren zu können. Belegungsprofile geben Aufschluss darüber, an welchen Tagen und zu welchen Uhrzeiten Energie in Form von Wärme und Strom im Gebäude verbraucht wird.
  • Das Multi-Agenten-System erlaubt eine Optimierung der Beladung der Speicher. Bei den thermischen Systemen, bedeutet dies eine längere Haltung der Temperaturen im Pufferspeicher, ohne dass dies parallel zu einem höheren Bedarf am Strom führt. Dazu werden Lastspitzen im Quartier vermieden. Wenn elektrische Speicher für Flexibilität im Stromnetz benutzt werden, erbringt die Multi-Agenten-Optimierung einen reduzierten Bedarf von Ladung und Entladung in den Batteriesystemen. Dadurch werden die Ziele der Reduzierung der Parallelnutzung, der Haltung der Spannungsniveaus in den Betriebsgrenzen und der Deckung des erforderlichen Energiebedarfs erfüllt. Außerdem zeigen die Ergebnisse eine bessere Nutzung der Kapazitäten der Speichervolumen. Dies würde somit kleinere Speicher erlauben.
Teilprojekt
Entwicklung einer Plattform für die Erforschung digitalisierter Energiesysteme
Status: in Arbeit
Die Wissenschaftler*innen untersuchen die Digitalisierung der Energieforschung und -entwicklung. Zu diesem Zweck wird eine Plattform entwickelt, die Forschende und Praxispartner vernetzen, sowie Erkenntnisse als auch Modelle der Energiesystemforschung in die Praxis übertragen soll. Die Plattform beinhaltet folgende Elemente: die Bündelung fachlicher Kompetenzen in einem Netzwerk, ein digitales Archiv verschiedener Modelle und Best Practices, eine Simulationsplattform und die Schaffung von Transparenz. Diese Elemente begünstigen die Ziele des Zukunftslabors, die Erforschung und Entwicklung digitalisierter Energiesysteme und die Digitalisierung der Energieforschung voranzutreiben.
Die erste Version der Plattform wird, unter Berücksichtigung der Forderungen verschiedener Stakeholder, vom Zukunftslabor Energie im Rahmen des Forschungsvorhabens über Quartierversorgungssysteme umgesetzt.
Ansprechperson
Prof. Dr.-Ing. Astrid Nieße
Carl von Ossietzky Universität Oldenburg
Abteilung für Digitalisierte Energiesysteme
Entwicklung eines Prototyps einer frei zugänglichen kollaborativen Forschungsplattform. Die Entwicklungen sind in einem GitLab-Repository frei verfügbar.
Best Practices & Worst Pratices aus der Entwicklung der Forschungsplattform in einem Paper veröffentlicht und mit Interessierten diskutiert.
Nutzung von Open-Source-Frameworks was die Weiternutzung und Wiederverwendbarkeit erhöht und zu einem fruchtbaren Austausch in der Community führt.
Anforderungsanalyse für die Forschungs- und Entwicklungsplattform
Forschungsinteresse:
  • Welche Anforderungen stellen Stakeholder an eine Forschungs- und Entwicklungsplattform für die Energiebranche?
Vorgehen:
  • Die Wissenschaftler*innen verfolgen drei Ziele: erstens die Vernetzung der Energieforschungskompetenzen in Niedersachsen, zweitens die Wiederverwendbarkeit von Forschungsdaten, Simulations- und Datenmodellen und drittens den Wissenstransfer zwischen Forschung und Praxis sowie den Austausch mit der interessierten Öffentlichkeit.
  • Um diese Ziele zu erreichen, entwickelten die Wissenschaftler*innen eine prototypische Forschungs- und Entwicklungsplattform. Diese Plattform könnte perspektivisch von Forschenden im niedersächsischen Energiebereich, von Praxispartnern in der Energiewirtschaft sowie von interessierten Bürger*innen genutzt werden.
  • Zunächst verglichen die Wissenschaftler*innen Websites und Plattformen aus der Energiebranche, die ähnliche Ziele verfolgen, aber keine einheitliche Plattform für alle drei Ziele anbieten. Aus dem Vergleich leiteten sie interessante Aspekte ab, die für die Plattform relevant sein könnten.
  • Den Vergleich der bereits existierenden Plattformen nutzten die Wissenschaftler*innen dafür, Interviews mit Stakeholdern aus Wirtschaft und Wissenschaft vorzubereiten. Mit diesen ermittelten sie die Anforderungen der verschiedenen Interessengruppen an die Plattform.
Ergebnisse/Erkenntnisse:
  • Die Plattform beinhaltet fünf Elemente: Kompetenz (zur Darstellung fachlicher Expertise), Methoden (Best Practices erfolgreicher Methoden und Modelle), Repository (digitales Archiv nutzbarer Simulations- und Datenmodelle), Simulation (Veranschaulichung und Analyse digitalisierter Energiesysteme), Transparenz (Veröffentlichung von Forschungsergebnissen). Zudem stellt eine weitere Funktion – „Core“ –die grundlegenden Funktionen der Plattform bereit (z. B. Serverstruktur, allgemeine Seiten, Datenschutz).
  • Zu jedem Element der Plattform identifizierten die Wissenschaftler*innen Anforderungen aus Sicht der Praxis und aus Sicht der Wissenschaft: Für „Kompetenz“ wurde eine klare Darstellung der Interessen und ein Matching zwischen Wissenschaft und Unternehmen gefordert. Die Datenpflege soll einfach sein, die Administration seriös und qualitativ. Bei den „Methods“ sollen Inhalte spezifisch, neutral und qualitativ aufbereitet werden, auch für Einsteiger*innen. Im „Repository“ soll der Datenaustausch vertraulich über einheitliche Schnittstellen erfolgen, mit Filter- und Anfragefunktionen. Praxispartner teilen Daten nur auf Anfrage. Für „Simulation“ wurden Schnittstellen zu bestehenden Tools und eine benutzerfreundliche Oberfläche gewünscht. „Transparenz“ soll den Austausch über Trends im Energiesektor fördern, auch für Bürger*innen, mit Inhalten in Form von Grafiken oder Podcasts.
Plattformelement „Kompetenz“
Forschungsinteresse:
  • Welche Funktion erfüllt das Plattformelement „Kompetenz“?
Vorgehen:
  • Die Wissenschaftler*innen konkretisierten das Plattformelement hinsichtlich seiner Funktionen und Verknüpfungen zu den anderen Elementen.
  • Zudem konkretisierten sie die Handhabung des Elementes.
Ergebnisse/Erkenntnisse:
  • Die zentrale Funktion von „Kompetenz“ ist das Bereitstellen von Kompetenzprofilen registrierter Einrichtungen, einschließlich Informationen wie Kontaktpersonen, Forschungsschwerpunkten, Projekten, Publikationen und Netzwerken. Das Element ist mit „Core“ und anderen Plattformelementen verknüpft und nutzt den PID-Dienst sowie die Suchfunktion, um Kompetenzen über die Plattform hinweg auffindbar zu machen. Methoden, Daten, Modelle und Szenarien aus anderen Elementen werden in den Profilen verlinkt, ebenso wie Aktivitäten im öffentlichen Forum.
  • Die Handhabung wurde ebenfalls konkretisiert. Nutzerinnen können ihre Profile selbst erstellen, indem sie einen Fragebogen ausfüllen. Publikationen aktualisieren die Literaturreferenz automatisch, und inaktive Profile werden gekennzeichnet. Gemeinsame Forschungsschwerpunkte können zu Clustern zusammengefasst werden, um Wissenschaftlerinnen zu vernetzen. Alle Profile werden auf einer interaktiven Karte angezeigt.
Plattformelement „Repository“
Forschungsinteresse:
  • Welche Funktion erfüllt das Plattformelement „Repository“?
Vorgehen:
  • Die Wissenschaftler*innen konkretisierten das Plattformelement hinsichtlich der geplanten Funktionen und der Auswahl eines geeigneten Frameworks.
Ergebnisse/Erkenntnisse:
  • Das Element „Repository“ zielt darauf ab, Forschungsdaten, Simulations- und Datenmodelle wiederverwendbar machen, da deren Erhebung oft zeit- und kostenintensiv ist. Durch den gegenseitigen Zugang zu diesen Daten können Wissenschaftler*innen Ressourcen sparen. Simulations- und Datenmodelle sind ebenfalls aufwendig zu erstellen und ihre Wiederverwendung ist daher sehr hilfreich.
  • Die Daten werden nicht direkt im Repository hochgeladen, sondern dort beschrieben, damit Interessierte die relevanten Informationen wie Titel, Entstehung, Art, Keywords, Urheber, Aktualisierung und weitere Metadaten einsehen können. Ein Link führt zum Speicherort der Daten. Die Inhalte sollen möglichst Open Source und kostenfrei verfügbar sein.
Plattformelement „Transparenz“
Forschungsinteresse:
  • Welche Funktion erfüllt das Plattformelement „Transparenz“?
Vorgehen:
  • Die Wissenschaftler*innen konkretisierten das Plattformelement hinsichtlich seiner Funktionen und Verknüpfungen zu den anderen Elementen.
Ergebnisse/Erkenntnisse:
  • Das Element „Transparenz“ macht Forschungsergebnisse der Öffentlichkeit zugänglich und erhöht so die Transparenz. Es beinhaltet das Forum für den interaktiven, öffentlichen, und leicht-zugänglichen Austausch von Interessierten, Wissenschaftlern, Praxispartnern und wissenschaftlichen Mitarbeitern. Des Weiteren können Lern- und Lehrinhalte geteilt werden, um den Aspekt Open Source zusätzlich zu unterstützen. Weiterhin werden Veröffentlichungen der Mitarbeiter als Zusammenfassung und in der Volltext-Version sowie Informationen zu den Projekten der teilhabenden Forschungseinrichtungen zur Verfügung gestellt. Die Inhalte sind über eine Übersicht oder die Suchfunktion abrufbar.
Plattformelement „Methods“
Forschungsinteresse:
  • Welche Funktion erfüllt das Plattformelement „Methods“?
Vorgehen:
  • Die Wissenschaftler konkretisierten die Ziele des Elements „Methods“. Dabei wurden als allgemeine Ziele für den Inhalt die Einführung in die Nutzung der verschiedenen Elemente der Plattform und allgemeine Leitlinien für die Durchführung von Energieforschung identifiziert. Im Folgenden wurden analysiert, wie die Anforderungen am besten umgesetzt werden können.
Ergebnisse/Erkenntnisse:
  • Eine Einführung in die Nutzung der Plattform sollte durch eine Anleitung zur Nutzung der Website erfolgen, um die Benutzerfreundlichkeit zu maximieren. Allgemeine Leitlinien können beispielsweise als Best Practices aus erfolgreichen Forschungsprojekten, Standards für kooperative Projektentwicklung, Szenariomodellierungen oder als Tipps fürs Datenmanagement erfolgen.
  • Nach Analyse der funktionalen und nicht-funktionalen Anforderungen wurde „MediaWiki“ als Framework ausgewählt, da es die erforderlichen Funktionen enthält und anpassungsfähig an die individuellen Gegebenheiten ist.
  • Die Funktionalität des Elements und die Zusammenarbeit mit den anderen Komponenten wurde überprüft. Zukünftig muss das Element evaluiert werden, um weitere Verbesserungen vorzuschlagen und zu implementieren.
Plattformelement „Simulation“
Forschungsinteresse:
  • Welche Funktion erfüllt das Plattformelement „Simulation“?
Vorgehen:
  • Die Wissenschaftler*innen konkretisierten das Plattformelement hinsichtlich seiner Funktionen und Simulationswerkzeugen und -modellen.
Ergebnisse/Erkenntnisse:
  • Das Element „Simulation“ zielt darauf ab, die (Co-)Simulation typischer Anwendungsfälle zu erleichtern und zugänglicher zu gestalten. Insbesondere soll die Kopplung und Wiederverwendbarkeit verschiedener Simulationswerkzeuge und -modelle gefördert werden, um die Planung komplexer Szenarien zu unterstützen.
Plattformelement „Core“
Forschungsinteresse:
  • Wie können grundlegende Funktion für die technische Infrastruktur und die Arbeitsabläufe bereitgestellt werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein weiteres Element für die Plattform. Dieses sechste Element enthält Funktionen, die von allen anderen benötigt werden. Es heißt „Core“ - der Kern der Plattform.
Ergebnisse/Erkenntnisse:
  • „Core“ stellt grundlegende Funktionen bereit, die nicht spezifisch für den Energiebereich sind. Dazu zählen vor allem die technische Infrastruktur und die Arbeitsabläufe für die Weiterentwicklung. Auch allgemeine Seiten (z. B. ‚Über uns‘, ‚Datenschutz‘) sind Teil von ‚Core‘.
  • Zudem gewährleistet eine Benutzerverwaltung die Authentifizierung, Anmeldung und Registrierung von Benutzerkonten sowie die Verknüpfung mit Konten auf anderen Plattformen.
  • Darüber hinaus ermöglicht eine Suchfunktion das Auffinden einzelner Bestandteile über die gesamte Plattform hinweg.
  • Ein PID-Dienst (Persistent Identifyer) verknüpft die wichtigsten Dienste miteinander - selbst wenn die dahinterliegenden Dokumente verschoben werden, bleibt die Verknüpfung dauerhaft bestehen, sodass sie immer funktioniert (z. B. kann eine Forschungseinrichtung in „Kompetenz“ als verantwortliche Einrichtung in der Datenbeschreibung in „Repository“ verwendet werden).
  • Ein weiterer Bestandteil von „Core“ ist der Ontologiedienst, der die Interoperabilität und Suchfunktionen der Plattform verbessert, indem Artefakte (Ergebnisse eines Prozesses wie Modelle, Daten, Software, Frameworks) aus „Transparenz“ und „Kompetenz“ mit denselben Wörtern beschrieben werden.
Prototyp und Anwendungsszenarien der Forschungs- und Entwicklungsplattform
Forschungsinteresse:
  • Ist die Plattform in der Praxis einsetzbar und in welchen Szenarien kann die Plattform angewendet werden?
  • Funktionieren die Plattformelemente?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten einen Prototyp der Plattform basierend auf den 5 Elementen und dem Grundelement „Core“. Dazu gehörte u. a. der Vergleich und die Prüfung vorhandener Frameworks und Softwarelösungen. Funktionen, die über vorhandene Frameworks und Softwarelösungen nicht abgedeckt werden konnten, programmierten die Wissenschaftler*innen selbst.
  • Sie testeten die Funktionsweise der Plattform anhand des Prototyps und prüften die Nutzung aus Sicht drei unterschiedlicher Stakeholder: Wissenschaftler*innen, Praxispartner, Lehrende an Hochschulen.
  • Aus Sicht der Wissenschaftler*innen untersuchten sie, wie diese Partner finden, Forschungsmethoden nutzen und Artefakte mithilfe von Simulation und Datenmodellen erstellen. Aus Unternehmenssicht prüften sie, wie Firmen Projektpartner finden und Simulationsmodelle sowie Daten einbringen können. Schließlich testeten sie, wie Studierende in Universitätskursen die Plattform für den Einstieg in Energiesystemsimulationen nutzen.
Ergebnisse/Erkenntnisse:
  • Die Plattform kann Wissenschaftler*innen bei der Vernetzung, Methodennutzung und Forschungskommunikation unterstützen. Unternehmen profitieren durch den Zugang zu Expertise und Simulationsmodellen. Studierende können die Plattform nutzen, um komplexe Energiesysteme besser zu verstehen.
  • Der Prototyp ist funktionsfähig und kann im Rahmen von Workshops und Messen vorgestellt werden. Er gibt einen umfassenden Einblick in den Aufbau der Plattform und ihre Inhalte. Außerdem wird in einem Video die Funktionsweise der Plattform erläutert.
  • Zusätzlich stellen die Wissenschaftler*innen auf einer separaten Website umfängliche Informationen über den Prototyp zur Verfügung. Die Website ist unabhängig von Veranstaltungen jederzeit einsehbar und dient als Demonstrator des Prototyps.
Zukunftslabor
Gesellschaft und Arbeit
Sprecher*innen-Einrichtung
Leibniz Universität Hannover
7 geförderte Einrichtungen
3 Teilprojekte
24 assoziierte Partner
01.10.2020 - 30.09.2024
digitale Welten gestalten
Die Möglichkeiten einer zunehmend softwarebasierten Technisierung sowie die Vernetzung und Automatisierung von Geschäfts- und Leistungserstellungsprozessen haben große Auswirkungen auf Arbeit, Organisation und Beschäftigung. Digitalisierung und Automatisierung werden eine tiefgreifende und systemische Transformation von Industrie und Dienstleistungen, der daran gebundenen Wirtschaftsentwicklung und der kulturellen Einbettung in die Gesellschaft zur Folge haben. Die neuen hochgradig vernetzten, intelligenten Technologien bieten das Potential, Produktions- und Dienstleistungsprozesse radikal neu zu organisieren. Erwartet werden weitreichende Auswirkungen auf Umfang und Art der Beschäftigung und auf die inner- und zwischenbetriebliche sowie räumliche Organisation. Zudem verändern sich Arbeits- sowie Interaktionsformen und es ist von Verschiebungen und Gestaltungsbedarfen bei den Rollen-, Kompetenz- und Anforderungsprofilen der Beschäftigten auszugehen.
Zentrale Aspekte des Zukunftslabors Gesellschaft & Arbeit sind die arbeitsbezogenen Folgen und Wirkungen der Digitalisierung, die Möglichkeiten, Konzepte und Voraussetzungen für die Gestaltung digitaler Arbeitswelten, die Auswirkungen künstlicher Intelligenz auf Organisationsprozesse sowie Fragen der damit verbundenen Gestaltung von Wirtschaftspolitik und Regulierung.
Teilprojekte
in Arbeit
Gestaltung digitaler Arbeitswelten: Möglichkeiten, Konzepte, Voraussetzungen
Erkenntnisse aus den Sozialwissenschaften und der Technikforschung weisen darauf hin, dass Formen der aktiven Beteiligung der Beschäftigten die Nutzbarkeit von Technologien und die Qualität der Leistungserstellung prägen. Beteiligung hat auch einen Einfluss darauf, wie Digitalisierungsprozesse erlebt werden. Jedoch werden die Potentiale der Mitgestaltung von Arbeit und Technik, bei der Beschäftigte eine zentrale Rolle spielen, beispielsweise durch Konzepte eines partizipativen Designs, bislang erst in Ansätzen berücksichtigt.
in Arbeit
Künstliche Intelligenz und Organisationsprozesse
Dieses Teilprojekt befasst sich mit dem Zusammenhang von Trainingsdaten und Entscheidungen für Künstlichen Intelligenz und wie Prognosen und Entscheidungen der KI für Beschäftigte Transparent gemacht werden können. Herausforderungen dabei sind unter anderem die Robustheit der Modelle sowie die ethische Vertretbarkeit als auch die Verantwortung für die getätigten Prognosen und Entscheidungen der KI. Um mehr Vertrauen und Sicherheit zu schaffen, entwickeln die Wissenschaftler*innen verschiedene Szenarien um die Interaktion von Mensch und Maschine zu untersuchen. Empirische Fallstudien beleuchten die Auswirkungen der Digitalisierung auf Organisationsstrukturen.
in Arbeit
Regulatorischer Rahmen und wirtschaftspolitische Instrumente
Bei diesem Teilprojekt geht es um den Einsatz digitaler Technologien im beruflichen Umfeld. Dabei werden insbesondere drei Aspekte untersucht. Erstens werden die räumlichen Auswirkungen der Digitalisierung untersucht und die damit verbundene Frage beantwortet, ob der Digital Divide vertieft oder verringert werden wird. Auch das Thema „Digital Entrepreneurship“ ist hier verortet. Zweitens wird die juristische Perspektive und damit die rechtlichen Anforderungen an die Erklärbarkeit und Nachvollziehbarkeit digitaler Technologien beleuchtet, denn die Einführung digitaler Technologien scheitert nicht selten an fehlender Rechtssicherheit. Drittens wird untersucht, welche neuen Herausforderungen die Digitalisierung für den Wissens- und Technologietransfer schafft.
Teilprojekt
Gestaltung digitaler Arbeitswelten: Möglichkeiten, Konzepte, Voraussetzungen
Status: in Arbeit
Erkenntnisse aus den Sozialwissenschaften und der Technikforschung weisen darauf hin, dass Formen der aktiven Beteiligung der Beschäftigten die Nutzbarkeit von Technologien und die Qualität der Leistungserstellung prägen. Beteiligung hat auch einen Einfluss darauf, wie Digitalisierungsprozesse erlebt werden. Jedoch werden die Potentiale der Mitgestaltung von Arbeit und Technik, bei der Beschäftigte eine zentrale Rolle spielen, beispielsweise durch Konzepte eines partizipativen Designs, bislang erst in Ansätzen berücksichtigt.

An diesen Befunden setzt das Teilprojekt 1 an und legt einen Fokus auf arbeitsbezogene Digitalisierungs- und den damit verbundenen Gestaltungsprozessen. Im Fokus der Forschung stehen folgende Fragen: Wie lassen sich digitale Technologien menschen- und arbeitszentriert gestalten und Wandlungsprozesse in Organisationen bewältigen? Auf welchen Wegen und mit welchen Konzepten können Voraussetzungen in Organisationen geschaffen werden, damit Beschäftigte sowohl motiviert als auch gut qualifiziert den Arbeitsplatz der Zukunft mitgestalten?

Die Forschung im Teilprojekt rückt zwei Aspekte besonders in den Mittelpunkt: Erstens den Einsatz von Augmented und Virtual Reality. So wird in diesem Kontext etwa die Unterstützung zeitkritischer Prozesse, vor allem in der Produktion untersucht. Zweitens fokussiert das Teilprojekt Digitalisierungsprozesse in der öffentlichen Verwaltung und arbeitet hier die besonderen Herausforderungen, Anforderungen und Möglichkeiten heraus.

Das Teilprojekt arbeitet dabei eng mit Praxispartner zusammen, um gemeinsam Experimente und Fallstudien (vor Ort in den Organisationen) durchzuführen.
Ansprechperson
Prof. Dr. techn. Susanne Boll-Westermann
Carl von Ossietzky Universität Oldenburg, OFFIS Institut für Informatik
FuE Bereich Society
Digitalisierungsprozesse an der Schnittstelle zu Kund*innen/Bürger*innen erfordern organisierte Mitgestaltungs- und Beteiligungsprozesse und das nicht nur von Beschäftigen, sondern auch von Kund*innen/Bürger*innen. Mitgestaltungs- und Beteiligungsprozesse stehen in der öffentlichen Verwaltung dabei vor spezifischen Herausforderungen.
Unterschiedliche Arbeitslogiken spielen bei der Bewertung und Gestaltung digitaler Anwendungen und Tools in Jobcentern eine gewichtige Rolle. Diese gilt es für Digitalisierungsprozesse stärker als bisher zu berücksichtigen. Wir haben Hinweise darauf, dass dies auch in anderen Bereichen der öffentlichen Verwaltung der Fall ist.
Gelernte hierarchische Kommunikations- und Entscheidungsroutinen stehen in der Verwaltung flexibleren, veränderungsaffinen Strukturen häufig noch entgegen.
Studien zu Augmented- und Virtual-Reality-Anwendungen
Virtuelles Pflegelabor
Forschungsinteresse:
  • Wie können sich virtuelle Personen in einer virtuellen Pflegeumgebung fortbewegen?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein virtuelles Reallabor weiter. Das Reallabor bildet eine Pflegeumgebung virtuell ab und dient zur Weiterbildung von Pflegekräften. Diese können über eine Virtual-Reality-Brille in die Pflegeumgebung eintauchen und verschiedene Tätigkeiten und Situationen üben. Über zwei Controller können sie Dinge in der Pflegeumgebung anfassen und steuern, z. B. Spritzen aufziehen oder medizinische Geräte einstellen.
  • Damit die Pflegekräfte in der virtuellen Umgebung auch mit anderen Kolleg*innen interagieren können, entwickelten die Wissenschaftler*innen Avatare. Zudem programmierten sie ein Wegpunktsystem, anhand dessen sich die Avatare in der virtuellen Pflegeumgebung fortbewegen können.
Ergebnisse/Erkenntnisse:
  • Das virtuelle Reallabor verfügt über Avatare, die sich entlang eines Wegpunktsystems innerhalb der virtuellen Pflegeumgebung fortbewegen können. Pflegekräfte können mit diesen Avataren interagieren.
Studien zu Augmented- und Virtual-Reality-Anwendungen
AR-unterstütze Verpackungsvorgänge
Forschungsinteresse:
  • Wie kann das Verpacken von Produkten mithilfe von Augmented Reality (AR) unterstützt werden?
Vorgehen:
  • In einer Fallstudie mit einem Praxispartner entwickelten die Wissenschaftler*innen eine AR-Anwendung, die Beschäftigte beim Verpackungsprozess unterstützt. Der Praxispartner verschickt seine Produkte mit unterschiedlichem Verpackungsmaterial und verschiedenen Werbebroschüren. Die Beschäftigten müssen je nach Auftrag die entsprechenden Materialen verwenden. Insbesondere für Saisonmitarbeiter*innen, die nur eine kurze Einarbeitungszeit haben, sind visuelle Informationen hilfreich.
  • Die Wissenschaftler*innen führten Interviews mit Führungskräften und Beschäftigten, um die AR-Anwendung zielgruppenorientiert zu erstellen.
  • Daraufhin erstellen sie eine Testumgebung eines Verpackungsarbeitsplatzes, in der sie die AR-Anwendung ausprobieren konnten.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen entwickelten eine AR-Anwendung für die Beschäftigten des Praxispartners. Über die AR-Brille werden Informationen für die Auftragszusammenstellung im Sichtfeld der Beschäftigten eingeblendet werden. Außerdem wird angezeigt, welche Verpackungs- und Werbematerialen für dieses spezielle Produkt verwendet werden sollen.
Studien zu Augmented- und Virtual-Reality-Anwendungen
AR-Anwendungen in zeitkritischen Prozessen
Forschungsinteresse:
  • Wie kann Augmented Reality (AR) Beschäftigte bei zeitkritischen Prozessen unterstützen?
Vorgehen:
  • Die Wissenschaftler*innen testeten AR-Anwendungen im Rahmen des Human-Centered-Designs (menschenzentrierte Gestaltung). Bei diesem Ansatz werden die Nutzer*innen in die Entwicklung neuer Technologien einbezogen und ihre Anforderungen in den Fokus gerückt.
  • Konkret ging es um Studien mit zeitkritischen Prozessen, d. h., dass bestimmte Arbeitsschritte innerhalb eines festgelegten Zeitraums erledigt werden müssen. Das Anwendungsbeispiel waren Prozesse des industriellen Klebens, bei denen Minimalzeiten (Wie lange müssen zwei Wirkstoffe mindestens wirken?) und Maximalzeiten (In welchem Zeitraum müssen die Substanzen verarbeitet werden?) eingehalten werden müssen. Die Prozesse sind nicht zur zeitkritisch, sondern auch räumlich verteilet - sie finden also an unterschiedlichen Arbeitsstationen statt.
  • In der ersten Studie passten sie bestehende Visualisierungstechniken für zeitkritische Aufgaben an und ergänzten sie um Zeitinformationen. In der zweiten Studie wurden die besten Techniken (Pfeile und Ecken) auf industrielle Klebeprozesse angewendet, um deren Wirksamkeit zu überprüfen.
Ergebnisse/Erkenntnisse:
  • Die erste Studie zeigte, dass AR-Hinweise die Übersicht verbessern und die Fehlerrate sowie Ausführungszeit verringern.
  • In der zweiten Studie stellten die Wissenschaftler*innen fest, dass visuell auffälligere Darstellungen bei zeitkritischen Aufgaben die Leistung steigern. Die Pfeile erwiesen sich als besonders effektiv, vor allem, wenn sie bei kritischen Aufgaben rot und größer dargestellt wurden.
Forschung zu Digitalisierungsprozessen in der öffentlichen Verwaltung
Digitalisierung in Jobcentern
Forschungsinteresse:
  • Mit welchen spezifischen Anforderungen und Herausforderungen sind Digitalisierungsprozesse in Jobcentern verbunden? Wie muss Digitalisierung gestaltet werden, dass sich gleichermaßen den gesetzlichen Vorgaben sowie den Anforderungen von Beschäftigten und Leistungsempfänger*innen/Antragssteller*innen gerecht wird?
  • Konkret stehen dabei insbesondere Fragen zu den notwendigen personellen, technischen und (prozess-)organisatorischen Voraussetzungen, den qualifikatorischen Anforderungen, den Erwartungen, Ansprüchen und Zielsetzungen aller Beteiligten sowie den Mitsprache- und Mitgestaltungsmöglichkeiten der Beschäftigten und Leistungsempfänger*innen/Antragssteller*innen im Fokus.
Vorgehen:
  • Die Wissenschaftler*innen des Zukunftslabors begleiteten Digitalisierungsprozesse in Jobcentern (insb. vor dem Hintergrund der Digitalisierungsprozesse im Zusammenhang mit dem Onlinezugangsgesetz) und analysieren dabei die Herausforderungen, Gestaltungsmöglichkeiten und Entwicklungsperspektiven.
  • Wissenschaftler*innen führten umfassende Fallstudien in mehreren Jobcentern durch. Die Fallstudien beinhalten dabei 1.) Arbeitsplatzbeobachtungen in den zentralen Tätigkeitsbereichen der Jobcenter, 2.) Experteninterviews mit betrieblichen Fach- und Führungskräften (insb. Geschäftsführung, Abteilungs- und Teamleiter*innen, Personalrat, IT-Expert*innen und externe Expert*innen von BA und Kommune), 3.) Interviews mit Beschäftigten, 4.) Interviews mit Leistungsempfänger*innen und Antragssteller*innen, 5.) eine quantitative Befragung von Beschäftigen, 6.) eine quantitative Befragung von Leistungsempfänger*innen und Antragssteller*innen und 7.) Workshops zur Diskussion der Befunde.
Ergebnisse/Erkenntnisse:
  • Digitalisierung in Jobcentern ist mit spezifischen Anforderungen und Herausforderungen verbunden. Hierfür besonders prägend sind folgende Aspekte: 1.) Es handelt sich um eine besondere Art der Dienstleistung: Sicherung des Mindeststandards („Grundsicherung“ und „Auffangnetz“), vielfältige Problemlagen und Krisensituationen der Leistungsempfänger*innen/Antragssteller*innen. 2.) Die Arbeit in Jobcentern ist in hohem Maße durch interaktive Arbeit geprägt, welche in Jobcentern jedoch nochmals spezifisch strukturiert ist: keine klassische Dienstleistungsgeber-Dienstleistungsnehmer-Beziehung, keine Wahlfreiheit hinsichtlich Anbieter & keine Ausschlussmöglichkeit, Machtasymmetrien/“Zwangskontext“. 3.) Im Feld Jobcenter besteht eine hohe Heterogenität der Leistungsempfänger*innen/Antragssteller*innen (insb. hinsichtlich digitalen Kompetenzen/Möglichkeiten, Anliegensarten). Digitalisierung muss vor dem Hintergrund dieser spezifischen Anforderungen und Herausforderungen gestaltet werden, was insbesondere bedeutet: 1.) Organisation von kontinuierlichen Mitgestaltungs- und Beteiligungsprozesse durch Beschäftige und Leistungsempfänger*innen/Antragssteller*innen, 2.) Gestaltung digitaler Anwendungen mit Blick auf unterschiedliche Anliegensarten (Wo ist der digitale Kontakt sinnvoll und nützlich? In welchen Fällen ist es sinnvoll, den persönlichen Zugang beizubehalten?). 3.) Gestaltung vor dem Hintergrund unterschiedlicher Typen von Leistungsempfänger*innen/Antragssteller*innen (Für wen ist der digitale Zugang geeignet und möglich? Wie muss er für unterschiedliche Gruppen gestaltet werden? Welche Unterstützungsmöglichkeiten brauchen einzelne Gruppen?).
  • Für die Bewertung und Gestaltung von Digitalisierung in Jobcentern spielen unterschiedliche Arbeitslogiken eine wichtige Rolle. Mit Arbeitslogiken meinen wir kollektiv geteilte und institutionalisierte Verständnisse in Bezug auf Gegenstand, Inhalt, Ziel und Zweck der Arbeitstätigkeit. Diese sind in dreifacher Hinsicht für Digitalisierungsprozesse relevant: 1.) Akteure diskutieren und bewerten digitale Anwendungen und Möglichkeiten vor dem Hintergrund eines spezifischen Verständnisses von Inhalten, Zielen und Zwecken der Arbeit eines Jobcenters und beziehen sich dabei auf spezifische Arbeitslogiken. Die Bezugnahme auf unterschiedliche Arbeitslogiken beeinflusst somit Digitalisierungsprozesse. 2.) Zugleich sind digitale Systeme auf bestimmte Nutzungen und (Arbeits-)Abläufe hin konzipiert. Spezifische Arbeitslogiken sind in digitale Anwendungen teilweise eingeschrieben. Mit digitalen Anwendungen werden somit auch Arbeitslogiken importiert. 3.) In Technik eingeschriebene Arbeitslogiken werden in der Aneignung von und im Umgang mit Technik wirksam („enacted“). Digitale Anwendungen können dabei zu bestimmten Arbeitslogiken passen, sich an anderen wiederum reiben oder gar im Widerspruch zu ihnen stehen.
  • Mitgestaltungs- und Beteiligungsprozesse stehen in Jobcentern - und dies scheint für die öffentliche Verwaltung typisch zu sein - vor Herausforderungen. 1.) Der Spielraum für die Gestaltung digitaler Technologien und Anwendungen ist auf lokaler Ebene begrenzt, insbesondere aufgrund finanzieller Restriktionen, rechtlicher Vorgaben und zentralisierter Entwicklungs- und Gestaltungsprozesse. 2.) Es gibt erhebliche Lücken bei institutionalisierten Mitgestaltungsmöglichkeiten hinsichtlich Digitalisierung. Betriebsverfassungsgesetz/Bundespersonalvertretungsgesetz sehen keine expliziten Mitbestimmungsrechte bei der Digitalisierung vor und viele Personalräte erkennen die Digitalisierung und die Gestaltung digitaler Arbeitsabläufe nicht als ihre Aufgabe an. 3.) Es mangelt in der öffentlichen Verwaltung generell an Erfahrungen mit partizipativen Veränderungs- und Entwicklungsprozessen. Kontinuierliche Verbesserung sowie die Einbeziehung der Beschäftigten sind hier weit weniger verankert als in der Privatwirtschaft.
Forschung zu Digitalisierungsprozessen in der öffentlichen Verwaltung
Einführung eines digitalen Tools in einer kommunalen Wirtschaftsförderung
Forschungsinteresse:
  • Wie werden Beschäftigte in Digitalisierungsprozesse ihrer Organisation einbezogen?
  • Welche (kommunikativen) Voraussetzungen brauch es für Mitgestaltung?
  • Inwiefern beeinflussen (neue) digitale Tools die Kooperations- und Kommunikationsprozesse innerhalb einer Organisation?
Vorgehen:
  • Bei der Digitalisierung von Arbeitsprozessen sollten die Beschäftigen einbezogen werden, da sie zum einen direkt betroffen sind, zum anderen aber auch über besonderes Expert*innenwissen für die besonderen Anforderungen verfügen. Im Rahmen einer Fallstudie untersuchten die Wissenschaftler*innen die Einführung eines kombinierten Customer Relationship Management Systems (CRM) mit Projektmanagementfunktionen in einer kommunalen Wirtschaftsförderung. Das CRM dient zur Verwaltung und Organisation der Kund*innendaten und -anliegen und zur Koordination, Planung und Evaluation neuer und bestehender Projekte.
  • Die Wissenschaftler*innen führten Betriebsfallstudien in einer kommunalen Wirtschaftsförderung durch. Die Fallstudien beinhaltetn dabei 1.) Arbeitsplatzbeobachtungen in den zentralen Tätigkeitsbereichen, 2.) Experteninterviews mit betrieblichen Fach- und Führungskräften (insb. Geschäftsführung, Abteilungs- und Teamleiter*innen, Kommunikationsexpert*innen, Personalrat, IT-Expert*innen), 3.) Interviews mit Beschäftigten, 4.) Workshop zur Diskussion der Befunde.
Ergebnisse/Erkenntnisse:
  • Die Arbeitsprozesse bei der Auswahl des Tools wurden nicht ausreichend in den Mittelpunkt gestellt. Die Zuständigen haben nicht geprüft, was das Tool wirklich für den Arbeitsprozess leisten kann und welche vielleicht auch unerwünschten Auswirkungen sich darüber hinaus ergeben können. Die Auswahl erfolgte vorrangig aufgrund von Empfehlungen aus anderen Abteilungen und war stark beeinflusst von einem vereinfachten Beschaffungsprozess.
  • In der Anwendung zeigte sich, dass vielen Beschäftigen unklar war, wie das Tool zu nutzen ist, da es keine verbindlich kommunizierten Regeln gab. Um es trotzdem sinnvoll nutzen zu können, passten die Beschäftigten das Tool oft durch Improvisation an den eigenen Arbeitsprozess an, auch wenn dies nicht dem ursprünglichen Nutzungsziel entspricht.
  • Die Wissenschaftler*innen haben außerdem festgestellt, dass vielen Beschäftigten die Ziele hinsichtlich der Nutzung des Tools nicht ausreichend bekannt sind. Sie wissen oft nicht, was strategisch und operativ erreicht werden soll. Das wirkt sich auch auf die Nutzungsmotivation aus.
  • In den Auswahlprozess war zudem nur ein sehr kleiner Kreis der Beschäftigten eingebunden. Es war den Außenstehenden nicht klar, wie es zur Auswahl der Beschäftigten kam.
Forschung zu Digitalisierungsprozessen in der öffentlichen Verwaltung
Digitalisierungsprozesse in einer Kommunalverwaltung
Forschungsinteresse:
  • Welche Anforderungen und Herausforderungen stellen sich bei Digitalisierungsprozessen in der Kommunalverwaltung?
  • Wie kann die Schnittstelle zwischen Bürger*innen und Kommune (digital unterstützt) gut gestaltet werden?
  • Welche Möglichkeiten bietet Digitalisierung für die Unterstützung interner Abläufe und Kommunikationsprozesse?
Vorgehen:
  • Die Wissenschaftler*innen führen Betriebsfallstudien in den Bereichen Ausländerbehörde, KFZ-Zulassung, Führerschein/Fahrerlaubnis sowie allgemeine Bürgerinformation durch. Die Fallstudien beinhalten dabei 1.) Arbeitsplatzbeobachtungen in den zentralen Tätigkeitsbereichen, 2.) Experteninterviews mit betrieblichen Fach- und Führungskräften (insb. Geschäftsführung, Abteilungs- und Teamleiter*innen, Kommunikationsexpert*innen, Personalrat, IT-Expert*innen), 3.) Interviews mit Beschäftigten, 4.) Workshop zur Diskussion der Befunde.
Ergebnisse/Erkenntnisse:
  • Die Untersuchungen zeigten, dass die Digitalisierung in allen Bereichen für die Verwaltung recht weit fortgeschritten ist. So wird z. B. mit elektronischen Akten und digitalen Fachverfahren gearbeitet.
  • An der Schnittstelle zu den Bürger*innen ist der Stand der Digitalisierung hingegen unterschiedlich. An dieser Schnittstelle sind unterschiedliche Faktoren für die Gestaltung von Digitalisierung relevant, wie etwa die Art der Dienstleistung (Um welche Vorgänge handelt es sich und inwiefern können diese sinnvollerweise digital unterstützt werden? Besteht für den Vorgang zusätzlich persönlicher Beratungsbedarf?), geschäftspolitische Erwägungen (An welchen Stellen ist Digitalisierung gewollt?) und die Qualität und Nutzbarkeit der zur Verfügung stehenden Anwendungen (Eignen sie sich für den Einsatz in unserem Bereich?).
  • Darüber hinaus haben spezifischen Anforderungen und Rahmenbedingungen Einfluss auf Digitalisierungsprozesse - so etwa die Heterogenität von Fallkonstellationen und Anliegensarten im Bereich der Ausländerbehörde. Diese sollten für die Gestaltung von Digitalisierung systematisch berücksichtigt werden.
  • Typisch für die öffentliche Verwaltung scheint darüber hinaus zu sein, dass notwendige Mitgestaltungs- und Beteiligungsprozesse vor spezifischen Herausforderungen stehen. 1.) Der Spielraum für die Gestaltung digitaler Technologien und Anwendungen ist auf lokaler Ebene begrenzt, insbesondere aufgrund finanzieller Restriktionen, rechtlicher Vorgaben und zentralisierter Entwicklungs- und Gestaltungsprozesse. 2.) Es gibt erhebliche Lücken bei institutionalisierten Mitgestaltungsmöglichkeiten hinsichtlich Digitalisierung. Betriebsverfassungsgesetz/Bundespersonalvertretungsgesetz sehen keine expliziten Mitbestimmungsrechte bei der Digitalisierung vor und viele Personalräte erkennen die Digitalisierung und die Gestaltung digitaler Arbeitsabläufe nicht als ihre Aufgabe an. 3.) Es mangelt in der öffentlichen Verwaltung generell an Erfahrungen mit partizipativen Veränderungs- und Entwicklungsprozessen. Kontinuierliche Verbesserung sowie die Einbeziehung der Beschäftigten sind hier weit weniger verankert als in der Privatwirtschaft.
Teilprojekt
Künstliche Intelligenz und Organisationsprozesse
Status: in Arbeit
Dieses Teilprojekt befasst sich mit dem Zusammenhang von Trainingsdaten und Entscheidungen für Künstlichen Intelligenz und wie Prognosen und Entscheidungen der KI für Beschäftigte Transparent gemacht werden können. Herausforderungen dabei sind unter anderem die Robustheit der Modelle sowie die ethische Vertretbarkeit als auch die Verantwortung für die getätigten Prognosen und Entscheidungen der KI. Um mehr Vertrauen und Sicherheit zu schaffen, entwickeln die Wissenschaftler*innen verschiedene Szenarien um die Interaktion von Mensch und Maschine zu untersuchen. Empirische Fallstudien beleuchten die Auswirkungen der Digitalisierung auf Organisationsstrukturen.
Ansprechperson
Prof. Dr. Lars Schmidt-Thieme
Stiftung Universität Hildesheim
Institut für Informatik
Anonymität in der digitalen Wirtschaft wird durch datengetriebene Personalisierung neu definiert wird. Anstatt vollständig verschwunden zu sein, wird Anonymität durch Techniken wie Daten-Nachbarschaften umgestaltet, die persönliche Identifikationen verschleiern, aber Nutzer basierend auf Ähnlichkeiten klassifizieren, vorhersagen und gezielt ansprechen.
Obwohl das Forschungsgebiet des Active Learning (AL) bereits seit ca 20 Jahren existiert, sind wir immer noch mit Schwierigkeiten in der Auswertung von AL Algorithmen konfrontiert. Nicht nur wird das Ergebnis stark von dem benutzten Modell, Trainings-Verfahren und anderen Parametern beeinflusst, sondern auch die Datenmodalität an sich muss beachtet werden. In dieser Arbeit stellen wir das erste Framework für AL vor, welches sicher und zuverlässig AL-Algorithmen in 3 realen Datendomänen (Tabellen, Text, Bild), sowie auf synthetischen Datensätzen testet.
Menschen in Verhandlungssituationen akzeptieren ökonomische Verluste, um autonome KI-Systeme zu meiden.
In dieser Arbeit werden die mathematischen Erkenntnisse und Errungenschaften vieler Artikel zur Robustheit von Neuronalen Netzen gegenüber Angriffen zusammengefasst und vereinheitlicht, bevor neue theoretische Ansätze mit demselben Ziel erklärt, motiviert und teils empirisch untermauert werden.
Das entwickelte Tripletformer-Modell erlaubt es fehlende Daten in unregelmäßig gemessenen Zeitreihen, wie z.B. in der Medizin, genauer vorherzusagen. Es verwendet spezielle Techniken, um nicht nur die fehlenden Werte zu schätzen, sondern auch die Unsicherheiten dieser Vorhersagen zu berücksichtigen, was es präziser macht als frühere Methoden.
Objektivität von Algorithmen
Forschungsinteresse:
  • Welche Faktoren beeinflussen den Entwicklungsprozess von Algorithmen?
Vorgehen:
  • Die Wissenschaftler*innen interviewten Data Scientists und Entwickler*innen von Social Media Plattformen hinsichtlich sogenannter personalisierter Services (z. B. beim Produktkauf, wo ein Algorithmus Kaufempfehlungen ausspricht). Dabei fokussierten sie sich auf drei Aspekte: das Algorithmic Management (datengetriebene Formen, Arbeitsprozesse zu organisieren wie z. B. die Planung von Schichtdiensten), Anonymität (durch die Verbindungen verschiedener Daten kann Anonymität aufgehoben werden) und Datennachbarschaften (algorithmische Empfehlungen auf Basis von Entscheidungen anderer Personen mit ähnlichem Verhalten).
Ergebnisse/Erkenntnisse:
  • Die Untersuchung ergab, dass bestimmte Annahmen der Entwickler*innen in die Gestaltung der Social Media Plattformen einflossen (z. B. dass „Datennachbarn“ als Gleichgesinnte mit ähnlichen Interessen gelten). Das bedeutet, dass bei der Entwicklung von Algorithmen stets betrachtet werden sollte, wer diese entwickelt und für wen.
Diskriminierung durch Datennachbarschaften
Forschungsinteresse:
  • Auf welchem Prinzip basiert die Anonymisierung persönlicher Nutzungsdaten?
  • Welche Folge hat die Anonymisierung auf personalisierte Services (z. B. Kaufempfehlungen)?
Vorgehen:
  • Hintergrund: Immer mehr Unternehmen nutzen Nutzerdaten, um personalisierte Services anzubieten. Dazu werden Verhaltensdaten anonymisiert und in sogenannten Datennachbarschaften gruppiert, wobei Personen mit ähnlichem Kauf- und Klickverhalten zusammengefasst werden, um ihre Privatsphäre zu schützen.
  • Die Wissenschaftler*innen analysierten eine bisher unveröffentlichte Studie, in der es um die Entstehung des Nachbarschaftsprinzips „Homophilie“ geht. Dieses Prinzip wird heutzutage für Empfehlungsalgorithmen verwendet. In der Studie geht es um Freundschaftsnetzwerke in zwei Wohnprojekten. Die Studie beschreibt zwei soziale Konzepte, die zur Bildung von freundschaftlichen Beziehungen zwischen Nachbar*innen beitragen: „Gleiches und Gleiches gesellt sich gern“ (Homophilie) und „Gegensätze ziehen sich an“.
Ergebnisse/Erkenntnisse:
  • Von diesen beiden Konzepten hat sich nur das Prinzip der Homophilie in der Entwicklung digitaler Netzwerke und ihren Personalisierungsalgorithmen durchgesetzt. Das ist deshalb problematisch, weil personalisierte Dienste (wie z. B. Kaufempfehlungen) Nutzer*innen zu Gruppen mit ähnlichen Interessen zusammenfassen - sogenannte Datennachbarschaften. Dadurch wird Vielfalt/Andersartigkeit ausgeschlossen, z. B. indem bestimmte Produkte gar nicht erst angeboten werden. In diesem Zusammenhang werden Phänomene der systematischen Datendiskriminierung deutlich. Daher sollte das Prinzip der Anonymität und der homophilen Datennachbarschaften neu gedacht werden, um Diskriminierung in digitalen Technologien entgegenzuwirken.
ML-basiertes Auktionssystem
Forschungsinteresse:
  • Inwiefern kann Machine Learning ein Auktionssystem verbessern?
Vorgehen:
  • Gemeinsam mit einem Praxispartner entwickelten die Wissenschaftler*innen ein automatisiertes Auktionssystem, das gebrauchte Waren anbietet und mithilfe von Machine Learning (ML) Produktvorschläge für Nutzer*innen ausgibt.
  • Der Praxispartner hatte u. a. die Anforderung, dass die Entscheidungen des Systems erklärbar sein müssen, damit es auch im direkten Kundenkontakt eingesetzt werden kann.
  • Die Wissenschaftler*innen entwickelten einen ML-Algorithmus, den sie mit Produktdaten, Informationen über die Käufer*innen sowie den Auktionsverlauf trainierten. Als Grundlage verwendeten sie einen Datensatz, der Informationen über 3.200 Nutzer*innen, 270.000 Artikel und 375.000 Gebote enthielt.
Ergebnisse/Erkenntnisse:
  • Mithilfe dieser Daten entwickelten die Wissenschaftler*innen ein Modell, das bis zu elf Prozent effektiver als derzeit existierende State-of-the-art-Systeme arbeitet.
Verhältnis von Mensch und Künstlicher Intelligenz
Forschungsinteresse:
  • Wie wirkt sich Künstliche Intelligenz auf das Verhalten von Menschen in ökonomischen Verhandlungen aus?
  • Beeinflussen ökonomische Erwartungen die Präferenzen für oder gegen Künstliche Intelligenz?
  • Inwiefern unterscheiden Menschen zwischen lernenden und nicht-lernenden Algorithmen?
  • Wächst das Vertrauen der Menschen in lernende oder nicht-lernende Algorithmen mit der Zeit und wenn ja, warum?
Vorgehen:
  • Im ersten Schritt führten die Wissenschaftler*innen eine Literaturrecherche zu den Auswirkungen von KI auf das Verhalten von Beschäftigten durch. Im zweiten Schritt untersuchten sie in zwei Studien das Verhältnis von Mensch und KI.
  • In der ersten Studie „Ökonomische Verhandlung zwischen zwei Akteuren“ sollten zwei Personen Geld aufteilen. Zunächst verhandelten sie ohne Technologie, dann mit einer automatisierten Entscheidungshilfe für eine Person und einem Recommender System für die andere. Ziel war es, herauszufinden, wie sich das Verhalten durch den Einsatz der Technologien verändert.
  • Die Studie wurde mit dem Fokus auf ökonomische Erwartungen wiederholt, an der 480 Personen teilnahmen. Die Wissenschaftlerinnen untersuchten, ob der ökonomische Eigennutz die Präferenzen für oder gegen eine Verhandlung mit KI beeinflusst. Die Probandinnen wurden in „Arbeitgeberinnen“ und „Arbeitnehmerinnen“ unterteilt und sollten vor der Verhandlung die Höhe des Geldes einschätzen, das sie aushandeln würden.
  • Die zweite Untersuchung „Algorithmus Aversion“ erforschte, wie Menschen die Entscheidungen von Algorithmen ablehnen und ob sie zwischen lernenden und nicht lernenden Algorithmen unterscheiden. Proband*innen sollten eine Zahl ermitteln und die Empfehlung eines Algorithmus berücksichtigen, um zu prüfen, wie nah sie dem Ergebnis kamen und wie viel Geld sie verdienten.
Ergebnisse/Erkenntnisse:
  • Die Literaturrecherche ergab, dass algorithmische Systeme nur dann effektiv sind, wenn sie menschliches Verhalten verstehen und Prognosen zu Verhaltenstrends abgeben können, ohne Verhaltensmuster radikal zu verändern. Zudem wurden Forschungslücken aufgezeigt, insbesondere bezüglich der Auswirkungen von Transparenz und Interpretierbarkeit von KI auf menschliches Verhalten.
  • In der Studie „Ökonomische Verhandlung zwischen zwei Akteuren“ fühlten sich nur wenige Personen bei Verhandlungen zwischen Menschen benachteiligt. Mit einer automatisierten Entscheidungshilfe fühlte sich die Person ohne technische Unterstützung benachteiligt und forderte mehr Geld, was das Risiko eines Misserfolgs erhöhte. Eine Erklärung zur Algorithmus-Empfehlung verbesserte das Gefühl, aber die Verhandlung blieb als unfair empfunden. Dies zeigt, dass Algorithmen das Verhalten der Menschen beeinflussen.
  • In der zweiten Studie erwarteten 49 % der Arbeitnehmer*innen ein höheres Gehalt bei Verhandlungen mit einer KI. Dennoch entschieden sich 52 % für Verhandlungen mit einem Menschen. Dies deutet darauf hin, dass soziale Faktoren wichtiger sind als ökonomische bei der Ablehnung von KI. Die Verhandlung mit einer KI führte zu höheren Geldforderungen, was zeigt, dass KI die Entscheidungsfindung verändert, ohne monetäre Anreize zu nutzen.
  • Die Studie „Algorithmus Aversion“ zeigte, dass Proband*innen einem Algorithmus nur dann vertrauen, wenn er keine Fehlentscheidungen trifft. Auch nach dem Lernen aus Fehlern blieb das Vertrauen gering.
Künstliche Intelligenz
Vertrauenswürdigkeit von Künstlicher Intelligenz
Forschungsinteresse:
  • Wie kann die Vertrauenswürdigkeit von Künstlicher Intelligenz gesteigert werden?
Vorgehen:
  • Die Wissenschaftler*innen erstellten ein Survey zum Thema „Kausalität für vertrauenswürdige KI“. Ein Survey gibt einen Überblick über aktuelle Forschungsinhalte innerhalb eines Forschungsgebietes. Dies dient einem besseren Verständnis für das Forschungsgebiet und soll andere Wissenschaftler*innen zum Forschen animieren.
Ergebnisse/Erkenntnisse:
  • Das Survey beleuchtet, wie man KI mit dem Konzept des kausalen Denkens vertrauenswürdiger machen kann. Es wird dargestellt, wie Wissenschaftler*innen es geschafft haben, mittels Kausalität KI-Systeme interpretierbarer, fairer, robuster, die Privatsphäre besser schützend und sicherer zu gestalten.
  • Es werden verfügbare Datensätze, Werkzeuge und Pakete aufgelistet, die für die kausalitätsbasierte Forschung und Entwicklung vertrauenswürdiger KI relevant sind. Um einen Einblick zu geben, was Kausalität in diesem Zusammenhang bedeutet, wird ein Beispiel aus der Robustheit vorgestellt: Hier besteht das Problem der KI darin, falsche Zusammenhänge bei der Auswertung von Daten zu nutzen, wenn die Datengrundlage verändert wird.
Künstliche Intelligenz
Repräsentativität und Robustheit von Künstlicher Intelligenz
Forschungsinteresse:
  • Wie repräsentativ sind die Entscheidungen einer Künstliche Intelligenz (KI) zur Bilderkennung?
  • Wie robust sind die Entscheidungen einer Künstliche Intelligenz (KI) zur Bilderkennung?
Vorgehen:
  • Bei der Repräsentativität Künstlicher Intelligenz geht es um den Zusammenhang zwischen Trainingsdaten und den Entscheidungen der KI, während die Robustheit beschreibt, wie die KI auf kleine Änderungen in den Daten reagiert.
  • Die Wissenschaftler*innen trainierten ein KI-Modell zur Bilderkennung und testeten es mit neuen Daten, um sicherzustellen, dass die Entscheidungen der KI nicht auf irrelevanten Merkmalen basieren. Die Auswahl der Trainingsdaten ist entscheidend für die Leistung der KI. Die KI sollte nicht nur grobe Unterschiede zwischen Objekten erkennen, sondern auch kleine Veränderungen in der Datengrundlage korrekt einordnen. Wenn eine Änderung in den Bilddaten dazu führt, dass die KI ihre Entscheidung erheblich ändert, ist sie nicht robust. Das Modell sollte daher in der Lage sein, relevante Merkmale korrekt zu identifizieren.
  • Um zu verstehen, was das KI-Modell gelernt hat, manipulierten die Wissenschaftler*innen verschiedene Modellkomponenten und änderten die Trainingsdaten. Sie testeten das Modell, indem sie Pixel im Bild veränderten und überprüften die Ergebnisse. Nachdem die KI eine Entscheidung getroffen hatte, bewertete ein Optimierungsalgorithmus, ob diese korrekt war. Das Modell musste dann lernen, warum es falsch entschieden hatte, indem es die relevanten Merkmale identifizierte und daraus Rückschlüsse für zukünftige Entscheidungen zog.
Ergebnisse/Erkenntnisse:
  • Stück für Stück verbesserte sich das KI-Modell. Die KI wurde also im Laufe der Versuche immer robuster. Die Wissenschaftler*innen konnten in diesem Zusammenhang auch zeigen, dass es eine Verbindung gibt zwischen der Robustheit von Daten (Wie stark reagieren die Label auf minimale Veränderungen der Datengrundlage?) und der Robustheit des KI-Modells (Wie stark reagiert die KI auf minimale Veränderungen der Datengrundlage?).
Künstliche Intelligenz
Generalisierbarkeit von Künstlicher Intelligenz
Forschungsinteresse:
  • Wirkt sich die Robustheit von Daten positiv auf die Generalisierbarkeit von KI aus?
Vorgehen:
  • Hintergrund: Neben der Repräsentativität und Robustheit ist auch die Generalisierbarkeit eine wichtige und erforderliche Eigenschaft Künstlicher Intelligenz. KI muss in der Lage sein zu verallgemeinern. Dafür muss die KI lernen, von einzelnen Merkmalen auf die Gesamtheit zu schließen. Wenn sie z. B. mit Bildern von einfachen Küchenstühlen trainiert wird, soll sie auch Bürodrehstühle als Stühle erkennen, obwohl diese anders aussehen. Erkennt das Modell, welche funktionalen Merkmale mit dem Objekt übereinstimmen (sitzen, anlehnen), und überträgt dies auf anders gestaltete Objekte mit derselben Funktion, kann die KI generalisieren. Die Generalisierbarkeit erhöht das Einsatzspektrum der KI, da sie nicht nur für den einen trainierten Fall eingesetzt werden kann, sondern für weitere Anwendungsfälle mit ähnlichem Kontext.
  • Die Wissenschaftler*innen des Zukunftslabors führten Versuche durch, um zu testen, ob sich die Robustheit von Daten auch positiv auf die Generalisierbarkeit der KI-Modelle auswirkt.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen identifizierten Verfahren, die Robustheitsinformationen nutzen.
Teilprojekt
Regulatorischer Rahmen und wirtschaftspolitische Instrumente
Status: in Arbeit
Bei diesem Teilprojekt geht es um den Einsatz digitaler Technologien im beruflichen Umfeld. Dabei werden insbesondere drei Aspekte untersucht. Erstens werden die räumlichen Auswirkungen der Digitalisierung untersucht und die damit verbundene Frage beantwortet, ob der Digital Divide vertieft oder verringert werden wird. Auch das Thema „Digital Entrepreneurship“ ist hier verortet. Zweitens wird die juristische Perspektive und damit die rechtlichen Anforderungen an die Erklärbarkeit und Nachvollziehbarkeit digitaler Technologien beleuchtet, denn die Einführung digitaler Technologien scheitert nicht selten an fehlender Rechtssicherheit. Drittens wird untersucht, welche neuen Herausforderungen die Digitalisierung für den Wissens- und Technologietransfer schafft.
Ansprechperson
Prof. Dr. Rolf Sternberg
Leibniz Universität Hannover
Institut für Wirtschafts- und Kulturgeographie
Die digitale Infrastruktur und die Verfügbarkeit hochqualifizierter Arbeitskräfte (auch mit Digitalkompetenz) sind wichtige Bedingungen dafür, dass die Digitalisierung positive ökonomische Effekte in der Fläche, und nicht nur in größeren Städten, entfalten kann.
Regionale Innovationssysteme müssen, um die Transformation hin zur Digitalisierung und zur Nachhaltigkeit zu bewerkstelligen, Allianzen aus Hochschulpartnern, Unternehmen, kommunalen Wirtschaftsförderungen und zivilgesellschaftlichen Akteuren bilden und Formate entwickeln, in denen diese zusammenarbeiten. Dabei müssen die Bedarfe der regionalen Partner im Mittelpunkt stehen.
Unter der Betreuung von Herrn Professor Heinze wurde eine Dissertation zum Thema „KI-gestützte Darlehensentscheidungen aus zivilrechtlicher, datenschutzrechtlicher und aufsichtsrechtlicher Sicht“ im Juni 2024 fertiggestellt. Die Dissertation befasst sich mit der Regulierung von Künstlicher Intelligenz am Anwendungsbeispiel der KI-gestützten Darlehensvergabe. Ein „Highlight“ der Arbeit war es, dass der Beitrag Eingang in ein die Schufa Holding AG („Schufa“) betreffendes EuGH-Verfahren (EuGH v. 7.12.2023, C-634/21) gefunden hat.
Auswirkungen der Digitalisierung auf Regionen
Forschungsinteresse:
  • Wie wirkt sich die Digitalisierung auf die wirtschaftliche Entwicklung von Regionen aus?
Vorgehen:
  • Zunächst Schritt führten die Wissenschaftler*innen eine Literaturrecherche durch, bei der sie qualitative und quantitative Studien auswerteten.
  • Parallel zur Literaturrecherche werteten die Wissenschaftler*innen Datenbanken statistischer Ämter auf europäischer Ebene (Eurostat), auf Bundesebene (destatis) und auf Länderebene bis zur Gemeindeebene (LSN) aus. Ziel hierbei war es, einen Überblick über vorhandene Daten zu digitalen Kompetenzen oder zur Nutzung von digitalen Technologien in Unternehmen zu erhalten.
  • Daraufhin werteten die Wissenschaftler*innen von etwa 345.000 Unternehmen aus, ob sie eine Website pflegen. Dies nahmen sie als Näherungswert für die regionale Digitalisierungsintensität.
  • Zudem führten die Wissenschaftler*innen Interviews mit sieben Mittelstand 4.0-Kompetenzzentren durch, um das Verständnis von digitaler Kompetenz zu erfassen.
Ergebnisse/Erkenntnisse:
  • Das Ergebnis der Literaturrecherche war, dass Humankapital und digitale Kompetenzen zentral für die Generierung ökonomischer Effekte sind.
  • Die Auswertung der statistischen Daten ergab, dass Daten zu digitalen Kompetenzen oder zur Nutzung digitaler Technologien teilweise vorliegen, jedoch nie auf einer niedrigen regionalen Ebene für Unternehmen.
  • Die Analyse der Websites zeigte, dass sich folgende Aspekte positiv auf die Digitalisierung von Unternehmen auswirken: Unternehmenssitz in der Stadt, hohe Bevölkerungsdichte, hohes Bildungsniveau, junge Bevölkerung, hohe Zuzugsraten.
  • Die Interviews ergaben, dass insbesondere moderne Managementfähigkeiten und Soft Skills als wichtige digitale Kompetenzen betrachtet werden. Technische Fähigkeiten, die sich auf bestimmte Technologien beziehen, wurden weniger betont. Das deutet darauf hin, dass viele Unternehmen noch relativ am Anfang ihrer digitalen Entwicklung sind.
KI-basierte Kreditvergabe
Forschungsinteresse:
  • Inwieweit müssen Kreditinstitute ihre Modelle zur Ermittlung der Kreditwürdigkeit ihrer Kund*innen offenlegen?
Vorgehen:
  • Im ersten Schritt führten die Wissenschaftler*innen eine Literaturrecherche zu Offenlegungspflichten durch.
  • Im zweiten Schritt prüften sie den rechtlichen Rahmen für internes Scoring, insbesondere in Bezug auf Datenschutz- und aufsichtsrechtliche Bestimmungen. Sie untersuchten die Auswirkungen des Artikels 22 der DSGVO auf die score-basierte Kreditvergabe, der besagt, dass eine betroffene Person nicht ausschließlich einer automatisierten Entscheidung unterworfen werden darf, die sie erheblich beeinträchtigt.
  • Im dritten Schritt analysierten die Wissenschaftler*innen die Regelungen für KI-basierte Kreditvergabe in der europäischen KI-Verordnung, im Bankaufsichtsrecht und im Zivilrecht.
Ergebnisse/Erkenntnisse:
  • Die Literaturrecherche zeigte Forschungslücken beim internen Scoring von Kreditinstituten, während externe Scorings durch Auskunfteien umfangreicher untersucht sind. Die Prüfung des Artikels 22 der DSGVO ergab, dass dieser nur begrenzt auf Kreditentscheidungen anwendbar ist, da diese nicht ausschließlich automatisiert erfolgen. Rechtsschutzlücken entstehen, wenn Kreditentscheidungen von verschiedenen Akteuren getroffen werden, wie von Kreditinstituten und Auskunfteien.
  • Die Analyse der KI-Verordnung ergab, dass der erste Entwurf keine Individualrechte für von KI-Nutzung betroffene Personen vorsah. Die Wissenschaftler*innen forderten die Aufnahme solcher Rechte, die im späteren Gesetzgebungsprozess umgesetzt wurden. Betroffene Personen haben gemäß Art. 68c Absatz 1 KI-VO-E das Recht auf eine klare Erläuterung zur Rolle des KI-Systems im Entscheidungsprozess.
  • Die Überprüfung des Bankaufsichtsrechts zeigte, dass die europäische KI-Verordnung und das Bankaufsichtsrecht gut synchronisiert sind, um doppelte Pflichten und zusätzliche Kosten für Kreditinstitute zu vermeiden.
  • Im Zivilrecht stellten die Wissenschaftlerinnen fest, dass Personen, die fälschlicherweise auf Basis einer KI einen Kredit erhalten haben, zivilrechtliche Ansprüche wie Zinsreduzierung oder Darlehenskündigung geltend machen können. Auch Personen, die aufgrund geschützter Merkmale abgelehnt wurden, haben Ansprüche. Die Einführung von Sammelklagen und Beweiserleichterungen wird befürwortet, um die Rechte der Verbraucherinnen zu stärken.
Wissens- und Technologietransfer
Forschungsinteresse:
  • Welche Rolle spielen Intermediäre beim Wissens- und Technologietransfer zwischen Wissenschaft, Wirtschaft und Gesellschaft?
Vorgehen:
  • Zunächst untersuchten die Wissenschaftler*innen durch eine Literaturrecherche die regionalen Wirkungen und Funktionen von Innovationsintermediären wie Kammern und Transferstellen von Hochschulen. Anschließend reflektierten sie am Beispiel einer Science-Industry-Partnership (SIP) den Aufbau und Entwicklungsprozess solcher langfristigen Partnerschaften zwischen Hochschulforschung und Unternehmen. Diese Partnerschaften sollen den Innovations- und Wissenstransfer innerhalb einer Region stärken.
  • Weiterhin analysierten die Wissenschaftler*innen die Rolle von Wissensvermittler*innen in Bezug auf Nachhaltigkeit und Digitalisierung, basierend auf Interviews mit 62 Intermediären und Stakeholdern aus vier deutschen Wissensvermittlungsinitiativen.
  • Schließlich untersuchten sie, wie die Zusammenarbeit mit anderen Intermediären die Arbeit von Organisationen und Einzelpersonen im Bereich akademisches Unternehmertum und Technologietransfer beeinflusst. Dabei betrachteten sie Allianzen in drei Regionen, die von der niedersächsischen Landesregierung für fünf Jahre finanziert werden und von Universitäten koordiniert werden.
Ergebnisse/Erkenntnisse:
  • Die Literaturrecherche zeigte, dass die strategische Zusammenarbeit zwischen Hochschul- und politischen Intermediären noch unzureichend erforscht ist. Effektive Kooperationen sind jedoch entscheidend, um innovatives Wissen aus Hochschulen für die Innovationsleistung kleiner und mittelständischer Unternehmen in Niedersachsen nutzbar zu machen.
  • Die Analyse der Science-Industry-Partnerships (SIPs) ergab, dass die Einbindung in das regionale Innovations-Ökosystem vorteilhaft ist und leistungsstarke SIPs das Ökosystem stärken. Transferpartnerschaften müssen sich am regionalen Bedarf orientieren, um erfolgreich zu sein.
  • Die Auswertung der 62 Interviews zeigte, dass Intermediäre durch ihre Aufgaben zur Digitalisierung und Nachhaltigkeit beitragen. Sie verbreiten Informationen über Veranstaltungen, bauen Netzwerke auf und unterstützen regionale Innovationsprozesse, indem sie Probleme identifizieren und technische Lösungen fördern.
  • Die Untersuchung der Allianzen ergab, dass Wissensintermediäre von zusätzlichen Ressourcen im Ökosystem profitieren können. Allerdings kann der Wunsch, die eigene Position zu verbessern, die Kooperationsbereitschaft hemmen und zu ineffektiven Anpassungen führen.
Digitalisierungsstand in kleinen und mittleren Unternehmen (KMU) Niedersachsens
Forschungsinteresse:
  • Wie ist der aktuelle Stand der Digitalisierung und digitaler Kompetenzen in kleinen und mittelständischen Unternehmen (KMU) Niedersachsens?
  • Welche Faktoren beeinflussen den aktuellen Stand der Digitalisierung von KMU?
Vorgehen:
  • Der involvierte Wissenschaftler führte zunächst Interviews mit 17 Intermediären, d.h. Personen aus Einrichtungen wie Industrie- und Handelskammern oder Ämter für Wirtschaftsförderung, aber auch mit Digitalisierungsbeauftragten, aus vier ländlichen und zwei städtischen Regionen Niedersachsens.
  • Im zweiten Schritt interviewte er etwa 100 Vertreter von kleinen und mittleren Unternehmen (KMU) aus denselben sechs Regionen. Diese Unternehmen gehören zum Verarbeitenden Gewerbe sowie wissensintensiven Unternehmensdienstleistungen (wie Software-Entwicklung und Werbeagenturen). Die Gespräche behandelten Themen wie die Nutzung und Einstellung der Unternehmen zu digitalen Schlüsseltechnologien, die Bedeutung der Digitalisierung, die Ausprägung und den Erwerb digitaler Kompetenzen, den Einfluss des räumlichen Umfelds auf die Digitalisierung sowie externe Netzwerke und Kooperationspartner.
Ergebnisse/Erkenntnisse:
  • Die Interviews mit den Intermediären ergaben, dass Digitalisierung und digitale Kompetenzen in allen untersuchten Regionen für Unternehmen von großer Bedeutung sind. Ein zentraler Faktor für den Erfolg ist die Unterstützung der Geschäftsführung. Digitalisierung bedeutet für die meisten KMU in erster Linie die Effizienzsteigerung bestehender Prozesse, während umfassende Veränderungen seltener angestrebt werden. Hauptprobleme sind fehlende Ressourcen sowie Fachkräftemangel, vor allem im ländlichen Raum. Hochschulen in der Region können durch die Ausbildung von Fachkräften und den Wissenstransfer Abhilfe schaffen. Die Unternehmen nehmen gerne Unterstützungsangebote von Multiplikatoren an, die jedoch regional unterschiedlich sind.
  • Aus den Interviews mit den niedersächsischen Unternehmen ging hervor, dass digitale Schlüsseltechnologien wie Künstliche Intelligenz, Big Data und das Internet of Things als bedeutend für die zukünftige Wettbewerbsfähigkeit angesehen werden. Unternehmen in Städten nutzen diese Technologien intensiver als solche in ländlichen Regionen, was auf eine digitale Kluft zwischen den Regionen hinweist. Der Austausch zwischen innovativen Unternehmen in ländlichen Regionen erhöht jedoch die Chancen, dass diese Technologien auch dort zum Einsatz kommen. Kontakte zu Forschungseinrichtungen wie Universitäten sind oft notwendig, um diese Technologien in Unternehmen zu integrieren, meist über klar definierte Kooperationsprojekte. Es wird erwartet, dass die technologischen und wirtschaftlichen Unterschiede zwischen den Regionen in Niedersachsen weiter zunehmen.
Zusammenhang zwischen Digitalisierung und Beschäftigtenmobilität
Forschungsinteresse:
  • Führten die Corona-Pandemie und die damit verbundenen digitalisierungsbedingten Veränderungen (z. B. verstärkte Homeoffice-Tätigkeiten) dazu, dass mehr Menschen ihren Wohnort in ländliche Räume verlegten?
Vorgehen:
  • Zunächst werteten die Wissenschaftler*innen regionalisierte Daten zu den Erwerbsbiografien der Beschäftigten in Deutschland vor und während der Pandemie aus.
  • Anschließend erstellten sie eine Matrix aus Arbeits- und Wohnortwechsel zwischen Stadt und Land vor und während der Pandemie.
  • Daraufhin untersuchten die Wissenschaftler*innen die Regionaldaten der Betriebshistorik-Datei des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) sowie des Bundesinstituts für Berufliche Bildung (BiBB). Die Datei enthält Informationen zum Wirtschaftszweig und Standort eines Unternehmens sowie zu den Beschäftigten (z. B. Sozialversicherungspflicht, Qualifikation, Alter).
Ergebnisse/Erkenntnisse:
  • Die Auswertung der Daten zur Erwerbsbiografie zeigt, dass Homeoffice und Telearbeit den Arbeitnehmer*innen mehr Flexibilität bei der Wahl ihres Wohn- und Arbeitsortes bieten. Dadurch wird das Wohnen im Pendlereinzugsgebiet oder im ländlichen Raum attraktiver, da gut ausgebildete junge Menschen eher bereit sind, für Unternehmen im Umland zu arbeiten, wenn sie nicht täglich pendeln müssen. Es wurden 16 Typen der Binnenmigration identifiziert, die die Wanderungsbewegungen zwischen deutschen Städten und Landkreisen beschreiben.
  • Die Analyse der Betriebshistorik-Daten ergab, dass die Corona-Pandemie als Katalysator für die Digitalisierung gewirkt hat, insbesondere durch die Ausweitung von Homeoffice-Möglichkeiten. Dadurch können ländliche Regionen ihre digitalen Infrastrukturen nutzen, um hochqualifizierte Arbeitskräfte anzuziehen und ihre bisherigen wirtschaftlichen Nachteile gegenüber Städten zu verringern. Diese Entwicklung könnte das traditionelle Muster der räumlichen Ungleichheit verändern, auch wenn es bislang wenig empirische Forschung dazu gibt.
  • Seit Beginn der Pandemie haben mehr ländliche Regionen von der Binnenmigration profitiert, insbesondere durch den Zuzug jüngerer und hochqualifizierter Menschen. Es bleibt allerdings abzuwarten, ob diese Befunde auch nach dem Ende der Pandemie zu finden sein werden. Die Wissenschaftler empfehlen der Politik, sich stärker auf bisher von der Digitalisierung nicht begünstigte Regionen und andere „lagging regions“ zu konzentrieren, da diese von der digitalisierungsbedingten Binnenmigration wirtschaftlich profitieren könnten. Infrastrukturprojekte, insbesondere im digitalen Bereich, könnten diese Entwicklung unterstützen und beschleunigen.
Digitalisierung und Unternehmensgründungen
Digitale Infrastruktur und Neugründungen
Forschungsinteresse:
  • Inwiefern beeinflusst die digitale Infrastruktur in Deutschland die Neugründung von Unternehmen mit digitalem Bezug (sog. „Digital Entrepreneurship“)?
Vorgehen:
  • Die Wissenschaftler*innen analysierten Daten zur Verfügbarkeit von Breitband, zu Fachkräften, differenziert nach Regionstypen und hinsichtlich des Effekts für die Anzahl von Gründungen mit direktem Digitalisierungsbezug („Digital Entrepreneurship“).
Ergebnisse/Erkenntnisse:
  • Den Ergebnissen zufolge nimmt die Zahl der digitalen Neugründungen im Laufe der Zeit für alle siedlungsstrukturellen Kreistypen zu, während sie bei nicht digitalen Gründungen für alle Typen abnahm (deutlich am stärksten in ländlichen Regionen). Diese Zunahme ist in städtischen Kreisen absolut und relativ am größten.
  • Zudem hat der Zugang zu Breitbandanschlüssen einen positiven Einfluss auf die Häufigkeit digitaler Unternehmensgründungen, noch stärker ist aber der Einfluss des formalen Bildungsstandes (operationalisiert als Hochschulabschluss) der Beschäftigten und damit der potentiellen Gründungspersonen. Auch dieser Effekt ist in Städten stärker als in ländlichen Regionen.
  • Unter sonst gleichen Bedingungen folgt daraus, dass die durch Digitalisierung und die Verfügbarkeit Hochqualifizierter bewirkte Zunahme an Digital Entrepreneurship zu einer Vergrößerung der wirtschaftlichen Disparitäten zwischen Stadt und Land beiträgt.
Digitalisierung und Unternehmensgründungen
Regionale Verteilung
Forschungsinteresse:
  • Welche Faktoren wirken sich auf die regionale Verteilung digitaler Unternehmensgründungen aus?
Vorgehen:
  • Die Wissenschaftler*innen analysierten das Mannheimer Unternehmenspanel, das Informationen über neun Millionen Unternehmen in Deutschland enthält (z. B. Anzahl der Beschäftigten, Rechtsform, Gründungsdatum). Das Panel wird vom Leibniz-Zentrum für Europäische Wirtschaftsforschung bereitgestellt.
Ergebnisse/Erkenntnisse:
  • Die Analyse zeigt, dass die digitale Infrastruktur allein nicht ausreicht, um die Unterschiede zwischen Stadt und Land bei Unternehmensgründungen zu überwinden. Obwohl sie eine wichtige Grundlage für „Digital Entrepreneurship“ darstellt, wird ihre Wirkung erst durch die Verfügbarkeit hochqualifizierter Personen in den Regionen verstärkt.
  • Der Zugang zu Breitband-Internet und digitalen Technologien ist für digitale Unternehmer eine notwendige (aber keine hinreichende) Bedingung, um neue Märkte zu erschließen und die Effizienz zu steigern. Für den Erfolg digitaler Geschäftsmodelle sind jedoch auch die nötigen digitalen Fähigkeiten der Unternehmer erforderlich. Hochqualifizierte Personen spielen daher eine zentrale Rolle bei der Gründung und dem Überleben digitaler Unternehmen.
  • Daher empfehlen die Wissenschaftler*innen der Politik, nicht nur die technische Verfügbarkeit digitaler Dienste zu fördern, sondern auch die digitalen Fähigkeiten der Beschäftigten zu stärken, um die Chancen für Beschäftigung und Wirtschaftswachstum auch in ländlichen Regionen zu verbessern.
Zukunftslabor
Gesundheit
Sprecher*innen-Einrichtung
Universitätsmedizin Göttingen
9 geförderte Einrichtungen
3 Teilprojekte
27 assoziierte Partner
01.10.2020 - 30.09.2024
ganzheitlich Leben begleiten
Die medizinische Forschung und Gesundheitsversorgung stehen durch die zunehmende Digitalisierung vor einem grundsätzlichen Umbruch. Grundlegende Fortschritte in der Sensorik und Bildgebung im klinischen Alltag sowie privaten Umfeld liefern neue Daten. Die transsektorale Vernetzung von Versorgungsdaten verknüpft die episodischen Datensätze zu heterogenen Datensätzen, welche mittelfristig die gesamte Lebensspanne umfassen. Neue Datenanalyse-Technologien für große Datenmengen ermöglichen neuartige Ansätze für das Verständnis und die Therapie von Erkrankungen. Dabei handelt es sich nicht um den einfachen Einsatz von Technologien, sondern um grundlegende Veränderungen der Gesundheitsversorgung, die sich in einer individuelleren Versorgung, neue telemedizinische Angebote und neue Marktteilnehmer darstellen.
Zentrale Aspekte sind der Einsatz neuer digitaler Methoden in Versorgung und Pflege, eine evidenz- und datenbasierte Medizin, die Gestaltung gesundheitsfördernder Lebenswelten, smarte Implantate und neuartige (Bio-)Sensorik, eine personalisierte Medizin sowie umfassende Versorgungsforschung entlang der gesamten Versorgungskette. Besonders bedeutend sind die Schwerpunkte translationale Medizin, Versorgung in der Fläche, individuelle Prävention im Sinne einer gesunden Lebensplanung. Es bedarf auch einer Weiterentwicklung von Ausbildung und Lehre zur notwendigen Kompetenzvermittlung.
Teilprojekte
in Arbeit
Datenanalyse und Datenaustausch
Bei diesem Teilprojekt geht es um die Verknüpfung von Daten aus dem Gesundheitswesen um genauere Diagnosen, effizientere Therapien und individuellere Behandlungen zu ermöglichen. Voraussetzung dafür ist eine umfassende Dateninfrastruktur, die große Mengen von unterschiedlichen Daten zusammenführen, strukturieren und vernetzen kann. Zudem müssen personenbezogene Daten verschlüsselt werden um die Privatsphäre zu gewährleisten. Die Wissenschaftler*innen stellen einen Praxisbezug dar, indem sie eine zentrale Dateninfrastruktur für kardiovaskuläre Erkrankungen entwickeln.
in Arbeit
Sensorik zur patientennahen Unterstützung
Bei diesem Teilprojekt geht es um Sensorik zur patientennahen Unterstützung, bei der zum einen die Vitalparameter erfasst werden und zum anderen eine Bewegungserfassung stattfindet. Beim Vitalmonitoring werden Sensoren in Alltagsgegenständen wie Kleidungsstücken und Betten integriert damit sich die Patienten in ihrem privaten Umfeld aufhalten können, ohne die Überwachung ihres Gesundheitszustandes aufzugeben. Die Datengewinnung über einen langen Zeitraum ermöglicht eine verbesserte Diagnostik, Therapie und Pflege.
Zudem kann die Körperhaltung des Pflegepersonals mithilfe von Kameras überwacht werden um Berufskrankheiten vorzubeugen. Die Herausforderung liegt in der Datenfusion heterogener Geräteklassen: Daten aus verschiedenen Quellen müssen in Echtzeit zusammengeführt und verarbeitet werden, um eine angemessene Reaktion zu ermöglichen.
in Arbeit
Ausbildung, Fortbildung und Weiterbildung
Bei diesem Teilprojekt geht es um die Vermittlung aktueller Forschungsergebnisse insbesondere des Zukunftslabors Gesundheit in Form von Online-Kursen an relevante Zielgruppen. Gesundheitsfachpersonal erhält Schulungen zu Methoden der Analyse klinischer Daten, Student*innen können Wissen über Sensorik im Gesundheitswesen in ihr Studium integrieren und Patient*innen und Bürger*innen erhalten Informationen über Chancen und Risiken der Nutzung, sowie zur Privatsphäre und Sicherheit von Patientendaten in der medizinischen Forschung, um eine stärkere Selbstbestimmung in der Gesellschaft zu fördern.
Die Forschenden arbeiten zudem an zwei konkreten Anwendungsfällen: einer Physiotherapie-App, die ein Training im privaten Umfeld ermöglicht und einem Curriculum, welches die Fort- und Weiterbildung in Gesundheitsberufen interdisziplinär zu übergeordneten Themen des Zukunftslabors gestaltet.
Teilprojekt
Datenanalyse und Datenaustausch
Status: in Arbeit
Bei diesem Teilprojekt geht es um die Verknüpfung von Daten aus dem Gesundheitswesen um genauere Diagnosen, effizientere Therapien und individuellere Behandlungen zu ermöglichen. Voraussetzung dafür ist eine umfassende Dateninfrastruktur, die große Mengen von unterschiedlichen Daten zusammenführen, strukturieren und vernetzen kann. Zudem müssen personenbezogene Daten verschlüsselt werden um die Privatsphäre zu gewährleisten. Die Wissenschaftler*innen stellen einen Praxisbezug dar, indem sie eine zentrale Dateninfrastruktur für kardiovaskuläre Erkrankungen entwickeln.
Ansprechperson
Prof. Dr. med. Dr.-Ing. Michael Marschollek
Medizinische Hochschule Hannover
Forschungszentrum L3S
Zum Aufbau von Datenplattformen sind eine Referenzarchitektur und diverse Plattformwerkzeuge entstanden, die sowohl im Zukunftslabor, als auch in weiteren Projekten z. B. der Plattform des Netzwerks Universitätsmedizin (NUM) eingesetzt werden.
Die entwickelte Plattform beruht auf dem freien Standard Open Electronic Health Record (openEHR). Für diesen Standard wurde eine umfangreiche Schulung erarbeitet, die als Open Educational Ressource (OER) allen interessierten Expert*innen zur Verfügung steht und bereits aktiv in Lehrveranstaltungen und Fortbildungen an mehreren Universitäten eingesetzt wird.
Basierend auf den Erfahrungen im Zukunftslabor sowie strukturierten Experteninterviews und einen online Fragebogen für Modellierungsexperten ist eine Empfehlung für die konsensualen, sektorenübergreifenden Modellierung von Gesundheitsdaten entstanden, die aktuell finalisiert wird.
Um die Einhaltung bzw. Gefährdung des Datenschutzes besser einschätzen zu können führte das Zukunftslabor Gesundheit Simulationen durch, die das Gefährdungspotenzial durch Black-Box und Inferenzangriffe untersuchten und entwickelte Ansätze, um die Datensicherheit trotz einer in der Medizin oft geforderten Veröffentlichung der Modelle und dadurch möglicher White-Box-Angriffe zu gewährleisten.
Datenauswertung für eine bessere medizinische Versorgung und Forschung
Forschungsinteresse:
  • Wie können medizinische Diagnosen genauer und Therapien effektiver werden?
  • Wie kann die medizinische Forschung effizienter gestaltet werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten eine Plattform zum Austausch medizinischer Daten.
Ergebnisse/Erkenntnisse:
  • Die Plattform kann medizinische Daten aus unterschiedlichen Quellen des Gesundheitswesens zusammenführen (z. B. aus ärztlichen und physiotherapeutischen Praxen, Krankenhäusern, Reha-Kliniken). Die Datenzusammenführung ermöglicht eine umfangreiche Datenauswertung. Dies ist sowohl für die medizinische Forschung als auch für die Diagnostik und Therapie hilfreich.
  • Die Forschung medizinische Forschung wird schneller und effizienter, da einmal erhobene Daten mehrfach für unterschiedliche Forschungsvorhaben genutzt werden und eine immer wiederkehrende, oftmals sehr aufwendige Datenerhebung entfällt. Wissenschaftler*innen können prüfen, welche Daten schon vorliegen und welche Informationen sie darüber hinaus noch benötigen.
  • Zudem wird durch die Verknüpfung der Daten ermöglicht, Muster im Krankheitsbild einer Person zu erkennen, Rückschlüsse auf Vorerkrankungen zu ziehen und den Gesundheitszustand in einen Gesamtzusammenhang einzuordnen. Infolgedessen werden Diagnosen genauer, Therapien effizienter und somit die Behandlung individueller.
  • Die Wissenschaftler*innen nahmen eine Testinstanz der Datenplattform in Betrieb, um sie erproben, evaluieren und finalisieren zu können.
Datensatz für medizinische Auswertung - Anwendungsfall kardiovaskuläre Erkrankungen
Forschungsinteresse:
  • Wie sind medizinische Daten unterschiedlicher Art und Qualität aufzubereiten, um sie für eine Datenaustauchplattform nutzbar zu machen?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten die Frage am Beispiel kardiovaskulärer Erkrankungen (Herz-Kreislauf-Erkrankungen). Zur Untersuchung dieses Anwendungsfall stellten Projektpartner des Zukunftslabors entsprechende Datenbestände bereit.
  • Diese Daten strukturierten die Wissenschaftler*innen anhand von Steckbriefen, die sowohl allgemeine Informationen (z. B. mit welchen Methoden die Daten erhoben wurden) als auch spezifische Details (z. B. ob bei dem Patient Blutdruck gemessen wurde) enthielten.
Ergebnisse/Erkenntnisse:
  • Es entstand ein umfangreicher und strukturierter Datenbestand für medizinische Auswertungen.
  • Anhand der Steckbriefe können sich Wissenschaftler*innen aus der medizinischen Forschung einen Überblick über die Art und Qualität der Daten verschaffen und entscheiden, ob die Informationen für ihre Forschung geeignet sind.
Standard openEHR für die Modellierung medizinischer Daten
Forschungsinteresse:
  • Wie kann die Abbildung von Gesundheitsdaten in elektronischen Patient*innenakten standardisiert werden?
Vorgehen:
  • Die Wissenschaftler*innen verglichen verschiedene Standards zur Modellierung medizinischer Daten.
  • Zudem erarbeiteten die Wissenschaftler*innen Empfehlungen für die Wahl eines Standards, da es hierzu bisher kaum Empfehlungen gab. Zunächst interviewten sie fünf Expert*innen aus dem Fachgebiet der Datenmodellierung und werteten die Gespräche mittels der qualitativen Inhaltsanalyse aus. Auf Basis der Expert*inneninterviews erstellten die Wissenschaftler*innen eine Online-Umfrage, um die Aussagen der Expert*innen zu validieren. An dieser Umfrage nahmen Personen teil, die Daten zumeist innerhalb wissenschaftlicher Forschungsprojekte modellieren. Dadurch identifizierten die Wissenschaftler*innen Rahmenbedingungen, die die Nutzung eines Standards beeinflussen.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen entschieden sich dafür, den Standard open Electronic Health Records (openEHR) zu nutzen. Dieser Technologiestandard ist frei verfügbar, sodass alle Marktteilnehmer*innen Zugriff darauf haben, um eigene Produkte bzw. Software-Lösungen zu entwickeln. Dadurch bietet openEHR die optimale Voraussetzung für Interoperabilität. openEHR ermöglicht die Verwaltung und Speicherung sowie den Abruf und den Austausch von Gesundheitsdaten in elektronischen Patientenakten.
  • Anhand eines Beispieldatensatzes nahmen die Wissenschaftler*innen eine Modellierung in openEHR vor, um Kenntnisse im Umgang mit dem Datenstandard zu gewinnen. Für die Modellierung erstellten sie unter anderem Archetypen; das sind maschinenlesbare, abgestimmte Repräsentationen relevanter klinischer Konzepte (z. B. Blutdruck) als (Daten-)Modelle. In Templates werden diese Archetypen so miteinander verknüpft, dass verschiedene Anwendungsfälle (z. B. medizinische Dokumente) abgebildet werden können.
Server und Plattformwerkzeuge
Forschungsinteresse:
  • Wie können die Daten in die Plattform integriert, verwaltet und abgerufen werden?
Vorgehen:
  • Die Wissenschaftler*innen recherchierten bereits existierende Software-Komponenten, die sie für Integration (Input), die Verwaltung und den Abruf der Daten (Output) nutzen könnten. Sie prüften die Komponenten auf ihre Einsatzfähigkeit im Rahmen der Plattform.
  • Bei ihrer Recherche identifizierten sie auch Komponenten, die nicht geeignet waren, und entwickelten eigene Lösungen dafür.
  • Zudem analysierten sie verschiedene Server und entschieden sich für einen geeigneten.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler konnten auf bestehende Software-Komponenten zurückgreifen, darunter die EHRbase, ein openEHR-Server zur Datenverwaltung, und die NUM-Plattform, ein Portal zum Suchen und Abrufen von Daten. Die EHRbase überträgt Daten auf einen openEHR-Server, der eine weit verbreitete Software nutzt und die Daten nach den FAIR-Prinzipien verfügbar macht: (auf-)findbar, zugänglich, interoperabel und wiederverwendbar. Dadurch können die Daten sowohl von Menschen als auch von Programmen gefunden und genutzt werden, sie sind standardisiert und mit anderen Datensätzen verknüpfbar.
  • Zum Abrufen der Daten verwendeten die Wissenschaftler die NUM-Plattform, die eine Übersicht über Metadaten, Abfragen und einen Datenexplorer bietet. Über dieses webbasierte Portal können die Daten des Zukunftslabors gefunden und abgerufen werden.
  • Da es an einem Open-Source-Tool zum Import von Daten fehlte, entwickelten die Wissenschaftler den openEHR_FLAT_Loader, der für den Import medizinischer Daten in die EHRbase genutzt werden kann. Diese drei Plattformwerkzeuge (openEHR-Server, NUM-Plattform und FLAT-Loader) können modular in eine Datenplattform integriert werden.
Online-Dokumentation zum Aufbau einer Datenplattform
Forschungsinteresse:
  • Wie können die Erkenntnisse zum Aufbau einer Datenplattform nachhaltig gesichert und Interessent*innen zugänglich gemacht werden?
Vorgehen:
  • Der Aufbau von Datenplattformen, die die Zusammenführung, Verwaltung und den Abruf unterschiedlicher Daten ermöglicht, ist mit viel Kosten und Zeit verbunden. Um ihre erworbenen Erkenntnisse nachhaltig zu sichern und Interessent*innen zugänglich zu machen, erstellten die Wissenschaftler*innen eine Online-Dokumentation zum Aufbau einer solchen Plattform.
Ergebnisse/Erkenntnisse:
  • Die Online-Dokumentation beschreibt, wie die Plattformwerkzeuge funktionieren und in Betrieb genommen werden können.
  • Sie enthält außerdem Links zu frei verfügbaren Codes (z. B. für den FLAT-Loader).
  • Die Wissenschaftler*innen evaluierten diese Online-Dokumentation im Rahmen eines Studierendenprojektes. Dadurch konnten sie testen, ob die Anleitung verständlich ist und wo es Verbesserungspotenzial gibt. Die Studierenden erprobten den Einsatz der Plattform und die Nutzung der Online-Dokumentation im Rahmen eines fiktiven Szenarios. Sie sollten sich in die Rolle von Forschenden und Plattformbetreibern versetzen und die Plattform aus Sicht dieser beiden Nutzergruppen testen und bewerten. Die Ergebnisse der Evaluation nutzten die Wissenschaftler*innen, um die Plattform und die Dokumentation zu optimieren. Eine Empfehlung der Studierenden war z. B., Erklärungsvideos zu entwickeln und den Nutzer*innen zur Verfügung zu stellen.
Privatheitsbewahrende Datenanalyse
Forschungsinteresse:
  • Wie können medizinische Daten sicher ausgetauscht und ausgewertet werden, sodass die Privatsphäre der Patient*innen geschützt bleibt und trotzdem alle wichtigen Informationen übermittelt und genutzt werden können?
Vorgehen:
  • Die medizinischen Daten, die in der Plattform des Zukunftslabors verarbeitet werden, sind äußerst sensibel und erfordern besonderen Schutz. Daher konzentrierten sich die Wissenschaftler*innen auf privatheitsbewahrende Analysemethoden, insbesondere auf Privacy Preserving Machine Learning (ML) Modelle. ML-Verfahren sind vielversprechend für die Analyse großer Mengen an Gesundheitsdaten.
  • Anhand eines Tests verglichen die Wissenschaftler*innen, ob medizinische Datenbanken, die mithilfe von ML-Modellen ausgewertet werden, anfälliger für Angriffe sind als Datenbanken, die ohne ML ausgewertet werden. Hierzu führten die Wissenschaftler*innen selbst Angriffe durch: Angriffe auf Attributinferenzen und Angriffe durch Schätzung fehlender Werte.
  • Bei einem Inferenzangriff wird das ML-Modell angegriffen, das zur Auswertung der Datenbank eingesetzt wird. Hierbei verwenden die Angreifer*innen Informationen über die Art und Weise, wie das Modell trainiert wurde, um daraus neue Informationen abzuleiten. Bezogen auf die medizinische Datenbank bedeutet dies, dass die Angreifer*innen Informationen erlangen, welche Attribute - also welche Merkmale von Patient*innen - das ML-Modell analysiert. Das können allgemeine Attribute sein (z. B. Hautfarbe) oder spezifische (z. B. Alter, Geschlecht). Indem die Angreifer*innen große Mengen dieser Daten analysieren, erhalten sie Wissen über die Datenbank oder deren Inhalt - ohne auf die Datenbank selbst zuzugreifen.
  • Die Schätzung fehlender Werte bezieht sich auf eine Datenbank, bei der kein Maschinelles Lernen angewendet wird. In manchen Datensätzen fehlen bestimmte Werte (z. B. zum Geschlecht der Patient*innen). In solchen Fällen versuchen die Angreifer*innen, die fehlenden Informationen auf Basis von Mittelwerten zu schätzen. Wenn z. B. alle Personen in einem bestimmten Datensatz durch das Attribut „männlich“ gekennzeichnet sind, dann wird der fehlenden Wert ebenfalls auf „männlich“ geschätzt.
Ergebnisse/Erkenntnisse:
  • Der Vergleich dieser beiden Techniken zeigte, dass ein Inferenzangriff auf ein ML-Modell nicht schädlicher bzw. genauso schädlich ist wie die Technik zur Schätzung fehlender Werte. Das ML-Modell stellt demnach keine größere Schwachstelle dar als andere Techniken.
  • Darüber hinaus fanden die Wissenschaftler*innen im Rahmen ihrer Inferenzangriffe heraus, dass diese erfolgreicher sind, je mehr die Angreifer*innen über das trainierte ML-Modell wissen. Bei sogenannten Black-Box-Modellen sind Angriffe weniger schädlich, da hier nicht klar ist, wie das Modell zu seiner Auswertung kommt. Bei sogenannten White-Box-Modellen ist bekannt, wie sie trainiert wurden, weshalb die Angriffe hier schädlicher sein können.
  • Eine Herausforderung besteht darin, dass ML-Modelle oft veröffentlicht werden, um sie weiterzuentwickeln, was Angreifer*innen hilft. Um die Daten zu schützen, die durch ML-Modelle analysiert werden, kann die Differenzielle Privatsphäre genutzt werden. Dabei werden Datensätze absichtlich mit falschen Informationen angereichert, um Angreifer*innen in die Irre zu führen, indem sie falsche Schlüsse ziehen. Beispiel: die Annahme eines gemischt-geschlechtlichen Datensatzes, obwohl der ursprüngliche Datensatz nur männliche Patient*innen enthielt.
Teilprojekt
Sensorik zur patientennahen Unterstützung
Status: in Arbeit
Bei diesem Teilprojekt geht es um Sensorik zur patientennahen Unterstützung, bei der zum einen die Vitalparameter erfasst werden und zum anderen eine Bewegungserfassung stattfindet. Beim Vitalmonitoring werden Sensoren in Alltagsgegenständen wie Kleidungsstücken und Betten integriert damit sich die Patienten in ihrem privaten Umfeld aufhalten können, ohne die Überwachung ihres Gesundheitszustandes aufzugeben. Die Datengewinnung über einen langen Zeitraum ermöglicht eine verbesserte Diagnostik, Therapie und Pflege.
Zudem kann die Körperhaltung des Pflegepersonals mithilfe von Kameras überwacht werden um Berufskrankheiten vorzubeugen. Die Herausforderung liegt in der Datenfusion heterogener Geräteklassen: Daten aus verschiedenen Quellen müssen in Echtzeit zusammengeführt und verarbeitet werden, um eine angemessene Reaktion zu ermöglichen.
Ansprechperson
Prof. Dr. rer. nat. Thomas M. Deserno
Technische Universität Braunschweig
Peter L. Reichertz Institut für Medizinische Informatik
Die Entwicklung des kamerabasierten Rückentrackings mittels Kinesiotapes konnte durch Präzision bei zeitgleich geringer Vorbereitungszeit von Patient*innen beeindrucken und damit Praxistauglichkeit demonstrieren.
Der partizipative Ansatz mit Studierenden des Studiengangs Angewandte Pflegewissenschaft zur Entwicklung eines Demonstrators für das Umweltmonitoring in Versorgungsrichtungen war sowohl für die Mitarbeitenden des ZLG, als auch für die Studierenden sehr lehrreich und wertschätzend.
Die sehr konstruktive Zusammenarbeit der Wissenschaftler*innen während des Bewertungsprozesses von Sensortechnologien für verschiedene gesundheitsbezogene Use-Cases.
Bestandsaufnahme der Sensorik
Forschungsinteresse:
  • Über welche Sensorik verfügen die Partner des Zukunftslabors?
Vorgehen:
  • Um sich einen Überblick zu verschaffen, welche Sensorik im Zukunftslabor vorhanden ist, nahmen die Wissenschaftler*innen zunächst den Bestand auf. Dabei fokussierten sie sich auf mobile Low-Cost Sensorik mit WLAN oder Mobilfunkanbindung. Das ist erschwingliche Hardware, die sich leicht transportieren und in die Umgebung der Patient*innen integrieren lässt. Über WLAN oder Mobilfunk übermitteln die Sensoren die erfassten Daten an einen Datenspeicher/eine Datenplattform.
  • Im Anschluss an die Bestandsaufnahme kategorisierten die Wissenschaftler*innen die Sensorik nach Art, Beschreibung, Zielsetzung, Datenformat und Standort.
  • Neben der Hardware ermittelten die Wissenschaftler*innen auch, welche Softwarelösungen für Machine Learning bei den Partnern des Zukunftslabors vorliegen. Machine Learning kann für die intelligente Auswertung der Sensordaten eingesetzt werden.
Ergebnisse/Erkenntnisse:
  • Zu der vorhandenen Sensorik zählen z. B. Raumkameras, Sensoranzüge und vernetzte Raumelemente wie Licht, Türen, Herd, Kühlschrank oder Heizung.
  • Durch die Kategorisierung der Sensorik entstand ein Hardware-Katalog, der die gesamte verfügbare Sensorik der niedersächsischen Forschungspartner übersichtlich zusammenfasst.
Anforderungen an die Software von Sensorik
Forschungsinteresse:
  • Welche Kriterien muss die Software von Sensorik erfüllen, die im privaten Umfeld von Personen integriert wird?
Vorgehen:
  • Für die Datenübertragung ist eine passende Software notwendig. Daher erstellten die Wissenschaftler*innen einen Katalog mit Kriterien, die die Software erfüllen muss.
  • Unter Berücksichtigung des Kriterienkatalogs und der Integrierbarkeit wählten die Wissenschaftler*innen Sensorik mit passender Software aus und fügten sie in ein Forschungs-Smart-Home ein sowie in sechs reale, smarte Wohnungen eines Kooperationspartners. Darüber hinaus integrierten die Wissenschaftler*innen Sensoren im Auto, die den physischen und kognitiven Zustand erfassen. Beispielsweise überprüften die Wissenschaftler*innen die Funktionsfähigkeit von Lenkradsensoren mit einer Studie, an der 54 Proband*innen teilnahmen.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen erstellten einen Kriterienkatalog für Sensoren, die im Umfeld der Patient*innen, wie zu Hause oder im Auto, eingesetzt werden sollen. Zu den Kriterien gehört, dass die Software Open Source sein muss, also öffentlich zugänglich und weiterentwickelbar. Die Sensoren müssen außerdem eine hohe Messgenauigkeit aufweisen, in den privaten Lebensraum integrierbar sein und Schnittstellen zur Datenübertragung bieten. Sie sollen so unauffällig platziert werden, dass die Personen ihr Verhalten nicht ändern müssen und die Messungen unbemerkt stattfinden.
  • Durch die Integration der Sensorik in das Forschungs-Smart-Home, reale Wohnungen und Autos sammelten die Wissenschaftler*innen Daten aus dem direkten Umfeld der Patient*innen. Diese Daten ermöglichen ein kontinuierliches Monitoring über kurze und längere Zeiträume, um Veränderungen im Gesundheitszustand frühzeitig zu erkennen und medizinischen Notfällen oder Krankheiten vorzubeugen.
Datenauswertung mithilfe von Machine Learning
Forschungsinteresse:
  • Wie kann die Vielzahl der Daten, die über Sensorik erfasst wird, ausgewertet werden?
  • Wie können Messfehler bzw. Messungenauigkeiten von Anomalien (Abweichungen vom Normalzustand) im Gesundheitszustand unterschieden werden?
Vorgehen:
  • Die Wissenschaftler*innen setzten Machine Learning ein, um die Sensordaten auszuwerten.
  • Für die Differenzierung von Messfehlern/-ungenauigkeiten und Anomalien setzten die Wissenschaftler*innen verschiedene Sensoren für die Messung eines physikalischen Wertes ein. Denn es ist unwahrscheinlich, dass verschiedene Messprinzipien zur selben Zeit Messfehler aufweisen.
Ergebnisse/Erkenntnisse:
  • Der Einsatz verschiedener Sensoren zur Messung desselben Wertes ergibt eine weitere Herausforderung: Wenn mehr und mehr neue Sensoren integriert werden, dann können die alten Messungen nicht mehr für das Machine Learning verwendet werden, weil die Daten nicht übereinstimmen. Demnach muss der Algorithmus mit partiellen Daten trainiert werden.
  • Darüber hinaus wird es problematisch, wenn Sensoren ausfallen. Es muss ein System geben, dass Sensorausfälle erkennt und signalisiert. Deshalb arbeiteten die Wissenschaftler*innen an einem Unified Framework, das Formen und Eigenfrequenzen der beschädigten Sensorstruktur bestimmt. Dieses testeten sie im Rahmen der Smart Homes
Struktur zur Verarbeitung der Sensordaten
Forschungsinteresse:
  • Wie werden die Sensordaten für die Datenauswertung aufbereitet?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten eine Struktur zur Verarbeitung der Sensordaten. Diese besteht aus drei Phasen: Processing, Signal Input, Rulebase.
Ergebnisse/Erkenntnisse:
  • In der ersten Phase (Processing) werden die Daten gefiltert. Abhängig vom Sensor erfolgt z. B. eine Rauschunterdrückung oder eine Interpolation (Bestimmung von Zwischenwerten) bei Sensorausfällen.
  • In der zweiten Phase (Signal Input) werden Merkmale extrahiert (z. B. Gelenkwinkel) und Mustererkennungen durchführt, um Körperhaltung und Bewegung zu erkennen. Bei der Körperhaltung werden z. B. die Gelenkwinkel analysiert, bei der Bewegung sind es die Richtung und Geschwindigkeit der bewegten Körperteile.
  • Auf Basis des RULA-Regelwerkes (Katalog mit Gelenkhaltungen aus der Ergonomie) können in der dritten Phase (Rulebase) Interpretationsregeln zur Bewertung angewendet werden. Wenn z. B. der Schulterwinkel über 90 Grad beträgt, ist das gesundheitsschädigend und wird mit Score 3 - dem schlechtesten Score - bewertet. Da Bewegungen aus vielen Gelenkpositionen bestehen und daher viele Regeln angewendet werden müssen, werden für die Berechnungen Methoden aus dem Bereich der Künstlichen Intelligenz angewendet. Im Anschluss an diese drei Signalverarbeitungsphasen werden die Ergebnisse für die Patient*innen/Pflegefachkräfte aufbereitet, um konkrete Handlungsempfehlungen auszusprechen.
Sensorik im Test
Forschungsinteresse:
  • Wie gut erfassen Sensoren physikalische Werte?
Vorgehen:
  • Testweise erfassten die Wissenschaftler*innen mithilfe von Kamerasensoren Gesicht und Mimik von 30 Proband*innen mit dem Ziel, Rückschlüsse auf den psychischen Zustand zu ziehen.
  • Darüber hinaus testeten sie einen Wirbelsäulensensor (ein Band mit Sensoren, das in ein T-Shirt eingenäht werden kann), um die Körperhaltung in verschiedenen Positionen zu erfassen (sitzen, liegen, nach vorne und zur Seite beugen).
  • Des Weiteren erhoben sie Daten zur Körperhaltung mittels EKG-T-Shirt. Bei diesem T-Shirt sind die Sensoren an unterschiedlichen Stellen verteilt.
Ergebnisse/Erkenntnisse:
  • Die Tests des EKG-T-Shirt zeigen, dass je nach Bewegung die Sensoren nicht am Körper anliegen und keine Daten erfassen. Diese Abweichung wurde von den Algorithmen, die die Daten analysieren, erkannt. Bisher wurden diese Daten manuell von den Wissenschaftler*innen aus der Datengrundlage entfernt. Perspektivisch soll dies automatisch geschehen.
  • Der Test des EKG-T-Shirts ergab außerdem, dass bei 77 % der Proband*innen schlafen, sitzen, gehen und rennen richtig erkannt wurde.
  • Zukünftig sollen die Daten der unterschiedlichen Sensoren (Kameras, Wirbelsäulensensoren, EKG-T-Shirt) zusammengeführt werden, um den Gesundheitszustand noch besser analysieren zu können.
Sensorik zur Prävention in der Pflege
Forschungsinteresse:
  • Wie kann die körperliche Belastung des Pflegepersonals ermittelt und minimiert werden?
Vorgehen:
  • Mithilfe von Sensoren erfassten die Wissenschaftler*innen des Zukunftslabors die Körperhaltung des Pflegepersonals. Bei potenziell schädlichen Körperhaltungen und Belastungen soll das Pflegepersonal durch ein Alarmsystem gewarnt werden, um Muskel-Skelett-Erkrankungen zu verhindern. Konkret ging es um die Unterstützung des Pflegepersonals bei der Umlagerung der Patient*innen. Hier spielt die Körperhaltung eine entscheidende Rolle, denn ergonomisches Arbeiten kann die Belastungen deutlich reduzieren.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen erfassten die Daten zur Körperhaltung mithilfe von Kameras und Inertialsensoren (Kombination mehrerer Sensortypen zur Aufzeichnung dreidimensionaler Bewegungen). Über eine Kraftmessplatte analysierten sie die Kräfte, die auf das Pflegepersonal einwirken, und mit sogenannten Elektromyographen erfassten sie die Muskelaktivität, um die Beanspruchung einzelner Muskeln während der Pflegetätigkeiten zu messen.
  • Bei den Kameras handelte es sich um Tiefenkameras. Sie erfassen keine Gesichter, sondern nur den Abstand zur Kamera und somit die Umrisse der Personen. Dadurch wird die Privatsphäre des Pflegepersonals und der Patient*innen gewahrt. Für die Prävention von Muskel-Skelett-Erkrankungen ist es wichtig zu erkennen, welche Körperhaltung das Pflegepersonal beim Umlagern der Patient*innen einnimmt. Diese Informationen liefern die Tiefenkameras.
Sensorik zur Bewegungsanalyse des Rückens
Forschungsinteresse:
  • Wie lässt sich die Bewegung des Rückens präzise im Raum über die Zeit verfolgen?
  • Wie lässt sich dabei die Vorbereitungszeit von Proband*innen/Patient*innen minimieren, so dass größer angelegte Studien durchführbar bzw. Anwendungen im medizinischen Alltag möglich sind?
Vorgehen:
  • Im Bereich der präzisen Wirbelsäulenverfolgung sind markerbasierte Ansätze weiterhin der Stand der Technik, da die Wirbelsäule viele Freiheitsgrade besitzt und der menschliche Rücken von Natur aus wenig deskriptiv und damit schwer verfolgbar ist.
  • Die Wissenschaftler*innen des Zukunftslabors entwickelten das Tracken mittels gelochtem Kinesiotape, welches am Rücken des Patient*innen angebracht und mit 6 Kameras verfolgt wird.
  • Das entwickelte System verfolgt so ca. 50 Punkte entlang der Wirbelsäule mit einer Aufnahmegeschwindigkeit von 100 Bildern in der Sekunde.
Ergebnisse/Erkenntnisse:
  • Im direkten Vergleich zu ähnlich präzisen markerbasierten Verfahren zeichnet sich das durch die Wissenschaftler*innen des Zukunftslabors entwickelte Verfahren durch kurze Vorbereitungszeiten von Proband*innen aus, welche aus wenigen Sekunden besteht. Bei anderen Verfahren kann diese Zeit 30 Minuten und mehr betragen. Damit ist das entwickelte System für Arztpraxen und Rehabilitationszentren geeignet.
  • Mit einer Positionsgenauigkeit der Marker von 4,12 mm entwickelten die Wissenschaftler*innen des Zukunftslabors zudem eine sehr präzise Sensorik, wodurch in Verbindung mit einem muskuloskelettalen Modell die Krafteinwirkung auf die Wirbelsäule während der Bewegung berechenbar ist.
Sensorik zur Bewegungsanalyse in unterschiedlichen Use-Cases
Forschungsinteresse:
  • Welche Sensorik zur Bewegungsanalyse eignet sich in den Use-Cases Prävention von Pflegefachpersonen, Unterstützung von Rehabilitationsanwendungen und Einsatz im häuslichen Umfeld am besten?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten einen Prozess, um die Eignung der bekannten und zuvor gesammelten Sensortechnologien zur Bewegungsanalyse für die unterschiedlichen Use-Cases zu bewerten. Dafür wurden zunächst Bewertungskriterien, wie z.B. die Genauigkeit oder die Handhabung vor und nach einer Messung, für die Sensortechnologien in einem gemeinsamen Workshop identifiziert. Anhand dieser Kriterien wurde jede Sensortechnologie separat von den Wissenschaftler*innen bewertet. Zudem wurden die Use-Cases in einem weiteren Workshop detailliert beschrieben und eine Methode zum Ranking der Bedeutsamkeit der Bewertungskriterien für jeden Use-Case entwickelt. Dieses Ranking wurde ebenfalls separat von den Wissenschaftlicher*innen durchgeführt. Auf Basis der Ergebnisse für die Bewertungskategorien der Sensortechnologien und des Rankings der Bewertungskategorien für jeden Use-Case wurde die Eignung der Sensortechnologien für die unterschiedlichen Use-Cases mit Hilfe eines Scores berechnet.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen konnten durch das Vorgehen eine transparente Bewertung der Eignung von verschiedenen Sensortechnologien für verschiedene Use-Cases identifizieren. Die Ergebnisse sollen Interessierte dabei unterstützen, die geeigneten Sensortechnologien für ihr Projekt zu finden. Dehnungsmessstreifen in Kombination mit einem Inertialsensor eignen sich für Anwendungen, die insbesondere die Bewegungen des Rückens analysieren wollen. Für Anwendungen, die den ganzen Körper umfassen sollen, stellten sich Inertialsensoren oder Wärmebildkameras als geeignete Sensortechnologien heraus.
Sensorik zur Erfassung von Umweltfaktoren
Forschungsinteresse:
  • Wie können gesundheitsschädigende Umweltfaktoren erfasst werden?
  • Wie kann das Gesundheitsrisiko für Patient*innen und medizinisches Personal sichtbar gemacht werden?
Vorgehen:
  • Neben den Vitalparametern und Bewegungsmustern wirken sich auch Umweltfaktoren auf die Gesundheit des Menschen aus, vor allem Luftverschmutzung durch Feinstaub, Schwefeldioxid, Ozon, Kohlenstoffmonoxid und Stickstoff sowie die Umgebungstemperatur. Deswegen erhoben die Wissenschaftler*innen auch Daten von Umweltsensoren. Diese Daten wurden für die openEHR-Plattform des Zukunftslabors modelliert und in die Plattform integriert.
  • Um das Gesundheitsrisiko für Patient*innen und medizinisches Personal sichtbar zu machen, entwickeln die Wissenschaftler*innen eine digitale Anwendung, die auf gesundheitsschädigende Umweltfaktoren hinweist. Die Anwendung soll zeigen, welche Auswirkungen diese Faktoren auf die Gesundheit haben und welche Maßnahmen das Risiko verringern können.
  • Gemeinsam mit Studierenden der Angewandten Pflegewissenschaft bestimmten die Wissenschaftler*innen funktionale und nicht-funktionale Anforderungen an die Anwendung. Funktionale Anforderungen sind erforderlich, um die Umweltdaten zu messen und auszuwerten (z. B. Messung im Raum, Signal bei Störungen, Schutz vor Manipulation). Nicht-funktionale Anforderungen sind nicht zwingend erforderlich, aber nützlich (z. B. Verfügbarkeit auf verschiedenen Endgeräten, Einstellung der Schriftgröße, Touch-Screen).
Ergebnisse/Erkenntnisse:
  • Durch die Überführung der Umweltdaten in die Plattform ist es möglich, die Daten zu Luftverschmutzungspartikeln sowie einen 24-Stunden-Durchschnittswert der Konzentration zu speichern.
  • Außerdem kann ein Schätzwert des Gesundheitsrisikos, das durch die Luftverschmutzungspartikel entsteht, angegeben werden. Die Schätzung orientiert sich an wissenschaftlichen Studien. Diesen zufolge steigt das Risiko für die Gesundheit, wenn die Umweltbelastung zunimmt. In Anbetracht der Unsicherheit der Schätzung können ein unterer Risikowert, der Mittelwert und ein oberer Risikowert angegeben werden. Dies ist wichtig, da für besonders vulnerable Personen schon bei niedrigen Belastungskonzentrationen ein höheres Gesundheitsrisiko besteht. Bei Menschen ohne besondere Vulnerabilität bzw. mit hoher Resilienz liegt das Risiko für die Gesundheit im Mittelwert oder im unteren Bereich.
  • Die Studierenden erstellen erste Prototypen für die digitale Anzeige des Gesundheitsrisikos. Sie entwarfen und diskutierten verschiedene Designs (z. B. Verlaufswerte im Zeitdiagramm, farbliche Anzeigen entsprechend eines Ampelsystems). Als Anwendungsszenario betrachteten sie das kardiovaskuläre Risiko, das durch zu hohe Feinstaubwerte entsteht. Kardiovaskuläre Krankheiten betreffen das Herz und die Blutgefäße.
  • Anhand der Prototypen der Studierenden wurde ein Demonstrator implementiert und in einer Pilotstudie mit Studierenden der Angewandten Pflegewissenschaft evaluiert. Durch die Evaluation wurden Verbesserungspotenziale des Demonstrators identifiziert aber auch Bedarfe zur Förderung des Wissens über die gesundheitliche Wirkung von Umweltfaktoren bei den studierenden Pflegefachpersonen bestätigt.
Teilprojekt
Ausbildung, Fortbildung und Weiterbildung
Status: in Arbeit
Bei diesem Teilprojekt geht es um die Vermittlung aktueller Forschungsergebnisse insbesondere des Zukunftslabors Gesundheit in Form von Online-Kursen an relevante Zielgruppen. Gesundheitsfachpersonal erhält Schulungen zu Methoden der Analyse klinischer Daten, Student*innen können Wissen über Sensorik im Gesundheitswesen in ihr Studium integrieren und Patient*innen und Bürger*innen erhalten Informationen über Chancen und Risiken der Nutzung, sowie zur Privatsphäre und Sicherheit von Patientendaten in der medizinischen Forschung, um eine stärkere Selbstbestimmung in der Gesellschaft zu fördern.
Die Forschenden arbeiten zudem an zwei konkreten Anwendungsfällen: einer Physiotherapie-App, die ein Training im privaten Umfeld ermöglicht und einem Curriculum, welches die Fort- und Weiterbildung in Gesundheitsberufen interdisziplinär zu übergeordneten Themen des Zukunftslabors gestaltet.
Ansprechperson
Prof. Dr.-Ing. Oliver J. Bott
Hochschule Hannover
Abteilung Information und Kommunikation
Vorstellung des didaktischen Konzepts auf der pHealth 2021 in Genua und Kürung des Beitrags zu einem der 16 besten Papers zur Veröffentlichung als Langbeitrag.
Entwicklung und bis zu zweimalige Durchführung von sechs Online-Kursen für die Aus-, Fort- und Weiterbildung zu zentralen Forschungsthemen des Zukunftslabors Gesundheit.
Die für die ausgewählte Kamera entwickelte App sowie die zugehörige Internetplattform für Therapeut*innen sind nutzbar.
Die Ergebnisse des Kurses „Das Lernende Gesundheitssystem in Aktion: klinische Datenanalytik“ wurde zweifach international auf einer Summer und einer Spring School eingesetzt. Die Ergebnisse wurden ebenfalls international vorgestellt und in einer wissenschaftlichen Zeitschrift publiziert.
Durchführung eines Workshops „Wie wird die Datenspende zum Erfolgsmodell? Effektive Kommunikations- und Vermittlungsstrategien für Bürger*innen und Patient*innen“ im Rahmen der Jahrestagung der Deutschen Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (GMDS) e.V. 2024. In einer Kombination aus Impulsvorträgen und Diskussionen brachte der Workshop wichtige Erkenntnisse für die zukünftige Arbeit des ZLG in Bezug auf die Wissensvermittlung an die Zielgruppe der Bürger*innen.
Physiotherapie-App zur Rehabilitation nach einer Operation
Vergleich vorhandener Apps
Forschungsinteresse:
  • Wie kann Digitalisierung dazu beitragen, Patient*innen bei der Rehabilitation nach einer Operation zu stärken?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten eine Physiotherapie-App. Diese soll Patient*innen dazu motivieren, physiotherapeutischer Übungen im Anschluss an eine OP oder Reha fortzusetzen. Der Anwendungsfall, auf den sich die Wissenschaftler*innen beziehen, ist die Rehabilitation der Schulter im Anschluss an eine Operation.
  • Zu Beginn verglichen sie verschiedene bestehende Smartphone-Apps zur Rehabilitation und identifizierten sowohl Vorteile, wie Erinnerungsfunktionen und den Ersatz von Papier-Handouts, als auch Nachteile, wie mangelnde individuelle Anpassung der Übungen und fehlende Kontrolle der Übungsausführung.
  • Sie bezogen auch Ergebnisse des Projekts „AGT-Reha“ der Technischen Universität Braunschweig ein, das die Ausführung von Reha-Übungen mithilfe einer Tiefenkamera und einem All-in-One-PC überprüft. Diese Geräte ermöglichen eine Kontrolle der Häufigkeit und Qualität der Übungen und steigern durch Gamification-Elemente wie Awards und Punktesysteme die Motivation der Patient*innen. Nachteile dieses Ansatzes sind jedoch die hohen Kosten und der stationäre Aufbau der Geräte im Wohnbereich.
Ergebnisse/Erkenntnisse:
  • Auf Basis der App-Auswertung und des Kameraprojekts entschieden die Wissenschaftler*innen, ein Hybrid-Konzept zu entwickeln, das die Vorteile einer (teil-)stationären sensorgestützten Trainingsmöglichkeit mit der niedrigen Einstiegsschwelle einer Smartphone App verbindet. Dieses Konzept sieht vor, dass Patient*innen bei der Ausführung und der Häufigkeit ihrer Übungen unterstützt, durch Gamification motiviert und mit einer Erinnerungsfunktion zum Training aufgefordert werden.
  • Darüber hinaus kann die Hybrid-Lösung an jeden Fernseher angeschlossen werden und ist kostengünstig.
  • Auch bei dieser Lösung bleibt ein Nachteil: Die Sensoren, die App und die erforderliche Datenplattform zum Austausch der Trainingsdaten erzeugen einen hohen Entwicklungs- und Pflegeaufwand.
Physiotherapie-App zur Rehabilitation nach einer Operation
Kamera-System und Benutzung
Forschungsinteresse:
  • Welche Anforderungen muss eine Tiefenkamera erfüllen, um die Bewegungen aufzunehmen?
  • Worauf müssen Patient*innen und Physiotherapeut*innen bei der Nutzung der App achten?
Vorgehen:
  • Die Wissenschaftler*innen analysierten zunächst, welches Kamerasystem geeignet ist, wie die Software aussieht und welche Akteure die Kamera nutzen können - Physiotherapeut*innen oder Patient*innen?
  • Daraufhin wählten sie eine Tiefenkamera aus und testeten sie im Labor mit einem kleinen Kreis an Proband*innen. Bei den Tests prüften sie unterschiedliche Anwendungsfälle: Was passiert, wenn die Menschen unterschiedlich groß sind? Wie verhält sich die Kamera, wenn die Personen ein helles oder ein dunkles T-Shirt tragen
  • Außerdem konzipierten die Wissenschaftler*innen die System-Architektur und das Design der App.
Ergebnisse/Erkenntnisse:
  • Auf Basis der Testergebnisse formulierten die Wissenschaftler*innen Gebrauchsanweisungen für die Kamera, sodass Patient*innen und Physiotherapeut*innen die App selbstständig in Betrieb nehmen und nutzen können.
  • Das Kamera-System besteht aus mehreren Komponenten: Kamerasoftware, Prozessor, Schnittstellen zu Ausgabegeräten (Computer, Fernseher). Damit diese Teilsysteme funktionieren, definierten die Wissenschaftler*inne die Schnittstellen.
Physiotherapie-App zur Rehabilitation nach einer Operation
Auswahl und Ausführung der Übungen
Forschungsinteresse:
  • Welche Übungen sollen die Patient*innen durchführen?
  • Wie wird die Ausführung der Übungen geprüft?
Vorgehen:
  • Die Wissenschaftler*innen verknüpften die App mit einer leicht bedienbaren Internetseite.
  • Um die Ausführung der Übungen zu prüfen, entwickelten die Wissenschaftler*innen einen Algorithmus.
  • Sie testeten die Physiotherapie-App mit Proband*innen. Dabei stellten sie fest, dass noch ein paar technische Details verbessert werden können. Dazu zählt z. B. die Erkennung von Übungen, die frontal zur Kamera ausgerichtet sind. Die Wissenschaftler*innen erhielten von den Proband*innen außerdem hilfreiche Verbesserungsvorschläge für die Gebrauchsanweisung, die wir für die Inbetriebnahme der Kamera erstellt hatten.
Ergebnisse/Erkenntnisse:
  • Über die Internetseite können die behandelnden Therapeut*innen die Übungen für ihre Patient*innen auswählen und zur App hinzufügen. Sie können auch Hinweise zur Übung und die Anzahl der Wiederholungen vermerken.
  • Der Algorithmus gleicht ab, ob die Bewegungen korrekt ausgeführt werden, indem er die Position der Gelenke analysiert. Die Patient*innen erhalten grafische Hinweise darüber, ob sie die Übungen korrekt ausführen (Zielhöhe, Tempo, Winkel).
Physiotherapie-App zur Rehabilitation nach einer Operation
Benutzeroberfläche
Forschungsinteresse:
  • Wie soll die Benutzeroberfläche der App gestaltet sein, damit Nutzer*innen sie ansprechend finden und die App gerne verwenden?
Vorgehen:
  • Um die Oberfläche der App optisch nutzerfreundlicher zu gestalten, entwarfen die Wissenschaftler*innen ein nutzungsorientiertes Design.
  • Zudem optimierten sie Hintergrundberechnungen, die für die Auswertung der Übungen erforderlich sind (z. B. Winkel, Schnelligkeit).
Ergebnisse/Erkenntnisse:
  • Das Menü der Physiotherpaie-App ist selbsterklärend und intuitiv. Während der Übungen zeigen zwei grafische Balken, ob das Tempo und die Zielhöhe erreicht werden.
  • Counter weisen kurz vor Beginn der Übung auf den Start hin („Bring dich in Startposition!“). Nach der Übung erhalten die Nutzer*innen eine grafische Aufbereitung, die die Genauigkeit der Ausführung darstellt. Zudem erhalten sie Punkte pro Übung sowie Tipps für die nächste Durchführung.
  • Durch die optimierten Hintergrundberechnungen wird die Ausführung besser erfasst.
Physiotherapie-App zur Rehabilitation nach einer Operation
Datenauswertung im Rahmen einer Erprobung
Forschungsinteresse:
  • Wie kann die Physiotherapie-App optimiert werden?
Vorgehen:
  • Die Wissenschaftler*innen ließen die App von Patient*innen einer Physiotherapiepraxis testen. Die Patient*innen konnten die Kamera und die App zwei Wochen lang zu Hause nutzen und sollten dreimal pro Woche die Übungen durchführen.
Ergebnisse/Erkenntnisse:
  • Die Erprobung der Physiotherapie-App ergab mehrere Verbesserungsansätze. Die Testpersonen berichteten, dass Übungen, die frontal ausgeführt werden, nicht immer korrekt erfasst wurden. Darüber hinaus wurde deutlich, dass die direkte Datenübertragung per WLAN für ältere Personen, trotz Anleitungen, herausfordernd war. Um dies zu verbessern, soll die App die Möglichkeit bieten, Daten lokal zu speichern und später zu übertragen, wenn die WLAN-Verbindung wiederhergestellt ist.
  • Darüber hinaus stellten die Wissenschaftler*innen fest, dass die Einstellbarkeit von Zielwinkeln optimiert werden muss. Die App kann derzeit nur einen Gelenkwinkel vorgeben, was dazu führte, dass manche Proband*innen die Oberarme nicht hoch genug heben konnten, um die Übung korrekt auszuführen. Die App soll künftig individuell angepasste Zielwinkel bereitstellen können.
  • Ein weiteres Problem war, dass einige Testpersonen bei anspruchsvollen Übungen Koordinationsprobleme hatten. Zukünftig soll dieses Problem durch eine grafische Darstellung der Übung, die durch ein Skelett angezeigt wird, visuell erklärt werden.
Physiotherapie-App zur Rehabilitation nach einer Operation
Vergleich mit Ground-Truth-Daten
Forschungsinteresse:
  • Wie kann die Erfassung frontal ausgeführter Übungen verbessert werden?
Vorgehen:
  • Testläufe mit Proband*innen zeigten, dass frontal ausgeführte Übungen nicht vollständig korrekt erfasst wurden. Daher nutzten die Wissenschaftler*innen zusätzliche Sensoren, um einen Vergleich mit der App zu ermöglichen. Die Sensoren wurden an verschiedenen Körperstellen angebracht (Kopf, Arme, Rücken, Beine, Füße) und zeichneten Bewegungsdaten der Patient*innen auf. Das verwendete Sensorsystem gilt allgemein als zuverlässig und korrekt (sog. „Ground Truth Daten“), sodass die Daten als Referenzwerte für die Physiotherapie-App dienten.
  • Testweise führten die Wissenschaftler*innen die Übungen selbst aus. Die Bewegungen wurden von der Kamera und von den Sensoren erfasst, sodass zwei Datensätze vorlagen. Da die Datenaufnahme mit verschiedenen Geräten erfolgte, mussten die Wissenschaftler*innen die Daten zunächst synchronisieren, also zuordnen, welche Kameradaten zu welchen Sensordaten gehörten.
Ergebnisse/Erkenntnisse:
  • Durch den Vergleich der Kameradaten und der Sensordaten wurde deutlich, welche Bewegungen die Kamera noch nicht gut erfasst.
Wissensvermittlung im Rahmen von Online-Kursen
Didaktisches Konzept
Forschungsinteresse:
  • Wie können die Wissenschaftler*innen ihre Kenntnisse an verschiedene Zielgruppen weiterleiten?
  • Welche Zielgruppen sind für die Inhalte des Zukunftslabors relevant?
  • Welche Bedürfnisse haben diese Zielgruppen?
Vorgehen:
  • Die Wissenschaftler*innen entschieden sich dafür, ihre Erkenntnisse aus dem Zukunftslabor über eine online-basierte Plattform zu vermitteln. Damit die Wissenschaftler*innen geeignete Formate für die Zielgruppen ermitteln können, analysierten sie grundlegende Einflussfaktoren wie Gruppengröße, Betreuungsumfang und Vorwissen der Zielgruppe.
  • Sie definierten folgende Zielgruppen als relevant: Patient*innen und Betroffene, Vertreter*innen der Gesundheitsberufe, Medizininformatiker*innen und artverwandte Berufe sowie Bürger*innen und die interessierte Öffentlichkeit.
  • Diese Zielgruppen analysierten die Wissenschaftler*innen anhand verschiedener Kriterien (z. B. Lerntyp, Bezug zur Medizin, Umgang mit digitalen Technologien), um die jeweiligen Ansprüche besser verstehen zu können.
Ergebnisse/Erkenntnisse:
  • Die onlinebasierte Lehre kann in verschiedenen Formaten stattfinden, von Vorlesungsaufzeichnungen mit digitalen Materialien bis zu Online-Veranstaltungen mit Virtual und Augmented Reality. Die Wissenschaftler*innen wählten das Fünf-Phasenmodell nach Gilly Salmon als theoretische Grundlage für die Gestaltung der Online-Kurse. Dieses Modell umfasst fünf Phasen: Zugang und Motivation, Online-Sozialisation, Informationsaustausch, Wissenskonstruktion und Entwicklung, um die Lernenden schrittweise zu selbstständigem Lernen zu führen. Auf dieser Basis entwickelten sie ein didaktisches Konzept für die Online-Lehre im Zukunftslabor Gesundheit.
  • Für die digitale Umsetzung des Konzepts war eine geeignete Wissensvermittlungsplattform in Form eines Lernmanagementsystems notwendig. Diese Plattform musste über Funktionen wie Foren, Videopräsentationen und Testmöglichkeiten verfügen, um die verschiedenen Lernphasen zu unterstützen. Die Wissenschaftler*innen verglichen verschiedene Lernmanagementsysteme der beteiligten Partner, um eine geeignete Plattform für alle Zielgruppen zu finden.
  • Die Zielgruppenanalyse ergab, dass sich Patient*innen und Betroffene Informationen zu Krankheiten und Therapien wünschen, Vertreter*innen der Gesundheitsberufe sowie Medizininformatikerinnen Informationen über medizinische Datenanalyse und maschinelles Lernen benötigen, und Bürger*innen sowie die interessierte Öffentlichkeit insbesondere an Fragen zur Privatsphäre und Datensicherheit interessiert sind.
Wissensvermittlung im Rahmen von Online-Kursen
Curriculum für einen Online-Kurs zur Datenanalytik
Forschungsinteresse:
  • Welche Inhalte sollen in den Online-Kursen vermittelt werden?
Vorgehen:
  • Aufbauend auf dem didaktischen Konzept, das die Zielgruppen und die Methoden der online-basierten Weiterbildung beschreibt, erstellten die Wissenschaftler*innen ein Curriculum für einen Online-Kurs zur Datenanalytik. Dieser ist für die Zielgruppe „Vertreter*innen der Gesundheitsberufe“ vorgesehen.
  • Um geeignete Themengebiete für das Curriculum zu identifizieren, werteten die Wissenschaftler*innen Modulbeschreibungen unterschiedlicher Studiengänge im Bereich der Gesundheitsberufe aus. Daraufhin legten sie relevante Inhalte für das Curriculum fest.
Ergebnisse/Erkenntnisse:
  • Das Curriculum umfasst drei wesentliche Inhalte: das Paradigma des lernenden Gesundheitssystems, inferenzstatistische Konzepte und Datenmodellierung mithilfe statistischer Methoden.
  • Lernendes Gesundheitssystem: Im Kern geht es um die Aufbereitung und Nutzung von routinemäßig erhobenen Gesundheitsdaten in einem kontinuierlichen Lernzyklus, der auf analytischen und statistischen Methoden basiert. Das Curriculum des Zukunftslabors behandelt dieses Paradigma anhand einschlägiger Literatur und Beispiele und thematisiert die Entscheidungsunterstützung durch datengetriebene Informationssysteme.
  • Inferenzstatistik: Diese beschäftigt sich mit der Übertragung von stichprobenartigen Befunden auf die Gesamtheit der Daten. Da Inferenzstatistik oft nicht in gesundheitsbezogenen Studiengängen enthalten ist, wird sie in den Online-Kursen behandelt, um wichtige Informationen zur Datenanalyse zu vermitteln.
  • Datenmodellierung: Hier werden Methoden zur Modellierung medizinischer Daten vermittelt, um Krankheitsverläufe vorhersagen zu können. Die Teilnehmenden sollen außerdem lernen, sich kritisch mit dem Einsatz statistischer Modelle zur Datenanalyse auseinanderzusetzen.
Wissensvermittlung im Rahmen von Online-Kursen
Train the Trainer
Forschungsinteresse:
  • Welche Kenntnisse benötigen die Trainer*innen, die die Online-Kurse begleiten?
Vorgehen:
  • Für die Durchführung der Online-Kurse benötigt das Zukunftslabor Trainer*innen, die die Inhalte zielgruppengerecht vermitteln. Deshalb führten die Wissenschaftler*innen, die das didaktische Konzept entwickelt hatten, eine interne Schulung für Kolleg*innen aus anderen Teilprojekten durch und entwickelten hierfür einen Train-the-Trainer-Kurs.
Ergebnisse/Erkenntnisse:
  • Die Trainer*innen lernten Grundbegriffe der modernen Online-Didaktik und den Umgang mit entsprechenden Tools wie Lernmanagementsystemen, Programmen zur Erstellung von Lehrvideos und Videokonferenzsystemen.
Wissensvermittlung im Rahmen von Online-Kursen
Online-Kurs „Das lernende Gesundheitssystem in Aktion - klinische Datenanalyse“
Forschungsinteresse:
  • Welche Inhalte sind für Studierende und Angehörige von Berufen in der Medizin und im Gesundheitswesen (insbesondere auch Pflege, Physiotherapie und Hebammenwissenschaft) relevant?
Vorgehen:
  • Aufbauend auf dem didaktischen Konzept und dem Curriculum konzipierten die Wissenschaftler*innen einen Online-Kurs zum Thema „Das lernende Gesundheitssystem - klinische Datenanalyse“, der zusammen mit Modulen zur Interoperabilität und zum Datenschutz und zur Datensicherheit angeboten wurde.
  • Die Wissenschaftler*innen führten diesen Kurs mehrfach mit Studierenden durch, u. a. im Rahmen einer internationalen Summer School in Porto und einer Spring School in Osnabrück. Daran nahmen Studierende aus Finnland, Portugal, Deutschland, den Niederlanden, Brasilien und der Ukraine teil, die sich in den Bereichen Interoperabilität von Daten und Systemen, Datenschutz und Datensicherheit sowie Datenanalytik und entscheidungsunterstützende Systeme weiterbildeten. Der Kurs wurde wiederholt in Masterprogrammen für verschiedene Gesundheitsberufe über mehrere Semester angeboten. Alle Kursangebote wurden evaluiert.
Ergebnisse/Erkenntnisse:
  • Die Teilnehmer*innen des Kurses lernen Methoden der Datenanalyse (insbesondere logistische Regressionsverfahren zur Modellierung von Einflussfaktoren zur Prädiktion eines klinischen Endpunktes) und erfahren, welche Patient*innen für bestimmte Krankheiten gefährdet sind. Als Beispiel wurde der Use Case Diabetes Mellitus gewählt. Aus Routinedaten wie Blutdruck, Blutzuckerspiegel, Alter, Geschlecht, genetischer Prädisposition sollten die relevanten Prädiktoren ermittelt und in ein Entscheidungsunterstützendes System integriert werden. Darüber sollten Hinweise über Risikofaktoren abgeleitet und entsprechende Maßnahmen konzipiert werden. Die Teilnehmer:innen waren trotz des anspruchsvollen Niveaus zufrieden mit dem Kurs und erwähnten insbesondere die Interprofessionalität und die Mischung verschiedener akademischer Ebenen als bereichernd.
Wissensvermittlung im Rahmen von Online-Kursen
Online-Kurs „Das lernende Gesundheitswesen: So lernt es“
Forschungsinteresse:
  • Welche Inhalte sind für interessierte Bürger*innen und Schüler*innen relevant?
Vorgehen:
  • Die Wissenschaftler*innen konzipierten einen Online-Kurs zum Thema „Patientennahe Sensorsysteme in der Pflege“.
Ergebnisse/Erkenntnisse:
  • Der Kurs gibt den Teilnehmer*innen einen Einblick in verschiedene Biosignale, dazugehörige Sensortechnik und entsprechende Auswertungsmethoden.
Wissensvermittlung im Rahmen von Online-Kursen
Online Kurs „Gamechanger Assistierende Gesundheitstechnologien“
Forschungsinteresse:
  • Welche Inhalte sind für Studierende der Medizininformatik und verwandter Studiengänge relevant?
Vorgehen:
  • Die Wissenschaftler*innen konzipierten einen Online-Kurs zum Thema „Gamechanger Assistierende Gesundheitstechnologien“.
  • Sie führten ihn mit 78 Studierenden aus verschiedenen Studiengängen wie Informatik und Data Science durch.
Ergebnisse/Erkenntnisse:
  • Der Kurs vermittelt Grundlagen der Datenanalyse und des Gesundheitsmonitorings. Die Teilnehmer*innen lernen Assistierende Gesundheitssysteme und ihre Anwendungsbereiche kennen. Dies schließt die Nutzung von Sensoren und der erfassten Sensordaten ein.
Wissensvermittlung im Rahmen von Online-Kursen
Online Kurs „openEHR“
Forschungsinteresse:
  • Welche Inhalte sind für Beschäftigte aus medizinischen Datenintegrationszentren sowie Studierende der Medizininformatik und verwandter Studiengänge relevant?
Vorgehen:
  • Die Wissenschaftler*innen konzipierten einen Online-Kurs zum Thema „openEHR“ (open Electronic Health Record). Dieser Standard ermöglicht die Verwaltung, die Speicherung, den Abruf und den Austausch von Gesundheitsdaten in elektronischen Patientenakten
  • Erste inhaltliche Elemente (insbesondere Lernvideos) wurden bereits im Wintersemester 2023/2024 in Lehrveranstaltungen verwendet und fanden Anklang.
Ergebnisse/Erkenntnisse:
  • Der Kurs gibt eine Einführung in die Datenmodellierung mit openEHR. Die Teilnehmer*innen lernen, auf Basis dieses Standards Datenmodelle zu erstellen.
Wissensvermittlung im Rahmen von Online-Kursen
Evaluation der Online-Kurse
Forschungsinteresse:
  • Wie gefallen den Teilnehmer*innen die Online-Kurse?
  • Nach welchem Konzept können die Kurse evaluiert werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein Evaluationskonzept, um Rückmeldungen von den Teilnehmer*innen zu den Online-Kursen einzuholen.
  • Nach jedem durchgeführten Kurs holten sich die Wissenschaftler*innen das Feedback der Teilnehmer*innen ein.
  • Die Evaluationsergebnisse nutzten die Wissenschaftler*innen dazu nutzen, die Kurse zu verbessern.
Ergebnisse/Erkenntnisse:
  • Das Evaluationskonzept des Zukunftslabors sieht vier Kriterien zur Bewertung vor: Zum einen bewerten die Teilnehmer*innen das didaktische Konzept, also auf welche Weise die Lerninhalte vermittelt werden (z. B. Text, Video, Forum). Zum anderen evaluieren sie die Lerninhalte, dazu zählen sowohl die Themen der Kurse als auch die Etivities, die zum aktiven und interaktiven Online-Lernen auffordern. Darüber hinaus geben die Teilnehmer*innen Rückmeldung zum Lernmanagement. Dies schließt das Anmeldeverfahren und die Bedienbarkeit mit ein. Schließlich bewerten die Teilnehmer*innen das Evaluationskonzept selbst, also wie gut sich der Feedbackbogen für die Bewertung des Kurses eignet.
  • Das Feedback der Teilnehmer*innen war sehr konstruktiv. Sie schlugen z. B. vor, Untertitel für hörbeeinträchtigte und fremdsprachige Personen einzubinden. Außerdem merkten sie unklare Aufgabenstellungen oder die komplizierte Anmeldung zum Lernmanagementsystem an.
  • Die Verbesserungsvorschläge nutzten die Wissenschaftler*innen, um die Online-Kurse zu optimieren.
Zukunftslabor
Mobilität
Sprecher*innen-Einrichtung
Technische Universität Braunschweig
8 geförderte Einrichtungen
4 Teilprojekte
17 assoziierte Partner
01.10.2020 - 30.09.2024
verkehrsübergreifende Brücken bauen
Das Verkehrsaufkommen steigt weltweit, die Mobilitätsbedarfe verändern sich und mit ihnen die Anforderungen an Mobilitätslösungen in Hinblick auf Schnelligkeit, Zuverlässigkeit, Wirtschaftlichkeit, Flexibilität, Energieeffizienz und Umweltverträglichkeit. Digitalisierung ist eine wesentliche Grundlage für neue Lösungsansätze und Geschäftsmodelle, beispielsweise durch neuartige (autonome) Fahrzeugsysteme und -funktionen auf der Basis von Umfeld- und Lageerkennung, Navigation, Steuerung, Mensch-Maschine-Schnittstellen, sowie Kommunikation, Interaktion und Kooperation. Zukünftige Mobilitätskonzepte werden durch eine stärkere Kombination unterschiedlicher Mobilitätsträger geprägt sein und den Transport von Personen und Güter weiter integrieren. Die Intermodalität erfordert eine bessere Vernetzung der Mobilitätsträger untereinander sowie mit den Nutzenden und damit eine transportsystemübergreifende Betrachtung von Technologien und Prozessen zur Erhebung, Auswertung und Bereitstellung von Daten. Die Leitidee lautet vom intelligenten Fahrzeug zur integrierten Mobilität durch Digitalisierung.
Zentrale Aspekte sind digitalisierte und intermodale Mobilitätskonzepte, digitale Dienste und Dienstleistungen, intelligente Verkehrs- und Transportsysteme, Fahrzeugsysteme und -funktionen, Sicherheit und Datenschutz mobilitätsbezogener Daten sowie intelligente, datenbasierte Anwendungen.
Teilprojekte
in Arbeit
Intelligente Fahrzeugsysteme und -funktionen für ressourceneffiziente Mobilität (Smart Mobility Systems and Technologies)
Bei diesem Teilprojekt geht es darum, wie Fahrzeuge und Infrastruktur aufeinander einwirken. Im Kontext von Smart Mobility werden intelligente Systeme entwickelt, die Vorrausetzung für automatisiertes Fahren sind. Es werden unabhängige Elemente zusammengeführt, um neue Eigenschaften zu erschaffen, die unter anderem die Effizienz steigern. Auch arbeiten die Forscher*innen am Schutz vor Fehlfunktionen und Angriffen Dritter, um die Sicherheit zu gewährleisten. Zusätzlich wird an einer automatisierten Rückführung von Fahrzeugen im Sharing-Bereich gearbeitet, um die Effizienz zu steigern.
in Arbeit
Sicherheit und Schutz bei der Handhabung mobilitätsbezogener Daten (Smart Mobility Data Handling)
Bei diesem Teilprojekt geht es darum Mobilitätsdaten sicher zu erfassen, auszuwerten und miteinander zu verknüpfen. Die Herausforderung besteht dabei vor allem in der Vielzahl der verschiedenen Daten, für dessen Erhebung und Verarbeitung Datenarchitekturen entwickelt werden müssen, die den Anforderungen Dienstanbietern und Nutzer*innen entsprechen. Zudem müssen Konzepte zu Safety, Security und Privacy entwickelt werden, um die Privatsphäre zu gewährleisten und den rechtlichen Rahmenbedingungen zu entsprechen. Außerdem werden Lösungsansätze entwickelt, damit heterogene Daten ohne Qualitätsverlust fusioniert werden können.
in Arbeit
Effiziente, sozial- und umweltverträgliche Mobilität als komplexe Lösung (Mobility as a Solution)
Bei diesem Projekt geht es um intermodale Mobilitätsketten, die verschiedene Verkehrsmittel aufeinander abstimmen, um einen lückenlosen Transport für Personen im Berufsverkehr und Güter zu ermöglichen. Es soll dabei Zeit gespart und Ressourcen möglichst effizient eingesetzt werden. Durch eine ganzheitliche Betrachtung der Mobilitätsketten können die einzelnen Elemente effizient verbunden werden. Es werden Lösungen entwickelt, die die Eigenheiten der Verkehrsmittel berücksichtigen und die den Ansprüchen verschiedener Stakeholder entsprechen, um die Akzeptanz der Nutzer*innen zu erlangen.
in Arbeit
Nutzerzentrierte Dienste und Dienstleistungen zur Bewegung von Personen und Gütern (Service¬Driven Mobility)
In diesem Projekt entwickeln die Wissenschaftler*innen neue Produkte und Geschäftsmodelle für intelligente Fahrzeuge und intermodale Mobilitätslösungen. Function-On-Demand-Services sind ein Teil des Projekts, bei dem Nutzer*innen nach Bedarf Produkte oder Dienstleistungen abrufen können, um eine flexiblere Gestaltung individueller Mobilität zu ermöglichen. Die Angebote müssen sowohl bedarfsorientiert als auch nutzerfreundlich sein und berücksichtigen, welche Daten die Nutzer*innen preisgeben möchten, wobei das Prinzip der Datensparsamkeit greift. Grundsätzlich müssen die Angebote einen Mehrwert für Nutzer*innen schaffen. In diesem Zusammenhang erforschen die Wissenschaftler*innen wie neue Mobilitätstechnologien effektiv auf den Markt gebracht werden können.
Collaborative Research Field
Intelligente Fahrzeugsysteme und -funktionen für ressourceneffiziente Mobilität (Smart Mobility Systems and Technologies)
Status: in Arbeit
Bei diesem Teilprojekt geht es darum, wie Fahrzeuge und Infrastruktur aufeinander einwirken. Im Kontext von Smart Mobility werden intelligente Systeme entwickelt, die Vorrausetzung für automatisiertes Fahren sind. Es werden unabhängige Elemente zusammengeführt, um neue Eigenschaften zu erschaffen, die unter anderem die Effizienz steigern. Auch arbeiten die Forscher*innen am Schutz vor Fehlfunktionen und Angriffen Dritter, um die Sicherheit zu gewährleisten. Zusätzlich wird an einer automatisierten Rückführung von Fahrzeugen im Sharing-Bereich gearbeitet, um die Effizienz zu steigern.
Ansprechperson
Prof. Dr.-Ing. David Inkermann
Technische Universität Clausthal
Institut für Maschinenwesen
Erzeugung heterogener Modelle zur Unterstützung interdisziplinärer Entwicklungsaufgaben (IMW, TU Clausthal)
Entwicklung eines innovativen Echtzeit-Prüfsystems für intelligente Fahrzeuge in kooperierenden cyber-physischen Verkehrssystemen (ERAGON) (Ostfalia)
Untersuchung der Auswirkungen von Sensordegradation auf die Sicherheit von autonomen Fahrzeugen (Uni Oldenburg)
Analyse der Sensorverschlechterung von Fahrzeugen bei den drei Faktoren Regen, Nebel und Schnee (Kooperation der Uni Oldenburg mit der Firma OBSURVER)
Entwicklung einer systematischen Methodik zur Identifikation und Implementierung von Safety und Security Anforderungen im Kontext des Autonomen Fahrens (TU BS)
Qualitätssicherung intelligenter Fahrzeugsysteme nach Software-Updates
Forschungsinteresse:
  • Wie kann sichergestellt werden, dass intelligente Fahrzeugsysteme und -funktionen auch nach einem Software-Update weiterhin zuverlässig und wie geplant funktionieren?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein Konzept, mit dem sie Funktionen eines Fahrzeugs nach einem Software-Update auf ihre Funktionsfähigkeit testen können. Denn nach einem Update können sich Fahrzeugvarianten (unterschiedliche Hardware-Software-Kombinationen z. B. aus Bluetooth, Dynamic Lights and Advanced Cruise Control) anders verhalten als geplant.
  • Um nicht alle Kombinationen testen zu müssen, erstellten die Wissenschaftler*innen mittels Sampling-Algorithmen eine Teilmenge, die in einer Modellierungsumgebung getestet wurde (sogenannte X-in-the-Loop-Testmethode).
  • Die ausgewählten Stichproben priorisierten die Wissenschaftler*innen im Rahmen des risikobasierten Testens. Dabei wird anhand von Informationen über das vorhandene System (Architektur, Testhistorie) ein Risikowert für bestimmte Systemkomponenten berechnet. Testfälle, die eine Komponente mit hohem Risikowert aufweisen, werden als Erstes ausgeführt, um kritische Systemkomponenten möglichst früh zu testen und Fehler möglichst schnell zu finden.
Ergebnisse/Erkenntnisse:
  • Die Ergebnisse zeigen, dass durch die risikobasierte Priorisierung der Tests kritische Features des Fahrzeugsystems schneller getestet werden können. Dies führt zu einer effizienteren Nutzung der Testressourcen, da weniger Konfigurationen überprüft werden müssen, wodurch der Testaufwand reduziert wird.
Ansätze für modellbasierte Entwicklung und Absicherung von Fahrzeugsystemen und -funktionen
Forschungsinteresse:
  • Welche wissenschaftlichen Ansätze gibt es zur modellbasierten Entwicklung und Absicherung von Fahrzeugsystemen und -funktionen?
Vorgehen:
  • Die Wissenschaftler*innen führten eine umfassende Literaturrecherche durch, um bestehende wissenschaftliche Ansätze und bestehende Lücken in der Entwicklung und Absicherung von Fahrzeugsystemen und -funktionen zu identifizieren. Der Fokus lag auf der Analyse der Methoden, Prozesse und Werkzeuge, die aktuell zur Verfügung stehen.
Ergebnisse/Erkenntnisse:
  • Die Untersuchung ergab, dass bisher keine durchgängigen Methoden, Prozesse und Werkzeuge existieren, welche nachhaltig die effiziente System- und Funktionsentwicklung für intelligente, selbstfahrende Fahrzeuge in cyber-physischen Systemen unterstützen.
  • Zudem besteht bei der Integration von Funktionen auf höheren Hierarchieebenen eine Lücke zwischen den etablierten Hardware-in-the-Loop- (HiL-)Simulationen und der realen Anwendung auf der Straße.
  • Außerdem zeigte die Recherche, dass die herkömmliche Entwicklungsmethodik für mechatronische Systeme erweitert werden muss, damit sie den Ansprüchen einer Funktionsentwicklung für intelligente autonome Fahrzeugsysteme gerecht wird. Das beinhaltet eine Erweiterung auf Prozess-Ebene (vor allem Drivingsimulator-in-the-Loop) und auf Management-Ebene (Anforderungs-, Daten- und Bewertungsmanagement für KI-basierte Funktionen und Machine Learning). Zur Schließung der Lücke zwischen HiL-Simulationen und realen Anwendungen bei der System-Integration auf höheren Hierarchieebenen wird der Aufbau eines cyber-physischen Labortestfelds für intelligente Mobilitätsanwendungen untersucht.
Absicherung von Fahrzeugsystemen bei Software-Updates im laufenden Betrieb
Forschungsinteresse:
  • Wie kann sichergestellt werden, dass das Fahrzeugsystem bei Software-Updates im laufenden Betrieb intakt und funktionsfähig bleibt?
Vorgehen:
  • Die Wissenschaftler*innen entschieden sich dafür, mit sogenannten Kontrakten zu arbeiten. Kontrakte spezifizieren einerseits die Eigenschaften, die Systemkomponenten in ihrer Umgebung aufweisen sollen, und andererseits die Eigenschaften, die die Systemkomponenten garantieren. Mithilfe der Kontrakte können Komponenten verschiedener Hersteller über Systemebenen hinweg überprüft werden.
  • Allerdings besteht eine große Herausforderung darin, diese Methodik vom Systementwurf auf die tatsächliche Entwicklung von Fahrzeugen im Betrieb zu übertragen. Ein zentrales Problem ist es, Kontraktabhängigkeiten automatisch nachzuverfolgen, die eventuell durch den Austausch von Komponenten betroffen sind.
  • Um das Problem der Kontraktabhängigkeiten beim Austausch von Fahrzeugkomponenten zu lösen, führten die Forscher*innen eine Literaturrecherche durch und entwickelten eine Fallstudie. Diese Fallstudie untersuchte die komplexen Wechselwirkungen zwischen Kontrakten und Implementierungen am Beispiel eines automatischen Überholmanövers. Durch die Änderung der Fahrgeschwindigkeit überprüften sie die Abhängigkeiten zwischen verschiedenen Fahrmanövern.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen stellten fest, dass eine leistungsfähigere Komponente (z. B. eine Fahrfunktion mit höheren Geschwindigkeiten) nicht zwangsläufig besser ist, da sie möglicherweise einen schwächeren Kontrakt hat. Für die Aufrechterhaltung der Kohärenz zwischen Kontrakten gilt es, eine Lösung zu erarbeiten.
Bewältigung der zunehmenden Komplexität bei der Entwicklung von Fahrzeugsystemen
Forschungsinteresse:
  • Welches Potenzial haben Systemarchitekturmodelle bei der Entwicklung komplexer Fahrfunktionen und -systeme?
Vorgehen:
  • Die Wissenschaftler*innen führten eine Literaturrecherche durch, um domänenspezifische Modelle zur Abbildung von Systemstrukturen zu analysieren. Sie untersuchten diese Modelle auf ihre Abbildungsgegenstände, abgebildeten Eigenschaften, Verwendungszwecke und Darstellung.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen entwickelten auf Basis der Literaturrecherche ein angepasstes Rahmenwerk zur Strukturierung von Architekturmodellen, das die interdisziplinäre Verknüpfung und Verortung dieser Modelle im Entwicklungsprozess unterstützt.
  • Zudem definierten sie eine Fallstudie zur Untersuchung der Verknüpfung von Architekturmodellen und der Methoden zur Variation und Identifikation von Strukturmerkmalen, insbesondere am Beispiel der Wankstabilisierung.
Prüfung und Absicherung digitaler Fahrzeugfunktionen
Forschungsinteresse:
  • Wie können digitale Fahrzeugfunktionen trotz kontinuierlicher Updates und individueller Fahrzeugkonfigurationen zuverlässig entwickelt und abgesichert werden?
Vorgehen:
  • Die Herausforderung besteht darin, sicherzustellen, dass alle Fahrzeugkomponenten auch nach einem Update weiterhin einwandfrei funktionieren.
  • Um diese Funktionsfähigkeit der einzelnen Komponenten zu prüfen, führen die Wissenschaftler*innen Integrationstests und eine kontraktbasierte Prüfung der Fahrzeugsysteme durch. Bei Integrationstests wird zunächst eine einzelne Fahrzeugkomponente überprüft. Anschließend werden weitere Komponenten hinzugeschaltet.
  • Um die Integrationstests auszuwählen, führten die Wissenschaftler*innen eine Change Impact Analyse durch. Dabei analysierten sie, welche Abhängigkeiten zwischen den einzelnen Komponenten bestehen.
  • Neben den Integrationstests untersuchten die Wissenschaftler*innen des Zukunftslabors auch eine kontraktbasierte Prüfung der Fahrzeugsysteme. Mit Kontrakten können Komponenten verschiedener Hersteller über Systemebenen hinweg geprüft werden.
Ergebnisse/Erkenntnisse:
  • Mithilfe der Integrationstests identifizierten die Wissenschaftler*innen Komponenten, die direkt und indirekt von einem Update betroffen sind.
  • Die kontraktbasierte Prüfung ergab zwei Problemfelder: Erstens gibt es kein funktionierendes stochastisches Kontraktframework, welches überprüft, dass Kontrakte bezüglich ihrer Annahmen und Garantien wechselweise zueinander passen und gemeinsam die gewünschten Gesamtsystemeigenschaften (z. B. Kollisionsvermeidung) implizieren. Zweitens existieren keine Kontraktframeworks, mit denen die Fehlerhäufigkeit des Gesamtsystems ermittelt werden kann (z. B. die Fehlerhäufigkeit von kamerabasierten Objekterkennungssystemen).
  • Zur Behebung der identifizierten Schwächen analysierten die Wissenschaftler*innen alle wesentlichen existierenden Kontraktframeworks für funktionale und nichtfunktionale Eigenschaften. Sie gingen davon aus, dass Fahrzeugmanöver und -funktionen isoliert entwickelt und ihre Funktionsfähigkeit nachgewiesen werden können, bevor diese kombiniert werden. Ein zentraler Teil der Analyse war die Untersuchung von Skillgraphen, die einzelne Fahrzeugfunktionen und Sicherheitsanforderungen miteinander in Beziehung setzen.
  • Es stellte sich heraus, dass Skillgraphen besonders geeignet sind, um mögliche Fehler in den Fahrzeugsystemen frühzeitig zu erkennen. Dies ermöglicht eine fundierte Prüfung der Sicherheitsanforderungen in Bezug auf die einzelnen Fahrzeugfunktionen.
Energieoptimierte und autonome Fahrzeugfunktionen
Forschungsinteresse:
  • Welche Fahrzeugfunktionen ermöglichen eine sichere, energieoptimierte und autonome Mobilität?
  • Wie können KI-basierte Funktionen, die das autonome Fahren ermöglichen, kostengünstig und modellbasiert entwickelt werden?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten eine autonome Mobilitätsplattform für den Personentransport im vernetzten cyber-physischen Verkehrssystem. Dabei standen die Struktur und Kommunikation zwischen den beteiligten Akteuren im Vordergrund, um Vorteile wie die Minimierung des Energieverbrauchs zu erzielen.
  • >Zusätzlich arbeiteten die Wissenschaftler*innen an einem digitalen Zwilling, der dabei helfen sollte, Fahrzeugsysteme zielgerichtet zu rekonfigurieren und aufzuwerten. Er sollte außerdem die Restlebensdauer (mechanischer) Komponenten auf Basis von Nutzungsinformationen prognostizieren.
Ergebnisse/Erkenntnisse:
  • Die Forschung zeigt, dass eine klare hierarchische Strukturierung und Vernetzung innerhalb des Verkehrssystems entscheidend für die Minimierung des Energieverbrauchs autonomer Mobilitätskonzepte ist. Der digitale Zwilling stellt eine vielversprechende Lösung dar, um die Entwicklungszeiten und Risiken zu reduzieren und die Lebensdauer von Fahrzeugkomponenten präzise zu prognostizieren.
Anwendung von Model-Based Systems Engineering in der Architekturentwicklung mechatronischer Systeme
Forschungsinteresse:
  • Wie können Wechselwirkungen zwischen verschiedenen Fahrzeugkomponenten besser verstanden werden?
Vorgehen:
  • Die Wissenschaftler*innen nutzten das Model-based Systems Engineering (modellbasierte Systementwicklung). Bei diesem Ansatz werden Systeme mithilfe von semi-formalen Modellen unter Anwendung der Modellierungssprache SysML (Systems Modelling Language) entwickelt.
  • Die Wissenschaftler*innen erstellten Systemmodelle, indem sie zunächst die funktionale Sicht analysieren, also die Frage, was das Produkt können soll. Danach betrachten sie die strukturelle Sicht, um festzulegen, welche Teilsysteme erforderlich sind, um die gewünschten Funktionen zu realisieren.
Ergebnisse/Erkenntnisse:
  • Als Anwendungsbeispiel nutzten die Wissenschaftler*innen den Wankstabilisator. Dieses mechatronische Teilsystem in Fahrzeugen eignete sich gut, um SysML-Modelle des Model-based Systems Engineering zu demonstrieren. Der Wankstabilisator eines Autos hat die übergeordnete Funktion, das Fahrzeug während Kurvenfahrten zu stabilisieren und somit den Fahrkomfort zu erhöhen.
Verknüpfung und Integration von SysML- und CAD-Modelle zur Erzeugung heterogener Modelle
Forschungsinteresse:
  • Wie können domänenspezifische und domänenübergreifende Modelle n der modellbasierten Entwicklung mechatronischer Systeme verknüpft und integriert werden?
  • Wie können Inkonsistenzen vermieden werden, die durch die Verteilung von Produkteigenschaften auf verschiedene Modelle entstehen können?
Vorgehen:
  • Domänenspezifische Modelle werden in bestimmten Fachgebieten, wie der Mechanik, verwendet (z. B. CAD-Modelle), um spezifische Anforderungen wie die geometrische Struktur von Bauteilen zu erfüllen. Domänenübergreifende Modelle hingegen unterstützen interdisziplinäre Ingenieurstechniken, etwa durch die Definition von Systemarchitekturen, und nutzen standardisierte Modellierungssprachen wie SysML (Systems Modeling Language).
  • Die Wissenschaftler*innen entwickelten ein technisches Schnittstellenkonzept, das werkzeugunabhängige Datenformate für den Datenaustausch zwischen SysML- und CAD-Modellen harmonisiert und setzten dieses prototypisch um.
Ergebnisse/Erkenntnisse:
  • Das Schnittstellenkonzept ermöglicht es, die Datenstrukturen von SysML- und CAD-Modellen anhand von XMI (XML Metadata Interchange) Dateien zu harmonisieren. Dazu wurde eine API (Application Programming Interface) unter Verwendung der Programmiersprache Python entwickelt, um einen konsistenten Austausch von Modellelementen zu gewährleisten.
  • Das entwickelte Schnittstellenkonzept wurde erfolgreich am Anwendungsbeispiel eines Wankstabilisators demonstriert. Das daraus resultierende heterogene Modell ermöglicht die Integration von SysML- und CAD-Modellelementen in ein Modell und unterstützt die Allokation von Systemfunktionen zu Systemelementen, was die Architekturentwicklung mechatronischer Systeme unterstützt.
Entwicklung intelligenter Funktionen zur autonomen Längs- und Querdynamikregelung
Berechnung komplexer Informationen
Forschungsinteresse:
  • Wie können die komplexen Funktionen für die autonome Längs- und Querdynamik mit Unterstützung von künstlicher Intelligenz realisiert werden?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten intelligente Funktionen zur autonomen Längs- und Querdynamik. Die Längsdynamik dient zur Einhaltung von Abstand und Geschwindigkeit. Die Querdynamik gewährleistet die korrekte Lenkbewegung zum autonomen Folgen der Fahrbahn.
  • Für diese komplexen Funktionen sind viele weitere Informationen erforderlich (z. B. Beschaffenheit der Fahrbahn, Geschwindigkeit des Fahrzeuges, Position anderer Fahrzeuge), die Wissenschaftler*innen erweitern Algorithmen moderner Regelungstechnik um Künstliche Intelligenz, Machine Learning und Vernetzung. So werden die notwendigen Informationen ermittelt und ein optimiertes Fahrverhalten erzielt.
  • Sie bildeten die Funktionen virtuell als Modell ab, testeten und optimierten sie in einem durchgängigen, modellbasierten Entwicklungsprozess.
Ergebnisse/Erkenntnisse:
  • Die entwickelten intelligenten Algorithmen können autonome Fahrfunktionen basierend auf Fahrbahnverhältnissen und Fahrzeugpositionen effektiv realisieren. Die modellbasierte Entwicklung ermöglichte eine umfassende Optimierung der Funktionen vor ihrem Einsatz in realen Fahrzeugen.
Entwicklung intelligenter Funktionen zur autonomen Längs- und Querdynamikregelung
Validierung mittels Model-in-the-Loop, Software-in-the-Loop und Hardware-in-the-Loop
Forschungsinteresse:
  • Wie können intelligente Fahrzeugfunktionen für die Längs- und Querdynamik offline getestet werden?
Vorgehen:
  • Die Wissenschaftler*innen bauten eine CAE-Entwicklungsplattform (CAE = Computer Aided Engineering) auf, die einen durchgängigen, modellbasierten Entwicklungsprozess ermöglicht. Diese Plattform bietet verschiedene Simulationsmethoden zur Validierung der entwickelten Funktionen: Model-in-the-Loop (MiL), Software-in-the-Loop (SiL) und Hardware-in-the-Loop (HiL). Die Funktionen werden schrittweise in den Simulationsumgebungen getestet, von der Offline-Simulation von Simulationsmodellen (MiL) über die Offline-Simulation des automatisch generierten Programmquelltextes (SiL) bis zur Online-Simulation auf der Ziel-Hardware (HiL) unter Echtzeit-Bedingungen.
Ergebnisse/Erkenntnisse:
  • Die intelligenten Fahrfunktionen für die Längs- und Querdynamik wurden erfolgreich entwickelt, getestet und validiert, insbesondere mithilfe der Model-in-the-Loop- und Software-in-the-Loop-Simulationen.
Entwicklung intelligenter Funktionen zur autonomen Längs- und Querdynamikregelung
Aufbau des Prüfsystems ERAGON
Forschungsinteresse:
  • Wie kann die Validierung intelligenter Fahrzeugfunktionen in Echtzeit erfolgen?
  • Wie verhalten sich diese Funktionen in einem realistischen Umfeld, das sowohl Software als auch Hardware umfasst?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten und bauten das Prüfsystem ERAGON, ein Hardware-in-the-Loop System, welches die Entwicklung und den Test vernetzter autonomer Fahrzeuge erlaubt. Kern ist die Echtzeitsimulation des komplexen Systems von der Fahrbahn über das Fahrzeug bis hin zur vernetzten Fahrumgebung. Zur Entwicklung von ERAGON gehörten die Konzeption und der Prototyp des Systems.
  • Zudem entwickelten sie das Forschungsfahrzeug AURONA, welches eine flexible softwaretechnische Umstellung der Antriebs- und Lenksysteme erlaubt und in das ERAGON-System integriert werden kann.
Ergebnisse/Erkenntnisse:
  • Das Ergebnis ist die Entwicklung des ERAGON-Prüfsystems und des Forschungsfahrzeugs AURONA.
  • ERAGON ermöglicht eine realistische, hardware-unterstützte Validierung von intelligenten Regelfunktionen in einem vernetzten Verkehrssystem. Es verfügt über alle notwendigen fahrzeugmechatronischen Komponenten (z. B. Sensorik, Echtzeitperipherie, Software und Hardware zur Kommunikation) und kann die Fahrzeug-Fahrbahn-Fahrumgebung in Echtzeit abbilden (z. B. Unebenheiten im Boden, V2X-Kommunikation etc.).
  • AURONA ermöglicht eine softwaretechnische Umstellung des Antriebs- und Lenkkonzeptes von Front, Heck oder Allradantrieb und Lenkung. Das prototypische Fahrzeug kann darüber hinaus im Rahmen des ERGAON-Prüfsystems eingesetzt werden.
Collaborative Research Field
Sicherheit und Schutz bei der Handhabung mobilitätsbezogener Daten (Smart Mobility Data Handling)
Status: in Arbeit
Bei diesem Teilprojekt geht es darum Mobilitätsdaten sicher zu erfassen, auszuwerten und miteinander zu verknüpfen. Die Herausforderung besteht dabei vor allem in der Vielzahl der verschiedenen Daten, für dessen Erhebung und Verarbeitung Datenarchitekturen entwickelt werden müssen, die den Anforderungen Dienstanbietern und Nutzer*innen entsprechen. Zudem müssen Konzepte zu Safety, Security und Privacy entwickelt werden, um die Privatsphäre zu gewährleisten und den rechtlichen Rahmenbedingungen zu entsprechen. Außerdem werden Lösungsansätze entwickelt, damit heterogene Daten ohne Qualitätsverlust fusioniert werden können.
Ansprechperson
Prof. Dr. -Ing. Andreas Rausch
TU Clausthal
Der Einsatz von Road Side Units in städtischen Szenarien: Im Rahmen des Zukunftslabors wurde erforscht, wie die Sicherheit von vulnerablen Verkehrsteilnehmern (VRUs), wie Fußgänger und Radfahrer, durch Vehicle-To-Everything (V2X) Kommunikation verbessert werden kann.
Entwicklung eines Assoziationsverfahrens für die Kollektive Wahrnehmung, das in der Lage ist, auch in Szenarien mit vielen Objekten und Sensoren gute Zuordnungen zu finden.
Entwicklung eines Proof-of-Concept im 1:8 Modellmaßstab für ein automatisiertes Transportfahrzeug, welches eine vorgegebenen Straße abfährt.
Unterschiedliche, im Rahmen des Zukunftslabors erarbeitete Ergebnisse wurden vereint, um einen automatisierten Shuttle-Dienst auf dem Campusgelände bereitzustellen.
Prüfung der sensorbasierten Umfelderkennung
Forschungsinteresse:
  • Welche Herausforderungen bringt die sensorbasierte Umfelderkennung beim autonomen Fahren mit sich?
  • Wie kann die sensorbasierte Umfelderkennung zuverlässig und effizient getestet werden?
Vorgehen:
  • Die Wissenschaftler*innen analysierten das Multi-Objekt-Tracking und die damit verbundene Herausforderung der Datenauswertung. Beim Multi-Objekt-Tracking werden die Positionen von Fahrzeugen, Fußgänger*innen oder Radfahrer*innen mithilfe von Radarsensoren, Laserscannern oder Kamerabildern erfasst. Dabei ergibt sich ein Zuordnungsproblem, da nicht bekannt ist, welche Erkennung zu welchem Objekt gehört.
  • Moderne Trackingalgorithmen betrachten jede mögliche Zuordnung, um die Messunsicherheit zu berücksichtigen. Die Anzahl möglicher Zuordnungen wächst allerdings exponentiell mit der Anzahl an Objekten und Messungen. Um dies zu umgehen, werden Approximationsalgorithmen eingesetzt, die eine Teilmenge aller möglichen Assoziationen berechnen und somit die Gesamtsituation möglichst gut repräsentieren sollen.
  • Für sicherheitskritische Systeme wie das Mobilitätssystem ist es wichtig, die Funktionsfähigkeit der sensorbasierten Umfelderkennung zu testen und die Tests wiederholen zu können, um mögliche Abweichungen und Probleme zu identifizieren. Deshalb fokussierten sich die Wissenschaftler*innen bei ihren Untersuchungen auf deterministische Algorithmen. Das sind Algorithmen, die keine Zufallszahlen verwenden und dadurch bei gleicher Eingabe immer die gleichen Ergebnisse erzeugen, sodass keine Zufallseffekte entstehen wodurch die Ergebnisse verlässlich sind.
  • Da die Bewegungen von Objekten (z. B. Fahrrädern) komplex sind, sind nichtlineare Modelle erforderlich. Daher prüften die Wissenschaftler*innen nichtlineare Modelle zur Verarbeitung komplexer Bewegungen.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen entwickelten eine deterministische Variante eines Algorithmus, der mögliche Zuordnungen von Objekten zu Messungen zufällig generiert mit dem wesentlichen Kriterium, dass die Ergebnisse keine Zufallseffekte aufweisen.
  • Der entwickelte Algorithmus ist deutlich schneller als andere bereits existierende deterministische Zuordnungsalgorithmen.
  • Zur Verarbeitung komplexer Bewegungen können sogenannte Gauß'sche Filter eingesetzt werden. Dieser Filter nimmt an, dass es sich um eine Gauß-Verteilung (auch Normalverteilung genannt) handelt und zieht zufällig Punkte, die diese Verteilung repräsentieren. Der Filter kann in einem Fahrzeug zur Umfelderkennung genutzt werden: Die Tracks verschiedener Fahrzeuge werden von einem Infrastrukturmodul kombiniert und zu den Fahrzeugen zurückgesendet. Mithilfe des deterministischen Algorithmus können die Wissenschaftler*innen zuverlässige Stichproben erzeugen und dann im Gauß-Filter zur Betrachtung nichtlinearer Zusammenhänge einsetzen. Dadurch werden die Ergebnisse der Umfelderkennung noch sicherer.
Unterschiedliche Sensordaten in der Umfelderkennung
Forschungsinteresse:
  • Wie können widersprüchliche Sensordaten verarbeitet werden, sodass das autonome Fahrzeug uneingeschränkt funktioniert?
Vorgehen:
  • Die Grundlage autonomen Fahrens sind Daten, die über Sensoren erfasst werden. Problematisch wird es, wenn Sensoren widersprüchliche Daten liefern. Um dieses Problem näher zu betrachten, definierten die Wissenschaftler*innen ein Anwendungsszenario, bei dem es darum geht, inkonsistente Sensordaten zu erkennen und zu bearbeiten.
  • Die Wissenschaftler*innen identifizierten Möglichkeiten für den Umgang mit den unterschiedlichen Sensordaten
Ergebnisse/Erkenntnisse:
  • Bei dem Szenario fahren zwei Autos auf einer Autobahn hintereinander auf eine Baustelle zu. Das hintere Auto fährt autonom und agiert auf Basis von Kartendaten und Sensorinformationen. Im Kartenmaterial ist die Baustelle nicht vorhanden, die Abstandssensoren des autonomen Fahrzeugs melden aber ein Hindernis.
  • Eine Möglichkeit, um die widersprüchlichen Daten zu verarbeiten, besteht in der Vehicle-to-Vehicle-Kommunikation (V2V) und in der Vehicle-to-Infrastructure-Kommunikation (V2I). Bei der V2V-Kommunikation tauschen sich die Fahrzeuge direkt über das Hindernis aus. Bei der V2I-Kommunikation werden die Informationen an eine zentrale Stelle weitergeleitet, um die Kartendaten nachzubessern und zu verteilen.
  • Eine weitere Möglichkeit ist die Novelty Detection: Dabei signalisiert ein Algorithmus, dass die neuen Sensordaten nicht zu den bekannten Daten passen und deshalb nicht zugeordnet werden können. Diese Information fließt dann zum Hersteller, sodass dieser die unbekannte Situation in die Trainingsdaten des Algorithmus aufnehmen kann und schließlich das Auto zuverlässiger wird.
Kollektive Wahrnehmung autonomer Fahrzeuge
Track-to-Track-Fusion
Forschungsinteresse:
  • Wie können Sensordaten mehrerer autonomer Fahrzeuge zusammengeführt und nutzbar gemacht werden?
Vorgehen:
  • Wenn mehrere Fahrzeuge ihre Daten austauschen und dadurch ihre Informationen über den Straßenverkehr ergänzen, spricht man von einer kollektiven Wahrnehmung (Collective Perception). Diese bringt Herausforderungen mit sich, wie z. B. das Zusammenführen von Informationen mehrere Fahrzeuge. Die Wissenschaftler*innen prüften, wie diese Datenzusammenführung erfolgen kann und welche Voraussetzungen dafür erfüllt sein müssen.
Ergebnisse/Erkenntnisse:
  • Die Zusammenführung der Sensordaten kann u. a. durch eine Track-to-Track-Fusion geschehen. Ein Track ist die Summe aller Parameter, die durch Sensoren geschätzt wurden (z. B. Position, Geschwindigkeit, Größe eines Objektes).
  • Dabei muss nicht der gesamte Track übertragen werden, die aktuell geschätzten Parameter für die getrackten Objekte genügen.
  • Als Funkstandards können in Vehicular Adhoc Networks (VANets) Wifi-basierte Standards wie 802.11p und Cellular-V2X Standards, die die 4G- und 5G-Mobilfunktechnik verwenden, eingesetzt werden.
Kollektive Wahrnehmung autonomer Fahrzeuge
Genauere Erfassung der Sensordaten
Forschungsinteresse:
  • Wie können die Sensordaten für das Umgebungsmodell autonomer Fahrzeuge genauer erfasst werden?
Vorgehen:
  • Die Wissenschaftler*innen stellten fest, dass die Genauigkeit der Sensordaten im lokalen Umgebungsmodell zu wenig berücksichtigt wird. Das Umgebungsmodell eines autonomen Fahrzeuges besteht aus den Daten, die im Umfeld des Fahrzeuges mithilfe von Sensoren, Radaren und Kameras erfasst werden. Es bildet demnach die Fahrumgebung des Fahrzeuges ab und ist relevant für autonome Fahrfunktionen.
  • Zusätzlich erfassen sog. Intelligent Transport Systems Stations (ITS-S) Daten über das Umfeld und erstellen daraus ein komplettes Umgebungsmodell, das sie den autonomen Fahrzeugen im Sinne der kollektiven Wahrnehmung zur Verfügung stellen. Dadurch werden zum Teil dieselben Informationen erfasst und mehrfach redundant weitergeleitet. Infolgedessen wird das Fahrzeugkommunikationsnetz unnötig überlastet, sodass sich die Übertragung verzögert und Informationen verloren gehen können, was wiederum das Sicherheitsrisiko erhöht.
  • European Telecommunications Standards Institute hat Standards festgelegt, nach welchen Regeln die Informationen für die kollektive Wahrnehmung (Collective Perception Message - kurz CPM) erzeugt werden. Da die Genauigkeit der Sensordaten zu wenig berücksichtig wird, erarbeiteten die Wissenschaftler*innen eine Regel für die Erzeugung der CPM, die die Netzauslastung reduziert und die Verfolgungsgenauigkeit der Objekte erhöht. Hierfür erstellten sie zunächst zwei Modelle.
Ergebnisse/Erkenntnisse:
  • Das erste Modell basiert auf den Sensordaten des eigenen Fahrzeugs und erfasst die unmittelbare lokale Umgebung (lokales Umgebungsmodell). Das zweite Modell ergibt sich aus den Daten, die andere Verkehrsteilnehmer mit ihren Sensoren erfassen (Vehicle-to-Everything-Umgebungsmodell - kurz V2X-Modell). Die Regel, die die Wissenschaftler*innen entwickelten, vergleicht die Tracking-Genauigkeit der beiden Modelle.
  • Anhand eines vordefinierten Schwellenwertes wird ermittelt, welches Modell genauer ist. Wenn die Daten des lokalen Umgebungsmodells genauer sind, dann verlässt sich das Fahrzeug auf diese Daten und ignoriert die Daten des V2X-Modells. Dadurch wird jeder Intelligent Transport Systems Station ermöglicht, die Objekte intelligent auszuwählen, die in die nächste Collective Perception Message aufgenommen werden. Die Wissenschaftler*innen konnten nachweisen, dass durch diese Methode Tracking-Fehler sowie die Kanalbelegungsrate reduziert und die Objektverfolgungsgenauigkeit erhöht werden kann.
Kollektive Wahrnehmung autonomer Fahrzeuge
Verbesserung der Umfelderkennung durch Road Side Units
Forschungsinteresse:
  • Können Road Side Units zur besseren Umfelderkennung an städtischen Kreuzungen beitragen?
Vorgehen:
  • Die kollektive Wahrnehmung kann durch sog. Road Side Units ergänzt werden. Dabei handelt es sich um feste Stationen (z. B. Funkmodule, die an Ampeln befestigt sind), die Signale verarbeiten, zusammenführen und gebündelt versenden können. Zudem unterstützen sie bei erschwerten Kommunikationsbedingungen, beispielsweise in städtischen Szenarien, (z. B. wenn ein Signal oder eine Funkwelle von einem Gebäude reflektiert und somit blockiert wird).
  • Um die Leistungen der Road Side Units zur besseren Umfelderkennung zu ermitteln, simulierten die Wissenschaftler*innen die V2V-Kommunikation inklusive Reflexionen von Gebäuden, wobei sie verschiedene Parameter (z. B. Sendefrequenz) betrachteten. Sie simulierten ein Szenario mit geringer und eines mit hoher Verkehrsdichte.
Ergebnisse/Erkenntnisse:
  • Die Simulation zeigte, dass die Road Side Units zur besseren Umfelderkennung an städtischen Kreuzungen beitragen und somit die Erkennung gefährdeter Verkehrsteilnehmer*innen erhöhen.
  • Zudem wurde deutlich, dass mit steigender Anzahl kommunikationsfähiger Fahrzeuge die Umfelderfassung verbessert wird.
  • Darüber hinaus zeigte die Untersuchung, dass die Umgebung in ruhigen Verkehrssituationen leichter erfasst werden kann als in komplexen Verkehrssituationen.
  • Neben diesen positiven Ergebnissen stellten die Wissenschaftler*innen fest, dass die Road Side Units die Last des Funkkanals erhöhen. Dadurch sinkt die Zustellungsrate der Datenpakete (zu viele Informationen stören den Kanal).
  • Wenn die Road Site Units die Verbreitungsfrequenz der Collective Perception Messages intelligent anpassen, kann die Verlässlichkeit der Datenpakete verbessert werden.
Kollektive Wahrnehmung autonomer Fahrzeuge
Assoziationsverfahren für die kollektive Wahrnehmung
Forschungsinteresse:
  • Wie kann die Zuordnung von Objekten in der kollektiven Wahrnehmung erfolgen?
Vorgehen:
  • Die Umfeldmodelle von Road Side Units müssen zu einem einheitlichen, globalen Umgebungsmodell zusammengeführt werden. Eine zentrale Herausforderung bei der Fusion verschiedener lokaler Umfeldmodelle ist die Zuordnung bzw. Assoziation von Objekten in den einzelnen Modellen.
  • Daher entwickelten die Wissenschaftler*innen ein Assoziationsverfahren speziell für die kollektive Wahrnehmung.
  • Um das entwickelte Assoziationsverfahren zu testen, simulierten die Wissenschaftler*innen ein Kreuzungsszenario mit zahlreichen Fahrzeugen, Fußgänger*innen und Fahrradfahrer*innen.
Ergebnisse/Erkenntnisse:
  • Bei dem Assoziationsverfahren handelt es sich um einen Algorithmus, der Techniken aus der stochastischen Optimierung verwendet. Der Algorithmus startet zunächst mit einer möglichen Zuordnung der Objekte. Diese Zuordnung wird nach bestimmten Regeln zufällig verändert, sodass der Algorithmus eine andere Zuordnung in Betracht zieht. Dieser Vorgang wird mehrfach wiederholt, sodass man sich der Lösung Schritt für Schritt annähert.
  • Die Regeln, nach denen die Zuordnung zufällig verändert wird, haben die Wissenschaftler*innen ebenfalls ausgearbeitet. Das entwickelte Assoziationsverfahren ermöglicht es, die Objekte in Echtzeit zuzuordnen. Die Echtzeitassoziation ist zentral, um autonomes Fahren zu realisieren. Nur wenn die Informationen zügig verarbeitet werden, wird ein flüssiger Verkehr möglich. Die Berechnungen des Algorithmus erfolgen in der Road Side Unit, nicht in den einzelnen Fahrzeugen.
  • Beim virtuellen Testen erfassten die virtuellen Fahrzeuge die Objekte in ihrer Umgebung mithilfe von Sensoren und erstellten Umfeldmodelle, die sie an die Road Side Unit schickten. Die Road Side Unit ordnete die erfassten Objekte auf Basis des entwickelten Assoziationsverfahrens zu. Die Simulation zeigte, dass das Verfahren effizient die wahrscheinlichsten Assoziationshypothesen zur Fusion der Umfeldmodelle bestimmen kann und sich daher besonders für die kollektive Wahrnehmung eignet.
Collaborative Research Field
Effiziente, sozial- und umweltverträgliche Mobilität als komplexe Lösung (Mobility as a Solution)
Status: in Arbeit
Bei diesem Projekt geht es um intermodale Mobilitätsketten, die verschiedene Verkehrsmittel aufeinander abstimmen, um einen lückenlosen Transport für Personen im Berufsverkehr und Güter zu ermöglichen. Es soll dabei Zeit gespart und Ressourcen möglichst effizient eingesetzt werden. Durch eine ganzheitliche Betrachtung der Mobilitätsketten können die einzelnen Elemente effizient verbunden werden. Es werden Lösungen entwickelt, die die Eigenheiten der Verkehrsmittel berücksichtigen und die den Ansprüchen verschiedener Stakeholder entsprechen, um die Akzeptanz der Nutzer*innen zu erlangen.
Ansprechperson
Prof. Dr.-Ing. Thomas Vietor
TU Braunschweig
Institut für Konstruktionstechnik
Umsetzung und Integration der Ansätze für eine zukünftige grüne und digitale maritime Verkehrslösung in einen Demonstrator. Hierdurch konnten die Effekte eines zukünftigen Verkehrsmanagements, auf Basis der abgeleiteten Anforderungen und Voraussetzungen für die Erfüllung der entwickelten Zukunftsvision, erprobt und dargestellt werden.
Aufdeckung von maritimen Handlungspotenzialen auf Basis der Zukunftsszenarien und Ableitung notwendiger Handlungsempfehlungen, um die Zukunftsvision zu erfüllen. Beispielsweise müssen die verschiedenen Akteure für eine vernetzte Mobilität über gemeinsame Kommunikationsstandards und über einen kompatiblen Digitalisierungsstandard verfügen.
Entwicklung eines interaktiven Touchscreen-Tischs, der es unter anderem ermöglicht, verschiedene Mobilitätsszenarien zu simulieren und zu visualisieren und mit diesen Szenarien durch die Verwendung von physischen 3D-Objekten in Interaktion zu treten.
Einwerbung von drei großen Drittmittelprojekten (MIAMy, ReTraSON und TASTE) zum Transfer der Ergebnisse und Weitervertiefung ausgewählter Aspekte.
Einflussfaktoren auf die zukünftige Mobilität
Forschungsinteresse:
  • Welche Faktoren beeinflussen die Mobilität der Zukunft?
Vorgehen:
  • Die Wissenschaftler*innen werteten Studien und Szenarien aus, die Aussagen über Mobilität für die Zeithorizonte 2020 bis 2050 treffen.
  • Daraufhin erstellten sie einen Katalog mit Einflussbereichen, die laut Literatur das Mobilitätssystem prägen werden.
  • Zudem konkretisierten die Wissenschaftler*innen die Einflussbereiche und priorisierten sie in sogenannte Schlüsselfaktoren.
  • Anschließend analysierten die Wissenschaftler*innen die Wechselwirkungen und Zusammenhänge zwischen den Einflussfaktoren.
  • Des Weiteren analysierten sie sowohl die technologischen und gesellschaftlichen Entwicklungen der letzten 30 bis 50 Jahre als auch aktuelle politische und wirtschaftliche Ereignisse.
  • Schließlich erstellten die Wissenschaftler*innen möglichst realistische Prognosen zur Mobilität ab 2035 und 2050 zu treffen. Solche Zukunftsszenarien sind die Grundlage, um Anforderungen an das zukünftige Mobilitätssystem zu identifizieren und entsprechend innovative Technologien und Lösungen zu entwickeln und voranzutreiben.
Ergebnisse/Erkenntnisse:
  • Folgende sechs Einflussbereiche werden die Mobilität beeinflussen: Medien, Gesellschaft, Technologie, Wirtschaft, Umwelt und Politik.
  • Bei der Konkretisierung dieser sechs Bereiche entstanden über 300 Einflussfaktoren, die sich hinsichtlich ihrer Relevanz und Vernetzung voneinander unterscheiden. Die wichtigsten dieser 300 Faktoren sind die sogenannten Schlüsselfaktoren.
  • Der Einflussbereich Gesellschaft lässt sich z. B. in die Einflussfaktoren Demografie, Informations- und Meinungsaustausch sowie Gruppeneinstellungen spezifizieren. Der Einflussfaktor Demografie wiederum kann gegliedert werden in Bevölkerungsentwicklung, Alters- und Gesundheitsstrukturen, usw. So entstand ein umfangreicher Katalog an potenziellen Einflüssen.
  • Die Wissenschaftler*innen stellten die Wechselwirkungen und Zusammenhänge der Einflussfaktoren in einem initialen Beziehungsmodell dar. Wenn sich z. B. die Verteilung der Bevölkerung auf Stadt und Land ändert (Einflussfaktor „Demografie“), dann wirkt sich diese Veränderung unmittelbar auf die Mobilitätsbedarfe und damit auf die Mobilitätsinfrastruktur im Einflussbereich „Umwelt“ aus. Das Beziehungsmodell beinhaltet sowohl die Art der Zusammenhänge (direkt oder indirekt) als auch die Stärke.
  • Die Wissenschaftler*innen erstellten mehrere Zukunftsszenarien, von einem positiven Extremszenario (alle Möglichkeiten der digitalen Umsetzung und Innovationen werden genutzt, alles ist miteinander vernetzt, eine digitale Infrastruktur wurde umgesetzt) bis zu einem negativen Extremszenario (Innovationen und digitale Möglichkeiten konnten nicht umgesetzt werden, die Zukunft 2035+ gleicht nicht nur dem heutigen Stand, sondern einige Fortschritte wurden sogar zurückgenommen).
Zukunftsszenarien für die Logistikbranche
Forschungsinteresse:
  • Wie wird sich die Mobilität in der Logistik bzw. im industriellen Verkehr zukünftig verändern?
Vorgehen:
  • Zunächst ermittelten die Wissenschaftler*innen die 20 wichtigsten Einflussfaktoren - sogenannte Schlüsselfaktoren (z. B. Routenplanung).
  • Diese Schlüsselfaktoren statteten die Wissenschaftler*innen wiederum mit Projektionen aus, also detaillierten Ausprägungen (z. B. „Keine Routenoptimierung“ oder „Vollautomatisierte Routenoptimierung“).
  • Zu diesen Projektionen erstellten sie eine Konsistenzmatrix und auf Basis der mathematischen Kombinationen verschiedener Faktorenausprägungen kristallisierten sich spezielle Zukunftsszenarien heraus.
Ergebnisse/Erkenntnisse:
  • Es ergaben sich sechs Szenarien für die zukünftige Mobilität in der Logistikbranche bzw. im industriellen Verkehr: Stillstand (Stagnation in der Wirtschaft und der Digitalisierung), Fortschritte (Ausbau der Vernetzung), reger Austausch (zwischen Verkehrsteilnehmern innerhalb eines Mobilitätsbereiches), Wandel (Der Weg zu einem zentralen Verkehrsmanagement), Grüne Welt (Mobilität im Zeichen der Klimaziele), Neues digitales Zeitalter (Automatisierung und zentrales Verkehrsmanagement).
  • Die sechs Szenarien dienen dazu, sich die zukünftige Mobilität im Jahr 2030 plausibel vorstellen zu können. Mithilfe der Szenarien können Anforderungen ermittelt werden, um bestimmte Technologien für die Zukunft zu entwickeln. Das dient gleichzeitig dazu, Forschungsschwerpunkte zu ermitteln: Was muss erforscht werden, damit bestimmte Ausprägungen der Szenarien ermöglicht werden?
Zukunftsszenarien für die private/öffentliche Mobilitätsnutzung
Forschungsinteresse:
  • Wie wird sich die Mobilität in der Logistik bzw. im industriellen Verkehr zukünftig verändern?
Vorgehen:
  • Bei der Erstellung der Zukunftsszenarien gingen die Wissenschaftler*innen von zwei Extremszenarien aus, die eintreffen könnten: Das positive Extremszenario beschreibt ein Zeitalter technologischer, vernetzter Kommunikation in der Mobilität. Das negative Extremszenario beschreibt ein Zeitalter der verpassten Chancen. Ein realistischer Mittelweg ist das Trendszenario - das grüne und digitale Zeitalter, das von Automatisierung und zentralem Verkehrsmanagement geprägt ist. Für dieses Trendszenario analysierten die Wissenschaftler*innen die gesellschaftliche Struktur (Geburtenrate, Anzahl Senior*innen und Erwerbstätige, Immigration und Auswanderung) in Deutschland ab dem Jahr 2035.
  • Darüber hinaus ermittelten sie die Wohnortentwicklung, die Fahrzeugnutzung, die Werteorientierung und das Mobilitätsgefühl der Menschen.
  • Neben den gesellschaftlichen Strukturen untersuchten die Wissenschaftler*innen auch den Einflussbereich Technologie.
  • Zudem erstellten die Wissenschaftler*innen sog. Personas - fiktive Menschen, die eine bestimmte Zielgruppe veranschaulichen. Indem man ihnen demografischen Daten, familiäre und berufliche Verhältnisse sowie Interessen zuschreibt, werden ihre Vorlieben, Wertvorstellungen und Verhaltensweisen deutlich. Dadurch wird es einfacher, sich ihr Mobilitätsverhalten vorzustellen und Geschäftsmodelle zu identifizieren.
  • Aufbauend auf den Personas erstellten die Wissenschaftler*innen User Stories. Diese betrachten die Anforderungen und Bedürfnisse an ein Produkt oder eine Leistung aus Sicht der Nutzer*innen. Zum Beispiel werden typische Tagesabläufe fiktiver Personen erstellt, um die Frage zu beantworten, wer was warum tun möchte.
Ergebnisse/Erkenntnisse:
  • Die Analyse der gesellschaftlichen Struktur zeigt, dass in der Stadt mehr Personen wohnen werden als auf dem Land, vor allem Jüngere. Junge Familien werden sich vermehrt in der Vorstadt ansiedeln. Der Trend wird dazu gehen, Fahrzeuge nicht mehr zu kaufen, sondern gemeinschaftlich zu nutzen (Sharing-Angebote). Mit dem steigenden Umweltbewusstsein wird sich auch die Lebensqualität verbessern. Die Sicherheit persönlicher Daten wird den Menschen immer wichtiger werden.
  • Die Analyse des Einflussbereichs Technologie ergab, dass insbesondere folgende Schlüsselfaktoren die Technologie im Personenverkehr beeinflussen werden: Energie (z. B. Ausbau von Smart Grids, überwiegend erneuerbare Energien), intelligente Mobilitätsträger (z. B. Erhöhung der batteriebetriebenen Fahrzeuge, Ausbau der Sharing-Angebote), digitale Infrastruktur (z. B. intelligente Verkehrssteuerung, leistungsfähige Dateninfrastruktur), Daten und Visualisierung (z. B. Künstliche Intelligenz, Quantencomputer), Urbanisierung/Stadtentwicklung (z. B. klimagerechte Städte, Smart Cities), Sicherheit (z. B. Absicherung von Fahrfunktionen, Cyber Security bei intelligenten Transportsystemen) sowie neue Materialien/neues Design (z. B. Einsatz intelligenter Lacke, Materialien auf Basis biogener Ressourcen).
Trendszenario „neues, grünes digitales Zeitalter“
Forschungsinteresse:
  • Welches Szenario entsteht, wenn die Szenarien zum industriellen und zum privaten/öffentlichen Verkehr miteinander verknüpft werden?
Vorgehen:
  • Die Wissenschaftler*innen verknüpften die Szenarien aus der industriellen und der privaten Mobilität zu einem sogenannten Trendszenario: das „neue, grüne digitale Zeitalter“.
Ergebnisse/Erkenntnisse:
  • Das Trendszenario zeichnet sich u. a. durch folgende Aspekte aus: Mobility as a Service (Integration verschiedener Verkehrsmittel und Bezahlsysteme), Konnektivität (nahtlose Kommunikation zwischen Fahrzeugen, Verkehrsinfrastrukturen und anderen Verkehrsteilnehmer*innen), Automatisierung von Fahrzeugen (z. B. selbstständiges Navigieren, Bremsen, Be- und Entladen von Transportgütern), intelligente Verkehrssteuerung (für einen optimalen Verkehrsfluss und zur Vermeidung von Staus), Nachhaltigkeit (Reduktion des CO2-Ausstoßes durch Sharing und die Förderung von Elektrofahrzeugen), Remote-Flottenmanagement (digitale Erfassung von Lenk- und Ruhezeiten, Kilometerständen, Routen), flexible Shuttles im ÖPNV (unterschiedliche Fahrgastkapazitäten, flexible Haltestellen und erste autonome Shuttles), effizientere Paketzustellung (gebündelte Zustellung, Drohnenlieferungen, autonome Fahrzeuge und Roboter im Warenlager und in der Warenverteilung), Einsatz Künstlicher Intelligenz (für effizientere Routenplanung, Lagerhaltung und Bedarfsprognosen), Anwendungen des Internet of Things zur Vernetzung von Gegenständen und Geräten (z. B. für die Echtzeitverfolgung von Waren oder die Temperaturerfassung bei Kühlketten) sowie Omni-Channel-Strategien im Online-Handel (nahtlose Integration von Online- und Offline-Kanälen).
  • Dieses Trendszenario liegt zwischen den beiden Extremszenarien und wird sehr wahrscheinlich ab dem Jahr 2035 eintreffen.
Anpassung des Szenarios, Ermittlung von Voraussetzungen
Forschungsinteresse:
  • Wie wirken sich besonders starke politische, wirtschaftliche und gesellschaftliche Faktoren können sich auf die erstellten Zukunftsszenarien aus?
Vorgehen:
  • Die Wissenschaftler*innen analysierten die Szenarien in Hinblick auf die Auswirkungen der Energiekrise und des Kriegs in der Ukraine.
  • Zudem untersuchten die Wissenschaftler*innen, welche Voraussetzungen erfüllt sein müssen, um eine gesunde, ressourcenschonende, nachhaltige und nutzerfreundliche Mobilität der Zukunft zu ermöglichen - also um das Szenario zu erreichen.
  • Aus diesen Anforderungen leiteten die Wissenschaftler*innen Handlungsbedarfe für die Politik ab.
Ergebnisse/Erkenntnisse:
  • Die Energiekrise und der Ukrainekrieg wirken sich auf die erstellten Zukunftsszenarien aus. Ein Beispiel: Die Energiekrise dazu geführt, dass die Akzeptanz und Nutzung innovativer Energieerzeugung auch im privaten Bereich angestiegen ist (z. B. Solaranlagen auf dem Balkon), wodurch der Übergang zu erneuerbaren Energien schneller voranschreitet als ursprünglich angenommen. Dies wirkt sich auch auf die Mobilität der Zukunft aus, da das Bewusstsein für den Wechsel von fossilen Energieträgern auf innovative Alternativen gestärkt wurde.
  • Die Wissenschaftler*innen ermittelten Voraussetzungen, die zur Erreichung des Trendszenarios erfüllt sein müssen. Ein Beispiel: Die nahtlose Kommunikation zwischen den Mobilitätsträgern (z. B. Schiffe, LKW, PKW) ist eine Anforderung für die vernetzte Mobilität. Um diese nahtlose Kommunikation zu ermöglichen, müssen die Daten zwischen den Mobilitätsträgern gekoppelt werden. Dafür ist wiederum ein bestimmter Kommunikationsstandard erforderlich - sowohl national als auch international. Die hierzu passende Handlungsempfehlung für die Politik ist z. B. der Breitbandausbau.
Veränderungen der Informationsflüsse innerhalb der Lieferkette
Forschungsinteresse:
  • Welche Informationsflüsse bestehen entlang der Logistikketten beim maritimen Transport von Gütern mittels Schiffen?
Vorgehen:
  • Zunächst skizzierten die Wissenschaftler*innen den aktuellen Stand, wie die Informationen zwischen den wichtigsten Akteuren (Versender, Verlader, Frachtführer, Container-Reederei, Hafen, Umschlagterminals, Empfänger) fließen.
  • Anschließend untersuchten sie, wie sich diese Informationsflüsse zukünftig verändern müssen, um das Trendszenario zu erreichen.
  • Schließlich modellierten sie die Informationsflüsse entlang der Logistikkette.
Ergebnisse/Erkenntnisse:
  • In der Modellierung werden die Akteure virtuell abgebildet; sämtliche Mobilitätsdaten der Akteure stehen zur Verfügung und werden ausgetauscht (z. B. für die optimale Wahl eines Transportes oder Lagerschrittes). Durch die virtuelle Abbildung werden Optimierungsmöglichkeiten entlang der Lieferkette deutlich. Ein Beispiel: Die Spedition kann auf Basis der Live-Daten mittels synchromodaler Entscheidungsmodelle einen geeigneten Slot für den Transport zum Empfänger und zum Umschlagterminal berechnen. Ebenso kann Künstliche Intelligenz bei der Bündelung kleinerer Sendungen zu Sammelladungen und bei der Lagerhaltung sowie der Distributionslogistik im Allgemeinen unterstützen. Dadurch können Leerstände und Leerfahrten vermieden werden und auch hierbei Kraftstoff und Emissionen eingespart werden.
Collaborative Research Field
Nutzerzentrierte Dienste und Dienstleistungen zur Bewegung von Personen und Gütern (Service¬Driven Mobility)
Status: in Arbeit
Bei diesem Projekt geht es um intermodale Mobilitätsketten, die verschiedene Verkehrsmittel aufeinander abstimmen, um einen lückenlosen Transport für Personen im Berufsverkehr und Güter zu ermöglichen. Es soll dabei Zeit gespart und Ressourcen möglichst effizient eingesetzt werden. Durch eine ganzheitliche Betrachtung der Mobilitätsketten können die einzelnen Elemente effizient verbunden werden. Es werden Lösungen entwickelt, die die Eigenheiten der Verkehrsmittel berücksichtigen und die den Ansprüchen verschiedener Stakeholder entsprechen, um die Akzeptanz der Nutzer*innen zu erlangen.
Ansprechperson
Prof. Dr. -Ing. David Woisetschläger
Technische Universität Braunschweig
Anomalieerkennung in Fahrzeugtrajektorien mittels föderiertem Lernen und dem Einsatz von fortschrittlichen maschinellen Lernverfahren.
Mikromobilitätsdaten und Datenscraping: Sammlung und Auswertung von Mikromobilitätsdaten, insbesondere von E-Scootern, die dabei hilft, Nutzungsmuster zu verstehen und Faktoren wie Sicherheit, Umweltaspekte und öffentliche Raumnutzung zu berücksichtigen.
Strategische Platzierung von Service-Infrastrukturen unter Anwendung von Reinforcement Learning (RL), um die optimale Platzierung der Infrastruktur zu ermitteln und die Kapazitätsauslastung zu verbessern.
Datenanalyse und Kapazitätsauslastung: Die Forschung untersucht, wie Online-Plattformen die Kapazitätsauslastung von Anbietern im Bereich Access-based Services (ABS), insbesondere in der Mikromobilität, optimieren können.
Präzise und transparente E-Scooter-Nachfragevorhersage für optimierte Mikromobilitätsdienste
Plattform zum Austausch von Mobilitätsdaten
Forschungsinteresse:
  • Wie können Mobilitätsdaten datenschutzgerecht und sicher zwischen verschiedenen Akteuren ausgetauscht werden?
  • Wie kann eine transparente Datenverarbeitung erfolgen?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten Techniken, um Mobilitätsdaten effizient und sicher über eine Datenplattform auszutauschen. Der Datenaustausch zwischen verschiedenen Akteuren (z. B. Automobilhersteller, Kommunen) kann dazu beitragen, Mobilitätsdienstleistungen und -produkte zu verbessern.
  • In Gesprächen mit Praxispartnern (z. B. größere Automobilhersteller, Unternehmensberatungen, Start Ups für neuartige Mobilitäts-Services) und im Rahmen von Literaturrecherchen ermittelten die Wissenschaftler*innen Anwendungsfälle, die besonders vom Datenaustausch in solchen Datenallianzen profitieren würden.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen prüften das Federated Learning - eine Technik des Machine Learning - und stellten fest, dass diese besondern für den effizienten und sicheren Datenaustausch geeignet ist. Beim Federated Learning die Daten nicht auf einem einzigen Server gespeichert, sondern dezentral auf Servern der einzelnen Akteure. Die Daten werden verschlüsselt und aggregiert als Parameter ausgetauscht. Die Akteure können auf die aggregierten Parameter zugreifen und zielgerichtet auswerten.
  • Zudem identifizierten die Wissenschaftler*innen zwei Anwendungsfälle, die sich als Untersuchungsgegenstand besonders eigneten: die „Intelligente Kreuzung“ und das „Vernetzte Lernen im öffentlichen Verkehr“.
  • „Intelligente Kreuzung“: Die meisten Verkehrsunfälle geschehen durch menschliches Fehlverhalten. Ortungsgeräte und Sensoren können die Positionen von Verkehrsteilnehmer*innen erfassen, maschinelles Lernen kann die Informationen analysieren und auswerten. Wenn mehrere Akteure Mobilitätsdaten beisteuern, wird die Wahrscheinlichkeit höher, menschliches Fehlverhalten zu prognostizieren. Die Wissenschaftler*innen werteten Daten einer Kreuzung aus und ermittelten unnormales Fahrverhalten, das Unfälle verursachen kann. Um eine gute Datenbasis zu haben, erhoben sie an einer viel befahrenen Kreuzung in Hannover umfangreiche Bewegungsdaten verschiedener Fahrzeuge, Fußgänger*innen und Fahrradfahrer*innen.
  • „Vernetztes Lernen im öffentlichen Verkehr“: Hier bezieht sich die Datenerhebung und -auswertung auf den öffentlichen Linienbus. Busfahrer*innen haben neben der Tätigkeit des Fahrens noch weitere Aufgaben, wie z. B. pflegebedürftigen Personen beim Einsteigen zu helfen. Die Forschungsidee besteht darin, Daten aus dem Innenraum des Busses zu sammeln (z. B. durch videobasierte Bildanalyse), um daraus das Angebot der Busunternehmen zu verbessern (z. B. Einstiegsmöglichkeiten für die pflegebedürftigen Personen optimieren).
  • Für beide Anwendungsfälle entwarfen die Wissenschaftler*innen eine Datenarchitektur, die durch den Einsatz von Federated Learning Datenallianzen ermöglicht. Die Daten werden zunächst lokal gesammelt (einmal beim Auto, einmal im Bus) und dann auf dem Partner Level (z. B. Automobilhersteller oder Busunternehmen) aggregiert. Im nächsten Schritt werden die aggregierten Modellparameter entweder über einen Cloudserver oder direkt zwischen den beteiligten Partnern ausgetauscht und mittels Federated Learning ausgewertet. Die Beteiligten der Datenallianz ergänzen dadurch Lücken im eigenen Datensatz - im Anwendungsfall „Intelligente Kreuzung“ erhalten Automobilhersteller so z. B. Daten aus Verkehrskameras und können somit die Sicherheitssysteme der Vehikel verbessern.
Shared und Micro Mobility
Nutzung von Shared und Micro Mobility
Forschungsinteresse:
  • Aus welchen Gründen nutzen Personen Shared Mobility und Micro Mobility?
Vorgehen:
  • Bei der Shared Mobility bieten Dienstleister*innen Fahrzeuge an, die Nutzer*innen teilen können (z. B. Car Sharing). Die Micro Mobility ist für die individuelle Mobilität konzipiert und ermöglicht eine leichte und kompakte Fortbewegung mit Kleinstfahrzeugen (z. B. Fahrräder, E-Scooter und Segways).
  • Die Wissenschaftler*innen führten ein Webscraping von Shared-Mobility- und Micro-Mobility-Anbietern durch, um Daten über die Nutzungsdauer, die Strecke oder den Wochentag zu erfassen. Beim Webscraping werden Daten und Inhalte von Websites mithilfe geeigneter Software ausgewertet.
  • Die Daten reicherten sie mit weiteren Informationen an, die potenzielle Einflussgrößen für die Nutzung der Dienste sind: Umweltdaten (Regularien, Mobilitätskosten für alternative Verkehrsträger, Soziokultur einer Region), externe Faktoren (öffentliche Verkehrspläne, lokale Ereignisse, Wetterdaten) und temporale Faktoren (Wochentag, Wochenende, Hauptreisezeiten, Ferien-/Urlaubszeiten).
Ergebnisse/Erkenntnisse:
  • Der Datensatz der Wissenschaftler*innen enthält umfangreiche Informationen zur Nutzung von Micro-Mobility-Services. Diese Informationen sind wertvoll für Anbieter und Kommunen, um Dienstleistungen zu optimieren und Bedarfe besser zu erfassen.
  • Die Wissenschaftler*innen visualisierten die Daten in einem Online-Tool. Das Ergebnis zeigt, dass Menschen Mirco Mobility vor allem im Sommer, an Wochenenden und in Verbindung mit Großveranstaltungen nutzen. Einigen Anbietern gelingt eine bessere Flottenauslastung als anderen - bei gleichen Bedingungen (Wetter, Ort etc.).
Shared und Micro Mobility
Machine Learning zur Prognose von Micro-Mobility-Bedarfen
Forschungsinteresse:
  • Inwiefern kann Machine Learning (ML) zur Ermittlung der Micro-Mobility-Bedarfe eingesetzt werden?
Vorgehen:
  • Die Wissenschaftler*innen führten eine Literaturrecherche durch, um die Anwendung von ML zu prüfen.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen stellten fest, dass der Einsatz von ML für verschiedene Aufgaben erfolgversprechend ist. Insbesondere im operativen Geschäft zur Vorbereitung, Durchführung und Nachbereitung der Fahrten ist ML hilfreich: Vor den Fahrten kann ML das Angebot auf den aktuellen räumlichen und zeitlichen Bedarf (z. B. für das Pendeln zur Arbeit) zuschneiden und dafür sorgen, dass die entsprechenden Bedarfe abgedeckt sind, indem die Fahrzeuge wirklich dort zur Verfügung stehen, wo sie genutzt werden. Während der Fahrten, z. B. beim Ride Sharing, kann ML die Zeitplanung von Fahrzeugen optimieren. Das bedeutet, dass ein Fahrzeug, welches einen Kunden von A nach B fährt, in der Nähe vom Zielort einen neuen Fahrgast mitnimmt, sodass kein zweites Fahrzeug angefordert werden muss. Nach den Fahrten kann ML den Wartungsbedarf der genutzten Fahrzeuge analysieren.
  • Die Ergebnisse zeigen, dass ML das Potenzial hat, bestimmte Schritte zu automatisieren und der lokalen Geschäftseinheit Detailentscheidungen abzunehmen. Darüber hinaus ist ML erfolgversprechend für bestimmte Bereiche der strategischen oder taktischen Planung, insbesondere um dem Management durch die Auswertung von großen Datensätzen eine solide Entscheidungsgrundlage zur Verfügung zu stellen.
Shared und Micro Mobility
Entwicklung eines Machine-Learning-Algorithmus
Forschungsinteresse:
  • Wie kann der Bedarf an Micro-Mobility-Services (MMS) vorhergesagt werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten und trainierten einen Machine-Leargning-Algorithmus auf Basis der erhobenen Micro-Mobility-Nutzungsdaten.
  • Mithilfe des Algorithmus werteten sie die MMS-Nutzung im Stadtgebiet Hannover aus.
Ergebnisse/Erkenntnisse:
  • Die Ergebnisse der Auswertung veranschaulichten die Wissenschaftler*innen in einem Gitternetz, das die räumliche Umgebung der Stadt Hannover abbildet.
  • Zudem erstellten sie aus den Start- und Enddaten der MMS-Nutzung eine Auslastungs-Heat-Map für das Stadtgebiet. Die Heat-Map ist für die Entwicklung von Handlungsempfehlungen hilfreich. Auch für Entscheider*innen im öffentlichen Nahverkehr ist die Heat-Map nützlich, weil sie Informationen zum Einsatz der Flotte bietet: Wenn auf einer bestimmten Strecke besonders viele Micro Mobility Services genutzt werden, scheint es einen großen Bedarf an Transportmitteln zu geben, sodass hier z. B. (weitere) Busse eingesetzt werden könnten.
Zukunftslabor
Produktion
Sprecher*innen-Einrichtung
Leibniz Universität Hannover
6 geförderte Einrichtungen
5 Teilprojekte
35 assoziierte Partner
01.10.2020 - 30.09.2024
Fertigungsprozesse vernetzen
Technologische Entwicklungen der Informations- und Kommunikationstechnologien führen derzeit zu einem tiefgreifenden Wandel der industriellen Produktion. Die Wettbewerbssituation produzierender Unternehmen ist geprägt durch eine wachsende Dynamik, steigende Prozesskomplexität sowie sich verkürzende Produkt- und Innovationszyklen. Zudem spielen ökologische und soziale Fragen eine zunehmende Rolle. Die Vernetzung technischer Systeme in Echtzeit und die hieraus resultierende Verschmelzung der realen und virtuellen Welt stellen wesentliche Merkmale dar. Die mit diesen Systemen verfügbare Vernetzung wertschöpfender Prozesse bietet neue Möglichkeiten zur Steigerung der Produktivität und der Wirtschaftlichkeit. Mögliche Anwendungen umfassen adaptive und selbstlernende Wertschöpfungssysteme, massendatenbasierte Prognosesysteme auf Basis eines digitalen Schattens oder Funktionalitäten entlang des gesamten Lebenszyklus von Produkten.
Zentraler Aspekt ist die Vorstellung einer durchgängigen digitalen Prozesskette. Hiermit verbundene Themen umfassen die Vernetzung von Systemen in der Produktion, die Modellierung von Produktionsprozessen und Prozessketten sowie innovative Ansätze zu deren Optimierung. Auch stellen sich Fragen zur Bewertung verschiedener Digitalisierungsansätze, der Technikfolgenabschätzung für den Arbeitsplatz der Zukunft sowie zu Potenzialen für Ressourceneffizienz.
Teilprojekte
abgeschlossen
Intelligente Werkzeugsysteme
In diesem Teilprojekt geht es um intelligente Werkzeuge, die in einer vernetzten Produktion zum Einsatz kommen. Hier wird ein intelligentes Werkzeug für den Druckguss entworfen, welches unter anderem gezielt kritische Eigenschaften provoziert und Prozessschritte analysiert. Dann wird der Druckgussprozess virtuell simuliert, um die Zusammenhänge der einzelnen Produktionsfaktoren zu erkennen. Die intelligenten Werkzeuge verfügen zudem über eine Sensorik zur Messung prozessspezifischer Daten. Diese Daten werden für weitere Analysen in ein IT-System gespeist. An einer Referenzplattform, die die Sensordaten erfasst und zur Steuerung und Überwachung des Prozesses nutzt, arbeiten die Wissenschaftler*innen außerdem. Um der benötigten höheren Rechenkapazität und Kommunikationsbreite gerecht zu werden, entwickeln sie zudem eine moderne Plattform für Industriesteuerungsgeräte, welche zudem ein Konzept bietet, wie bestehende Anlagen nachgerüstet werden können.
in Arbeit
Automatische Modellierung spanender Fertigungsprozesse
Bei diesem Teilprojekt geht es um spanende Simulationsprozesse. Dort sollen alle Komponenten automatisiert bereitgestellt und die Simulation mithilfe von KI optimiert werden. Mithilfe eines digitalen Zwillings werden Reaktionsketten der realen Werkzeugmaschinen virtuell getestet. Erfolgreiche Konfigurationen werden dann in die Realität übernommen. Die Modellierung berücksichtigt Prozessunsicherheiten, um die Bauteilqualität vorherzusagen um Konformitätswahrscheinlichkeiten abzuschätzen. in weiteres Ziel ist es, mit KI Prozessanomalien zu erkennen und darauf reagierend automatisch zu ändern.
in Arbeit
Adaptive Prozessführung im Druckguss
Bei diesem Teilprojekt geht es um die Anpassungsfähigkeit von Prozessen, die sich selbst optimieren. Es sollen verschiedene Bereiche miteinander vernetzt werden und auf Grundlage des ersten Teilprojekts (Intelligente Werkzeugsysteme für vernetzte Produktion der Zukunft) virtuell Optimierungen des Prozesses erkannt werden, um ein robustes Prozessfenster für die Steuerung zu definieren und ggf. Alternativen aufzuzeigen. Ziel ist es, nach externen Störungen zügig eine akzeptable Bauteilqualität zu erreichen und eine autonome, maschinenunabhängige Prozessplanung zu etablieren, die die bereits gewonnenen Daten einbinden.
abgeschlossen
Planung und Steuerung rekonfigurierbarer Prozessketten
Die Wissenschaftler*innen erforschen Methoden zur flexiblen Planung und Steuerung von Fertigungsprozessen entlang überbetrieblicher Prozessketten. Zunächst erstellen sie ein Datenmodell für rekonfigurierbare Prozessketten, das mithilfe von Maschinellem Lernen die Produktionsplanung und -steuerung automatisiert. Ein Softwareprototyp soll zeigen, wie Unternehmen komplexe Prozessparameter überwachen und steuern können. Weiterhin werden Methoden für eine adaptive, unternehmensübergreifende Prozesskettenregelung im Druckguss untersucht. Zusätzlich identifizieren die Forschenden die Wertschöpfungspotenziale von Künstlicher Intelligenz (KI) in der Produktion durch Experteninterviews und Systematisierung von Methoden. Sie entwickeln Einsatzszenarien und Empfehlungen für den praktischen Einsatz von KI in der Industrie.
in Arbeit
IT-Infrastruktur und Sicherheit
Bei dem Projekt geht es um einen sicheren, standortübergreifenden Datenaustausch für Produktionsprozesse. Verschiedene Datenschichten sind für die Verarbeitung der erfassten Daten und den Informationsfluss verantwortlich. Um die IT-Infrastruktur und die Sicherheit zu ermöglichen, legen die Forschenden unterschiedliche Klassen von Daten und Anforderungsprofile bezüglich der Datensicherheit fest. Das Projekt orientiert sich an realitätsnahen Prozessen, insbesondere dem Druckguss, da dieser für Niedersachsen eine wichtige Bedeutung hat und niedersächsische Unternehmen somit einen Wettbewerbsvorteil haben können.
Teilprojekt
Intelligente Werkzeugsysteme
Status: abgeschlossen
In diesem Teilprojekt geht es um intelligente Werkzeuge, die in einer vernetzten Produktion zum Einsatz kommen. Hier wird ein intelligentes Werkzeug für den Druckguss entworfen, welches unter anderem gezielt kritische Eigenschaften provoziert und Prozessschritte analysiert. Dann wird der Druckgussprozess virtuell simuliert, um die Zusammenhänge der einzelnen Produktionsfaktoren zu erkennen. Die intelligenten Werkzeuge verfügen zudem über eine Sensorik zur Messung prozessspezifischer Daten. Diese Daten werden für weitere Analysen in ein IT-System gespeist. An einer Referenzplattform, die die Sensordaten erfasst und zur Steuerung und Überwachung des Prozesses nutzt, arbeiten die Wissenschaftler*innen außerdem. Um der benötigten höheren Rechenkapazität und Kommunikationsbreite gerecht zu werden, entwickeln sie zudem eine moderne Plattform für Industriesteuerungsgeräte, welche zudem ein Konzept bietet, wie bestehende Anlagen nachgerüstet werden können.
Ansprechperson
Prof. Dr.-Ing. Wolfgang Nebel
OFFIS Institut für Informatik
FuE-Bereich Produktion
Kostengünstige Microcontroller wie Arduino und Einplatinencomputer wie Raspberry Pi können bei der Erfassung von Produktionsdaten sehr gut eingesetzt werden und liefern auch langfristig die Daten zuverlässig unter rauen industriellen Bedingungen im Druckgießprozess.
Einsatz von Open Source Software zur Datenspeicherung (PostgreSQL) und -visualisierung (Grafana) erweist sich als sehr zuverlässig und ist zudem kostenlos.
Visualisierung und Speicherung von erfassten Produktionsdaten erhöht signifikant die Transparenz im Prozess und ermöglicht den langfristigen Zugriff auf die Prozesse aus der Vergangenheit.
Arbeiten des ZL Produktion sind in ein führendes Open-Source-Tool zu IEC 61499 (Eclipse 4diac) eingeflossen
Der Standort Niedersachsen wurde in der Forschungsgemeinschaft zu Software-Engineering for Cyber-Physical Production Systems (SECPPS) fest etabliert
Auswahl des Referenzbauteils
Forschungsinteresse:
  • Welches Bauteil ist geeignet, um die Prozessschritte des Aluminiumdruckgusses beispielhaft zu durchlaufen und als Referenz für das Zukunftslabor zu dienen?
Vorgehen:
  • Die Wissenschaftler*innen prüften, welche Anforderungen an Druckgussteile gestellt werden, um für ihre Forschung ein Referenzbauteil mit möglichst realistischen Bezug auszuwählen.
Ergebnisse/Erkenntnisse:
  • Zunächst entschieden sich die Wissenschaftler*innen für eine Trägerstruktur, die für ausklappbare Tische in einem Passagierflugzeug verwendet werden. Diese Trägerstruktur sollte folgenden Anforderungen gerecht werden: Oberfläche mit hohen optischen Ansprüchen, keine unerwünschten Verformungen.
  • Aus wirtschaftlichen Gründen entschieden sich die Wissenschaftler*innen jedoch dazu, ein anderes Bauteil zu wählen: das „Knotenelement“, ein Strukturbauteil mithilfe dessen mehrere Strangpressprofile verbunden werden können. Aufgrund seiner Geometrie und seines Einsatzgebietes stellt es diverse Herausforderungen an den Druckgießprozess. Da es sich beim Kontenelement um eine Bestandsform handelt, sparten sich die Wissenschaftler*innen Zeit und Kosten für Fertigung und Bemusterung eines neuen Werkzeuges.
  • Im weiteren Verlauf der Forschung entschieden sich die Wissenschaftler*innen dazu, noch ein zweites Referenzbauteil zu nutzen: eine Verstärkungssäule, die in Personenkraftwagen verbaut wird. Dieses Bauteil muss nach dem Abguss z. B. Fügeeigenschaften wie Schweißbarkeit sowie mechanische Eigenschaften wie Duktilität (Verformbarkeit vor Bruch) und Festigkeit erfüllen. Insbesondere diese Eigenschaften entscheiden später bei einem Verkehrsunfall über die Sicherheit der Insassen. Die Gießform für dieses Industriebauteil wurde dem Zukunftslabor von einem namhaften Automobilhersteller vorübergehend zu Forschungszwecken zur Verfügung gestellt.
Integration von Sensoren
Forschungsinteresse:
  • Welche Prozesswerte müssen erfasst werden, um den Gießprozess möglichst genau beschreiben zu können?
Vorgehen:
  • Die Wissenschaftler*innen prüften anhand der Gießsimulation, welche Sensoren an welchen Positionen im Formwerkzeug nachgerüstet werden sollten, um qualitätsrelevante Größen erfassen zu können.
  • Die Gießformen des Knotenelementes und der Verstärkungssäule wurden entsprechend mit Temperatur- und Kraftsensoren ausgestattet.
  • Zusätzlich wurde die Druckgießmaschine und meisten Peripheriegeräte mit weitere Sensorik ausgestattet. Zu den Peripheriegeräten gehören u.a. die Entlüftungseinheit (sog. Vakuumanlage), der Schmelz- bzw. Warmhalteofen sowie die Heiz- und Kühlgeräte (sog. Temperiergeräte). Beispielsweise das Temperiergerät, das den Wärmehaushalt der Gießform regelt, erhielt Temperatur- und Drucksensoren sowie einen Mikrocontroller (zur Erfassung und Vorverarbeitung der Daten). Dadurch können die Temperatur, der Druck und der Volumenstrom der Flüssigkeit, die die Form erwärmt bzw. kühlt, sowohl in Vorlauf als auch im Rücklauf erfasst werden.
  • Zudem rüsteten die Wissenschaftler*innen eine OPCUA-Schnittstelle (Schnittstelle mit einem standardisierten Kommunikationsprotokoll) in das Trennstoff-Sprühsystem der Druckgießanlagen nach: Flüssiges Aluminium ist aggressiv gegenüber Stahl, aus dem das Druckgießwerkzeug besteht. Insbesondere aus diesem Grund trägt ein Sprühroboter Trennmittel auf die Formoberfläche auf, um der Schädigung des Stahls durch das flüssige Aluminium vorzubeugen. Auch beim Schmelzedosierroboter wurde eine OPCUA-Schnittstelle nachgerüstet.
  • Darüber hinaus brachten die Wissenschaftler*innen Sensorik zur Leistungsmessung am an allen Geräten der Druckgießanlage an, um den Energieverbräuche zu erfassen.
Ergebnisse/Erkenntnisse:
  • Die Sensorik in den Gießformen der Referenzbauteile erfasst Daten während des Druckgießprozesses, sind jedoch gelegentlich durch hohe Temperaturen und Kräfte störanfällig.
  • Durch die Integration der Sensorik und Nachrüstung der OPCUA-Schnittstellen in das bestehende Anlagentechnik (Retrofit) ist es möglich, die wichtigen Daten aus dem Druckgießprozess digital zu erfassen, um diese zu speichern, zu visualisieren und zu analysieren.
  • Die Daten aus den Leistungsmessgeräten ermöglichen es, den Zusammenhang zwischen der Energieaufnahme der jeweiligen Geräte und der Qualität des produzierten Gussteils zu untersuchen.
Erprobung der Messtechnik
Forschungsinteresse:
  • Funktionieren die Sensoren kurz-, mittel- und langfristig einwandfrei?
  • Sind die erfassten Messwerte plausibel?
Vorgehen:
  • Die Wissenschaftler*innen verglichen im laufenden Prozessbetrieb die Funktionsweise und die Messwerte mit anderen Sensoren und Verarbeitungseinheiten, die sich als zuverlässig erwiesen haben.
  • Zudem testeten und verglichen die Wissenschaftler*innen preiswerte Messtechnik, die insbesondere für Unternehmen wichtig sind, die sich neue und teure Anlagentechnik nicht leisten können.
Ergebnisse/Erkenntnisse:
  • Sämtliche Messtechnik wurde überprüft.
  • Auch günstigere Messtechnik kann wichtige Prozessgrößen sehr zuverlässig erfassen, wenn diese richtig angewendet wird.
Datenspeicherung und -übertragung
Forschungsinteresse:
  • Wie können die Daten, die mithilfe der nachgerüsteten Messtechnik erfasst werden, langfristig gespeichert und ein unternehmensintern bzw. unternehmensextern ausgetauscht werden?
Vorgehen:
  • Die Wissenschaftler*innen bauten mithilfe von Ethernet-Switchen, Ethernet-Kabeln und eine zentralen Computer ein internes Netzwerk innerhalb der Druckgießanlage auf.
  • Des Weiteren wurde ein Python-Quellcode zur Datenspeicherung verfasst und eine Open Source Datenbank (ProstgreSQL mit einem TimescaleDB-Plugin) auf dem zentralen Computer installiert.
  • Durch die Einrichtung eines VPN-Tunnels (Virtual Private Network) und eine sichere Anbindung an das Internet wurde die Basis für Transfer der Daten geschaffen.
Ergebnisse/Erkenntnisse:
  • Die Übertragung der Daten funktionierte sowohl unternehmensintern als auch unternehmensextern über VPN einwandfrei. Darüber soll zukünftig soll die Anbindung zur Datenplattform erfolgen
Dashboard an der Druckgießanlage
Forschungsinteresse:
  • Wie können Anlagenbediener*innen auf Qualitätsmängel während des Druckgießprozesses rechtzeitig aufmerksam gemacht werden?
Vorgehen:
  • Sollten bereits während des Druckgießprozesses Qualitätsmängel auftreten, ist es wichtig, die Bediener*innen der Anlagen frühzeitig darauf aufmerksam zu machen. Dann können sie gegensteuern oder den Prozess unterbrechen, um Ressourcen einzusparen. Um die Anlagenbediener*innen zu informieren, entwickelten die Wissenschaftler*innen ein prototypisches Dashboard, das auf einem Bildschirm an der Anlage die wichtigsten aktuellen Prozessdaten echtzeitnah anzeigt.
  • Die Wissenschaftler*innen nutzten für die Erstellung des prototypischen Dashboards eine Open Source Software „Grafana“, nahmen den Prototyp anschließend in Betrieb und optimierten ihn in mehreren Stufen.
Ergebnisse/Erkenntnisse:
  • Auf dem Dashboard werden alle wichtigen Informationen aus dem Druckgießprozesses zusammengeführt und anwendergerecht dargestellt. In Form eines Ampelsystems (grün = alles in Ordnung; gelb = etwas stimmt nicht, bitte prüfen; rot = anhalten!) erhalten die Mitarbeiter*innen entsprechende Empfehlungen.
  • Bei der Optimierung des Dashboards profitieren die Wissenschaftler*innen von der Kooperation mit einem Praxispartner: Sie testeten es im industriellen Umfeld und erlebten die Probleme der Anlagenbediener*innen in realer Umgebung. Diese Erkenntnisse ließen sie ebenfalls in die Optimierung des Dashboards einfließen.
Referenzplattform Industrieautomatisierung
Forschungsinteresse:
  • Wie können komplexe Datenverarbeitungsanforderungen in komplexen Anlagensteuerungen entworfen und umgesetzt werden?
Vorgehen:
  • Basis ist das Hardwarekonzept FAVIA, das im Vorfeld des Projektes entworfen wurde
  • Modernes Software-Engineering für Produktionssysteme benötigt moderne Entwurfssprachen. IEC 61499 ist eine solche Sprache aus dem Umfeld der Industrieautomatisierung. Konkret wurde die Open-Source-Implementation „Eclipse 4diac“ genutzt und um neue Aspekte erweitert.
  • Aufbauend auf IEC 61499 wurden neue Konzepte entworfen und erprobt, die Fähigkeiten der flexiblen Hardwareplattform ausnutzen zu können und Industriesteuerung mit Robotik-System integrieren zu können.
  • Zur Sicherstellung der Robustheit und Zeittreue wurde Contract-Based Design auf IEC 61499 angepasst und der Standard um notwendige Modellelemente erweitert, um auch Echtzeitkommunikation schon in der Entwurfsphase berücksichtigen zu können.
Ergebnisse/Erkenntnisse:
  • Das Open-Source-Werkzeug Eclipse 4diac erhielt durch die Arbeiten integrierte Unterstützung für Contract-Based Design.
  • Es wurde demonstriert, wie Contracts genutzt werden können, um Annahmen über das Verhalten eines Cyber-Physikalischen Produktionssystems automatisiert und kontinuierlich zu überwachen.
  • Eine Standardisierung explizit modellierter Echtzeit-Kommunikation in IEC 61499 ist in Vorbereitung
  • Es wurde demonstriert, wie robotische Systeme für das Robot Operating System (ROS) mit IEC 61499 modelliert, implementiert und mit klassischer Industrieautomatisierung integriert werden können
Teilprojekt
Automatische Modellierung spanender Fertigungsprozesse
Status: in Arbeit
Bei diesem Teilprojekt geht es um spanende Simulationsprozesse. Dort sollen alle Komponenten automatisiert bereitgestellt und die Simulation mithilfe von KI optimiert werden. Mithilfe eines digitalen Zwillings werden Reaktionsketten der realen Werkzeugmaschinen virtuell getestet. Erfolgreiche Konfigurationen werden dann in die Realität übernommen. Die Modellierung berücksichtigt Prozessunsicherheiten, um die Bauteilqualität vorherzusagen um Konformitätswahrscheinlichkeiten abzuschätzen. in weiteres Ziel ist es, mit KI Prozessanomalien zu erkennen und darauf reagierend automatisch zu ändern.
Ansprechperson
Prof. Dr.-Ing. Berend Denkena
Leibniz Universität Hannover
Institut für Fertigungstechnik und Werkzeugmaschinen
Zur automatischen Modellierung von Qualitätsvorhersagen wurde mit Automatisiertem Maschinellen Lernen realisiert.
Formabweichungen konnten auch unter geänderten Prozessbedingungen, wie Werkzeugverschleiß, durch einen prozessparallelen Soft-Sensor modelliert werden. Dabei konnte mit sich ergänzenden Daten aus einer Materialabtragssimulation und Spindelströmen auf den aufwändigen Einsatz einer Kraftmessplattform verzichtet werden.
Active Learning wurde erfolgreich erprobt um Qualitätsdatenrückführung zu automatisieren und nicht-wertschöpfende Qualitätsdatenerhebung zu minimieren.
Digitaler Zwilling
Forschungsinteresse:
  • Wie kann das Fräsen im Werkzeug- und Formenbau optimiert werden, um die Herstellung kostenintensiver Einzelfertigungen zu verbessern?
  • Wie können Formabweichungen frühzeitig vorhergesagt werden, um Kosten zu sparen und die Wirtschaftlichkeit zu steigern?
Vorgehen:
  • Die Wissenschaftler*innen erstellten einen digitalen Zwilling der Fräsmaschine, die die Gießform des Aluminiumdruckgusses herstellt.
  • Für die Erstellung des digitalen Zwillings analysierten die Wissenschaftler*innen die Maschinensteuerungen zur digitalen Abbildung der Maschinenachsen und ihrer Konfiguration.
  • Zudem entwickelten sie ein Programm zum automatischen Auslesen und Interpretieren relevanter Informationen aus der Maschinensteuerung.
  • Daraufhin verglichen sie verschiedene Modelle der Künstlichen Intelligenz hinsichtlich Vorhersagegüte und Rechenaufwand.
  • Anschließend führten die Wissenschaftler*innen Simulationen und Experimente zur Vorhersage von Formabweichungen und Verschleiß mithilfe der KI-Modelle durch. Die Datensätze beinhalteten diverse, mithilfe des digitalen Zwillings simulierte Prozessgrößen wie Zeitspanvolumen und Eingriffsbreite, sowie detailliertere Informationen zur bearbeiteten Kontur, Krümmung des Schnittes und dem Werkzeugverschleiß.
  • Schließlich validierten sie die Ergebnisse durch Versuchsreihen mit unterschiedlichen Rahmenbedingungen
Ergebnisse/Erkenntnisse:
  • Die KI-Modelle konnten erfolgreich Vorhersagen für Formabweichungen treffen, wobei sich herausstellte, dass zusätzliche Messgrößen die Prognosegenauigkeit weiter verbessern.
  • Die Forschung zeigte, dass sich digitale Zwillinge und KI-Modelle gut für die Qualitätsprognose in der Zerspanung eignen.
Genauigkeit und Erklärbarkeit von Machine-Learning-Modellen
Forschungsinteresse:
  • Wie kann die Genauigkeit und die Erklärbarkeit von ML-Modellen zur Prognose von Formabweichungen verbessert werden?
  • Wie können ML-Modelle angeben, wie sicher sie mit ihren Prognosen sind?
Vorgehen:
  • Die Wissenschaftler*innen nutzten Machine Learning, um sogenannte Surrogatmodelle zu erzeugen: Modelle, die mit Daten aus der Prozesssimulation und empirischen Qualitätsdaten trainiert werden, um die Qualität (z. B. Formabweichungen oder Oberflächengüte) von weiteren Gießformen vor der Herstellung vorherzusagen. Diese Modelle können auch für wechselnde Geometrien, wie sie im Formenbau üblich sind, Prognosen tätigen.
  • Bei den meisten Modellen ist allerdings nicht ersichtlich, wie hoch die Stichproben von den zu erwarteten Ergebnissen abweichen werden, da diese für unterschiedliche Eingriffsbedingungen innerhalb des gleichen Bauteils stark variieren kann.
  • Deshalb entwickelten die Wissenschaftler*innen eine Methode, die in Abhängigkeit der Datenlage und der zugrundeliegenden Varianz ein Konfidenzintervall für neue Prognosen ausgibt. Ein Konfidenzintervall ist ein Maß dafür, wie sicher bzw. unsicher eine Schätzung eintritt - in diesem Fall die prognostizierte Formabweichung
Ergebnisse/Erkenntnisse:
  • Die Methode gibt Aufschluss darüber, mit welcher Wahrscheinlichkeit eine bestimmte Abweichung der geplanten Form eintritt, je nachdem welche Einstellung vor dem Fertigungsprozess vorgenommen werden (z. B. Schnitttiefe, Schnittgeschwindigkeit, Zeitspanvolumen).
  • Die Methode trägt zur Erklärbarkeit von Machine-Learning-Modellen bei, indem sie die Unsicherheit der Ergebnisse transparent macht und die Vorhersagen dadurch nachvollziehbarer werden.
Machine-Learning-Modelle im Test
Forschungsinteresse:
  • Welche ML-Modelle liefern zuverlässige Prognosen zum Herstellungsprozess des Gießwerkzeuges?
  • Welche Datengrundlage ist für die Modelle erforderlich?
Vorgehen:
  • Die Wissenschaftler*innen simulierten den Herstellungsprozess des Gießwerkzeugs mithilfe eines digitalen Zwillings, der die Auswirkungen verschiedener Parameter (z. B. Schnitttiefe) auf die Qualität des Produkts widerspiegelt.
  • Daraufhin passten die Wissenschaftler*innen die Parameter im virtuellen Prozess so lange an, bis das virtuelle Gießwerkzeug die gewünschten Eigenschaften erreichte.
  • Anschließend testeten die Wissenschaftler*innen verschiedene Machine-Learning-Modelle, um deren Effizienz in der Qualitätsprognose zu evaluieren und herauszufinden, wie viele und welche Daten sie benötigen.
  • Die Wissenschaftler*innen untersuchten z. B., wie sich die Vorhersage der Modelle verändert, wenn die Daten eines Sensors aus den Trainingsdaten entfernt werden.
Ergebnisse/Erkenntnisse:
  • Die Forschung zeigte, dass Machine Learning erfolgreich zur Verbesserung der Produktqualität im Aluminiumdruckguss eingesetzt werden kann.
  • Durch die Analyse der Sensordaten wurde deutlich, welche Sensoren entscheidend zur Fehlererkennung beitragen und somit gewinnbringend in den Produktionsprozess integriert werden sollten. Dies hilft Unternehmen, fundierte Entscheidungen über den Einsatz und die Integration von Sensoren zu treffen, um Effizienz und Produktqualität zu steigern.
Auswirkungen des Werkzeugverschleißes auf die ML-Prognosen
Forschungsinteresse:
  • Wir wirkt sich der Werkzeugverschleiß bei der spanenden Verarbeitung auf die Qualität der ML-Prognosen aus?
  • Welche Messgrößen sind für die Prognosequalität relevant, wenn ein neues oder verschlissenes Werkzeug verwendet wird?
Vorgehen:
  • Die Wissenschaftler*innen prüften, mit welchen Prozessmerkmalen die Formfehler, die aus dem Verschleiß entstehen, vorhergesagt werden können.
  • Als Datengrundlage nutzten sie Simulationsdaten, Prozesskräfte und Antriebsströme. Auf Basis dieser Daten prognostizierte das Modell die Auswirkung des Werkzeugverschleißes auf die Formabweichungen des Bauteils.
  • Darüber hinaus hinterfragten die Wissenschaftler*innen, ob die Vorhersagemodelle noch ausreichend gute Prognosen treffen, wenn das Fräswerkzeug bereits einem Verschleiß unterliegt.
  • Des Weiteren hinaus analysierten sie, wie sich Modelle verändern, wenn sie mit Daten eines verschlissenen Werkzeugs trainiert und dann auf ein neues Werkzeug angewendet werden. Hierzu verglichen die Wissenschaftler*innen die Prozesskräfte (Kräfte, die auf das Fräswerkzeug wirken) und die Spindelströme (sie treiben den Fräser an) miteinander und prüften, welche Messgrößen darüber hinaus notwendig sind, um im beschriebenen Szenario eine akzeptable Vorhersage zu treffen.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen fanden heraus, dass die prozessnahen Messungen der Prozesskräfte und Spindelströme zu genaueren Abbildungen der verschleißbedingten Formfehler führen können. Mit der zusätzlichen Berücksichtigung der Spindelströme kann die Prognosegüte gegenüber der Modellierung durch Simulationsdaten stark erhöht werden, ohne dass zusätzliche kostenintensive Sensoren (wie z. B. Kraftmessplattformen) in die Maschine integriert werden müssen. Die Daten der Kraftmessplattform konnten die Prognosegüte in den Untersuchungen jedoch geringfügig weiter verbessern.
Arbeitserleichterung durch Active Learning
Forschungsinteresse:
  • Welche Daten benötigt das Prognosemodell, um zuverlässige Aussagen zur Qualität des Gießwerkzeuges zu treffen?
  • Wie kann die zeit- und arbeitsintensive Aufbereitung der Daten reduziert werden?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten den Einsatz von Active Learning. Dies beschreibt eine Form des Machine Learnings, bei der das Modell signalisiert, dass die Datengrundlage für eine Prognose unzureichend ist und weitere Daten benötigt werden.
  • Die Datenaufbereitung (sog. Labeling) geschieht in den meisten Fällen manuell, was sehr zeitintensiv ist. Wenn bekannt ist, welche Daten das Modell für die Qualitätsprognose benötigt, können diese zielgenau erfasst und gelabelt werden.
  • Im Zukunftslabor Produktion erfasst der maschinenintegrierte Messtaster zahlreiche Messdaten. Die Wissenschaftler*innen prüften im Rahmen des Active Learnings, welche dieser Messdaten relevant sind und ob die Datenerfassung optimiert werden kann.
  • Um das Prognosemodell zu trainieren, nutzten die Wissenschaftler*innen Daten aus vergangenen Produktionsprozessen. Dazu gehören einerseits die Schnittbedingungen (z. B. die Schnitttiefe und -breite des Fräsers im Bauteil), die im Rahmen der Prozessplanung eingestellt werden. Zudem umfassen die Trainingsdaten die Formabweichungen bereits hergestellter Bauteile, die durch die Qualitätssicherung ermittelt wurden.
  • Neben den Daten vergangener Herstellungsprozesse nutzten die Wissenschaftler*innen auch Daten aus der eigenen Produktion. Dafür frästen sie eigene Bauteile und erfassten entstandene Formfehler. Im Anschluss trainierten sie das Prognosemodell mit den neu gewonnenen Daten und ließen wiederum eine Vorhersage der Formfehler erstellen. Um zu prüfen, ob das Modell die Zusammenhänge zwischen Eingangsbedingungen und Formabweichungen erkennt, verglichen die Wissenschaftler*innen die Vorhersage des Modells mit dem tatsächlichen Bauteil. Insgesamt führten sie den Vergleich zehn Mal durch, sowohl für geringe als auch für hohe Formabweichungen.
  • Zudem bewerteten sie die Konfidenz des Active-Learning-Modells: Sie überprüften, wie sicher das Modell mit seinen Vorhersagen ist, und identifizierten Situationen, in denen zusätzliche Daten erforderlich sind.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen stellten fest, dass Active Learning eine effiziente Methode ist, um die Datenerfassung und -aufbereitung gezielt zu steuern.
  • Der Vergleich der Modellvorhersagen mit dem tatsächlichen Bauteil zeigte, dass das Active-Learning-Prognosemodell die tatsächlichen Formfehler gut vorhersagte.
  • Auf Basis der beiden Datenquellen (Schnittbedingungen und Formabweichungen) kann das ML-Modell die Formabweichungen unter Angabe einer Konfidenz vorhersagen.
  • Das Modell kann bei Unsicherheit zusätzliche Daten anfordern, wodurch unnötige Datenerhebung vermieden und die Datenmenge reduziert wird. Dies spart Zeit und Ressourcen bei der Qualitätsprognose und verbessert die Genauigkeit der Vorhersagen.
Teilprojekt
Adaptive Prozessführung im Druckguss
Status: in Arbeit
Bei diesem Teilprojekt geht es um die Anpassungsfähigkeit von Prozessen, die sich selbst optimieren. Es sollen verschiedene Bereiche miteinander vernetzt werden und auf Grundlage des ersten Teilprojekts (Intelligente Werkzeugsysteme für vernetzte Produktion der Zukunft) virtuell Optimierungen des Prozesses erkannt werden, um ein robustes Prozessfenster für die Steuerung zu definieren und ggf. Alternativen aufzuzeigen. Ziel ist es, nach externen Störungen zügig eine akzeptable Bauteilqualität zu erreichen und eine autonome, maschinenunabhängige Prozessplanung zu etablieren, die die bereits gewonnenen Daten einbinden.
Ansprechperson
Prof. Dr.-Ing. Prof. h.c. Klaus Dilger
Technische Universität Braunschweig
Institut für Füge- und Schweißtechnik
Der ML-Algorithmus „Random-Forest“ lieferte die beste Prognosegüte. Aber auch Werkzeuge, die wenig Programmierkenntnisse erfordern, wie AutoML von Auto-Sklearn liefern vielversprechende Ergebnisse.
Erfassten Prozess- und Qualitätsdaten liefert neben der Möglichkeit für echtzeitnahe Qualitätsprognosen der Gussteile auch viel weiteres Potenzial für vorausschauende Wartung und Ermittlung des bauteilbezogenen Umwelt-Fußabdruckes.
Die Anzahl der Datenpunkte bei einem typischen Verlauf eines Forminnendrucksensors konnte ohne signifikanten Informationsverlust von 41000 auf 97 reduziert werden.
Verfahren zur automatisierten Überführung von Simulationsdaten in Programmdaten konnten mittels Generierungsfeldern automatisiert überführt werden.
Qualitätsprognosen im Druckguss
Forschungsinteresse:
  • Wie hängt die Qualität der Bauteile mit den erfassten Prozessdaten zusammen?
  • Welches Maß ist für die Bewertung derartiger Prognosemodelle (Bewertungsmetrik) eignet sich am Besten?
  • Welche Algorithmen des Maschinellen Lernens (ML) liefern die beste Prognosegüte?
  • Welche Gussfehler (Qualitätsmerkmale) können am Besten anhand von erfassten Prozessdaten vorhergesagt werden?
  • Welches Verhältnis ist zwischen Anzahl der Gussteilen zum Training der Prognosemodelle und Prognosegüte optimal?
Vorgehen:
  • Die Wissenschaftler*innen analysierten einen Beispieldatensatz eines assoziierten Praxispartners aus einer Forschungsdruckgießserie mit über 8.000 Gießzyklen.
  • Es wurde eine Korrelationsanalyse zwischen den erfassten Prozessdaten und den dazugehörigen Qualitätsdaten durchgeführt.
  • Als Bewertungsmetrik wurde die ausgewogene Genauigkeit gewählt.
  • Diverse Algorithmen des Maschinellen Lernens wurden mit dem Ziel trainiert, unterschiedliche Qualitätsmerkmale der Gussteil anhand von erfassten Prozessdaten vorherzusagen.
  • Es wurden diverse Prognosemodelle mit unterschiedlicher Anzahl an Gießzyklen trainiert und die Prognosegüte analysiert.
Ergebnisse/Erkenntnisse:
  • Die Daten der Sensoren in der Gießform weisen die höchste Korrelation mit den Qualitätsmerkmalen auf.
  • Der ML-Algorithmus „Random-Forest“ weist die höchste Prognosegüte auf. Auch das Werkzeug AutoML von Auto-Sklearn weist eine ähnliche Prognosegüte aus.
  • Gussfehler wie Aufschweißungen an der Druckgießform konnten mit einer ausgewogenen Genauigkeit von über 80% am Zuverlässigsten vorhergesagt werden. Am Schlechtesten konnten Blasen an der Bauteiloberfläche mit einer ausgewogenen Genauigkeit von ca. 57% prognostiziert werden.
  • 1000 Gießzyklen zum Training der Prognosemodelle wurde als Optimum bestimmt.
Teilautomatisierte Generierung des Gießprogramms
Forschungsinteresse:
  • Wie kann die Zeit bei der Erstellung des Gießprogramms und so die Inbetriebnahmezeit verkürzt werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein Programm, dass die Daten aus der Gießsimulation als Basis für ein neues Gießprogramm nutzt und durch benutzerfreundliche Eingabe noch fehlender Gießparameter ein neues Gießprogramm generiert und auf dem zentralen Computer der Druckgießanlage ablegt.
Ergebnisse/Erkenntnisse:
  • Das Werkzeug zur Programmgenerierung senkt signifikant die Zeit zur Erstellung eines neuen Gießprogramms (Personalaufwand), Erhöht den Nutzungsgrad von Gießsimulationsdaten und erspart das manuelle Eintippen des Programms an der Druckgießanlage.
Druckguss und Qualitätsprüfung
Forschungsinteresse:
  • Wie kann eine ausreichende Datengrundlage für tiefgreifende Analysen des Fertigungsprozesses zu erzeugt werden?
  • Wie ist die Qualität der gegossenen Bauteile?
Vorgehen:
  • Nachdem die Wissenschaftler*innen die bestehende Anlagentechnik weitestgehend digitalisiert und vernetzt hatten, begannen sie damit, die Referenzbauteile zu gießen. Ihr Ziel war es, vom Knotenelement und von der Verstärkungssäule jeweils 1.000 Bauteile zu gießen, um eine ausreichende Datengrundlage zu haben.
  • Darüber hinaus überprüften die Wissenschaftler*innen die Qualität dieser gegossenen Bauteile. Die Knotenelemente wurden einer Sichtprüfung, Röntgenprüfung, Prüfung der Oberflächenrauigkeit und 3-Punkt-Biegefestigkeitsprüfung unterzogen. Bei den Verstärkungssäulen wurde einer Sicht- und Röntgenprüfung sowie Zugfestigkeits- und Bruchdehnungsprüfung durchgeführt.
Ergebnisse/Erkenntnisse:
  • Vom Knotenelement wurden 1103 Stück und von der Verstärkungssäule 1152 Stück gegossen.
  • Die gesamten Referenzbauteile wurden der Qualitätsprüfung unterzogen und die Qualitätsdaten digital abgelegt.
Qualitätsprognosen mit Referenzbauteilen
Forschungsinteresse:
  • Wie kann eine automatisierte Prognose der Bauteilqualität erfolgen?
Vorgehen:
  • Die Wissenschaftler*innen nutzten die Daten aus dem Produktionsprozess, aus der Qualitätsprüfung und aus der Gießsimulation, um diverse Prognosemodelle des Maschinellen Lernens zu trainieren. Damit soll es zukünftig möglich sein, prozessbedingte Qualitätsmängel während der Produktion frühzeitig festzustellen und die Anlagenbediener*innen darauf aufmerksam zu machen.
Ergebnisse/Erkenntnisse:
  • Dieser Arbeitspaket befindet sich noch in der Bearbeitung. Die Ergebnisse werden nach Abschluss der Bearbeitung hier veröffentlicht.
Ableitung der Handlungsempfehlung
Forschungsinteresse:
  • Lassen sich aus den erfassten Prozessdaten und daraus resultierenden Qualitätsprognosen Handlungsempfehlungen automatisiert ableiten?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein Programm, dass umfangreiches Wissen aus der Literatur nutzt, um auf Basis von erfassten Verläufen der Prozessgrößen und den daraus resultierenden Qualitätsprognosen eine Handlungsempfehlung automatisiert und echtzeitnah abzuleiten.
Ergebnisse/Erkenntnisse:
  • Dieser Arbeitspaket befindet sich noch in der Bearbeitung. Die Ergebnisse werden nach Abschluss der Bearbeitung hier veröffentlicht.
Transfermöglichkeiten auf verwandte Fertigungsverfahren
Forschungsinteresse:
  • Lassen sich die Erkenntnisse und Modelle aus dem Druckguss auf den Mikropräzisionsspritzguss übertragen?
Vorgehen:
  • Die Hochschule Emden/Leer erprobt die Erkenntnisse mit Hilfe von verschiedenen selbst gefertigten Formen und wird versuchen die Prognosegenauigkeit von Fehlteilen anhand der Zeitreihendaten zu verbessern, die die Anlage liefert. Hierbei soll die Dimensionsreduktion aus dem Aluminiumdruckguss übernommen werden.
Ergebnisse/Erkenntnisse:
  • Noch keine endgültigen Ergebnisse vorliegend (deshalb kostenneutrale Verlängerung um 6 Monate)
Teilprojekt
Planung und Steuerung rekonfigurierbarer Prozessketten
Status: abgeschlossen
Die Wissenschaftler*innen erforschen Methoden zur flexiblen Planung und Steuerung von Fertigungsprozessen entlang überbetrieblicher Prozessketten. Zunächst erstellen sie ein Datenmodell für rekonfigurierbare Prozessketten, das mithilfe von Maschinellem Lernen die Produktionsplanung und -steuerung automatisiert. Ein Softwareprototyp soll zeigen, wie Unternehmen komplexe Prozessparameter überwachen und steuern können. Weiterhin werden Methoden für eine adaptive, unternehmensübergreifende Prozesskettenregelung im Druckguss untersucht. Zusätzlich identifizieren die Forschenden die Wertschöpfungspotenziale von Künstlicher Intelligenz (KI) in der Produktion durch Experteninterviews und Systematisierung von Methoden. Sie entwickeln Einsatzszenarien und Empfehlungen für den praktischen Einsatz von KI in der Industrie.
Ansprechperson
Prof. Dr.-Ing. Matthias Schmidt
Leuphana Universität Lüneburg
Institut für Produktionstechnik und -systeme
Leitfaden für den Einsatz von KI in der Produktion wurde erstellt
Grey-Box-Modelle ermöglichen präzisere Vorhersagen von Produktionszeiten
Datengetriebene Modelle verbessern die Prognose der Durchlaufzeit in der Fertigung
Abbildung der unternehmensinternen Lieferkette
Forschungsinteresse:
  • Welche Produktionsprozesse gibt es innerhalb eines Unternehmens?
  • Welche Daten entstehen bei den Produktionsprozessen?
  • Inwiefern kann Maschinelles Lernen die Produktionsplanung und -steuerung optimieren?
Vorgehen:
  • Die Wissenschaftler*innen nutzten das Hannoveraner Lieferkettenmodell (HaLiMo), um die unternehmensinterne Lieferkette zu definieren und Einsatzmöglichkeiten digitaler Technologien zu identifizieren.
  • Darauf aufbauend entwickelten sie ein logisches Datenmodell, um unternehmensspezifische Datengrundlagen strukturiert zu erfassen und zu analysieren.
  • Anschließend sammelten und analysierten die Wissenschaftler*innen Produktionsdaten eines Praxispartners. Diese nutzten sie als Grundlage für ein logisches Datenmodell zur Produktionsplanung und -steuerung.
  • Außerdem untersuchten die Wissenschaftler*innen den Einsatz Maschinellen Lernens (ML) zur Prognose von Schlüsselattributen wie Plandurchlaufzeiten.
Ergebnisse/Erkenntnisse:
  • Das auf dem HaLiMo aufbauende logische Datenmodell kann genutzt werden, um strukturiert unternehmensspezifische Datengrundlagen zur Erfüllung der Produktionsplanungs- und -steuerungsaufgaben zu analysieren. Die Analyse kann dazu beitragen, Potenziale für die Erhebung weiterer Datenattribute zu identifizieren sowie den Einsatz von maschinellen Lernverfahren zur Prognose einzelner Kernattribute (z.B. Plandurchlaufzeiten) zu erkennen.
  • >ML-Verfahren berücksichtigen verschiedene Parameter der Produktionsplanung und -steuerung und lernen aufgrund ihrer gesammelten Erfahrungen. Dadurch wird die Prognose, wieviel Zeit ein Auftrag bis zur Fertigstellung benötigt, immer genauer.
Vorhersage von Plandurchlaufzeiten mittels Maschinellem Lernen (ML)
Forschungsinteresse:
  • Wie können Plandurchlaufzeiten besser kalkuliert werden?
  • Welche Einsatzfelder gibt es für Maschinelles Lernen in der Produktion?
Vorgehen:
  • Die Wissenschaftler*innen setzten ML-Modelle ein, um Plandurchlaufzeiten auf Basis vorhandener Produktionsdaten zu kalkulieren. Oftmals basieren Plandurchlaufzeiten auf Schätzungen oder Erfahrungen der Mitarbeiter*innen. Abweichungen im aktuellen Produktionsprozess (z. B. veränderter Auftragsbestand vor den Arbeitsstationen oder Störfälle) berücksichtigen diese nicht hinreichend, wenn sie Plandurchlaufzeiten kalkulieren. Hier kann maschinelles Lernen ansetzen.
  • In diesem Zusammenhang untersuchten die Wissenschaftler*innen verschiedene Modelle des maschinellen Lernens und verglichen, welche Faktoren die Prognosegüte der Modelle verbessern.
  • Darüber hinaus analysierten die Wissenschaftler*innen die grundsätzlichen Einsatzfelder von ML in der Produktion. Dafür führten die Wissenschaftler*innen eine umfassende Literaturrecherche durch. Sie konzentrierten sich dabei auf die spanende Herstellung von Druckgießformen.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen stellten fest, dass die Prognosen der ML-Modelle besser werden, wenn z. B. Daten über Störungsfälle, die Auftragsreihenfolge oder den aktuellen Auftragsbestand einzelner Arbeitsstationen in das Modell einfließen.
  • Die Literaturanalyse ergab, dass maschinelles Lernen insbesondere die Leistung, Verfügbarkeit, Qualität und Reaktionsschnelligkeit/Flexibilität spanender Fertigungsprozesse verbessern kann.
  • Des Weiteren ermittelten die Wissenschaftler*innen drei Hemmnisse für den Einsatz maschineller Lernverfahren in der Praxis: Zuerst muss überprüft werden, ob ein bestimmtes Problem mit maschinellem Lernen gelöst werden kann. Dann ist zu klären, ob die vorhandene Dateninfrastruktur für maschinelle Lernmodelle vorliegt. Schließlich muss ein Datenanalyst ein passendes Modell auswählen, einsetzen und die Ergebnisse interpretieren.
Absatzprognose mittels Maschinellem Lernen (ML)
Forschungsinteresse:
  • Welches Potenzial hat Maschinelles Lernen bei der Absatzprognose helfen (wann werden welche Produkte in welcher Menge voraussichtlich nachgefragt)?
  • Inwiefern können ML-Methoden traditionelle Zeitserienmodelle bei der Vorhersage von Nachfrage ablösen?
  • Welche Möglichkeiten haben kleine und mittlere Unternehmen (KMU), um ML einzusetzen?
Vorgehen:
  • Die Wissenschaftler*innen verglichen die Möglichkeiten von ML mit traditionellen Zeitserienmodellen, bei denen die Prognose ausschließlich auf dem historischen Absatz beruht. Diese Verfahren stoßen jedoch zunehmend an ihre Grenzen: Zum einen sorgen die kürzer werdenden Produktlebenszyklen für kürzere Datenhistorien. Zum anderen gibt es bei sporadisch nachgefragten Produkten zu wenige Daten. Zusätzlich erzeugen Unsicherheiten am Markt (z. B. durch die Corona-Pandemie) den Bedarf, weitere beschreibende Faktoren in der Prognose zu berücksichtigen.
  • Da KMU nicht immer über die notwendigen Kenntnisse zum Umgang mit ML-Methoden verfügen, untersuchten die Wissenschaftler*innen den Einsatz automatisierter Machine Learning Tools (AutoML-Tools), die die Unternehmen nicht selbst programmieren müssen.
  • Hierfür testeten sie drei AutoML-Tools in zwei verschiedenen Produktionsumgebungen. Sie untersuchten die Prognose des Bedarfs verschiedener Produktgruppen für einen kurzen Zeithorizont (einen Monat mit 28 Tagen) und einen langen Zeithorizont (ein Jahr mit 52 Wochen).
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen stellten fest, dass ML-Methoden eine effizientere Möglichkeit zur Erhöhung der Prognosegüte darstellen, da sie besser mit kurzen Datenhistorien, sporadischen Nachfragen und Marktschwankungen umgehen können als traditionelle Zeitserienmodelle.
  • Der Einsatz von AutoML-Tools kann KMUs ermöglichen, ML in die Absatzprognose zu integrieren, ohne umfangreiche Programmierkenntnisse zu benötigen.
  • Die Analyse der drei Auto-ML-Tools ergab, dass die Prognosegüte abhängig ist von der Software, den Eingabedaten und dem Nachfrageverhalten. AutoML zeigt insbesondere bei der kurzfristigen Prognose gute Ergebnisse. Bei langfristigen Prognosen bedarf es jedoch weiterer beschreibender Merkmale zur Verbesserung der Modellgüte.
  • Dennoch stellt AutoML vor allem für das Prototyping und den Abgleich der Daten mit dem Geschäftsverständnis ein sehr gutes Einsatzfeld dar. So lassen sich präzisere datengestützte Prognosemodelle entwickeln.
  • ML und AutoML haben jedoch den Nachteil, dass die Modelle im Vergleich zu statistischen Modellen komplexer sind und somit mehr Rechenleistung benötigen. Außerdem sind sie schwieriger nachzuvollziehen.
Status Quo zum Einsatz von Künstlicher Intelligenz in der Produktion
Forschungsinteresse:
  • Inwiefern setzen Produktionsunternehmen Künstliche Intelligenz ein?
Vorgehen:
  • Die Wissenschaftler*innen führten Experteninterviews mit 30 Produktionsunternehmen durch, um den Status Quo zum Einsatz von Künstlicher Intelligenz (KI) in der Produktion zu erheben. Diese Unternehmen verfügen über eine eigene Fertigung, z. B. aus den Bereichen Luft- und Raumfahrt oder Maschinen- und Anlagenbau.
Ergebnisse/Erkenntnisse:
  • Die Auswertung der Interviews ergab, dass die Mehrheit der produzierenden Unternehmen bisher noch keine KI in der Arbeitsvorbereitung sowie zur Prozess- und Zustandsüberwachung einsetzen.
  • Die Ursachen, weshalb die Unternehmen noch keine KI nutzen, sind ganz unterschiedlich: Zum einen ist vielen Betrieben noch nicht klar, welches Potenzial KI für die Produktion hat. Zum anderen werden oftmals ältere Maschinen eingesetzt, bei denen die Prozessdaten nicht so einfach akquiriert werden können. Größere Unternehmen können sich hierfür Mitarbeiter*innen leisten, die entsprechende Schnittstellen entwickeln oder ein Retro-Fit durchführen, um Daten aus der Maschinensteuerung oder externer Sensoren zu akquirieren. Dies ist mit zusätzlichen Kosten verbunden. Kleinere Betriebe haben dafür keine Ressourcen. Darüber hinaus stellt es ein Problem dar, die Daten unterschiedlicher Maschinen zusammenzuführen, zu speichern und auszuwerten. Dabei spielen auch die Rückverfolgbarkeit von Bauteilen und die Verknüpfung mit den Prozessdaten eine wichtige Rolle.
ML-basierte Absatzprognose am Anwendungsbeispiel der Chemieindustrie
Forschungsinteresse:
  • Sind Methoden des Maschinelles Lernen besser geeignet als klassische statistische Verfahren, um den Absatz eines Chemieunternehmens zu prognostizieren?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten Methoden des Maschinellen Lernens und analysierten auch das Potenzial öffentlich verfügbarer Daten (z. B. Konjunkturdaten und Branchenindizes) zur Annäherung an die möglichen langfristigen Bedarfe der Kund*innen.
  • Sie verglichen die Ergebnisse mit klassischen statistischen Verfahren.
Ergebnisse/Erkenntnisse:
  • Die Ergebnisse zeigen, dass ML-Modelle durch die Einbeziehung externer Daten insbesondere bei Strukturbrüchen gute Prognosen über die Absatzverläufe erstellen können. Strukturbrüche sind durch einen plötzlichen Einbruch der „gewohnten“ Nachfrage gekennzeichnet, wie es z. B. durch die Corona-Pandemie oder den russischen Angriffskrieg auf die Ukraine der Fall war.
  • Der Aufbereitungsaufwand solcher Modelle ist jedoch im Vergleich zu statistischen Verfahren wesentlich höher. Außerdem kann sich die Datenverfügbarkeit oder die Qualität der externen Daten verändern. Dennoch war der Zugewinn der Prognosegenauigkeit im untersuchten Fallbeispiel teils erheblich und bot sich insbesondere bei einem sich stark verändernden externen Umfeld an, um den Nachfrageschock präziser abzubilden.
ML-basiertes Risikomanagement in Lieferketten
Forschungsinteresse:
  • Inwiefern kann Maschinelles Lernen das Risikomanagement in Lieferketten (Supply Chain Management, SCM) verbessern?
  • Welche Vorteile hat eine Kreislaufwirtschaft für Lieferketten?
  • Welche Datenflüsse gibt es entlang einer Lieferkette?
Vorgehen:
  • Die Wissenschaftler*innen führten Literaturrecherche zu den Potenzialen von ML und Big Data im strategischen Supply-Chain-Risikomanagement durch.
  • Zudem untersuchten sie, wie das Konzept der Kreislaufwirtschaft in Lieferketten integriert werden kann, um den Lebenszyklus von Produkten zu verlängern und Ressourcen zu schonen.
  • Als Beispiel analysierten sie die Lieferkette in der deutschen Windenergiebranche, da hierfür Daten des Marktstammdatenregisters der Bundesnetzagentur vorlagen. Für die Druckgussindustrie waren keine Daten öffentlich verfügbar.
  • Daraufhin entwickelten die Wissenschaftler*innen ein Konzept zur Integration der Kreislaufwirtschaft in das SCM.
  • Des Weiteren analysierten die Wissenschaftler*innen die Lieferketten innerhalb der Windenergiebranche, die mit der Herstellung einer Windturbine und insbesondere von Rotorblättern betraut sind. Ziel war es, die Lieferkette und deren Datenflüsse besser zu verstehen.
  • Um ein tiefergehendes Verständnis der Lieferketten zu gewinnen, führten die Wissenschaftler*innen Gespräche mit unterschiedlichen Stakeholdern (z. B. Zulieferern, Herstellern von Windenergieanlagen, Betreibern, Rückbauunternehmen). Zudem analysierten sie die öffentlich verfügbaren Daten.
Ergebnisse/Erkenntnisse:
  • Die Forschung zeigte, dass ML und Big Data das Supply-Chain-Risikomanagement erheblich verbessern und zur Integration der Kreislaufwirtschaft beitragen können.
  • Das entwickelte Konzept zur Kreislaufwirtschaft im SCM umfasst die gesamte Lieferkette, von der Produktion bis zur Entsorgung, und hebt die Bedeutung der Digitalisierung für den Datenaustausch zwischen Unternehmen hervor.
  • Die Untersuchung der Windenergiebranche demonstrierte, wie erste Schritte zur Implementierung dieser Konzepte in Lieferketten aussehen könnten.
  • Die Gespräche mit den Stakeholdern und die Analyse der öffentlich verfügbaren Daten zeigte, dass Daten zu weiteren Nutzungsphasen einer Windenergieanlage oder deren Komponenten (z. B. Rotorblättern) weitestgehend fehlen. Dennoch lassen sich Prognosen zu Bedarfen ableiten, die eine langfristige Kapazitätsplanung verschiedener Stakeholder (z. B. Wiederaufbereitungs-, Reparatur- und Recyclingunternehmen) ermöglichen. Die Wissenschaftler*innen begannen damit, Prognosemethoden über die zu erwartenden Mengen zu erstellen. Für die nationale Recyclingbranche haben sie den Vorgang bereits abgeschlossen
Maschinelles Lernen in Lieferketten des Spritz- und Druckgussgewerbes
Forschungsinteresse:
  • Inwiefern kann Maschinelles Lernen in Lieferketten des Spritz- und Druckgussgewerbes genutzt werden?
Vorgehen:
  • Die Wissenschaftler*innen untersuchten das Potenzial von ML-Verfahren in unternehmensübergreifenden Aufgaben, also Prozesse, die über mehrere Unternehmen verteilt sind.
  • Insbesondere betrachteten die Wissenschaftler*innen, inwieweit eine von ML gestützte Supply-Chain-Kollaboration die Supply-Chain-Risiken des Unternehmens adressieren kann.
  • Hierzu entwickelten sie eine Vorgehensweise zur Identifikation einer geeigneten Kollaborationsform und untersuchten anschließend bei der identifizierten Kollaborationsform das Potenzial von ML.
Ergebnisse/Erkenntnisse:
  • Es zeigt sich, dass ML unterstützen kann, jedoch im konkreten Fallbeispiel zunächst der digitale Reifegrad erhöht werden sollte.
Prognosemodell zur Vorhersage von Bearbeitungszyklen
Forschungsinteresse:
  • Wie können die Durchlaufzeiten zur Herstellung von Werkzeugformen präzise vorhergesagt werden, um die Produktionsplanung zu verbessern?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten ein Prognosemodell, das die Bearbeitungszyklen vorhersagt.
  • Bei dem Modell handelt es sich um ein Grey-Box-Modell, das datengetriebene Ansätze (wie beim Maschinellen Lernen) und analytische Modelle (basierend auf der Maschinenkinematik) kombiniert. Dies bedeutet, dass das Modell zwei Datenquellen nutzt, um die Bearbeitungszyklen in der Fertigung vorherzusagen.
  • Die Wissenschaftler*innen testeten das Modell anhand von Produktionsdaten aus dem Aluminiumdruckguss, insbesondere auf 3-Achs- und 5-Achs-CNC-Maschinen.
  • Darüber hinaus führten die Wissenschaftler*innen Gespräche mit Produktionsunternehmen durch, um die Anforderungen und Herausforderungen in der Produktionsplanung zu erfassen.
Ergebnisse/Erkenntnisse:
  • Der Test des Grey-Box-Models zeigte, dass das Prognosemodell für 3-Achs- und 5-Achs-CNC-Maschinen eine Zeitprognosegüte von bis zu 99 % erreicht. Hierdurch können die Abweichungen zwischen Plan- und Soll-Zeiten in der automatisierten Fertigung von kleinen Losgrößen reduziert werden. Somit hat sich das Modell als effektives Tool für die Produktionsplanung erwiesen.
  • Aus den Gesprächen wurde deutlich, dass die Unternehmen Interesse an einem Prognosemodell haben, das ihnen die Maschinenbelegungsplanung erleichtert. Dabei betonten die Interviewpartner*innen die Wirtschaftlichkeit eines solchen Modells: Sie brauchen nicht das beste Prognosetool, das die präzisesten Vorhersagen für die Bearbeitungszyklen trifft. Vielmehr wünschen sie sich ein Modell, das eine gute Prognose bei möglichst geringem Invest bietet. Mit Invest meinen sie sowohl finanzielle Mittel für die Anschaffung des Tools als auch zeitliche und personelle Ressourcen für die Nutzung. Das Prognosemodell muss also zuverlässig und rentabel sein.
Teilprojekt
IT-Infrastruktur und Sicherheit
Status: in Arbeit
Bei dem Projekt geht es um einen sicheren, standortübergreifenden Datenaustausch für Produktionsprozesse. Verschiedene Datenschichten sind für die Verarbeitung der erfassten Daten und den Informationsfluss verantwortlich. Um die IT-Infrastruktur und die Sicherheit zu ermöglichen, legen die Forschenden unterschiedliche Klassen von Daten und Anforderungsprofile bezüglich der Datensicherheit fest. Das Projekt orientiert sich an realitätsnahen Prozessen, insbesondere dem Druckguss, da dieser für Niedersachsen eine wichtige Bedeutung hat und niedersächsische Unternehmen somit einen Wettbewerbsvorteil haben können.
Ansprechperson
Prof. Dr.-Ing. Karl-Heinz Niemann
Hochschule Hannover
Fakultät 1: Elektro- und Informationstechnik
Vorstellung einer Architektur zum unternehmensübergreifenden föderierten Lernen in Datenökosystemen
Nachweis des Verfahrens an Praxisdaten in industrieller Lieferkette
Entwicklung eines Demonstrators zur Visualisierung von Datenaustausch in Lieferketten.
Ziel der Datenplattform und Nutzungsszenario
Forschungsinteresse:
  • Wie können Produktionsdaten standort- und unternehmensübergreifend ausgetauscht werden?
  • Welches Nutzungsszenario ist realistisch und kann als Grundlage der Forschung dienen?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten eine IT-Architektur für eine Datenplattform.
  • Die Wissenschaftler*innen bestimmten ein Szenario, welches sie für die Anwendung der Datenplattform zugrunde legen.
Ergebnisse/Erkenntnisse:
  • Die Datenplattform ermöglicht eine verteilte Dateninfrastruktur, ohne direkte Verknüpfung der Datenquellen. Das bedeutet, dass die Unternehmen ihre Daten für Analysen bereitstellen, ohne dass Dritte die Daten einsehen können. Details werden im Weiteren vorgestellt.
  • Das Nutzungsszenario beinhaltet die gemeinschaftliche Analyse von Daten aus dem Werkzeugbau und der Fertigung im Druckguss. Hierbei geht es darum herauszufinden, weshalb manche Bauteile nicht der gewünschten Qualität entsprechen. Auf Basis der Daten soll eine Prognose erstellt werden, ob die mangelhafte Qualität aufgrund eines Werkzeugfehlers entstanden ist, oder ob andere Ursachen verantwortlich sind. Mithilfe der Datenplattform wollen die Wissenschaftler*innen auch ermitteln, wie wahrscheinlich es ist, dass das Gießwerkzeug während des Gießprozesses ausfällt.
Zielgruppen der Datenplattform und Anforderungsanalyse
Forschungsinteresse:
  • Welche Stakeholder haben Interesse an der Datenplattform?
  • Welche Anforderungen stellen diese Stakeholder an die Plattform?
  • Welche Kriterien hinsichtlich Nutzung, Datenschutz und IT-Sicherheit muss die Plattform erfüllen?
Vorgehen:
  • Zunächst erstellten die Wissenschaftler*innen Profile (sogenannte Personae) Rollen innerhalb der Produktionskette (z.B. Qualitätssicherung, Maschinenführung, IT-Administration).
  • Auf Basis der Personae fassten die Wissenschaftler*innen die Bedürfnisse in User Stories zusammen und leiteten daraus ab, welche Eigenschaften die zu entwerfende IT-Infrastruktur aus Sicht der jeweiligen Person aufweisen muss (z. B. „Als IT-Administrator*in in der Produktion möchte ich, dass die Verfügbarkeit der Daten im Produktionsbereich stets gewährleistet ist, um die Produktion aufrecht zu erhalten.“).
  • Daraufhin definierten die Wissenschaftler*innen Geschäftsanforderungen, Nutzungsanforderungen, Betreiberanforderungen, Schutzziele und IT-Sicherheitsanforderungen für die Datenplattform.
  • Des Weiteren identifizierten sie vier Anwendungsfälle, in denen die Datenplattform zum Einsatz kommen kann. Dazu zählen die Kommunikation im Produktionsbereich, die Übertragung der Daten in interne Verwaltungsabteilungen, die Speicherung der Daten in unternehmenseigenen Clouds und die Übermittlung der Daten in firmenexterne „Shared-Clouds“.
  • Schließlich formulierten die Wissenschaftler*innen Schutzziele (Vertraulichkeit, Integrität, Verfügbarkeit, Authentizität, Nichtabstreitbarkeit) und Anforderungen aus Perspektive der IT-Sicherheit (Identifizierung und Authentifizierung, Nutzungskontrolle, Systemintegrität, Vertraulichkeit der Daten, Eingeschränkter Datenfluss, Rechtzeitige Reaktion auf Ereignisse, Verfügbarkeit der Ressourcen).
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen definierten die Zielgruppen und deren Ansprüche an die Plattform.
  • Zudem legten sie Anforderungen hinsichtlich Nutzung, Datenschutz und IT-Sicherheit fest.
  • Indem sie vier Anwendungsfälle der Plattform identifizierten, wurden die Einsatzmöglichkeiten deutlich.
  • Außerdem steht fest, welche Schutzziele und Anforderungen die Plattform aus Sicht der IT-Sicherheit erfüllen muss.
Überlegungen zur IT-Sicherheit und zu rechtlichen Anforderungen
Forschungsinteresse:
  • Wie kann die Datenplattform vor unberechtigten Zugriffen geschützt werden?
Vorgehen:
  • Die Wissenschaftler*innen prüften gängige Datenplattformen hinsichtlich der IT-Sicherheitsaspekte, die sie als essenziell identifiziert hatten (Vertraulichkeit, Integrität, Verfügbarkeit, Authentizität, Nichtabstreitbarkeit).
  • Zudem entwickelten sie abhängig vom Anwendungsfall entsprechende IT-Sicherheitskonzepte. Beispielsweise muss bei sensiblen Datensätzen die Vertraulichkeit gewahrt werden, um Firmengeheimnisse zu schützen, während bei weniger sensiblen Datensätzen die Verfügbarkeit priorisiert werden könnte, um den Betrieb zu gewährleisten.
  • Des Weiteren entwickelten die Wissenschaftler*innen ein Konzept, wie die Erkenntnisse zur IT-Sicherheit in die Workflows der Datenplattform integriert werden können. Zu den Workflows zählt z. B. die Daten der Druckgießmaschinen zu gewinnen und in die Plattform einzuspeisen, verschiedene Kommunikationsprotokolle der unterschiedlichen Anlagen zu kombinieren oder Sicherheitszertifikate auszutauschen.
  • Darüber hinaus analysierten die Wissenschaftler*innen, welche juristischen Fragestellung in Bezug auf die Datensicherheit innerhalb der Produktion relevant sind. In einem Konzeptpapier stellten die Wissenschaftler*innen die Datenflüsse und die beteiligten Akteure dar. Dieses leiteten sie an einen juristischen Praxispartner weiter.
Ergebnisse/Erkenntnisse:
  • Die Überprüfung gängiger Datenplattform ergab, dass keine der geprüften Plattformen alle erforderlichen Sicherheitsaspekte abdeckt.
  • Die Auswahl und Entwicklung der IT-Sicherheitskonzepte wurden an die spezifischen Anforderungen der Anwendungsfälle angepasst.
  • Es liegt ein Konzept vor, um die Sicherheitsanforderungen in die Workflows der Datenplattform zu integrieren.
  • Zu den relevanten juristischen Fragestellungen zählen Dateneigentum, Datenschutz und vertragliche Situation der Beteiligten - etwa (Kund*innen, Werkzeugbau, Gießerei).
  • Der juristische Praxispartner leitete aus dem Konzeptpapier rechtliche Anforderungen ab, z. B. welche Verträge geschlossen werden müssen.
IT-Sicherheit gemäß geltender Industrienorm
Forschungsinteresse:
  • Wie kann die IT-Sicherheit der Datenplattform umgesetzt werden?
Vorgehen:
  • Die Wissenschaftler*innen orientierten sich an der Industrienorm IEC62443-3-3, die technische Anforderungen an die Sicherheit von Systemen beschreibt. Sie überprüften, welche Anforderungen die Datenplattform gemäß der IEC62443-3-3-Norm erfüllen muss und definierten entsprechende Maßnahmen zur Umsetzung.
  • Zudem führten sie eine Risikoanalyse durch, um zu testen, ob das Minimal-Viable-Produkt (MVP) den allgemeinen IT-Sicherheitskriterien entspricht, insbesondere im Hinblick auf unberechtigten Zugriff und Vertraulichkeit der Daten.
Ergebnisse/Erkenntnisse:
  • Die Analyse der Industrienorm ergab, dass die Plattform etwa 50 sicherheitsrelevante Anforderungen erfüllen muss, darunter Identifizierung, Authentifizierung, Vertraulichkeit und Reaktionsfähigkeit auf Ereignisse.
  • Durch die Risikoanalyse nach VDI/VDE 2182 - Blatt 1 konnten die Wissenschaftler*innen Schwachstellen erkennen und beheben.
  • Die Nutzung von Thread Modeling Tools ergänzte die Risiko- Bedrohungsanalyse über den Entwicklungszeitraum kontinuierlich.
Bedenken aus unternehmerischer Sicht entgegenwirken
Forschungsinteresse:
  • Welche Bedenken haben Unternehmen bezüglich Datensicherheit und Eigentum?
  • Wie können diese Bedenken überwunden werden, um von den Vorteilen des Datenaustausches zu profitieren?
Vorgehen:
  • Die Wissenschaftler*innen führten Gespräche mit Praxispartnern hinsichtlich ihrer Bedenken, Unternehmensdaten über eine Datenplattform zu teilen.
  • Im Rahmen einer Literaturrecherche untersuchten die Wissenschaftler*innen des Zukunftslabors Produktion eine Vielzahl von Studien im Hinblick auf Konzepte, die eine unternehmensübergreifende Datennutzung entlang der Lieferkette ermöglichen.
Ergebnisse/Erkenntnisse:
  • Aus den Gesprächen mit den Praxispartnern wurde deutlich, dass sie Sorge vor einer Veränderung der Machtverhältnisse innerhalb der jeweiligen Lieferkette, vor Datendiebstahl und vor dem Verlust geistigen Eigentums an Wettbewerber*innen haben. Außerdem fehlt zum Teil das Fachwissen innerhalb der Betriebe, die Produktionsdaten auszuwerten und Optimierungsmaßnahmen abzuleiten.
  • Die Literaturrecherche ergab, dass die bisher existierenden Konzepte und Architekturen nicht alle Anforderungen der KMU erfüllen. Zu diesen Anforderungen gehört vor allem, dass die Datensicherheit gegenüber Dritten und die Dateneigentumsinteressen gegenüber anderen Teilnehmern der Lieferkette ausreichend geschützt sind.
  • Aus der Prüfung bisheriger Konzepte ging hervor, dass sie den Bedürfnissen der Unternehmen nicht ausreichend gerecht werden. Daher definierten die Wissenschaftler*innen für sich den Anspruch, den Prototyp der Datenplattform so zu gestalten, dass er die Anforderungen erfüllt.
(Technische) Herausforderungen des Datenaustausches
Forschungsinteresse:
  • Wie können Datenbestände aus unterschiedlichen Datenquellen ausgetauscht werden?
Vorgehen:
  • Die Wissenschaftler*innen stellten fest, dass die Unternehmen der Lieferkette unterschiedliche Anwendungssysteme mit unterschiedlichen Datenmodellen nutzen, die miteinander kommunizieren sollen. Dazu zählen Enterprise Resource Planning Systeme (ERP) - Planungssysteme von der Auftragserteilung über den Produktionsauftrag bis hin zur Rechnungserstellung - sowie Manufacturing Execution Systeme (MES) - Systeme zur Feinplanung der Fertigung, z. B. der Produktionslinie und der Maschinenbelegung. Die unterschiedlichen Datenmodelle erschweren den Datenaustausch über die Plattform.
  • Daher entwickelten die Wissenschaftler*innen ein Konzept, das den Datenaustusch ermöglicht. Basierend auf diesem Konzept entwickelten die Wissenschaftler*innen einen Prototyp für den unternehmensübergreifenden Informationsaustausch. Um den Prototyp zu testen, verknüpften die Wissenschaftler*innen Daten von Verbundpartnern und assoziierten Partnern.
  • Zudem programmierten die Wissenschaftler*innen eine Webapplication zur Verknüpfung der Datenbestände und entwickelten eine Unterstützungssoftware zur Integration von Datenbeständen.
  • Darüber hinaus entwickelten die Wissenschaftler*innen Benutzeroberflächen für die Plattform und einfache Elemente wie ein Nutzerlogin oder das Backend für die Datenbank. In der Benutzeroberfläche werden auch die Beziehungen der Unternehmen entlang der Lieferkette visualisiert.
Ergebnisse/Erkenntnisse:
  • Das Konzept sieht wie folgt aus: Zunächst müssen die Unternehmen die Austauschschnittstelle definieren, d. h. die Daten für den Austausch aufbereiten. Daraufhin können sich über die Datenplattform miteinander verbinden. Auf der Plattform ist ein Modell der Lieferkette hinterlegt, wodurch die Beziehungen zwischen den Unternehmen abgebildet werden (Wer liefert was wann an wen?). Dadurch werden vor- und nachgelagerte Prozesse sichtbar. Die Unternehmen müssen keine sensiblen Daten wie z. B. Maschinendaten austauschen, sondern bereits bekannte Daten oder aus Rohdaten abgeleitete Informationen (z. B. Seriennummern oder Ergebnisse der Qualitätsanalyse). Die Serien- oder Chargennummern der ausgetauschten Waren werden verwendet, um die Datenelemente der Unternehmen zu verbinden. Sie dienen als Identifikatoren, um die Produkte innerhalb des unternehmensübergreifenden Workflows zu finden und zu verknüpfen.
  • Die Unterstützungssoftware hilft dabei, die Datenpunkte innerhalb eines Unternehmens zu identifizieren und sie in eine Datenbank zu überführen, die zwischen der eigentlichen Datenquelle und der Datenplattform des Zukunftslabors geschaltet ist. Die Software unterstützt die Unternehmen also dabei, die eigenen Datenbestände aus den einzelnen Silos zusammenzuführen.
  • Die Webapplication verknüpft die Datenquellen aller beteiligten Unternehmen entlang der Lieferkette. Über die Webapplication werden die realen Beziehungen der Unternehmen abgebildet, sodass die Verknüpfung der Beteiligten sichtbar wird. Damit werden die Unternehmen in die Lage versetzt, die Lieferkettenabhängigkeiten (Zulieferer/Kunde) mit den intern gelagerten Datenbeständen zu koppeln.
Datenauswertung mittels Federated Learning
Forschungsinteresse:
  • Wie können die Daten unternehmensübergreifend ausgetauscht werden, sodass das geistige Eigentum der Unternehmen geschützt wird?
Vorgehen:
  • Die Wissenschaftler*innen entwickelten eine Connector-Funktion, die als zentrale Schnittstelle fungiert, über die Datenplattformen und externe Dienste wie Sicherheitszertifikate oder User-Logins aggregiert werden. Die Daten selbst werden nicht auf der Plattform gespeichert, sondern verbleiben auf den Servern der Unternehmen und sind über den Connector analysierbar.
  • Um die Daten zu analysieren, entschieden sich die Wissenschaftler*innen für das Federated Learning. Dabei handelt es sich um eine Technik des Maschinellen Lernens. bei der nur Modelle und Parameter ausgetauscht werden, nicht die Daten selbst.
  • Gemeinsam mit einer Rechtsanwaltkanzlei evaluierten die Wissenschaftler*innen den technischen Schutz der Daten und diskutierten Optionen, die Datensouveränität weiter zu verbessern.
Ergebnisse/Erkenntnisse:
  • Das entwickelte Architekturmodell ermöglicht eine Datenanalyse, ohne dass sensible Daten offengelegt werden müssen und die Privatsphäre verletzt wird. Es schützt also die Datensouveränität der Unternehmen technisch, indem die Daten dezentral bleiben und nur Modelle aggregiert werden. Voraussetzung ist auch hier, dass die entsprechenden Sicherheits- und Datenschutzvorkehrungen eingestellt werden.
  • Eine Option, die Datensouveränität aus rechtlicher Sicht noch weiter zu stärken, besteh darin, die Plattform durch einen unabhängigen Dritten bereitstellen zu lassen. Der Vorteil besteht darin, dass eine unabhängige Partei keinen Nutzen aus dem Missbrauch der Plattform ziehen würde und somit das Risiko einer Manipulation oder Ausnutzung von möglichen, aktuell noch unbekannten Schwachstellen reduziert wird.
Minimal-Viable-Produkt (MVP)
Forschungsinteresse:
  • Sind die Funktionalität und Nutzbarkeit der Datenplattform anwendungsorientiert gestaltet?
Vorgehen:
  • Die Wissenschaftler*innen erstellten sie ein Minimal-Viable-Produkt (MVP), eine funktionsfähige Testversion der Datenplattform zur Evaluation der Erfüllung der IT Security-Anfoderungen. Das MVP diente zur Erprobung der Sicherheitsfeatures, zur Durchführung von Performance-Analysen und sicherheitskritischen Tests wie Penetrationstest.
Ergebnisse/Erkenntnisse:
  • Auf Grundlage des Feedbacks nahmen die Wissenschaftler*innen Anpassungen an der Plattform vor.
  • Ursprünglich verwendeten sie das Jade-Framework für die Verknüpfung der Analyse-Dienste. Die Tests zeigten, dass das Jade-Framework nicht mehr den aktuellen IT-Sicherheitsstandards entspricht. Deshalb wechselten die Wissenschaftler*innen auf das modernere Spring Boot Framework, das auf Microservices basiert. Das sind kleine, unabhängige Dienste, die über Schnittstellen miteinander kommunizieren. Durch den Wechsel zu Spring Boot und die Nutzung von Microservices konnte die Entwicklungszeit verkürzt, die Skalierbarkeit verbessert und die Markteinführungszeit neuer Funktionen reduziert werden. Für das finale MVP wurden letztendlich Container-basierte Services aus verschiedenen Software-Komponenten ausgewählt, um alle Funktionalitäten sicher und effizient zu realisieren.
Risiken durch Mensch und Technik
Forschungsinteresse:
  • Welche Risiken können hinsichtlich der Faktoren Mensch und Technik bei der Nutzung der Datenplattform entstehen?
Vorgehen:
  • Die Wissenschaftler*innen identifizierten Risiken, die durch Mensch und Technik entstehen können.
  • Aus den Risiken leiteten sie Handlungsempfehlungen für Unternehmen ab.
Ergebnisse/Erkenntnisse:
  • Zu den menschlich verursachten Risiken zählt, dass Mitarbeiter*innen Informationen an Unbefugte weitergeben und Daten falsch interpretieren, fälschen oder missbrauchen. Zudem können sich Hacker Zugang zum System verschaffen und mit falschen Anfragen Informationen über die Unternehmen gewinnen. Zu den technisch bedingten Risiken zählt, dass die Datenbanken miteinander verbunden und Datenströme zusammengeführt werden müssen. Das kann zu Datendiebstahl, Datenlecks, fehlerhaften Daten und fehlerhaften Schlussfolgerungen führen.
  • Unternehmen müssen sich der Risiken bewusst sein und entsprechende Maßnahmen ableiten. Dazu zählt, die Cybersicherheit zu verbessern, die Produktionsumgebung abzusichern und Zugriffsrechte für Mitarbeiter*innen festzulegen. Zudem sollte der Shopfloor – also der Maschinenpark – vom restlichen Firmennetz getrennt werden. Die Daten dieser Anlagen sollten zur Sicherheit nur über ein sicheres Verbindungsgerät in die Datenplattform eingebracht werden.
Demonstrators zur Darstellung der Lieferkette
Forschungsinteresse:
  • Wie kann die Vernetzung der Produktion anschaulich dargestellt werden?
Vorgehen:
  • Die Wissenschaftler*innen arbeiten an einem Demonstrator, der die Vernetzung der Lieferkette abbildet.
  • Auf einer transportierbaren Holzplatte wird eine Miniaturfabrik dargestellt, die eine CNC-Fräse enthält. Über eine Eisenbahn wird ein Holzstück in die Fabrik geliefert, das dort graviert wird. Die Eisenbahn erfasst dabei Daten zur Auslastung und Geschwindigkeit. Ein Scanner digitalisiert die Kontaktinformationen einer haptischen Visitenkarte, die in eine virtuelle Visitenkarte umgewandelt und auf einen Chip im Holzstück übertragen wird. Diese Daten können anschließend über ein Lesegerät ausgelesen werden, ähnlich wie bei einer Bankkarte.
Ergebnisse/Erkenntnisse:
  • Der Demonstrator stellt verschiedene Prozessschritte dar, wie z. B. Transport, Verarbeitung und Datenerfassung. Er veranschaulicht auf einfache Weise eine Lieferkette, an der mehrere Unternehmen beteiligt sind.
  • Der Demonstrator kann kontinuierlich erweitert werden, um weitere Forschungsergebnisse zu veranschaulichen
  • Der Demonstrator kann auf Messen und Veranstaltungen eingesetzt werden, um Interessent*innen einen anschaulichen Einblick in die Forschung zu geben.
Zukunftslabor
Wasser
Sprecher*innen-Einrichtung
Carl von Ossietzky Universität Oldenburg
9 geförderte Einrichtungen
4 Teilprojekte
17 assoziierte Partner
01.10.2022 - 30.09.2027
kostbare Ressourcen managen
Wasser ist die Grundlage des Lebens und deshalb als wertvolle Ressource zu schützen. Um bei zunehmend stärkeren Dürren die Verteilung des Wassers zu garantieren und Extremsituationen wie Überflutungen effizient zu begegnen, sind innovative und nachhaltige Lösungen erforderlich - dafür ist Digitalisierung unerlässlich. Sie ermöglicht einen konsequent digitalen Datenfluss aller erforderlicher Daten. Moderne Methoden der Künstlichen Intelligenz und der Data Science bieten die Möglichkeit, Daten automatisiert auszuwerten, miteinander zu verknüpfen. Dadurch können unbekannte Zusammenhänge und mögliche frühzeitig erkannt werden. Weiterhin ermöglicht ein digitales Abbild der Realität die Simulation von Prozessen, um mögliche Risiken in ihrer Auswirkung zu quantifizieren und damit mögliche Gegenmaßnahmen rechtzeitig in die Wege zu leiten. Über intelligente Visualisierungen können relevante Daten und Informationen so für Entscheider*innen und auch Bürger*innen aufbereitet werden, sodass eine stärkere Akzeptanz und Interaktion erreicht wird.
Zentrale Aspekte des Zukunftslabors Wasser sind der Einsatz intelligenter Systeme und neuer digitaler Methoden im Wassermanagement im Hinblick auf die Versorgungs- und Qualitätssicherheit der Ressource Wasser. Hierzu zählen die Anwendungen von Machine Learning und Big Data Analytics im Bereich der Wasserwirtschaft, der Ausbau integrierter Sensorik und digital vernetzter Systeme für eine gesicherte, effektive Datenerfassung und die Möglichkeit der Verbesserung von Interoperabilität und Standardisierung sowie Optimierungsansätze aus modellbasierten Analysen.
Teilprojekte
in Arbeit
Analyse der Bedarfe und Strukturen von Wassermanagement bezüglich Daten und Digitalisierung sowie Konzeptentwicklung mittels eines Co-Designs
Zusammenarbeit mit Praxispartnern ermittelt das Zukunftslabor, wo im Wassersektor Digitalisierung benötigt wird und wie das Wassermanagement angepasst werden müsste, um ebendiese umzusetzen. In einer Vorstudie ermitteln die Wissenschaftler*innen zunächst Zuständigkeiten, Managementstrukturen und Stakeholder des Wassermanagements auf Landesebene und auf Landkreisebene. In weiterführenden Interviews werden die Bedarfe und Ansprüche der verschiedenen Stakeholder an die Digitalisierung des Wassersektors erfasst. Die Ergebnisse sollen aufzeigen, wie die Digitalisierung bestmöglich zur Verbesserung des Wassermanagements beitragen kann. Darauf aufbauend entwickeln die Wissenschaftler*innen ein Konzept, welches mit Schlüsselakteuren teilweise umgesetzt werden soll.
in Arbeit
Wasserver- und -entsorgung sowie nachhaltiges Wassermanagement
In diesem Arbeitspaket geht es um intelligente Lösungen für die Wasserwirtschaft bei Herausforderungen wie dem Klimawandel. Um ein ausreichendes Wasserangebot abzusichern, erstellen die Wissenschaftler*innen digitale Zwillinge von Wasserkreisläufen und nutzen Sensordaten, um Daten zu Extremereignissen zu erzeugen, die dann zum Training von KI Modellen genutzt werden können. Außerdem beschäftigen sich die Wissenschaftler*innen mit Möglichkeiten, den Wasser- und Energieverbrauch digital zu erfassen und auszuwerten und entwickeln ein Prognosetool zur Risikoabschätzung des Schadstoffgehalts in städtischen Gewässern. Darüber hinaus beschäftigen sich die Wissenschaftler*innen mit digitalen Möglichkeiten, den Wasser- und Energieverbrauch z. B. in der Feldbewässerung digital zu erfassen und auszuwerten. Um Verbrauchsdaten nicht analog erfassen zu müssen arbeiten die Wissenschaftler*innen an einer App, über die Verbrauchsdaten erfasst und ausgewertet werden können.
in Arbeit
Be- und Entwässerung, Natur- und Wasserschutz“ Extremereignisse, Naturgefahren und Klimawandel
Bei diesem Arbeitspaket geht es darum, das Wassermanagement zu digitalisieren und intelligent zu steuern. Dafür werden Sensorik und Simulationswerkzeuge entwickelt, um einen ganzheitlichen Ansatz bezüglich der Vorhersagen von Wassermengen und ihre Güte zu ermöglichen. Diese Simulationswerkzeuge müssen einen automatisierten, direkten und umfassenden Zugriff auf alle notwendigen Geodaten und Randbedingungen haben, damit sie Prognosen treffen können. Eingesetzt werden diese dann in der Landwirtschaft und bei Extremereignissen, sowohl an Land als auch an der Küste. Für die Erfassung der Informationen werden sowohl bildgebende Sensoren, als auch Bild- und Videodaten von Bürgerwissenschaftler*innen genutzt. Die Bild- und Videodaten werden im Rahmen eines Citizen-Science-Projekt von Bürger*innen erfasst, über öffentliche Kanäle geteilt und mit offiziellen Daten verglichen.
Des Weiteren entwickeln die Wissenschaftler*innen einen Algorithmus, der die durch Satelliten und Drohnen erhobenen Daten von Fließgewässern auswertet, um ein intelligentes Fließgewässer- und Vorlandmanagement zu ermöglichen.
in Arbeit
Extremereignisse, Naturgefahren und Klimawandel
Digitale Technologien spielen eine entscheidende Rolle bei der Früherkennung und Vorhersage von Extremereignissen und Naturgefahren, wie beispielsweise Dürren und Überschwemmungen. Die Wissenschaftler*innen des Projekts untersuchen vernetzte Sensorsysteme und neuartige Datenquelle, wie Social-Media-Beiträge, um Prognosen und Smart Services zu verbessern. KI-Algorithmen analysieren diese Daten und helfen dabei Frühwarnsysteme mithilfe von Nowcasting zu entwickeln, insbesondere für Starkregenereignisse in Städten. Zudem arbeiten sie an Verfahren zu Reduzierung von Unsicherheiten in Wettermodellen und entwickeln Methoden zur effektiven Überwachung und Steuerung von Wasserressourcen und kritischer Infrastruktur.
Teilprojekt
Analyse der Bedarfe und Strukturen von Wassermanagement bezüglich Daten und Digitalisierung sowie Konzeptentwicklung mittels eines Co-Designs
Status: in Arbeit
Zusammenarbeit mit Praxispartnern ermittelt das Zukunftslabor, wo im Wassersektor Digitalisierung benötigt wird und wie das Wassermanagement angepasst werden müsste, um ebendiese umzusetzen. In einer Vorstudie ermitteln die Wissenschaftler*innen zunächst Zuständigkeiten, Managementstrukturen und Stakeholder des Wassermanagements auf Landesebene und auf Landkreisebene. In weiterführenden Interviews werden die Bedarfe und Ansprüche der verschiedenen Stakeholder an die Digitalisierung des Wassersektors erfasst. Die Ergebnisse sollen aufzeigen, wie die Digitalisierung bestmöglich zur Verbesserung des Wassermanagements beitragen kann. Darauf aufbauend entwickeln die Wissenschaftler*innen ein Konzept, welches mit Schlüsselakteuren teilweise umgesetzt werden soll.
Ansprechperson
Prof. Dr. Claudia Pahl-Wostl
Universität Osnabrück
Institut für Geographie
Diverse Veranstaltungen mit den Praxispartnern in der Region Osnabrück
Vorstellung der Forschung auf der ECPR (European Consortium for Political Research) Konferenz 2025
Teilnahme am Praxisaustauschtreffen des ZLW
Interviews mit Stakeholdern aus dem niedersächsischen Wassersektor
Forschungsinteresse:
  • In welchen Bereichen des Wassermanagements wird Digitalisierung benötigt?
  • Wie müssen bestehende Prozesse und Strukturen angepasst werden, um die Digitalisierung sinnvoll zu nutzen?
Vorgehen:
  • Die Wissenschaftlerinnen führten Interviews mit 15 Stakeholdern aus verschiedenen Bereichen durch, darunter Landes- und Fachbehörden, Verbände, kommunale Akteure sowie Vertreter der Land- und Forstwirtschaft.
  • Die Interviews basierten auf dem Adaptiven Managementzyklus, der auf kontinuierliche Evaluierung und Anpassung von Maßnahmen abzielt. Anhand des Zyklus erfragten die Wissenschaftlerinnen, wie die Stakeholder Daten und Digitalisierung in den verschiedenen Phasen des Wassermanagements bereits nutzen, welche strategischen Ziele sie verfolgen, welche Maßnahmen geplant oder umgesetzt wurden und welche Herausforderungen bestehen.
Ergebnisse/Erkenntnisse:
  • Erste Auswertungen der Interviews zeigten, dass die Stakeholder bereits einzelne Aspekte des Adaptiven Managements umsetzen und digitale Anwendungen nutzen, aber der systematische Lernprozess und organisationsübergreifende Wissensaustausch fehlen. Während einige Organisationen strukturierte Digitalisierungsstrategien haben, entwickeln andere Lösungen ad hoc. Herausforderungen bestehen auch im Umgang mit Datenschutz und Künstlicher Intelligenz. Zudem stellte sich heraus, dass Rahmenbedingungen, wie Gesetze und Förderrichtlinien, die Digitalisierung im Wassersektor beeinflussen. Des Weiteren müssen Stakeholder Unsicherheiten in Umwelt, Technologie und Gesellschaft berücksichtigen, z. B. bei der Wassermengenentnahme. Darüber hinaus wurde in den Interviews deutlich, dass sich die Stakeholder mehr Transparenz über Datenerhebungen im Wassermanagement wünschen, um doppelte Datenerhebungen zu vermeiden. Daraufhin erstellen die Wissenschaftlerinnen eine Liste mit Internetportalen, die nützliche Informationen zum digitalen Wasser- und Umweltmanagement bereitstellen. Dazu gehören z. B. Online-Kartenserver oder Online-Wetterdienste, die ihre Angebote größtenteils im Sinne der Open Science öffentlich zugänglich machen.
Status Quo der Digitalisierung im Niedersächsischen Wassersektor
Forschungsinteresse:
  • Ausdifferenzieren welche Intensitäten/Stadien von Digitalisierung derzeit im Niedersächsischen Wassersektor vorkommen und welche Akteure welche Form von Digitalisierung anwenden
  • Übersicht erlangen wie weit Digitalisierung bereits vorangeschritten ist und welchen Herausforderungen der Einsatz von Digitalisierung gegenübersteht
  • Unterschiede in der Ausgestaltung und Nutzung von Digitalisierung identifizieren, um Nutzungsbedarf digitaler Anwendungen und Weiterbildungen zu kennen
  • Institutionelle Rahmenbedingungen analysieren, um zu verstehen welchen Einfluss deren Gestaltung auf die Möglichkeiten zur Implementierung von Digitalisierung hat
Vorgehen:
  • Strukturierte Inhaltsanalyse der Experteninterviews
  • Auswertung des aktuellen Forschungsstands
Beitrag der Digitalisierung für ein adaptives Wassermanagement
Forschungsinteresse:
  • Herausfinden auf welche Weise Digitalisierung zu adaptivem Wassermanagement beitragen kann
  • Aufzeigen in welchen Phasen des Wassermanagementzyklus Digitalisierung bereits erfolgreich unterstützt und in welchen Phasen sie perspektivisch von Nutzen sein könnte
  • Verstehen was sich verändern muss, um Digitalisierung (besser) einsetzen zu können im Wassermanagement
Vorgehen:
  • Strukturierte Inhaltsanalyse der Experteninterviews
  • Auswertung des aktuellen Forschungsstands
Potenziale von adaptivem Wassermanagement unter Berücksichtigung multipler Unsicherheiten (Dissertation Malin Delfs)
Forschungsinteresse:
  • Übersicht erlangen, inwiefern Prinzipien des adaptiven Managements bereits in Wassermanagementkonzepten und -strategien verankert sind
  • Verstehen, wie die Zusammenarbeit zwischen Akteuren im Wassermanagement auf regionaler Ebene derzeit erfolgt, sowie wie diese verbessert werden kann, um strategisch Lernprozesse hervorzubringen bzw. zu stärken
  • Nachzeichnen wie aus neuen Informationen und neuem Wissen veränderte Wassermanagementpraktiken entstehen.
Vorgehen:
  • Strukturierte Inhaltsanalyse der Experteninterviews
  • Qualitative Inhaltsanalyse ausgewählter Wassermanagementstrategien und -konzepte
  • Soziale Netzwerkanalyse
  • Auswertung des aktuellen Forschungsstands
Teilprojekt
Wasserver- und -entsorgung sowie nachhaltiges Wassermanagement
Status: in Arbeit
In diesem Arbeitspaket geht es um intelligente Lösungen für die Wasserwirtschaft bei Herausforderungen wie dem Klimawandel. Um ein ausreichendes Wasserangebot abzusichern, erstellen die Wissenschaftler*innen digitale Zwillinge von Wasserkreisläufen und nutzen Sensordaten, um Daten zu Extremereignissen zu erzeugen, die dann zum Training von KI Modellen genutzt werden können. Außerdem beschäftigen sich die Wissenschaftler*innen mit Möglichkeiten, den Wasser- und Energieverbrauch digital zu erfassen und auszuwerten und entwickeln ein Prognosetool zur Risikoabschätzung des Schadstoffgehalts in städtischen Gewässern. Darüber hinaus beschäftigen sich die Wissenschaftler*innen mit digitalen Möglichkeiten, den Wasser- und Energieverbrauch z. B. in der Feldbewässerung digital zu erfassen und auszuwerten. Um Verbrauchsdaten nicht analog erfassen zu müssen arbeiten die Wissenschaftler*innen an einer App, über die Verbrauchsdaten erfasst und ausgewertet werden können.
Ansprechperson
Prof. Dr.-Ing. Klaus Röttcher
Ostfalia Hochschule für angewandte Wissenschaften
Hochschule Braunschweig/Wolfenbüttel
Ein deutschlandweites, KI-gestütztes Hochwasservorhersagesystem könnte durch die Nutzung von Radar-Niederschlagsdaten die Resilienz gegenüber extremen Klimaschwankungen steigern.
KI-basierte Apps für die Landwirtschaft ermöglichen präzisere Wassernutzung und bieten personalisierte Handlungsempfehlungen zur effizienten Bewässerung.
Ein digitales, KI-gesteuertes Wasserbilanzen- und Managementsystem für Städte unterstützt die nachhaltige Wassernutzung und stärkt die Klimaresilienz urbaner Räume.
ResiWa (TP 2.1)
Forschungsinteresse:
  • Benchmark zur Bewertung der auf maschinellem Lernen basierenden Hochwasservorhersage für seltene, extreme Ereignisse, die bekannte Maxima überschreiten.
Ergebnisse/Erkenntnisse (2024):
Forschungsinteresse:
  • Wie können wir Wasserstände nur anhand von RADAR-Niederschlagsdaten für die Hochwasservorhersage vorhersagen?
  • Wie können wir ein generalisiertes Modell mit KI entwickeln, das geografische und klimatische Variabilität erlernt und in der Lage ist, Hochwasser mit größerer Genauigkeit vorherzusagen?
Vorgehen:
  • Mit fortschrittlichen Techniken der künstlichen Intelligenz und des maschinellen Lernens ist es möglich, Wasserstände mit frei verfügbaren Radar-Niederschlagsdaten vorherzusagen.
  • Das Ziel dieses Projekts ist es, genaue Hochwasservorhersagen zu treffen, ohne auf bodengestützte Sensordaten angewiesen zu sein, die in einigen Regionen spärlich oder gar nicht vorhanden sein könnten.
  • Das Foundation Model wird die komplexen räumlichen und zeitlichen Muster der RADAR-Daten mithilfe des bestehenden raumzeitlichen, radarbasierten Niederschlagsmodells erfassen.
  • Die Ausweitung des bestehenden raumzeitlichen, radarbasierten Niederschlagsmodells (das zuvor für eine kleinere Region wie Goslar entwickelt wurde) auf ganz Deutschland ist ein natürlicher Fortschritt hin zu einem robusteren, skalierbaren und generalisierbaren Hochwasservorhersagesystem.
  • Transferlernen wird für die Generalisierung genutzt, wobei das Basismodell auf dichten Sensornetzwerken (z. B. in Niedersachsen) trainiert und dann für Regionen mit spärlichen oder fehlenden Sensordaten verfeinert wird.
  • Föderiertes Lernen wird für das Training regionaler Modelle auf spezifischen Daten eingesetzt, um das globale Modell mit regionalen Daten zu verfeinern und bessere lokale Vorhersagen zu erhalten.
  • Dieses Foundation Model hat das Potenzial, die Katastrophenvorsorge erheblich zu verbessern und langfristig zur Widerstandsfähigkeit gegenüber Klimaschwankungen beizutragen.
Ergebnisse/Erkenntnisse (2024):
  • Raumzeitliche, radarbasierte Niederschlagsmodellierung zur Hochwasservorhersage in Goslar
  • Dieses Modell hat die Fähigkeit gezeigt, Hochwasser nur anhand von RADAR-Niederschlagsbildern vorherzusagen und Wasserstandsvorhersagen für die Region Sennhütte in Goslar zu generieren.
  • Dieses Modell stellt eine Verbesserung gegenüber unserem bestehenden Benchmark dar: https://www.researchgate.net/publication/372397934
Dirrigent (TP 2.2)
Forschungsinteresse:
  • Entwicklung einer KI zum Auslesen von Wasseruhren in der Landwirtschaft
  • Entwicklung einer Mobile App
  • Entwicklung Anbindung an eine Datenplattform
Ergebnisse/Erkenntnisse (2024):
  • Umfangreiche Anforderungsanalysen mit verschiedenen Wasserverbänden
  • Anforderungsanalyse der Landwirte angeguckt
  • Beschaffung von Beispielbildern zum Training der KI
Thema: Prognosetool zur Risikoabschätzung urbaner Schadstoffeinträge in Gewässer (TP 2.3 PriuS)
Forschungsinteresse:
  • Wie groß ist der Schadstoffeintrag aus dem urbanen Raum ins Gewässer und aus welchen Quellen kommen die Schadstoffe?
  • Überlagerung der Einträge mit dem Wasserstand und der Belastung des Gewässers, um auf Basis eines vorhergesagten Niederschlags die zukünftige Gewässerbelastung zu ermitteln.
  • Anwendung von Open Source Software und entwickeln von Pre-processing Tools
Vorgehen:
  • Probennahme im Kanalnetz, in landwirtschaftlichen Gräben und der Vorflut und Analyse der Proben im Labor, um Verschmutzungen zu ermitteln
  • Erstellen eines hydrodynamischen Kanalnetzmodells und Kalibrierung mit den Messungen
  • Generierung von synthetischen Datensätzen für unterschiedliche Ereignisse mittels des hydrodynamischen Kanalnetzmodells
  • Konzeption und Training eines ML-Modells mittels der synthetischen Datensätze
  • Optional in Kooperation mit anderen Partnern: Implementierung und Darstellung des Systems innerhalb eines Digitalen Zwillings
Ergebnisse/Erkenntnisse (2024):
  • Erste Ergebnisse weißen auf unterschiedliche mikrobiologische Indikatoren in den unterschiedlichen Landnutzung hin
  • Erste Algorithmen auf Basis von Open Source Software (QGIS/SWMM) zum Einlesen und Korrigieren von Kanalnetzdaten für die spätere hydrodynamische Simulation wurden und werden entwickelt.
Künstliche Intelligenz zur Erfassung des Wasserverbrauchs
Forschungsinteresse:
  • Wie kann die Übermittlung des Wasserverbrauchs in der Landwirtschaft optimiert werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickeln eine auf Künstlicher Intelligenz (KI) basierende App, die die Ermittlung des Wasserverbrauchs erleichtert.
Ergebnisse/Erkenntnisse:
  • Die Landwirte laden Fotos ihrer Wasseruhren zu Beginn und zum Ende der Bewässerungssaison in die App. Künstliche Intelligenz (KI) wertet die Zählerstände aus und übermittelt die Daten an eine zentrale Plattform, die den Wasserverbrauch berechnet und an die Untere Wasserbehörde weiterleitet.
  • Für die Entwicklung der KI nutzen die Wissenschaftler*innen reale Fotos von Wasseruhren. Die große Herausforderung besteht in der Unterschiedlichkeit der Wasseruhren und Fotoqualitäten. Zur Absicherung gibt es eine Kontrollfunktion, die es den Landwirt*innen ermöglicht, die ausgelesenen Daten zu prüfen.
  • Eine wichtige Erkenntnis ist, dass den Landwirt*innen der Schutz ihrer Daten sehr wichtig ist. Außerdem ist eine frühzeitige Einbindung der Landwirt*innen entscheidend für die Akzeptanz von Digitalisierungslösungen.
Prognosen des Wasserverbrauchs
Forschungsinteresse:
  • Wie können zuverlässige Prognosen des Wasserverbrauchs getroffen werden?
  • Welche Handlungsempfehlungen lassen sich aus dem Wasserverbrauch ableiten?
Vorgehen:
  • Für die Prognosen und Handlungsempfehlungen kommt ebenfalls die oben genannte App ins Spiel: Der Wasserverbrauch wird über die App an die Datenplattform übermittelt. Diese enthält Informationen zum Feld (z. B. Größe, Bodenart, angepflanzte Kultur) sowie zum Klima. Zusätzlich können die Landwirte am Ende der Saison den Ertrag dieser Fläche eingeben. Aus den Informationen lässt sich ermitteln, wie viel Wasser für die angepflanzte Kultur verwendet wurde und ob den Landwirten im nächsten Jahr voraussichtlich mit ihrem Wasserkontingent auskommen werden.
  • Um die Prognosen der KI so praxisnah wie möglich zu gestalten, recherchierten die Wissenschaftler*innen zahlreiche Faktoren, die sich auf die Prognosen auswirken. Dazu zählen u. a. der Energieverbrauch für die Bewässerung, unterschiedliche Arten der Bewässerung in Abhängigkeit von der Feldform (verwinkelte Flächen sind schwieriger zu bewässern als quadratische) oder Informationen zum Wasserbedarf verschiedener Kulturen. Für die Recherchen sprachen die Wissenschaftler*innen mit Landwirt*innen, um Informationen aus erster Hand zu erhalten, sowie mit weiteren Expert*innen (z. B. Landwirtschaftskammer oder Firmen im Bewässerungssektor).
Ergebnisse/Erkenntnisse (2024):
  • Das Ziel der Wissenschaftler*innen ist es, dass die KI den Landwirt*innen konkrete Handlungsempfehlungen vorschlägt und Prognosen für die laufende Saison, aber auch für zukünftige Jahre abgibt. Wenn z. B. das Wasserkontingent überschritten wurde und der Ertrag die Beregnungs- und Energiekosten nicht deckt, könnte es für die Landwirt*innen effizienter sein, eine andere Kultur anzubauen, die weniger Wasser benötigt und trotzdem einen guten Ertrag einbringt.
  • Aus den Gesprächen mit den Landwirten und Experten wurden deutlich, welche Möglichkeiten es gibt, die Bewässerung effizienter zu steuern. Dazu zählen der Anbau von Kulturen mit wenig Wasserverbrauch, die Bewässerung zu Tageszeiten mit der geringsten Verdunstung sowie effiziente Bewässerungsmethoden ohne Streuverluste, also ohne, dass Flächenanteile doppelt bewässert werden.
Ermittlung der erforderlichen Wassermenge
Forschungsinteresse:
  • Wie kann die Wassermenge für den Wasserhaushalt des Bodens und der Pflanzen effizient ermittelt werden?
Vorgehen:
  • Die Wissenschaftler*innen nutzen die Datenplattform, an die die App den Wasserverbrauch übermittelt, zur Auswertung der erforderlichen Wassermenge. Die Plattform kann mit weiteren Daten aus verschiedenen Forschungsprojekten angereichert werden, z. B. mit Daten aus Bodenfeuchtesensoren oder von Drohnen mit einer Multispektralkamera.
  • Die Plattform berechnet auf Basis der gesammelten Daten die benötigte Wassermenge für den Pflanzenanbau und kann mit Beregnungsmaschinen verknüpft werden, um die Bewässerung automatisch zu steuern.
Ergebnisse/Erkenntnisse (2024):
  • Die Plattform kann nicht nur den Wasserverbrauch überwachen und Prognosen für die Landwirtschaft erstellen, sondern auch bedarfsgerechte Bewässerungsmengen ermitteln.
Digital gesteuerte Niederschlagsnutzung in Städten - DIGNIS (TP 2.4)
Forschungsinteresse:
  • Erstellung lokal und saisonal differenzierter Wasserbilanzen auf Basis vorhandener und zukünftiger digitalen städtischen Systemdaten (Regen, GW-Stände, Temperatur, Wind, Abflussdaten...)
  • Bereitstellung und Nutzung von Prognosedaten für Szenarienanalyse in der Quartiersplanung und Bewirtschaftung (Schwerpunkt BGI - blaugrüne Infrastruktur und Erzeugung lokale Wasserbedarfsprognosen und Entwicklung von bedarfs- und verfügbarkeitsgesteuerten Verteilungssystemen)
  • Bestimmung der Niederschlagsverfügbarkeit auf Basis von Algorithmen- und modellbasierten Prognosen zur Niederschlagsqualität
  • Zur weiteren Analyse wird aktuell das Wasserbilanzmodell RoGeR_WBM_urban angewandt. Im nächsten Schritt soll KI und maschinelles Lernen Prognosen für die zukünftige Niederschlagsverteilung und in dem Zusammenhang auch Evapotranspiration und Grundwasserstände liefern. Dabei soll besonderer Fokus auf die Trockenzeiten und Niederschlagscharakteristika genommen werden, um auf die Weise gezielter Prognosen durchzuführen, die speziell darauf abgestimmt sind, die lokalen Niederschläge und Trockenzeiten abzubilden. Diese können dann in einem Wasserbilanzmodell implementiert werden und so konkretes Wasserdargebot und Bedarfe räumlich differenziert abbilden.
Vorgehen:
  • Untersuchung zum Einflusses des Betrachtungszeitraums bei der Zeitreihenanalyse für die Berechnung von auslegungsrelevanten Jährlichkeiten/Wiederkehrintervallen im Bereich Regen und Überstau (Am Beispiel Hannover wurden Vorarbeiten zur Charakterisierung des Niederschlags durchgeführt, sodass nun eine Kategorisierung der Ereignisse nach Niederschlag und Trockenzeiten vorliegt, sowie charakteristische Eigenschaften von Niederschlag in Hannover (Saisonalität, Maximale Niederschläge, charakteristische Verläufe von Regenereignissen, etc.). Außerdem wurde die Auswahl der Eingangsdaten für Prognosen und Bemessungsgrößen untersucht: Um Auswirkungen des Klimawandels besser zu erfassen, scheint es sinnvoll nur Daten der letzten 20 Jahre in Prognosen miteinzubeziehen, da diese die dynamischen Einflüsse des Klimawandels deutlicher abbilden können.
  • Aufbau eines Trainingsdatensets zur Vorhersage von veränderten kf-Werten auf Basis von Regendaten und Grundwasserständen
  • Ansätze zur Implementierung von Bodenprofilen zur lokal fein differenzierten Anpassung der Versickerungskennwerte
  • Ansätze zur Implementierung von temporären Wasserflächen in die Aufstellung des lokalen Wasserhaushalts im Rahmen der Klimamodellierung
  • Vorhersagegenauigkeit von Prognosedaten - Ansätze einer automatischen Validierung
Teilprojekt
Be- und Entwässerung, Natur- und Wasserschutz“ Extremereignisse, Naturgefahren und Klimawandel
Status: in Arbeit
Bei diesem Arbeitspaket geht es darum, das Wassermanagement zu digitalisieren und intelligent zu steuern. Dafür werden Sensorik und Simulationswerkzeuge entwickelt, um einen ganzheitlichen Ansatz bezüglich der Vorhersagen von Wassermengen und ihre Güte zu ermöglichen. Diese Simulationswerkzeuge müssen einen automatisierten, direkten und umfassenden Zugriff auf alle notwendigen Geodaten und Randbedingungen haben, damit sie Prognosen treffen können. Eingesetzt werden diese dann in der Landwirtschaft und bei Extremereignissen, sowohl an Land als auch an der Küste. Für die Erfassung der Informationen werden sowohl bildgebende Sensoren, als auch Bild- und Videodaten von Bürgerwissenschaftler*innen genutzt. Die Bild- und Videodaten werden im Rahmen eines Citizen-Science-Projekt von Bürger*innen erfasst, über öffentliche Kanäle geteilt und mit offiziellen Daten verglichen.
Des Weiteren entwickeln die Wissenschaftler*innen einen Algorithmus, der die durch Satelliten und Drohnen erhobenen Daten von Fließgewässern auswertet, um ein intelligentes Fließgewässer- und Vorlandmanagement zu ermöglichen.
Ansprechperson
Prof. Dr.-Ing. Kai Schröter
Technische Universität Braunschweig
Citizen Science und KI-Integration: Bürger*innen tragen durch Fotodokumentation aktiv zur Forschung bei, während KI-gestützte Plattformen diese Daten nutzen, um den Zustand von Flüssen zu überwachen und präzise Umweltauswertungen zu ermöglichen.
Adaptives Wassermanagement und nachhaltige Entwässerung: Durch datenbasierte Simulationen und innovative Entwässerungsmodelle wird eine adaptive Steuerung ermöglicht, die komplexe Küsten- und Flusseinzugsgebiete effizienter und nachhaltiger macht.
Digitale Tools zur Umweltanalyse und Visualisierung: Fortschrittliche Technologien wie KI-gestützte Bildverarbeitung und immersive Visualisierung liefern wertvolle Erkenntnisse über die Dynamiken von Wasser- und Salzströmen in verschiedenen Umgebungen und fördern die Entwicklung interaktiver, praxisnaher Datenplattformen.
Zustand von Fließgewässern ermitteln
Forschungsinteresse:
  • Wie kann der Zustand von Fließgewässern effizient ermittelt werden?
Vorgehen:
  • Die Wissenschaftler*innen nutzen Künstliche Intelligenz (KI), um Fotos von Flüssen auszuwerten. Das exemplarische Untersuchungsgebiet ist der Fluss Leine im Umland der Stadt Hannover.
  • Zunächst muss die KI die Wasserfläche auf dem Bild erkennen. Sie muss das Wasser von der restlichen Umgebung unterscheiden. Die Herausforderung besteht darin, dass Wasser auf Bildern sehr unterschiedlich aussehen kann (z. B. durch Farbe, Schaum, Spiegelungen) und die KI trotzdem die entsprechenden Flächen identifizieren muss. Für das Training des Algorithmus kennzeichneten sie manuell die Wasserflächen in 700 Bildern und stellten diese dem Algorithmus zur Verfügung, damit er Schlussfolgerungen darüber ziehen konnte, was als Wasserfläche gilt und was nicht.
  • Daraufhin ist es erforderlich, den Wasserstand zu ermitteln. Dafür nutzen die Wissenschaftler*innen feste Referenzpunkte wie z. B. Brücken oder bekannte Höhenmarkierungen. Die mittels KI erkannten Wasserflächen müssen dann mit dem Referenzpunkt kombiniert werden, um den Wasserstand abzuleiten.
Ergebnisse/Erkenntnisse:
  • Die Wissenschaftler*innen trainierten insgesamt sechs Algorithmen, darunter auch den SAM-Algorithmus von Meta AI mit zusätzlichen Daten, um deren Parameter und Genauigkeit zu optimieren.
  • Außerdem entwickelten die Wissenschaftler*innen den SAM-Algorithmus weiter, der dadurch zum präzisesten Algorithmus für die Segmentierung von Bildern wurde.
Datenplattform für Citizen-Science-Projekte
Forschungsinteresse:
  • Wie können Bürger*innen dazu beitragen, den Zustand von Flüssen zu überwachen und zu analysieren?
Vorgehen:
  • Die Wissenschaftler*innen installieren Smartphone-Halterungen an Flussabschnitten, an denen Bürger*innen ihr Smartphone platzieren können, um Fotos vom Fluss zu machen. Die Daten werden in eine Plattform hochgeladen.
  • Die Wissenschaftler*innen verwalten diese Plattform und reichern sie zusätzlich mit Daten aus weiteren Quellen an. Die Daten können mittels KI ausgewertet werden, um den Zustand des Flusses zu beobachten und zu analysieren.
Ergebnisse/Erkenntnisse:
  • Die Fotos der Bürger*innen liefern wertvolle Informationen über den Zustand des Flusses. Diese können die Wissenschaftler*innen auswerten.
  • Die Bürger*innen erhalten im Gegenzug Informationen über das Forschungsprojekt das Ökosystem des Flusses und können aktiv zur Forschung beitragen.
Adaptives Entwässerungsmanagement in Küstenregionen (INWAS TP 3.1)
Forschungsinteresse:
  • Wie können küstennahe Entwässerungssysteme adaptiv und nachhaltig gesteuert werden?
Vorgehen:
  • Die Wissenschaftler nutzen datenbasierte KI-Ansätze, um hydrologische Simulationen für komplexe Niederungsgebiete zu generieren. Das exemplarische Untersuchungsgebiet ist das Einzugsgebiet des 1. Entwässerungsverband Emden (Knock).
  • Es werden Methoden entwickelt, um den Einfluss der Entwässerungsaktivitäten auf das Gesamtsystem zu verstehen und zu quantifizieren.
  • Darauf aufbauend werden Empfehlungen für eine adaptive Steuerung des Entwässerungssystems unter Berücksichtigung wasser- und energiewirtschaftlicher Randbedingungen erarbeitet.
Ergebnisse/Erkenntnisse (2024):
  • Die Wissenschaftler trainieren LSTM-Modelle (Long Short-Term Memory) auf Basis vorhandener Prozessdaten und hydrometeorologischer Beobachtungen zur Vorhersage von Wasserständen im Entwässerungsgebiet sowie Entwässerungszeiträumen und -volumina mit ersten vielversprechenden Ergebnissen.
Föderales Lernen für bildgestützte optische Systeme im Wassermanagement - FLoW (TP 3.2)
Forschungsinteresse:
  • Detektion von Musterveränderungen in Umweltdaten, die sowohl langfristige als auch vorübergehende Veränderungen und Ausreißer beinhaltet
Vorgehen:
  • Um die Anwendung der Detektionsmethoden evaluieren zu können, muss zunächst ein Evaluationsansatz für eine spezifische Ausprägung der Musterveränderungen entwickelt werden. Dabei handelt es sich um inkrementellen oder graduellen Concept/Data Drift, also eine sich langsam anbahnende aber langfristig anhaltende Veränderung der beobachteten Daten. Eine Publikation hierzu ist in Arbeit und fast abgeschlossen.
  • Identifikation von Arbeitspaketen im ZLW, die von der Anwendung unserer Detektionsmethoden profitieren können. Etwa AP3.2, AP4.4 oder AP4.6.
  • Mit AP4.4 ist zeitnah eine Abstimmung über Datenformate geplant, um unsere Methoden zur Erkennung von Messfehlern in Sensordaten des Projektpartners zu trainieren
  • Mittel- und langfristig soll neben Projektpartnern auch mit (assoziierten) Praxispartnern kooperiert werden
Datenplattform für RiverSnap (TP 3.3)
Forschungsinteresse:
  • Wie können Bürger*innen dazu beitragen, den Zustand von Flüssen zu überwachen und zu analysieren?
Vorgehen:
  • Die Wissenschaftler*innen installieren Smartphone-Halterungen an Flussabschnitten, an denen Bürger*innen ihr Smartphone platzieren können, um Fotos vom Fluss zu machen. Die Daten werden in eine Plattform hochgeladen.
  • Die Wissenschaftler*innen verwalten diese Plattform und ergänzen die Daten zusätzlich mit Daten aus weiteren Quellen. Die Daten können mittels KI ausgewertet werden, um den Zustand des Flusses zu beobachten und zu analysieren.
Ergebnisse/Erkenntnisse (2024):
  • Die Fotos der Bürger*innen liefern wertvolle Informationen über den Zustand des Flusses. Diese können die Wissenschaftler*innen auswerten.
  • Die Bürger erhalten im Gegenzug Informationen über das Forschungsprojekt das Flusssystem und können sich aktiv an der Forschung beteiligen: http://go.lu-h.de/riversnap
RiverSnap: machine learning methods to determine hydraulic parameters (TP 3.3)
Forschungsinteresse:
  • Wie können Wasserstände in natürlichen und urbanen Flussbereichen mithilfe von bildgebenden Daten unter Bürgerbeteiligung gemessen und analysiert werden?
Vorgehen:
  • Die Wissenschaftler setzen fortschrittliche KI-Segmentierungstechniken sowie Algorithmen in der Nachbearbeitung ein, um die Wasseroberfläche auf Bildern aus komplexen Hintergründen im Untersuchungsgebiet präzise zu identifizieren und zu trennen. Zu den Untersuchungsgebieten gehören die RiverSnap-Stationen entlang der Leine, insbesondere an der Stockmann-Brücke und der Döhrener Mühle.
  • Es werden Methoden entwickelt, um die Effektivität dieser KI-Modelle unter verschiedenen Licht- und Wetterbedingungen sowie in unterschiedlichen Flussumgebungen zu analysieren.
Ergebnisse/Erkenntnisse (2024):
  • Das Team trainiert derzeit das „Segment Anything Model“ (SAM) und seine verbesserten Versionen mit einem Datensatz von Bildern, die von bestehenden Überwachungsstationen und durch Bürger bereitgestellt wurden. Erste Ergebnisse zeigen, dass diese Modelle die Wasseroberflächen in verschiedenen Umweltbedingungen mit hoher Genauigkeit erkennen können.
  • Darüber hinaus zeigt die Integration von KI und Bürgerdaten großes Potenzial, eine skalierbare und kostengünstige Methode zur Flussüberwachung zu ermöglichen, mit potenziellen Anwendungen in der Hochwasservorhersage und dem Wassermanagement.
Salzwasserdynamik bei Extremereignissen in Küsten-/Ästuarumwelt: Digitale Modellkoppelung und immersive Visualisierung - DuFlowViz (TP 3.4)
Forschungsinteresse:
  • Auswirkungen von Extremereignissen und Meeresspiegelanstieg auf die Salzwasserdynamik an Küsten und Ästuare
  • Messinstrumente zur (räumlichen) Messung von Salzkonzentration im Grundwasser
  • Visualisierungsstrategien zur Darstellung der Salzkonzentration in räumlichen und zeitlichen Skalen
Vorgehen:
  • Planen und durchführen und Auswerten von Laborversuchen zur Messung der Salzwasserdynamik in sandigen Böden
Open Source wasserwirtschaftliches Informationssystem zur Konsolidierung von Data Products - OS WIS (TP 3.5)
Forschungsinteresse:
  • Entwicklung des Services GrowL, der Grundwassermessstände und Wasserrechte auf einer Karte integriert und erweiterte Informations- und Analysemöglichkeiten bietet
  • Konzeption einer Lösung zur Schließung von Datenlücken bei Grundwassermessstandsdaten für eine umfassendere Datengrundlage.
  • Update von WISdoM zur Nutzung der neuesten Technologien ab Anfang 2025, einschließlich der aktuellen Angular- und CSS-Framework-Versionen
Vorgehen:
  • Entwicklung eines Tools zur Visualisierung und Analyse von Kanalsystemen, das als Schnittstellenprojekt mit dem Arbeitsbereich von Marie Meißner geplant ist.
  • Fokus auf die Erstellung von Data Products durch WISdoM, mit enger Abhängigkeit und Zusammenarbeit mit anderen Arbeitsbereichen für eine optimale Projektentwicklung
  • Einbindung ausgewählter Inhalte aus dem WISdoM-Projekt in WISdoM Oss; diese Integration ist jedoch noch in einem frühen Planungsstadium
Teilprojekt
Extremereignisse, Naturgefahren und Klimawandel
Status: in Arbeit
Digitale Technologien spielen eine entscheidende Rolle bei der Früherkennung und Vorhersage von Extremereignissen und Naturgefahren, wie beispielsweise Dürren und Überschwemmungen. Die Wissenschaftler*innen des Projekts untersuchen vernetzte Sensorsysteme und neuartige Datenquelle, wie Social-Media-Beiträge, um Prognosen und Smart Services zu verbessern. KI-Algorithmen analysieren diese Daten und helfen dabei Frühwarnsysteme mithilfe von Nowcasting zu entwickeln, insbesondere für Starkregenereignisse in Städten. Zudem arbeiten sie an Verfahren zu Reduzierung von Unsicherheiten in Wettermodellen und entwickeln Methoden zur effektiven Überwachung und Steuerung von Wasserressourcen und kritischer Infrastruktur.
Ansprechperson
Prof. Dr.-Ing. Monika Sester
Leibniz Universität Hannover
Institut für Kartographie und Geoinformatik
Innovative Sensortechnologie für Wasserqualitätsüberwachung: Prototypische Sensorknoten ermöglichen eine effiziente, autarke Erfassung von Wasserqualitätsdaten und Wasserständen über große Distanzen, was innovative Anwendungen im Hochwassermanagement und Naturschutz fördert.
KI-gestützte Überflutungsvorhersage: Durch die Entwicklung eines neuartigen KI-Ersatzmodells zur Überflutungsvorhersage bei Starkregen wird die Rechenzeit erheblich verkürzt, während gleichzeitig die Auswirkungen städtebaulicher Maßnahmen auf die Überflutungsdynamik untersucht werden, um die Resilienz urbaner Räume zu erhöhen.
Multifaktorielle Analyse für Hochwasservorhersagen: Die Untersuchung kritischer Einflussfaktoren auf die Entwässerungskapazität in Küstenniederungen ermöglicht datenbasierte Simulationen, die entscheidend für die Verbesserung von Hochwasservorhersagen sind, indem sie komplexe, zeitlich variable Prozesse realistisch abbilden.
Veränderungen von Gewässern effizient erfassen
Forschungsinteresse:
  • Wie können langfristige und kurzfristige Veränderungen von Gewässern effizient und schnell erfasst werden?
Vorgehen:
  • Die Wissenschaftler*innen entwickeln prototypische Sensorknoten, die autark und über weite Distanzen verteilt Informationen zur Wasserqualität (z. B. Salzgehalt, Sauerstoff und pH-Wert) und zum Wasserpegel erfassen können. Die Sensorknoten kommunizieren über die Funktechnologie LoRa, die niedrigen Energieverbrauch und hohe Reichweite ermöglicht.
  • Die Wissenschaftler*innen führten Tests durch, um die Funktionalität der Sensorknoten und die Reichweite der Kommunikation zu prüfen. Zusätzlich setzten sie Referenzierungssensoren ein, um die Bewegungen der Sensorknoten zu verfolgen.
Ergebnisse/Erkenntnisse:
  • Die Sensorknoten können erfolgreich über weite Distanzen Daten erfassen und sich selbst vernetzen. Sie lassen sich auch auf beweglichen Objekten wie Schiffen einsetzen und sind in der Lage, Positionsänderungen zu erkennen, was beispielsweise Diebstähle verhindern kann.
  • Die Wissenschaftler*innen streben an, die Sensorknoten für praktische Anwendungen wie das Hochwassermanagement und die Naturschutzarbeit weiterzuentwickeln, wobei sie kostengünstige, im Handel erhältliche Komponenten nutzen.
Überflutungsvorhersage in Städten (TP 4.3)
Erstellung eines KI-Ersatzmodells zur Überflutungsvorhersage bei Starkregen
Forschungsinteresse:
  • Wie können wir die Überflutungsvorhersage bei Starkregen beschleunigen ohne dabei maßgebliche Prozesse zu vernachlässigen?
Vorgehen:
  • Verwendung einer neuartigen, parallelisierten Open Source Software für hydrodynamische Oberflächenabflussberechnungen
  • Kopplung des Oberflächenabflussmodells mit einem urbanhydrologischen Modell und mit den urbanen Entwässerungsinfrastrukturen
  • Erstellung einer Trainingsdatenbank für ein neuronales Netz auf Grundlage der hydrodynamisch simulierten Überflutungsszenarien zur Verringerung der Rechendauer des Oberflächenabflussmodells
  • Training, Test und Anwendung des Ersatzmodells zur Überflutungsvorhersage
Überflutungsvorhersage in Städten (TP 4.3)
Untersuchung der Auswirkungen von stadtplanerischen Aspekten auf die Überflutungsdynamik bei Starkregen
Forschungsinteresse:
  • Welchen Effekt haben Grüne Infrastrukturen auf die Überflutungsdynamik und zu welchem Preis?
Vorgehen:
  • Ermittlung von stadtplanerischen Potentialen zum Wasserrückhalt
  • Berücksichtigung von potenziellen Entsiegelungen oder Dachbegrünungen in dem, mit dem KI-Ersatzmodell gekoppelten, urbanhydrologischen Modell
  • Quantifizierung des Mehrwertes grüner Infrastruktur durch Kosten-Nutzen-Analysen
Hochwasservorhersagen in Küstenniederungsgebieten verbessern (INFER TP 4.4)
Forschungsinteresse:
  • Welche Faktoren führen zu kritischen Zuständen in künstlich entwässerten Küstenniederungen und wie können diese zur Vorhersage von Hochwasserereignissen genutzt werden?
Vorgehen:
  • Die Wissenschaftler analysieren die Einflussfaktoren auf die Entwässerungskapazität mit statistischen Methoden. Das exemplarische Untersuchungsgebiet ist das Einzugsgebiet des 1. Entwässerungsverbandes Emden (Knock).
  • Diese Faktoren werden für die datenbasierte Simulation von Wasserständen verwendet, um kritische Entwässerungszustände zu identifizieren und Hochwasservorhersagen zu generieren.
  • Auf Basis des entwickelten Modellsystems werden die zuvor identifizierten Faktoren hinsichtlich ihres Einflusses auf die Simulationsergebnisse analysiert, um das Modell hinsichtlich der abgebildeten Prozesse zu validieren.
  • Dabei werden insbesondere Faktoren berücksichtigt, die in klassischen hydronumerischen Simulationen keinen Einfluss finden (z.B. Windrichtung/-geschwindigkeit).
Ergebnisse/Erkenntnisse (2024):
  • Für das Hochwasserrisiko spielt die aktuelle Entwässerungskapazität eine entscheidende Rolle. Diese wird durch komplexe multifaktorielle Prozesse beeinflusst und ist daher zeitlich variabel. Für die Hochwasservorhersage ist es daher entscheidend, diese Prozesse modelltechnisch abzubilden und zeitlich hochaufgelöst zu simulieren.
VGI-Datenerfassung, Analyse, Lokalisierung (VGI-Loc TP 4.1)
Forschungsinteresse:
  • Konstruktion Mobiles Lastenrad zur 3D Erfassung der Umgebung von Wasserkörpern
  • Ansätze zur Fusion von SfM und LiDAR als Punkt Prior in der Trainingspipeline von 3D Gaussian Splatting
  • Ansätze zur Lokalisierung von Bildern in 3D mittels Bildsynthese
Vorgehen:
  • 3D Bild-Lokalisierung im Kontext von Wasserkörpern mittels Bildsyntheseverfahren aus LiDAR/Kamera Hybriddaten.
  • Fusion der bisher erarbeiteten Einzelansätze zu einem gemeinschaftlichen Ansatz