Technischer Datenschutz und vertrauenswürdige KI

Vertrauenswürdige Medientechnologien

Das Fraunhofer IDMT konzentriert sich auf die Entwicklung, den Einsatz und die Integration von Werkzeugen, die Datenschutz, Sicherheit, Robustheit, Transparenz, Erklärbarkeit und Fairness in datengesteuerten Anwendungen fördern – insbesondere im Umgang mit Medientechnologien und Medieninhalten. Unser Ziel ist es, eine Technologie-Toolbox bereitzustellen, die unseren Partnern und Kunden hilft, Vertrauen und leistungsfähige Analyse in ihre Anwendungen und Produkte miteinander zu vereinbaren.

Aktuelles

 

Neues Projekt

AVATAR

Privacy Enhancing Technologies (PET) für ein avatargestütztes System zur Nutzung von Gesundheitsdaten

 

Messe

DA3KMU auf der it-sa 2023

Fraunhofer IDMT präsentiert Software-Prototyp auf it-sa 2023 und lädt KMU zum Beta-Test ein

 

Neues Projekt / 9.5.2024

Datenschutz für Biosignale

Projekt »NEMO« erforscht Anonymisierungsverfahren für Medizinische Daten am Beispiel des Elektroenzephalogramms (EEG)

Vertrauen und Datenanalyse im Gleichgewicht

Privacy Enhancing Technologies (PET) und vertrauenswürdige KI sind für den Schutz personenbezogener und geschäftskritischer Daten, für die Einhaltung rechtlicher Vorgaben und um Fairness, Transparenz, Robustheit und Sicherheit von datengestützten Anwendungen und Systemen zu gewährleisten, von entscheidender Bedeutung.

Manche denken, dass Vertrauen und Datenanalyse grundsätzlich unvereinbar sind; dass Regulierung allein ausreicht, um alle Probleme zu lösen – oder umgekehrt, dass Regulierung überhaupt nicht sinnvoll oder notwendig ist.

Wir denken, dass beides benötigt wird: Regulierung und Innovation, und dass man für viele Anwendungen Lösungen entwickeln kann, die Vertrauenswürdigkeit und leistungsfähige Analyse miteinander kombinieren. Um dies zu erreichen, versuchen wir

  • die spezifischen Anforderungen für eine bestimmte Anwendung im Detail zu verstehen,
  • etwaige Trade-offs zwischen Nützlichkeit und Vertrauensaspekten zu erkennen und zu gewichten,
  • und Technologien einzusetzen, um eine optimale Vereinbarkeit von Nützlichkeit und Vertrauen zu gewährleisten.

Privatsphäre und Vertrauen im Zeitalter der KI

Für den Schutz der Privatsphäre bei der Datenanalyse spielen Werkzeuge für sog. Privacy-Preserving Data Publishing (PPDP) nach wie vor eine Schlüsselrolle. Dazu gehören z. B. die Datenanonymisierung und Pseudonymisierung, die auf der Entfernung oder Veränderung von Daten (z. B. durch Unterdrückung oder Verallgemeinerung) beruhen.

Darüber hinaus haben der Bedarf, große Datenmengen mit hoher Dimensionalität und Komplexität zu verarbeiten sowie fortschrittliche Analysefähigkeiten in den letzten Jahren dank KI zugenommen. Dies hat zur Entwicklung von Werkzeugen für Privacy-Preserving AI (PPAI) geführt, um den erhöhten Risiken einer unbeabsichtigten Preisgabe sensibler Daten im Kontext der KI zu begegnen. Zu diesen Risiken gehören vor allem Inference Attacks (Angriffe, die darauf abzielen, Daten zu analysieren, um Wissen über ein Subjekt/ein Thema zu erlangen) und Model Poisoning Attacks (Angriffe, die Daten manipulieren, um das KI Modell zu manipulieren). Zu diesen Werkzeugen gehört beispielsweise Differential Privacy, eine Technik, die zu Eingabe- oder Ausgabedaten Rauschen hinzufügt, um sensible Daten mit entsprechenden mathematischen „Garantien“ zu schützen; Homomorphe Verschlüsselung, die Berechnungen von verschlüsselten Daten ermöglicht und so eine Datenverarbeitung in nicht vertrauenswürdigen Umgebungen ermöglicht; Secure Multi-party Computation, die es mehreren Parteien ermöglicht, gemeinsame Berechnungen durchzuführen, ohne dabei eigenen Daten preiszugeben; und Secure Federated Learning, einem dezentraler Ansatz für Maschinelles Lernen, bei dem mehrere Parteien zusammen ein gemeinsames Modell trainieren, ohne ihre Rohdaten zu teilen oder kritische Daten über das gemeinsam trainierte Modell preiszugeben.

Neben technischem Datenschutz beschäftigen wir uns mit folgenden weiteren Aspekten bzgl. vertrauenswürdiger KI im Medienkontext:

  • Sicherheit und Robustheit gegenüber Angriffen: Resilienz von KI-Werkzeugen gegenüber betrügerischen Eingaben sowie die Gewährleistung von Authentizität (dies ist eng mit dem Thema Medienforensik verbunden)
  • Transparenz und Erklärbarkeit: Eingabedaten und KI-Prozesse nachvollziehbar machen und dadurch Vertrauen und sinnvolle Interaktion fördern
  • Bias und Fairness: Verringerung von Stichprobenverzerrungen (Sample Bias) und anderer Verzerrungen, wobei man sich entsprechende Trade-offs bewusst sein muss (die Verringerung einer Art von Bias kann oft andere Arten von Bias verstärken); dazu gehört auch die Interaktion zwischen maschinellen und menschlichen Biases bei der Anwendung von Technologien, z. B. die Frage, wie sich Filterblaseneffekte vermeiden lassen, die durch Empfehlungssysteme entstehen und Bestätigungsfehler (sog. Confirmation Bias) weiter verstärken können.

Methodik

Das Verständnis der spezifischen Anforderungen für eine bestimmte Anwendung, die Auswahl und Anpassung der erforderlichen Werkzeuge und eine systematische Bewertung sind der Schlüssel zur Erreichung der oben genannten Ziele. Wir verfolgen einen "by-design"-Ansatz: Überlegungen zu Datenschutz, Sicherheit, Transparenz, Fairness und Robustheit werden von Anfang an und während des gesamten Entwicklungsprozesses berücksichtigt. Dies führt zu deutlich verminderten Kosten und besseren Ergebnissen.

 

Forschungsprojekt

DA3KMU

Adaptive Anonymisierung von Logdaten für SIEM-Analysen und Gesundheitsdaten

 

Forschungsprojekt

TRA-ICT

Sichere und datenschutzkonforme akustische Überwachung

 

Forschungsprojekt

SEC-Learn

Sicheres föderiertes Lernen für die Erkennung von Audioereignissen

 

Forschungsprojekt

AI4Media

Exzellenzprojekt für KI im Medienbereich – unsere Beiträge: Audioforensik, Audio-Herkunftsanalyse, Musikanalyse, technischer Datenschutz und Empfehlungssysteme

Forschungsprojekt

MuSEc

Audioanalyse und datenschutzfreundliche Nutzungsmessung für Audio Monitoring

 

Forschungsprojekt

AVATAR

Privacy Enhancing Technologies (PET) für ein avatargestütztes System zur Nutzung von Gesundheitsdaten

 

Forschungsprojekt

NEMO

Technologien für die Reidentifizierung und Anonymisierung von EEG-Daten

Forschungsprojekt

InfarctCare

Verbesserung der akuten Herzinfarktversorgung durch intelligente Datennutzung, technischen Datenschutz und Interoperabilität

Produkte

SecFed Framework

Technologien für sicheres föderiertes Lernen, die an spezifische Bedürfnisse angepasst werden können.

PETools

Privacy Enhancing Tools (PET) zur Anonymisierung und Pseudonymisierung für unterschiedliche Anforderungen und Anwendungsbereiche.

Trustworthy AI – F&E, Beratung und Evaluation

  • Kundenspezifische Forschung und Entwicklung
  • Beratung und Evaluierung von Komponenten und Systemen zur Adressierung von Datenschutzaspekten und Vertrauenswürdigkeit in KI-basierten Systemen

Jahr
Year
Titel/Autor:in
Title/Author
Publikationstyp
Publication Type
2023 Examining Speaker and Keyword Uniqueness: Partitioning Keyword Spotting Datasets for Federated Learning with the Largest Differencing Method
Wallbott, Paul; Grollmisch, Sascha; Köllmer, Thomas
Konferenzbeitrag
Conference Paper
2023 KI-basiertes akustisches Monitoring: Herausforderungen und Lösungsansätze für datengetriebene Innovationen auf Basis audiovisueller Analyse
Aichroth, Patrick; Liebetrau, Judith
Aufsatz in Buch
Book Article
2023 An Explainable Knowledge Graph-Based News Recommendation System
Kurt, Zühal; Köllmer, Thomas; Aichroth, Patrick
Konferenzbeitrag
Conference Paper
2022 SEC-Learn: Sensor Edge Cloud for Federated Learning
Aichroth, Patrick; Antes, Christoph; Gembaczka, Pierre; Graf, Holger; Johnson, David S.; Jung, Matthias; Kämpfe, Thomas; Kleinberger, Thomas; Köllmer, Thomas; Kuhn, Thomas; Kutter, Christoph; Krüger, Jens; Loroch, Dominik M.; Lukashevich, Hanna; Laleni, Nelli; Zhang, Lei; Leugering, Johannes; Martín Fernández, Rodrigo; Mateu, Loreto; Mojumder, Shaown; Prautsch, Benjamin; Pscheidl, Ferdinand; Roscher, Karsten; Schneickert, Sören; Vanselow, Frank; Wallbott, Paul; Walter, Oliver; Weber, Nico
Konferenzbeitrag
Conference Paper
2021 Wertschöpfung durch Software in Deutschland
Aichroth, Patrick; Bös, Joachim; Sladeczek, Christoph; Bodden, Eric; Liggesmeyer, Peter; Trapp, Mario; Falk Howar; Otto, Boris; Rehof, Jakob; Spiekermann, Markus; Arzt, Steven; Steffen, Barbara; Nouak, Alexander; Köhler, Henning
Bericht
Report
2020 Anonymisierung und Pseudonymisierung von Daten für Projekte des maschinellen Lernens
Aichroth, Patrick; Battis, Verena; Dewes, Andreas; Dibak, Christoph; Doroshenko, Vadym; Geiger, Bernd; Graner, Lukas; Holly, Steffen; Huth, Michael; Kämpgen, Benedikt; Kaulartz, Markus; Mundt, Michael; Rapp, Hermann; Steinebach, Martin; Sushko, Yurii; Swarat, Dominic; Winter, Christian; Weiß, Rebekka
Buch
Book
2020 Vertrauenswürdige KI im Medienkontext
Aichroth, Patrick; Lukashevich, Hanna
Zeitschriftenaufsatz
Journal Article
2019 Hybride, datenschutzfreundliche Empfehlungssysteme - Mehr als nützlich
Aichroth, Patrick
Zeitschriftenaufsatz
Journal Article
2018 Selective face encryption in H.264 encoded videos
Aichroth, P.; Gerhardt, C.; Mann, S.
Konferenzbeitrag
Conference Paper
2015 Benefits and Pitfalls of Predictive Policing
Aichroth, Patrick; Schlehahn, E.; Mann, S.; Schreiner, R.; Lang, U.; Shepherd, I.D.H.; Wong, B.L.W.
Konferenzbeitrag
Conference Paper
2015 Bridging the gap between privacy requirements and implementation with semantic privacy modeling and a privacy technology framework
Lang, Ulrich; Davis, Mike; Schreiner, Patrick; Aichroth, Patrick; Mann, Sebastian
Zeitschriftenaufsatz
Journal Article
Diese Liste ist ein Auszug aus der Publikationsplattform Fraunhofer-Publica

This list has been generated from the publication platform Fraunhofer-Publica