Beschreibung
|
Das Teilvorhaben generiert neues sozialwissenschaftlich-empirisches und rechtliches Wissen für die Erforschung von Fake-ID und ihrer Detektion. Die vielfältigen Chancen und Risiken der Entwicklung und Nutzung künstlicher Intelligenz (KI) sind auch für die Detektion von Deep Fakes in Bildern und Videodaten mithilfe von „schwachen“ KI-Lösungen relevant. Das Teilvorhaben Ethische, juristische und gesellschaftliche Aspekte der Detektion von Fake-IDs und Voraussetzungen der Gerichtsverwertbarkeit von elektronischen Bild- und Videodaten wirkt darauf hin, dass die im FAKE-ID-Projekt zu entwickelnde „schwache“ KI nicht nur technisch funktioniert, sondern auch rechtliche Vorgaben auf hohem Niveau umsetzt, ethischen Anforderungen an die KI-Nutzung genügt, den praktischen Bedarfen potentieller Anwender*innen gerecht wird und von Betroffenen als fair wahrgenommen wird. Die Perspektive der Betroffenen (z.B. Menschen, deren Bilder analysiert werden) wird in die Forschung einbezogen, um zu erforschen, inwieweit Technologie zur Detektion von Deep Fakes in Bildern und Videos auf Akzeptanz stößt.
Die Arbeiten des Teilvorhabens Ethische, juristische und gesellschaftliche Aspekte der Detektion von Fake-IDs und Voraussetzungen der Gerichtsverwertbarkeit von elektronischen Bild- und Videodaten sind im FAKE-ID-Projekt in einem Arbeitspaket (Nr. 6) gebündelt. Dieses ist eng mit allen anderen Arbeitspaketen verzahnt und besteht aus den folgenden themenbezogenen Arbeitsinhalten:
- Erforschung der Varianten, Motivationen und Hintergründe von Bild- und Videostream-Fälschungen, einschließlich gesellschaftlicher und politischer Konsequenzen von Fälschungen;
- Rechtliche Anforderungen an „schwache“ KI-Anwendungen mit Fokus auf Bild- und Videoanalyse: politisch-administrative Rahmenbedingungen und rechtliche Regulierung im Mehrebenenverbund;
- Rechtliche und sozialwissenschaftliche Anforderungen an die Transparenz von „schwachen“ KI-Anwendungen, einschließlich Erklärbarkeit und Rückverfolgbarkeit von Entscheidungsvorschlägen;
- Sozialwissenschaftlich-ethische Analyse von KI-Anwendungen mit Fokus auf Bild- und Videoanalyse – Auswirkungen auf den Alltag der Anwender*innen und Betroffenen;
- Empirische Erforschung des polizeilichen, staatsanwaltschaftlichen und gerichtlichen Umgangs mit Manipulationen und Cyber- Attacken auf Bilder und Videostreams und mit digitalen Bild-Beweismitteln / IT-Forensik;
- Digitale Bild- und Videobeweismittel in strafrechtlichen Ermittlungsverfahren: rechtsdogmatische Einordnung und rechtliche Anforderungen;
- Datenschutzfragen der Detektion von Deep Fakes in Bild- und Videodaten und interdisziplinäre Entwicklung von Privacy by Design and by Default-Lösungen;
- NGO-Dialog: projektbezogener Dialog mit einschlägig tätigen gesellschaftlichen Akteuren zu den Voraussetzungen für eine Akzeptanz der Nutzung „schwacher“ KI bei der Detektion von Deep Fakes in Bildern und Videostreams;
- Rechtliche und ethisch-sozialwissenschaftliche Kriterien für die Auswahl zwischen Technologievarianten
Die Ergebnisse richten sich an Nutzer*innen der Detektion von Fälschungen in Bild- und Videodateien in Sicherheitsbehörden, Gerichten, Staatsanwaltschaften, anderen Behörden und Privatwirtschaft, zudem an thematisch interessierte zivilgesellschaftliche Akteure und die wissenschaftliche Fachöffentlichkeit. Ergebnisse werden bei Fachkonferenzen im In- und Ausland präsentiert und zur Diskussion gestellt und in einschlägigen Fachzeitschriften und Büchern publiziert. Studierende, insbesondere aus den sicherheitsbezogenen Bachelor- und Masterstudiengängen der HWR Berlin, werden im Rahmen von Lehrveranstaltungen und der Betreuung von Abschlussarbeiten in das Projekt eingebunden.
|