header-newsletter-password

Open Password - Mittwoch,
den 21. Oktober
2020

# 841


Steilvorlagen 2020 - Potsdamer Informationswissenschaftliches Kolloquium - Vom Dokument zur demokratischen Kompetenz, from documents to democratic skills-
Fraunhofer Institut für Sichere Informationstechnologie – Ebersbacher Gespräch – Künstliche Intelligenz – Datenschutz – Datensicherheit – Maschinelles Lernen – Mindeststandards – Qualitätskriterien – Ethik – Rechtssicherheit – Haftung – Trainingsdaten – Best Practice – AI als Angriffswerkzeug – Code of Conduct – AI-Fachkräfte – Industrieverbände – Gesetzgeber – Forschungseinrichtungen – Forschungsförderung – Zivilgesellschaft – Medien – Datenanonymisierung – Charta of Trust – Aggressoren – Risikomanagement – Industrie – Politik - Schulungsanbieter

2020 Steilvorlagen, Die Macher und Macherinnen
Steilvorlagen 2020

Die Träger des Erfolges

Die Macher und MacherInnen, Träger und Referenten von "Steilvorlagen 2020" - von links nach rechts: Yannnick Loonus, Nader Fadl, Ralf Hennemann, Werner Müller, Sabine Graumann, Peter Hochstrasser und Claudia Olewinski.





Potsdamer Informationswissenschaftliches Kolloquium

Vom Dokument zur demokratischen Kompetenz –
from documents to democratic skills

Oktober 2020 – Januar 2021
Mittwochs 17:00-18:30 - Haus 2, Raum 014 bzw. via Zoom:

28. Oktober Dokumentation: Wiederbelebung des Konzeptes Dokument als Studiengang
Roswitha Skare , UiT The Arctic University of Norway

11. November Document Theory
Michael Buckland, University of California Berkeley

25. November Curating the Infosphere
Lyn Robinson/David Bawden, City University London

9. Dezember Informationelle Kompetenz vs. Informationskompetenz
Klaus Lepsky, TH Köln

13. Januar Informationswissenschaft und Demokratie
Joachim Griesbaum, Universität Hildesheim

Fachbereich Informationswissenschaften Kiepenheuerallee 5, 14469 Potsdam – Info: tinyurl.com/PIK20-21 - Vor Ort mit Anmeldung!
Fraunhofer Institute for Secure Information Technology:
Ebersbacher Gespräch on AI, Security & Privacy


10 Empfehlungen für den Einsatz von KI
zur Verbesserung von Datenschutz
und Datensicherheit

Von Michael Kreutzer, Oliver Küch, Martin Steinebach
Der Einsatz von Artificial Intelligence (AI), insbesondere des Maschinellen Lernens (ML), eröffnet große Innovationsmöglichkeiten für zahlreiche Anwendungsfelder und bildet einen Schlüsselbereich für die erfolgreiche digitale Transformation. Im Bereich der Cybersicherheit ist die Nutzung von ML bereits heute gängige Praxis. Sie kommt etwa bei Malware- und Spam-Bekämpfung sowie bei Network Intrusion Detection zum Einsatz. Technische Fortschritte der AI können maßgeblich zur Verbesserung der Cybersicherheit beitragen.

Allerdings verwenden auch Angreifer AI für ihre Zwecke. Zudem steht die Forschung vor der großen Herausforderung, Aussagen über die Qualität von AI-Verfahren zu treffen, was für ihren breiten Einsatz in der Cybersicherheit (und in anderen Bereichen) ein Hindernis darstellt. Ungeklärte rechtliche und ethische Fragen verlangsamen ebenfalls die nutzbringende Einführung von AI in der Cybersicherheit.

Um offene Fragen mit dringendem Handlungsbedarf zum Themenfeld AI, Cybersicherheit und Privatsphärenschutz in Wirtschaft und Gesellschaft zu identifizieren, veranstaltete das Fraunhofer-Institut für Sichere Informationstechnologie SIT die „Eberbacher Gespräche zu AI, Security & Privacy“. Im Rahmen des Workshops formulierten die Teilnehmer aus Industrie und Forschung zehn Empfehlungen, die aufzeigen, welche Herausforderungen in den Bereichen AI, Cybersicherheit und Privatsphärenschutz vordringlich angegangen werden müssen. Diese Empfehlungen adressieren die vier wichtigen Herausforderungen, welche sich aktuell für die Anwendung von Machine Learning im Kontext von Cybersicherheit und Privatsphärenschutz stellen:

Mindeststandards und Qualitätskriterien: Sie befördern das Grundvertrauen in AI, erhöhen die Transparenz und dadurch auch die Akzeptanz von AI in Wirtschaft und Gesellschaft. Standards und offene Schnittstellen sorgen zugleich auch für eine Kontrollierbarkeit von AI, weil sie sich im Notfall bei Bedarf auch abschalten lässt. Über die technischen Standards hinaus braucht es für eine weitere Verwendung von AI in der Cybersicherheit auch Richtlinien für Ethik und Datenschutz. Diese gilt es zu diskutieren, um das Verhältnis von Mensch und Maschine wertekonform zu gestalten.

Rechtssicherheit und Klarheit in Haftungsfragen: AI-Systeme lernen durch Trainingsdaten, die oft Datenschutzfragen aufwerfen. In vielen Bereichen sind diese Fragen bislang nicht befriedigend zu beantworten. Unternehmen brauchen jedoch eine verlässliche juristische Einschätzung, um das wirtschaftliche Potenzial von AI-Systemen erschließen zu können. Deshalb sollte der Gesetzgeber zum einen auf nationaler und europäischer Ebene Anreize schaffen, AI-Systeme datenschutzfreundlich zu gestalten. Zum anderen gilt es, Best-Practice-Empfehlungen zu entwickeln, die Herstellern und Anwendern ausreichende Orientierung bieten, wie dies heute zum Beispiel im Bereich der Kryptografie bereits Praxis ist. Für das verbleibende Risiko empfiehlt sich das Konzept der Gefährdungshaftung, das ebenfalls durch den Gesetzgeber auszugestalten ist.

AI als Angriffswerkzeug: Die wachsende IT-Durchdringung unseres Alltags schafft immer neue Angriffsziele für eine Vielzahl von Agressoren – staatliche Angreifer ebenso wie das organisierte Verbrechen. Die Angreifer nutzen AI für ihre Zwecke und verfügen über eine Vielzahl von Angriffswerkzeugen, deren Zahl in Zukunft noch zunehmen dürfte. Diese Risiken müssen betrachtet und soweit möglich minimiert werden. Für Letzeres ist der verantwortungsvolle Umgang mit Algorithmen und Daten besonders wichtig, der zum Beispiel durch einen Code of Conduct geregelt werden könnte, wobei dies länder- und kontinentübergreifend erfolgen muss.

AI-Fachkräfte mit Expertise für Cybersicherheit und Datenschutz: Ohne einen Zuwachs an fachkundigem Personal werden sich die oben beschriebenen Herausforderungen nicht bewältigen lassen. Hierzu braucht es neben Informatikern auch Philosophen, Juristen, Ingenieure, Betriebswirte und viele weitere Experten, die AI ausreichend verstehen und anwenden können. Für die Cybersicherheit der nächsten Generation muss die AI-Kompetenz deshalb in allen Disziplinen und Sektoren auf- und ausgebaut werden. Über die konkreten Empfehlungen hinaus zeigte das Eberbacher Gespräch die Wechselwirkungen zwischen Cybersicherheit, AI und Datenschutz. Diese können in der gesellschaftlichen und wirtschaftlichen Anwendung nicht getrennt betrachtet werden.

Unsere Empfehlungen:

Herausforderung 1: Testierbarkeit und Mindestqualitätsniveau von AI für die Cybersicherheit
Lösungsvorschlag: Automatisierte Prüfpunkte & Benchmarks, verifizierbar durch unabhängige Prüfeinrichtungen
Adressat: Industrieverbände, Gesetzgeber (D, EU)

Herausforderung 2: Schaffung von Transparenz und Akzeptanz für den AI-Einsatz in der Cybersicherheit
Lösungsvorschlag: Standardisierung von AI-Verfahren durch unabhängige Stellen, offene Schnittstellen
Adressat: Industrieverbände, Gesetzgeber (D, EU)

Herausforderung 3: Kontrollierbarkeit des AI-Einsatzes in der Cybersicherheit
Lösungsvorschlag: Modularer Aufbau, Abschaltbarkeit
Adressat: Industrieverbände, Forschungseinrichtungen und Forschungsförderung

Herausforderung 4: Ethischer Einsatz in der Cybersicherheit
Lösungsvorschlag: Zivilgesellschaftlicher Diskurs mit dem Ziel „Guidelines mit konkreter Prüfbarkeit“
Adressat: Zivilgesellschaftliche Organisationen, Medien, Forschungseinrichtungen und Forschungsförderung

Herausforderung 5: Rechtssicherer Einsatz von Verfahren der Datenanonymisierung in AI-Systemen
Lösungsvorschlag: In D und EU Rechtsklarheit in Zusammenarbeit mit der Technik schaffen; Anreize schaffen, Daten zu anonymisieren
Adressat: Gesetzgeber (D und EU)

Herausforderung 6: Unklarheit der Verantwortlichkeit und Haftung beim Einsatz von AI in der Cybersicherheit und für den Privatsphärenschutz
Lösungsvorschlag: Gefährdungshaftung
Adressat: Gesetzgeber (D und EU)

Herausforderung 7: Neuartige Angriffsmöglichkeit: Manipulation von ML-Trainingsdaten
Lösungsvorschlag: Embedded Trust: Von der Erhebung über die Kommunikation bis zur Speicherung, Code of Conduct für ML-Einsatz
Adressat: Industrieverbände: Zusammenschluss, z.B. „Charta of Trust“

Herausforderung 8: Aggressoren, die diverse Methoden verwenden, darunter auch AI: Angriffswerkzeuge sind frei verfügbar, große Bandbreite der Ziele (Beispiel: IoT).
Lösungsvorschlag: Risikomanagement, insbesondere Priorisierung von Aggressoren: Wer kann wo angreifen, wo kann schadensabhängig eingegriffen werden?
Adressat: Industrie D und EU, Politik D und EU

Herausforderung 9: Nationalstaatliches Handeln ist nicht ausreichend bei AI-basierten Angriffen
Lösungsvorschlag: Regulierung auf EU-Ebene und darüber hinaus treiben
Adressat: Industrie D und EU, Politik D und EU

Herausforderung 10: Nicht hinreichende Qualifikation in IT und speziell in AI
Lösungsvorschlag: Fortbildung
Adressat: Politik, Industrie, Schulungsanbieter

Open Password

Forum und Nachrichten
für die Informationsbranche
im deutschsprachigen Raum

Neue Ausgaben von Open Password erscheinen viermal in der Woche.
Wer den E-Mai-Service kostenfrei abonnieren möchte - bitte unter www.password-online.de eintragen.
Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.

International Co-operation Partner:

Outsell (London)
Business Industry Information Association/BIIA (Hongkong)
header-newsletter-password
Open Password - Redaktion - PASSWORD - Redaktionsbüro Dr. Willi Bredemeier
Erzbergerstr. 9-11
45527 Hattingen
Tel.: (02324) 67009
E-Mail: w.bredemeier@password-online.de