|
|
|
|
Open Password - Mittwoch, den 21. Oktober 2020
Steilvorlagen 2020 - Potsdamer Informationswissenschaftliches Kolloquium - Vom Dokument zur demokratischen Kompetenz, from documents to democratic skills-
|
Fraunhofer Institut für Sichere Informationstechnologie – Ebersbacher Gespräch – Künstliche Intelligenz – Datenschutz – Datensicherheit – Maschinelles Lernen – Mindeststandards – Qualitätskriterien – Ethik – Rechtssicherheit – Haftung – Trainingsdaten – Best Practice – AI als Angriffswerkzeug – Code of Conduct – AI-Fachkräfte – Industrieverbände – Gesetzgeber – Forschungseinrichtungen – Forschungsförderung – Zivilgesellschaft – Medien – Datenanonymisierung – Charta of Trust – Aggressoren – Risikomanagement – Industrie – Politik - Schulungsanbieter
|
|
|
Die Träger des Erfolges
Die Macher und MacherInnen, Träger und Referenten von "Steilvorlagen 2020" - von links nach rechts: Yannnick Loonus, Nader Fadl, Ralf Hennemann, Werner Müller, Sabine Graumann, Peter Hochstrasser und Claudia Olewinski.
|
Potsdamer Informationswissenschaftliches Kolloquium
|
Vom Dokument zur demokratischen Kompetenz – from documents to democratic skills
Oktober 2020 – Januar 2021
|
Mittwochs 17:00-18:30 - Haus 2, Raum 014 bzw. via Zoom:
|
28. Oktober Dokumentation: Wiederbelebung des Konzeptes Dokument als Studiengang
|
Roswitha Skare , UiT The Arctic University of Norway
|
11. November Document Theory
|
Michael Buckland, University of California Berkeley
|
25. November Curating the Infosphere
|
Lyn Robinson/David Bawden, City University London
|
9. Dezember Informationelle Kompetenz vs. Informationskompetenz
|
13. Januar Informationswissenschaft und Demokratie
|
Joachim Griesbaum, Universität Hildesheim
|
Fachbereich Informationswissenschaften Kiepenheuerallee 5, 14469 Potsdam – Info: tinyurl.com/PIK20-21 - Vor Ort mit Anmeldung!
|
|
Fraunhofer Institute for Secure Information Technology: Ebersbacher Gespräch on AI, Security & Privacy
|
10 Empfehlungen für den Einsatz von KI zur Verbesserung von Datenschutz und Datensicherheit
Von Michael Kreutzer, Oliver Küch, Martin Steinebach
|
|
Der Einsatz von Artificial Intelligence (AI), insbesondere des Maschinellen Lernens (ML), eröffnet große Innovationsmöglichkeiten für zahlreiche Anwendungsfelder und bildet einen Schlüsselbereich für die erfolgreiche digitale Transformation. Im Bereich der Cybersicherheit ist die Nutzung von ML bereits heute gängige Praxis. Sie kommt etwa bei Malware- und Spam-Bekämpfung sowie bei Network Intrusion Detection zum Einsatz. Technische Fortschritte der AI können maßgeblich zur Verbesserung der Cybersicherheit beitragen.
|
Allerdings verwenden auch Angreifer AI für ihre Zwecke. Zudem steht die Forschung vor der großen Herausforderung, Aussagen über die Qualität von AI-Verfahren zu treffen, was für ihren breiten Einsatz in der Cybersicherheit (und in anderen Bereichen) ein Hindernis darstellt. Ungeklärte rechtliche und ethische Fragen verlangsamen ebenfalls die nutzbringende Einführung von AI in der Cybersicherheit.
|
Um offene Fragen mit dringendem Handlungsbedarf zum Themenfeld AI, Cybersicherheit und Privatsphärenschutz in Wirtschaft und Gesellschaft zu identifizieren, veranstaltete das Fraunhofer-Institut für Sichere Informationstechnologie SIT die „Eberbacher Gespräche zu AI, Security & Privacy“. Im Rahmen des Workshops formulierten die Teilnehmer aus Industrie und Forschung zehn Empfehlungen, die aufzeigen, welche Herausforderungen in den Bereichen AI, Cybersicherheit und Privatsphärenschutz vordringlich angegangen werden müssen. Diese Empfehlungen adressieren die vier wichtigen Herausforderungen, welche sich aktuell für die Anwendung von Machine Learning im Kontext von Cybersicherheit und Privatsphärenschutz stellen:
|
➊ Mindeststandards und Qualitätskriterien: Sie befördern das Grundvertrauen in AI, erhöhen die Transparenz und dadurch auch die Akzeptanz von AI in Wirtschaft und Gesellschaft. Standards und offene Schnittstellen sorgen zugleich auch für eine Kontrollierbarkeit von AI, weil sie sich im Notfall bei Bedarf auch abschalten lässt. Über die technischen Standards hinaus braucht es für eine weitere Verwendung von AI in der Cybersicherheit auch Richtlinien für Ethik und Datenschutz. Diese gilt es zu diskutieren, um das Verhältnis von Mensch und Maschine wertekonform zu gestalten.
|
➋ Rechtssicherheit und Klarheit in Haftungsfragen: AI-Systeme lernen durch Trainingsdaten, die oft Datenschutzfragen aufwerfen. In vielen Bereichen sind diese Fragen bislang nicht befriedigend zu beantworten. Unternehmen brauchen jedoch eine verlässliche juristische Einschätzung, um das wirtschaftliche Potenzial von AI-Systemen erschließen zu können. Deshalb sollte der Gesetzgeber zum einen auf nationaler und europäischer Ebene Anreize schaffen, AI-Systeme datenschutzfreundlich zu gestalten. Zum anderen gilt es, Best-Practice-Empfehlungen zu entwickeln, die Herstellern und Anwendern ausreichende Orientierung bieten, wie dies heute zum Beispiel im Bereich der Kryptografie bereits Praxis ist. Für das verbleibende Risiko empfiehlt sich das Konzept der Gefährdungshaftung, das ebenfalls durch den Gesetzgeber auszugestalten ist.
|
➌AI als Angriffswerkzeug: Die wachsende IT-Durchdringung unseres Alltags schafft immer neue Angriffsziele für eine Vielzahl von Agressoren – staatliche Angreifer ebenso wie das organisierte Verbrechen. Die Angreifer nutzen AI für ihre Zwecke und verfügen über eine Vielzahl von Angriffswerkzeugen, deren Zahl in Zukunft noch zunehmen dürfte. Diese Risiken müssen betrachtet und soweit möglich minimiert werden. Für Letzeres ist der verantwortungsvolle Umgang mit Algorithmen und Daten besonders wichtig, der zum Beispiel durch einen Code of Conduct geregelt werden könnte, wobei dies länder- und kontinentübergreifend erfolgen muss.
|
➍AI-Fachkräfte mit Expertise für Cybersicherheit und Datenschutz: Ohne einen Zuwachs an fachkundigem Personal werden sich die oben beschriebenen Herausforderungen nicht bewältigen lassen. Hierzu braucht es neben Informatikern auch Philosophen, Juristen, Ingenieure, Betriebswirte und viele weitere Experten, die AI ausreichend verstehen und anwenden können. Für die Cybersicherheit der nächsten Generation muss die AI-Kompetenz deshalb in allen Disziplinen und Sektoren auf- und ausgebaut werden. Über die konkreten Empfehlungen hinaus zeigte das Eberbacher Gespräch die Wechselwirkungen zwischen Cybersicherheit, AI und Datenschutz. Diese können in der gesellschaftlichen und wirtschaftlichen Anwendung nicht getrennt betrachtet werden.
|
Herausforderung 1: Testierbarkeit und Mindestqualitätsniveau von AI für die Cybersicherheit Lösungsvorschlag: Automatisierte Prüfpunkte & Benchmarks, verifizierbar durch unabhängige Prüfeinrichtungen Adressat: Industrieverbände, Gesetzgeber (D, EU)
|
Herausforderung 2: Schaffung von Transparenz und Akzeptanz für den AI-Einsatz in der Cybersicherheit Lösungsvorschlag: Standardisierung von AI-Verfahren durch unabhängige Stellen, offene Schnittstellen Adressat: Industrieverbände, Gesetzgeber (D, EU)
|
Herausforderung 3: Kontrollierbarkeit des AI-Einsatzes in der Cybersicherheit Lösungsvorschlag: Modularer Aufbau, Abschaltbarkeit Adressat: Industrieverbände, Forschungseinrichtungen und Forschungsförderung
|
Herausforderung 4: Ethischer Einsatz in der Cybersicherheit Lösungsvorschlag: Zivilgesellschaftlicher Diskurs mit dem Ziel „Guidelines mit konkreter Prüfbarkeit“ Adressat: Zivilgesellschaftliche Organisationen, Medien, Forschungseinrichtungen und Forschungsförderung
|
Herausforderung 5: Rechtssicherer Einsatz von Verfahren der Datenanonymisierung in AI-Systemen Lösungsvorschlag: In D und EU Rechtsklarheit in Zusammenarbeit mit der Technik schaffen; Anreize schaffen, Daten zu anonymisieren Adressat: Gesetzgeber (D und EU)
|
Herausforderung 6: Unklarheit der Verantwortlichkeit und Haftung beim Einsatz von AI in der Cybersicherheit und für den Privatsphärenschutz Lösungsvorschlag: Gefährdungshaftung Adressat: Gesetzgeber (D und EU)
|
Herausforderung 7: Neuartige Angriffsmöglichkeit: Manipulation von ML-Trainingsdaten Lösungsvorschlag: Embedded Trust: Von der Erhebung über die Kommunikation bis zur Speicherung, Code of Conduct für ML-Einsatz Adressat: Industrieverbände: Zusammenschluss, z.B. „Charta of Trust“
|
Herausforderung 8: Aggressoren, die diverse Methoden verwenden, darunter auch AI: Angriffswerkzeuge sind frei verfügbar, große Bandbreite der Ziele (Beispiel: IoT). Lösungsvorschlag: Risikomanagement, insbesondere Priorisierung von Aggressoren: Wer kann wo angreifen, wo kann schadensabhängig eingegriffen werden? Adressat: Industrie D und EU, Politik D und EU
|
Herausforderung 9: Nationalstaatliches Handeln ist nicht ausreichend bei AI-basierten Angriffen Lösungsvorschlag: Regulierung auf EU-Ebene und darüber hinaus treiben Adressat: Industrie D und EU, Politik D und EU
|
Herausforderung 10: Nicht hinreichende Qualifikation in IT und speziell in AI Lösungsvorschlag: Fortbildung Adressat: Politik, Industrie, Schulungsanbieter
|
|
|
|
Open Password
Forum und Nachrichten für die Informationsbranche im deutschsprachigen Raum
Neue Ausgaben von Open Password erscheinen viermal in der Woche.
|
Wer den E-Mai-Service kostenfrei abonnieren möchte - bitte unter www.password-online.de eintragen.
|
Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.
|
International Co-operation Partner:
Outsell (London) Business Industry Information Association/BIIA (Hongkong)
|
|
|
|
|
|
|
Open Password - Redaktion - PASSWORD - Redaktionsbüro Dr. Willi Bredemeier Erzbergerstr. 9-11 45527 Hattingen Tel.: (02324) 67009 E-Mail: w.bredemeier@password-online.de
|
|
|
|
|