
Der technische Fortschritt durch KI ist das Risiko wert, unsere Privatsphäre in Teilen aufzugeben.
Hintergrundinformationen zur These: „Der technische Fortschritt durch künstliche Intelligenz ist das Risiko wert, unsere Privatsphäre in Teilen aufzugeben.”
Welchen technischen Fortschritt ermöglichen KI-gestützte Technologien?
Roboter als Pflegekräfte in Krankenhäusern, Sachbearbeiter:innen in Versicherungen oder Verkäufer:innen in Supermärkten – künstliche Intelligenz (KI) findet nicht nur im Wohnzimmer, sondern auch in der Arbeitswelt Anwendung. Zahlreiche Berufe teilen ihr Aufgabenfeld in Zukunft womöglich mit softwaregestützten Techniken, die Computer dazu befähigen, menschliches Verhalten im weitesten Sinne nachzubilden. Wo vorher noch händisch oder mit älterer Technik gearbeitet wurde, kann KI die Analyse von großen Datenmengen erheblich beschleunigen und somit Kosten sparen. Aufgaben wie die Erstellung von Textinhalten oder Bild- und Videobearbeitung werden mit Hilfe von Software und Algorithmen automatisiert. Dafür nutzen KI-basierte Systeme zur Problemlösung teilweise sogenannte künstliche neuronale Netze (KNN). Diese sind dazu in der Lage, durch den Abgleich mit einer großen Anzahl an Foto-Datensätzen beispielsweise Personen und andere Objekte auf Bildern selbstständig zu identifizieren. Auch in der Medizin setzen Forscher:innen auf KI-gestützte Tools, operieren in der Chirurgie gemeinsam mit Robotern oder analysieren mit Hilfe von Algorithmen radiologische Bilder. Ein weiterer, beliebter KI-Trend heißt „Hyperpersonalisierung“: Zeitungs-Apps, die Leser:innen lokalisieren und ihnen individuell regionale Nachrichten anbieten oder personalisierte Werbeanzeigen auf Shopping-Websites – KI eröffnet neue Möglichkeiten, die nicht selten an die Freigabe von persönlichen Daten gekoppelt sind. Zudem prognostizieren IT-Expert:innen und KI-Forscher:innen, dass längst noch nicht alle technischen Möglichkeiten von KI entdeckt und ausgeschöpft wurden.
Wie wirkt sich der Einsatz von künstlicher Intelligenz auf die Privatsphäre aus?
KI-Befürworter:innen sprechen bei der Anwendung von KI und dem Schutz von Privatsphäre gerne von einem Dilemma, da für die Optimierung vieler KI-gestützter Technologien eine hohe Zahl an aussagekräftigen Daten benötigt wird: Umso effizienter und effektiver eine KI-Technologie arbeiten soll, desto mehr qualitativ hochwertige Daten sind erforderlich. Mit der Menge an verwendeten Daten steigt gleichzeitig die Gefahr, dass die gesammelten Informationen missbraucht, also für andere als die ursprünglichen Zwecke verwendet, oder gar an Dritte verkauft werden. Der Markt um Nutzer:innendaten ist so lukrativ wie nie, da hier schnell sehr große Summen an Geld im Spiel sind. Neben dem vorsätzlichen Missbrauch von privaten Daten besteht bei KI-Technologien die Gefahr von Datendiebstahl. Die Pseudonymisierung von personenbezogenen Daten ist zwar ein oft verwendetes Hilfsmittel, das eine unrechtmäßige Verarbeitung verhindern soll, Sicherheitsrisiken aber nicht ausschließt. Beispiele für den unrechtmäßigen Eingriff von KI-Anwendungen in die Privatsphäre sind Sprachassistent:innen, die ohne Einwilligung Gespräche aufzeichnen oder medizinische Patient:innendatenbanken, die nicht ausreichend anonymisiert und vor Cyberangriffen geschützt sind.
Rechtslage zum Schutz der Persönlichkeitsrechte beim Einsatz von künstlicher Intelligenz
Die Europäische Union (EU) schreibt in einem Positionspapier mit dem Titel „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ aus dem Februar 2020, „der Einsatz von KI-Anwendungen für die Zwecke der biometrischen Fernidentifikation und anderer in die Privatsphäre eingreifender Überwachungstechnologien“ sei mit „hohem Risiko behaftet“ und müsse an hohe Anforderungen geknüpft werden, wie zum Beispiel der sicheren Speicherung von Daten. Wenn KI mit personenbezogenen Daten gespeist wird, wenn sie diese verwendet oder wenn sie als Grundlage für Entscheidungen dienen, greift die europäische Datenschutz-Grundverordnung (DSGVO). Dennoch gibt es rechtliche Bereiche, die beim Schutz des Rechts auf informationelle Selbstbestimmung hinsichtlich der Anwendung von KI Lücken aufweisen. Häufig sitzen Konzerne, die Daten für die Entwicklung von KI sammeln, nicht in Europa. Bei der dortigen Datenverarbeitung gilt weder deutsches noch europäisches Recht. Da automatisierte und teil-autonome Systeme auf KI-Basis dem menschlichen Verhalten und dessen Fähigkeiten zumindest näher kommen und die Vernetzung selbstlernender Systeme es zunehmend erschwert, Verantwortungen bei Fehlentscheidungen klar voneinander abzugrenzen, wird außerdem erwogen, KI-Systeme mit einer eigenen Rechtspersönlichkeit auszustatten. Bereits im Jahr 2017 hat das Europäische Parlament eine „elektronische Persönlichkeit“ (ePerson) für intelligente Roboter und autonome Systeme vorgeschlagen, um einen neuen Rechtsbereich für KI-Technologien zu schaffen.
Wie steht die Bevölkerung zum Einsatz von künstlicher Intelligenz?
Nach einer Umfrage des Europäischen Verbraucherverbands (BEUC) im Dezember 2019 erkennen europäische Verbraucher:innen die Chancen von künstlicher Intelligenz, fordern aber einen besseren Schutz ihrer Privatsphäre. So haben 68 Prozent der deutschen Verbraucher:innen bei Spracherkennungssystemen wenig Vertrauen in den Datenschutz. 52 Prozent der Befragten gehen davon aus, dass Firmen KI zur Manipulation von Kaufentscheidungen einsetzen. Insgesamt sehen die Menschen Anwendungen von künstlicher Intelligenz jedoch nicht mehr so skeptisch wie noch vor drei Jahren. Zu diesem Ergebnis kommt eine Umfrage des Branchenverbandes Bitkom in Deutschland. Demnach halten rund zwei Drittel (68 Prozent) der Befragten KI für eine Chance. 29 Prozent gaben an, dass sie KI eher als Gefahr einschätzen. Im Jahr 2017 hatten Befürworter:innen und Skeptiker:innen noch gleichauf gelegen.
Links zum Nach- und Weiterlesen:
„Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“, Positionspapier der Europäischen Union (2020)
„Vetrauenswürdige Künstliche Intelligenz durch Privatsphäre wahrende Technologie“, Faktenpapier des Bundesverbandes Informationswirtschaft, Telekommunikation und neue Medien e. V. (2020)
„Potenziale der Künstlichen Intelligenz im produzierenden Gewerbe in Deutschland“, Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie (2018)
„Künstliche Intelligenz und Recht im Kontext von Industrie 4.0“, Ergebnispapier der Plattform Industrie 4.0 vom Bundesministerium für Wirtschaft und Energie (2019)
„Künstliche Intelligenz, Medien und Öffentlichkeit“, wissenschaftlicher Bericht der Goldmedia GmbH Strategy Consulting (2019)
„Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik“ , Entwurf des Europäischen Parlaments (2017)
„Sicherheit und Künstliche Intelligenz: Erwartungen, Hoffnungen, Emotionen“, Studie im Auftrag des deutschen TÜV-Verbands (2020)
„Algorithmen: Sie entscheiden über unser Leben“, Artikel von Martin Kolmaar und Johannes Binswanger für ZEIT ONLINE (2019)