Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie.

Hintergrundinformationen Onlinedialog zur künstlichen Intelligenz

 

These: Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie

 „Je häufiger Algorithmen zum Einsatz kommen, die für Menschen wichtige Entscheidungen treffen, je stärker Algorithmen den Alltag prägen und je undurchsichtiger es für den Einzelnen wird, womit er es zu tun hat, desto unerlässlicher ist die gesetzliche Regulierung des Einsatzes dieser Verfahren.“ (Manuela Lenzen: Künstliche Intelligenz. Fakten, Chancen, Risiken. (2020), S.114)

Die gesetzliche Regulierung von künstlicher Intelligenz oder algorithmenbasierter Systeme ist ein neues Feld, bei dem noch viele Ansätze diskutiert werden. Algorithmen zu regulieren ist ein gesetzgeberisch komplexes Unterfangen. Erschwerend kommt hinzu, dass die Nutzung solche Systeme selten an Ländergrenzen Halt macht. Rein nationale Regelungen werden also weit weniger wirkungsvoll sein als europäische oder gar internationale Regelwerke. Bis dahin ist es aber wie in vielen Politikfeldern oft ein weiter Weg.

Andererseits scheint die Notwendigkeit allen, die sich mit dem Thema beschäftigen offensichtlich. Eine informierte Entscheidung zu treffen ist für Nutzer*innen digitaler Angebote oftmals gleichermaßen überfordernd und unrealistisch. Selbst wer sich die umfangreichen Nutzungsbedingungen der Anbieter aufmerksam durchliest, wird danach die Funktionsweise der Systeme, wie sie Daten es erheben und diese nutzt meist nicht nachvollziehen können.

Wie steht es um die Regulierung von künstlicher Intelligenz in Deutschland?

Die erste Ebene gesetzlicher Regulierungen ist das Bundesdatenschutzgesetz (BDSG). Es regelt zusammen mit den Datenschutzgesetzen der Länder den Umgang mit personenbezogenen Daten, die in Informations- und Kommunikationssystem oder manuell verarbeitet werden. Es setzt die Europäische Datenschutzgrundverordnung (DSGVO) um, in der dies 2018 EU-weit vereinheitlicht wurde. Die DSGVO gilt als ein wichtiger, aber kein ausreichender Schritt zur Regulierung von algorithmenbasierten Entscheidungssystemen. Viele sehen den Einsatz von KI-Systemen als Bewährungsprobe für die Datenschutzgrundverordnung.  

An Empfehlungen und Ideen, wie der Einsatz künstlicher Intelligenz mit dem Datenschutz in Einklang gebracht werden kann mangelt es nicht. Das Ziel aller: ethische Maßstäbe und Leitlinien für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter. (Lenzen)

Handlungsempfehlungen für KI

Ein paar Beispiele aus den letzten Jahren zeigen, wie dynamisch die Diskussionen zum Thema verlaufen.

1. Die Asilomar KI Prinzipien, entwickelt auf der Asilomar Konferenz, 2017

  • 23 Vorschläge für Forschung, Ethik/Werte und Langzeitprobleme
  • Beispiele:
  • Entwicklung einer nützlichen und wohltätigen KI
  • Vermeidung der Entwicklung autonomer Waffensysteme
  • besonders strikte Kontrolle sich selbst verbessernder Systeme
  • Vermeidung eines Wettlaufes in dem Sicherheitsstandards vernachlässigt werden
  • Kooperation statt Konkurrenz als bestimmender Faktor in der Forschung

2. Institue of Electrical und Electronics Engineers (IEEE), 2019

  • IEEE = weltweit größter Berufsverband von Ingenieuren
  • Vision für die Priorisierung von menschlichem Wohlergehen in autonomen und intelligenten Systemen

2. „Algo.Rules“ , Bertelsmann Stiftung in Zusammenarbeit mit iRights.Lab, 2019

  • Kompetenz für potenzielle Auswirkungen aufbauen
  • Verantwortung für die Auswirkungen des Einsatzes definieren
  • Ziele und Erwartungen klar definieren und regelmäßig abwägen
  • Sicherheit des Systems gegenüber Manipulation gewährleisten
  • Kennzeichnung des Einsatzes für Nutzer*innen
  • Nachvollziehbarkeit der Entscheidungen der Algorithmen
  • Beherrschbarkeit und Gestaltbarkeit des Systems absichern
  • Wirkung regelmäßig von externen Prüfern überprüfen
  • Beschwerden ermöglichen

3. Da nicht jeder Algorithmeneinsatz gleichermaßen kritisch Folgen nach sich zieht, schlägt Katharina Zweig (Algorithm Accountability Lab, Uni Kaiserslautern) die Einteilung in fünf Risikoklassen mit entsprechender Regulierung vor:

    • Klasse 0: keine Regulierung notwendig weil das Schadenspotenzial zu gering ist. Bei Verdachtsfällen kann im Nachhinein geprüft werden und ggf. das System in eine höhere Klasse befördert werden. Beispiel: Produktempfehlungssysteme für Kleidung
    • Klasse 1: Systeme, die ständig überwacht werden müssen (Nachvollziehbarkeitsforderung). Die Gesellschaft muss über die Funktionsweise von Klasse 1 Systemen aufgeklärt werden. Beispiel: Googles Suchmaschine
    • Klasse 2: Zur Nachvollziehbarkeitsforderung der Klasse 1 kommen hier Transparenzforderungen hinzu, z.B. über die Art der Inputdaten, deren Qualität, eventuelle Fairnesskriterien und die Rolle, die solche Algorithmen in finalen Entscheidungen spielen. Beispiele dafür sind Algorithmen, die automatisch oder unterstützend Bewerbungen für einen Job bewerten.
    • Klasse 3: Hier ist das Schadenspotenzial so groß, dass ein direkter Einblick in die Entscheidungsregeln des Algorithmus unabdingbar ist weil sie entgegen zu den vorherigen Klassen nicht mehr erklärend sind. Beispiele: neuronale Netze aus dem Bereich des Deep Learnings. Mit Systemen dieser Art soll z.B. innerhalb eines Betriebes versucht werden, Arbeitnehmer*innen nach ihrem zukünftigen Erfolg zu klassifizieren
    • Klasse 4: alle Entscheidungssituationen, die nicht durch algorithmische Entscheidungssysteme mit lernenden Komponenten entschieden werden dürfen, d.h. Systeme, die nicht existieren sollten. Beispiele: automatische Tötung von vermeintlich erkannten, gesuchten Personen, flächendeckende Überwachung zur Bewertung bürgerlichen Verhaltens (China Sitizen Score) oder die Identifikation von Terroristen (Skynet).

(Quelle: Zweig, Katharina A.: Ein Algorithmus hat kein Taktgefühl (2019))

 

4. Datenethikkommission der Bundesregierung, 2019

    • Die Datenethikkommission der Bundesregierung hat im Oktober 2019 einen Abschlussbericht zahlreiche Handlungsempfehlungen abgegeben.
    • Plädiert z.B. für eine Ergänzung der Europäischen Datenschutzgrundverordnung um eine europäische Verordnung für algorithmische Systeme, Kennzeichnungspflicht für den Umfang des Einsatzes von algorithmischen Systemen, Prüfung ob Antidiskriminierungsgesetz erweitert werden kann

5. Abschlussbericht der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ des Deutschen Bundestags vom Oktober 2020:

Die vom Bundestag eingesetzte Enquete-Kommission Künstliche Intelligenz präsentierte Ende Oktober 2020 Ergebnisse ihrer Arbeit. Viele der darin enthaltenen Handlungsempfehlungen nehmen das Thema Regulierung bzw. das Verhältnis von KI und Demokratie in den Blick. Der Bericht legt ein beachtliches Zeugnis darüber ab, wie viele Bereiche der KI-Entwicklungen betroffen sind oder sein könnten: Daten, Diskriminierung, Recht, Ethik, Gesellschaft, Nachhaltigkeit, Wirtschaft, Innere und Äußere Sicherheit, Smart City, Gesundheit, Pflege, Arbeit, Bildung, Forschung, Mobilität, Medien… kaum ein Bereich bleibt unberührt.

Ohne den 800-seitenstarken Bericht in seinem vollem Umfang darstellen zu können, soll auf die wichtigsten Passagen zur Regulierung hingewiesen werden. Den Rahmen für die Gestaltung von KI bilden dem Bericht nach das Grundgesetz und die Grundrechtscharta der Europäischen Union mit dem Begriff der Menschenwürde als Maßgabe für alle politischen Gestaltungen. Eine Einteilung in Risikoklassen, wie sie z.B. Katharina Zweig oder die Datenethikkommission der Bundesregierung vorschlägt (siehe oben), war innerhalb der Kommission umstritten und findet sich so im Papier nicht wieder.

Empfehlungen zur Regulierung künstlicher Intelligenz im Abschlussbericht der Enquete-Kommission:

  1. Vertrauen durch eine vertrauenswürdige KI aufbauen
    • Nachvollziehbarkeit und Transparenz für Verbraucher*innen herstellen
    • Bedenken aus der Bevölkerung aktiv ansprechen, aufklären und ausräumen
    • Wichtig dabei: angemessene Balance zwischen Verbraucher- und Unternehmensinteressen finden
    • Maßgaben müssen für alle transparent und handhabbar sein
    • Maßgaben dürfen nicht  innovationshemmend sein
  2. Wahrung der Verhältnismäßigkeit
    • Inbesondere im Bereich Innere Sicherheit sollten Maßnahmen verhältnismäßig sein und mit den Grundrechten der Betroffenen abgewogen werden
  3. Sektorspezifische Regulierung
    • Aufsicht und Durchsetzung von Vorgaben sollten den Aufsichtsbehörden zugewiesen werden, die sich bereits mit dem Thema (z.B. Innere Sicherheit) befassen
  4. Haftung
    • Bisheriges Haftungssystem kann auch KI-verursachte Schäden ausgleichen
    • Neue KI-Systeme müssen aber nachvollziehbar sein und Beweise zugänglich machen
  5. Staat als Dienstleister
    • KI-Systeme sollten Bürger*innen in der Informationsbeschaffung Antragstellung und Verwaltung in der Bearbeitung entlasten
  6. Internationale Ächtung tödlicher autonomer Waffensysteme
    • Bundesregierung muss sich rüstungskontrollpolitisch für die weltweite Ächtung von tödlichen autonomen Waffensystemen einsetzen

Was auf den Abschlussbericht der Enquete-Kommission nun folgt, was wie umgesetzt wird, ist offen.

Markus Beckedahl urteilte am Tag der Übergabe des Abschlussberichts im Blog von netzpolitik.org: "Ich war von 2010-2013 Mitglied in der früheren Enquete-Kommission „Internet und digitale Gesellschaft“. Auch damals gab es einen großen Abschlussbericht mit sehr vielen Handlungsempfehlungen, die teilweise einstimmig über alle Fraktionen und Sachverständigen hinweg beschlossen wurden. Allerdings wurde davon fast nichts von der Bundesregierung umgesetzt. Eine Enquete-Kommission klingt vom Werbeprospekt her gesehen immer schön nach einer ergebnisoffenen Untersuchung. In der Praxis ist das aber nicht so ergebnisoffen. Im Hintergrund liefern starke Lobby-Vertretungen Textbausteine rein, die ihre Interessen vertreten. Kleine Fraktionen und ehrenamtliche Sachverständige haben hingegen kaum Ressourcen, dem etwas entgegen zu setzen. Zudem vertreten die Mehrheitsfraktionen gerne Positionen, die im Sinne der aktuellen Regierungspolitik sind. Kaum jemand ist in der Lage, sich einen 800-Seiten Abschlussbericht durchzulesen. Aber dafür gibt es eine Kurz-Zusammenfassung. Trotzdem ist die Arbeit nicht sinnlos, weil eine Enquete-Kommission auch als großes Weiterbildungsprogramm für alle beteiligten Politiker:innen gesehen werden kann, die sich in der Laufzeit mal mehr, mal weniger intensiv damit beschäftigen."

Die Diskussion läuft also weiter. Parallel zur Enquete-Kommission hat die Nichtregierungsorganisation Algorithmwatch ieinen „Automatic Society Report 2020“ (PDF) vorgelegt. Der Spiegel widmete sich diesem Report ausführlich und fasst zusammen: "Wenn wir den derzeitigen Stand von ADM-Systemen in Europa betrachten, sind Positivbeispiele mit echten Vorzügen selten." Die "große Mehrheit" der Systeme "setzt Menschen eher einem Risiko aus, als ihnen zu helfen".

 

Quellen:

Manuela Lenzen: Künstliche Intelligenz. Fakten, Chancen, Risiken. (2020)

Zweig, Katharina A.: Algorithmische Entscheidungen: Transparenz und Kontrolle, https://d-nb.info/1190558548/34

Zweig, Katharina A.: Ein Algorithmus hat kein Taktgefühl (2019)

Bericht der Enquete-Kommission Künstliche Intelligenz –Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale, https://dip21.bundestag.de/dip21/btd/19/237/1923700.pdf

Algorithmwatch: Automating Society Report 2020, https://automatingsociety.algorithmwatch.org/

Spiegel Online: Studie zu Entscheidungen durch Software Wenn Instagram einen Steuerbetrüger verraten soll, https://www.spiegel.de/netzwelt/web/wenn-instagram-einen-steuerbetrueger-verraten-soll-entscheidungen-durch-software-a-9856295f-75a4-4813-9d91-c4df9c19247b

https://netzpolitik.org/2020/bits-viel-papier-zur-regulierung-von-kuenstlicher-intelligenz/

35 Meinungen 17 Kommentare

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Social Media macht es vor, KI Systeme in Form von Bots werden genutzt, um Propaganda zu verbreiten oder zupolarisieren

weiterlesen
07.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Eine unregulierte Entwicklung von KI kann unkontrollierbare Folgen nach sich ziehen

weiterlesen
07.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Entscheidungen kommen nicht von Menschen

weiterlesen
05.12.2020

Gast positioniert sich zur These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. neutral

Entwicklung bedeutet nicht gleich Anwendung. Aber wer eine Gummipuppe im Schrank hat, will sie auch mal nutzen.

weiterlesen
04.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. nicht zu

Künstlich Intelligenz lässt die Menschheit unabhängiger werden, kein Stress um Einkommen, Arbeitsplatz etc. - KI funktioniert allerdings nur mit dem bedingungslosen Grundeinkommen... Wenn Menschen zufriedener sind, sind sie i.d.R.

weiterlesen
04.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Wir brauchen bspw. eine deutliche Abgrenzung von KI generierten Ideen, Meinungen etc. zu "echten" Beiträgen. Siehe Social Media Netzwerke und Meinungsmache

weiterlesen
04.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Durch die fehlende Kontrolle und Regulierung, sind negative Einflüsse auf die Gesellschaft und das soziale Leben nicht zu verhindern. Siehe soziale Netzwerke wie Facebook, welche solche KIs nutzen und damit eine soziale Spaltung fördern.

weiterlesen
03.12.2020

Gast positioniert sich zur These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. neutral

Entwicklung lässt sich nicht regulieren. Es muss die Anwendung reguliert werden und das geht erst, wenn die Funktionen bekannt sind

weiterlesen
03.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Die Folgen von KI können diskriminierend wirken, wie schon jetzt Beispiele bei Bewerbungssoftware zeigt. Frauen wurden wesentlich seltener als Männer zu Bewerbungsgesprächen eingeladen. Das widerspricht dem Grundgesetz.

weiterlesen
03.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Eine Demokratie funktioniert nicht ohne starke Bürgerrechte wie dem der informationellen Selbstbestimmung.

weiterlesen
03.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

KI ist nie moralisch.

weiterlesen
03.12.2020

Gast stimmt der These Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie. zu

Da die unkontrollierte Entwicklung von KI, schnell missbraucht werden kann und wird.

weiterlesen
02.12.2020

Seiten