Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie.

Hintergrundinformationen Onlinedialog zur künstlichen Intelligenz

 

These: Eine fehlende Regulierung der KI-Entwicklung gefährdet die Demokratie

 „Je häufiger Algorithmen zum Einsatz kommen, die für Menschen wichtige Entscheidungen treffen, je stärker Algorithmen den Alltag prägen und je undurchsichtiger es für den Einzelnen wird, womit er es zu tun hat, desto unerlässlicher ist die gesetzliche Regulierung des Einsatzes dieser Verfahren.“ (Manuela Lenzen: Künstliche Intelligenz. Fakten, Chancen, Risiken. (2020), S.114)

Die gesetzliche Regulierung von künstlicher Intelligenz oder algorithmenbasierter Systeme ist ein neues Feld, bei dem noch viele Ansätze diskutiert werden. Algorithmen zu regulieren ist ein gesetzgeberisch komplexes Unterfangen. Erschwerend kommt hinzu, dass die Nutzung solche Systeme selten an Ländergrenzen Halt macht. Rein nationale Regelungen werden also weit weniger wirkungsvoll sein als europäische oder gar internationale Regelwerke. Bis dahin ist es aber wie in vielen Politikfeldern oft ein weiter Weg.

Andererseits scheint die Notwendigkeit allen, die sich mit dem Thema beschäftigen offensichtlich. Eine informierte Entscheidung zu treffen ist für Nutzer*innen digitaler Angebote oftmals gleichermaßen überfordernd und unrealistisch. Selbst wer sich die umfangreichen Nutzungsbedingungen der Anbieter aufmerksam durchliest, wird danach die Funktionsweise der Systeme, wie sie Daten es erheben und diese nutzt meist nicht nachvollziehen können.

Wie steht es um die Regulierung von künstlicher Intelligenz in Deutschland?

Die erste Ebene gesetzlicher Regulierungen ist das Bundesdatenschutzgesetz (BDSG). Es regelt zusammen mit den Datenschutzgesetzen der Länder den Umgang mit personenbezogenen Daten, die in Informations- und Kommunikationssystem oder manuell verarbeitet werden. Es setzt die Europäische Datenschutzgrundverordnung (DSGVO) um, in der dies 2018 EU-weit vereinheitlicht wurde. Die DSGVO gilt als ein wichtiger, aber kein ausreichender Schritt zur Regulierung von algorithmenbasierten Entscheidungssystemen. Viele sehen den Einsatz von KI-Systemen als Bewährungsprobe für die Datenschutzgrundverordnung.  

An Empfehlungen und Ideen, wie der Einsatz künstlicher Intelligenz mit dem Datenschutz in Einklang gebracht werden kann mangelt es nicht. Das Ziel aller: ethische Maßstäbe und Leitlinien für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter. (Lenzen)

Handlungsempfehlungen für KI

Ein paar Beispiele aus den letzten Jahren zeigen, wie dynamisch die Diskussionen zum Thema verlaufen.

1. Die Asilomar KI Prinzipien, entwickelt auf der Asilomar Konferenz, 2017

  • 23 Vorschläge für Forschung, Ethik/Werte und Langzeitprobleme
  • Beispiele:
  • Entwicklung einer nützlichen und wohltätigen KI
  • Vermeidung der Entwicklung autonomer Waffensysteme
  • besonders strikte Kontrolle sich selbst verbessernder Systeme
  • Vermeidung eines Wettlaufes in dem Sicherheitsstandards vernachlässigt werden
  • Kooperation statt Konkurrenz als bestimmender Faktor in der Forschung

2. Institue of Electrical und Electronics Engineers (IEEE), 2019

  • IEEE = weltweit größter Berufsverband von Ingenieuren
  • Vision für die Priorisierung von menschlichem Wohlergehen in autonomen und intelligenten Systemen

2. „Algo.Rules“ , Bertelsmann Stiftung in Zusammenarbeit mit iRights.Lab, 2019

  • Kompetenz für potenzielle Auswirkungen aufbauen
  • Verantwortung für die Auswirkungen des Einsatzes definieren
  • Ziele und Erwartungen klar definieren und regelmäßig abwägen
  • Sicherheit des Systems gegenüber Manipulation gewährleisten
  • Kennzeichnung des Einsatzes für Nutzer*innen
  • Nachvollziehbarkeit der Entscheidungen der Algorithmen
  • Beherrschbarkeit und Gestaltbarkeit des Systems absichern
  • Wirkung regelmäßig von externen Prüfern überprüfen
  • Beschwerden ermöglichen

3. Da nicht jeder Algorithmeneinsatz gleichermaßen kritisch Folgen nach sich zieht, schlägt Katharina Zweig (Algorithm Accountability Lab, Uni Kaiserslautern) die Einteilung in fünf Risikoklassen mit entsprechender Regulierung vor:

    • Klasse 0: keine Regulierung notwendig weil das Schadenspotenzial zu gering ist. Bei Verdachtsfällen kann im Nachhinein geprüft werden und ggf. das System in eine höhere Klasse befördert werden. Beispiel: Produktempfehlungssysteme für Kleidung
    • Klasse 1: Systeme, die ständig überwacht werden müssen (Nachvollziehbarkeitsforderung). Die Gesellschaft muss über die Funktionsweise von Klasse 1 Systemen aufgeklärt werden. Beispiel: Googles Suchmaschine
    • Klasse 2: Zur Nachvollziehbarkeitsforderung der Klasse 1 kommen hier Transparenzforderungen hinzu, z.B. über die Art der Inputdaten, deren Qualität, eventuelle Fairnesskriterien und die Rolle, die solche Algorithmen in finalen Entscheidungen spielen. Beispiele dafür sind Algorithmen, die automatisch oder unterstützend Bewerbungen für einen Job bewerten.
    • Klasse 3: Hier ist das Schadenspotenzial so groß, dass ein direkter Einblick in die Entscheidungsregeln des Algorithmus unabdingbar ist weil sie entgegen zu den vorherigen Klassen nicht mehr erklärend sind. Beispiele: neuronale Netze aus dem Bereich des Deep Learnings. Mit Systemen dieser Art soll z.B. innerhalb eines Betriebes versucht werden, Arbeitnehmer*innen nach ihrem zukünftigen Erfolg zu klassifizieren
    • Klasse 4: alle Entscheidungssituationen, die nicht durch algorithmische Entscheidungssysteme mit lernenden Komponenten entschieden werden dürfen, d.h. Systeme, die nicht existieren sollten. Beispiele: automatische Tötung von vermeintlich erkannten, gesuchten Personen, flächendeckende Überwachung zur Bewertung bürgerlichen Verhaltens (China Sitizen Score) oder die Identifikation von Terroristen (Skynet).

(Quelle: Zweig, Katharina A.: Ein Algorithmus hat kein Taktgefühl (2019))

 

4. Datenethikkommission der Bundesregierung, 2019

    • Die Datenethikkommission der Bundesregierung hat im Oktober 2019 einen Abschlussbericht zahlreiche Handlungsempfehlungen abgegeben.
    • Plädiert z.B. für eine Ergänzung der Europäischen Datenschutzgrundverordnung um eine europäische Verordnung für algorithmische Systeme, Kennzeichnungspflicht für den Umfang des Einsatzes von algorithmischen Systemen, Prüfung ob Antidiskriminierungsgesetz erweitert werden kann

5. Abschlussbericht der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ des Deutschen Bundestags vom Oktober 2020:

Die vom Bundestag eingesetzte Enquete-Kommission Künstliche Intelligenz präsentierte Ende Oktober 2020 Ergebnisse ihrer Arbeit. Viele der darin enthaltenen Handlungsempfehlungen nehmen das Thema Regulierung bzw. das Verhältnis von KI und Demokratie in den Blick. Der Bericht legt ein beachtliches Zeugnis darüber ab, wie viele Bereiche der KI-Entwicklungen betroffen sind oder sein könnten: Daten, Diskriminierung, Recht, Ethik, Gesellschaft, Nachhaltigkeit, Wirtschaft, Innere und Äußere Sicherheit, Smart City, Gesundheit, Pflege, Arbeit, Bildung, Forschung, Mobilität, Medien… kaum ein Bereich bleibt unberührt.

Ohne den 800-seitenstarken Bericht in seinem vollem Umfang darstellen zu können, soll auf die wichtigsten Passagen zur Regulierung hingewiesen werden. Den Rahmen für die Gestaltung von KI bilden dem Bericht nach das Grundgesetz und die Grundrechtscharta der Europäischen Union mit dem Begriff der Menschenwürde als Maßgabe für alle politischen Gestaltungen. Eine Einteilung in Risikoklassen, wie sie z.B. Katharina Zweig oder die Datenethikkommission der Bundesregierung vorschlägt (siehe oben), war innerhalb der Kommission umstritten und findet sich so im Papier nicht wieder.

Empfehlungen zur Regulierung künstlicher Intelligenz im Abschlussbericht der Enquete-Kommission:

  1. Vertrauen durch eine vertrauenswürdige KI aufbauen
    • Nachvollziehbarkeit und Transparenz für Verbraucher*innen herstellen
    • Bedenken aus der Bevölkerung aktiv ansprechen, aufklären und ausräumen
    • Wichtig dabei: angemessene Balance zwischen Verbraucher- und Unternehmensinteressen finden
    • Maßgaben müssen für alle transparent und handhabbar sein
    • Maßgaben dürfen nicht  innovationshemmend sein
  2. Wahrung der Verhältnismäßigkeit
    • Inbesondere im Bereich Innere Sicherheit sollten Maßnahmen verhältnismäßig sein und mit den Grundrechten der Betroffenen abgewogen werden
  3. Sektorspezifische Regulierung
    • Aufsicht und Durchsetzung von Vorgaben sollten den Aufsichtsbehörden zugewiesen werden, die sich bereits mit dem Thema (z.B. Innere Sicherheit) befassen
  4. Haftung
    • Bisheriges Haftungssystem kann auch KI-verursachte Schäden ausgleichen
    • Neue KI-Systeme müssen aber nachvollziehbar sein und Beweise zugänglich machen
  5. Staat als Dienstleister
    • KI-Systeme sollten Bürger*innen in der Informationsbeschaffung Antragstellung und Verwaltung in der Bearbeitung entlasten
  6. Internationale Ächtung tödlicher autonomer Waffensysteme
    • Bundesregierung muss sich rüstungskontrollpolitisch für die weltweite Ächtung von tödlichen autonomen Waffensystemen einsetzen

Was auf den Abschlussbericht der Enquete-Kommission nun folgt, was wie umgesetzt wird, ist offen.

Markus Beckedahl urteilte am Tag der Übergabe des Abschlussberichts im Blog von netzpolitik.org: "Ich war von 2010-2013 Mitglied in der früheren Enquete-Kommission „Internet und digitale Gesellschaft“. Auch damals gab es einen großen Abschlussbericht mit sehr vielen Handlungsempfehlungen, die teilweise einstimmig über alle Fraktionen und Sachverständigen hinweg beschlossen wurden. Allerdings wurde davon fast nichts von der Bundesregierung umgesetzt. Eine Enquete-Kommission klingt vom Werbeprospekt her gesehen immer schön nach einer ergebnisoffenen Untersuchung. In der Praxis ist das aber nicht so ergebnisoffen. Im Hintergrund liefern starke Lobby-Vertretungen Textbausteine rein, die ihre Interessen vertreten. Kleine Fraktionen und ehrenamtliche Sachverständige haben hingegen kaum Ressourcen, dem etwas entgegen zu setzen. Zudem vertreten die Mehrheitsfraktionen gerne Positionen, die im Sinne der aktuellen Regierungspolitik sind. Kaum jemand ist in der Lage, sich einen 800-Seiten Abschlussbericht durchzulesen. Aber dafür gibt es eine Kurz-Zusammenfassung. Trotzdem ist die Arbeit nicht sinnlos, weil eine Enquete-Kommission auch als großes Weiterbildungsprogramm für alle beteiligten Politiker:innen gesehen werden kann, die sich in der Laufzeit mal mehr, mal weniger intensiv damit beschäftigen."

Die Diskussion läuft also weiter. Parallel zur Enquete-Kommission hat die Nichtregierungsorganisation Algorithmwatch ieinen „Automatic Society Report 2020“ (PDF) vorgelegt. Der Spiegel widmete sich diesem Report ausführlich und fasst zusammen: "Wenn wir den derzeitigen Stand von ADM-Systemen in Europa betrachten, sind Positivbeispiele mit echten Vorzügen selten." Die "große Mehrheit" der Systeme "setzt Menschen eher einem Risiko aus, als ihnen zu helfen".

 

Quellen:

Manuela Lenzen: Künstliche Intelligenz. Fakten, Chancen, Risiken. (2020)

Zweig, Katharina A.: Algorithmische Entscheidungen: Transparenz und Kontrolle, https://d-nb.info/1190558548/34

Zweig, Katharina A.: Ein Algorithmus hat kein Taktgefühl (2019)

Bericht der Enquete-Kommission Künstliche Intelligenz –Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale, https://dip21.bundestag.de/dip21/btd/19/237/1923700.pdf

Algorithmwatch: Automating Society Report 2020, https://automatingsociety.algorithmwatch.org/

Spiegel Online: Studie zu Entscheidungen durch Software Wenn Instagram einen Steuerbetrüger verraten soll, https://www.spiegel.de/netzwelt/web/wenn-instagram-einen-steuerbetrueger-verraten-soll-entscheidungen-durch-software-a-9856295f-75a4-4813-9d91-c4df9c19247b

https://netzpolitik.org/2020/bits-viel-papier-zur-regulierung-von-kuenstlicher-intelligenz/

Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen.

Hintergrundinformationen zur These „Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen“.

KI ist bereits seit Jahrzenten fest in unseren Alltag integriert, sei es beim individualisierten Schaufenster bei Amazon, der Auswahl der Beiträge im Facebook-Feed oder bei der Berechnung von Szenarios zum Klimawandel. Dabei besteht die entscheidende Frage heute – anders als in den Science-Fiction-Visionen des letzten Jahrhunderts – nicht darin, ob KIs den Menschen entmachten werden, sondern wie moralische Dilemmata schon bei der Entwicklung gewichtet werden sollen sowie ob und in welchen Lebensbereichen es wünschenswert ist, dass Menschen von KI abgelöst werden.

Öffentlichkeit ohne Menschen?

Denn eine Sache bleibt klar: KI ersetzt den Menschen. In ganz alltäglichen Situationen ist dies bereits der Fall: Wenn z.B. Amazons persönliche Assistenz-KI „Alexa“ vorschlägt, welcher Film geschaut (und praktischerweise direkt bei Amazon selbst erworben) werden könnte, aber auch, wenn in der Pflege zunehmend Roboter eingesetzt werden, die therapeutische Maßnahmen durch Menschen begleiten, mitunter gar ersetzen oder wenn ein Chatbot im Kundenservice eines Unternehmens anhand von Stichwörtern Empfehlungen geben und Aufträge entgegennehmen kann. All diesen Beispielen gemein ist, dass sie menschliche Arbeit reduzieren – ebenso aber auch soziale Begegnungen zwischen Menschen. Diese sind vor allem durch ihre Zufälligkeit gekennzeichnet – im öffentlichen Raum erkennen wir, dass wir Teil einer Gesellschaft sind, weil wir Kontakt zu Menschen erleben, den wir privat nicht bewusst herbeiführen würden. Dabei ist es erst einmal unerheblich, ob das kurze Gespräch mit der Busfahrerin oder dem Kassierer im Supermarkt von positiven oder negativen Emotionen getragen ist – in einer Welt, in der Busse autonom fahren und die Lebensmittel per Self-Check-Out am Touchscreen bezahlt werden, finden solche Begegnungen überhaupt nicht statt. Der Mensch ist dann zunehmend Privatperson, die Lebenswelt anderer Menschen wird unsichtbar.

Mehr zum Thema Einsatzfelder von KI.

Mehr zum Thema Pflegeroboter.

Eisenbahnkrankheit und Technikangst

Wie bei allen technologischen Neuerungen ist man jedoch auch hier schlecht beraten, Skepsis oder gar Angst zum alleinigen Bewertungsmaßstab zu machen. Dass das „Bayrische Obermedizinalkollegium“ 1835 davor warnte, dass die Geschwindigkeit der neuen Dampflock von über 30 km/h sowohl bei Reisenden als auch bei Zuschauenden schwere Gehirnerkrankungen hervorbrächte, ist wohl in das Reich der Legenden zu
verweisen
– untypisch ist eine solche Anekdote jedoch nicht. Seit es technologischen Wandel gibt, stößt dieser auf Skepsis und Enthusiasmus gleichermaßen.

Denn die positiven Effekte von KI lassen sich nicht leugnen. So bestätigten verschiedene Untersuchungen, dass Algorithmen mitunter besser als Menschen mit jahrelanger Berufserfahrung dazu in der Lage sind, Patientendaten wie beispielsweise MRT-Bilder zu analysieren und potenziell tödliche Krankheiten früh zu erkennen. Der elektronische Rechtsassistent „DoNotPay“, ein selbstlernendes Programm, welches von Bußgeldbescheiden über Nebenkostenabrechnungen bis hin zu komplexeren juristischen Sachverhalten tausender Menschen analysiert und automatisiert Einspruchsschreiben verfassen kann, ist zudem nicht nur deswegen eine bemerkenswerte Innovation, weil es ebenso manche Fachmenschen inhaltlich aussticht, sondern weil es sehr viel günstiger ist. KI nimmt uns also nicht nur kleinteilige Alltagsaufgaben ab, sondern kann durch den preisgünstigen Zugang zu komplexen Wissensfeldern auch dazu beitragen, dass sich Ressourcen in der Bevölkerung breiter verteilen und die sozialen Barrieren einer Wissensgesellschaft abgebaut werden.

Die Gesellschaft steht also vor der Aufgabe, einen Kompromiss zwischen Vorteilen der Innovationen und der Gefahr einer Entmenschlichung zu entwickeln.

Mehr zum Thema „Was kann KI leisten?“.

Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“

Zu diesem Zweck setzte der Bundestag im Jahr 2018 eine Enquete-Kommission ein, welche sich mit Risiken und Potenzialen der Künstlichen Intelligenz auseinandersetzte und im Oktober 2020 ihren Abschlussbericht vorlegte.

Sie kam dabei unter anderem zu dem Schluss, dass KI im Zusammenhang mit Wirtschaft stärker gefördert und für neue Unternehmen auch Räume zum Experimentieren eingerichtet werden sollen. Auch in der Verwaltung sieht die Kommission Potenziale, wenngleich hier keine Entscheidungen durch Maschinen getroffen werden sollen, die einen Ermessensspielraum zu Grunde liegen haben, der sonst durch einen Menschen abgewägt würde. Tödliche autonome Waffensysteme, also militärische Maschinen, die über die Tötung von Menschen entscheiden und diese durchführen, sollen hingegen verboten und durch Deutschland auf deren weltweite Ächtung hingearbeitet werden. Im medizinischen Bereich sieht die Kommission ebenfalls große Chancen, nicht zuletzt in der Bekämpfung des Corona-Virus, dessen lokale Ausbrüche sich bereits heute durch KI anhand der Fallzahlen teilweise vorhersagen lassen. Gerade im Gesundheitssektor birgt die Verzahnung von Datensicherheit und KI jedoch auch Risiken, wenn der Datenhunger von selbstlernenden Maschinen zum „gläsernen Patienten“ führt.

Nicht nur an den vielen Sondervoten einzelner Fraktionen zu noch unzähligen weiteren Themenfeldern fällt dabei auf, dass KI hier auch immer als politisches Problem gedacht wird: Die Abschätzung von Chancen und Risiken, von Entwicklungsfreiheit oder Regulierungsnotwendigkeit verläuft nicht selten anhand klassischer Fraktionsgrenzen im Parlament. So interessierte sich die SPD-Delegation beispielsweise für Reformen der betrieblichen Mitbestimmung, wenn Unternehmen mehr und mehr automatisiert arbeiten. Kommissionsmitglieder der CDU hingegen setzen eher auf unternehmerische Freiheit und warnen vor der „Regulierungskeule“.

Den ausführlichen Betrachtungen der Kommission liegt jedoch ein Konsens zu Grunde: Das Leitbild einer „menschenzentrierten KI“. Dazu heißt es im Bericht:

„Der Begriff des Mensch-Seins, das Bild des Menschen von sich selbst, kann insofern eine ethische Korrektur einer Perspektive sein, die die Logik von KI-Systemen in einer Rangfolge vor den Menschen stellt. […] Ausgehend von der Idee der Menschenwürde kann es nicht darum gehen, Menschen schlechthin durch KI-Systeme zu ersetzen. […] In einer solchen recht verstandenen Mensch-KI-System-Interaktion ist der Mensch gestaltendes Subjekt und prägt die Interaktion“ (S.83).

Abschlussbericht der Enquete-Kommission (PDF).

Beitrag über die Arbeit der Enquete-Kommission beim Deutschlandfunk.

Eine moralische KI entwickeln – aber wie?

Doch genau hier liegt ein ethisches Dilemma: Nach welchen Prinzipien muss eine KI entwickelt werden, die die Menschenwürde respektiert? Sollte ein selbstfahrendes Auto im Zweifelsfall lieber die Insassen gefährden oder andere Verkehrsteilnehmer? Liegt das Recht zu dieser Entscheidung, die schon in der Entwicklung bedacht werden muss, beim Hersteller oder sollte dies gesetzlich vorgegeben werden?

In der praktischen Philosophie gibt es verschiedene Ansichten darüber, worin moralisch richtiges Handeln besteht. Der Konsequenzialismus, bekannt vor allem in seiner Spielart des Utilitarismus, bewertet Handlungen nach ihrem Ergebnis. Hier ist die Handlung richtig, die den meisten Nutzen oder das meiste Glück bringt, wobei es dann auch denkbar wäre, dass dafür Opfer in Kauf genommen werden müssen. Wenn also, im Extremfall dieser Denkart, ein selbstfahrendes Auto auf ein Kind zusteuern würde, aber die Option hätte, auf eine Gruppe von älteren Menschen umzulenken, bestünde in Zweiterem die richtige Handlung, da hier weniger Lebenszeit zerstört würde.

Diese Konstruktion mutet uns aber nicht grundlos als makaber an. Das liegt daran, so würde die entgegengesetzte Strömung der Deontologie argumentieren, dass vor allem die Motivation einer Handlung beurteilt werden sollte. Demnach handelt jemand richtig, der plausibel konstruierten Gesetzen und Pflichten nachkommt, selbst wenn diese Handlung Unheil nach sich zieht. Ein Beispiel hierfür sind die Menschenrechte: Weil es mit der Würde des Menschen unvereinbar ist, eine Tötung bewusst herbeizuführen, dürfte das Auto nicht umschwenken, wohingegen die Tragik der Kollision mit dem Kind einfach in der Katastrophe selbst liegt, nicht in der Verantwortung des Autos.

Eine dritte Schule, die der Tugendethik, versucht hingegen, den Fokus weg von der Handlung und hin zum handelnden Menschen zu führen. Das Ziel muss dann darin bestehen, an sich als Mensch zu arbeiten, sich Tugenden wie Gerechtigkeit, Fairness und Weisheit zu erarbeiten, um kontinuierlich gute Entscheidungen zu treffen. Was bei Aristoteles aber als Aufforderung an jedes Individuum gemeint ist, müsste übertragen auf KI-Entwicklung als politischer und gesellschaftlicher Auftrag verstanden werden: Wir müssen gemeinsam darum streiten, wie die Entscheidungen einer Maschine gestaltet sein müssen, damit sie moralisch vertretbar sind. Außerdem müssen wir uns einigen, ob KI eine allgegenwärtige Begleiterin sein oder aus bestimmten Lebensbereichen komplett verbannt werden sollte.

Mehr zum Thema Maschine und Moral.

Mehr zum Thema Maschinenethik.

Mehr zum Thema Strömungen der praktischen Philosophie.

Weiterführende Literatur:

Durch KI entstehen mehr Arbeitsplätze, als verloren gehen.

Hintergrundinformationen zur These: „Mit künstlicher Intelligenz (KI) entstehen mehr Arbeitsplätze als verloren gehen“

Spätestens seit der ersten industriellen Revolution wird die Frage diskutiert, ob der technische Fortschritt zu mehr Arbeitslosigkeit führt oder die wegfallenden Arbeitsplätze durch neue ersetzt werden („Kompensationsthese“) und künftig gar zusätzliche Arbeitsplätze geschaffen werden können. Der grundlegende Ausgangspunkt liegt demnach in der Frage: „Wird die Freisetzung von Arbeitskräften“ (vgl. Weizsäcker) mit der zunehmenden Anwendung von künstlicher Intelligenz zu kompensieren sein? Weitere Überlegungen, die daran anschließen sind die Fragen nach konkreten Maßnahmen, einer umfassenden Digitalisierung bedarfsgerecht begegnen zu können.

Digitalisierung und KI, wo stehen wir?

Die Digitalisierung ist zunächst eine sehr junge Entwicklung, jedoch mit einer enormen „Durchschlagskraft“ (vgl. Arnold, 2018) und einer hohen potenziellen Beschleunigung in der zukünftigen Entwicklung. Beispielsweise existiert das sogenannte Web 2.0 erst seit den 2000´er Jahren, indem Webseiten nicht nur passiv „konsumiert“, sondern auch aktiv verändert werden können. Auch Smartphones, Smart-TV, E-Mails, Software, Apps und eine umfassenden Kommunikation über verschiedenste Social-Media-Kanäle, sind nicht mehr wegzudenken. Diese erste Stufe der Digitalisierung ist bereits global etabliert, die zweite Stufe entwickelt sich gegenwärtig. Dabei folgen auf digitale Geräte, selbstlernende digitale Geräte, auf Automatisierung (bspw. industriell eingesetzte Robotik) folgt die Digitalisierung der Automatisierung. Ansätzen wie dem „Internet der Dinge“ (IoT) als „ein System intelligenter, über ein Kommunikationsmedium verbundener Produkte“ (vgl. Lackes 2018) wie das „Smart Home“, „Smart Cities“, „E-Health“ oder autonomes Fahren (ebd.), sind hierfür bekannte Beispiele. Dabei investieren vor allem China und die USA in digitale Forschung (vgl. Digital-Magazin 2020). Insgesamt steckt die Entwicklung von KI also noch am Anfang aber die jüngsten technologischen Entwicklungen, die Zukunftsutopien und Investitionen führender Konzerne, zeigen eine rasante Entwicklung auf der zweiten Stufe an, sodass sich Fragen nach der zukünftigen Entwicklung von Arbeitsplätzen und sozialen Sicherungsmodellen anschließen (müssen).

Wie wird die Arbeitsplatzentwicklung diagnostiziert?

Die Fragen richten sich einerseits nach den Branchen in denen Arbeitsplätze aufgrund fortschreitender digitalisierter Automatisierung und KI-Entwicklung obsolet werden können. Gleichzeitig wird nach dem möglichen Umfang eines potenziellen Wegfalls gefragt werden müssen. Nach der Oxford-Studie von Osborne und Frey aus dem Jahre 2013, könnten für die USA ca. 47 Prozent der Berufe aus unterschiedlichen Branchen – „potenziell über eine unbestimmte Anzahl von Jahren, vielleicht ein Jahrzehnt oder zwei“ – automatisierbar sein. Das Risiko steigt nach den Forschern mit der niedrigeren Bezahlung in den jeweiligen Branchen an. Einige Beispiele für potenziell betroffene Berufe finden sich in den Branchen der Gastronomie, des (Lebensmittel)-Einzelhandels, des Hotelgewerbes, der Gesundheit, der Kundenbetreuung, des Versicherungs- und Bankengewerbes oder der Logistik und Buchhaltung (vgl. Osborne & Fry 2013). Die Studie sorgte für Aufsehen, so wurden im Anschluss Untersuchungen für Deutschland erstellt. „Demnach arbeiten derzeit 42% der Beschäftigten in Deutschland in Berufen mit einer hohen Automatisierungswahrscheinlichkeit“, jedoch erfordern die Ergebnisse laut Bonin „eine vorsichtige Interpretation“ die auf 3 Aspekte zurückgeführt werden kann:

  1. Rechtliche und ethische Hürden bleiben bei der Einführung neuer Technologien unberücksichtigt.
  2. Eine potenzielle Überschätzung des technischen Automatisierungspotentials wird angenommen, da die Ergebnisse auf spezifischen Experteneinschätzungen beruhen, welche laut Bonin zur Überschätzung neigen.
  3. Das technische Automatisierungspotential ist nicht mit möglichen Beschäftigungseffekten gleichzusetzen, da Maschinen Arbeitsplätze verändern können ohne sie zwangsläufig zu ersetzen (vgl. Bonin 2015).

Aber auch in der Studie von Bonin wird darauf hingewiesen, dass in der Tendenz „die in Folge der Automatisierung neu entstehenden Arbeitsplätze anspruchsvoller [sind] als Arbeitslätze, die wegrationalisiert werden. Mehr und bessere Qualifizierung ist daher eine gute Vorsorge“ (vgl. ebd.), beispielsweise anhand von Weiterbildungen und der Förderung des Lebens-Langen-Lernens. Ob diese Maßnahmen jedoch geeignet bzw. ausreichend sind, um der zukünftigen Entwicklung gerecht zu werden, bleibt weiterhin zu diskutieren.

Auch nach Siegfried Timpf, der mehrere Studien zum Thema analysiert hat, zeigt sich zunächst, dass eine Automatisierung bisheriger Berufe von zwischen 15 und 42 Prozent (je nach Studie) gesehen wird, wobei aber Automatisierung nicht gleich Wegfall bedeutet und die entstehenden neuen Arbeitspotenziale nicht unterschätzt werden sollten: „Insofern haben diejenigen, die zu verschiedenen Zeiten aus verschiedenen Blickwinkeln das Ende der Arbeit prognostizierten, zugleich Recht und nicht Recht. Sie haben insbesondere aktuell Recht, weil die digitale Transformation, insbesondere in ihrer zweiten Stufe der Koppelung `cyber-physischer Systeme`, erhebliche Veränderungen im Gesamtarbeitsgefüge bewirken kann. Dies eröffnet auch Chancen, das Gesamtarbeitsgefüge neu zu thematisieren, wenngleich die Erfahrungen der Vergangenheit hier zu einer skeptischen Haltung führen. So wie die Technologien immer wieder mit Bedeutungen aufgeladen werden, die eine Umwälzung aller gesellschaftlichen Verhältnisse erwarten lassen, so gab es auch immer wieder eine Überschätzung der Gestaltungsspielräume (Gender, Macht)“ (vgl. Timpf 2017).

Zu ähnlich verhaltenen Ergebnissen kommt eine Studie des Instituts der deutschen Wirtschaft (IW), für die 1.200 Personalleiter und Geschäftsführer von deutschen Unternehmen befragt wurden. Dort stellen 2017 vor allem bereits stark digitalisierte Unternehmen bei denen das Internet der Hauptfaktor für die Geschäftstätigkeit ist, zusätzliche Mitarbeiter ein (62%). Im Vergleich dienten weniger digitalisierten Unternehmen, welche nur 44% zusätzliche Mitarbeiter im Zeitraum einstellten. Bis zu jetzigen Zeitpunkt ist ein Arbeitsplatzabbau nicht zu erkennen (vgl. Steinbach 2019). Aus den folgenden Aspekten ergeben sich jedoch einige Lücken hinsichtlich der Interpretation der zukünftigen Arbeitsplatzentwicklung. Einerseits wird die Lage bis 2017 erfasst, also der Anfangsphase der Digitalisierung. Bisher ist kein Wegfall zu erkennen aber Aussagen über zukünftige Entwicklungen sind unkonkret. Weiterhin wird aufgezeigt, „dass gerade hochqualifizierte Akademiker mehr und mehr in digitalisierten Unternehmen tätig sind“ (ebd.). Die Neueinstellungen beziehen sich also gerade nicht auf die Branchen, die von Arbeitsplatzwegfällen am stärksten betroffen sein könnten.

Insgesamt wird eine mehr oder minder starke Umgestaltung der Arbeitswelt stattfinden, da sind sich alle einig. Wie stark jedoch die wegfallenden Arbeitsplätze in den verschiedenen Branchen ins Gewicht fallen, wird davon abhängig sein, wie schnell die „nächste Stufe“ von KI und Digitalisierung erreicht wird und wie schnell auf der anderen Seite, politisch und wirtschaftlich, hierzu vorbeugende Maßnahmen ergriffen werden. Wird eine explosionsartige KI-Entwicklung auf einen Schlag große Teile der Arbeitsplätze kosten, hätte das schwerwiegende Folgen. Erfolgt eine kontinuierliche Entwicklung einer modernen Arbeitswelt, welche rechtlich eingehegt und politisch als auch wirtschaftlich so flankiert ist, dass bspw. qualifizierte Arbeitskräfte verfügbar sind, so können evtl. auch im Rückblick auf die kommenden Jahrzehnte, Aussagen getätigt werden wie bisher: „Im Endeffekt hat die gestiegene Arbeitsproduktivität bisher immer dazu geführt, dass die Produkte billiger und manchmal sogar besser wurden, dass die Arbeitszeit sank und die Löhne – zumindest moderat – stiegen sowie neue Arbeitsplätze an anderer Stelle entstanden“ (Popp & Reinhardt, 2019).

Quellen:

Anne Steinbach, 2019: Digitalisierung ist doch kein Jobkiller. https://www.springerprofessional.de/transformation/personalmanagement/wie-digitalisierung-doch-keine-arbeitsplaetze-zerstoert/16754578

Carl Christian von Weizsäcker, 1988: Kritische Anmerkungen zu den wissenschaftlichen Grundlagen der Memorandum-Gruppe. https://www.zeit.de/1988/07/gewinn-und-mikroelektronik--arbeitslosigkeit

Digital-Magazin, 2020: Digitale Forschung – China und die USA investieren mehr als Deutschland. https://digital-magazin.de/digitale-forschung-studie/

Frey, C. B./Osborne, M. A. (2013): The Future of Employment: How Susceptible are Jobs to Computerization?, Oxford Martin School (OMS) working paper, University of Oxford, Oxford. https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

Holger Bonin, 2015: Übertragung der Studie von Frey/Osborne (2013) auf Deutschland (Endbericht). https://www.bmas.de/SharedDocs/Downloads/DE/PDF-Publikationen/Forschungsberichte/fb-455.pdf

Norbert Arnold & Tobias Wangermann (Hrsg.), 2018: Digitalisierung und Künstliche Intelligenz: Orientierungspunkte. https://www.kas.de/documents/252038/4521287/Taschenbuch+Digitalisierung+und+K%C3%BCnstliche+Intelligenz.pdf/864e3c1d-1273-a2a4-18c4-c5699f19900a

Reinhold Popp & Ulrich Reinhardt, 2019: "Zukunftsvision Deutschland. Zwischen Zukunftsangst und Zuversicht. 40 Meinungsbilder der Deutschen zum Wandel der Arbeitswelt. https://www.springerprofessional.de/zwischen-zukunftsangst-und-zuversicht/16749964

Richard Lackes, 2018: Internet of Things, In Norbert Arnold & Tobias Wangermann (Hrsg.): Digitalisierung und Künstliche Intelligenz: Orientierungspunkte. https://www.kas.de/documents/252038/4521287/Taschenbuch+Digitalisierung+und+K%C3%BCnstliche+Intelligenz.pdf/864e3c1d-1273-a2a4-18c4-c5699f19900a

Siegfried Timpf, 2017: Beschäftigungswirkungen der Digitalisierung und kein Ende der Arbeit? https://www.boeckler.de/pdf/timpf_beschaeftigungswirkungen_4.pdf

Unionize 2019: Wo Jobs wegfallen könnten nach Osborne und Frey. https://www.unionize.de/++co++d7f8b1d2-8e86-11e9-89c0-52540088cada

Der technische Fortschritt durch KI ist das Risiko wert, unsere Privatsphäre in Teilen aufzugeben.

Hintergrundinformationen zur These: „Der technische Fortschritt durch künstliche Intelligenz ist das Risiko wert, unsere Privatsphäre in Teilen aufzugeben.”

Welchen technischen Fortschritt ermöglichen KI-gestützte Technologien?

Roboter als Pflegekräfte in Krankenhäusern, Sachbearbeiter:innen in Versicherungen oder Verkäufer:innen in Supermärkten – künstliche Intelligenz (KI) findet nicht nur im Wohnzimmer, sondern auch in der Arbeitswelt Anwendung. Zahlreiche Berufe teilen ihr Aufgabenfeld in Zukunft womöglich mit softwaregestützten Techniken, die Computer dazu befähigen, menschliches Verhalten im weitesten Sinne nachzubilden. Wo vorher noch händisch oder mit älterer Technik gearbeitet wurde, kann KI die Analyse von großen Datenmengen erheblich beschleunigen und somit Kosten sparen. Aufgaben wie die Erstellung von Textinhalten oder Bild- und Videobearbeitung werden mit Hilfe von Software und Algorithmen automatisiert. Dafür nutzen KI-basierte Systeme zur Problemlösung teilweise sogenannte künstliche neuronale Netze (KNN). Diese sind dazu in der Lage, durch den Abgleich mit einer großen Anzahl an Foto-Datensätzen beispielsweise Personen und andere Objekte auf Bildern selbstständig zu identifizieren. Auch in der Medizin setzen Forscher:innen auf KI-gestützte Tools, operieren in der Chirurgie gemeinsam mit Robotern oder analysieren mit Hilfe von Algorithmen radiologische Bilder. Ein weiterer, beliebter KI-Trend heißt „Hyperpersonalisierung“: Zeitungs-Apps, die Leser:innen lokalisieren und ihnen individuell regionale Nachrichten anbieten oder personalisierte Werbeanzeigen auf Shopping-Websites – KI eröffnet neue Möglichkeiten, die nicht selten an die Freigabe von persönlichen Daten gekoppelt sind. Zudem prognostizieren IT-Expert:innen und KI-Forscher:innen, dass längst noch nicht alle technischen Möglichkeiten von KI entdeckt und ausgeschöpft wurden.

Wie wirkt sich der Einsatz von künstlicher Intelligenz auf die Privatsphäre aus?

KI-Befürworter:innen sprechen bei der Anwendung von KI und dem Schutz von Privatsphäre gerne von einem Dilemma, da für die Optimierung vieler KI-gestützter Technologien eine hohe Zahl an aussagekräftigen Daten benötigt wird: Umso effizienter und effektiver eine KI-Technologie arbeiten soll, desto mehr qualitativ hochwertige Daten sind erforderlich. Mit der Menge an verwendeten Daten steigt gleichzeitig die Gefahr, dass die gesammelten Informationen missbraucht, also für andere als die ursprünglichen Zwecke verwendet, oder gar an Dritte verkauft werden. Der Markt um Nutzer:innendaten ist so lukrativ wie nie, da hier schnell sehr große Summen an Geld im Spiel sind. Neben dem vorsätzlichen Missbrauch von privaten Daten besteht bei KI-Technologien die Gefahr von Datendiebstahl. Die Pseudonymisierung von personenbezogenen Daten ist zwar ein oft verwendetes Hilfsmittel, das eine unrechtmäßige Verarbeitung verhindern soll, Sicherheitsrisiken aber nicht ausschließt. Beispiele für den unrechtmäßigen Eingriff von KI-Anwendungen in die Privatsphäre sind Sprachassistent:innen, die ohne Einwilligung Gespräche aufzeichnen oder medizinische Patient:innendatenbanken, die nicht ausreichend anonymisiert und vor Cyberangriffen geschützt sind.

Rechtslage zum Schutz der Persönlichkeitsrechte beim Einsatz von künstlicher Intelligenz

Die Europäische Union (EU) schreibt in einem Positionspapier mit dem Titel „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ aus dem Februar 2020, „der Einsatz von KI-Anwendungen für die Zwecke der biometrischen Fernidentifikation und anderer in die Privatsphäre eingreifender Überwachungstechnologien“ sei mit „hohem Risiko behaftet“ und müsse an hohe Anforderungen geknüpft werden, wie zum Beispiel der sicheren Speicherung von Daten. Wenn KI mit personenbezogenen Daten gespeist wird, wenn sie diese verwendet oder wenn sie als Grundlage für Entscheidungen dienen, greift die europäische Datenschutz-Grundverordnung (DSGVO). Dennoch gibt es rechtliche Bereiche, die beim Schutz des Rechts auf informationelle Selbstbestimmung hinsichtlich der Anwendung von KI Lücken aufweisen. Häufig sitzen Konzerne, die Daten für die Entwicklung von KI sammeln, nicht in Europa. Bei der dortigen Datenverarbeitung gilt weder deutsches noch europäisches Recht. Da automatisierte und teil-autonome Systeme auf KI-Basis dem menschlichen Verhalten und dessen Fähigkeiten zumindest näher kommen und die Vernetzung selbstlernender Systeme es zunehmend erschwert, Verantwortungen bei Fehlentscheidungen klar voneinander abzugrenzen, wird außerdem erwogen, KI-Systeme mit einer eigenen Rechtspersönlichkeit auszustatten. Bereits im Jahr 2017 hat das Europäische Parlament eine „elektronische Persönlichkeit“ (ePerson) für intelligente Roboter und autonome Systeme vorgeschlagen, um einen neuen Rechtsbereich für KI-Technologien zu schaffen.

Wie steht die Bevölkerung zum Einsatz von künstlicher Intelligenz?

Nach einer Umfrage des Europäischen Verbraucherverbands (BEUC) im Dezember 2019 erkennen europäische Verbraucher:innen die Chancen von künstlicher Intelligenz, fordern aber einen besseren Schutz ihrer Privatsphäre. So haben 68 Prozent der deutschen Verbraucher:innen bei Spracherkennungssystemen wenig Vertrauen in den Datenschutz. 52 Prozent der Befragten gehen davon aus, dass Firmen KI zur Manipulation von Kaufentscheidungen einsetzen. Insgesamt sehen die Menschen Anwendungen von künstlicher Intelligenz jedoch nicht mehr so skeptisch wie noch vor drei Jahren. Zu diesem Ergebnis kommt eine Umfrage des Branchenverbandes Bitkom in Deutschland. Demnach halten rund zwei Drittel (68 Prozent) der Befragten KI für eine Chance. 29 Prozent gaben an, dass sie KI eher als Gefahr einschätzen. Im Jahr 2017 hatten Befürworter:innen und Skeptiker:innen noch gleichauf gelegen.

Links zum Nach- und Weiterlesen:

„Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“, Positionspapier der Europäischen Union (2020)

„Vetrauenswürdige Künstliche Intelligenz durch Privatsphäre wahrende Technologie“, Faktenpapier des Bundesverbandes Informationswirtschaft, Telekommunikation und neue Medien e. V. (2020)

„Potenziale der Künstlichen Intelligenz im produzierenden Gewerbe in Deutschland“, Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie (2018)

„Künstliche Intelligenz und Recht im Kontext von Industrie 4.0“, Ergebnispapier der Plattform Industrie 4.0 vom Bundesministerium für Wirtschaft und Energie (2019)

„Künstliche Intelligenz, Medien und Öffentlichkeit“, wissenschaftlicher Bericht der Goldmedia GmbH Strategy Consulting (2019)

„Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik“ , Entwurf des Europäischen Parlaments (2017)

„Sicherheit und Künstliche Intelligenz: Erwartungen, Hoffnungen, Emotionen“, Studie im Auftrag des deutschen TÜV-Verbands (2020)

„Algorithmen: Sie entscheiden über unser Leben“, Artikel von Martin Kolmaar und Johannes Binswanger für ZEIT ONLINE (2019)