Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen.

Hintergrundinformationen zur These „Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen“.

KI ist bereits seit Jahrzenten fest in unseren Alltag integriert, sei es beim individualisierten Schaufenster bei Amazon, der Auswahl der Beiträge im Facebook-Feed oder bei der Berechnung von Szenarios zum Klimawandel. Dabei besteht die entscheidende Frage heute – anders als in den Science-Fiction-Visionen des letzten Jahrhunderts – nicht darin, ob KIs den Menschen entmachten werden, sondern wie moralische Dilemmata schon bei der Entwicklung gewichtet werden sollen sowie ob und in welchen Lebensbereichen es wünschenswert ist, dass Menschen von KI abgelöst werden.

Öffentlichkeit ohne Menschen?

Denn eine Sache bleibt klar: KI ersetzt den Menschen. In ganz alltäglichen Situationen ist dies bereits der Fall: Wenn z.B. Amazons persönliche Assistenz-KI „Alexa“ vorschlägt, welcher Film geschaut (und praktischerweise direkt bei Amazon selbst erworben) werden könnte, aber auch, wenn in der Pflege zunehmend Roboter eingesetzt werden, die therapeutische Maßnahmen durch Menschen begleiten, mitunter gar ersetzen oder wenn ein Chatbot im Kundenservice eines Unternehmens anhand von Stichwörtern Empfehlungen geben und Aufträge entgegennehmen kann. All diesen Beispielen gemein ist, dass sie menschliche Arbeit reduzieren – ebenso aber auch soziale Begegnungen zwischen Menschen. Diese sind vor allem durch ihre Zufälligkeit gekennzeichnet – im öffentlichen Raum erkennen wir, dass wir Teil einer Gesellschaft sind, weil wir Kontakt zu Menschen erleben, den wir privat nicht bewusst herbeiführen würden. Dabei ist es erst einmal unerheblich, ob das kurze Gespräch mit der Busfahrerin oder dem Kassierer im Supermarkt von positiven oder negativen Emotionen getragen ist – in einer Welt, in der Busse autonom fahren und die Lebensmittel per Self-Check-Out am Touchscreen bezahlt werden, finden solche Begegnungen überhaupt nicht statt. Der Mensch ist dann zunehmend Privatperson, die Lebenswelt anderer Menschen wird unsichtbar.

Mehr zum Thema Einsatzfelder von KI.

Mehr zum Thema Pflegeroboter.

Eisenbahnkrankheit und Technikangst

Wie bei allen technologischen Neuerungen ist man jedoch auch hier schlecht beraten, Skepsis oder gar Angst zum alleinigen Bewertungsmaßstab zu machen. Dass das „Bayrische Obermedizinalkollegium“ 1835 davor warnte, dass die Geschwindigkeit der neuen Dampflock von über 30 km/h sowohl bei Reisenden als auch bei Zuschauenden schwere Gehirnerkrankungen hervorbrächte, ist wohl in das Reich der Legenden zu
verweisen
– untypisch ist eine solche Anekdote jedoch nicht. Seit es technologischen Wandel gibt, stößt dieser auf Skepsis und Enthusiasmus gleichermaßen.

Denn die positiven Effekte von KI lassen sich nicht leugnen. So bestätigten verschiedene Untersuchungen, dass Algorithmen mitunter besser als Menschen mit jahrelanger Berufserfahrung dazu in der Lage sind, Patientendaten wie beispielsweise MRT-Bilder zu analysieren und potenziell tödliche Krankheiten früh zu erkennen. Der elektronische Rechtsassistent „DoNotPay“, ein selbstlernendes Programm, welches von Bußgeldbescheiden über Nebenkostenabrechnungen bis hin zu komplexeren juristischen Sachverhalten tausender Menschen analysiert und automatisiert Einspruchsschreiben verfassen kann, ist zudem nicht nur deswegen eine bemerkenswerte Innovation, weil es ebenso manche Fachmenschen inhaltlich aussticht, sondern weil es sehr viel günstiger ist. KI nimmt uns also nicht nur kleinteilige Alltagsaufgaben ab, sondern kann durch den preisgünstigen Zugang zu komplexen Wissensfeldern auch dazu beitragen, dass sich Ressourcen in der Bevölkerung breiter verteilen und die sozialen Barrieren einer Wissensgesellschaft abgebaut werden.

Die Gesellschaft steht also vor der Aufgabe, einen Kompromiss zwischen Vorteilen der Innovationen und der Gefahr einer Entmenschlichung zu entwickeln.

Mehr zum Thema „Was kann KI leisten?“.

Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“

Zu diesem Zweck setzte der Bundestag im Jahr 2018 eine Enquete-Kommission ein, welche sich mit Risiken und Potenzialen der Künstlichen Intelligenz auseinandersetzte und im Oktober 2020 ihren Abschlussbericht vorlegte.

Sie kam dabei unter anderem zu dem Schluss, dass KI im Zusammenhang mit Wirtschaft stärker gefördert und für neue Unternehmen auch Räume zum Experimentieren eingerichtet werden sollen. Auch in der Verwaltung sieht die Kommission Potenziale, wenngleich hier keine Entscheidungen durch Maschinen getroffen werden sollen, die einen Ermessensspielraum zu Grunde liegen haben, der sonst durch einen Menschen abgewägt würde. Tödliche autonome Waffensysteme, also militärische Maschinen, die über die Tötung von Menschen entscheiden und diese durchführen, sollen hingegen verboten und durch Deutschland auf deren weltweite Ächtung hingearbeitet werden. Im medizinischen Bereich sieht die Kommission ebenfalls große Chancen, nicht zuletzt in der Bekämpfung des Corona-Virus, dessen lokale Ausbrüche sich bereits heute durch KI anhand der Fallzahlen teilweise vorhersagen lassen. Gerade im Gesundheitssektor birgt die Verzahnung von Datensicherheit und KI jedoch auch Risiken, wenn der Datenhunger von selbstlernenden Maschinen zum „gläsernen Patienten“ führt.

Nicht nur an den vielen Sondervoten einzelner Fraktionen zu noch unzähligen weiteren Themenfeldern fällt dabei auf, dass KI hier auch immer als politisches Problem gedacht wird: Die Abschätzung von Chancen und Risiken, von Entwicklungsfreiheit oder Regulierungsnotwendigkeit verläuft nicht selten anhand klassischer Fraktionsgrenzen im Parlament. So interessierte sich die SPD-Delegation beispielsweise für Reformen der betrieblichen Mitbestimmung, wenn Unternehmen mehr und mehr automatisiert arbeiten. Kommissionsmitglieder der CDU hingegen setzen eher auf unternehmerische Freiheit und warnen vor der „Regulierungskeule“.

Den ausführlichen Betrachtungen der Kommission liegt jedoch ein Konsens zu Grunde: Das Leitbild einer „menschenzentrierten KI“. Dazu heißt es im Bericht:

„Der Begriff des Mensch-Seins, das Bild des Menschen von sich selbst, kann insofern eine ethische Korrektur einer Perspektive sein, die die Logik von KI-Systemen in einer Rangfolge vor den Menschen stellt. […] Ausgehend von der Idee der Menschenwürde kann es nicht darum gehen, Menschen schlechthin durch KI-Systeme zu ersetzen. […] In einer solchen recht verstandenen Mensch-KI-System-Interaktion ist der Mensch gestaltendes Subjekt und prägt die Interaktion“ (S.83).

Abschlussbericht der Enquete-Kommission (PDF).

Beitrag über die Arbeit der Enquete-Kommission beim Deutschlandfunk.

Eine moralische KI entwickeln – aber wie?

Doch genau hier liegt ein ethisches Dilemma: Nach welchen Prinzipien muss eine KI entwickelt werden, die die Menschenwürde respektiert? Sollte ein selbstfahrendes Auto im Zweifelsfall lieber die Insassen gefährden oder andere Verkehrsteilnehmer? Liegt das Recht zu dieser Entscheidung, die schon in der Entwicklung bedacht werden muss, beim Hersteller oder sollte dies gesetzlich vorgegeben werden?

In der praktischen Philosophie gibt es verschiedene Ansichten darüber, worin moralisch richtiges Handeln besteht. Der Konsequenzialismus, bekannt vor allem in seiner Spielart des Utilitarismus, bewertet Handlungen nach ihrem Ergebnis. Hier ist die Handlung richtig, die den meisten Nutzen oder das meiste Glück bringt, wobei es dann auch denkbar wäre, dass dafür Opfer in Kauf genommen werden müssen. Wenn also, im Extremfall dieser Denkart, ein selbstfahrendes Auto auf ein Kind zusteuern würde, aber die Option hätte, auf eine Gruppe von älteren Menschen umzulenken, bestünde in Zweiterem die richtige Handlung, da hier weniger Lebenszeit zerstört würde.

Diese Konstruktion mutet uns aber nicht grundlos als makaber an. Das liegt daran, so würde die entgegengesetzte Strömung der Deontologie argumentieren, dass vor allem die Motivation einer Handlung beurteilt werden sollte. Demnach handelt jemand richtig, der plausibel konstruierten Gesetzen und Pflichten nachkommt, selbst wenn diese Handlung Unheil nach sich zieht. Ein Beispiel hierfür sind die Menschenrechte: Weil es mit der Würde des Menschen unvereinbar ist, eine Tötung bewusst herbeizuführen, dürfte das Auto nicht umschwenken, wohingegen die Tragik der Kollision mit dem Kind einfach in der Katastrophe selbst liegt, nicht in der Verantwortung des Autos.

Eine dritte Schule, die der Tugendethik, versucht hingegen, den Fokus weg von der Handlung und hin zum handelnden Menschen zu führen. Das Ziel muss dann darin bestehen, an sich als Mensch zu arbeiten, sich Tugenden wie Gerechtigkeit, Fairness und Weisheit zu erarbeiten, um kontinuierlich gute Entscheidungen zu treffen. Was bei Aristoteles aber als Aufforderung an jedes Individuum gemeint ist, müsste übertragen auf KI-Entwicklung als politischer und gesellschaftlicher Auftrag verstanden werden: Wir müssen gemeinsam darum streiten, wie die Entscheidungen einer Maschine gestaltet sein müssen, damit sie moralisch vertretbar sind. Außerdem müssen wir uns einigen, ob KI eine allgegenwärtige Begleiterin sein oder aus bestimmten Lebensbereichen komplett verbannt werden sollte.

Mehr zum Thema Maschine und Moral.

Mehr zum Thema Maschinenethik.

Mehr zum Thema Strömungen der praktischen Philosophie.

Weiterführende Literatur:

14 Meinungen 2 Kommentare

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

Das Zustandekommen der Entscheidung ist bei einer KI nicht nachvollziehbar. Entscheidungen sollten nie auf Basis einer KI getroffen werden, außer es kann dargelegt werden, unter Abwägung welcher Aspekte diese Entscheidung getroffen wurde.

weiterlesen
16.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

Ich gehe sogar soweit, zu verlangen, dass JEDWEDER Einsatz IMMER und STÄNDIG auf ethische Vertretbarkeit geprüft werden muss.

weiterlesen
16.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

KIs sind nicht dafür geeignet humanitäre oder diplomatische Entscheidungen zu treffen, da ihnen das fehlt, was den Menschen aus macht: Menschlichkeit.

weiterlesen
11.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

Die Entwicklung der KI hat eine Schattenseite; viele Impulse und Trends kommen aus der militärischen Forschung (Exoskelette, autonome Waffensystem u.a.), die sich aus verständlichen Gründen einer gesellschaftlichen Kontrolle entzogen.

weiterlesen
10.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

Unter Menschen gibt es Entscheidungen die getroffen werden müssen und nicht logisch zu entscheiden sind, auch moral ist wichtig und eine Maschine ist der Moral nicht fähig

weiterlesen
08.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. nicht zu

Nein, ich denke KI sollte in jedem Lebensbereich benutzt werden, wenn es effizient ist. Es nicht zu tun, wäre eine Art neue Technologie abzulehnen. Stattdessen sollte sie besser verstanden und richtig eingesetzt werden.

weiterlesen
07.12.2020

Gast positioniert sich zur These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. neutral

Nur weil diese Aussage das Wort moralisch nutzt, ist diese nicht unbedingt moralisch. Es klingt fast so als würde jemand etwas Positives verkaufen wollen, aber dabei an negative Anwendung denkt. Z.B.

weiterlesen
04.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. nicht zu

Wer bestimmt was" moralische Gründe" sind? der eine so, der andere so

weiterlesen
04.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

KI ist nicht in der Lage Entscheidungen zu treffen die emotionale Hintergründe, Ethik und Moral berücksichtigen müssen.

weiterlesen
04.12.2020 1 Kommentar

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

KIs sollten nie allein über Leben entscheiden, diese Entscheidung sollte bei einem Menschen liegen. Da eine KI nie den gesamten Zusammenhang erfassen kann sondern nur Momentaufnahmen.

weiterlesen
03.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. nicht zu

Siehe Regulierung. Noch ist nichts bekannt. Welche Bereiche sollten denn da schon im vorauseilenden Gehorsam ausgelassen werden

weiterlesen
03.12.2020

Gast stimmt der These Wir sollten KI aus moralischen Gründen nur in einigen Lebensbereichen zulassen. zu

KI sollte nur in wenigen, klar umrissenen Bereichen eingesetzt werden dürfen, die das Wohl eines jeden Menschen nicht gefährden können.

weiterlesen
03.12.2020

Seiten