Erklärung zu künstlicher Intelligenz, Robotik und ... · 4) Offenbar besteht in der Robotik, KI...

27
künstlicher Intelligenz, Robotik und „autonomen“ Systemen Erklärung zu Europäische Gruppe für Ethik der Naturwissenschaften und der Neuen Technologien Forschung und Innovation

Transcript of Erklärung zu künstlicher Intelligenz, Robotik und ... · 4) Offenbar besteht in der Robotik, KI...

künstlicher Intelligenz, Robotik und „autonomen“ Systemen

Erklärung zu

Europäische Gruppe für Ethikder Naturwissenschaften

und der Neuen Technologien

Forschung und Innovation

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen

Europäische KommissionGeneraldirektion Forschung und Innovation Referat RTD.01 – Mechanismus für wissenschaftliche Beratung

Kontakt Jim Dratwa, Leiter des EGE-BürosE-Mail [email protected] [email protected]

Europäische KommissionB-1049 Brüssel

Druck: Amt für Veröffentlichungen, Luxemburg.

Manuskript abgeschlossen im März 2018.

Weder die Europäische Kommission noch Personen, die im Auftrag der Kommission handeln, können für die Verwendung der im Folgenden dargelegten Informationen verantwortlich gemacht werden.Für den Inhalt dieser Erklärung ist allein die Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien (EGE) verantwortlich. Auch wenn die Erklärung unter Beteiligung von Mitarbeitern der Kommissionsdienststellen erarbeitet wurde, entsprechen die in dieser Erklärung zum Ausdruck gebrachten Ansichten dem gemeinsamen Standpunkt der EGE und stellen keinesfalls eine offizielle Haltung der Kommission dar.Es handelt sich hierbei um eine Erklärung der EGE, die von den Mitgliedern der EGE verabschiedet wurde: Emmanuel Agius, Anne Cambon-Thomsen, Ana Sofia Carvalho, Eugenijus Gefenas, Julian Kinderlerer, Andreas Kurtz, Jonathan Montgomery, Herman Nys (stellvertretender Vorsitzender), Siobhán O’Sullivan (stellvertretende Vorsitzende), Laura Palazzani, Barbara Prainsack, Carlos Maria Romeo Casabona, Nils-Eric Sahlin, Jeroen van den Hoven, Christiane Woopen (Vorsitzende). Berichterstatter: Jeroen van den Hoven.

Weitere Informationen zur Europäischen Union sind im Internet verfügbar (http://europa.eu).

Luxemburg: Amt für Veröffentlichungen der Europäischen Union, 2018.

Druck ISBN 978-92-79-88940-0 doi:10.2777/315421 KI-02-18-803-DE-C

PDF ISBN 978-92-79-88937-0 doi:10.2777/3658 KI-02-18-803-DE-N

© Europäische Union, 2018.Weiterverwendung mit Quellenangabe gestattet. Die Weiterverwendungspolitik der Europäischen Kommission ist im Beschluss 2011/833/EU (ABl. L 330 vom 14.12.2011, S. 39) geregelt.

Für die Verwendung oder den Nachdruck von Fotos oder anderem Material, an dem die EU kein Urheberrecht hält, ist eine Genehmigung direkt bei den Urheberrechtsinhabern einzuholen.Titelbild © EVZ, #141003388, 2018. Quelle: Fotolia.com.

EUROPÄISCHE KOMMISSION

Generaldirektion Forschung und Innovation2018

Erklärung zu

künstlicher Intelligenz, Robotik und „autonomen“

Systemen

Europäische Gruppe für Ethikder Naturwissenschaften und der Neuen Technologien

Brüssel, 9. März 2018

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 3

Inhalt

ZUSAMMENFASSUNG 5

HINTERGRUND 6

MORALISCHE ÜBERLEGUNGEN 9

Grundlegende Fragen 9

Grundlegende Erwägungen 10

Jenseits eines eng definierten ethischen Rahmens 12

AUF DEM WEG ZU EINEM GEMEINSAMEN ETHISCHEN RAHMEN FÜR KÜNSTLICHE INTELLIGENZ, ROBOTIK UND „AUTONOME“ SYSTEME 15

ETHISCHE GRUNDSÄTZE UND DEMOKRATISCHE VORAUSSETZUNGEN 18

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 5

Zusammenfassung

Der Fortschritt auf den Gebieten der künstlichen Intelligenz (KI), der

Robotik und der sogenannten „autonomen“ Technologien1 wirft zahlreiche

immer dringlichere und komplexere moralische Fragen auf. Die derzeitigen

Bemühungen, Antworten auf die damit verbundenen ethischen,

gesellschaftlichen und rechtlichen Herausforderungen zu finden und die

Entwicklungen auf das Gemeinwohl auszurichten, bestehen aus

unzusammenhängenden Einzelinitiativen. Daran wird deutlich, dass ein

kollektiver, umfassender und inklusiver Reflektions- und Dialogprozess

benötigt wird – ein Dialog insbesondere darüber, nach welchen Werten wir

unsere Gesellschaft gestalten wollen und welche Rolle die Technologien

dabei spielen sollen.

In dieser Erklärung wird die Einleitung eines Prozesses gefordert, der den

Weg für die Entwicklung eines gemeinsamen, international anerkannten

ethischen und rechtlichen Rahmens für die Konstruktion, Produktion,

Verwendung und Steuerung von künstlicher Intelligenz, Robotik und

„autonomen“ Systemen bereiten würde. Ferner wird in der Erklärung ein

Katalog ethischer Grundsätze vorgeschlagen, der auf den in den EU-

Verträgen und in der Charta der Grundrechte der Europäischen Union

verankerten Werten beruht und als Leitfaden für die Entwicklung dieses

Prozesses dienen kann.

1 Diese Erklärung befasst sich mit verschiedenen intelligenten Technologien, die sich schnell aufeinander zu entwickeln und oft zusammenhängen, miteinander verbunden oder vollständig integriert sind, z. B. die klassische künstliche Intelligenz, Algorithmen des maschinellen Lernens, Deep Learning (tiefgehendes Lernen) sowie konnektionistische Netze, Generative Adversarial Networks (erzeugende gegnerische Netze), Mechatronik und Robotik. Selbstfahrende Autos und Kampfroboter, Chatbots sowie Sprach- und Bilderkennungssysteme gehören zu den bekanntesten Anwendungen, in denen diese Technologien kombiniert werden.

6 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

Hintergrund

Die ersten zwei Jahrzehnte des 21. Jahrhunderts haben eindrucksvolle

Beispiele für die Leistungsfähigkeit der sogenannten „autonomen

Technologie“ und „künstlichen Intelligenz“ hervorgebracht. Zu den

bekanntesten, aber längst nicht einzigen Beispielen gehören selbstfahrende

Autos und Drohnen, Tiefsee- und Weltraumroboter, Waffensysteme,

Softwareagenten wie Bots im Finanzgeschäft oder Deep Learning in der

medizinischen Diagnostik. Künstliche Intelligenz (KI), insbesondere in Form

des maschinellen Lernens, und die zunehmende Verfügbarkeit großer

Datensätze aus den unterschiedlichsten Lebensbereichen sind wesentliche

Motoren dieser Entwicklungen. Durch ihren Zusammenfluss werden diese

digitalen Technologien rasant leistungsfähiger. Sie kommen in immer mehr

neuen Produkten und Dienstleistungen zum Einsatz, im öffentlichen wie im

privaten Sektor, und können sowohl für militärische als auch für zivile

Zwecke verwendet werden. Die in diese Systeme integrierte KI kann Arbeit

neu definieren oder die Arbeitsbedingungen für Menschen verbessern und

die Notwendigkeit des menschlichen Beitrags, Inputs und Eingreifens

während des Betriebs verringern. Sie kann unter anderem helfen, Menschen

in schwierigen, verschmutzten, tristen oder gefährlichen Arbeitsumfeldern

durch intelligente Technologien zu unterstützen oder zu ersetzen.

Intelligente Systeme sind heute in der Lage, ohne direktes Eingreifen oder

direkte Kontrolle durch den Menschen von außen Kundengespräche im

Online-Callcenter zu führen, Roboterhände zu steuern, die präzise und

ununterbrochen Gegenstände greifen und bearbeiten, große Aktienmengen

in Sekundenschnelle zu kaufen und zu verkaufen, Autos bei Kollisionsgefahr

ausweichen oder bremsen zu lassen, Personen und ihr Verhalten zu

klassifizieren oder Geldbußen zu verhängen.

Bedauerlicherweise sind einige der besonders leistungsstarken kognitiven

Instrumente auch besonders intransparent. Ihr Handeln wird nicht mehr

linear von Menschen programmiert. Google Brain entwickelt KI-Lösungen,

die künstliche Intelligenz angeblich besser und schneller entwickeln können

als Menschen. AlphaZero kann sich ohne Kenntnis der Schachregeln

innerhalb von vier Stunden eigenständig zu einem Weltklassespieler

entwickeln. Es ist unmöglich zu verstehen, wie AlphaGo fähig war, den

menschlichen Go-Weltmeister zu schlagen. Durch Deep Learning und

sogenannte „Generative Adversarial Network“-Konzepte sind Maschinen in

der Lage, sich selbst neue Strategien „beizubringen“ und eigenständig nach

neuen analysierbaren Informationen zu suchen. In diesem Sinne ist ihr

Handeln nicht mehr nachvollziehbar und kann nicht mehr vom Menschen

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 7

überprüft werden. Zum einen lässt sich nicht ermitteln, wie die Maschinen

über die ersten Algorithmen hinaus ihre Ergebnisse erzielen. Zum anderen

beruht ihre Leistung auf im Lernprozess verwendeten Daten, die

möglicherweise nicht mehr verfügbar oder zugänglich sind. So können sich

in der Vergangenheit eingeflossene Verzerrungen und Fehler im System

festsetzen.

Wenn Systeme in der Lage sind, diese Aufgaben ohne menschliche

Steuerung oder Aufsicht auszuführen, wird inzwischen oft von „autonomen“

Systemen gesprochen. Diese sogenannten „autonomen“ Systeme können

sich in Form von High-Tech-Robotiksystemen oder als intelligente Software

wie Bots manifestieren. Oft werden sie unbeaufsichtigt in ihre Umwelt

entlassen und können Dinge leisten, die ihre menschlichen Entwickler oder

Besitzer nicht vorhergesehen haben.

Die folgenden relevanten technologischen Entwicklungen sind also zu

beobachten:

1) Die Leistungsfähigkeit von künstlicher Intelligenz in Form des

maschinellen Lernens (insbesondere das „Deep Learning“) nimmt,

angetrieben von Massendaten (Big Data), rasant zu. KI kommt in immer

mehr neuen digitalen Produkten und Dienstleistungen im öffentlichen

und privaten Sektor zum Einsatz und kann sowohl für militärische als

auch für zivile Zwecke verwendet werden. Wie erwähnt, lassen sich die

inneren Abläufe der KI gegebenenfalls nur sehr schwer – oder gar nicht

– nachvollziehen, erklären und kritisch bewerten. Diese

fortgeschrittenen Fähigkeiten liegen zum großen Teil in der Hand

privater Akteure und sind häufig urheberrechtlich geschützt.

2) Mit fortgeschrittener Mechatronik (eine Kombination aus KI und

Deep Learning, Datenwissenschaft, Sensortechnologie, dem Internet der

Dinge sowie Maschinen- und Elektrotechnik) wird ein breites Spektrum

an zunehmend komplexen Robotik- und High-Tech-Systemen für

praktische Anwendungen in Dienstleistungs- und Fertigungsbranchen,

im Gesundheitswesen, im Einzelhandel, in der Logistik, in der Domotik

(Hausautomatisierungstechnik) sowie im Bereich Sicherheit und Schutz

entwickelt. In der öffentlichen Debatte stehen zwei Anwendungsbereiche

besonders im Vordergrund, nämlich Kampfroboter und „autonome“

Fahrzeuge.

3) Es werden immer intelligentere Systeme mit einem hohen Maß an

sogenannter „Autonomie“ hergestellt, womit gemeint ist, dass die

Systeme Aufgaben unabhängig von menschlicher Steuerung und ohne

menschliche Kontrolle ausführen können.

8 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

4) Offenbar besteht in der Robotik, KI und Mechatronik ein Streben nach

immer mehr Automatisierung und „Autonomie“. Länder und

Großunternehmen lenken massive Investitionen in diesen Bereich.

Großmächte der Welt haben eine Führungsrolle in der KI-Forschung zu

einem ihrer vorrangigen Ziele erklärt.

5) Die Interaktion zwischen Mensch und Maschine wird immer enger (Co-

Bots, Cybercrews, digitale Zwillinge und sogar der Einbau intelligenter

Maschinen in den menschlichen Körper in Form von Gehirn-Computer-

Schnittstellen oder Cyborgs). Ähnliche Entwicklungen sind in allen

Bereichen der künstlichen Intelligenz zu beobachten. Auf manchen

Gebieten erzielen gut aufeinander abgestimmte Teams aus KI-Systemen

und menschlichen Fachkräften bessere Ergebnisse als Menschen oder

Maschinen allein.

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 9

Moralische Überlegungen

Grundlegende Fragen

Das Aufkommen von High-Tech-Systemen und Software, die immer

unabhängiger vom Menschen funktionieren und Aufgaben wahrnehmen

können, die bei Ausführung durch den Menschen Intelligenz voraussetzen,

macht besondere Überlegungen erforderlich. Die Systeme werfen zahlreiche

wichtige und schwierige moralische Fragen auf.

Erstens stellen sich Fragen im Zusammenhang mit Schutz, Sicherheit,

Schadensverhütung und Risikominderung. Wie lässt sich eine Welt mit

vernetzter KI und „autonomen“ Geräten sicher und geschützt gestalten?

Wie können die Risiken abgeschätzt werden?

Zweitens entstehen Fragen im Zusammenhang mit der moralischen

Verantwortung des Menschen. Wo liegt in dynamischen und komplexen

soziotechnischen Systemen mit fortgeschrittenen KI- und

Robotikkomponenten die moralisch zuständige Stelle? Wie sollte die

moralische Verantwortung zugewiesen und aufgeteilt werden, und wer ist

(in welchem Sinne) für unerwünschte Ergebnisse verantwortlich? Ist es

sinnvoll, von einer „gemeinsamen Kontrolle“ und einer „gemeinsamen

Verantwortung“ von Mensch und intelligenter Maschine zu sprechen?

Werden Menschen nur als moralische „Knautschzone“ Teil der Ökosysteme

„autonomer“ Geräte sein und nur bei Haftungsfragen ins Spiel kommen,

oder werden sie tatsächlich in der Lage sein, Verantwortung für ihr Handeln

zu übernehmen?

Drittens ergeben sich Fragen im Hinblick auf Steuerung, Regulierung,

Konstruktion, Entwicklung, Überprüfung, Überwachung, Testverfahren und

Zertifizierung. Wie sollten unsere Institutionen und Gesetze umgestaltet

werden, damit die Systeme dem Wohlergehen des Einzelnen und der

Gesellschaft dienen und damit die Gesellschaft beim Umgang mit diesen

Technologien geschützt ist?

Ein vierter Fragenkomplex betrifft den demokratischen

Entscheidungsprozess, einschließlich der Entscheidungsfindung in Bezug auf

Institutionen, politische Strategien und Werte, die allen vorstehenden

Fragen zugrunde liegen. Weltweit wird untersucht, inwieweit die Bürger

durch hochentwickelte Anstoß-Methoden (Nudging) ausgenutzt werden, die

auf einer Kombination aus maschinellem Lernen, Big Data und

Verhaltenswissenschaft beruhen, die Architekturen für ein geschicktes

10 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

Profilieren, Mikro-Targeting, Maßschneidern und Manipulieren von

Wahlmöglichkeiten zu bestimmten wirtschaftlichen oder politischen Zwecke

ermöglicht.

Schließlich stellen sich Fragen zur Erklärbarkeit und Transparenz von KI und

„autonomen“ Systemen. Welchen Werten dienen diese Systeme tatsächlich

und nachweislich? Welche Werte legen wir bei der Gestaltung unserer

Strategien und unserer Maschinen zugrunde? Nach welchen Werten wollen

wir unsere Gesellschaften ausrichten? Lassen wir es zu, dass bestimmte

Werte im Zuge des technischen Fortschritts und nutzenorientierter

Kompromisse – offen oder stillschweigend – untergraben werden? Die KI-

gesteuerte „Optimierung“ gesellschaftlicher Prozesse auf der Grundlage von

Social-Scoring-Systemen (Bewertungssysteme auf Basis sozialer Daten),

mit denen in manchen Ländern experimentiert wird, verstößt in der gleichen

Weise gegen den Grundgedanken von Gleichheit und Freiheit wie ein

Kastensystem, weil dabei „unterschiedliche Arten von Menschen“

konstruiert werden, während es in Wirklichkeit nur „unterschiedliche

Eigenschaften“ von Menschen gibt. Wie können der Angriff auf die

demokratischen Systeme und der Einsatz von Bewertungssystemen

verhindert werden, auf die sich die beherrschende Stellung derjenigen Akteure

gründet, die Zugang zu diesen leistungsstarken Technologien haben?

Grundlegende Erwägungen

Aus ethischer Sicht ist Folgendes zu beachten:

„Autonomie“ ist ein Begriff aus der Philosophie und bezeichnet die Fähigkeit

des Menschen, sich eigene Vorschriften aufzuerlegen und Normen, Regeln

und Gesetze zu formulieren, zu erdenken und zu wählen, nach denen er

sich richtet. Dazu gehört auch das Recht, sich eigene Standards zu setzen

und die eigenen Ziele im Leben zu bestimmen. Die kognitiven Prozesse, die

das unterstützen und ermöglichen, sind eng mit der Würde des Menschen

und menschlichem Tun und Handeln schlechthin verbunden. Kennzeichnend

für diese Prozesse sind typischerweise die Merkmale des

Selbstbewusstseins, der Selbstwahrnehmung und der Selbstbestimmung

auf der Grundlage von Ursachen und Werten. Autonomie im ethisch

relevanten Sinne kann demnach nur dem Menschen zugeschrieben werden.

Daher ist es in gewisser Weise unzutreffend, den Begriff der „Autonomie“

auf reine Gegenstände anzuwenden, auch wenn es sich dabei um

hochentwickelte, komplexe und anpassungsfähige oder sogar „intelligente“

Systeme handelt. Allerdings hat sich der Begriff des „autonomen“ Systems

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 11

zur Bezeichnung eines Höchstmaßes an Automatisierung und maximaler

Unabhängigkeit vom Menschen im Sinne einer operativen und

entscheidungsbezogenen „Autonomie“ in der wissenschaftlichen Literatur

und der öffentlichen Debatte sehr stark durchgesetzt. Autonomie in ihrer

ursprünglichen Bedeutung ist jedoch ein wesentlicher Aspekt der

Menschenwürde, der nicht relativiert werden darf.

Da kein intelligenter Gegenstand und kein intelligentes System – seien sie

auch noch fortgeschritten und hochentwickelt – für sich genommen als

„autonom“ im ursprünglichen ethischen Sinne bezeichnet werden kann, ist

es auch nicht möglich, ihnen den moralischen Status des Menschen zu

verleihen oder ihnen die Menschenwürde übertragen. Menschenwürde als

Fundament für Menschenrechte impliziert, dass eine sinnvolle menschliche

Intervention und Teilhabe immer möglich sein muss, wenn Menschen und

ihr Umfeld von einem Sachverhalt betroffen sind. Im Gegensatz zur

Automatisierung der Produktion ist es daher nicht angebracht, Menschen in

der gleichen Weise zu steuern und über sie zu entscheiden, wie es bei

Gegenständen oder Daten geschieht, selbst wenn das technisch denkbar ist.

Eine solche „autonome“ Steuerung von Menschen wäre unethisch und

würde die tief verwurzelten europäischen Grundwerte aushöhlen. Menschen

sollten in der Lage sein, selbst zu bestimmen, welchen Werten die

Technologie dient, was moralisch relevant ist und welche letztendlichen

Ziele und Vorstellungen des Guten gefördert werden sollten. Dies darf nicht

Maschinen überlassen werden, so leistungsstark sie auch sein mögen.

Die Fähigkeit und die Bereitschaft zur Übernahme und Zuweisung einer

moralischen Verantwortung ist ein fester Bestandteil des Verständnisses der

Person, auf der all unsere moralischen, gesellschaftlichen und rechtlichen

Institutionen beruhen. Die moralische Verantwortung ist hier umfassend zu

verstehen und kann sich auf unterschiedliche Aspekte des menschlichen

Handelns beziehen, zum Beispiel auf Ursächlichkeit, Rechenschaftspflicht

(die Pflicht, Rechenschaft abzulegen), Haftung (die Pflicht, Entschädigung

zu leisten), reaktive Einstellungen wie Lob und Schuldzuweisung

(Angemessenheit unterschiedlicher moralischer Emotionen) und Pflichten im

Zusammenhang mit gesellschaftlichen Rollen. Die moralische

Verantwortung kann, in welchem Sinne auch immer, nicht auf „autonome“

Technologien angewandt oder übertragen werden.

In der aktuellen Debatte über Kampfroboter (LAWS – Lethal Autonomous

Weapons Systems, tödliche autonome Waffensysteme) und autonome

Fahrzeuge scheint ein breiter Konsens darüber zu herrschen, dass eine

12 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

sinnvolle menschliche Kontrolle für die moralische Verantwortung

unverzichtbar ist. Der Grundsatz der sinnvollen menschlichen Kontrolle

(Meaningful Human Control – MHC) wurde erstmals im Zusammenhang mit

der Beschränkung der Entwicklung und Verwendung künftiger

Waffensysteme vorgeschlagen. Danach sollten Menschen – und nicht

Computer oder ihre Algorithmen – letztendlich die Kontrolle behalten und

somit die moralische Verantwortung tragen.2

Jenseits eines eng definierten ethischen Rahmens

In zwei Bereichen hat die Entwicklung „autonomer“ Systeme bereits viel

beachtete ethische Debatten ausgelöst: bei selbstfahrenden Autos und

Letalen (tödlichen) Autonomen Waffensystemen (LAWS). Obwohl noch

keine vollständig fahrerlosen Fahrzeuge auf dem Markt sind, bereiten sich

weltweit mehrere Länder darauf vor, die Zulassung „autonomer“ Fahrzeuge

auf öffentlichen Straßen in ihren Rechtssystemen zu ermöglichen. 2016

wurde eine moralische Kontroverse ausgelöst, als der erste Mensch beim

Fahren im „autonomen“ Modus bei einem Autounfall ums Leben kam. Die

moralische Debatte beschränkt sich heute häufig auf die Diskussion über

Ausnahmefälle im Zusammenhang mit dem Gedankenexperiment des

sogenannten „Weichenstellerfalls“. Dabei geht es um das Dilemma bei

unvermeidbaren Unfällen, wenn man bei jeder möglichen Option damit

rechnen muss, dass Menschen ums Leben kommen. Diese enge

Interpretation ethischer Problemstellungen begünstigt einen kalkulierenden

Ansatz und beinhaltet einen oft übermäßig vereinfachten Maßstab für das

menschliche Miteinander. In diesem Rahmen scheinen sich die Fragen im

Wesentlichen um die Verantwortlichkeit „autonomer“ Systeme und ihre

Auswirkungen zu drehen, sowie darum, wie die Systeme programmiert

werden sollten, damit sie mit moralisch akzeptablem Ergebnis im Hinblick

auf verlorene bzw. gerettete Menschenleben eingesetzt werden können.

Dabei bleiben übergeordnete Fragestellungen unberücksichtigt, zum

Beispiel: Welche Konstruktionsentscheidungen wurden in der Vergangenheit

getroffen, die zu diesem moralischen Dilemma geführt haben? Welche

Werte sollten der Konstruktion zugrunde liegen? Wie und durch wen sollten

Werte bei der Konstruktion im Konfliktfall gewichtet werden? Welchen

Status haben die enormen Mengen empirischer Informationen, die über

menschliche Entscheidungen in „Weichenstellerfällen“ gesammelt und auf

das automatisierte Fahren übertragen werden?

2 Artikel 36 (nichtstaatliche Organisation), 2015.

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 13

Ebenfalls umstritten und kontrovers diskutiert ist der Bereich der

„autonomen“ Waffensysteme. Diese militärischen Systeme haben zwar

tödliche Waffen geladen, doch was die Software anbelangt, unterscheiden

sie sich nicht wesentlich von „autonomen“ Systemen, die in vielen zivilen

Bereichen im alltäglichen Umfeld zu finden sind. Die Diskussion findet zum

großen Teil im Rahmen der Konferenz über bestimmte konventionelle

Waffen in Genf statt, die sich mit der moralischen Vertretbarkeit

„autonomer“ Waffen und der rechtlichen und moralischen Verantwortung

für den Einsatz dieser Systeme befasst. Jetzt müssen weitere Fragen

beantwortet werden, zum Beispiel die Frage nach der Art und Bedeutung

einer „sinnvollen menschlichen Kontrolle“ über diese Systeme und die

Frage, wie moralisch wünschenswerte Formen der Kontrolle umgesetzt

werden können.

Ein dritter wichtiger Anwendungsbereich ist „autonome“ Software unter

Einsatz von Bots. Handels-, Finanz- und Aktienmärkte werden im

Wesentlichen durch Algorithmen und Software betrieben. Ohne

menschliches Zutun oder Kontrolle von außen können intelligente Systeme

heute Kundengespräche in Online-Callcentern führen;

Spracherkennungsschnittstellen und Empfehlungssysteme von Online-

Plattformen wie Siri, Alexa und Cortana machen Benutzern Vorschläge.

Über die naheliegenden Fragen des Datenschutzes und der Privatsphäre

hinaus wäre möglicherweise zu klären, ob Menschen ein Recht darauf haben

zu erfahren, ob sie es mit einem Menschen oder mit einem KI-Artefakt zu

tun haben. Eine weitere Frage ist, ob die auf einer Deutung der Vorstellung

des Betroffenen von der eigenen Identität beruhenden Vorschläge eines KI-

Systems eingeschränkt werden sollten.

Zwar wächst das Bewusstsein für die Notwendigkeit einer

Auseinandersetzung mit solchen Fragen, doch kann der Prozess zur

Beantwortung dieser heiklen ethischen, rechtlichen und gesellschaftlichen

Fragen mit der Entwicklungsgeschwindigkeit von KI und Robotik nicht

Schritt halten. Die derzeitigen Bemühungen bestehen aus

unzusammenhängenden Einzelinitiativen. Es bedarf eindeutig eines

kollektiven, umfassenden und inklusiven Prozesses, der den Weg für die

Entwicklung eines gemeinsamen, international anerkannten ethischen Rahmens für

die Konstruktion, Produktion, Verwendung und Steuerung von künstlicher Intelligenz,

Robotik und „autonomen“ Systemen bereiten würde.

In dieser Erklärung wird die Einleitung eines solchen Prozesses gefordert.

Ferner wird ein Katalog ethischer Grundsätze und demokratischer

14 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

Voraussetzungen vorgeschlagen, der auch als Leitfaden für Überlegungen

zu verbindlichen Rechtsvorschriften dienen könnte. Nach Ansicht der EGE

sollte Europa hierbei eine aktive und führende Rolle übernehmen. Im

Rahmen ihrer Überwachung der Debatten über die moralische

Verantwortung für KI und die sogenannten „autonomen“ Technologien

fordert die EGE systematischere Überlegungen und Forschungsinitiativen zu

den ethischen, rechtlichen und Governance-relevanten Aspekten von High-

Tech-Systemen, die in der Lage sind, ohne direkte menschliche Kontrolle

zum Vorteil oder zum Schaden des Menschen in der Welt zu agieren. Es

besteht ein dringender Handlungsbedarf.

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 15

Auf dem Weg zu einem gemeinsamen ethischen

Rahmen für künstliche Intelligenz, Robotik und

„autonome“ Systeme

Die bekanntesten Initiativen zur Formulierung ethischer Grundsätze für den

Umgang mit KI und „autonomen“ Systemen gehen von Branchenakteuren,

praktischen Anwendern und Berufsverbänden aus. Aktuelle Beispiele sind

das Strategiepapier des IEEE (Institute of Electrical and Electronics

Engineers) über an ethischen Grundsätzen orientierte Konstruktion

(Ethically Aligned Design)3, der von der Internationalen Fernmeldeunion im

Sommer 2017 ausgerichtete Gipfel „AI for Good“4 oder die Arbeit der ACM

(Association for Computing Machinery) zu dem Thema, darunter eine im

Februar 2018 durchgeführte große Konferenz von ACM und AAAI

(Association for the Advancement of Artificial Intelligence) zu KI, Ethik und

Gesellschaft (Conference on AI, Ethics, and Society)5. Im Privatsektor

haben sich Unternehmen wie IBM, Microsoft und Googles DeepMind eigene

Ethiknormen zu KI vorgegeben und sich zusammengeschlossen, um groß

angelegte Initiativen wie „Partnership on AI“6 oder „OpenAI“7 ins Leben zu

rufen, bei denen die Branchenakteure, gemeinnützige Organisationen und

wissenschaftliche Einrichtungen zusammenkommen.

Eine der wichtigsten Initiativen, die eine verantwortungsvolle Entwicklung

von KI fordern, wurde vom Future of Life Institute auf den Weg gebracht

und führte zur Aufstellung der „KI-Leitsätze von Asilomar“. Die 23

Grundsätze sollen als Leitfaden für Forschung und Anwendung im Bereich

der künstlichen Intelligenz dienen und wurden von Hunderten

Interessenträgern unterzeichnet8, in erster Linie von Vertretern aus

Wissenschaft, KI-Forschung und Industrie. Ein ähnlicher

Vorbereitungsprozess geht auf eine Initiative des im November 2017 von

der Universität Montreal ausgerichteten Forums für die sozial vertretbare

Entwicklung von künstlicher Intelligenz (Forum on the Socially Responsible

Development of Artificial Intelligence) zurück und hat zur Entwicklung des

ersten Entwurfs einer möglichen Erklärung für die verantwortungsvolle

Entwicklung von künstlicher Intelligenz (Declaration for a Responsible

Development of Artificial Intelligence) geführt. Der Entwurf wurde auf einer

3 http://standards.ieee.org/news/2016/ethically_aligned_design.html 4 https://www.itu.int/en/ITU-T/AI/Pages/201706-default.aspx 5 http://www.aies-conference.com/ 6 https://www.partnershiponai.org/ 7 https://openai.com/ 8 https://futureoflife.org/ai-principles/

16 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

Online-Plattform veröffentlicht, wo sich Vertreter aus allen

gesellschaftlichen Bereichen zum Wortlaut äußern können9.

Von den Vereinten Nationen und den Sitzungen zum Übereinkommen über

bestimmte konventionelle Waffen (CCW, Genf) wurde eine weltweite

Debatte über die militärische Verwendung von KI angestoßen. Dabei haben

die Hohen Vertragsparteien den Grundsatz der sogenannten „sinnvollen

menschlichen Kontrolle für LAWS“ gebilligt und erklärt, dass autonome

Waffensysteme, die keine sinnvolle menschliche Kontrolle erfordern,

verboten werden sollten (VN-Generalversammlung, 2016). Ferner haben

die Vereinten Nationen ein Sonderforschungsinstitut in Den Haag

eingerichtet, das sich mit der Steuerung von Robotik und KI befassen soll

(UNICRI).10 Einige Initiativen und nichtstaatliche Organisationen, die sich für

einen „auf das Gute“ ausgerichteten Einsatz von KI und „autonomen“

Systemen engagieren (z. B. die Foundation for Responsible Robotics),

plädieren für ein Verbot autonomer Waffen.

Die auf nationaler Ebene ergriffenen Maßnahmen sind uneinheitlich. Einige

Länder legen den Schwerpunkt auf die Entwicklung von Vorschriften für

Roboter und künstliche Intelligenz und erlassen sogar entsprechende

Gesetze (z. B. zur Regulierung selbstfahrender Autos auf öffentlichen

Straßen), während sich andere Länder erst noch mit der Thematik

auseinandersetzen müssen. Das Fehlen einer harmonisierten europäischen

Vorgehensweise hat das Europäische Parlament dazu veranlasst, eine Reihe

von Maßnahmen zur Vorbereitung der Regulierung einer fortgeschrittenen

Robotik zu fordern11, einschließlich der Entwicklung eines ethischen

Leitrahmens für die Konstruktion, Herstellung und Nutzung von Robotern.

Vor diesem Hintergrund weist die EGE auf die Risiken einer unkoordinierten,

unausgewogenen Vorgehensweise bei der Regulierung von KI und

„autonomen“ Technologien hin. Ein regulatives Flickwerk könnte zu einer

selektiven Anwendung ethischer Grundsätze („ethics shopping“) und damit

zu einer Verlagerung der Entwicklung und Nutzung von KI in Regionen mit

geringeren ethischen Standards führen. Wenn zugelassen wird, dass die

9 http://nouvelles.umontreal.ca/en/article/2017/11/03/montreal-declaration-for-a-

responsible-development-of-artificial-intelligence/ 10 In diesem Zusammenhang sei auch auf den COMEST-Bericht (World Commission on the

Ethics of Scientific Knowledge and Technology) über Ethik in der Robotik und den IBC-Bericht (International Bioethics Committee) über Big Data im Gesundheitswesen hingewiesen, die beide im September 2017 unter Federführung der UNESCO verabschiedet wurden.

11 Europäisches Parlament, Rechtsausschuss, 2015/2103(INL), Bericht mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik, Berichterstatterin: Mady Delvaux.

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 17

Debatte von bestimmten Regionen, Fachrichtungen oder Akteuren der

Branche dominiert wird oder von demografischen Gegebenheiten abhängt,

besteht die Gefahr, dass umfassendere gesellschaftliche Belange und

Sichtweisen unberücksichtigt bleiben. Der aktuellen Diskussion fehlt

bisweilen auch ein Überblick darüber, welche „autonomen“ Technologien im

nächsten Jahrzehnt wahrscheinlich untersucht, entwickelt und umgesetzt

werden, was eine vorausschauende Regulierung erschwert.

Die EGE fordert ein weitreichendes systematisches öffentliches Engagement

und eine öffentliche Auseinandersetzung mit den ethischen Aspekten der

KI, Robotik und „autonomen“ Technologie sowie mit der Frage, welche

Werte die Gesellschaften für die Entwicklung und Steuerung dieser

Technologien zugrunde legen möchten. Dieser Prozess, für dessen

Mitgestaltung die EGE bereitsteht, sollte eine Plattform bieten, auf der die

verschiedenen oben dargelegten globalen Initiativen zusammengeführt

werden können. Im Rahmen des Prozesses sollte eine umfassende, inklusiv

geführte und weitreichende gesellschaftliche Debatte stattfinden, bei der

unterschiedliche Sichtweisen einbezogen und Seiten mit verschiedenen

Fachkenntnissen und Wertvorstellungen angehört werden. Die EGE fordert

die Europäische Union dringend auf, sich an die Spitze eines solchen

Prozesses zu stellen und hält die Kommission dazu an, die Umsetzung des

Prozesses auf den Weg zu bringen und zu fördern.

Als ersten Schritt zur Formulierung ethischer Leitlinien, die als Grundlage

für die Einführung globaler Standards und gesetzgeberischer Maßnahmen

dienen können, schlägt die EGE einen Katalog von Grundsätzen und

demokratischen Voraussetzungen vor, der auf den in den EU-

Verträgen und in der Charta der Grundrechte der Europäischen

Union verankerten Grundwerten beruht.

18 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

Ethische Grundsätze und demokratische

Voraussetzungen

a) Die Würde des Menschen

Der Grundsatz der Menschenwürde im Sinne der Anerkennung des dem

Menschen eigenen Status, der Achtung würdig zu sein, darf nicht durch

autonome Technologien verletzt werden. Das bedeutet beispielsweise, dass

es Grenzen für die Unterscheidung und Klassifizierung von Menschen

anhand von Algorithmen und „autonomen“ Systemen gibt, insbesondere

wenn die Betroffenen nicht über diese Unterscheidungen und

Klassifizierungen informiert werden. Daraus folgt außerdem, dass

(gesetzlich) eingeschränkt werden muss, auf welche Weisen Menschen

vorgetäuscht werden darf, dass sie mit einem anderen Menschen umgehen,

während sie tatsächlich mit Algorithmen und intelligenten Maschinen

kommunizieren. Ein relationales Konzept der Menschenwürde, das durch

unsere sozialen Beziehungen gekennzeichnet ist, setzt voraus, dass wir

wissen, ob und wann wir mit einer Maschine oder einem anderen Menschen

interagieren, und dass wir uns das Recht vorbehalten können, bestimmte

Aufgaben einer Maschine oder aber einem Menschen zu übertragen.

b) Autonomie

Der Grundsatz der Autonomie impliziert die Freiheit des Menschen. Hieraus

leitet sich die menschliche Verantwortung und damit die Kontrolle und das

Wissen über „autonome“ Systeme ab, da die Freiheit des Menschen, sich

eigene Standards und Normen zu setzen, und sein Vermögen, danach zu

leben, nicht durch solche Systeme beeinträchtigt werden darf. Daher

müssen alle „autonomen“ Technologien die Fähigkeit des Menschen achten,

selbst zu bestimmen, wann und wie er ihnen Entscheidungen und

Handlungen überträgt. Dazu gehört auch die Transparenz und

Vorhersagbarkeit von autonomen Systemen, ohne die es für die Benutzer

nicht möglich wäre, in die Systeme einzugreifen oder sie abzuschalten,

wenn sie dies aus moralischen Gründen für notwendig erachten.

c) Verantwortung

Der Grundsatz der Verantwortung muss für die Forschung und Nutzung von

künstlicher Intelligenz grundlegend sein. „Autonome“ Systeme sollten nur

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 19

auf solche Weisen entwickelt und verwendet werden, die dem allgemeinen,

als Ergebnis bewusster demokratischer Prozesse definierten Wohl von

Gesellschaft und Umwelt dienen. Daraus folgt, dass sie so konstruiert sein

sollten, dass ihre Auswirkungen mit einer Vielfalt an grundlegenden

menschlichen Werten und Rechten in Einklang stehen. Da eine wesentliche

Herausforderung im möglichen Missbrauch „autonomer“ Technologien liegt,

sind Risikobewusstsein und ein Vorsorgeansatz entscheidend. Anwendungen

von KI und Robotik dürfen keine unannehmbare Gefahr für Menschen

darstellen und dürfen die Freiheit und Autonomie des Menschen nicht

dadurch beeinträchtigen, dass sie die Auswahlmöglichkeiten und das Wissen

der Bürgerinnen und Bürger auf unrechtmäßige und betrügerische Weise

einschränken. Stattdessen sollten ihre Entwicklung und Verwendung darauf

ausgerichtet sein, den Zugang zu Wissen und den Zugang zu Chancen für

den Einzelnen zu erhöhen.

Die Forschung, Konstruktion und Entwicklung von KI, Robotik und

„autonomen“ Systemen sollte von einem echten Bemühen um

Forschungsethik, soziale Verantwortung von Entwicklern und einer

weltweiten wissenschaftlichen Zusammenarbeit zum Schutz grundlegender

Rechte und Werte geleitet sein und die Konzeption von Technologien zum

Ziel haben, die diese Rechte und Werte fördern und nicht beeinträchtigen.

d) Gerechtigkeit, Gleichbehandlung und Solidarität

Künstliche Intelligenz sollte zu globaler Gerechtigkeit und

gleichberechtigtem Zugang zu dem Nutzen und den Vorteilen beitragen, die

KI, Robotik und autonome Systeme bieten können. Diskriminierende

Verzerrungen in den Datensätzen, mit denen KI-Systeme trainiert und

betrieben werden, sollten so frühzeitig wie möglich unterbunden oder

aufgedeckt, gemeldet und neutralisiert werden.

Es sind konzertierte globale Anstrengungen erforderlich, damit der

gleichberechtigte Zugang zu „autonomen“ Technologien, eine faire

Verteilung des Nutzens sowie Chancengleichheit zwischen und innerhalb der

Gesellschaften gewährleistet werden. Dazu müssen neue Modelle der fairen

Verteilung und des Vorteilsausgleichs entwickelt werden, die Antworten auf

die durch Automatisierung, Digitalisierung und KI verursachten

wirtschaftlichen Veränderungen liefern können. Dabei sollte die

Zugänglichkeit von KI-Kerntechnologien sichergestellt und die Ausbildung in

20 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

den MINT-Fächern und digitalen Disziplinen insbesondere im Hinblick auf

benachteiligte Regionen und soziale Gruppen gefördert werden.

Wachsamkeit ist in Bezug auf die Kehrseite der detaillierten und

massenhaften Datenansammlung zu Einzelpersonen geboten, die den

Solidaritätsgedanken z. B. im Zusammenhang mit Systemen der

gegenseitigen Unterstützung – etwa in der Sozialversicherung und im

Gesundheitswesen – unter Druck setzen werden. Diese Prozesse können

den sozialen Zusammenhalt untergraben und einen radikalen

Individualismus fördern.

e) Demokratie

Schlüsselentscheidungen über die Regulierung der Entwicklung und

Anwendung von künstlicher Intelligenz sollten das Ergebnis demokratischer

Debatten und öffentlichen Engagements sein. Damit sie auf inklusive,

fundierte und weitsichtige Weise getroffen werden, sollte darüber ein

öffentlicher Dialog im Geist der globalen Zusammenarbeit geführt werden.

Das Recht auf Ausbildung oder auf Zugang zu Informationen über die neuen

Technologien und ihre ethischen Implikationen wird dazu beitragen, dass

jeder über die Risiken und Chancen aufgeklärt ist und in die Lage versetzt

wird, an Entscheidungsprozessen mitzuwirken, die unsere Zukunft

entscheidend bestimmen.

Ein zentraler Aspekt der Grundsätze der Menschenwürde und der

Autonomie ist das Recht des Menschen auf Selbstbestimmung durch

demokratische Mittel. Für unsere demokratischen politischen Systeme sind

Wertepluralismus, Vielfalt und Akzeptanz einer Vielzahl von

Lebensentwürfen der Bürgerinnen und Bürger von zentraler Bedeutung.

Diese Werte dürfen nicht durch neue Technologien gefährdet, untergraben

oder egalisiert werden, die den politischen Entscheidungsprozess

unterbinden oder beeinflussen oder die Meinungsfreiheit sowie das Recht,

Informationen unbeeinflusst zu erhalten oder weiterzugeben, verletzen. Die

digitalen Technologien sollten stattdessen dazu verwendet werden, das

kollektive Wissen zu nutzen und die bürgerlichen Prozesse zu verbessern,

von denen unsere demokratischen Gesellschaften abhängen.

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 21

f) Rechtsstaatlichkeit und Rechenschaftspflicht

Rechtsstaatlichkeit, Zugang zur Justiz sowie das Recht auf

Wiedergutmachung und auf ein faires Verfahren bilden den notwendigen

Rahmen, um die Einhaltung von Menschenrechtsstandards und möglichen

KI-spezifischen Vorschriften sicherzustellen. Dazu gehört auch der Schutz

vor Risiken, die von „autonomen“ Systemen ausgehen und gegen

Menschenrechte wie das auf Sicherheit und das auf Privatsphäre verstoßen

könnten.

Um der ganzen Bandbreite rechtlicher Fragestellungen auf diesem Gebiet

gerechtzuwerden, sollte frühzeitig in die Entwicklung belastbarer Lösungen

investiert werden, die für eine faire und eindeutige Zuordnung von

Verantwortlichkeiten und wirksame rechtsverbindliche Mechanismen

sorgen.

In diesem Zusammenhang sollten sich Regierungen und internationalen

Organisationen intensiver um die Klärung der Frage bemühen, wer für

Schäden haftbar ist, die durch das unerwünschte Verhalten „autonomer“

Systeme verursacht werden. Außerdem sollten wirksame Systeme zur

Schadensbegrenzung vorhanden sein.

g) Sicherheit, Schutz, körperliche und geistige Unversehrtheit

Bei „autonomen“ Systemen kommen Sicherheit und Schutz auf drei Weisen

zum Tragen: 1) äußere Sicherheit für ihre Umgebung und die Benutzer, 2)

Zuverlässigkeit und interne Belastbarkeit (z. B. Schutz vor Hackerangriffen)

und 3) psychische Sicherheit im Zusammenhang mit der Interaktion

zwischen Mensch und Maschine. Alle Sicherheitsdimensionen müssen von

KI-Entwicklern berücksichtigt und vor der Freigabe streng geprüft werden,

damit sichergestellt ist, dass „autonome“ Systeme nicht gegen das Recht

des Menschen auf körperliche und geistige Unversehrtheit und auf ein

sicheres und geschütztes Umfeld verstoßen. Dabei sollte ein besonderes

Augenmerk auf schutzbedürftigen Menschen liegen. Besondere Beachtung

sollte auch einem möglichen doppelten Verwendungszweck von KI und

einer potenziellen Verwendung für Waffen gegeben werden, zum Beispiel in

den Bereichen Cybersicherheit, Finanzwesen oder Infrastruktur und in

bewaffneten Konflikten.

22 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien

h) Datenschutz und Privatsphäre

In einer Zeit der allgegenwärtigen und massenhaften Sammlung von Daten

durch digitale Kommunikationstechnologien stehen das Recht auf Schutz

personenbezogener Daten und das Recht auf Schutz der Privatsphäre vor

enormen Herausforderungen. Sowohl physische KI-Roboter als Teil des

Internets der Dinge als auch über das World Wide Web tätige KI-Softbots

müssen den Datenschutzvorschriften entsprechen und dürfen keine Daten

sammeln und verbreiten bzw. mit Datensätzen betrieben werden, für deren

Nutzung und Verbreitung keine aufgeklärte Einwilligung vorliegt.

„Autonome“ Systeme dürfen nicht gegen das Recht auf ein Privatleben

verstoßen; hierzu gehören auch das Recht auf Freiheit von Technologien,

die die persönliche Entwicklung und persönliche Meinungen beeinflussen,

das Recht, Beziehungen mit anderen Menschen einzugehen und zu

entwickeln, sowie das Recht, von Überwachung frei zu sein. Auch in dieser

Hinsicht sollten exakte Kriterien festgelegt und Mechanismen eingeführt

werden, die die ethische Entwicklung und ethisch vertretbare Anwendung

„autonomer“ Systeme gewährleisten.

Vor dem Hintergrund der Bedenken in Bezug auf die Folgen „autonomer“

Systeme für Privatleben und Privatsphäre könnte auch die laufende Debatte

über die Einführung zwei neuer Rechte einbezogen werden: das Recht auf

sinnvollen zwischenmenschlichen Kontakt und das Recht, nicht profiliert,

gemessen, analysiert, angeleitet oder angestoßen zu werden.

i) Nachhaltigkeit

Die KI-Technologie muss mit der Verantwortung des Menschen für die

Sicherstellung der grundlegenden Voraussetzungen für das Leben auf

unserem Planeten, des stetigen Wohlergehens der Menschheit und der

Bewahrung der Umwelt für künftige Generationen im Einklang stehen.

Strategien zur Verhinderung der negativen Auswirkungen künftiger

Technologien auf das menschliche Leben und die Natur sollten sich auf

Konzepte stützen, die den Vorrang von Umweltschutz und Nachhaltigkeit

sicherstellen.

Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 23

Umsichtig konstruiert und eingesetzt können künstliche Intelligenz, Robotik

und „autonome“ Systeme Wohlstand schaffen, das Wohlergehen fördern

und zur Verwirklichung der moralischen Ideale und sozioökonomischen Ziele

Europas beitragen. Ethische Erwägungen und gemeinsame moralische

Werte können dazu dienen, die Welt von morgen zu gestalten. Sie sollten

als Impulsgeber und Chance für Innovation aufgefasst werden und nicht als

Einschränkung und Hindernis.

Die EGE fordert die Kommission auf zu untersuchen, welche bestehenden

Rechtsinstrumente zur Verfügung stehen, um den in dieser Erklärung

dargelegten Problemen wirksam zu begegnen und zu prüfen, ob neue

Steuerungs- und Regelungsinstrumente erforderlich sind.

Die EGE fordert die Einleitung eines Prozesses, der den Weg für die

Entwicklung eines gemeinsamen, international anerkannten ethischen und

rechtlichen Rahmens für die Konstruktion, Produktion, Verwendung und

Steuerung von künstlicher Intelligenz, Robotik und „autonomen“ Systemen

bereitet.

Kontaktaufnahme mit EU-Ansprechpartnern

BESUCHEN SIE UNS

In der Europäischen Union gibt es Hunderte von „Europe-Direct“-Informationsbüros.Die Anschrift des nächstgelegenen Zentrums finden Sie unter http://europa.eu/contact

RUFEN SIE UNS AN ODER SCHICKEN SIE UNS EINE E-MAIL

Europe Direct beantwortet Ihre Fragen über die Europäische Union.Sie erreichen diesen Dienst

– büber die gebührenfreie Rufnummer 00 800 6 7 8 9 10 11 (manche Telefondienstanbieter berechnen möglicherweise Gebühren),

– über die Standardrufnummer +32 22999696 oder

– per E-Mail unter http://europa.eu/contact

Informationen über die EU

DIE EU IM INTERNET

Informationen über die Europäische Union finden Sie in allen Amtssprachen der EU im Europa-Portal: http://europa.eu

EU-VERÖFFENTLICHUNGEN

Im EU-Bookshop können Sie – zum Teil kostenlos – EU-Veröffentlichungen herunterladen oder bestellen: http://bookshop.europa.eu. Wünschen Sie mehrere Exemplare einer kostenlosen Veröffentlichung, wenden Sie sich an Europe Direct oder ein Informationsbüro in Ihrer Nähe (siehe http://europa.eu/contact)

EU-RECHT UND DAMIT VERBUNDENE DOKUMENTE

Informationen zum EU-Recht, darunter alle EU-Rechtsvorschriften seit 1951 in sämtlichen Amtssprachen, finden Sie in EUR-Lex unter: http://eur-lex.europa.eu

OFFENE DATEN DER EU

Über ihr Offenes Datenportal (http://data.europa.eu/euodp/en/data) stellt die EU Datensätze zur Verfügung. Die Daten können zu gewerblichen und nichtgewerblichen Zwecken kostenfrei herunt-ergeladen bzw. weiterverwendet werden.

Der Fortschritt auf den Gebieten der künstlichen Intelligenz (KI), der Robotik und der sogenannten „autonomen“ Technologien wirft zahlreiche immer dringlichere und komplexere moralische Fragen auf. Die derzeitigen Bemühungen, Antworten auf die damit verbundenen ethischen, gesellschaftlichen und rechtlichen Herausforderungen zu finden und die Entwicklungen auf das Gemeinwohl auszurichten, bestehen aus unzusammenhängenden Einzelinitiativen. Daran wird deutlich, dass ein kollektiver, umfassender und inklusiver Reflektions - und Dialogprozess benötigt wird – ein Dialog insbesondere darüber, nach welchen Werten wir unsere Gesellschaft gestalten wollen und welche Rolle die Technologien dabei spielen sollen.

In dieser Erklärung wird die Einleitung eines Prozesses gefordert, der den Weg für die Entwicklung eines gemeinsamen, international anerkannten ethischen und rechtlichen Rahmens für die Konstruktion, Produktion, Verwendung und Steuerung von künstlicher Intelligenz, Robotik und „autonomen“ Systemen bereiten würde. Ferner wird in der Erklärung ein Katalog ethischer Grundsätze vorgeschlagen, der auf den in den EU-Verträgen und in der Charta der Grundrechte der Europäischen Union verankerten Werten beruht und als Leitfaden für die Entwicklung dieses Prozesses dienen kann.

Forschungs- und Innovationspolitik