Experten warnen seit Jahren im Zusammenhang mit der künstlichen Intelligenz immer wieder vor Terminator Szenarien, also der Auslöschung der Menschheit durch autonome Waffensysteme. Das Future of Life Institute aus Boston, USA sieht sich als Botschafter, um diese dystopische Sci-Fi Realität nicht Wirklichkeit werden zu lassen. Hinter dem Institut stehen unter anderem Max Tegmark, Stuart J. Russell, Jaan Tallinn oder das kürzlich verstorbene Physik Genie Stephen Hawking. Auf der 2017 Asilomar Conference, die 1000 prominente Teilnehmer von Elon Musk bis Eric Schmidt umfasste wurden 23 Prinzipien erarbeitet, die auf Isaac Asimov Roboter Gesetzen basieren.

Künstliche Intelligenz (KI, engl. artificial intelligence, AI) hat bereits nützliche Werkzeuge hervorgebracht, die Menschen auf der ganzen Welt täglich benutzen. Durch kontinuierliche Weiterentwicklung und geleitet von den hier beschriebenen Grundsätzen, werden sich den Menschen in den kommenden Jahrzehnten und Jahrhunderten spektakuläre Möglichkeiten eröffnen.
Forschungsthemen
1) Forschungsziel: Das Ziel von KI-Forschung sollte lauten, nicht ungesteuerte, sondern nutzbringende Intelligenz zu erschaffen.
2) Forschungsgelder: Investitionen in KI sollten von Forschungsförderung begleitet werden, die ihre nutzbringende Anwendung sichert und heikle Fragen auf den Gebieten der Computerwissenschaft, Wirtschaft, Rechtswissenschaft, Ethik und Sozialwissenschaft beantwortet, wie zum Beispiel:
- Wie können wir zukünftige KI-Systeme so stabilisieren, dass sie tun, was wir wollen, ohne dass sie versagen oder gehackt werden?
- Wie können wir unseren Wohlstand durch Automation vergrößern und dabei unser Ressourcen und Zielsetzungen beibehalten?
- Wie können wir unser Rechtssystem fairer und effizienter gestalten, sodass es mit der KI-Entwicklung Schritt halten und die Risiken handhaben kann, die mit der KI einhergehen?
- Mit welchem Wertesystem sollen KIs ausgestattet werden und wie soll ihr rechtlicher und ethischer Status aussehen?
3) Verbindung zwischen Wissenschaft und Politik: Es sollte einen konstruktiven und soliden Austausch zwischen KI-Forschern und Entscheidungsträgern geben.
4) Forschungskultur: Unter den KI-Forschern und -Entwicklern sollte eine Kultur der Kooperation, des Vertrauens und der Transparenz herrschen.
5) Vermeidung eines Wettlaufs: Teams, die an KI-Systemen arbeiten, sollten aktiv kooperieren, um Tricksereien an den Sicherheitsstandards zu vermeiden.
Ethik und Werte
6) Sicherheit: KI-Systeme sollten während ihrer gesamten Funktionszeit sicher, geschützt und folglich überprüfbar sein, sofern geeignet und umsetzbar.
7) Transparenz bei Fehlfunktionen: Falls ein KI-System Schaden verursacht, sollte es möglich sein den Grund zu ermitteln.
8) Juristische Transparenz: Bei der Einbindung autonomer Systeme in jegliche entscheidungsfindenden Prozesse der Rechtsprechung sollten diese Prozesse nachvollziehbar und von einer kompetenten menschlichen Autorität überprüfbar sein.
9) Verantwortlichkeit: Entwickler und Ingenieure von fortgeschrittenen KIs sollten an den moralischen Auswirkungen der Anwendung, des Missbrauchs und der Handlungen ihrer Maschinen interessiert sein. Sie haben die Verantwortung und die Chance, diese Auswirkungen zu gestalten.
10) Angleichung der Werte: Stark autonome KI-Systeme sollten so entwickelt werden, dass sie mit den idealen menschlicher Würde, Rechte und Freiheiten sowie kultureller Vielfalt vereinbar sind.
11) Menschliche Werte: KI-Systeme sollten so entwickelt und bedient werden, dass sie mit den Idealen der Menschenwürde, Menschenrechten, Freiheiten und kultureller Vielfalt kompatibel sind.
12) Privatsphäre: Menschen sollten angesichts der Kompetenz von KI-Systemen, Daten zu analysieren und zu nutzen, das Recht haben, die Daten, die sie selbst erzeugen, auch einzusehen, zu handhaben und zu kontrollieren.
13) Freiheit und Privatsphäre: Der Einsatz von KI bei der Verarbeitung personenbezogener Daten darf die wirkliche oder vermeintliche Freiheit der Menschen nicht nicht unverhältnismäßig einschränken.
14) Gemeinschaftlicher Nutzen: KI-Technologien sollten so vielen Menschen wie möglich dienen und nutzen.
15) Geteilter Wohlstand: Der von KI geschaffene wirtschaftliche Wohlstand sollte großzügig geteilt werden, damit die ganze Menschheit profitieren kann.
16) Menschliche Kontrolle: Menschen sollten wählen können, wie und ob sie Entscheidungen an KI Systeme delegieren sollten, um von Menschen beschlossene Zielvorstellungen zu erreichen.
17) Kein Umsturz: Die aus der Kontrolle hochentwickelter KI resultierende Macht sollte die sozialen und bürgerlichen Prozesse, von denen die Gesundheit der Menschheit abhängt, respektieren und verbessern, statt sie zu unterwandern.
18) KI-Wettrüsten: Ein Rüstungswettlauf tödlicher autonomer Waffen sollte vermieden werden.
Längerfristige Probleme
19) Vorsicht bei der Leistungsfähigkeit: Da es hier keinen Konsens gibt, sollten wir extreme Mutmaßungen über die oberen Grenzen künftiger KI Kompetenzen vermeiden.
20) Tragweite: Fortgeschrittene KI könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bewirken und sollte deshalb mit angemessener Sorgfalt und entsprechenden Ressourcen geplant und gehandhabt werden.
21) Risiken: Besonders, wenn es um existenzielle oder katastrophale Risiken geht, die von KIs ausgehen, müssen Planung und Entschärfungsmaßnahmen entsprechend dem zu erwartenden Ausmaß getroffen werden.
22) Rekursive Selbstverbesserung: KI-Systeme, die entwickelt wurden, sich selbst rekursiv zu verbessern oder zu duplizieren, sodass eine rasante Qualitäts- oder Quantitätssteigerung zu erwarten ist, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.
23) Allgemeinwohl: Superintelligenz sollte nur im Dienst weithin geteilter ethischer Inhalte entwickelt werden und zum Nutzen der ganzen Menschheit da sein, anstatt ausschließlich einem Staat oder einer Einzelorganisation zu dienen.