Bereits Ende März 2023 hat das „Future of Life Institute“ einen offenen Brief veröffentlicht, in dem auf mögliche Risiken durch Systeme wie ChatGPT hingewiesen und eine 6-monatige Entwicklungspause gefordert wird, damit mögliche negative Folgen untersucht werden können.
Am 30.5.2023 wurde ein „1-Satz-Statement“ veröffentlicht, in dem vor dem Aussterben der Menschen durch KI gewarnt wird.
Das Statement lautet: „Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.“ (frei übersetzt: „Das Risiko, das die KI das Aussterben der Menschheit bewirken könnte, sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.“)
Unterzeichner sind u.a.:
- Demis Hassabis, CEO, Google DeepMind
- Sam Altman, CEO, OpenAI
- Dario Amodei, CEO, Anthropic
- Ilya Sutskever, Co-Founder and Chief Scientist, OpenAI
- Mustafa Suleyman, CEO, Inflection AI
- Shane Legg, Chief AGI Scientist and Co-Founder, Google DeepMind
- James Manyika, SVP, Research, Technology & Society, Google-Alphabet
- Eric Horvitz, Chief Scientific Officer, Microsoft
- Stuart Russell, Professor of Computer Science, UC Berkeley
- Peter Norvig, Education Fellow, Stanford University
- Geoffrey Hinton, Professor of Computer Science, University of Toronto
- Yoshua Bengio, Professor of Computer Science, U. Montreal / Mila
Die Unterzeichner sind also Chefs von großen IT- bzw. KI-Unternehmen sowie sehr renommierte KI-Wissenschaftler wie Stuart Russell und Peter Norvig, die Autoren des seit vielen Jahren weltweit wichtigsten KI-Lehrbuches.
Die Unterzeichner des 1-Satz-Statement-Aufrufs sind echte KI-Experten und diese Aufrufe sollten ernst genommen werden, so wie auch die Aufrufe von Klimaforschern vor einigen Jahrzehnten hätten ernst genommen werden müssen. Im Vergleich zum Klimawandel haben wir bei den KI-Risiken noch viel weniger Zeit. Die Unterzeichner, also auch die Chefs großer KI-Unternehmen fordern eindringlich Regulierungen für KI.