Bereits Ende März 2023 hat das „Future of Life Institute“ einen offenen Brief veröffentlicht, in dem auf mögliche Risiken durch Systeme wie ChatGPT hingewiesen und eine 6-monatige Entwicklungspause gefordert wird, damit mögliche negative Folgen untersucht werden können.

Am 30.5.2023 wurde ein „1-Satz-Statement“ veröffentlicht, in dem vor dem Aussterben der Menschen durch KI gewarnt wird.

Das Statement lautet: „Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.“ (frei übersetzt: „Das Risiko, das die KI das Aussterben der Menschheit bewirken könnte, sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.“)

Unterzeichner sind u.a.:

  • Demis Hassabis, CEO, Google DeepMind
  • Sam Altman, CEO, OpenAI
  • Dario Amodei, CEO, Anthropic
  • Bill Gates, Gates Ventures
  • Ilya Sutskever, Co-Founder and Chief Scientist, OpenAI
  • Shane Legg, Chief AGI Scientist and Co-Founder, Google DeepMind
  • James Manyika, SVP, Research, Technology & Society, Google-Alphabet
  • Eric Horvitz, Chief Scientific Officer, Microsoft
  • Albert Efimov, Chief of Research, Russian Association of Artificial Intelligence
  • Alvin Wang Graylin, China President, HTC
  • Stuart Russell, Professor of Computer Science, UC Berkeley
  • Peter Norvig, Education Fellow, Stanford University

Die Unterzeichner sind also Chefs von großen IT- bzw. KI-Unternehmen sowie sehr renommierte KI-Wissenschaftler wie Stuart Russell und Peter Norvig, die Autoren des seit vielen Jahren weltweit wichtigsten KI-Lehrbuches.

Die Unterzeichner des 1-Statment-Aufrufs sind echte KI-Experten und diese Aufrufe sollten ernst genommen werden, so wie auch die Aufrufe von Klimaforschern vor einigen Jahrzehnten hätten ernst genommen werden müssen. Im Vergleich zum Klimawandel haben wir bei den KI-Risiken sehr viel weniger Zeit. Die Unterzeichner, also auch die Chefs großer KI-Unternehmen fordern eindringlich Regulierungen für KI.