Motivation, Ziele und Initiatoren dieser Seite: über uns

Chancen und Risiken

Die meisten KI-Anwendungen sind positiv und haben zu einer Verbesserung der menschlichen Lebensqualität geführt. Es gibt aber auch kritische Anwendungen, die man kennen sollte, um Risiken möglichst gering zu halten. Die Chancen der KI sind vielfältig und werden in vielen Quellen ausführlich behandelt (siehe z.B. kuenstliche-intelligenz.de, claire-ai.org). Das Anliegen dieser Seiten ist es, auch auf mögliche gravierende Risiken hinzuweisen. Hierbei werden nur einzelne Schwerpunkte gesetzt ohne Anspruch auf Vollständigkeit.

Warnung vor KI

Ende März 2023 hat das FLI einen offenen Brief veröffentlicht, in dem vor KI-Risiken gewarnt und eine sechsmonatige Pause für bestimmte KI-Entwicklungen gefordert wurde. Am 30. Mai wurde ein „Ein-Satz-Statement“ veröffentlicht, in dem vor dem Aussterben der Menschheit durch KI gewarnt wurde. Hinweise zu diesen Warnungen.

Gravierende Risiken durch KI

Der „eine Satz“ des Statements besagt nicht, um welche Art von Risiken es sich handeln könnte, doch weitere Veröffentlichungen deuten darauf hin, dass die Entstehung einer Superintelligenz für besonders gefährlich gehalten wird. Darunter versteht man ein System, das die menschliche Intelligenz in fast allen Bereichen deutlich übersteigt.

Die KI-Erfolge können aber auch andere Risiken haben, wie

  • Entwicklung von Autonomen Waffensystemen,
  • unkalkulierbare Wechselwirkungen zwischen KI und Atomwaffen,
  • Revolution der Kriegsführung durch KI,
  • mit Hilfe von KI entwickelte Bio- und Chemiewaffen,
  • Desinformation, Deep Fakes,
  • Informationsdominanz und Manipulation im Internet.

Diese Risiken werden in einem Artikel „Ist die Künstliche Intelligenz gefährlich?“ behandelt.

Nicht alle diese Risiken stellen eine Bedrohung für die gesamte Menschheit dar, wie es in dem Ein-Satz-Statement ausgedrückt wird. Eine solche Gefährdung kann allerdings bestehen, wenn es gelingt eine Superintelligenz zu entwickeln oder wenn Atomwaffen zum Einsatz kommen, eventuell aus Versehen im Zusammenwirken mit KI-Entscheidungen. Auch eine Pandemie auf Basis von Biowaffen könnte extreme Ausmaße annehmen. Die Risiken eines Atomkriegs aus Versehen, auch in Zusammenhang mit KI werden hier behandelt.

Superintelligenz

Bei der Warnung vom 30.5. hatten die Unterzeichner auch eine mögliche Superintelligenz im Sinn. Viele führende KI-Wissenschaftler glauben, dass eine „Artificial General Intelligence“ (AGI) innerhalb der nächsten 10 Jahre entsteht, wobei das menschliche Niveau in sehr vielen Bereichen erreicht wird. Mit hohem finanziellem Aufwand wird derzeit in einigen Unternehmen an der Schaffung einer Superintelligenz gearbeitet.

Das Thema Superintelligenz wird in einigen wichtigen Büchern von Forschenden in diesem Bereich behandelt: https://ki-folgen.de/buecher-zu-superintelligenz/

Informationsdominanz und Manipulation

Vorstufen einer Superintelligenz mit großen Fähigkeiten in der sprachlichen Kommunikation, sowie der Planung von Aktionen können bereits sehr bald erreicht werden, und mit Hilfe solcher Systeme oder durch diese könnte eine Informationsdominanz im Internet erreicht werden, welche unsere Gesellschaftssysteme instabil werden lässt, vielleicht auch Nuklearwaffenstaaten in existenzielle Schwierigkeiten bringt. Damit würde das Atomkriegsrisiko erheblich steigen. weiter …

Ist KI gefährlicher als Atomwaffen?

In der Vergangenheit haben prominente Persönlichkeiten behauptet KI sei gefährlicher als Atomwaffen. Dieser Vergleich bezog sich insbesondere auf das Risiko einer möglichen Superintelligenz. weiter …

Zusammenwirken verschiedener Risiken und Maßnahmen

Der jetzige politische Konfrontationskurs wird in den nächsten Jahren zu einem Niveau in der KI und den damit verbundenen Waffensystemen führen, der für Menschen kaum noch beherrschbar sein wird. Insbesondere können die verschiedenen Risiken (autonome Waffen, Atomwaffen, unkontrollierbare KI-Systeme) auch zusammenwirken und sich damit verstärken.

Bei der Betrachtung der möglichen Risiken stellt sich auch die Frage, wie diese reduziert werden können. weiter…