Motivation, Ziele und Initiatoren dieser Seite: über uns

PDF des Inhalts dieser Startseite und einiger Unterseiten: ki-folgen.de/ki-folgen.pdf

Chancen und Risiken

Die meisten KI-Anwendungen sind positiv und haben zu einer Verbesserung der menschlichen Lebensqualität geführt. Es gibt aber auch kritische Anwendungen, die man kennen sollte, um Risiken möglichst gering zu halten. Die Chancen der KI sind vielfältig und werden in vielen Quellen ausführlich behandelt (siehe z.B. kuenstliche-intelligenz.de, claire-ai.org). Das Anliegen dieser Seiten ist es, auch auf mögliche gravierende Risiken hinzuweisen. Hierbei werden nur einzelne Schwerpunkte gesetzt ohne Anspruch auf Vollständigkeit.

Warnung vor KI

Ende März 2023 hat das FLI einen offenen Brief veröffentlicht, in dem vor KI-Risiken gewarnt und eine sechsmonatige Pause für bestimmte KI-Entwicklungen gefordert wurde. Am 30. Mai wurde ein „Ein-Satz-Statement“ veröffentlicht, in dem vor dem Aussterben der Menschheit durch KI gewarnt wurde. Hinweise zu diesen Warnungen.

Gravierende Risiken durch KI

Der „eine Satz“ des Statements besagt nicht, um welche Art von Risiken es sich handeln könnte und weitere Veröffentlichungen deuten darauf hin, dass die Entstehung einer Superintelligenz für besonders gefährlich gehalten wird. Darunter versteht man ein System, das die menschliche Intelligenz in fast allen Bereichen deutlich übersteigt.

Die KI-Erfolge können aber auch andere Risiken haben, wie

  • Entwicklung von Autonomen Waffensystemen,
  • unkalkulierbare Wechselwirkungen zwischen KI und Atomwaffen,
  • Revolution der Kriegsführung durch KI,
  • mit Hilfe von KI entwickelte Bio- und Chemiewaffen,
  • sowie Informationsdominanz und Manipulation im Internet.

Diese Risiken werden in einem Artikel „Ist die Künstliche Intelligenz gefährlich?“ behandelt.

Nicht alle diese Risiken stellen eine Bedrohung für die gesamte Menschheit dar, wie es in dem Ein-Satz-Statement ausgedrückt wird. Eine solche Gefährdung kann allerdings bestehen, wenn es gelingt eine Superintelligenz zu entwickeln oder wenn Atomwaffen zum Einsatz kommen, eventuell aus Versehen im Zusammenwirken mit KI-Entscheidungen. Auch eine Pandemie auf Basis von Biowaffen könnte extreme Ausmaße annehmen. Die Risiken eines Atomkriegs aus Versehen, auch in Zusammenhang mit KI werden hier behandelt.

Superintelligenz

Bei der Warnung vom 30.5. hatten die Unterzeichner auch eine mögliche Superintelligenz im Sinn. Diese Warnungen sind hochspekulativ. Solche Risiken können aber auch nicht ausgeschlossen werden. Irgendwelche Vorhersagen sind in diesem Zusammenhang kaum möglich.

Fast alle KI-Anwendungen haben nicht das Potenzial sich zu verselbständigen und gefährlich zu werden, sondern sind in der Regel nützlich. Das Risiko einer möglichen Superintelligenz könnte bestehen bei Systemen mit großen Fähigkeiten der sprachlichen Kommunikation und Fähigkeiten der Programmierung, so dass die Systeme sich selbst ständig verbessern können.

Wichtige Bücher von Forschenden zur Superintelligenz.

Informationsdominanz und Manipulation

Auch wenn Systeme wie ChatGPT in den kommenden Jahren ein Niveau erreichen sollten, das mit menschlichen sprachlichen Fähigkeiten vergleichbar wäre, bleibt offen welches Machtpotenzial solche Systeme haben würden und es ist nicht klar, ob und wie künstliche Systeme die Macht über Produktionssysteme und militärische Geräte erlangen könnten, aber möglich ist es.

Vorstufen einer Superintelligenz mit großen Fähigkeiten in der sprachlichen Kommunikation, sowie der Programmierung können bereits sehr bald erreicht werden, und mit Hilfe solcher Systeme oder durch diese könnte eine Informationsdominanz im Internet erreicht werden, welche unsere Gesellschaftssysteme instabil werden lässt, vielleicht auch Nuklearwaffenstaaten in existenzielle Schwierigkeiten bringt. Damit würde das Atomkriegsrisiko erheblich steigen. weiter …

Ist KI gefährlicher als Atomwaffen?

In der Vergangenheit haben prominente Persönlichkeiten behauptet KI sei gefährlicher als Atomwaffen. Dieser Vergleich bezog sich insbesondere auf das Risiko einer möglichen Superintelligenz. weiter …

Vorhersagen und zeitliche Aspekte

In der Vergangenheit haben sich Vorhersagen über Entwicklungsziele in der KI oft nicht oder deutlich später erfüllt. In manchen Fällen wurden Ziele auch schneller erreicht als erwartet. Es ist auch nicht abschätzbar, ob und wann eine Superintelligenz entstehen könnte. Auch die Folgen wären völlig unkalkulierbar.

Entsprechende Ereignisse der hier beschriebenen Risiken werden eher plötzlich eintreten. Gravierende Folgen könnten dann innerhalb von wenigen Wochen oder Monaten auftreten, ohne Möglichkeit diese noch aufzuhalten. Hinweise oder Beweise für die Gefährlichkeit von bestimmten KI-Anwendungen wird es vorher vermutlich nicht geben. Die Möglichkeit entsprechende Ereignisse abzuwarten und erst dann zu handeln, um die Risiken zu reduzieren, wird es eventuell nicht mehr geben.

Mögliche Maßnahmen zur Reduzierung der Risiken

Bei der Betrachtung der möglichen Risiken stellt sich auch die Frage, wie diese Risiken reduziert werden können, welche Maßnahmen hierfür nützlich oder erforderlich sein könnten, bzw. welche Aspekte die Risiken erhöhen. weiter…

Zusammenwirken verschiedener Risiken

Der jetzige politische Konfrontationskurs wird in den nächsten Jahren zu einem Niveau in der KI und den damit verbundenen Waffensystemen führen, der für Menschen kaum noch beherrschbar sein wird. Insbesondere können die verschiedenen Risiken (autonome Waffen, Atomwaffen, unkontrollierbare KI-Systeme) auch zusammenwirken und sich damit verstärken.