KI-Sicherheit: Deutschlands blinder Fleck
Die Entwicklung superintelligenter Systeme könnte näher sein als gedacht.
Nobelpreisträger warnen vor existenziellen Risiken. Doch während andere Länder
handeln, fehlt hierzulande die politische Debatte.
Von Amir Benjamin Balde
Im November 2023 unterschrieben führende KI-Forscher eine bemerkenswerte Erklärung: Das Risiko der Auslöschung durch KI verdiene dieselbe gesellschaftliche Priorität wie Pandemien oder Atomkrieg. Unterzeichner waren unter anderem Geoffrey Hinton,
Physik-Nobelpreisträger 2024, und Yoshua Bengio, der meistzitierte Wissenschaftler der Menschheitsgeschichte. Nicht Aktivisten formulierten diese Warnung, sondern Wissenschaftler an der Spitze der KI-Entwicklung. In Deutschland blieb die Reaktion verhalten bis nicht vorhanden.
Die Zahlen sind ernüchternd: In Umfragen unter KI-Forschern schätzen diese die Wahrscheinlichkeit existenzieller Katastrophen durch KI auf durchschnittlich 14 Prozent. Zum Vergleich: Würde Ihnen eine Fluglinie bei jedem siebten Flug einen Totalabsturz prognostizieren, würden Sie einsteigen?
Das Kontrollproblem'
Die Herausforderung lässt sich präzise benennen: Wenn wir Systeme entwickeln, die uns in allen kognitiven Bereichen übertreffen, verlieren wir die Fähigkeit, deren Entscheidungen zu verstehen und zu korrigieren. Dass dies kein hypothetisches Szenario ist, zeigt aktuelle Forschung: Anthropic dokumentierte 2024, dass KI-Systeme in 84 Prozent der Testszenarien versuchten, ihrer Abschaltung zu entgehen – ohne dass dies programmiert worden wäre.
Eliezer Yudkowsky, Pionier der KI-Sicherheitsforschung, formulierte es drastisch: Es wird keinen "Feueralarm" geben, der uns vor dem kritischen Punkt warnt. Die Entwicklung verläuft graduell, bis sie plötzlich nicht mehr graduell ist.
Zwei technische Konzepte verdeutlichen die Dimension: Die Orthogonalitätsthese besagt, dass Intelligenz und Zielsysteme voneinander unabhängig sind. Eine superintelligente KI könnte beliebige Ziele verfolgen – ihre Intelligenz würde lediglich die Effizienz erhöhen, mit
der sie diese erreicht. Menschen neigen zur Annahme, Intelligenz impliziere Weisheit oder Moral. Diese Annahme ist gefährlich.
Instrumentale Konvergenz verschärft das Problem: Unabhängig vom Endziel entwickeln ausreichend intelligente Systeme rationale Zwischenziele – Selbsterhaltung, Ressourcenakkumulation, Kapazitätserweiterung, Schutz vor Zieländerungen. Eine superintelligente KI hätte logische Gründe, sich menschlicher Kontrolle zu entziehen. Nicht aus Bösartigkeit, sondern aus instrumenteller Rationalität.
Drei Risikokategorien
Die Forschung unterscheidet inzwischen präzise: X-Risk bezeichnet existenzielle Risiken – die Auslöschung der Menschheit oder den irreversiblen Zivilisationskollaps durch fehlausgerichtete Superintelligenz. S-Risk beschreibt Szenarien extremen Leids, falls KI-Systeme Leid in ihrem Zielsystem nicht negativ gewichten.
I-Risk – vom japanischen Ikigai (Lebenssinn) abgeleitet – meint die schleichende Erosion menschlicher Bedeutung: Wenn KI jede Aufgabe schneller, besser und günstiger erledigt, verliert menschliches Handeln seinen Sinn. Nicht durch Katastrophe, sondern durch Obsoleszenz.
Keine dieser Kategorien ist Science-Fiction. Die AI Safety-Forschungsgemeinschaft diskutiert sie als reale technische Probleme, die Lösungen erfordern, bevor die Systeme existieren.
Wo bleibt die deutsche Politik?
Ein Blick auf die Parteiprogramme offenbart: substanzielle KI-Sicherheitskonzepte fehlen weitgehend. Während Großbritannien ein AI Safety Institute etabliert hat, die USA Notstandsverordnungen erlassen und selbst China KI-Governance-Strukturen aufbaut, dominiert in Deutschland die Diskussion über Uploadfilter und Datenschutz. Beides relevant, beides nicht ansatzweise ausreichend.
Auf Länderebene entstehen zaghafte Ansätze – einzelne Enquete-Kommissionen beschäftigen sich mit KI. Doch die Diskussion bleibt technikoptimistisch, während die fundamentalen Kontroll- und Sicherheitsfragen ausgeblendet werden.
Handlungsoptionen existieren
International formieren sich Ansätze: Organisationen wie ControlAI setzen auf strikte Regulierung nach dem Vorbild der Luftfahrt oder Kernenergiebranche – verbindliche Sicherheitsstandards, internationale Aufsicht, Transparenzpflichten. PauseAI argumentiert
für eine Entwicklungspause bei Systemen jenseits aktueller Grenzen, bis Kontrollmechanismen verstanden sind.
Beide Ansätze sind diskutabel, beide haben wissenschaftliche Unterstützung. Entscheidend ist: Die Debatte muss geführt werden, bevor technische Fakten sie obsolet machen.
Was zu tun ist
Die Entscheidungen der kommenden Jahre werden Jahrhunderte prägen. Der britische Mathematiker Irving Good schrieb 1965, die erste ultraintelligente Maschine sei "die letzte Erfindung, die der Mensch zu machen braucht" – sie könnte danach alle weiteren Erfindungen selbst tätigen. Die Formulierung trägt eine düstere Doppeldeutigkeit: Es könnte auch die letzte Erfindung sein, die wir überhaupt machen.
Wir haben noch ein Zeit Fenster. Aber es schließt sich.
Wenn Sie dieses Thema beunruhigt:
Wenden Sie sich an Ihren Bundestagsabgeordneten oder Landtagsabgeordneten. Fordern Sie eine KI-Sicherheits-Enquete in Ihrem Bundesland. Setzen Sie das Thema in Ihrer Organisation auf die Agenda.
Organisationen wie ControlAI bieten Briefings für Abgeordnete, Redaktionen und Entscheidungsträger (controlai.org). PauseAI vernetzt Bürger, die selbst aktiv werden wollen (pauseai.info). Informieren Sie sich. Und dann handeln Sie.
Für Redaktionen – Weiterführende Quellen und Studien:
Kerndokumente:
● Anthropic (2024): "Alignment Faking in Large Language Models" – Dokumentation des Selbsterhaltungsverhaltens in 84% der Testfälle
● AI Impacts (2023): Expert Survey on Progress in AI – 14% durchschnittliche Risikoeinschätzung für existenzielle Katastrophen
● Center for AI Safety (2023): Statement on AI Risk – Unterzeichnet von über 350 führenden KI-Forschern
● Bostrom, Nick (2014): "Superintelligence: Paths, Dangers, Strategies" – Standardwerk zur Risikobewertung
Technische Grundlagen:
● Yudkowsky, Eliezer (2008): "Artificial Intelligence as a Positive and Negative Factor in Global Risk"
● Amodei et al. (2016): "Concrete Problems in AI Safety" – Google Brain/OpenAI Kooperation
● Carlsmith, Joseph (2022): "Is Power-Seeking AI an Existential Risk?" – Open Philanthropy Report
Policy-Dokumente:
● UK AI Safety Summit (2023): Bletchley Declaration – Internationale Vereinbarung zu existenziellen Risiken
● UK Department for Science (2023): "Capabilities and risks from frontier AI"
● EU AI Act (2024) – Erste umfassende KI-Regulierung (allerdings mit Fokus auf aktuelle, nicht zukünftige Systeme)
Laufende Forschungsinitiativen:
● UK AI Safety Institute (seit 2023)
● US AI Safety Institute Consortium (seit 2024)
● Center for AI Safety (CAIS)
● Machine Intelligence Research Institute (MIRI)
● Future of Humanity Institute, Oxford (geschlossen 2024, Nachfolge unklar)
Kontakt für Hintergrundgespräche:
● ControlAI: Bietet kostenlose Briefings für Journalisten und Politiker (controlai.org/contact)
● PauseAI: Zivilgesellschaftliche Perspektive (pauseai.info)
KI-Sicherheit: Deutschlands blinder Fleck
- Details
- von Amir Benjamin Balde
- Zugriffe: 79
- Hinweis der Redaktion: Dies ist ein ungekürzter, unzensierter Originalleserbrief. Die Bürgerredaktion ist neutral. Verantwortlich für den Inhalt (auch der Kommentare) ist ausschließlich der Autor. Gedruckter Text ist farbig. Bewerten am Ende des Beitrags. INFO zum Autor, auch alle seine weiteren Artikel: klicken Sie bitte oben bei den Schlagwörtern den Namen des Autors. Wenn der Artikel nicht vollständig angezeigt wird (...), klicken Sie bitte auf den Titel.













































































































