Technikfolgen: Systemische und existenzielle Risiken von KI

Bedrohung KI? Forschende des KIT untersuchen mögliche Risiken und erarbeiten Bewertungs- und Handlungsansätze. Foto: Thorsten Greiner, KIT
Bedrohung KI? Forschende des KIT untersuchen mögliche Risiken und erarbeiten Bewertungs- und Handlungsansätze. Foto: Thorsten Greiner, KIT

24.04.2024

 

 

(Karlsruhe/ jm/mle) - Auf Künstlicher Intelligenz (KI) ruhen große Hoffnungen, ihre rasante Entwicklung weckt aber auch Befürchtungen: Können KI-Anwendungen etwa das Verbreiten von Desinformation weiter erleichtern und demokratische Prozesse grundlegend stören? Können sie sich der menschlichen Kontrolle sogar ganz entziehen und zur Bedrohung werden? Diese Fragen zu untersuchen und tragfähige Bewertungs- und Handlungsansätze zu entwickeln, ist Ziel des Projekts „Systemische und existenzielle Risiken der KI“ am KIT.

Systemische Risiken der künstlichen Intelligenz

„Systemische Risiken zeichnen sich durch komplexe Wechselwirkungen oder Kipppunkte aus, die zu Fehlfunktionen oder zum Zusammenbruch von Systemen führen, wie bei der Finanz- oder Klimakrise“, sagt Dr. Carsten Orwat vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, wo das Projekt angesiedelt ist. Im ersten Teilprojekt geht er Hinweisen auf derartige Risiken bei KI-Anwendungen nach und analysiert Ursachen, spezifische Wirkungsweisen und Schadensformen. Auf dieser Basis leiten die Forschenden geeignete Regulierungsformen ab. Ziel ist es, Wissen aus unterschiedlichen disziplinären Bereichen zusammenzuführen, um fundierte Einschätzungen und Empfehlungen zu ermöglichen. Neben den eigenen Forschungen sollen dazu auch externe Gutachten zu spezifischen Fragestellungen vergeben werden.

 

Systemische Risiken sind bisher vor allem durch die Finanzkrise oder den Klimawandel bekannter geworden. Obwohl sie sehr unterschiedlich konzeptionalisiert werden, spielen häufig komplexe Verbindungen, Wechselwirkungen und Interdependenzen, aber auch emergente Effekte, Rückkopplungseffekte oder Kipppunkte eine Rolle. Sie können zu weiten Fehlfunktionen eines Systems oder sogar zu dessen Versagen führen. Systemische Risiken von KI-Anwendungen sind bisher nur wenig untersucht worden, vor allem im Hinblick auf Grundrechte. Es gibt jedoch bereits konkrete Hinweise auf systemische Risiken durch Kopplungen von KI-basierten Diensten und Produkten mit Basismodellen, wie z. B. großen Sprachmodellen. Das Teilprojekt analysiert die vielfältigen Ursachen, spezifischen Wirkungsweisen und Schadensformen von systemischen Risiken der KI, um auf dieser Basis geeignete Formen der Governance bzw. Regulierung abzuleiten.

Unkontrollierbare künstliche Intelligenz: Ein existenzielles Risiko?

Handlungsempfehlungen, die dabei helfen, mögliche Risiken frühzeitig zu berücksichtigen, sind auch das Ziel des zweiten Teilprojekts. „Wir setzen uns mit der Befürchtung auseinander, dass KI-Anwendungen entwickelt werden könnten, die sich der menschlichen Kontrolle vollständig entziehen und Ziele verfolgen, die mit menschlichen Interessen in Konflikt stehen und sogar den Fortbestand der menschlichen Zivilisation bedrohen“, sagt Reinhard Heil vom ITAS, der das Teilprojekt leitet.

Das Teilprojekt beschäftigt sich mit der Frage, ob KI sich in der Zukunft der Kontrolle entziehen könnte und dadurch ein existenzielles Risiko für die Menschheit darstellt. Der Diskurs zu dieser Befürchtung wird aufgearbeitet, indem die Argumente systematisiert und bewertet werden. Dabei werden die bedeutungsgebenden Narrative und Visionen berücksichtigt. Im Rahmen einer narrativen Literaturstudie wird die Literatur zum Themenfeld „Unkontrollierbare künstliche Intelligenz“ synthetisiert und analysiert. Auf Grundlage der Literaturstudie wird zur Erfassung eines möglichst detaillierten Meinungsbildes eine Delphi-Befragung durchgeführt. Zusätzlich werden qualitative Interviews mit Expertinnen und Experten geführt, die dazu dienen, die Ergebnisse der Delphi-Befragung und der Literaturstudie in Bezug auf den deutschen Kontext zu bewerten und weiter zu konkretisieren.

Im Gegensatz zu den unmittelbaren Folgen von KI für betroffene Einzelpersonen oder Unternehmen liegen zu möglichen systemischen oder existenziellen Risiken der KI bisher keine konsistenten Bewertungs- und Handlungsansätze vor. Es gibt jedoch gerade in jüngster Zeit konkrete Hinweise auf systemische Risiken, beispielsweise durch die Folgen von generativer KI für die Gesellschaft. Weiterhin wird von den Medien und unterschiedlichen Akteuren aus dem Feld der KI auch auf existenzielle Risiken für die gesamte Menschheit hingewiesen, die mit der ungebremsten Fortentwicklung von KI einhergehen könnten. Für die erfolgreiche und gesellschaftlich akzeptable Implementierung von KI-Technologien und damit letztendlich für deren wirtschaftlichen Erfolg ist die frühzeitige Berücksichtigung möglicher Risiken und Befürchtungen unerlässlich.

 

 

Das Bundesministerium für Bildung und Forschung fördert beide Teilprojekte für zwei Jahre. (jm/mle)
 
Weitere Informationen:
itas.kit.edu/projekte_orwa24_seri1.php
itas.kit.edu/projekte_heil24_seri2.php


Lesetipp: Künstliche Intelligenz außer Kontrolle?

 

Reinhardt Heil interviewt Karl von Wendt


Info

Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 800 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen.

Seine etwa 22 300 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen. Das KIT ist eine der deutschen Exzellenzuniversitäten.


Autor / Quelle: KIT.kompakt 04/24 - zusammengestellt von Gert Holle - 24.04.2024


Reaktionen / Kommentare

Kommentare: 0