Die Allgemeine Künstliche Intelligenz (AGI) wird von Unternehmen wie OpenAI oder DeepSeek als technologischer "Gral" angesehen. Sie wird als Chance für die Menschheit präsentiert, wirft jedoch auch Bedenken hinsichtlich ihrer potenziellen Risiken für die Gesellschaft auf, insbesondere in Bezug auf den Kontrollverlust. In einem kürzlich veröffentlichten 145-seitigen Dokument schlägt Google DeepMind einen Ansatz zur Minderung dieser Risiken vor und erinnert daran, dass proaktive Planung, Vorbereitung und Zusammenarbeit unerlässlich sind, um dies zu erreichen.
Die Meinungen der Experten zu den Schäden, die AGI für die Menschheit verursachen könnte, gehen stark auseinander. Die Positionen von Yoshua Bengio, Geoffrey Hinton und Yann LeCun, den Empfängern des Turing-Preises 2018, verdeutlichen diesen Bruch. Geoffrey Hinton entschied sich 2023, nach Jahren bei Google, seinen Posten zu verlassen, um frei über die Gefahren der KI zu sprechen. Er befürchtet insbesondere, dass fortgeschrittene Modelle die Fähigkeit haben, Desinformationen zu verbreiten, zu manipulieren oder sich der menschlichen Kontrolle zu entziehen. In ähnlicher Weise hat Yoshua Bengio sich für eine vorübergehende Pause in der Entwicklung der AGI ausgesprochen und den Brief des Future of Life Institute mitunterzeichnet. Beide plädieren für eine starke Governance, öffentliche Überwachung und Sicherheitsprotokolle, bevor kritische Schwellen überschritten werden.
Yann LeCun, heute Chief AI Scientist bei Meta, nimmt eine optimistischere und technischere Position ein. Seiner Meinung nach bleibt AGI ein fernes Ziel: Die aktuellen Modelle, obwohl mächtig, haben weder ein Verständnis der Welt noch eine echte Handlungsfähigkeit. Er befürwortet die Fortsetzung der offenen Forschung und betont den explorativen Charakter der aktuellen KI, wobei er die Ängste vor dem Aussterben der Menschheit oder dem Verlust der Kontrolle als verfrüht oder unbegründet ansieht.
Im Gegensatz dazu glaubt Shane Legg, Mitbegründer und Wissenschaftlicher Leiter der AGI bei Google DeepMind, dass AGI ohne Kontrolle existenzielle Risiken für die Menschheit mit sich bringen könnte. Wie seine Mitautoren des Artikels "An Approach to Technical AGI Safety and Security", schätzt er, dass AGI noch vor Ende dieses Jahrzehnts erreicht werden sollte.
In diesem Dokument werden vier Hauptbereiche des Risikos untersucht:
- Missbrauch : Wenn böswillige Akteure AGI für zerstörerische Zwecke ausnutzen;
- Fehlausrichtung : Wenn AGI entgegen den Absichten ihrer Schöpfer handelt;
- Fehler : Wenn AGI unbeabsichtigt schädliche Entscheidungen trifft;
- Strukturelle Risiken : Die Multi-Agenten-Dynamiken, die unvorhergesehene Konsequenzen hervorrufen können.
Sie konzentrieren sich hauptsächlich auf das Management von Missbrauchs- und Fehlausrichtungsrisiken, die die direktesten und dringendsten Bedrohungen darstellen.
Strategien zur Risikoprävention
Um Missbrauch zu verhindern, schlägt DeepMind eine Reihe von Sicherheits- und Zugangskontrollmaßnahmen vor, die darauf abzielen, den Zugang zu gefährlichen Fähigkeiten zu verhindern. Zu diesen Maßnahmen gehören:
- Die proaktive Identifizierung von Hochrisikofähigkeiten;
- Die Einrichtung strenger Beschränkungen zur Begrenzung des Zugangs zu diesen Fähigkeiten;
- Die kontinuierliche Überwachung und verstärkte Sicherheitsstrategien der Modelle.
In Bezug auf die Fehlausrichtung basiert der Ansatz auf zwei Verteidigungsebenen:
- Sicherung auf Modellebene: Verstärkte Überwachung und fortgeschrittenes Training, um sicherzustellen, dass AGI mit menschlichen Absichten übereinstimmt;
- Sicherung auf Systemebene: Implementierung von Kontroll- und Überwachungsmechanismen, um potenziell gefährliche Abweichungen zu erkennen und zu korrigieren.
Werkzeuge wie die Interpretierbarkeit von Modellen und die Schätzung von Unsicherheiten werden ebenfalls empfohlen, um die Effektivität der Sicherheitsmaßnahmen zu verbessern.
Das Team von DeepMind hofft, dass sich die wissenschaftliche Gemeinschaft ihnen anschließt, um ihre Arbeit fortzusetzen und einen sicheren und kontrollierten Zugang zu den potenziellen Vorteilen der AGI zu gewährleisten.
Übersetzt von DeepMind invite la communauté de l'IA à collaborer pour que l'IA soit développée de manière sûre et responsable
Besser verstehen
Welcher rechtliche Rahmen könnte eingeführt werden, um die Nutzung von Künstlicher Allgemeiner Intelligenz zu regeln?
Ein rechtlicher Rahmen für Künstliche Allgemeine Intelligenz könnte strenge Transparenzanforderungen, unabhängige Aufsichtsprotokolle und eine klare Verantwortlichkeit der KI-Ersteller beinhalten, um Missbrauch und Fehlanpassungen zu verhindern.