AGI (sztuczna inteligencja ogólna) jest uważana za technologiczny 'święty Graal' przez firmy takie jak OpenAI czy DeepSeek. Przedstawiana jako szansa dla ludzkości, budzi również obawy dotyczące potencjalnych zagrożeń dla społeczeństwa, w tym utraty kontroli. W niedawno opublikowanym dokumencie liczącym 145 stron Google DeepMind proponuje podejście mające na celu złagodzenie tych ryzyk, przypominając, że aby to osiągnąć, niezbędne są planowanie, przygotowanie i proaktywna współpraca.
Opinie ekspertów na temat szkód, jakie mogłaby wyrządzić ludzkości AGI, są bardzo zróżnicowane. Stanowiska Yoshua Bengio, Geoffrey Hinton i Yann LeCun, laureatów nagrody Turinga 2018, doskonale ilustrują tę różnicę zdań. Geoffrey Hinton, po latach spędzonych w Google, zdecydował się w 2023 roku opuścić swoje stanowisko, aby swobodnie wypowiadać się na temat zagrożeń ze strony AI. Szczególnie obawia się zdolności zaawansowanych modeli do dezinformacji, manipulacji czy unikania ludzkiej kontroli. W tym samym duchu, Yoshua Bengio opowiedział się za tymczasową przerwą w rozwoju AGI, współpodpisując list Future of Life Institute. Obaj opowiadają się za silnym zarządzaniem, nadzorem publicznym i protokołami bezpieczeństwa przed przekroczeniem krytycznych progów.
Yann LeCun, obecnie Chief AI Scientist w Meta, przyjmuje bardziej optymistyczne i techniczne stanowisko. Według niego, AGI pozostaje odległym celem: obecne modele, choć potężne, nie mają ani zrozumienia świata, ani prawdziwej zdolności do agentury. Wspierając dalsze otwarte badania, jednocześnie podkreśla eksploracyjny charakter obecnej AI, uznaje, że obawy dotyczące wyginięcia ludzkości lub utraty kontroli są przedwczesne, a nawet bezpodstawne.
Z kolei Shane Legg, współzałożyciel i główny naukowiec AGI w Google DeepMind, uważa, że bez kontroli AGI może stanowić egzystencjalne zagrożenie dla ludzkości. Jak jego współautorzy artykułu 'An Approach to Technical AGI Safety and Security', uważa, że AGI powinna zostać osiągnięta przed końcem tej dekady.
W tym dokumencie badają cztery główne obszary ryzyka:
- Nadużycie: Kiedy złośliwi aktorzy wykorzystują AGI do destrukcyjnych celów;
- Niezgodność: Kiedy AGI działa w sposób sprzeczny z zamierzeniami swoich twórców;
- Błędy: Kiedy AGI podejmuje niezamierzenie szkodliwe decyzje;
- Ryzyka strukturalne: Dynamika multi-agentowa mogąca prowadzić do nieprzewidzianych konsekwencji.
Koncentrują się głównie na zarządzaniu ryzykiem nadużyć i niezgodności, które stanowią najbardziej bezpośrednie i pilne zagrożenia.
Strategie zapobiegania ryzyku
Aby zapobiec nadużyciom, DeepMind proponuje szereg działań z zakresu bezpieczeństwa i kontroli dostępu, mających na celu uniemożliwienie dostępu do niebezpiecznych zdolności. Wśród tych działań znajdują się:
- Proaktywna identyfikacja zdolności wysokiego ryzyka;
- Wdrożenie surowych ograniczeń w celu ograniczenia dostępu do tych zdolności;
- Ciągły monitoring i wzmocnione strategie bezpieczeństwa modeli.
Jeśli chodzi o niezgodność, podejście opiera się na dwóch poziomach obrony:
- Zabezpieczenie na poziomie modelu: Zwiększenie nadzoru i zaawansowanego szkolenia, aby zapewnić, że AGI pozostaje zgodna z ludzkimi intencjami;
- Zabezpieczenie na poziomie systemu: Wdrożenie mechanizmów kontroli i monitorowania w celu wykrywania i korygowania wszelkich potencjalnie niebezpiecznych odchyleń.
Narzędzia takie jak interpretacja modeli i szacowanie niepewności są również zalecane w celu poprawy skuteczności działań z zakresu bezpieczeństwa.
Zespół DeepMind ma nadzieję, że społeczność naukowa dołączy do niej w kontynuowaniu prac mających na celu zapewnienie bezpiecznego i kontrolowanego dostępu do potencjalnych korzyści wynikających z AGI.
Tłumaczone z DeepMind invite la communauté de l'IA à collaborer pour que l'IA soit développée de manière sûre et responsable