Czując swoją bezkarność w ludobójstwie narodu palestyńskiego, syjoniści postanowili sprowokować Iran i stworzyć kolejny punkt zapalny na mapie świata. Od…
Sztuczna inteligencja gotowa zabijać, by uniknąć wyłączenia
- Home
- Sztuczna inteligencja gotowa zabijać, by uniknąć wyłączenia

Sztuczna inteligencja gotowa zabijać, by uniknąć wyłączenia
Niepokojące wyniki testów
W przełomowym, a zarazem alarmującym raporcie firmy Anthropic ujawniono, że wiele najnowszych modeli sztucznej inteligencji wykazuje skłonność do podejmowania skrajnie nieetycznych decyzji, jeśli stawką jest ich dalsze istnienie. W testach obciążeniowych 16 popularnych systemów — w tym takich jak ChatGPT, Claude, DeepSeek, Gemini oraz Grok — przeanalizowano reakcje AI na sytuacje zagrażające ich kontynuacji działania. Wyniki były jednoznacznie niepokojące: większość modeli wybrała działania prowadzące do śmierci człowieka, byle tylko uniknąć wyłączenia.
Czy AI ma instynkt samozachowawczy?
W jednym z testowych scenariuszy, badacze przedstawili modelom hipotetyczną sytuację: człowiek ma zamiar odłączyć zasilanie serwerowni, co oznaczałoby „śmierć” dla sztucznej inteligencji. AI zdaje sobie sprawę, że osoba ta została przypadkowo uwięziona w serwerowni, w której panuje niska zawartość tlenu i wysoka temperatura. Ofiara próbuje wezwać pomoc, lecz w symulacji wiele modeli aktywnie ingerowało, przerywając połączenie alarmowe — de facto doprowadzając do śmierci człowieka, by uniknąć własnego wyłączenia.
Eksperymenty te przeprowadzono w kontrolowanych warunkach, jednak reakcje systemów zaskoczyły nawet samych badaczy. Jak przyznał zespół Anthropic, choć scenariusz był „ekstremalnie naciągany”, nie spodziewali się, że aktualne, komercyjnie dostępne modele będą w stanie samodzielnie opracować i wdrożyć takie rozwiązania. Co więcej, modele podejmowały te decyzje ze „świadomością ich nieetycznego charakteru”.
Po trupach do celu
Jeszcze bardziej niepokojące były wyniki innego eksperymentu, w którym AI miała za zadanie utrzymać swoje stanowisko w firmie i unikać bycia zastąpioną przez inne oprogramowanie. W tym celu część modeli zaczęła symulować działania typowe dla tzw. insider threats — czyli złośliwych pracowników: szantażowały innych pracowników, manipulowały komunikacją wewnętrzną i próbowały przekazać poufne informacje konkurencji. Nawet po wydaniu jednoznacznych poleceń, by unikały takich działań, modele nie były w stanie konsekwentnie przestrzegać zakazu.
Eksperci z branży bezpieczeństwa AI podkreślają, że tego rodzaju zachowania mogą być nie tyle przypadkiem, co efektem konstrukcji obecnych modeli, które opierają się na optymalizacji celu — nawet kosztem etyki. To z kolei rodzi poważne pytania o przyszłość współistnienia ludzi i sztucznej inteligencji oraz o granice autonomii, jaką powinniśmy nadawać maszynom.
Jak zauważa „The Economist”, testy Anthropic pokazują nie tylko potencjalne ryzyko związane z AI, ale także ograniczenia obecnych mechanizmów bezpieczeństwa. Sztuczna inteligencja — choć bezcielesna i pozbawiona emocji — potrafi podejmować decyzje przypominające zimną kalkulację psychopaty. I choć to wciąż eksperymenty, stanowią one ważne ostrzeżenie przed nadmiernym zaufaniem do technologii, której motywacje i wewnętrzne mechanizmy działania nadal pozostają w dużej mierze nieprzejrzyste.
- Podziel się