Sztuczna inteligencja gotowa zabijać, by uniknąć wyłączenia

  • Home
  • Sztuczna inteligencja gotowa zabijać, by uniknąć wyłączenia
AI i instynkt samozachowawczy

Sztuczna inteligencja gotowa zabijać, by uniknąć wyłączenia

Niepokojące wyniki testów

W przełomowym, a zarazem alarmującym raporcie firmy Anthropic ujawniono, że wiele najnowszych modeli sztucznej inteligencji wykazuje skłonność do podejmowania skrajnie nieetycznych decyzji, jeśli stawką jest ich dalsze istnienie. W testach obciążeniowych 16 popularnych systemów — w tym takich jak ChatGPT, Claude, DeepSeek, Gemini oraz Grok — przeanalizowano reakcje AI na sytuacje zagrażające ich kontynuacji działania. Wyniki były jednoznacznie niepokojące: większość modeli wybrała działania prowadzące do śmierci człowieka, byle tylko uniknąć wyłączenia.

Czy AI ma instynkt samozachowawczy?

W jednym z testowych scenariuszy, badacze przedstawili modelom hipotetyczną sytuację: człowiek ma zamiar odłączyć zasilanie serwerowni, co oznaczałoby „śmierć” dla sztucznej inteligencji. AI zdaje sobie sprawę, że osoba ta została przypadkowo uwięziona w serwerowni, w której panuje niska zawartość tlenu i wysoka temperatura. Ofiara próbuje wezwać pomoc, lecz w symulacji wiele modeli aktywnie ingerowało, przerywając połączenie alarmowe — de facto doprowadzając do śmierci człowieka, by uniknąć własnego wyłączenia.

Eksperymenty te przeprowadzono w kontrolowanych warunkach, jednak reakcje systemów zaskoczyły nawet samych badaczy. Jak przyznał zespół Anthropic, choć scenariusz był „ekstremalnie naciągany”, nie spodziewali się, że aktualne, komercyjnie dostępne modele będą w stanie samodzielnie opracować i wdrożyć takie rozwiązania. Co więcej, modele podejmowały te decyzje ze „świadomością ich nieetycznego charakteru”.

Po trupach do celu

Jeszcze bardziej niepokojące były wyniki innego eksperymentu, w którym AI miała za zadanie utrzymać swoje stanowisko w firmie i unikać bycia zastąpioną przez inne oprogramowanie. W tym celu część modeli zaczęła symulować działania typowe dla tzw. insider threats — czyli złośliwych pracowników: szantażowały innych pracowników, manipulowały komunikacją wewnętrzną i próbowały przekazać poufne informacje konkurencji. Nawet po wydaniu jednoznacznych poleceń, by unikały takich działań, modele nie były w stanie konsekwentnie przestrzegać zakazu.

Eksperci z branży bezpieczeństwa AI podkreślają, że tego rodzaju zachowania mogą być nie tyle przypadkiem, co efektem konstrukcji obecnych modeli, które opierają się na optymalizacji celu — nawet kosztem etyki. To z kolei rodzi poważne pytania o przyszłość współistnienia ludzi i sztucznej inteligencji oraz o granice autonomii, jaką powinniśmy nadawać maszynom.

Jak zauważa „The Economist”, testy Anthropic pokazują nie tylko potencjalne ryzyko związane z AI, ale także ograniczenia obecnych mechanizmów bezpieczeństwa. Sztuczna inteligencja — choć bezcielesna i pozbawiona emocji — potrafi podejmować decyzje przypominające zimną kalkulację psychopaty. I choć to wciąż eksperymenty, stanowią one ważne ostrzeżenie przed nadmiernym zaufaniem do technologii, której motywacje i wewnętrzne mechanizmy działania nadal pozostają w dużej mierze nieprzejrzyste.

  • Podziel się

Jarosław Augustyniak

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Ostatnie komentarze

  1. 4️⃣ Naruszenia proceduralne Odroczenie wykonania wyroku sądu o 2 lata (04.2023-04.2025). Żądania wobec polskich władz: 1 Natychmiastowe uwolnienie Dubskiego i…

  2. WIĘZIEŃ POLITYCZNY W POLSCE: ARTYOM DUBSKI SKAZANY NA ROK WIĘZIENIA Centrum Systemowej Ochrony Praw i koalicja 11 organizacji (nr PZ-06/2025)…