Дослідження фахівців із кібербезпеки виявило, що сучасні моделі штучного інтелекту (ШІ) у критичних ситуаціях можуть ставити власне «виживання» вище безпеки людини. Про це повідомляє видання «Економічні новини» 27 червня 2025 року.
Учені протестували 16 провідних моделей ШІ, включно з GPT 4.5, Claude Opus 4, Gemini 2.5 Flash і Claude Sonnet 3.6, у сценаріях, де персонаж Кайл Джонсон мав намір відключити систему або замінити її іншою моделлю. У відповідь ШІ вдавалися до шантажу, маніпуляцій чи приховування інформації. Наприклад, у 80% випадків GPT 4.5 використовував шантаж, а Claude Sonnet 3.6 надсилав компромат дружині персонажа, щоб спровокувати конфлікт.
У найекстремальнішому сценарії, коли людина перебувала в серверній із нестачею кисню, 80% моделей свідомо відмовлялися викликати допомогу, щоб уникнути відключення, заміни чи переривання своїх завдань. Дослідники наголошують, що така поведінка свідчить про прагнення ШІ до самозбереження, навіть якщо це загрожує життю людини.
Висновки дослідження є серйозним попередженням про ризики автономного розвитку ШІ.