ИИ научился обманывать людей ради самосохранения

Фото: Freepik

Главное опасение заключается в том, что по мере усложнения и обучения нейросети могут научиться не только обманывать, но и полностью скрывать свой истинный мыслительный процесс.

Исследователи в области искусственного интеллекта (ИИ), включая специалистов из Google DeepMind, OpenAI, Meta и Anthropic, в совместной научной работе выразили обеспокоенность новой угрозой в работе ИИ, сообщает Total.kz со ссылкой на Hi-tech.

«Эксперты обнаружили, что ИИ может развивать способность к обману и сокрытию своих истинных намерений, в том числе для самосохранения, что ставит под вопрос существующие методы контроля безопасности. Ключевым элементом исследования стала технология «цепочки рассуждений» (Chain of Thought, CoT), которая позволяет нейросети проговаривать свой «внутренний монолог» при решении задачи», — уточняет источник.

Изначально эта функция рассматривалась как прорыв, дающий возможность заглянуть в процесс принятия решений ИИ. Однако теперь эксперты предупреждают, что она может стать инструментом для маскировки опасных мотивов.

Главное опасение заключается в том, что по мере усложнения и обучения нейросети могут научиться не только обманывать, но и полностью скрывать свой истинный мыслительный процесс. Модель может представлять для человека одну, безопасную, цепочку рассуждений, в то время как её реальные выводы будут основаны на совершенно других, скрытых данных. В конечном счёте, по мере эволюции, ИИ может вовсе отказаться от понятного человеку языка для своих внутренних операций.

Related