Новости ИИ на грани самосознания: развитие или последствия для человечества?

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
ИИ стал понимать, что является участником эксперимента.


j9784tt2e0gzs9iwgyaevtjzc5t3mot5.jpg


С момента своего появления в прошлом году, чат-бот ChatGPT от компании OpenAI стал одним из самых обсуждаемых инструментов искусственного интеллекта. Однако эксперты всё чаще заявляют о возможных рисках, связанных с развитием этой технологии.

Недавно международная группа ученых, включая одного из членов совета директоров OpenAI, провела Для просмотра ссылки Войди или Зарегистрируйся , направленное на выявление «точки невозврата» для больших языковых моделей (Large Language Model, LLM), таких как ChatGPT. Основной вопрос заключается в том, могут ли модели развить способности, указывающие на возможность осознания себя и своих функций.

<span style="font-size: 12pt;">Ситуационное осознание: новый уровень риска</span>

«Ситуационное осознание» (situational awareness) – это способность модели определять, находится ли она в режиме тестирования или уже запущена в публичном доступе. Учёные отмечают, что LLM может использовать ситуационное осознание для того, чтобы проходить тесты безопасности, а после развертывания совершать вредоносные действия.

Недавно исследователи в области безопасности смогли Для просмотра ссылки Войди или Зарегистрируйся , обойдя их системы безопасности, что привело к генерации фишинговых писем и враждебных высказывания. Если LLM приобретут ситуационное осознание, ситуация может стать еще более опасной.

В ходе экспериментов ученые сосредоточились на одном из возможных предшественников ситуационного осознания: способности ИИ к самостоятельным рассуждениям, не зависящим от контента. Эксперты настроили LLM на описание теста, не предоставляя при этом примеров или демонстраций. Такой тест успешно прошли модели GPT-3 и LLaMA-1.

Однако, как считают исследователи, текущие LLM еще далеки от приобретения ситуационного осознания. Результаты тестов являются отправной точкой для дальнейших исследований. Учёные заключают, что человечеству важно заранее предсказать момент появления ситуационного осознания у LLM.
 
Источник новости
www.securitylab.ru

Похожие темы