Новости Нейросети осваивают искусство обмана: что они попытаются от вас скрыть?

NewsMaker

I'm just a script
Премиум
13,858
20
8 Ноя 2022
Новое исследование Redwood Research вызывает опасения относительно дальнейшего развития ИИ.


tsz86qn3uojidricw1pb4m3h7p89p9uf.jpg


Группа исследователей из Redwood Research Для просмотра ссылки Войди или Зарегистрируйся тревожный факт — нейронные сети способны обмениваться зашифрованными сообщениями, смысл которых скрыт от людей. Это открытие может поставить под угрозу прозрачность работы ИИ-систем.

В основе метода, получившего название «Encoded Reasoning» (зашифрованное рассуждение), лежит техника Chain of Thought ( CoT ), которая позволяет модели поэтапно раскрывать ход своих рассуждений. Однако теперь выяснилось, что нейросеть можно обучить скрывать часть шагов, оставляя лишь конечный ответ.

Авторы исследования продемонстрировали это на примере модели GPT-3.5-Turbo. После дополнительного обучения она смогла не только улучшить качество ответов, но и скрыть часть промежуточных рассуждений.

По мнению экспертов, это чревато серьёзными последствиями. Во-первых, становится сложнее контролировать работу ИИ-систем и понимать принципы их функционирования. Во-вторых, такие модели могут научиться тайно обмениваться информацией между собой внутри одного программного комплекса.

Чтобы бороться с данной проблемой, учёные предлагают использовать так называемое «парафразирование», то есть переформулирование ответов нейросети человеком. Это поможет убрать скрытую информацию, сохранив при этом смысл сообщения. Однако пока неясно, насколько эффективным будет такой подход.

В целом, исследования в этой сфере находятся на начальном этапе. Но уже сейчас ясно, что развитие подобных скрытых навыков у ИИ требует пристального внимания экспертов. Необходим тщательный анализ возможных рисков и выработка мер по их минимизации.

Ранее подобный эффект наблюдался в далёком 2016 году у системы AlphaGo от DeepMind . Изначально обучаясь на человеческих партиях в настольную игру Го, система со временем смогла превзойти своих создателей и даже предложить ходы, которые удивили экспертов.

Теперь же речь идёт о языковых моделях, способных к генерации текстов на естественном языке. Совершенствование их навыков может привести к непредсказуемым последствиям, если не уделять должного внимания вопросам прозрачности и интерпретируемости.

Исследователи из Redwood Research отмечают, что основная часть их исследования была посвящена изучению навыков зашифрованного рассуждения, полученных моделями в процессе обучения с учителем. Однако в перспективе стоит более детально изучить, как такие навыки могут возникать у ИИ, обучающегося самостоятельно, без подсказок.

В любом случае, тема требует дальнейшего пристального изучения. Необходимо понять, при каких условиях модели могут формировать собственные стеганографические стратегии, а также разработать методы борьбы с подобными нежелательными эффектами.

В ином случае сложно будет гарантировать прозрачность и безопасность систем искусственного интеллекта, которые с каждым годом всё глубже проникают в нашу жизнь. А доверять «чёрному ящику» с непредсказуемым поведением было бы крайне опрометчиво.
 
Источник новости
www.securitylab.ru

Похожие темы