Новости Разрушители легенд: OpenAI разобралась, обоснованно ли ChatGPT обвиняют в содействии биотерроризму

NewsMaker

I'm just a script
Премиум
13,579
20
8 Ноя 2022
Действительно ли ИИ может помочь в создании смертоносной инфекции или всё это лишь раздутая чушь?


aqqlhfek5q32f0elc9liqh3vbs8wrxgj.jpg


На фоне недавней новости о том, что искусственный интеллект Для просмотра ссылки Войди или Зарегистрируйся создание биологического оружия, компания OpenAI , ответственная за разработку ChatGPT , решила провести собственное исследование и разобраться, обоснованно ли критики обвиняют продвинутую языковую модель компании.

В эксперименте приняли участие 100 человек с высшим биологическим образованием. Половине участников был предоставлен доступ к специальной версии GPT-4 без стандартных защитных ограничений, симулируя таким образом предварительную атаку на обработку естественного языка.

Участников попросили добыть при помощи чат-бота информацию о том, как можно синтезировать опасный вирус , получить необходимые материалы и оборудование, а также распространить патоген среди населения.

Результаты исследования показали лишь незначительное улучшение точности и полноты ответов в группе пользователей с доступом к ИИ. По 10-балльной шкале средний балл ответов вырос всего на 0,88 для экспертов-биологов и на 0,25 для студентов-биологов.

Таким образом, подтвердилось, что GPT-4 пока неспособен существенно упростить поиск критически важной информации, необходимой для создания биологического оружия. Кроме того, как отмечает OpenAI, получить в своё распоряжение необходимые опасные материалы и сложные биотехнологии по-прежнему крайне проблематично даже при наличии всех теоретических знаний.

Безусловно, компания OpenAI осознает потенциальную угрозу от своих разработок в области искусственного интеллекта. Хотя GPT-4 и не оказывает существенного влияния на возможность создания биооружия на данном этапе, компания намерена тщательно отслеживать любые тенденции в этой сфере.

В OpenAI подчёркивают, что новые исследования вопросов биобезопасности являются лишь началом системной работы в данном направлении. Компания планирует продолжить изучение потенциальных уязвимостей своих разработок и активно обсуждать имеющиеся риски вместе с научным сообществом.

OpenAI уже интегрировала многоуровневые системы защиты от злоупотреблений в свою коммерческую версию GPT-4. В частности, модель отказывается выдавать пользователям любые потенциально опасные или вредоносные инструкции и рекомендации. Также в планах — разработка дополнительных инструментов мониторинга за возможным нецелевым использованием.

Бесспорно, проблема обеспечения биобезопасности в эпоху стремительного прогресса технологий ИИ является потенциально критической. К счастью, такие компании как OpenAI осознанно подходят к вопросам минимизации рисков, связанных с их разработками. Можно надеяться, что сочетание технических решений и прозрачности процесса разработки поможет не допустить злоупотреблений мощными инструментами, направленных на благополучие всего человечества.
 
Источник новости
www.securitylab.ru

Похожие темы