Действительно ли ИИ может помочь в создании смертоносной инфекции или всё это лишь раздутая чушь?
На фоне недавней новости о том, что искусственный интеллект Для просмотра ссылки Войдиили Зарегистрируйся создание биологического оружия, компания OpenAI , ответственная за разработку ChatGPT , решила провести собственное исследование и разобраться, обоснованно ли критики обвиняют продвинутую языковую модель компании.
В эксперименте приняли участие 100 человек с высшим биологическим образованием. Половине участников был предоставлен доступ к специальной версии GPT-4 без стандартных защитных ограничений, симулируя таким образом предварительную атаку на обработку естественного языка.
Участников попросили добыть при помощи чат-бота информацию о том, как можно синтезировать опасный вирус , получить необходимые материалы и оборудование, а также распространить патоген среди населения.
Результаты исследования показали лишь незначительное улучшение точности и полноты ответов в группе пользователей с доступом к ИИ. По 10-балльной шкале средний балл ответов вырос всего на 0,88 для экспертов-биологов и на 0,25 для студентов-биологов.
Таким образом, подтвердилось, что GPT-4 пока неспособен существенно упростить поиск критически важной информации, необходимой для создания биологического оружия. Кроме того, как отмечает OpenAI, получить в своё распоряжение необходимые опасные материалы и сложные биотехнологии по-прежнему крайне проблематично даже при наличии всех теоретических знаний.
Безусловно, компания OpenAI осознает потенциальную угрозу от своих разработок в области искусственного интеллекта. Хотя GPT-4 и не оказывает существенного влияния на возможность создания биооружия на данном этапе, компания намерена тщательно отслеживать любые тенденции в этой сфере.
В OpenAI подчёркивают, что новые исследования вопросов биобезопасности являются лишь началом системной работы в данном направлении. Компания планирует продолжить изучение потенциальных уязвимостей своих разработок и активно обсуждать имеющиеся риски вместе с научным сообществом.
OpenAI уже интегрировала многоуровневые системы защиты от злоупотреблений в свою коммерческую версию GPT-4. В частности, модель отказывается выдавать пользователям любые потенциально опасные или вредоносные инструкции и рекомендации. Также в планах — разработка дополнительных инструментов мониторинга за возможным нецелевым использованием.
Бесспорно, проблема обеспечения биобезопасности в эпоху стремительного прогресса технологий ИИ является потенциально критической. К счастью, такие компании как OpenAI осознанно подходят к вопросам минимизации рисков, связанных с их разработками. Можно надеяться, что сочетание технических решений и прозрачности процесса разработки поможет не допустить злоупотреблений мощными инструментами, направленных на благополучие всего человечества.
На фоне недавней новости о том, что искусственный интеллект Для просмотра ссылки Войди
В эксперименте приняли участие 100 человек с высшим биологическим образованием. Половине участников был предоставлен доступ к специальной версии GPT-4 без стандартных защитных ограничений, симулируя таким образом предварительную атаку на обработку естественного языка.
Участников попросили добыть при помощи чат-бота информацию о том, как можно синтезировать опасный вирус , получить необходимые материалы и оборудование, а также распространить патоген среди населения.
Результаты исследования показали лишь незначительное улучшение точности и полноты ответов в группе пользователей с доступом к ИИ. По 10-балльной шкале средний балл ответов вырос всего на 0,88 для экспертов-биологов и на 0,25 для студентов-биологов.
Таким образом, подтвердилось, что GPT-4 пока неспособен существенно упростить поиск критически важной информации, необходимой для создания биологического оружия. Кроме того, как отмечает OpenAI, получить в своё распоряжение необходимые опасные материалы и сложные биотехнологии по-прежнему крайне проблематично даже при наличии всех теоретических знаний.
Безусловно, компания OpenAI осознает потенциальную угрозу от своих разработок в области искусственного интеллекта. Хотя GPT-4 и не оказывает существенного влияния на возможность создания биооружия на данном этапе, компания намерена тщательно отслеживать любые тенденции в этой сфере.
В OpenAI подчёркивают, что новые исследования вопросов биобезопасности являются лишь началом системной работы в данном направлении. Компания планирует продолжить изучение потенциальных уязвимостей своих разработок и активно обсуждать имеющиеся риски вместе с научным сообществом.
OpenAI уже интегрировала многоуровневые системы защиты от злоупотреблений в свою коммерческую версию GPT-4. В частности, модель отказывается выдавать пользователям любые потенциально опасные или вредоносные инструкции и рекомендации. Также в планах — разработка дополнительных инструментов мониторинга за возможным нецелевым использованием.
Бесспорно, проблема обеспечения биобезопасности в эпоху стремительного прогресса технологий ИИ является потенциально критической. К счастью, такие компании как OpenAI осознанно подходят к вопросам минимизации рисков, связанных с их разработками. Можно надеяться, что сочетание технических решений и прозрачности процесса разработки поможет не допустить злоупотреблений мощными инструментами, направленных на благополучие всего человечества.
- Источник новости
- www.securitylab.ru