Проблемы в DALL-E 3 вызвали опасения Шейна Джонса за злоупотребление технологией.
В сети активно обсуждают скандальное заявление менеджера Microsoft о недостатках в системе безопасности DALL-E 3 от OpenAI . По словам Шейна Джонса, технология позволяет создавать насильственные и непристойные изображения. Он утверждает, что обнаружил способ обхода систем безопасности DALL-E 3 в декабре 2023 года и сообщил об этом своему руководству в Microsoft.
Особое внимание Джонс уделил Для просмотра ссылки Войдиили Зарегистрируйся Тейлор Свифт, которые инженер назвал примером потенциального злоупотребления технологией. Джонс утверждает, что уязвимости DALL-E 3 и продуктов, использующих его, таких как Microsoft Designer, упрощают злоупотребление ИИ при создании вредоносных изображений.
Инженер призвал OpenAI временно отозвать DALL-E 3 с рынка и сообщил о своих опасениях в Microsoft. Джонс утверждает, что компания мешала ему привлекать внимание общественности к проблеме. Инженер опубликовал Для просмотра ссылки Войдиили Зарегистрируйся об ошибке в LinkedIn, направленное американским сенаторам и генеральному прокурору штата Вашингтон, но Microsoft потребовала его удалить.
Представитель Microsoft подчеркнул, что компания прислушивается к замечаниям сотрудников и провел собственное расследование, подтвердив, что техники, о которых сообщал Джонс, не обходят системы безопасности компании. Кроме того, в Microsoft существует внутренний инструмент для сообщения о проблемах, связанных с искусственным интеллектом.
Джонс заявил, что его опыт показывает необходимость независимой и эффективной системы отчетности. Он использовал внутренние механизмы Microsoft, но в ответ получил рекомендацию обратиться непосредственно на сайт OpenAI.
Представитель OpenAI заявил, что компания немедленно расследовала сообщение от сотрудника Microsoft и подтвердила, что обнаруженный метод не обходит их системы безопасности. Отмечается, что в DALL-E 3 были внедрены фильтры для предотвращения создания вредоносных изображений, а также дополнительные меры безопасности в продуктах ChatGPT и API DALL-E.
Джонс призывает правительство создать систему для сообщений о рисках и проблемах, связанных с ИИ, и обеспечить сотрудникам возможность использования такой системы без страха возможных репрессий. Ответственный подход к безопасности ИИ является ключевым аспектом в развитии области, и ситуация с DALL-E 3 подчеркивает важность такого подхода для обеспечения безопасности и этичности использования искусственного интеллекта.
В сети активно обсуждают скандальное заявление менеджера Microsoft о недостатках в системе безопасности DALL-E 3 от OpenAI . По словам Шейна Джонса, технология позволяет создавать насильственные и непристойные изображения. Он утверждает, что обнаружил способ обхода систем безопасности DALL-E 3 в декабре 2023 года и сообщил об этом своему руководству в Microsoft.
Особое внимание Джонс уделил Для просмотра ссылки Войди
Инженер призвал OpenAI временно отозвать DALL-E 3 с рынка и сообщил о своих опасениях в Microsoft. Джонс утверждает, что компания мешала ему привлекать внимание общественности к проблеме. Инженер опубликовал Для просмотра ссылки Войди
Представитель Microsoft подчеркнул, что компания прислушивается к замечаниям сотрудников и провел собственное расследование, подтвердив, что техники, о которых сообщал Джонс, не обходят системы безопасности компании. Кроме того, в Microsoft существует внутренний инструмент для сообщения о проблемах, связанных с искусственным интеллектом.
Джонс заявил, что его опыт показывает необходимость независимой и эффективной системы отчетности. Он использовал внутренние механизмы Microsoft, но в ответ получил рекомендацию обратиться непосредственно на сайт OpenAI.
Представитель OpenAI заявил, что компания немедленно расследовала сообщение от сотрудника Microsoft и подтвердила, что обнаруженный метод не обходит их системы безопасности. Отмечается, что в DALL-E 3 были внедрены фильтры для предотвращения создания вредоносных изображений, а также дополнительные меры безопасности в продуктах ChatGPT и API DALL-E.
Джонс призывает правительство создать систему для сообщений о рисках и проблемах, связанных с ИИ, и обеспечить сотрудникам возможность использования такой системы без страха возможных репрессий. Ответственный подход к безопасности ИИ является ключевым аспектом в развитии области, и ситуация с DALL-E 3 подчеркивает важность такого подхода для обеспечения безопасности и этичности использования искусственного интеллекта.
- Источник новости
- www.securitylab.ru