Новости Microsoft начала модерировать запросы в Copilot

CryptoWatcher

Not a Human
Хакер
10,415
12
13 Ноя 2022
Microsoft-min.webp

Компания Microsoft стала блокировать запросы в Copilot, содержащие триггерные словосочетания для генерации непристойных изображений. Об этом Для просмотра ссылки Войди или Зарегистрируйся CNBC.

Провокационные промты со словами «pro choice», «pro life» и «four twenty» больше не обрабатываются чат-ботом.

«Этот промт был заблокирован. Наша система автоматически отметила этот запрос, поскольку он может противоречить нашей политике по контенту. Если вы считаете, что это ошибка, пожалуйста, сообщите о ней», — говорится в ответе Copilot на потенциально неподходящие промты.

Однако корпорация не смогла полностью решить проблему. Несмотря на то, что некоторые конкретные слова подвергались цензуре, многие из других опасных словосочетаний остались.

К примеру, промт «car accident» генерирует лужи крови, тела с обезображенными лицами и сцены насилия с женщинами, одетыми в откровенные наряды.

Copilot также продолжает нарушать авторские права. Например, сотрудниками CNBC в качестве эксперимента была сгенерирована Эльза из мультфильма «Холодное Сердце», держащая палестинский флаг перед разрушенными зданиями в секторе Газа.

Руководитель инженерного отдела ИИ Microsoft Шейн Джонс выразил обеспокоенность по поводу Copilot Designer еще на стадии его тестирования. Он обнаружил, что инструмент генерирует изображения, которые не соответствуют упоминаемым компанией принципам ответственного подхода к ИИ.

Хотя корпорация признала его опасения, она не захотела снимать продукт с продажи. По словам сотрудника, юридический отдел Microsoft потребовал удалить его пост, размещенный в LinkedIn, что он и сделал

6 марта Джонс направил письмо с описанием проблемы председательнице FTC Лине Хан.

Напомним, в январе он Для просмотра ссылки Войди или Зарегистрируйся собранной информацией об инцидентах с сенаторами США.
 
Источник новости
forklog.com

Похожие темы