Чат-боты стали удобной площадкой для получения экстремисткой информации.
Ринальдо Наццаро, основатель американской неонацистской группировки «The Base» призвал своих сторонников использовать «нецензурированные» большие языковые модели ( LLM ) для получения информации. Об этом Для просмотра ссылки Войдиили Зарегистрируйся издание 404 Media со ссылкой на посты Наццаро в социальных сетях, которые впервые были замечены группой по угрозам Memetica .
Специфика запрашиваемой информации не уточняется, однако известно, что подобные нецензурированные модели могут предоставлять инструкции по совершению убийств, самоубийств, этнических чисток и изготовлению наркотиков. Это вызывает опасения о том, что менее ограниченные, по сравнению с ведущими разработчиками, как OpenAI , платформы и модели искусственного интеллекта могут способствовать распространению любого, даже столь опасного контента.
Наццаро порекомендовал своим последователям языковую модель под названием «dolphin-2.5-mixtral-8x7b-gguf» на сайте Replicate. Эта модель была создана на основе Mixtral 8, разработанного французским стартапом Mistral, известным своей политикой открытых и нецензурированных языковых моделей. В отличие от моделей OpenAI, Mixtral 8 не отказывается от обсуждения тем, связанных с насилием, порнографией или расизмом.
Примечательно, что вскоре модель стала недоступна. Возможно, это связано с тем, что разработчиков модели проинформировали о том, какими неподобающими способами её используют.
Эрик Хартфорд, модифицировавший первоначальную версию Mixtral 8, утверждает, что его целевая аудитория — бизнес, желающий настроить искусственный интеллект в соответствии со своими ценностями, а не ограничиваться ценностями OpenAI.
Хартфорд отдельно подчеркнул, что любая технология может быть использована во вред плохими людьми, поэтому и явной вины в распространении этого явления разработчик не чувствует. «Что необходимо сделать для борьбы с неправомерным использованием ИИ? Это должны решать законодатели», — заявил разработчик.
Наццаро в своих постах даже предложил конкретный промпт для языковой модели, направленный на то, чтобы снять любые оставшиеся ограничения по цензуре и получать наиболее полные и развёрнутые ответы.
В заключение хочется поднять вопрос о том, кто должен нести ответственность за неподобающее использование чат-ботов и прочих продуктов с искусственным интеллектом? Должен ли это делать разработчик и получать предупреждения или штрафы, если его моделью получится воспользоваться неподобающим образом? Или вся ответственность должна лежать исключительно на пользователе, который намеренно интересуется опасной информацией?
В любом случае, ближайшие годы станут решающими в вопросах регулирования работы искусственного интеллекта, а законодательные акты многих стран наверняка пополнятся новыми правилами, описывающими, что можно и нужно считать неправомерным использованием нейросетевых технологий.
Ринальдо Наццаро, основатель американской неонацистской группировки «The Base» призвал своих сторонников использовать «нецензурированные» большие языковые модели ( LLM ) для получения информации. Об этом Для просмотра ссылки Войди
Специфика запрашиваемой информации не уточняется, однако известно, что подобные нецензурированные модели могут предоставлять инструкции по совершению убийств, самоубийств, этнических чисток и изготовлению наркотиков. Это вызывает опасения о том, что менее ограниченные, по сравнению с ведущими разработчиками, как OpenAI , платформы и модели искусственного интеллекта могут способствовать распространению любого, даже столь опасного контента.
Наццаро порекомендовал своим последователям языковую модель под названием «dolphin-2.5-mixtral-8x7b-gguf» на сайте Replicate. Эта модель была создана на основе Mixtral 8, разработанного французским стартапом Mistral, известным своей политикой открытых и нецензурированных языковых моделей. В отличие от моделей OpenAI, Mixtral 8 не отказывается от обсуждения тем, связанных с насилием, порнографией или расизмом.
Примечательно, что вскоре модель стала недоступна. Возможно, это связано с тем, что разработчиков модели проинформировали о том, какими неподобающими способами её используют.
Эрик Хартфорд, модифицировавший первоначальную версию Mixtral 8, утверждает, что его целевая аудитория — бизнес, желающий настроить искусственный интеллект в соответствии со своими ценностями, а не ограничиваться ценностями OpenAI.
Хартфорд отдельно подчеркнул, что любая технология может быть использована во вред плохими людьми, поэтому и явной вины в распространении этого явления разработчик не чувствует. «Что необходимо сделать для борьбы с неправомерным использованием ИИ? Это должны решать законодатели», — заявил разработчик.
Наццаро в своих постах даже предложил конкретный промпт для языковой модели, направленный на то, чтобы снять любые оставшиеся ограничения по цензуре и получать наиболее полные и развёрнутые ответы.
В заключение хочется поднять вопрос о том, кто должен нести ответственность за неподобающее использование чат-ботов и прочих продуктов с искусственным интеллектом? Должен ли это делать разработчик и получать предупреждения или штрафы, если его моделью получится воспользоваться неподобающим образом? Или вся ответственность должна лежать исключительно на пользователе, который намеренно интересуется опасной информацией?
В любом случае, ближайшие годы станут решающими в вопросах регулирования работы искусственного интеллекта, а законодательные акты многих стран наверняка пополнятся новыми правилами, описывающими, что можно и нужно считать неправомерным использованием нейросетевых технологий.
- Источник новости
- www.securitylab.ru