Модель Grok, запущенная стартапом xAI, со временем наверняка приведёт компанию к судебным искам.
Специалисты в области кибербезопасности выразили обеспокоенность по поводу модели искусственного интеллекта Grok , разработанной стартапом xAI Илона Маска. По их мнению, этот ИИ, несмотря на свои уникальные возможности, может стать инструментом для злоупотреблений со стороны киберпреступников и прочих личностей с недобрыми намерениями.
Для просмотра ссылки Войдиили Зарегистрируйся , обученная на тексте фантастического романа «Автостопом по галактике» Дугласа Адамса, предназначена для ответов на любые вопросы с сарказмом и юмором и даже способна подсказывать, какие вопросы можно ей задавать.
Однако настоящей «киллерфичей» новой модели стало то, что она Для просмотра ссылки Войдиили Зарегистрируйся через платформу X * (бывший Twitter*), что автоматически наделяет ИИ актуальной информацией, в отличии от того же ChatGPT , до сих пор ограниченного апрелем 2022 года даже в Plus-версии.
Тем не менее, насколько бы крутой не была данная опция, исследователи отмечают, что использование данных пользователей X для обучения модели вызывает споры и может привести к распространению предвзятости и неточной информации, что особенно тревожит на фоне палестино-израильского конфликта, активно обсуждаемого на платформе.
Илон Маск, известный своей критикой усилий крупных технологических компаний в области ИИ и цензуры, ранее заявлял о намерении запустить ИИ, ориентированный на поиск истины и понимание Вселенной. Однако подход его компании к обучению Grok на данных, содержащих явные предубеждения и дезинформацию, вызывает опасения.
Джозеф Такер из компании AppOmni утверждает, что хотя Grok и может казаться более «человечным» из-за специфики данных для обучения, это повышает риски проявления в модели токсичности и предвзятости. Такие характеристики данных часто встречаются в социальных сетях и могут отразиться на поведении ИИ.
Grok привлекает внимание своими «острыми» ответами, но со временем это может привести к этическим и юридическим проблемам, например, если ИИ попросят дать информацию о незаконных действиях или чувствительных темах.
Несмотря на удобство доступа к актуальным данным X, который может дать преимущество Grok в некоторых случаях, например, в ситуациях, требующих срочного реагирования, риск распространения ложных новостей и дезинформации остаётся высоким.
По словам Джозефа Такера, Grok также уступает другим современным реализациям ИИ, таким как Bard от Google , которые обладают более широкими функциональными возможностями, включая индексирование интернета и интеграцию с инструментами анализа данных.
<span style="font-size: 8pt;">* Социальная сеть запрещена на территории Российской Федерации.</span>
Специалисты в области кибербезопасности выразили обеспокоенность по поводу модели искусственного интеллекта Grok , разработанной стартапом xAI Илона Маска. По их мнению, этот ИИ, несмотря на свои уникальные возможности, может стать инструментом для злоупотреблений со стороны киберпреступников и прочих личностей с недобрыми намерениями.
Для просмотра ссылки Войди
Однако настоящей «киллерфичей» новой модели стало то, что она Для просмотра ссылки Войди
Тем не менее, насколько бы крутой не была данная опция, исследователи отмечают, что использование данных пользователей X для обучения модели вызывает споры и может привести к распространению предвзятости и неточной информации, что особенно тревожит на фоне палестино-израильского конфликта, активно обсуждаемого на платформе.
Илон Маск, известный своей критикой усилий крупных технологических компаний в области ИИ и цензуры, ранее заявлял о намерении запустить ИИ, ориентированный на поиск истины и понимание Вселенной. Однако подход его компании к обучению Grok на данных, содержащих явные предубеждения и дезинформацию, вызывает опасения.
Джозеф Такер из компании AppOmni утверждает, что хотя Grok и может казаться более «человечным» из-за специфики данных для обучения, это повышает риски проявления в модели токсичности и предвзятости. Такие характеристики данных часто встречаются в социальных сетях и могут отразиться на поведении ИИ.
Grok привлекает внимание своими «острыми» ответами, но со временем это может привести к этическим и юридическим проблемам, например, если ИИ попросят дать информацию о незаконных действиях или чувствительных темах.
Несмотря на удобство доступа к актуальным данным X, который может дать преимущество Grok в некоторых случаях, например, в ситуациях, требующих срочного реагирования, риск распространения ложных новостей и дезинформации остаётся высоким.
По словам Джозефа Такера, Grok также уступает другим современным реализациям ИИ, таким как Bard от Google , которые обладают более широкими функциональными возможностями, включая индексирование интернета и интеграцию с инструментами анализа данных.
<span style="font-size: 8pt;">* Социальная сеть запрещена на территории Российской Федерации.</span>
- Источник новости
- www.securitylab.ru