СМИ продолжают бороться с OpenAI, Google и Microsoft за правду в новостях.
Новые Для просмотра ссылки Войдиили Зарегистрируйся показывают, что поисковые системы на базе искусственного интеллекта (ИИ) от таких компаний, как OpenAI, Google и Microsoft, могут непреднамеренно вводить пользователей в заблуждение и распространять дезинформацию. Проблема кроется в глубинных алгоритмах и недостатках в обучении моделей.
Правительство Новой Зеландии сейчас разрабатывает Для просмотра ссылки Войдиили Зарегистрируйся , который обяжет крупные технологические компании, такие как Google и Meta, платить новостным изданиям за использование их контента в своих сервисах. Однако почему-то власти решили не включать в этот документ вопросы, связанные с ИИ.
Пол Голдсмит, министр по вопросам СМИ и коммуникаций Новой Зеландии, заявил, что в законопроект внесут некоторые поправки, но они не будут касаться влияния генеративного ИИ на поиск новостей. По его словам, тему рассмотрят отдельно в будущем.
При этом законопроект предоставит министру право определять, какие организации подпадут под действие нового закона. Возможно, в этот список все же войдут крупные корпорации вроде Microsoft и OpenAI.
Реакция медиакомпаний на развитие ИИ в новостной сфере неоднозначна. С одной стороны, умные чат-боты, такие как Google Gemini, Microsoft Copilot и OpenAI ChatGPT, используют информацию с новостных сайтов для ответов на запросы пользователей и для обучения своих моделей. Это вызывает обеспокоенность у многих издателей.
Некоторые крупные медиакорпорации, включая News Corp, Financial Times и немецкую Axel Springer, решили сотрудничать с ИИ-разработчиками и уже заключили легальные соглашения на использование своих материалов. Это может быть выгодно обеим сторонам, так как компании, занимающиеся ИИ, нуждаются в большом объеме данных, а медиа — в продвижении.
Другие издания, например The New York Times и Alden Global Capital (второй по величине владелец газет в США), выбрали путь конфронтации. Они подали иск против Microsoft и OpenAI, обвинив их в незаконном использовании новостных статей для обучения ИИ-ассистентов. Alden утверждает, что эти компании без разрешения обрабатывают миллионы их защищенных авторским правом материалов.
В Новой Зеландии ведущий новостной издатель Stuff в 2023 году запретил ChatGPT использовать свои публикации. Как показало последующее исследование, после этого решения видимость контента Stuff в поисковиках сильно снизилась.
Анализ результатов поиска в системах Microsoft и Google, а также ответов их чат-ботов Copilot и Gemini выявил тревожную тенденцию. Разнообразие источников в поисковой выдаче сокращается в принципе. Хотя традиционные СМИ все еще присутствуют в результатах, доля «других источников» существенно выросла за последний год.
Особую озабоченность вызывает то, какие именно ресурсы ИИ-системы предлагают в качестве актуальных новостей. Все чаще в выдаче появляются ссылки на непрофильные площадки — мелкие отраслевые форумы и корпоративные пресс-релизы.
Проблема усугубляется тем, что чат-боты Google Gemini и Microsoft Copilot часто выдают устаревшую информацию, не предоставляют ссылок на первоисточники и не указывают, откуда взяты данные. При просьбе уточнить источники они обычно уклоняются от прямого ответа.
Эксперты призывают пользователей критически оценивать сведения, полученные через ИИ-поисковики и чат-боты. Хотя в будущем системы могут стать точнее, на данный момент их надежность вызывает серьезные сомнения.
Новые Для просмотра ссылки Войди
Правительство Новой Зеландии сейчас разрабатывает Для просмотра ссылки Войди
Пол Голдсмит, министр по вопросам СМИ и коммуникаций Новой Зеландии, заявил, что в законопроект внесут некоторые поправки, но они не будут касаться влияния генеративного ИИ на поиск новостей. По его словам, тему рассмотрят отдельно в будущем.
При этом законопроект предоставит министру право определять, какие организации подпадут под действие нового закона. Возможно, в этот список все же войдут крупные корпорации вроде Microsoft и OpenAI.
Реакция медиакомпаний на развитие ИИ в новостной сфере неоднозначна. С одной стороны, умные чат-боты, такие как Google Gemini, Microsoft Copilot и OpenAI ChatGPT, используют информацию с новостных сайтов для ответов на запросы пользователей и для обучения своих моделей. Это вызывает обеспокоенность у многих издателей.
Некоторые крупные медиакорпорации, включая News Corp, Financial Times и немецкую Axel Springer, решили сотрудничать с ИИ-разработчиками и уже заключили легальные соглашения на использование своих материалов. Это может быть выгодно обеим сторонам, так как компании, занимающиеся ИИ, нуждаются в большом объеме данных, а медиа — в продвижении.
Другие издания, например The New York Times и Alden Global Capital (второй по величине владелец газет в США), выбрали путь конфронтации. Они подали иск против Microsoft и OpenAI, обвинив их в незаконном использовании новостных статей для обучения ИИ-ассистентов. Alden утверждает, что эти компании без разрешения обрабатывают миллионы их защищенных авторским правом материалов.
В Новой Зеландии ведущий новостной издатель Stuff в 2023 году запретил ChatGPT использовать свои публикации. Как показало последующее исследование, после этого решения видимость контента Stuff в поисковиках сильно снизилась.
Анализ результатов поиска в системах Microsoft и Google, а также ответов их чат-ботов Copilot и Gemini выявил тревожную тенденцию. Разнообразие источников в поисковой выдаче сокращается в принципе. Хотя традиционные СМИ все еще присутствуют в результатах, доля «других источников» существенно выросла за последний год.
Особую озабоченность вызывает то, какие именно ресурсы ИИ-системы предлагают в качестве актуальных новостей. Все чаще в выдаче появляются ссылки на непрофильные площадки — мелкие отраслевые форумы и корпоративные пресс-релизы.
Проблема усугубляется тем, что чат-боты Google Gemini и Microsoft Copilot часто выдают устаревшую информацию, не предоставляют ссылок на первоисточники и не указывают, откуда взяты данные. При просьбе уточнить источники они обычно уклоняются от прямого ответа.
Эксперты призывают пользователей критически оценивать сведения, полученные через ИИ-поисковики и чат-боты. Хотя в будущем системы могут стать точнее, на данный момент их надежность вызывает серьезные сомнения.
- Источник новости
- www.securitylab.ru