Как простое открытие налоговой декларации привело к неожиданным результатам.
Недавно Кевин Бэнкстон, старший советник по управлению ИИ в Центре демократии и технологий (CDT), с удивлением обнаружил, что ИИ-ассистент Gemini от Google автоматически проанализировал его документы, открытые в Google Docs, без всякого на то разрешения.
Кевин Для просмотра ссылки Войдиили Зарегистрируйся где рассказал, что просто открыл налоговую декларацию в PDF -формате через облачный редактор документов Google Docs, после чего неожиданно получил от Gemini краткий обзор своих налогов. Он утверждает, что не вызывал Gemini вручную и не предоставлял ему согласия на анализ своих файлов.
После дальнейшего изучения принципа работы ИИ-ассистента Кевин заметил, что проблема возникала только с PDF-документами. Он предположил, что однажды, открыв PDF и нажав на кнопку Gemini, он тем самым «разрешил» ассистенту появляться при каждом открытии PDF-файлов.
Затем Кевин попытался отключить эту функцию, спросив у самого Gemini, как это можно сделать. К сожалению, мужчина получил от чат-бота неверные инструкции, которые ни к чему не привели. В итоге, нужные настройки удалось отыскать самостоятельно, но и тут ждало разочарование — функция и так была выключена, а значит алгоритм работы с пользовательскими файлами является ещё более запутанным, чем казалось на первый взгляд.
Реакция пользователей на пост Кевина была разнообразной. Некоторые выразили обеспокоенность тем, что сервисы Google могут использоваться для обучения ИИ на пользовательских данных. Другие критиковали Кевина за загрузку налоговых деклараций в Google Docs. А один из комментаторов поинтересовался, была ли непрошенная помощь от Gemini полезной, на что Кевин ответил отрицательно.
Из этой неприятной ситуации можно сделать вывод, что не стоит открывать личные документы, особенно касающиеся финансов и прочей чувствительной информации, через облачные редакторы.
Конечно, существует вероятность, что Кевин сам допустил ошибку при работе с Gemini, однако нельзя исключать тот факт, что «корпорация добра» действительно могла решить поизучать пользовательские файлы, чтобы сделать свою нейросеть более персонализированной.
Таким образом, всегда следует проверять настройки конфиденциальности и осознавать риски, связанные с доступом ИИ-ассистентов к личным данным, особенно если вы не хотите, чтобы эти данные стали достоянием общественности.
Недавно Кевин Бэнкстон, старший советник по управлению ИИ в Центре демократии и технологий (CDT), с удивлением обнаружил, что ИИ-ассистент Gemini от Google автоматически проанализировал его документы, открытые в Google Docs, без всякого на то разрешения.
Кевин Для просмотра ссылки Войди
После дальнейшего изучения принципа работы ИИ-ассистента Кевин заметил, что проблема возникала только с PDF-документами. Он предположил, что однажды, открыв PDF и нажав на кнопку Gemini, он тем самым «разрешил» ассистенту появляться при каждом открытии PDF-файлов.
Затем Кевин попытался отключить эту функцию, спросив у самого Gemini, как это можно сделать. К сожалению, мужчина получил от чат-бота неверные инструкции, которые ни к чему не привели. В итоге, нужные настройки удалось отыскать самостоятельно, но и тут ждало разочарование — функция и так была выключена, а значит алгоритм работы с пользовательскими файлами является ещё более запутанным, чем казалось на первый взгляд.
Реакция пользователей на пост Кевина была разнообразной. Некоторые выразили обеспокоенность тем, что сервисы Google могут использоваться для обучения ИИ на пользовательских данных. Другие критиковали Кевина за загрузку налоговых деклараций в Google Docs. А один из комментаторов поинтересовался, была ли непрошенная помощь от Gemini полезной, на что Кевин ответил отрицательно.
Из этой неприятной ситуации можно сделать вывод, что не стоит открывать личные документы, особенно касающиеся финансов и прочей чувствительной информации, через облачные редакторы.
Конечно, существует вероятность, что Кевин сам допустил ошибку при работе с Gemini, однако нельзя исключать тот факт, что «корпорация добра» действительно могла решить поизучать пользовательские файлы, чтобы сделать свою нейросеть более персонализированной.
Таким образом, всегда следует проверять настройки конфиденциальности и осознавать риски, связанные с доступом ИИ-ассистентов к личным данным, особенно если вы не хотите, чтобы эти данные стали достоянием общественности.
- Источник новости
- www.securitylab.ru