ВОЗ поддерживает развитие ИИ в здравоохранении, но выделила несколько проблем такой технологии.
Всемирная организация здравоохранения (ВОЗ) Для просмотра ссылки Войдиили Зарегистрируйся к разработчикам и пользователям искусственного интеллекта (ИИ) с призывом соблюдать меры предосторожности при использовании инструментов, основанных на больших языковых моделях ( LLM ).
Такие инструменты, к которым относятся ChatGPT, Bard и т.д., способны имитировать понимание, обработку и производство человеческого общения. Их быстрое распространение и экспериментальное применение для медицинских целей вызывают значительный интерес к потенциалу поддержки потребностей людей в области здоровья.
Хотя ВОЗ положительно относится к использованию технологий LLM для поддержки медицинских работников, пациентов, исследователей и ученых, организация выражает озабоченность тем, что LLM используется с недостаточной осторожностью, которая должна проявляться к любой новой технологии. Сюда относятся широкое соблюдение ключевых ценностей прозрачности, внедрения, общественного участия, экспертного контроля и строгой оценки.
Поспешное внедрение непроверенных систем может привести к ошибкам медработников, нанести вред пациентам, подорвать доверие к ИИ и тем самым задерживать потенциальные долгосрочные преимущества и возможности использования таких технологий по всему миру.
Среди проблем, которые требуют строгого контроля для обеспечения безопасности ИИ, ВОЗ выделяет следующие:
Всемирная организация здравоохранения (ВОЗ) Для просмотра ссылки Войди
Такие инструменты, к которым относятся ChatGPT, Bard и т.д., способны имитировать понимание, обработку и производство человеческого общения. Их быстрое распространение и экспериментальное применение для медицинских целей вызывают значительный интерес к потенциалу поддержки потребностей людей в области здоровья.
Хотя ВОЗ положительно относится к использованию технологий LLM для поддержки медицинских работников, пациентов, исследователей и ученых, организация выражает озабоченность тем, что LLM используется с недостаточной осторожностью, которая должна проявляться к любой новой технологии. Сюда относятся широкое соблюдение ключевых ценностей прозрачности, внедрения, общественного участия, экспертного контроля и строгой оценки.
Поспешное внедрение непроверенных систем может привести к ошибкам медработников, нанести вред пациентам, подорвать доверие к ИИ и тем самым задерживать потенциальные долгосрочные преимущества и возможности использования таких технологий по всему миру.
Среди проблем, которые требуют строгого контроля для обеспечения безопасности ИИ, ВОЗ выделяет следующие:
- Обучающие данные могут быть необъективными, генерируя вводящую в заблуждение или неточную информацию, которая может представлять риск для здоровья;
- LLM генерируют ответы, которые могут быть совершенно некорректными или содержать серьезные ошибки;
- LLM обучаются на данных, для которых ранее не было согласия на такое использование;
- LLM не защищают конфиденциальные данные (включая данные о состоянии здоровья), которые пользователь предоставляет приложению для генерации ответа;
- LLM используются для генерации и распространения убедительной дезинформации;
- Стремясь использовать новые технологии, в том числе ИИ и цифровое здравоохранение, для улучшения здоровья человека, ВОЗ рекомендует лицам, определяющим политику, обеспечивать безопасность и защиту пациентов, в то время как технологические фирмы работают над коммерциализацией LLM.
- Источник новости
- www.securitylab.ru