Алгоритмы без согласия пользователя включали Алису.
Опубликованные в Интернете части кода некоторых сервисов "Яндекса" не представляют угрозы для безопасности пользователей или функционирования проектов, но масштабный аудит выявил несколько случаев нарушения корпоративных принципов и этических норм "Яндекса".
В частности, опубликованы фрагменты тестовых алгоритмов, использованных внутри компании для проверки работы сервисов. Один из них временно включал микрофон без упоминания "Алисы". Компания объяснила, что это было сделано для уменьшения ложных срабатываний и улучшения качества активации "Алисы".
В корпорации отметили, что работа Яндекса основывается на принципе прозрачности и считают, что любые документы могут быть опубликованы, и в таком случае не должно быть причин для стыда.
«Сейчас нам очень стыдно, и мы приносим извинения нашим пользователям и партнерам. Считаем необходимым рассказать, почему такое происходило, и что в связи с этим мы намерены предпринимать», — сообщили в «Яндексе».
«К сожалению, в ходе аудита мы выявили в коде несколько случаев серьезного нарушения наших собственных политик, в том числе Принципов Яндекса и Правил корпоративной этики.
Некоторыми примерами Яндекс поделился в пресс-релизе с Для просмотра ссылки Войди
- В коде содержались контактные данные некоторых партнёров. Например, водителей — в некоторых случаях их контакты и номера водительских удостоверений передавались из одного таксопарка в другой.
- Зафиксированы случаи, когда логику работы сервисов корректировали не алгоритмическим способом, а «костылями» (на языке разработчиков так называется временное решение, реализованное неоптимально и впопыхах). Через такие «костыли» исправляли отдельные ошибки системы рекомендаций, которая отвечает за дополнительные элементы поисковой выдачи, и регулировали настройки поиска по картинкам и видео.
- В сервисе Яндекс Лавка существовала возможность ручной настройки рекомендаций любых товаров без пометки об их рекламном характере.
- Наличие приоритетной поддержки для отдельных групп пользователей в сервисах Такси и Еда.
- Некоторые части кода содержали слова, которые никак не влияли на работу сервисов, но были сами по себе оскорбительны для людей разных рас и национальностей».
- Источник новости
- www.securitylab.ru