У компаний наконец появится единое руководство по использованию умных технологий.
Международная организация по стандартизации ( ISO ) опубликовала новый стандарт Для просмотра ссылки Войдиили Зарегистрируйся для разработчиков искусственного интеллекта. Этот документ призван обеспечить компаниям всестороннее руководство по созданию и использованию быстро развивающихся умных технологий.
За последние несколько лет в мире возникла серьезная путаница из-за противоречивых подходов IT-корпораций, таких как Meta*, Microsoft и Google , к вопросам ответственного применения ИИ. В ноябре стало известно, что Meta вообще расформировала свою группу, занимавшуюся этим вопросом. Организация Responsible AI Institute в Техасе также разрабатывает собственную систему оценки и сертификации. Подобных инициатив и компаний, которые видят проблему по-своему, огромное множество, поэтому вполне логично, что ISO решила «навести порядок».
В отличие от общих принципов, новый стандарт ISO содержит конкретные указания и инструкции. Особое внимание уделяется системам управления ИИ - реестрам различных технологий, которые использует компания. В них должна содержаться информация о целях, способах и сферах применения каждого отдельного инструмента.
Как говорится в самом документе, «подобные системы – это основа, определяющая политики, задачи и процессы для ответственной разработки, внедрения и использования решений на базе ИИ».
По словам экспертов, благодаря новому стандарту разработчики будут уверены в том, что перед запуском продукта были соблюдены все необходимые процедуры и предусмотрены механизмы для устранения возможных проблем.
Хотя стандарт ISO носит добровольный характер, у компаний будет серьезная мотивация ему следовать - в скором времени в разных странах появятся государственные регулировки, обойти которые будет уже сложнее. К примеру, к 2025 году в ЕС должен вступить в силу Акт об искусственном интеллекте. Кроме того, соответствие стандарту ISO поможет компаниям завоевать доверие общественности, обеспокоенной потенциальными рисками технологий ИИ.
Согласно исследованиям, в США люди чаще выражают опасения в отношении ИИ, нежели воодушевление. Их беспокоят такие аспекты, как конфиденциальность личных данных, которые часто используются для обучения моделей без разрешения, предвзятость алгоритмов, потенциальные злоупотребления и.т.д.
Эксперты советуют компаниям воспринимать стандарт ISO как инструмент непрерывного мониторинга рисков. Он призван стать частью культуры разработки ПО и ответственного подхода к ИИ.
Кроме того, новый стандарт должен подтолкнуть создателей ИИ к переосмыслению своих решений, которые имеют серьезные последствия в реальном мире. Если крупные корпорации примут рекомендации ISO во внимание, это задаст вектор развития всей индустрии.
Международная организация по стандартизации ( ISO ) опубликовала новый стандарт Для просмотра ссылки Войди
За последние несколько лет в мире возникла серьезная путаница из-за противоречивых подходов IT-корпораций, таких как Meta*, Microsoft и Google , к вопросам ответственного применения ИИ. В ноябре стало известно, что Meta вообще расформировала свою группу, занимавшуюся этим вопросом. Организация Responsible AI Institute в Техасе также разрабатывает собственную систему оценки и сертификации. Подобных инициатив и компаний, которые видят проблему по-своему, огромное множество, поэтому вполне логично, что ISO решила «навести порядок».
В отличие от общих принципов, новый стандарт ISO содержит конкретные указания и инструкции. Особое внимание уделяется системам управления ИИ - реестрам различных технологий, которые использует компания. В них должна содержаться информация о целях, способах и сферах применения каждого отдельного инструмента.
Как говорится в самом документе, «подобные системы – это основа, определяющая политики, задачи и процессы для ответственной разработки, внедрения и использования решений на базе ИИ».
По словам экспертов, благодаря новому стандарту разработчики будут уверены в том, что перед запуском продукта были соблюдены все необходимые процедуры и предусмотрены механизмы для устранения возможных проблем.
Хотя стандарт ISO носит добровольный характер, у компаний будет серьезная мотивация ему следовать - в скором времени в разных странах появятся государственные регулировки, обойти которые будет уже сложнее. К примеру, к 2025 году в ЕС должен вступить в силу Акт об искусственном интеллекте. Кроме того, соответствие стандарту ISO поможет компаниям завоевать доверие общественности, обеспокоенной потенциальными рисками технологий ИИ.
Согласно исследованиям, в США люди чаще выражают опасения в отношении ИИ, нежели воодушевление. Их беспокоят такие аспекты, как конфиденциальность личных данных, которые часто используются для обучения моделей без разрешения, предвзятость алгоритмов, потенциальные злоупотребления и.т.д.
Эксперты советуют компаниям воспринимать стандарт ISO как инструмент непрерывного мониторинга рисков. Он призван стать частью культуры разработки ПО и ответственного подхода к ИИ.
Кроме того, новый стандарт должен подтолкнуть создателей ИИ к переосмыслению своих решений, которые имеют серьезные последствия в реальном мире. Если крупные корпорации примут рекомендации ISO во внимание, это задаст вектор развития всей индустрии.
- Источник новости
- www.securitylab.ru