ИИ - это новая реальность, которая может изменить мир к лучшему или к худшему.
Компания Майкрософт обратилась к правительству США с предложением создать специальное агентство, которое будет заниматься регулированием искусственного интеллекта (ИИ). Об этом сообщает американский журнал PCMag.
По мнению Майкрософт, ИИ представляет собой мощный инструмент, который может быть использован как в благих, так и в злых целях. Поэтому необходимо разработать правила и стандарты, которые будут обеспечивать безопасность, этичность и ответственность при применении ИИ в различных сферах жизни.
В качестве примера компания привела случай, когда ее нейросеть ChatGPT была запрещена в Италии из-за нарушения законодательства об использовании персональных данных. ChatGPT - это чат-бот, который может имитировать естественный язык и вести диалог с человеком на любую тему. Однако нейросеть также может генерировать ложную или вредоносную информацию, которая может повлиять на мнение или поведение собеседника.
Майкрософт утверждает, что такие случаи показывают необходимость создания независимого органа, который будет контролировать развитие и использование ИИ в общественном интересе. Компания предлагает, чтобы это агентство было похоже на Федеральную комиссию по торговле (FTC) или Федеральную комиссию по связи (FCC), которые регулируют рынки потребительских товаров и телекоммуникаций соответственно.
“Мы думаем, что нужно создать новое агентство по ИИ, которое будет иметь полномочия устанавливать правила для разработчиков и пользователей ИИ, проводить проверки и наказывать за нарушения”, - заявил Брэд Смит, президент Майкрософт.
Смит также отметил, что Майкрософт готова сотрудничать с правительством и другими заинтересованными сторонами по этому вопросу. Он выразил надежду, что новое агентство по ИИ поможет укрепить доверие к технологии и способствовать ее инновационному развитию.
Майкрософт не единственная компания, которая выступает за регулирование ИИ. Ранее подобные инициативы высказывали Google, IBM, Facebook и другие лидеры отрасли. Они призывали правительства разных стран принять международные нормы и принципы, которые будут гарантировать безопасное и этичное использование ИИ.
В России также обсуждается необходимость регулирования ИИ. ИИ несет угрозы для общества из-за того, что нейросети становятся способны генерировать все более качественный контент, в том числе новостные сообщения и научные работы. Эксперты предлагают ввести обязательную маркировку для такого контента, чтобы отличать его от созданного человеком.
В мае 2023 года ректор Российского технологического университета Станислав Кудж попросил главу Минцифры Максута Шадаева ввести обязательную маркировку контента, созданного нейросетями, и разработать программу защиты критически важной инфраструктуры от кибератак с использованием ИИ. Кудж также призвал добавить пункт в приказ Минцифры об определении угроз безопасности персональных данных при использовании нейросетей.
Эксперты считают, что использование ИИ может повысить эффективность кибербезопасности, но также требует новых подходов к защите от атак. Они утверждают, что для защиты инфраструктуры необходима система, которая будет выявлять и блокировать атаки с использованием нейросетей.
Компания Майкрософт обратилась к правительству США с предложением создать специальное агентство, которое будет заниматься регулированием искусственного интеллекта (ИИ). Об этом сообщает американский журнал PCMag.
По мнению Майкрософт, ИИ представляет собой мощный инструмент, который может быть использован как в благих, так и в злых целях. Поэтому необходимо разработать правила и стандарты, которые будут обеспечивать безопасность, этичность и ответственность при применении ИИ в различных сферах жизни.
В качестве примера компания привела случай, когда ее нейросеть ChatGPT была запрещена в Италии из-за нарушения законодательства об использовании персональных данных. ChatGPT - это чат-бот, который может имитировать естественный язык и вести диалог с человеком на любую тему. Однако нейросеть также может генерировать ложную или вредоносную информацию, которая может повлиять на мнение или поведение собеседника.
Майкрософт утверждает, что такие случаи показывают необходимость создания независимого органа, который будет контролировать развитие и использование ИИ в общественном интересе. Компания предлагает, чтобы это агентство было похоже на Федеральную комиссию по торговле (FTC) или Федеральную комиссию по связи (FCC), которые регулируют рынки потребительских товаров и телекоммуникаций соответственно.
“Мы думаем, что нужно создать новое агентство по ИИ, которое будет иметь полномочия устанавливать правила для разработчиков и пользователей ИИ, проводить проверки и наказывать за нарушения”, - заявил Брэд Смит, президент Майкрософт.
Смит также отметил, что Майкрософт готова сотрудничать с правительством и другими заинтересованными сторонами по этому вопросу. Он выразил надежду, что новое агентство по ИИ поможет укрепить доверие к технологии и способствовать ее инновационному развитию.
Майкрософт не единственная компания, которая выступает за регулирование ИИ. Ранее подобные инициативы высказывали Google, IBM, Facebook и другие лидеры отрасли. Они призывали правительства разных стран принять международные нормы и принципы, которые будут гарантировать безопасное и этичное использование ИИ.
В России также обсуждается необходимость регулирования ИИ. ИИ несет угрозы для общества из-за того, что нейросети становятся способны генерировать все более качественный контент, в том числе новостные сообщения и научные работы. Эксперты предлагают ввести обязательную маркировку для такого контента, чтобы отличать его от созданного человеком.
В мае 2023 года ректор Российского технологического университета Станислав Кудж попросил главу Минцифры Максута Шадаева ввести обязательную маркировку контента, созданного нейросетями, и разработать программу защиты критически важной инфраструктуры от кибератак с использованием ИИ. Кудж также призвал добавить пункт в приказ Минцифры об определении угроз безопасности персональных данных при использовании нейросетей.
Эксперты считают, что использование ИИ может повысить эффективность кибербезопасности, но также требует новых подходов к защите от атак. Они утверждают, что для защиты инфраструктуры необходима система, которая будет выявлять и блокировать атаки с использованием нейросетей.
- Источник новости
- www.securitylab.ru