Сооснователь OpenAI взял на себя самую ответственную миссию современности.
Илья Суцкевер, один из основателей OpenAI и ее бывший главный научный сотрудник, открывает новую компанию - Для просмотра ссылки Войдиили Зарегистрируйся (SSI). О запуске проекта было заявлено всего через месяц после ухода ученого из OpenAI. Инициатива Суцкевера, соучредителями которой также выступили бывший партнер Y Combinator Дэниел Гросс и экс-инженер OpenAI Дэниел Леви, ставит своей целью решение одной из наиболее острых проблем современности — обеспечение безопасного функционирования сверхинтеллектуальных систем ИИ.
Суцкевер раньше тесно сотрудничал с Яном Лейке, который возглавлял команду Superalignment, также специализирующуюся на безопасности. В мае они оба покинули OpenAI из-за разногласий с руководством. Лейке присоединился к Anthropic - другой ведущей исследовательской организации в этой отрасли.
В совместном с Лейке блог-посте от 2023 года Суцкевер предсказал появление искусственного интеллекта, превосходящего человеческие возможности, уже в течение ближайшего десятилетия. К этому времени, по его словам, людям необходимо со всех сторон обезопасить себя от всех возможных рисков.
У SSI пока что только одна миссия - создание безопасного сверхразума. Само название компании, Safe Superintelligence Inc., воплощает ее главную цель и фокус продукта. Согласно твиту, анонсирующему запуск проекта, SSI посвящена развитию возможностей ИИ при обеспечении опережающих инструментов защиты. Такой подход позволяет масштабировать разработку без ущерба для человечества.
"Наша миссия, имя компании и вся продуктовая стратегия сфокусированы на SSI, - говорится в посте. - Мы развиваем возможности искусственного интеллекта и одновременно обеспечиваем его безопасность, решая технические задачи путем прорывных инженерных и научных разработок. Наша цель - быстро наращивать потенциал ИИ при неукоснительном соблюдении требований безопасности, что позволит масштабировать его применение без риска".
В отличие от OpenAI, начинавшей как некоммерческая организация, SSI была задумана как коммерческий проект с самого начала. Это решение продиктовано реалиями современных исследований, где для достижения прогресса необходимы крупные инвестиции. По словам Гросса, вопрос финансирования не станет препятствием благодаря колоссальному интересу к ИИ и авторитетности команды основателей.
Илья Суцкевер, один из основателей OpenAI и ее бывший главный научный сотрудник, открывает новую компанию - Для просмотра ссылки Войди
Суцкевер раньше тесно сотрудничал с Яном Лейке, который возглавлял команду Superalignment, также специализирующуюся на безопасности. В мае они оба покинули OpenAI из-за разногласий с руководством. Лейке присоединился к Anthropic - другой ведущей исследовательской организации в этой отрасли.
В совместном с Лейке блог-посте от 2023 года Суцкевер предсказал появление искусственного интеллекта, превосходящего человеческие возможности, уже в течение ближайшего десятилетия. К этому времени, по его словам, людям необходимо со всех сторон обезопасить себя от всех возможных рисков.
У SSI пока что только одна миссия - создание безопасного сверхразума. Само название компании, Safe Superintelligence Inc., воплощает ее главную цель и фокус продукта. Согласно твиту, анонсирующему запуск проекта, SSI посвящена развитию возможностей ИИ при обеспечении опережающих инструментов защиты. Такой подход позволяет масштабировать разработку без ущерба для человечества.
"Наша миссия, имя компании и вся продуктовая стратегия сфокусированы на SSI, - говорится в посте. - Мы развиваем возможности искусственного интеллекта и одновременно обеспечиваем его безопасность, решая технические задачи путем прорывных инженерных и научных разработок. Наша цель - быстро наращивать потенциал ИИ при неукоснительном соблюдении требований безопасности, что позволит масштабировать его применение без риска".
В отличие от OpenAI, начинавшей как некоммерческая организация, SSI была задумана как коммерческий проект с самого начала. Это решение продиктовано реалиями современных исследований, где для достижения прогресса необходимы крупные инвестиции. По словам Гросса, вопрос финансирования не станет препятствием благодаря колоссальному интересу к ИИ и авторитетности команды основателей.
- Источник новости
- www.securitylab.ru