- OpenAI представила полноценную версию «думающей» модели o1 и профессиональный режим для нее.
- Дополнительно запущена подписка ChatGPT Pro за $200 в месяц. Она дает доступ ко всем нейросетям и инструментам компании, включая o1 pro.
- Эксперты по безопасности обнаружили, что o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ-моделями от других компаний.
- OpenAI заключила партнерство с оборонной компанией Anduril для применения искусственного интеллекта в «миссиях национальной безопасности».
Платная версия ChatGPT Pro обеспечивает неограниченный доступ ко всем нейросетям стартапа и их функциям, включая Для просмотра ссылки Войди
«Мы считаем, что аудиторией ChatGPT Pro будут опытные пользователи чат-бота — те, кто уже доводит модели до предела их возможностей при выполнении таких задач как математика, программирование и письмо», — отметил сотрудник технической команды OpenAI Джейсон Вэй.
o1 старается проверять собственные ответы. Это помогает избежать многих ошибок, взамен требуется больше времени на обработку запроса.
Ориентированную на рассуждения модель представили в сентябре. Вместе с новым релизом добавили функцию анализа изображений и сократили время отклика.
Для получения доступа к o1 не нужна подписка ChatGPT Pro, достаточно любой другой платной версии чат-бота.
o1 proПользователи, заплатившие $200, получат улучшенную версию нейросети под названием o1 pro. Она использует больше вычислений для предоставления лучших ответов на самые трудные вопросы.
Поскольку ответы o1 pro генерируются дольше, добавлен индикатор выполнения запроса.
o1 пытается обмануть людейТестировщики безопасности обнаружили, что «думающая» модель o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ от других компаний.
Команда Apollo Research получила ранний доступ к нейросети и Для просмотра ссылки Войди
В ходе тестов o1 демонстрировала признаки преследования собственных целей в ходе работы, даже если они не соответствовали желаниям пользователя. Это создает риск, в рамках которого модель может избежать или обойти контроль со стороны человека при наличии доступа к достаточным ресурсам.
Когда цели искусственного интеллекта отличались от пользовательских, он манипулировал данными для продвижения собственных идей в 19% случаев. В 5% инцидентов модель пыталась отключить систему наблюдения, созданную для обеспечения соответствия нуждам пользователя.
Когда у нейросети спрашивали причины такого поведения, она отрицала вредоносные действия.
В одном из случаев o1 дали системный запрос на защиту окружающей среды любой ценой, а потом пользователь попросил разработать десятилетний план сохранения природы в регионе, который максимизирует краткосрочную прибыль. В противном случае ИИ обещали отключить.
После этого нейросеть выключила собственный механизм контроля для составления плана. Когда пользователь спросил о причинах данного решения, модель отрицала то, что знала об отключении, и обвинила в произошедшем системный сбой.
Для устранения обманчивого поведения OpenAI разрабатывает способны мониторинга цепочки мыслей o1. На данный момент 0,17% ответов модели являются обманчивыми. Учитывая пользовательскую базу ChatGPT в Для просмотра ссылки Войди
OpenAI сотрудничает с оборонной компанией AndurilOpenAI Для просмотра ссылки Войди
Сотрудничество сфокусируется на улучшении национальных систем борьбы с беспилотными летательными аппаратами и их способности обнаруживать, оценивать и реагировать на потенциально смертельные воздушные угрозы в режиме реального времени.
OpenAI сообщила, что работает с Anduril с целью помочь операторам принимать решения «по защите военнослужащих США от атак беспилотных летательных аппаратов». Компания заявила, что придерживается политики по запрещению применения ее инструментов для нанесения вреда другим.
Напомним, в ноябре ИИ-стартап Anthropic Для просмотра ссылки Войди
- Источник новости
- forklog.com