Как новая модель ИИ может изменить образовательный процесс.
В мире образования и исследований STEM (наука, технологии, инженерия и математика) произошло значимое событие. Компания Microsoft представила новую модель искусственного интеллекта под названием Для просмотра ссылки Войдиили Зарегистрируйся , которая значительно превосходит существующие модели по решению математических задач, при этом имея в 10 раз меньший размер. Это открытие стало возможным благодаря сотрудничеству с французским стартапом Mistral и его моделью Mistral 7B, которая является вариантом модели Llama 2 от Meta.
Orca-Math демонстрирует выдающуюся способность решать "математические задачи в словесной форме", сохраняя при этом маленький размер для обучения и вывода. Отмечается, что новая модель превосходит большинство существующих AI моделей с 7-70 миллиардами параметров, уступая только Gemini Ultra от Google и GPT-4 от OpenAI на бенчмарке GSM8K, который состоит из 8500 различных математических задач.
Создание Orca-Math стало возможным благодаря разработке нового набора из 200 000 математических задач с помощью "специализированных агентов", включая студентов и учителей ИИ, которые корректировали их ответы. Данные задачи были созданы путем анализа и обработки 36 217 примеров из открытых источников с последующей обучающей подготовкой на новой варианте модели Mistral 7B, ставшей Orca-Math.
Команда Orca также использовала метод оптимизации Kahneman-Tversky (метод KTO), разработанный стартапом Contextual AI, для улучшения точности ответов модели на математические вопросы. Этот метод, вдохновленный работами экономистов Канемана и Тверски по принятию решений, позволяет улучшить выравнивание модели без необходимости предпочтений типа "выход А лучше выхода Б для входа X".
Microsoft разместила синтетический набор из 200 000 математических задач, сгенерированный AI, на платформе Hugging Face под лицензией MIT, предоставляя возможность каждому исследовать, строить и инновировать с его помощью, включая коммерческое использование.
Это открытие отражает тенденцию использования машинно-генерируемых данных для повышения интеллектуальных способностей и возможностей больших языковых моделей (LLM), тем самым снижая опасения касательно "коллапса модели". С каждым обновлением семейство Orca от Microsoft продолжает расти и становиться умнее, предлагая новые, меньшие по размеру или аналогичные модели, способные решать все более сложные задачи.
В мире образования и исследований STEM (наука, технологии, инженерия и математика) произошло значимое событие. Компания Microsoft представила новую модель искусственного интеллекта под названием Для просмотра ссылки Войди
Orca-Math демонстрирует выдающуюся способность решать "математические задачи в словесной форме", сохраняя при этом маленький размер для обучения и вывода. Отмечается, что новая модель превосходит большинство существующих AI моделей с 7-70 миллиардами параметров, уступая только Gemini Ultra от Google и GPT-4 от OpenAI на бенчмарке GSM8K, который состоит из 8500 различных математических задач.
Создание Orca-Math стало возможным благодаря разработке нового набора из 200 000 математических задач с помощью "специализированных агентов", включая студентов и учителей ИИ, которые корректировали их ответы. Данные задачи были созданы путем анализа и обработки 36 217 примеров из открытых источников с последующей обучающей подготовкой на новой варианте модели Mistral 7B, ставшей Orca-Math.
Команда Orca также использовала метод оптимизации Kahneman-Tversky (метод KTO), разработанный стартапом Contextual AI, для улучшения точности ответов модели на математические вопросы. Этот метод, вдохновленный работами экономистов Канемана и Тверски по принятию решений, позволяет улучшить выравнивание модели без необходимости предпочтений типа "выход А лучше выхода Б для входа X".
Microsoft разместила синтетический набор из 200 000 математических задач, сгенерированный AI, на платформе Hugging Face под лицензией MIT, предоставляя возможность каждому исследовать, строить и инновировать с его помощью, включая коммерческое использование.
Это открытие отражает тенденцию использования машинно-генерируемых данных для повышения интеллектуальных способностей и возможностей больших языковых моделей (LLM), тем самым снижая опасения касательно "коллапса модели". С каждым обновлением семейство Orca от Microsoft продолжает расти и становиться умнее, предлагая новые, меньшие по размеру или аналогичные модели, способные решать все более сложные задачи.
- Источник новости
- www.securitylab.ru