
«`html
OuteAI представила новые модели Lite-Oute-1: Lite-Oute-1-300M и Lite-Oute-1-65M
OuteAI недавно представила свои последние достижения в моделях серии Lite, Lite-Oute-1-300M и Lite-Oute-1-65M. Эти новые модели разработаны для улучшения производительности при сохранении эффективности, что делает их подходящими для развертывания на различных устройствах.
Lite-Oute-1-300M: Улучшенная производительность
Модель Lite-Oute-1-300M, основанная на архитектуре Mistral, содержит около 300 миллионов параметров. Цель этой модели — улучшить предыдущую версию с 150 миллионами параметров, увеличив ее размер и обучив на более точном наборе данных. Основная цель модели Lite-Oute-1-300M — предложить улучшенную производительность, сохраняя при этом эффективность для развертывания на различных устройствах.
С увеличенным размером модель Lite-Oute-1-300M обеспечивает улучшенное сохранение контекста и связности. Однако пользователи должны заметить, что как компактная модель, у нее все еще есть ограничения по сравнению с более крупными языковыми моделями. Модель обучалась на 30 миллиардах токенов с длиной контекста 4096, обеспечивая надежные возможности обработки языка.
Модель Lite-Oute-1-300M доступна в нескольких версиях:
- Lite-Oute-1-300M-Instruct
- Lite-Oute-1-300M-Instruct-GGUF
- Lite-Oute-1-300M (Base)
- Lite-Oute-1-300M-GGUF
Производительность по бенчмаркам
Модель Lite-Oute-1-300M была протестирована на нескольких задачах, демонстрируя свои возможности:
- ARC Challenge: 26.37 (5-shot), 26.02 (0-shot)
- ARC Easy: 51.43 (5-shot), 49.79 (0-shot)
- CommonsenseQA: 20.72 (5-shot), 20.31 (0-shot)
- и другие
Использование с библиотекой HuggingFace Transformers
Модель Lite-Oute-1-300M может быть использована с библиотекой HuggingFace’s transformers. Пользователи могут легко реализовать модель в своих проектах, используя код Python. Модель поддерживает генерацию ответов с параметрами, такими как температура и штраф за повтор, для настройки вывода.
Lite-Oute-1-65M: Исследование ультракомпактных моделей
Помимо модели 300M, OuteAI также выпустила модель Lite-Oute-1-65M. Эта экспериментальная ультракомпактная модель основана на архитектуре LLaMA и содержит около 65 миллионов параметров. Основная цель этой модели — исследовать нижние пределы размера модели, сохраняя при этом базовые возможности понимания языка.
Из-за своего крайне маленького размера модель Lite-Oute-1-65M демонстрирует базовые возможности генерации текста, но может испытывать трудности с инструкциями или сохранением связности темы. Пользователи должны быть в курсе ее значительных ограничений по сравнению с более крупными моделями и ожидать несогласованные или потенциально неточные ответы.
Модель Lite-Oute-1-65M доступна в следующих версиях:
- Lite-Oute-1-65M-Instruct
- Lite-Oute-1-65M-Instruct-GGUF
- Lite-Oute-1-65M (Base)
- Lite-Oute-1-65M-GGUF
Обучение и аппаратное обеспечение
Модели Lite-Oute-1-300M и Lite-Oute-1-65M были обучены на аппаратуре NVIDIA RTX 4090. Модель 300M обучалась на 30 миллиардах токенов с длиной контекста 4096, в то время как модель 65M обучалась на 8 миллиардах токенов с длиной контекста 2048.
Вывод
Таким образом, выпуск моделей Lite-Oute-1-300M и Lite-Oute-1-65M от OuteAI направлен на улучшение производительности, сохраняя при этом необходимую эффективность для развертывания на различных устройствах путем увеличения размера и улучшения набора данных. Эти модели балансируют размер и возможности, что делает их подходящими для множества приложений.
Если вы хотите узнать больше о внедрении ИИ в ваш бизнес, свяжитесь с нами по адресу https://t.me/itinai. Следите за новостями о ИИ в нашем Телеграм-канале t.me/itinainews или в Twitter @itinairu45358.
Попробуйте AI Sales Bot https://itinai.ru/aisales. Этот AI ассистент в продажах помогает отвечать на вопросы клиентов, генерировать контент для отдела продаж и снижать нагрузку на первую линию.
Узнайте, как ИИ может изменить ваши процессы с решениями от AI Lab itinai.ru. Будущее уже здесь!
«`