🛒Нейросеть от Авито лидирует среди облегченных моделей по MERA

🛒Нейросеть от Авито лидирует среди облегченных моделей по MERA
По моему мнению, A-Vibe по сути своей SFT* над Qwen 2.5 . Ну и думаю стоит отметить, что MERA - это российский бенчмарк😊 Ну а теперь к основной информации.
A-Vibe обошла модели GPT-4o mini, Gemma 3 27B, Claude 3.5 Haiku, Mistral Large и другие небольшие нейросети. Тестирование проводилось по многим параметрам и включало в себя как базовое понимание текста, так и продвинутые лингвистические задачи, требующие глубокой работы с контекстом.
🟡Генерация кода: на 25% лучше Gemini 1.5;
🟡Ведение диалога: на 32% точнее Llama 3.1;
🟡Анализ смысла текста: на 23% точнее Claude 3.5 Haiku.
A-Vibe способна одновременно обрабатывать до 32 000 текстовых фрагментов.
⚙️По характеристикам:
🟡На базе Qwen 2.5 (7 млрд параметров)
🟡Датасет более 10 ТБ (данные «Авито» + открытые источники)
🟡Русскоязычный токенизатор для лучшего понимания текста
В конце марта «Авито» объявил об инвестициях 12 млрд рублей в генеративный искусственный интеллект до 2028 года. Компания также ожидает получить 21 млрд рублей выручки от использования нейросетей.
Также Авито рассматривают возможность сделать модель open source.
*Supervised fine-tuning (SFT) — это методика, используемая для адаптации предварительно обученных LLM под конкретные узкие задачи при помощи размеченных данных