🛒Нейросеть от Авито лидирует среди облегченных моделей по MERA

7 апреля 2025 г.Neurogen
🛒Нейросеть от Авито лидирует среди облегченных моделей по MERA | 🔁 Новости из телеграм - Ghostbase News

🛒Нейросеть от Авито лидирует среди облегченных моделей по MERA

По моему мнению, A-Vibe по сути своей SFT* над Qwen 2.5 . Ну и думаю стоит отметить, что MERA - это российский бенчмарк😊 Ну а теперь к основной информации.

A-Vibe обошла модели GPT-4o mini, Gemma 3 27B, Claude 3.5 Haiku, Mistral Large и другие небольшие нейросети. Тестирование проводилось по многим параметрам и включало в себя как базовое понимание текста, так и продвинутые лингвистические задачи, требующие глубокой работы с контекстом.

🟡Генерация кода: на 25% лучше Gemini 1.5;

🟡Ведение диалога: на 32% точнее Llama 3.1;

🟡Анализ смысла текста: на 23% точнее Claude 3.5 Haiku.

A-Vibe способна одновременно обрабатывать до 32 000 текстовых фрагментов.

⚙️По характеристикам:

🟡На базе Qwen 2.5 (7 млрд параметров)

🟡Датасет более 10 ТБ (данные «Авито» + открытые источники)

🟡Русскоязычный токенизатор для лучшего понимания текста

В конце марта «Авито» объявил об инвестициях 12 млрд рублей в генеративный искусственный интеллект до 2028 года. Компания также ожидает получить 21 млрд рублей выручки от использования нейросетей.

Также Авито рассматривают возможность сделать модель open source.

*Supervised fine-tuning (SFT) — это методика, используемая для адаптации предварительно обученных LLM под конкретные узкие задачи при помощи размеченных данных