logo

Китайцы из команды Qwen заделали свой чат

Китайцы из команды Qwen заделали свой чат

Кроме старших моделей из всех линеек опенсорс моделей Qwen, там ещё есть закрытые MoE модели. Qwen2.5-Plus - это самая сильная их general-purpose модель, а Qwen2.5-Turbo - их long-context модель с поддержкой до миллиона токенов контекста. Есть ещё Qwen2-VL-Max, но судя по всему это просто Qwen2-VL 72B (но это не точно).

По фичам всё неплохо для ранней версии - есть артефакты, загрузка документов и картинок. Ну и фича которую нигде, за пределами чатбот арены, я не видел - возможность отправлять один и тот же промпт нескольким (до 3) моделькам сразу. Она ещё сыроватая - хотелось бы иметь возможность продолжить диалог лишь с одной из этих моделей, что их интерфейс не позволяет. Скоро в чат обещают прикрутить поиск и генерацию изображений (интересно, это опять будет FLUX, или натренят что-то своё?), ждём.

Всё полностью бесплатно, так же как и у Mistral с DeepSeek. Цель тут - не получить деньги с подписки, а прорекламировать API и получить дополнительные данные для тюна. Если кому-то из подписчиков хочется приватности, то Anthropic, с их Claude, остаются единственной компанией, которая не тренирует модели на основе данных из чата.

chat.qwenlm.ai

@ai_newz

Канал источник:@neurogen_news