Но это не значит, что в русскоязычном поле нет героев, которые работают над ИИ-инструментами и собирают библиотеки полезных Open Source решений!
#ии #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🤣6🔥3💯1
Qwen3-4B: китайский локомотив опенсорса разгоняется до 256K токенов
Alibaba Cloud снова врывается в тренды — их флагманская Qwen3-4B получила серьезный апдейт.
Теперь это не просто "еще одна локальная моделька", а полноценный конкурент GPT-oss с контекстом в 256K токенов и двумя режимами на выбор:
☹️ Thinking — для глубокого анализа
☹️ Instruct — для четких инструкций
Что за прорыв?
Главный вопрос:
Сможет ли новая GPT-oss 20B переиграть Qwen3-4B? Пока Alibaba не оставляет конкурентам шанса, заваливая всех обновлениями.
Хотите протестировать Qwen3-4B в деле?
Разверните её на своем сервере с RTX 3090 или A100 в Интелион Облако — моментальный доступ, оплата по секундам и никаких ограничений.
#Qwen #OpenSource #ии
🙂 Artificial Intelion
Alibaba Cloud снова врывается в тренды — их флагманская Qwen3-4B получила серьезный апдейт.
Теперь это не просто "еще одна локальная моделька", а полноценный конкурент GPT-oss с контекстом в 256K токенов и двумя режимами на выбор:
Что за прорыв?
☹️ Рост метрик — модель стала умнее, быстрее и стабильнее☹️ Гигантский контекст — 256K токенов против прежних скромных лимитов☹️ Бешеная скорость релизов — 6-7 обновлений за месяц, китайский опенсорс не спит
Главный вопрос:
Сможет ли новая GPT-oss 20B переиграть Qwen3-4B? Пока Alibaba не оставляет конкурентам шанса, заваливая всех обновлениями.
Хотите протестировать Qwen3-4B в деле?
Разверните её на своем сервере с RTX 3090 или A100 в Интелион Облако — моментальный доступ, оплата по секундам и никаких ограничений.
#Qwen #OpenSource #ии
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 2👍1
GPT-OSS от OpenA - это MoE-ракета
OpenAI наконец-то показала карты: их open-source флагман GPT-OSS 20B — это Mixture of Experts (MoE) на стероидах. Быстрее, умнее, контекстнее. Но не без косяков.
Что интересного:
Где собака зарылась:
Хотите гонять GPT-OSS 20B без апгрейда железа?
Арендуйте сервер с A100 или RTX 3090 в Интелион Облако. Посекундная оплата, мгновенный доступ, никаких танцев с тикетами.
Сохраняйте образы бесплатно — тюньте MoE-LoRA хоть 24/7.
#OpenAI #OpenSource #нейросети #LLM
🙂 Artificial Intelion
OpenAI наконец-то показала карты: их open-source флагман GPT-OSS 20B — это Mixture of Experts (MoE) на стероидах. Быстрее, умнее, контекстнее. Но не без косяков.
Что интересного:
☹️ MoE + FlashAttention 3 + MXFP4 квантизация = бешеная скорость в своем классе.☹️ Контекст 256K по схеме RoPE + Sliding Window — глобальные связи + локальная скорость. Не full context, а умный гибрид (схемы гуглите!).☹️ Заточка под агентов и код: Метрики в районе o4-mini, но с упором на CoT, Tool Calling, JSON, Structured Output. Идеально для пайплайнов.☹️ Публичные MoE LoRA-тюны! Наконец-то можно кастомизировать без боли.
Где собака зарылась:
☹️ Требует топовое железо: vLLM/Ollama/HF API есть, но запуск на старых картах — боль. Готовьтесь к RTX 3090 или A100.☹️ Токсичный позитив: Английские ответы слишком жизнерадостные (ладно, "токсично-жизнерадостные") и водянистые. Лаконичность — не её конёк.
Хотите гонять GPT-OSS 20B без апгрейда железа?
Арендуйте сервер с A100 или RTX 3090 в Интелион Облако. Посекундная оплата, мгновенный доступ, никаких танцев с тикетами.
Сохраняйте образы бесплатно — тюньте MoE-LoRA хоть 24/7.
#OpenAI #OpenSource #нейросети #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2❤1😁1