Artificial Intelion | Новости ИИ
2.19K subscribers
217 photos
11 videos
1 file
276 links
Самое интересное про ИИ.
Новости AI и ML для бизнеса.
Изучаем, тестируем, рекомендуем

Аренда серверов: https://intelion.cloud/tg

Обратная связь: @IntelionCloud или по email ai@intelion.cloud
Download Telegram
Gemini Deep Think теперь в Ultra-подписке: элитный ИИ для тех, кто мыслит в 4 потока

Google продолжает наращивать ИИ-мощности — и завозит в Ultra-подписку новую оптимизированную версию Gemini Deep Think.

Что это за зверь?
☹️ Это модель, на которой Google взяла золото на Международной математической олимпиаде (IMO). Да, модель умеет решать задачи, от которых у обычных LLM начинают дрожать токены.
☹️ Deep Think запускает параллельные потоки рассуждения, а потом собирает из них лучший результат — примерно как делает o3 Pro от OpenAI.


Чем интересна:
☹️ Даже без доступа к тулзам уверенно разваливает Grok 4 и o3 на Humanity’s Last Exam и других строгих бенчах.
☹️ Умеет выполнять код и пользоваться поиском.
☹️ По сути — это Google Gemini в режиме максимального IQ.


Подписка Google AI Ultra стоит $250 в месяц — дороже чем GPT-4 Pro или Claude Max. Но:
⚡️ Туда входит Veo 3
⚡️ Продвинутая Gemini
⚡️ Плюс 30 ТБ на Google Drive
⚡️ 50% скидка на первые три месяца


Если вам нужно протестировать свои LLM-пайплайны, обучить модели или построить reasoning-агента — не обязательно подписываться на Ultra.

Можно арендовать сервер с A100, A10, A5000 или RTX 3090 в Интелион Облако и запускать свой Deep Think локально с посекундной тарификацией и скидками до 30%.
#Gemini #Google #ии #нейросети

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍22
Media is too big
VIEW IN TELEGRAM
Genie 3 от Google: нейросетка, которая держит мир в голове (и рисует его в 720p)

Google DeepMind выкатила Genie 3 — новое поколение World Models. Это не просто генератор картинок, а нейронные игровые движки, создающие целые миры по текстовому промпту. И в них можно жить.

Чем Genie 3 круче своего предка (Genie 2)?
☹️ 720p vs 360p: Четкость выросла в разы — мир больше не напоминает кашу из пикселей.
☹️ Минуты vs секунды: Взаимодействие длится не жалкие 10-20 секунд, а целые минуты стабильной симуляции.
☹️ Память, а не дырявое решето: Главный прорыв — модель помнит. Покрасил стену, отвернулся, покрутился по комнате — а краска на месте! Год назад нейросетка забыла бы всё, стоило тебе моргнуть.


Что умеет этот "нейронный Майнкрафт"?
⚡️ Генерит не просто статичные сцены, а живые миры с событиями. Промпт = сценарий. Деревня? Пусть в ней кипит жизнь. Лаборатория? Пусть там что-то взрывается.
⚡️ Симулирует физику взаимодействий на уровне, достаточном для тренировки ИИ-агентов. Мечтаете о роботе-поваре? Тренируйте его сначала в Genie-кухне.
⚡️ Открывает двери в новую эру игр: представьте генерацию уникальных миров и сюжетов на лету. Не зря Tencent вбухивает миллиарды в World Models!


Хотите поиграть с Genie 3?
Возьмите сервер с RTX 3090, A100, A5000 или A10 в Интелион Облако. Запускайте свои нейронные симуляции с посекундной оплатой, сохраняйте образы бесплатно.
#Genie3 #Google #ии #нейросети

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍522🤔1
Как посчитать VRAM для LLM: гайд, который сэкономит вам кучу времени (и денег)

Вы запускаете нейросеть, всё готово — и…
CUDA out of memory. Знакомо?

Мы написали подробный, но простой гайд о том, как рассчитать, сколько VRAM реально нужно для запуска больших языковых моделей (LLM).

Для кого статья:
☹️ Data Scientists, которые экспериментируют с LLaMA, Mistral и другими LLM
☹️ ML-инженеры и те, кто fine-tune'ит модели под узкие задачи
☹️ Стартаперы, планирующие MVP с нейросетями
☹️ Руководители команд, которым надо понимать — почему 40 GB может не хватить


Что внутри:
☹️ Формула расчёта VRAM (с примерами и пояснениями)
☹️ Разбор моделей на 7B, 13B и 70B параметров
☹️ Влияние квантизации (FP16 vs INT8 vs INT4)
☹️ Способы экономии: LoRA, градиентный чекпоинт, параллелизм
☹️ Когда выгоднее арендовать сервер с GPU, а не покупать
☹️ Python-скрипты и калькуляторы, чтобы не считать вручную


Если вы работаете с моделями машинного обучения или просто планируете свой AI-продукт — прочитайте этот гайд до того, как выберете сервер. Он избавит от ошибок, сэкономит бюджет и время.

Читать статью 👉 статья
#машинноеобучение #DataScience

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍32
Qwen3-4B: китайский локомотив опенсорса разгоняется до 256K токенов

Alibaba Cloud снова врывается в тренды — их флагманская Qwen3-4B получила серьезный апдейт.

Теперь это не просто "еще одна локальная моделька", а полноценный конкурент GPT-oss с контекстом в 256K токенов и двумя режимами на выбор:

☹️ Thinking — для глубокого анализа
☹️ Instruct — для четких инструкций

Что за прорыв?
☹️ Рост метрик — модель стала умнее, быстрее и стабильнее
☹️ Гигантский контекст — 256K токенов против прежних скромных лимитов
☹️ Бешеная скорость релизов — 6-7 обновлений за месяц, китайский опенсорс не спит


Главный вопрос:
Сможет ли новая GPT-oss 20B переиграть Qwen3-4B? Пока Alibaba не оставляет конкурентам шанса, заваливая всех обновлениями.

Хотите протестировать Qwen3-4B в деле?
Разверните её на своем сервере с RTX 3090 или A100 в Интелион Облако — моментальный доступ, оплата по секундам и никаких ограничений.
#Qwen #OpenSource #ии

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
32👍1
GPT-OSS от OpenA - это MoE-ракета

OpenAI наконец-то показала карты: их open-source флагман GPT-OSS 20B — это Mixture of Experts (MoE) на стероидах. Быстрее, умнее, контекстнее. Но не без косяков.

Что интересного:
☹️ MoE + FlashAttention 3 + MXFP4 квантизация = бешеная скорость в своем классе.
☹️ Контекст 256K по схеме RoPE + Sliding Window — глобальные связи + локальная скорость. Не full context, а умный гибрид (схемы гуглите!).
☹️ Заточка под агентов и код: Метрики в районе o4-mini, но с упором на CoT, Tool Calling, JSON, Structured Output. Идеально для пайплайнов.
☹️ Публичные MoE LoRA-тюны! Наконец-то можно кастомизировать без боли.


Где собака зарылась:
☹️ Требует топовое железо: vLLM/Ollama/HF API есть, но запуск на старых картах — боль. Готовьтесь к RTX 3090 или A100.
☹️ Токсичный позитив: Английские ответы слишком жизнерадостные (ладно, "токсично-жизнерадостные") и водянистые. Лаконичность — не её конёк.


Хотите гонять GPT-OSS 20B без апгрейда железа?
Арендуйте сервер с A100 или RTX 3090 в Интелион Облако. Посекундная оплата, мгновенный доступ, никаких танцев с тикетами.
Сохраняйте образы бесплатно — тюньте MoE-LoRA хоть 24/7.
#OpenAI #OpenSource #нейросети #LLM

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥21😁1