Artificial Intelion | Новости ИИ
2.19K subscribers
217 photos
11 videos
1 file
276 links
Самое интересное про ИИ.
Новости AI и ML для бизнеса.
Изучаем, тестируем, рекомендуем

Аренда серверов: https://intelion.cloud/tg

Обратная связь: @IntelionCloud или по email ai@intelion.cloud
Download Telegram
Тем, кто интересуется искусственным интеллектом, избежать одиночества в сети очень просто: нужно подписаться на наш канал и найти AI-сообщество под свои задачи и интересы.

Если важен дружелюбный вайб – попробуйте Hugging Face. Это не милый клуб любителей эмодзи 🤗 (hugging face), но большой и коммерчески успешный проект для разработчиков, исследователей и энтузиастов AI.

🔵 В чем профит? Hugging Face — открытая платформа, которая предоставляет инструменты, библиотеки и модели для работы с NLP, компьютерным зрением и другими ИИ-задачами.

Возможность пообщаться с разработчиками, побеседовать с новыми нейросетями в их собственных чатах, получить доступ к предобученным моделям, посёрфить в море курсов и видео, заглянуть в GitHub-репозиторий, почувствовать себя в теме.

🔷 Мы посмотрели и выяснили, что на этой неделе в тренде FLUX.1, Stable Fast 3D, Llama3.1 и Live Portrait. Все можно потестить.

По сути, это Github для Deep Learning моделей, и Github недавно запустил свой аналог.
#AI #LLM #HuggingFace

🏷 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👏1💯1
🌎 Как на самом деле работают LLMs?
Можете ли вы представить, как языковые модели подбирают для вас каждое слово из множества? Как они сочиняют тексты и дают осмысленные ответы на вопросы?

Если не можете – ничего страшного.

🔵Специально для визуализации выбора токенов был создан transformer-explainer. Обязательно посмотрите.

Во-первых, это красиво.
Во-вторых, можно вставлять свои предложения, наблюдать за механизмом внимания и любоваться открытым кодом.

Сделано на d3js.
#AI #GitHub #LLM

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5😍43
🙂Снова начинаем пост со слова Deep – но это последний раз, обещаем!

🔣 Все дело в том, что мы посмотрели полезное и познавательное видео Andrej Karpathy "Deep Dive into LLMs like ChatGPT". Автор - бывший сотрудник OpenAI и бывший директор Tesla по ИИ – на протяжении трех с половиной часов рассказывает, как работают LLM и главное, как нам с ними взаимодействовать.

*️⃣ Если по какой-то причине вы не можете выделить 3,5 часа, чтобы прокачаться в ML, то вот основной тайминг, можно включиться на той теме, которая вам ближе:

00:07:47 – токенизация;
00:20:11 – внутреннее устройство нейросети;
00:31:09 – GPT-2: обучение и вывод;
00:42:52 – Llama 3.1;
00:59:23 – от предварительной подготовки к постобучению;
01:20:32 – галлюцинации и память;
02:01:11 – почему модели испытывают трудности с орфографией;
02:07:28 – контролируемая тонкая настройка на обучение с подкреплением;
02:27:47 – DeepSeek-R1;
02:42:07 – AlphaGo;
02:48:26 – RLHF;
03:09:39 – просмотр будущих событий;
03:18:34 – где найти LLM;
03:21:46 – выводы.
#AI #LLM #DeepLearning

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3👌2
Быстрая русскоязычная LLM с качественными ответами

Адаптированная RuadaptQwen3-4B-Instruct — быстрая, компактная и с сохранением всех сильных сторон исходной модели. Более того, в некоторых тестах Ruadapt даже превосходит оригинал по качеству ответов.

Почему это важно?
☹️Скорость выше, ресурсы ниже: Новая модель заметно экономнее использует память и быстрее отвечает — идеальна для запуска на локальных GPU и даже CPU.
☹️Точность на высоте: По отдельным метрикам (в частности, на типичных задачах инструкций и разговоров) RuadaptQwen3-4B-Instruct стабильно показывает лучшие результаты, чем исходная модель от Qwen3.
☹️Удобство деплоя: Доступна в форматах PyTorch и GGUF, готова к запуску на любых мощностях — от облака до ноутбука.


☹️ Скачивайте и тестируйте:
RuadaptQwen3-4B-Instruct (PyTorch)
RuadaptQwen3-4B-Instruct (GGUF)

🎁 Уже 5 июля подведем итоги розыгрыша серверов в Интелион Облако — можно сразу запустить RuadaptQwen3-4B локально и убедиться в её преимуществах лично!
#ии #нейросети #llm

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍43
Где найти GPU для ML, чтобы было быстро и без переплат?

Когда нейросеть уже написана, дата-сет подготовлен, а железо внезапно закончилось — мы готовы помочь. В Интелион Облако вы можете быстро и просто арендовать самые востребованные видеокарты для ваших AI-проектов:

Почему стоит запускать GPU именно в Intelion.cloud?
☹️ Готовы к старту за 2 минуты
GPU уже ждут в стойке — вам останется лишь подключиться.

☹️ Прозрачные и понятные цены
Без скрытых платежей, переплат и комиссий.

☹️ Гибкие конфигурации
Сервер под ваши задачи — от одиночного GPU до мульти-кластеров с полной инфраструктурой.

☹️ Иммерсионное охлаждение
Максимальная производительность GPU без троттлинга.

☹️ Техподдержка всегда на связи
Инженеры, которые разбираются в ML-стеке и GPU.

☹️ Дата-центры в РФ


Ускорьте обучение своей LLM - Intelion.cloud
#ии #нейросети #gpuсервер #llm

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍643
Tesla A100 80 ГБ теперь доступна в Интелион Облако

Мы добавили в пул серверов Tesla A100 80 GB — флагманские видеокарты от NVIDIA, созданные для одной цели: запускать большие модели быстро, стабильно и без компромиссов.

Что доступно прямо сейчас:
⚡️ До 4× A100 80 ГБ в одном сервере
⚡️ Аренда на месяц и больше — без очередей
⚡️ Готово под LLM, multi-agent, fine-tune, RAG, SDXL, MoE и всё, что съедает память, как Transformer на батче 128k


Что вы получаете:
☹️
Модель влезает целиком — без слайсинга и прерываний
☹️
Инференс в разы быстрее — особенно на FP8/INT4
☹️
Поддержка Multi-GPU — для параллельных задач, DDP, sharding и загрузки 100% железа


Кейсы, где A100 раскрывает себя на максимум:
⚡️
Обработка 100k+ токенов в Mistral-MoE, Claude-3 или собственных LLM
⚡️
Генерация и fine-tune больших визуальных моделей вроде Stable Diffusion XL Turbo, SVD, PaliGemma
⚡️
Построение RAG-чатов с миллионами документов — полная база помещается в GPU-память


Хотите проверить, на что способна ваша LLM без ограничений?

Запускайте её на A100 в Интелион Облако — и пусть архитектура работает, а не ждёт следующего batch.
#a100 #видеокарты #LLM #DL

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍22
GPT-OSS от OpenA - это MoE-ракета

OpenAI наконец-то показала карты: их open-source флагман GPT-OSS 20B — это Mixture of Experts (MoE) на стероидах. Быстрее, умнее, контекстнее. Но не без косяков.

Что интересного:
☹️ MoE + FlashAttention 3 + MXFP4 квантизация = бешеная скорость в своем классе.
☹️ Контекст 256K по схеме RoPE + Sliding Window — глобальные связи + локальная скорость. Не full context, а умный гибрид (схемы гуглите!).
☹️ Заточка под агентов и код: Метрики в районе o4-mini, но с упором на CoT, Tool Calling, JSON, Structured Output. Идеально для пайплайнов.
☹️ Публичные MoE LoRA-тюны! Наконец-то можно кастомизировать без боли.


Где собака зарылась:
☹️ Требует топовое железо: vLLM/Ollama/HF API есть, но запуск на старых картах — боль. Готовьтесь к RTX 3090 или A100.
☹️ Токсичный позитив: Английские ответы слишком жизнерадостные (ладно, "токсично-жизнерадостные") и водянистые. Лаконичность — не её конёк.


Хотите гонять GPT-OSS 20B без апгрейда железа?
Арендуйте сервер с A100 или RTX 3090 в Интелион Облако. Посекундная оплата, мгновенный доступ, никаких танцев с тикетами.
Сохраняйте образы бесплатно — тюньте MoE-LoRA хоть 24/7.
#OpenAI #OpenSource #нейросети #LLM

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥21😁1