Artificial Intelion | Новости ИИ
2.19K subscribers
217 photos
11 videos
1 file
276 links
Самое интересное про ИИ.
Новости AI и ML для бизнеса.
Изучаем, тестируем, рекомендуем

Аренда серверов: https://intelion.cloud/tg

Обратная связь: @IntelionCloud или по email ai@intelion.cloud
Download Telegram
💲 Сколько на самом деле зарабатывают айтишники? Что предлагает рынок труда для Data Science прямо сейчас?

Для всех, кого интересует эти непростые вопросы - публикуем на нашем сайте экспертную статью с анализом большой (более 5К объявлений о вакансиях) репрезентативной выборки с сайта Head Hunter, ознакомившись с которой вы сможете узнать:

- На какой возраст и опыт ориентировано большинство вакансий?
- Насколько сильна связь между опытом и уровнем должности?
- Сколько реально готовы платить работодатели на каждом уровне?
- Какие специфические запросы существуют на рынке?
- Что по удаленке?
- Что по релокации?
- И много других интересных фактов.

Подчеркнем: именно фактов, а не мнений, поскольку в таком важном деле как оценка рынка легко впасть в ересь и начать раздавать советы, ориентируясь на опыт сына маминой подруги. 🧐

👨‍💻 Мы действовали иначе: вооружили ML-разработчика компании "Интелион Облако" Алана Насибуллина его же ML-разработками и отправили изучать Head Hunter.

Результаты - в статье, похвастаться высоким доходом или пожаловаться на зарплату - в комменты!
#ML #DataScience #marketing #IntelionCloudAI

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🔥4
Как посчитать VRAM для LLM: гайд, который сэкономит вам кучу времени (и денег)

Вы запускаете нейросеть, всё готово — и…
CUDA out of memory. Знакомо?

Мы написали подробный, но простой гайд о том, как рассчитать, сколько VRAM реально нужно для запуска больших языковых моделей (LLM).

Для кого статья:
☹️ Data Scientists, которые экспериментируют с LLaMA, Mistral и другими LLM
☹️ ML-инженеры и те, кто fine-tune'ит модели под узкие задачи
☹️ Стартаперы, планирующие MVP с нейросетями
☹️ Руководители команд, которым надо понимать — почему 40 GB может не хватить


Что внутри:
☹️ Формула расчёта VRAM (с примерами и пояснениями)
☹️ Разбор моделей на 7B, 13B и 70B параметров
☹️ Влияние квантизации (FP16 vs INT8 vs INT4)
☹️ Способы экономии: LoRA, градиентный чекпоинт, параллелизм
☹️ Когда выгоднее арендовать сервер с GPU, а не покупать
☹️ Python-скрипты и калькуляторы, чтобы не считать вручную


Если вы работаете с моделями машинного обучения или просто планируете свой AI-продукт — прочитайте этот гайд до того, как выберете сервер. Он избавит от ошибок, сэкономит бюджет и время.

Читать статью 👉 статья
#машинноеобучение #DataScience

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍32