Pavel Zloi
1.29K subscribers
463 photos
42 videos
2 files
721 links
AI/ML, MCP, MLOps, LLM, GPT, GNN, NLP, GCN, Python, AWS, Linux, DevOps

Отправить донат:
https://pay.cloudtips.ru/p/937f48ac

Исходники моих проектов:
https://github.com/EvilFreelancer

Где меня искать:
https://dzen.ru/a/ZGI0ytgNQUkpkIME
Download Telegram
Кстати, чуть не забыл, поздравляю немногочисленных подписчиц канала с 8 марта!
Тут внезапно оказалось, что проект FireCrawl, который позволяет в режиме паука скравлить сайт в коллекцию Markdown-файлов, существует ещё и в self-hosted формате, а я наивно полагал, что есть только закрытая проприетарная версия.

Вот ссылочки с подробностями:
https://docs.firecrawl.dev/contributing/self-host
https://github.com/mendableai/firecrawl/blob/main/SELF_HOST.md
Пробую тут приобщиться к новой фиче от ChatGPT прося её перерисовать некоторые мемы в формат советских плакатов.
Сегодня ко мне приехала вторая Intel Arc A770 на 16Гб, так что я скоро смогу попробовать запустить распределенное обучение через impruver.

Планирую поставить её в сервер gpu01, на нем сейчас Nvidia 3050 и Intel A770, думаю снять 3050 и поставить в gpu02 к 4090 помощницей, а на gpu01 будет две A770.

В общем вечером будет чем заняться.

#server #intel
С большим удовольствием прочёл публикацию "Моделирование экономического поведения с использованием LLM: сравнение моделей в кейнсианском конкурсе красоты" за авторством Петра Паршакова из ВШЭ с которым некоторое время назад мне довелось поработать над одним любопытным проектом.

Но вернёмся к публикации, в ней описывается экономический эксперимент под названием "кейнсианский конкурс красоты", а так же производится сравнение того как его проходили люди с тем как его проходят большие языковые модели (LLM).

На мой скромный взгляд в списке проанализированных моделей мне было бы интересно увидеть не только представленные модели, но и некоторые другие, например gpt-4o и gpt-o1, а так же deepseek-v3 (старая и новая), а так же v2, плюс любопытно повторить тест на отечественных моделях типа gigachat, yandexgpt, t-pro и t-lite.

Но в целом для первой публикации на Хабр очень хорошо.
Forwarded from Хабр / ML & AI
Открываем instruct-версию YandexGPT 5 Lite

Недавно мы выложили в открытый доступ pretrain-версию модели YandexGPT 5 Lite, обученную нами с помощью технологий Яндекса и без применения каких-либо сторонних моделей. За прошедший месяц в сообществе её скачали более 15 тысяч раз, на её основе создали больше десятка квантизованных моделей и даже дообучили instruct-версии. 

Тем не менее мы видим большой интерес к instruct-версии Яндекса, поэтому сегодня выкладываем её в открытый доступ. В том числе — в совместимом с llama.cpp формате, о чём нас просили на Хабре. Кроме того, мы обновили лицензионное соглашение для обеих моделей так, чтобы применять её стало возможно в ещё большем числе проектов, в том числе во многих коммерческих проектах. 

Для тех, кто хотел бы попробовать новую модель онлайн, она также доступна для выбора в Чате с Алисой и через API в Yandex Cloud. Читать далее

#яндекс #nlp #yandexgpt #machine_learning #open_source #huggingface | @habr_ai
Не айтишное, но тоже интересное

Сегодня ко мне пришла ещё одна любопытная посылочка, на этот раз я впервые в жизни заказал футболку с принтом музыкального исполнителя (возможно вам известен такой композитор DnB как Venjent).

А сподвиг меня на это мой хороший знакомый, он опубликовал сторис в телеграм с рекламой своего магазина и фотографией этой футболки, в общем отказаться было невозможно.
⚡️ OpenAI сегодня ВЕЧЕРОМ представит GPT-5 — новая модель уже прошла внутреннее тестирование и готова к релизу.

Главные изменения:

Мультимодальность — GPT-5 сможет обрабатывать видео, аудио и изображения в реальном времени.
Автономные действия — ИИ сможет выполнять задачи в интернете без запросов пользователя (платежи, бронирования и т. д.).
Ограничения — некоторые функции будут доступны только по подписке Pro Max.

Что еще известно:
• Первыми доступ получат корпоративные клиенты и разработчики.
• Бесплатная версия останется, но с урезанными возможностями.

⚡️ Подробности — сегодня в 20:00 по МСК.

PS. Поздравляю с 1м апреля!
Решил на днях увеличить количество доступной постоянной памяти для локальных моделей на gpu01.

У меня как-раз был незадействованный nvme на 512гб, только вот без адаптера в сервер его не поставить, так что пару дней сидел выбирал адаптер, и тут вспомнил, что у меня уже есть такой на антресолях.

Полез, достал, собрал, пойду поставлю.

#server
Forwarded from Machinelearning
🦙 Встречайте, дамы и господа, LLaMA 4: новые мультимодальные MoE модели!

Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.

Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.

Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.

Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн

У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.

Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.

На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,

🟡 Model Card
🟡 Веса
🟡 Релиз

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Изучил отчёт тестирования llama 4 и сравнил с llama 3.3.

Основной упор в тестах llama 4 сделан в сторону работы с изображениям и есть гипотеза, что авторы в принципе не проводили тесты работы с текстом, либо провели и они плохие, поэтому в отчёте их не показали.

Ещё забавно, что модель Behemoth нельзя скачать даже на huggingface, так что на результаты тестов данной модели я бы пока смотрел через призму поэзии.
RAG это call, теперь официально

При контексте 10M токенов есть мнение, что RAG (в классическом смысле: ретривер из векторной базы и ллм) в скором времени станет очень специализированной технологией для узкого спектра задач.

А учитывая тенденцию на постоянный рост максимального контекста вероятно и вовсе исчезнет из повестки.
Поставил плашку с NVME в материнку (зеленая лампочка справа снизу) и между делом докинул пару вентиляторов корпусных на 120мм, через реобас подтюнил скорость вращения чтобы не шумело и теперь полезу ставить эту коробку на антресоль.

А на следующей неделе запущу на нем один публичный проект, о чем отдельно сообщу.

#server
Запустить обучение Nvidia Canary 180M Flash на моей RTX 4090 было тем ещё приключением.

Причина: посредственная документация проекта NeMo, через который реализованы скрипты обучения.

Вывод: пишите документацию, будьте профессионалами.
Тут главное не перепутать #meme
Прослушал курс про LangGraph от создателей LangChain

Недавно завершил обучение по курсу "Introduction to LangGraph" от команды разработчиков LangChain. Это отличный ресурс для тех, кто хочет продавать свои флоу под видом модных агентских систем, но пока ещё не знает как их делать.

В курсе подробно рассматриваются следующие темы:
- Построение сложных структур с использованием множества инструментов.
- Реализация операций выбора для передачи данных.
- Работа с короткосрочной и долгосрочной памятью.
- Интеракция с пользователем.

Курс рассчитан на 6 часов, но если проходить его, как я, по часу в день, то можно управиться за неделю.