Тут внезапно оказалось, что проект FireCrawl, который позволяет в режиме паука скравлить сайт в коллекцию Markdown-файлов, существует ещё и в self-hosted формате, а я наивно полагал, что есть только закрытая проприетарная версия.
Вот ссылочки с подробностями:
https://docs.firecrawl.dev/contributing/self-host
https://github.com/mendableai/firecrawl/blob/main/SELF_HOST.md
Вот ссылочки с подробностями:
https://docs.firecrawl.dev/contributing/self-host
https://github.com/mendableai/firecrawl/blob/main/SELF_HOST.md
Firecrawl
Turn any website into LLM-ready data.
Пробую тут приобщиться к новой фиче от ChatGPT прося её перерисовать некоторые мемы в формат советских плакатов.
Сегодня ко мне приехала вторая Intel Arc A770 на 16Гб, так что я скоро смогу попробовать запустить распределенное обучение через impruver.
Планирую поставить её в сервер gpu01, на нем сейчас Nvidia 3050 и Intel A770, думаю снять 3050 и поставить в gpu02 к 4090 помощницей, а на gpu01 будет две A770.
В общем вечером будет чем заняться.
#server #intel
Планирую поставить её в сервер gpu01, на нем сейчас Nvidia 3050 и Intel A770, думаю снять 3050 и поставить в gpu02 к 4090 помощницей, а на gpu01 будет две A770.
В общем вечером будет чем заняться.
#server #intel
С большим удовольствием прочёл публикацию "Моделирование экономического поведения с использованием LLM: сравнение моделей в кейнсианском конкурсе красоты" за авторством Петра Паршакова из ВШЭ с которым некоторое время назад мне довелось поработать над одним любопытным проектом.
Но вернёмся к публикации, в ней описывается экономический эксперимент под названием "кейнсианский конкурс красоты", а так же производится сравнение того как его проходили люди с тем как его проходят большие языковые модели (LLM).
На мой скромный взгляд в списке проанализированных моделей мне было бы интересно увидеть не только представленные модели, но и некоторые другие, например gpt-4o и gpt-o1, а так же deepseek-v3 (старая и новая), а так же v2, плюс любопытно повторить тест на отечественных моделях типа gigachat, yandexgpt, t-pro и t-lite.
Но в целом для первой публикации на Хабр очень хорошо.
Но вернёмся к публикации, в ней описывается экономический эксперимент под названием "кейнсианский конкурс красоты", а так же производится сравнение того как его проходили люди с тем как его проходят большие языковые модели (LLM).
На мой скромный взгляд в списке проанализированных моделей мне было бы интересно увидеть не только представленные модели, но и некоторые другие, например gpt-4o и gpt-o1, а так же deepseek-v3 (старая и новая), а так же v2, плюс любопытно повторить тест на отечественных моделях типа gigachat, yandexgpt, t-pro и t-lite.
Но в целом для первой публикации на Хабр очень хорошо.
Telegram
Петр Паршаков | Across The Tidyverse
Выложил первый пост на Хабре, заходите!
https://habr.com/ru/articles/894698/
https://habr.com/ru/articles/894698/
Forwarded from Хабр / ML & AI
Открываем instruct-версию YandexGPT 5 Lite
Недавно мы выложили в открытый доступ pretrain-версию модели YandexGPT 5 Lite, обученную нами с помощью технологий Яндекса и без применения каких-либо сторонних моделей. За прошедший месяц в сообществе её скачали более 15 тысяч раз, на её основе создали больше десятка квантизованных моделей и даже дообучили instruct-версии.
Тем не менее мы видим большой интерес к instruct-версии Яндекса, поэтому сегодня выкладываем её в открытый доступ. В том числе — в совместимом с llama.cpp формате, о чём нас просили на Хабре. Кроме того, мы обновили лицензионное соглашение для обеих моделей так, чтобы применять её стало возможно в ещё большем числе проектов, в том числе во многих коммерческих проектах.
Для тех, кто хотел бы попробовать новую модель онлайн, она также доступна для выбора в Чате с Алисой и через API в Yandex Cloud. Читать далее
#яндекс #nlp #yandexgpt #machine_learning #open_source #huggingface | @habr_ai
Недавно мы выложили в открытый доступ pretrain-версию модели YandexGPT 5 Lite, обученную нами с помощью технологий Яндекса и без применения каких-либо сторонних моделей. За прошедший месяц в сообществе её скачали более 15 тысяч раз, на её основе создали больше десятка квантизованных моделей и даже дообучили instruct-версии.
Тем не менее мы видим большой интерес к instruct-версии Яндекса, поэтому сегодня выкладываем её в открытый доступ. В том числе — в совместимом с llama.cpp формате, о чём нас просили на Хабре. Кроме того, мы обновили лицензионное соглашение для обеих моделей так, чтобы применять её стало возможно в ещё большем числе проектов, в том числе во многих коммерческих проектах.
Для тех, кто хотел бы попробовать новую модель онлайн, она также доступна для выбора в Чате с Алисой и через API в Yandex Cloud. Читать далее
#яндекс #nlp #yandexgpt #machine_learning #open_source #huggingface | @habr_ai
Хабр
Открываем instruct-версию YandexGPT 5 Lite
Недавно мы выложили в открытый доступ pretrain-версию модели YandexGPT 5 Lite, обученную нами с помощью технологий Яндекса и без применения каких-либо сторонних моделей. За прошедший месяц в...
Не айтишное, но тоже интересное
Сегодня ко мне пришла ещё одна любопытная посылочка, на этот раз я впервые в жизни заказал футболку с принтом музыкального исполнителя (возможно вам известен такой композитор DnB как Venjent).
А сподвиг меня на это мой хороший знакомый, он опубликовал сторис в телеграм с рекламой своего магазина и фотографией этой футболки, в общем отказаться было невозможно.
Сегодня ко мне пришла ещё одна любопытная посылочка, на этот раз я впервые в жизни заказал футболку с принтом музыкального исполнителя (возможно вам известен такой композитор DnB как Venjent).
А сподвиг меня на это мой хороший знакомый, он опубликовал сторис в телеграм с рекламой своего магазина и фотографией этой футболки, в общем отказаться было невозможно.
⚡️ OpenAI сегодня ВЕЧЕРОМ представит GPT-5 — новая модель уже прошла внутреннее тестирование и готова к релизу.
Главные изменения:
• Мультимодальность — GPT-5 сможет обрабатывать видео, аудио и изображения в реальном времени.
• Автономные действия — ИИ сможет выполнять задачи в интернете без запросов пользователя (платежи, бронирования и т. д.).
• Ограничения — некоторые функции будут доступны только по подписке Pro Max.
Что еще известно:
• Первыми доступ получат корпоративные клиенты и разработчики.
• Бесплатная версия останется, но с урезанными возможностями.
⚡️ Подробности — сегодня в 20:00 по МСК.
PS. Поздравляю с 1м апреля!
Главные изменения:
• Мультимодальность — GPT-5 сможет обрабатывать видео, аудио и изображения в реальном времени.
• Автономные действия — ИИ сможет выполнять задачи в интернете без запросов пользователя (платежи, бронирования и т. д.).
• Ограничения — некоторые функции будут доступны только по подписке Pro Max.
Что еще известно:
• Первыми доступ получат корпоративные клиенты и разработчики.
• Бесплатная версия останется, но с урезанными возможностями.
⚡️ Подробности — сегодня в 20:00 по МСК.
Решил на днях увеличить количество доступной постоянной памяти для локальных моделей на gpu01.
У меня как-раз был незадействованный nvme на 512гб, только вот без адаптера в сервер его не поставить, так что пару дней сидел выбирал адаптер, и тут вспомнил, что у меня уже есть такой на антресолях.
Полез, достал, собрал, пойду поставлю.
#server
У меня как-раз был незадействованный nvme на 512гб, только вот без адаптера в сервер его не поставить, так что пару дней сидел выбирал адаптер, и тут вспомнил, что у меня уже есть такой на антресолях.
Полез, достал, собрал, пойду поставлю.
#server
Forwarded from Machinelearning
🦙 Встречайте, дамы и господа, LLaMA 4: новые мультимодальные MoE модели!
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.
Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.
Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн
У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.
Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.
На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,
🟡 Model Card
🟡 Веса
🟡 Релиз
@ai_machinelearning_big_data
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.
Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.
Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн
У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.
Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.
На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Изучил отчёт тестирования llama 4 и сравнил с llama 3.3.
Основной упор в тестах llama 4 сделан в сторону работы с изображениям и есть гипотеза, что авторы в принципе не проводили тесты работы с текстом, либо провели и они плохие, поэтому в отчёте их не показали.
Ещё забавно, что модель Behemoth нельзя скачать даже на huggingface, так что на результаты тестов данной модели я бы пока смотрел через призму поэзии.
Основной упор в тестах llama 4 сделан в сторону работы с изображениям и есть гипотеза, что авторы в принципе не проводили тесты работы с текстом, либо провели и они плохие, поэтому в отчёте их не показали.
Ещё забавно, что модель Behemoth нельзя скачать даже на huggingface, так что на результаты тестов данной модели я бы пока смотрел через призму поэзии.
RAG это call, теперь официально
При контексте 10M токенов есть мнение, что RAG(в классическом смысле: ретривер из векторной базы и ллм) в скором времени станет очень специализированной технологией для узкого спектра задач.
А учитывая тенденцию на постоянный рост максимального контекста вероятно и вовсе исчезнет из повестки.
При контексте 10M токенов есть мнение, что RAG
А учитывая тенденцию на постоянный рост максимального контекста вероятно и вовсе исчезнет из повестки.
Поставил плашку с NVME в материнку (зеленая лампочка справа снизу) и между делом докинул пару вентиляторов корпусных на 120мм, через реобас подтюнил скорость вращения чтобы не шумело и теперь полезу ставить эту коробку на антресоль.
А на следующей неделе запущу на нем один публичный проект, о чем отдельно сообщу.
#server
А на следующей неделе запущу на нем один публичный проект, о чем отдельно сообщу.
#server
Запустить обучение Nvidia Canary 180M Flash на моей RTX 4090 было тем ещё приключением.
Причина: посредственная документация проекта NeMo, через который реализованы скрипты обучения.
Вывод: пишите документацию, будьте профессионалами.
Причина: посредственная документация проекта NeMo, через который реализованы скрипты обучения.
Вывод: пишите документацию, будьте профессионалами.
Прослушал курс про LangGraph от создателей LangChain
Недавно завершил обучение по курсу "Introduction to LangGraph" от команды разработчиков LangChain. Это отличный ресурс для тех, кто хочет продавать свои флоу под видом модных агентских систем, но пока ещё не знает как их делать.
В курсе подробно рассматриваются следующие темы:
- Построение сложных структур с использованием множества инструментов.
- Реализация операций выбора для передачи данных.
- Работа с короткосрочной и долгосрочной памятью.
- Интеракция с пользователем.
Курс рассчитан на 6 часов, но если проходить его, как я, по часу в день, то можно управиться за неделю.
Недавно завершил обучение по курсу "Introduction to LangGraph" от команды разработчиков LangChain. Это отличный ресурс для тех, кто хочет продавать свои флоу под видом модных агентских систем, но пока ещё не знает как их делать.
В курсе подробно рассматриваются следующие темы:
- Построение сложных структур с использованием множества инструментов.
- Реализация операций выбора для передачи данных.
- Работа с короткосрочной и долгосрочной памятью.
- Интеракция с пользователем.
Курс рассчитан на 6 часов, но если проходить его, как я, по часу в день, то можно управиться за неделю.
LangChain Academy
Introduction to LangGraph
Learn the basics of LangGraph - our framework for building agentic and multi-agent applications. Separate from the LangChain package, LangGraph helps developers add better precision and control into agentic workflows.