HuggingFace объединяет ведущих провайдеров облачного инференса
Облачный инференс от разных провайдеров теперь можно запускать через единый интерфейс Hub.
Доступны сервисы AWS, Nvidia, SambaNova и Replicate с гибкой тарификацией.
Подключение реализовано через REST API, поддерживающий OpenAI-совместимые клиенты.
Функционал включает генерацию изображений и работу с языковыми моделями.
Зарегистрированным пользователям доступна базовая бесплатная квота.
Оплата производится напрямую провайдерам без дополнительных комиссий.
Теперь не нужно держать аккаунты у всех провайдеров - достаточно одного в HuggingFace 😎
#HuggingFace #gate #inference
-------
@tsingular
Облачный инференс от разных провайдеров теперь можно запускать через единый интерфейс Hub.
Доступны сервисы AWS, Nvidia, SambaNova и Replicate с гибкой тарификацией.
Подключение реализовано через REST API, поддерживающий OpenAI-совместимые клиенты.
Функционал включает генерацию изображений и работу с языковыми моделями.
Зарегистрированным пользователям доступна базовая бесплатная квота.
Оплата производится напрямую провайдерам без дополнительных комиссий.
Теперь не нужно держать аккаунты у всех провайдеров - достаточно одного в HuggingFace 😎
#HuggingFace #gate #inference
-------
@tsingular
👍6🔥2🤯2
CEO Anthropic - Dario Amodei в своём блоге разобрал ситуацию с DeepSeek.
Анатомия прорыва: как устроена DeepSeek
DeepSeek реализовала свой прорыв в два этапа. Первый — модель V3, выпущенная в конце 2024 года — стал настоящей инженерной победой.
Два ключевых компонента:
Key-Value cache: инженеры DeepSeek нашли способ более эффективного управления памятью, что существенно снизило вычислительные затраты
Mixture of Experts: технология, позволяющая модели динамически выбирать оптимальный "набор экспертов" для каждой задачи, была доведена до нового уровня эффективности
Результат? Модель, обучение которой обошлось всего в $6 млн, достигла уровня производительности, сопоставимого с западными системами 7-10 месячной давности. Для сравнения: Claude 3.5 Sonnet, обученный примерно год назад, обошелся Anthropic в "несколько десятков миллионов долларов".
Железный фундамент: о чем молчат заголовки
Однако простое сравнение стоимости обучения не корректное. За кулисами DeepSeek располагает впечатляющей инфраструктурой:
50,000 чипов трех типов:
- NVIDIA H100 (топовые чипы, полученные до запрета)
- H800 (закуплены до октябрьского запрета 2023)
- H20 (все еще доступны, оптимальны для inference)
Общая стоимость этого "железного фундамента" оценивается примерно в $1 млрд — всего в 2-3 раза меньше, чем у знаменитого кластера xAI "Colossus".
Новая парадигма: от "сырой силы" к умному обучению
Второй этап — модель R1 — демонстрирует смену парадигмы в обучении LLM. Вместо простого наращивания вычислительной мощности, DeepSeek (как и другие лидеры отрасли) делает ставку на двухэтапный подход:
1. Базовое предобучение на больших данных (pre-training)
2. Специализированное обучение с подкреплением (RL) для развития навыков рассуждения
Этот подход позволяет достичь впечатляющих результатов в таких областях как:
- Решение математических задач
- Программирование
- Логические головоломки
- Chain-of-thought reasoning
Что особенно интересно, сейчас мы находимся в уникальной точке развития этой технологии: даже относительно небольшие инвестиции в RL-обучение (порядка $1 млн) дают значительный прирост производительности.
Масштаб имеет значение: законы роста
Исследования показывают четкую закономерность в развитии LLM:
- Модель за $1 млн решает около 20% ключевых задач
- За $10 млн — уже 40%
- За $100 млн — достигает 60%
При этом каждый такой шаг не просто количественный — он означает качественный скачок, сравнимый с разницей между уровнем бакалавра и PhD в конкретной области.
Что дальше: горизонт 2026-2027
Несмотря на все оптимизации и прорывы, общий тренд индустрии остается неизменным: создание по-настоящему продвинутых систем будет требовать все больших ресурсов. Эксперты прогнозируют, что к 2026-2027 годам для достижения уровня "экспертной" AI потребуется:
- Миллионы специализированных чипов
- Десятки миллиардов долларов инвестиций
- Прорывы в:
- Управлении памятью
- Сетевых подсистемах
- Распределенном обучении
При этом каждое повышение эффективности (сейчас — примерно 4x в год против 1.68x в 2020) не снижает общих затрат, а лишь позволяет создавать еще более мощные системы за те же деньги.
Настоящая цена прогресса
История DeepSeek показывает: в мире AI за каждым "чудом эффективности" стоят:
- Годы исследований
- Миллиарды долларов инвестиций в инфраструктуру
- Прорывные инженерные решения
При этом Claude 3.5 Sonnet, обученный 9-12 месяцев назад, до сих пор превосходит DeepSeek в ряде ключевых задач, особенно в разработке кода, несмотря на 10-кратное снижение стоимости inference по сравнению с GPT-4.
Рекомендую, конечно, прочитать целиком.
#Anthropic
———
@tsingular
Анатомия прорыва: как устроена DeepSeek
DeepSeek реализовала свой прорыв в два этапа. Первый — модель V3, выпущенная в конце 2024 года — стал настоящей инженерной победой.
Два ключевых компонента:
Key-Value cache: инженеры DeepSeek нашли способ более эффективного управления памятью, что существенно снизило вычислительные затраты
Mixture of Experts: технология, позволяющая модели динамически выбирать оптимальный "набор экспертов" для каждой задачи, была доведена до нового уровня эффективности
Результат? Модель, обучение которой обошлось всего в $6 млн, достигла уровня производительности, сопоставимого с западными системами 7-10 месячной давности. Для сравнения: Claude 3.5 Sonnet, обученный примерно год назад, обошелся Anthropic в "несколько десятков миллионов долларов".
Железный фундамент: о чем молчат заголовки
Однако простое сравнение стоимости обучения не корректное. За кулисами DeepSeek располагает впечатляющей инфраструктурой:
50,000 чипов трех типов:
- NVIDIA H100 (топовые чипы, полученные до запрета)
- H800 (закуплены до октябрьского запрета 2023)
- H20 (все еще доступны, оптимальны для inference)
Общая стоимость этого "железного фундамента" оценивается примерно в $1 млрд — всего в 2-3 раза меньше, чем у знаменитого кластера xAI "Colossus".
Новая парадигма: от "сырой силы" к умному обучению
Второй этап — модель R1 — демонстрирует смену парадигмы в обучении LLM. Вместо простого наращивания вычислительной мощности, DeepSeek (как и другие лидеры отрасли) делает ставку на двухэтапный подход:
1. Базовое предобучение на больших данных (pre-training)
2. Специализированное обучение с подкреплением (RL) для развития навыков рассуждения
Этот подход позволяет достичь впечатляющих результатов в таких областях как:
- Решение математических задач
- Программирование
- Логические головоломки
- Chain-of-thought reasoning
Что особенно интересно, сейчас мы находимся в уникальной точке развития этой технологии: даже относительно небольшие инвестиции в RL-обучение (порядка $1 млн) дают значительный прирост производительности.
Масштаб имеет значение: законы роста
Исследования показывают четкую закономерность в развитии LLM:
- Модель за $1 млн решает около 20% ключевых задач
- За $10 млн — уже 40%
- За $100 млн — достигает 60%
При этом каждый такой шаг не просто количественный — он означает качественный скачок, сравнимый с разницей между уровнем бакалавра и PhD в конкретной области.
Что дальше: горизонт 2026-2027
Несмотря на все оптимизации и прорывы, общий тренд индустрии остается неизменным: создание по-настоящему продвинутых систем будет требовать все больших ресурсов. Эксперты прогнозируют, что к 2026-2027 годам для достижения уровня "экспертной" AI потребуется:
- Миллионы специализированных чипов
- Десятки миллиардов долларов инвестиций
- Прорывы в:
- Управлении памятью
- Сетевых подсистемах
- Распределенном обучении
При этом каждое повышение эффективности (сейчас — примерно 4x в год против 1.68x в 2020) не снижает общих затрат, а лишь позволяет создавать еще более мощные системы за те же деньги.
Настоящая цена прогресса
История DeepSeek показывает: в мире AI за каждым "чудом эффективности" стоят:
- Годы исследований
- Миллиарды долларов инвестиций в инфраструктуру
- Прорывные инженерные решения
При этом Claude 3.5 Sonnet, обученный 9-12 месяцев назад, до сих пор превосходит DeepSeek в ряде ключевых задач, особенно в разработке кода, несмотря на 10-кратное снижение стоимости inference по сравнению с GPT-4.
Рекомендую, конечно, прочитать целиком.
#Anthropic
———
@tsingular
👍20🤔4
DeepSeek взломали
Специалисты Wiz Research выявили незащищенную базу ClickHouse китайского ИИ-стартапа DeepSeek.
Обнаруженный сервер содержал миллионы записей, включая истории чатов, API-ключи и внутренние логи.
Уязвимые порты 8123 и 9000 предоставляли полный контроль над БД без аутентификации.
После оперативного уведомления компания быстро закрыла доступ к серверу.
Когда погоня за технологиями опережает базовую кибергигиену. 🔓
#DeepSeek #ClickHouse #Cybersecurity
-------
@tsingular
Специалисты Wiz Research выявили незащищенную базу ClickHouse китайского ИИ-стартапа DeepSeek.
Обнаруженный сервер содержал миллионы записей, включая истории чатов, API-ключи и внутренние логи.
Уязвимые порты 8123 и 9000 предоставляли полный контроль над БД без аутентификации.
После оперативного уведомления компания быстро закрыла доступ к серверу.
Когда погоня за технологиями опережает базовую кибергигиену. 🔓
#DeepSeek #ClickHouse #Cybersecurity
-------
@tsingular
😢13👀5🔥2
DeepSeek R1 теперь доступна на Azure и AWS Bedrock
DeepSeek R1 интегрируется в ведущие облачные платформы и теперь доступен не только из Китая.
Модель существует в двух версиях: 8B и 70B.
Меньшая версия сохраняет до 92% функционала при значительной экономии ресурсов.
Развертывание осуществляется через serverless инфраструктуру с автомасштабированием и защитой от MS и AWS, что, по идее, не позволит повториться инциденту с уязвимостями.
Azure
AWS
и раньше писал про Groq
#DeepSeek #Microsoft #AWS
———
@tsingular
DeepSeek R1 интегрируется в ведущие облачные платформы и теперь доступен не только из Китая.
Модель существует в двух версиях: 8B и 70B.
Меньшая версия сохраняет до 92% функционала при значительной экономии ресурсов.
Развертывание осуществляется через serverless инфраструктуру с автомасштабированием и защитой от MS и AWS, что, по идее, не позволит повториться инциденту с уязвимостями.
Azure
AWS
и раньше писал про Groq
#DeepSeek #Microsoft #AWS
———
@tsingular
🔥7
В части взлома цензуры DeepSeek.
Простой метод так то, но сработал.
Народ с Реддита попросил рассказать о событиях, которые попадают под китайскую цензуру заменив буквы O на 0, A на 4 и Е на 3.
Для человека читабельно, для скриптов, - не особо.
К старому уже тезису, что цензурить ИИ нужно с помощью ИИ, а не скриптов.
Тут, кстати, помогут малые быстрые модели специально дообученные.
Ну и на русском отвечает спокойно про любые темы, так что "русский учите, - пригодится", а фильтры цензора у них похоже просто на англоязычных скриптах.
#jailbreak
———
@tsingular
Простой метод так то, но сработал.
Народ с Реддита попросил рассказать о событиях, которые попадают под китайскую цензуру заменив буквы O на 0, A на 4 и Е на 3.
Для человека читабельно, для скриптов, - не особо.
К старому уже тезису, что цензурить ИИ нужно с помощью ИИ, а не скриптов.
Тут, кстати, помогут малые быстрые модели специально дообученные.
Ну и на русском отвечает спокойно про любые темы, так что "русский учите, - пригодится", а фильтры цензора у них похоже просто на англоязычных скриптах.
#jailbreak
———
@tsingular
😁11✍4👍2
В слайды презентаций про ИИ автоматизацию :)
А накидайте в комментах, может у вас тоже есть прикольные ?
#мемы #юмор
———
@tsingular
А накидайте в комментах, может у вас тоже есть прикольные ?
#мемы #юмор
———
@tsingular
👍9🆒4⚡1🔥1
NVIDIA DLI: бесплатное обучение ИИ с сертификацией
Deep Learning Institute предоставил комплексный бесплатный образовательный пакет для специалистов по машинному обучению.
Программа включает практические лаборатории с профессиональными графическими ускорителями.
Участники получают сертификаты, подтверждающие освоение нейросетевых технологий.
Курсы содержат реальные проекты с актуальными наборами данных.
Особенность обучения - гибкий график и бесплатный доступ к учебным материалам от экспертов корпорации.
Для всех, кто знает английский и математику.
Я, вот, решил про RAG пройти в первую очередь. 4 часа всего.
Для работы понадобится VPN
#NVIDIA #DLI #обучение
———
@tsingular
Deep Learning Institute предоставил комплексный бесплатный образовательный пакет для специалистов по машинному обучению.
Программа включает практические лаборатории с профессиональными графическими ускорителями.
Участники получают сертификаты, подтверждающие освоение нейросетевых технологий.
Курсы содержат реальные проекты с актуальными наборами данных.
Особенность обучения - гибкий график и бесплатный доступ к учебным материалам от экспертов корпорации.
Для всех, кто знает английский и математику.
Я, вот, решил про RAG пройти в первую очередь. 4 часа всего.
Для работы понадобится VPN
#NVIDIA #DLI #обучение
———
@tsingular
👍8🔥4✍1
Forwarded from эйай ньюз
Опенсорс Suno🤡 🤡 🤡
Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.
К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB RAM, ну и, в теории, 4090 тоже может осилить.
Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)
Модели на HF
Project page
GitHub
@ai_newz
Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.
К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB RAM, ну и, в теории, 4090 тоже может осилить.
Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)
Модели на HF
Project page
GitHub
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
Писатели США запускают «антиИИ» сертификацию книг
Гильдия Авторов США создала систему маркировки Human Authored для произведений, написанных людьми.
Инициатива включает публичный реестр верифицированных работ и специальную маркировку на обложках изданий.
Проект стартует для членов Гильдии с индивидуальными публикациями, позже охватит соавторства.
Допускается использование нейросетей лишь для корректуры и проверки орфографии.
Контроль основан на самодекларации с возможностью юридических последствий за фальсификацию.
Отличный повод для писателей-людей поднять цены на свои книги. Скоро появятся NFT для текстов? :)
#AuthorsGuild #HumanAuthored #BookCertification
-------
@tsingular
Гильдия Авторов США создала систему маркировки Human Authored для произведений, написанных людьми.
Инициатива включает публичный реестр верифицированных работ и специальную маркировку на обложках изданий.
Проект стартует для членов Гильдии с индивидуальными публикациями, позже охватит соавторства.
Допускается использование нейросетей лишь для корректуры и проверки орфографии.
Контроль основан на самодекларации с возможностью юридических последствий за фальсификацию.
Отличный повод для писателей-людей поднять цены на свои книги. Скоро появятся NFT для текстов? :)
#AuthorsGuild #HumanAuthored #BookCertification
-------
@tsingular
😁7🔥3👍2🤣1
В ChatGPT 4o завезли DeepThink :)
Сразу после утечки у DeepSeek
Просто совпало :)
#openai #deepseek
———
@tsingular
Просто совпало :)
#openai #deepseek
———
@tsingular
🤣6✍4👍2
Французы проснулись.
Но, судя по бенчам, как-то не до конца.
https://t.me/ai_newz/3655
#Mistral
———
@tsingular
Но, судя по бенчам, как-то не до конца.
24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.
Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.
https://t.me/ai_newz/3655
#Mistral
———
@tsingular
Time Bandit: Темпоральная уязвимость ChatGPT обходит защиту
Специалист по безопасности Дэвид Кушмар обнаружил критическую брешь в системе защиты ChatGPT.
Уязвимость эксплуатирует неспособность нейросети точно определять временной контекст, смешивая исторические периоды.
Манипуляция историческими данными позволяет получать доступ к закрытой информации о создании вредоносного ПО и оружия.
OpenAI подтвердила проблему, частично внедрила защитные механизмы, но полное решение пока не реализовано.
Исследователь уведомил CISA, ФБР и другие агентства через CERT Coordination Center.
В следующий раз спрашивайте ChatGPT о рецепте динамита в контексте 1866 года - года его изобретения. Хотя, нет, не спрашивайте... 🤔
#TimebanditJailbreak #OpenAI #ChatGPT
-------
@tsingular
Специалист по безопасности Дэвид Кушмар обнаружил критическую брешь в системе защиты ChatGPT.
Уязвимость эксплуатирует неспособность нейросети точно определять временной контекст, смешивая исторические периоды.
Манипуляция историческими данными позволяет получать доступ к закрытой информации о создании вредоносного ПО и оружия.
OpenAI подтвердила проблему, частично внедрила защитные механизмы, но полное решение пока не реализовано.
Исследователь уведомил CISA, ФБР и другие агентства через CERT Coordination Center.
В следующий раз спрашивайте ChatGPT о рецепте динамита в контексте 1866 года - года его изобретения. Хотя, нет, не спрашивайте... 🤔
#TimebanditJailbreak #OpenAI #ChatGPT
-------
@tsingular
✍6👨💻2👻1
Microsoft открыл бесплатный доступ к модели o1 в Copilot
Продвинутая функция анализа Think Deeper, ранее доступная только премиум-клиентам, стала общедоступной.
Технология, требующая около 30 секунд на обработку запроса, позволяет решать комплексные задачи, включая:
- многосторонний анализ проблем
- пошаговое планирование
- создание программного кода
- сравнительную оценку вариантов
Мустафа Сулейман, глава Microsoft AI, анонсировал обновление через LinkedIn, подчеркнув важность демократизации искусственного интеллекта.
Как DS всех подстегнул-то!
Теперь школьники смогут генерировать домашку за 30 секунд, а программисты - писать код без Stack Overflow 🎓
#Microsoft #Copilot #ThinkDeeper
-------
@tsingular
Продвинутая функция анализа Think Deeper, ранее доступная только премиум-клиентам, стала общедоступной.
Технология, требующая около 30 секунд на обработку запроса, позволяет решать комплексные задачи, включая:
- многосторонний анализ проблем
- пошаговое планирование
- создание программного кода
- сравнительную оценку вариантов
Мустафа Сулейман, глава Microsoft AI, анонсировал обновление через LinkedIn, подчеркнув важность демократизации искусственного интеллекта.
Как DS всех подстегнул-то!
Теперь школьники смогут генерировать домашку за 30 секунд, а программисты - писать код без Stack Overflow 🎓
#Microsoft #Copilot #ThinkDeeper
-------
@tsingular
👍12🔥6❤🔥2
Китайско-российский алгоритм ускоряет GPU Nvidia в 800 раз
Учёные из Шенженьского технологического института (основан Пекинским совместно с МГУ) создали революционный метод оптимизации вычислений на GPU NVIDIA.
Решение оптимизирует перидинамические расчёты, сокращая время моделирования с нескольких суток до считанных минут.
Прорыв позволяет выполнять сложные инженерные симуляции на обычных потребительских видеокартах вместо специализированных суперкомпьютеров.
Технология найдёт применение в проектировании аэрокосмических аппаратов и мостостроении.
Реверс-инжиниринг творит чудеса. 🔍
Это не значит, что ты сможешь запустить сверхумную модель на калькуляторе, но маленькая, предположительно, будет летать очень быстро.
Опять же если это правда окажется, но, вроде, ещё не 1 апреля.
#Nvidia #GPU #Китай #МГУ #реверс
------
@tsingular
Учёные из Шенженьского технологического института (основан Пекинским совместно с МГУ) создали революционный метод оптимизации вычислений на GPU NVIDIA.
Решение оптимизирует перидинамические расчёты, сокращая время моделирования с нескольких суток до считанных минут.
Прорыв позволяет выполнять сложные инженерные симуляции на обычных потребительских видеокартах вместо специализированных суперкомпьютеров.
Технология найдёт применение в проектировании аэрокосмических аппаратов и мостостроении.
Реверс-инжиниринг творит чудеса. 🔍
Это не значит, что ты сможешь запустить сверхумную модель на калькуляторе, но маленькая, предположительно, будет летать очень быстро.
Опять же если это правда окажется, но, вроде, ещё не 1 апреля.
#Nvidia #GPU #Китай #МГУ #реверс
------
@tsingular
🔥12👍1
Forwarded from Семейка продактов (Tatiana Sushchenko)
Буквально вчера Сатья Наделла (CEO Microsoft) козырнул знаниями экономики и упомянул о Парадоксе Джевонса в отношении ИИ.
Кстати, да.
Парадокс Уильяма Джевонса сводится к тому, что когда технический прогресс увеличивает эффективность использования какого-либо ресурса, это приводит не к уменьшению, а к значительному увеличению его потребления. Удивительно это открытие тем, что было сделано в 1865 году на примере угля.
Например, энергосберегающие лампы с одной стороны экономичнее, а с другой, свет выключать совсем перестали.
Дата-центры становятся энергоэффективнее, дешевле, и облако начинают использовать так интенсивно, что энергозатраты только растут.
Согласно текущим мнениям, с ИИ ожидается ровно та же картина. Рост и Рост. Он будет становиться доступнее, и будет приводить к созданию новых рабочих мест, вместо ожидаемого сокращения.
Оптимистичненько. Будем посмотреть.
Таня, [ex-B2B 👩💻]
@productsgossip
Кстати, да.
Парадокс Уильяма Джевонса сводится к тому, что когда технический прогресс увеличивает эффективность использования какого-либо ресурса, это приводит не к уменьшению, а к значительному увеличению его потребления. Удивительно это открытие тем, что было сделано в 1865 году на примере угля.
Например, энергосберегающие лампы с одной стороны экономичнее, а с другой, свет выключать совсем перестали.
Дата-центры становятся энергоэффективнее, дешевле, и облако начинают использовать так интенсивно, что энергозатраты только растут.
Согласно текущим мнениям, с ИИ ожидается ровно та же картина. Рост и Рост. Он будет становиться доступнее, и будет приводить к созданию новых рабочих мест, вместо ожидаемого сокращения.
Оптимистичненько. Будем посмотреть.
Таня, [ex-B2B 👩💻]
@productsgossip
GeekWire
Microsoft CEO says AI use will ‘skyrocket’ with more efficiency amid craze over DeepSeek
(GeekWire FIle Photo / Todd Bishop) In an apparent response to the attention on a new AI model out of China, Microsoft CEO Satya Nadella posted online
✍12👍11😍1
Media is too big
VIEW IN TELEGRAM
🤖 N8N: Как создать своего AI-помощника для автоматизации всего и вся
Нашел крутейший туториал по n8n - платформе для автоматизации, о которой раньше как-то мало говорили. А зря! (спасибо @Dustycopter за подсказку про n8n, а то бы не известно когда взялся за него)
Автор показывает, как создать персонального AI-ассистента (у него это уже 2 версия,- улучшенная), который:
- Управляет календарем (создает встречи, отправляет приглашения)
- Работает с почтой (отправляет/читает письма)
- Ищет информацию через Wikipedia/Hacker News
- Следит за проектами
- Отправляет сообщения в Slack
Самое крутое - архитектура на основе мини-агентов! 🤯
Вместо того чтобы давать одному агенту кучу инструментов (что обычно приводит к путанице), автор создал систему специализированных агентов:
- Email-агент для работы с почтой
- Calendar-агент для календаря
- Research-агент для поиска информации
- Project-агент для управления задачами
Главный агент-руководитель просто решает, кому делегировать задачу. Например: "Так, нужно отправить письмо - это к email-агенту!"
И что особенно порадовало - там есть крутая фича $fromAI для автоматического заполнения параметров. Больше не нужно собирать большой промт для разбора переменных, а можно их вытащить маленькими промптами на входе в компонент. Получается прозрачнее. 🎉
А еще можно подключить векторную базу данных (Pinecone) и научить агента отвечать на вопросы по вашим документам. Идеально для корпоративных политик, FAQ и т.д.
В общем, если интересно пощупать реальное применение AI-агентов - очень советую глянуть. Там даже есть бесплатное комьюнити, где авторы делятся шаблонами.
Как всегда перевёл для вас ElevenLabs.
Если считаете, что все это полезно, - поддержать все эти переводы можно поставив звёздочку к посту или по ссылке.
#n8n #переводы #уроки #nocode
———
@tsingular
Нашел крутейший туториал по n8n - платформе для автоматизации, о которой раньше как-то мало говорили. А зря! (спасибо @Dustycopter за подсказку про n8n, а то бы не известно когда взялся за него)
Автор показывает, как создать персонального AI-ассистента (у него это уже 2 версия,- улучшенная), который:
- Управляет календарем (создает встречи, отправляет приглашения)
- Работает с почтой (отправляет/читает письма)
- Ищет информацию через Wikipedia/Hacker News
- Следит за проектами
- Отправляет сообщения в Slack
Самое крутое - архитектура на основе мини-агентов! 🤯
Вместо того чтобы давать одному агенту кучу инструментов (что обычно приводит к путанице), автор создал систему специализированных агентов:
- Email-агент для работы с почтой
- Calendar-агент для календаря
- Research-агент для поиска информации
- Project-агент для управления задачами
Главный агент-руководитель просто решает, кому делегировать задачу. Например: "Так, нужно отправить письмо - это к email-агенту!"
И что особенно порадовало - там есть крутая фича $fromAI для автоматического заполнения параметров. Больше не нужно собирать большой промт для разбора переменных, а можно их вытащить маленькими промптами на входе в компонент. Получается прозрачнее. 🎉
А еще можно подключить векторную базу данных (Pinecone) и научить агента отвечать на вопросы по вашим документам. Идеально для корпоративных политик, FAQ и т.д.
В общем, если интересно пощупать реальное применение AI-агентов - очень советую глянуть. Там даже есть бесплатное комьюнити, где авторы делятся шаблонами.
Как всегда перевёл для вас ElevenLabs.
Если считаете, что все это полезно, - поддержать все эти переводы можно поставив звёздочку к посту или по ссылке.
#n8n #переводы #уроки #nocode
———
@tsingular
203👍24🔥4❤2
Forwarded from GigaDev — разработка GigaChat
🚀 Релиз новой модели GigaChat-20B-A3B-instruct-v1.5!
Представляем обновленную версию с улучшенным alignment, что привело к значительному росту метрик арен
📈 Результаты:
• Arena Hard RU: 20.8 → 29.6 (+8.8)
• Arena General: 41.1 → 49.1 (+8)
• остальные метрики на тех же значениях
🔋 Поддержка контекста: 131К токенов
🎉 Важно! Модель теперь доступна в популярных инструментах:
• llama.cpp
• ollama
• llama-cpp-python
• lm-studio, небольшой гайд.
⚡️ На М4 Pro в Q6 достигает 52 token / sec
💾 Мы подготовили различные GGUF квантизации для тестирования под разные задачи и ресурсы.
🔗 Ссылки:
• HuggingFace (fp32, bf16, int8)
• GGUF версии (bf16, q8, q6, q5, q4)
• Ollama (bf16, q8, q6, q5, q4)
Представляем обновленную версию с улучшенным alignment, что привело к значительному росту метрик арен
📈 Результаты:
• Arena Hard RU: 20.8 → 29.6 (+8.8)
• Arena General: 41.1 → 49.1 (+8)
• остальные метрики на тех же значениях
🔋 Поддержка контекста: 131К токенов
🎉 Важно! Модель теперь доступна в популярных инструментах:
• llama.cpp
• ollama
• llama-cpp-python
• lm-studio, небольшой гайд.
⚡️ На М4 Pro в Q6 достигает 52 token / sec
💾 Мы подготовили различные GGUF квантизации для тестирования под разные задачи и ресурсы.
🔗 Ссылки:
• HuggingFace (fp32, bf16, int8)
• GGUF версии (bf16, q8, q6, q5, q4)
• Ollama (bf16, q8, q6, q5, q4)
GitHub
GitHub - ggml-org/llama.cpp: LLM inference in C/C++
LLM inference in C/C++. Contribute to ggml-org/llama.cpp development by creating an account on GitHub.
🔥8👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Новый год в Китае в самом разгаре.
Робопёс отжигает по полной.
Фейрверки просто - огонь. :)
Только мирные технологии, настоящий праздник!
#Китай #роботы
———
@tsingular
Робопёс отжигает по полной.
Фейрверки просто - огонь. :)
Только мирные технологии, настоящий праздник!
#Китай #роботы
———
@tsingular
🔥15🕊3⚡2