Про ИИ агентов в интернете.
Интересно, - как быстро мы перейдём от интернета с вредоносными сайтами до сайтов, которые специально созданы, чтобы привлекать ИИ алгоритмы с глубоким поиском?!
Ну т.е. вот сейчас все понаделают ИИ агентов, которые что-то пытаются найти в интернете, но при этом мало кто проверяет, а куда именно пошёл агент, чтобы что-то там найти и прочитать.
Мало того, что источник может быть не доверенный, так он же ещё может быть и вредоносный. И не просто сам по себе, а специально созданный, чтобы ИИ его нашел и вывел в топ своих рассуждений.
Может содержать инструкции специально для ИИ агентов по распространению вирусов или вредоносных ссылок.
Кажется нас ждёт еще много занимательных открытий в ближайшем будущем, а пока ИИ ещё как ребёнок в интернете может вытащить совсем не то, что мы ожидаем.
#deepsearch #security #безопасность
———
@tsingular
Интересно, - как быстро мы перейдём от интернета с вредоносными сайтами до сайтов, которые специально созданы, чтобы привлекать ИИ алгоритмы с глубоким поиском?!
Ну т.е. вот сейчас все понаделают ИИ агентов, которые что-то пытаются найти в интернете, но при этом мало кто проверяет, а куда именно пошёл агент, чтобы что-то там найти и прочитать.
Мало того, что источник может быть не доверенный, так он же ещё может быть и вредоносный. И не просто сам по себе, а специально созданный, чтобы ИИ его нашел и вывел в топ своих рассуждений.
Может содержать инструкции специально для ИИ агентов по распространению вирусов или вредоносных ссылок.
Кажется нас ждёт еще много занимательных открытий в ближайшем будущем, а пока ИИ ещё как ребёнок в интернете может вытащить совсем не то, что мы ожидаем.
#deepsearch #security #безопасность
———
@tsingular
💯13🤔8✍6
Forwarded from e/acc
Весьма очевидная, но самая крутая идея с AI engineer, про которую говорят все — это MCP (https://modelcontextprotocol.io/introduction) от Антропика. Протокол решает проблему фрагментации агентов и инструментов для агентов через стандартизацию так называемых MCP server'ов. Например, MCP сервер United позволяет любому агенту на любой платформе и с любой LLM под капотом бронировать авиабилеты. Или сервер ST (https://github.com/smithery-ai/reference-servers/tree/main/src/sequentialthinking) позволяет любому вашему наколеночному агенту использовать функцию deep research для создания отчетов.
Всего уже создано больше тысячи MCP серверов, от крупных компаний типа Slack и Docusign, до мелких OSS проектов типа поиска, памяти, баз данных, скрейпинга, генератора случайных чисел, калькулятора или devops сервиса для вашего агента.
MCP так же поддерживает цепочки агентов и серверов. Например, ваш агент может найти лучший mc-сервер для бронирования каникул, а тот в свою очередь найдет сервер для поиска билетов, а тот уже обратится к конкретной авиакомпании. На каждом этапе LLM принимает решения учитывая ваш контекст. Добавь сюда экономику — возможность серверов и агентов платить друг другу — и вы получите первый прототип киберэкономики.
Если вы строите продукт, который заменит Гугл на MCP-рельсах (индексация, поиск, раутинг и платежи между между агентами и серверами), то подавайтесь в наш акселератор.
Всего уже создано больше тысячи MCP серверов, от крупных компаний типа Slack и Docusign, до мелких OSS проектов типа поиска, памяти, баз данных, скрейпинга, генератора случайных чисел, калькулятора или devops сервиса для вашего агента.
MCP так же поддерживает цепочки агентов и серверов. Например, ваш агент может найти лучший mc-сервер для бронирования каникул, а тот в свою очередь найдет сервер для поиска билетов, а тот уже обратится к конкретной авиакомпании. На каждом этапе LLM принимает решения учитывая ваш контекст. Добавь сюда экономику — возможность серверов и агентов платить друг другу — и вы получите первый прототип киберэкономики.
Если вы строите продукт, который заменит Гугл на MCP-рельсах (индексация, поиск, раутинг и платежи между между агентами и серверами), то подавайтесь в наш акселератор.
✍3❤1
Китай представил революционный двунаправленный нейроинтерфейс (BCI)
Ключевой момент - мемристорный чип на 128k ячеек. Мемристоры -электронные компоненты, которые "помнят" своё состояние даже без питания.
И вот китайцы создали на их основе чип для декодирования сигналов мозга.
Энергоэффективность удалось повысить в 1000 раз по сравнению с предыдущими системами. Для носимых устройств это критично: либо у вас батарейка живёт пару часов, либо несколько суток.
Но самое важное, - двухконтурное обучение. Обычно BCI работает в одну сторону: мозг -> машина. Здесь же система постоянно подстраивается под изменения сигналов мозга, а мозг учится точнее управлять системой.
Такая система обратной связи для постоянной корректировки сигнала.
Тестировали пока на 10 участниках 6 часов, - т.е. разработка еще в самом начале. До массового выпуска далеко.
Но, как уже привыкли, полигон тестирования - дроны :)
Ну и самое интересное, - исходники базового кода выложены на GitHub .
Любой может скопировать и начать строить свой надмозг :).
Статья в Nature
Похоже, скоро управлять техникой силой мысли станет обыденностью. Кибертелепатия на подходе! 🧠✨
#BCI #Китай #кибертелепатия
———
@tsingular
Ключевой момент - мемристорный чип на 128k ячеек. Мемристоры -электронные компоненты, которые "помнят" своё состояние даже без питания.
И вот китайцы создали на их основе чип для декодирования сигналов мозга.
Энергоэффективность удалось повысить в 1000 раз по сравнению с предыдущими системами. Для носимых устройств это критично: либо у вас батарейка живёт пару часов, либо несколько суток.
Но самое важное, - двухконтурное обучение. Обычно BCI работает в одну сторону: мозг -> машина. Здесь же система постоянно подстраивается под изменения сигналов мозга, а мозг учится точнее управлять системой.
Такая система обратной связи для постоянной корректировки сигнала.
Тестировали пока на 10 участниках 6 часов, - т.е. разработка еще в самом начале. До массового выпуска далеко.
Но, как уже привыкли, полигон тестирования - дроны :)
Ну и самое интересное, - исходники базового кода выложены на GitHub .
Любой может скопировать и начать строить свой надмозг :).
Статья в Nature
Похоже, скоро управлять техникой силой мысли станет обыденностью. Кибертелепатия на подходе! 🧠✨
#BCI #Китай #кибертелепатия
———
@tsingular
🔥43👍16⚡4🤔2😢2👾2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Проснулись, потянулись, сделали прыжок кувырком вперед.
Слабо? А EngineAI - уже нет! :)
Когда уже Олимпиады роботов?
Человеческие соревнования себя дискредитировали, мир готов смотреть новый формат. :)
#Китай #robots #EngineAI
———
@tsingular
Слабо? А EngineAI - уже нет! :)
Когда уже Олимпиады роботов?
Человеческие соревнования себя дискредитировали, мир готов смотреть новый формат. :)
#Китай #robots #EngineAI
———
@tsingular
🔥19👍6🏆4👾2
AIDE: Дерево решений для автоматизации ML-инженерии
Интересная разработка от Weco AI - представили tree-search систему на базе LLM, которая:
- Представляет процесс оптимизации как иерархическое дерево, где каждый узел - потенциальное решение
- Использует search policy для выбора веток для улучшения
- Применяет LLM как "оператор кода" для генерации новых итераций
- Избирательно суммирует важные детали вместо сохранения всей истории взаимодействий
Работает как ML-инженер, который систематически перебирает варианты оптимизации, но делает это очень эффективно, не тратя время на заведомо бесперспективные пути.
Результаты:
- В соревнованиях Kaggle обошел 51.38% участников-людей
- На MLE-Bench Lite в связке с o1-preview улучшил:
- Валидные решения: с 63.6% до 92.4% (почти +30%!!)
- "Золото": с 6.1% до 21.2% (В х3+ раза)
Потенциально это означает существенное сокращение времени и ресурсов на разработку ML-моделей.
Открывает возможности по дообучению моделей в реальном времени.
Грубо говоря главная модель может динамично обучать рой.
⚡️ Ключевое отличие от классического AutoML: AIDE работает с кодом напрямую, а не в предопределенном пространстве поиска. То есть может находить действительно нестандартные решения, как живой ML-инженер.
Правда, остаются вопросы по интерпретируемости решений и масштабируемости на сложные задачи. Но как инструмент автоматизации рутинной ML-разработки - может быть очень перспективно.
Paper
GitHub
#MLOps #AutoML
———
@tsingular
Интересная разработка от Weco AI - представили tree-search систему на базе LLM, которая:
- Представляет процесс оптимизации как иерархическое дерево, где каждый узел - потенциальное решение
- Использует search policy для выбора веток для улучшения
- Применяет LLM как "оператор кода" для генерации новых итераций
- Избирательно суммирует важные детали вместо сохранения всей истории взаимодействий
Работает как ML-инженер, который систематически перебирает варианты оптимизации, но делает это очень эффективно, не тратя время на заведомо бесперспективные пути.
Результаты:
- В соревнованиях Kaggle обошел 51.38% участников-людей
- На MLE-Bench Lite в связке с o1-preview улучшил:
- Валидные решения: с 63.6% до 92.4% (почти +30%!!)
- "Золото": с 6.1% до 21.2% (В х3+ раза)
Потенциально это означает существенное сокращение времени и ресурсов на разработку ML-моделей.
Открывает возможности по дообучению моделей в реальном времени.
Грубо говоря главная модель может динамично обучать рой.
⚡️ Ключевое отличие от классического AutoML: AIDE работает с кодом напрямую, а не в предопределенном пространстве поиска. То есть может находить действительно нестандартные решения, как живой ML-инженер.
Правда, остаются вопросы по интерпретируемости решений и масштабируемости на сложные задачи. Но как инструмент автоматизации рутинной ML-разработки - может быть очень перспективно.
Paper
GitHub
#MLOps #AutoML
———
@tsingular
✍4👍4❤1
HuggingFace обновили свой курс по ИИ, добавив раздел файтюна.
Обновление тут
Но есть нюанс. Обновлён только англоязычный раздел пока.
Так что или быстро учим английский, либо ждём пару дней, - переведут на остальные языки. Там их более 20ти в общей сложности в базовом курсе.
#huggingface #finetuning #обучение
———
@tsingular
Обновление тут
Но есть нюанс. Обновлён только англоязычный раздел пока.
Так что или быстро учим английский, либо ждём пару дней, - переведут на остальные языки. Там их более 20ти в общей сложности в базовом курсе.
#huggingface #finetuning #обучение
———
@tsingular
✍3🔥2👍1👨💻1
Qwen обещает сегодня всех удивить.
И теперь они работают по адресу qwen.ai
чат там же по chat.qwen.ai
Неделя обещает быть интересной.
ГПТ 4.5, Клод 4, Квен ???.
А еще конференция в РАНХиГС в пятницу, где будет круглый стол по ИИ в 12:20 ;)
#qwen #РАНХиГС
———
@tsingular
И теперь они работают по адресу qwen.ai
чат там же по chat.qwen.ai
Неделя обещает быть интересной.
ГПТ 4.5, Клод 4, Квен ???.
А еще конференция в РАНХиГС в пятницу, где будет круглый стол по ИИ в 12:20 ;)
#qwen #РАНХиГС
———
@tsingular
👍6🔥3
🚀 Рекорд Y Combinator: 75% стартапов делают ставку на AI
Интересные цифры от главного стартап-инкубатора Кремниевой долины. В новой партии YC 75% (156 из 208) проектов строят продукты на базе AI. Такого не было за всю историю акселератора.
И это не просто хайп - инвесторы реально вкладываются. Почти половина венчурного капитала США в прошлом квартале ушла в AI-стартапы.
Что интересного делают, для примера:
- Rastro: AI-дизайнер интерьеров (наконец-то можно не платить 100к за проект 😅)
- Mindely: AI для проведения бизнес-интервью (замена HR?)
- Lilac Labs: автоматизация заказов из автомобиля.
Забавно наблюдать, как меняются тренды - в 2022 году все делали крипту (33 проекта), а сейчас остался всего 1 крипто-стартап в заходе.
Важный момент для бизнеса: мы входим в эпоху, когда AI становится не фичей, а стандартом. Как в 2010-х было с "мобайл-ферст" - либо делаешь мобильное приложение, либо проигрываешь.
Начинается эпоха AI-first.
Всё, что можно сделать с ИИ, - нужно делать через ИИ.
Если это не сделаете вы, - это сделают ваши конкуренты. Уже делают (видел коллеги в ФБ анонсируют во всю).
#YCombinator #startups #AIfirst
———
@tsingular
Интересные цифры от главного стартап-инкубатора Кремниевой долины. В новой партии YC 75% (156 из 208) проектов строят продукты на базе AI. Такого не было за всю историю акселератора.
И это не просто хайп - инвесторы реально вкладываются. Почти половина венчурного капитала США в прошлом квартале ушла в AI-стартапы.
Что интересного делают, для примера:
- Rastro: AI-дизайнер интерьеров (наконец-то можно не платить 100к за проект 😅)
- Mindely: AI для проведения бизнес-интервью (замена HR?)
- Lilac Labs: автоматизация заказов из автомобиля.
Забавно наблюдать, как меняются тренды - в 2022 году все делали крипту (33 проекта), а сейчас остался всего 1 крипто-стартап в заходе.
Важный момент для бизнеса: мы входим в эпоху, когда AI становится не фичей, а стандартом. Как в 2010-х было с "мобайл-ферст" - либо делаешь мобильное приложение, либо проигрываешь.
Начинается эпоха AI-first.
Всё, что можно сделать с ИИ, - нужно делать через ИИ.
Если это не сделаете вы, - это сделают ваши конкуренты. Уже делают (видел коллеги в ФБ анонсируют во всю).
#YCombinator #startups #AIfirst
———
@tsingular
⚡4👍2🔥2
Forwarded from Сиолошная
(аххаха новую модель 3.7 назвали)
Источник
(релиз видимо вечером, это пока текстовый блок в коде сайта)
anthropic.claude-3-7-sonnet-20250219-v1:0
Claude 3.7 Sonnet is Anthropic's most intelligent model to date and the first Claude model to offer extended thinking - the ability to solve complex problems with careful, step-by-step reasoning.
Anthropic is the first AI lab to introduce a single model where users can balance speed and quality by choosing between standard thinking for near-instant responses or extended thinking or advanced reasoning.
Claude 3.7 Sonnet is state-of-the-art for coding, and delivers advancements in computer use, agentic capabilities, complex reasoning, and content generation. With frontier performance and more control over speed, Claude 3.7 Sonnet is the ideal choice for powering AI agents, especially customer-facing agents, and complex AI workflows.
Supported use cases: RAG or search & retrieval over vast amounts of knowledge, product recommendations, forecasting, targeted marketing, code generation, quality control, parse text from images, agentic computer use, content generation
Источник
(релиз видимо вечером, это пока текстовый блок в коде сайта)
⚡6🤨2
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft Research выпустил Data Formulator - AI-инструмент визуализации данных
Data Formulator от Microsoft - интересный фреймворк, по типу PowerBI только с LLM.
Локальное Python-приложение комбинирует классический UI с LLM для трансформации цифр в наглядные графики.
Функционал программы содержит интерактивный веб-интерфейс, панель Data Threads для отслеживания истории манипуляций и API для внешней интеграции.
Можно интегрировать в свою среду на python. 📊
#Microsoft #DataFormulator #DataVisualization #dev
------
@tsingular
Data Formulator от Microsoft - интересный фреймворк, по типу PowerBI только с LLM.
Локальное Python-приложение комбинирует классический UI с LLM для трансформации цифр в наглядные графики.
Функционал программы содержит интерактивный веб-интерфейс, панель Data Threads для отслеживания истории манипуляций и API для внешней интеграции.
Можно интегрировать в свою среду на python. 📊
#Microsoft #DataFormulator #DataVisualization #dev
------
@tsingular
👍5
Claude 3.7 Sonnet: первая гибридная модель рассуждений от Anthropic
Anthropic выпустили обновление - модель Claude 3.7 Sonnet с двумя режимами работы.
Первый - мгновенные ответы, второй - расширенное пошаговое мышление с глубоким анализом.
Лимит контекста достиг 128K токенов, ложные отказы снижены на 45%.
Дополнительно представлен Claude Code - CLI-инструмент для работы с кодом, репозиториями и тестами.
Улучшена производительность в математике, физике и программировании.
Доступно на всех тарифах включая бесплатный.
Теперь ИИ не только быстро отвечает, но и умеет глубоко размышлять.
К 2027 году обещают, что каждое размышление будет давать ответ, равный результату многолетней работы команды экспертов.
#Anthropic #Claude #Sonnet
------
@tsingular
Anthropic выпустили обновление - модель Claude 3.7 Sonnet с двумя режимами работы.
Первый - мгновенные ответы, второй - расширенное пошаговое мышление с глубоким анализом.
Лимит контекста достиг 128K токенов, ложные отказы снижены на 45%.
Дополнительно представлен Claude Code - CLI-инструмент для работы с кодом, репозиториями и тестами.
Улучшена производительность в математике, физике и программировании.
Доступно на всех тарифах включая бесплатный.
Теперь ИИ не только быстро отвечает, но и умеет глубоко размышлять.
К 2027 году обещают, что каждое размышление будет давать ответ, равный результату многолетней работы команды экспертов.
#Anthropic #Claude #Sonnet
------
@tsingular
🔥13❤2
Неделя открытого кода от Deepseek.
Deepseek запустил неделю open-source релизов и уже выкатил два интересных проекта — DeepEP и FlashMLA.
DeepEP: открытая библиотека для ускорения работы MoE-коммуникаций между экспертами, повышая скорость обмена между GPU ядрами в режиме все-со-всеми.
- Поддержка FP8 для быстрых dispatch/combine операций
- Оптимизация как для внутринодовой (NVLink), так и межнодовой (RDMA) коммуникации
- Специальные низколатентные ядра для inference decoding (~160-370μs на некоторых конфигурациях)
- Контроль использования SM-ресурсов GPU (можно выделить 24 SM на коммуникацию)
Бенчмарки: на H800+CX7 получают 153-158 GB/s внутри ноды (по NVLink) и 40-47 GB/s между нодами (по RDMA).
FlashMLA: эффективные ядра для MLA-декодирования
В релизе оптимизированный MLA-декодер для GPU Hopper:
- Поддержка BF16 и FP16
- Paged kvcache с размером блока 64
- До 3000 GB/s при memory-bound и 580 TFLOPS при compute-bound нагрузках на H800
Где пригодится?
1. Для обучения собственных MoE-моделей — как открытый фреймворк, который позволяет эффективно тренировать большие MoE
2. Для тюнинга инференса — если у вас есть Hopper GPU, можно существенно ускорить декодирование моделей с MLA
3. Для понимания архитектуры DeepSeek-моделей — код показывает, как на самом деле устроены модели Deepseek V3
И это только начало их #OpenSourceWeek — ждем еще релизов, особенно полезно будет если они продолжат раскрывать архитектуру своих моделей.
Но как тут сказали товарищи на одном из вебинаров недавно, - будет грустно, если они выложат всё в оупенсорс, а у нас некому будет понять что там написано и даже воспроизвести.
#MoE #MLA #DeepSeek #OpenSourceWeek
———
@tsingular
Deepseek запустил неделю open-source релизов и уже выкатил два интересных проекта — DeepEP и FlashMLA.
DeepEP: открытая библиотека для ускорения работы MoE-коммуникаций между экспертами, повышая скорость обмена между GPU ядрами в режиме все-со-всеми.
- Поддержка FP8 для быстрых dispatch/combine операций
- Оптимизация как для внутринодовой (NVLink), так и межнодовой (RDMA) коммуникации
- Специальные низколатентные ядра для inference decoding (~160-370μs на некоторых конфигурациях)
- Контроль использования SM-ресурсов GPU (можно выделить 24 SM на коммуникацию)
Бенчмарки: на H800+CX7 получают 153-158 GB/s внутри ноды (по NVLink) и 40-47 GB/s между нодами (по RDMA).
FlashMLA: эффективные ядра для MLA-декодирования
В релизе оптимизированный MLA-декодер для GPU Hopper:
- Поддержка BF16 и FP16
- Paged kvcache с размером блока 64
- До 3000 GB/s при memory-bound и 580 TFLOPS при compute-bound нагрузках на H800
Где пригодится?
1. Для обучения собственных MoE-моделей — как открытый фреймворк, который позволяет эффективно тренировать большие MoE
2. Для тюнинга инференса — если у вас есть Hopper GPU, можно существенно ускорить декодирование моделей с MLA
3. Для понимания архитектуры DeepSeek-моделей — код показывает, как на самом деле устроены модели Deepseek V3
И это только начало их #OpenSourceWeek — ждем еще релизов, особенно полезно будет если они продолжат раскрывать архитектуру своих моделей.
Но как тут сказали товарищи на одном из вебинаров недавно, - будет грустно, если они выложат всё в оупенсорс, а у нас некому будет понять что там написано и даже воспроизвести.
#MoE #MLA #DeepSeek #OpenSourceWeek
———
@tsingular
🔥11❤1
Media is too big
VIEW IN TELEGRAM
Ну что, господа преподаватели.
Готовимся к новой реальности. :)
Это по-быстрому буквально на коленке за пол-часа.
Инструменты:
Claude Sonnet 3.7 - код для manim(в комментарии) и скрипт озвучки.
Suno 4 (полный трек музыки в комментарии )
Озвучка - Clipchamp - там теперь text2speech встроенный бесплатный на всех языках.
#manim #sonnet #suno #education #dev
———
@tsingular
Готовимся к новой реальности. :)
Это по-быстрому буквально на коленке за пол-часа.
Инструменты:
Claude Sonnet 3.7 - код для manim(в комментарии) и скрипт озвучки.
Suno 4 (полный трек музыки в комментарии )
Озвучка - Clipchamp - там теперь text2speech встроенный бесплатный на всех языках.
#manim #sonnet #suno #education #dev
———
@tsingular
🔥17😁1
Media is too big
VIEW IN TELEGRAM
А вот вам пример работы профессионалов.
Клип-прототип (еще будет доделываться) от Сергея Пименова.
Использовались нейронки:
Flux, Runway, Kling, Krea, LumaLabs, Elevenlabs, Moises, Topaz.
https://t.me/pimenov_ru/6399
Если нужен профессиональный продакшен в нейрорендере, - рекомендую
#нейрорендер #pimenov #фабрикаконтента
———
@tsingular
Клип-прототип (еще будет доделываться) от Сергея Пименова.
Использовались нейронки:
Flux, Runway, Kling, Krea, LumaLabs, Elevenlabs, Moises, Topaz.
https://t.me/pimenov_ru/6399
Если нужен профессиональный продакшен в нейрорендере, - рекомендую
#нейрорендер #pimenov #фабрикаконтента
———
@tsingular
🔥13👍1😁1
Яндекс представил YandexGPT 5 — новое поколение русскоязычного ИИ.
YandexGPT 5 Lite 8B Pretrain:
- Открытая модель с 8 млрд параметров, обучена на 15 трлн токенов (30% — русский язык).
- Двухэтапное обучение: Pretrain и Powerup.
- Опубликована на Hugging Face для свободного использования и дообучения.
- Превосходит аналоги в русскоязычных задачах.
YandexGPT 5 Pro:
- Доступна через API (Yandex Cloud) и в чате с Алисой.
- Основа — Qwen-2.5-32B-base, дообучена с новым методом LogDPO.
- На уровне GPT-4o, с преимуществом в русском языке.
Полезность для бизнеса:
- Локализация: глубокое понимание русского.
- Экономия: открытая модель + API.
- Гибкость: чат-боты, аналитика, автоматизация.
#YandexGPT #Яндекс
———
@tsingular
YandexGPT 5 Lite 8B Pretrain:
- Открытая модель с 8 млрд параметров, обучена на 15 трлн токенов (30% — русский язык).
- Двухэтапное обучение: Pretrain и Powerup.
- Опубликована на Hugging Face для свободного использования и дообучения.
- Превосходит аналоги в русскоязычных задачах.
YandexGPT 5 Pro:
- Доступна через API (Yandex Cloud) и в чате с Алисой.
- Основа — Qwen-2.5-32B-base, дообучена с новым методом LogDPO.
- На уровне GPT-4o, с преимуществом в русском языке.
Полезность для бизнеса:
- Локализация: глубокое понимание русского.
- Экономия: открытая модель + API.
- Гибкость: чат-боты, аналитика, автоматизация.
#YandexGPT #Яндекс
———
@tsingular
⚡10