Роскошный максимум: получить приглашение в команду SberAds за один день! 😉
Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:
✔️ создавать и улучшать модели для real-time аукционов
✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы
✔️ стать частью команды из 8000+ коллег (это вау! 🤩)
Занимай место в проекте мечты!
* One Day Offer — предложение о работе за один день.
** Data Analyst — аналитик данных.
Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:
✔️ создавать и улучшать модели для real-time аукционов
✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы
✔️ стать частью команды из 8000+ коллег (это вау! 🤩)
Занимай место в проекте мечты!
* One Day Offer — предложение о работе за один день.
** Data Analyst — аналитик данных.
❤1
⚡️ Курс по Deep Learning (Fall 2024) от MIT выложили в открытый доступ.
Один из преподавателей — Phillip Isola, исследователь в области Computer Vision, известный по работе над CycleGAN (2017).
В курсе есть всё:
- видеолекции
- слайды
- дополнительные материалы
- домашние задания
Домашки можно попробовать выполнить самостоятельно — это хороший способ закрепить материал.
Курс подойдёт тем, кто уже знаком с основами и хочет лучше разобраться в Deep Learning, а не только использовать готовые инструменты.
Скачать и смотреть:
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
Один из преподавателей — Phillip Isola, исследователь в области Computer Vision, известный по работе над CycleGAN (2017).
В курсе есть всё:
- видеолекции
- слайды
- дополнительные материалы
- домашние задания
Домашки можно попробовать выполнить самостоятельно — это хороший способ закрепить материал.
Курс подойдёт тем, кто уже знаком с основами и хочет лучше разобраться в Deep Learning, а не только использовать готовые инструменты.
Скачать и смотреть:
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
MIT OpenCourseWare
Lecture Videos | Deep Learning | Electrical Engineering and Computer Science | MIT OpenCourseWare
MIT OpenCourseWare is a web based publication of virtually all MIT course content. OCW is open and available to the world and is a permanent MIT activity
🔥7❤3👍3🎉1
⭐️ Opus 4.7 перестал угадывать. И в этом вся разница.
4.6 выглядел умным, потому что додумывал за тебя.
4.7 больше так не делает.
Если ты не сказал, он не будет предполагать.
Если инструкция неочевидна, он не будет «догадываться».
И это сначала ощущается как деградация.
Но на деле это убрали галлюцинации под видом «интеллекта».
Есть два типа неопределённости, и они теперь ведут себя по-разному.
Когда задача размытая, но цель понятна - 4.7 справляется лучше.
Когда формулировка кривоватая - он не пытается угадать, что ты имел в виду.
Раньше модель закрывала это фантазией.
Теперь возвращает контроль тебе.
Тебе не нужно писать длинные инструкции.
Нужно чётко задать:
• что ты строишь
• зачем это нужно
• что считается хорошим результатом
Дальше модель сама достраивает остальное.
И меняется сам процесс разработки.
Сначала смотри план, а не код.
Ошибки появляются не в реализации, а в понимании задачи.
plan mode позволяет поймать это до генерации кода
/ultrareview уже проверяет результат
Точка контроля - не строки кода
а изначальное намерение
• 4.6 казался умным
• 4.7 стал честнее.
4.6 выглядел умным, потому что додумывал за тебя.
4.7 больше так не делает.
Если ты не сказал, он не будет предполагать.
Если инструкция неочевидна, он не будет «догадываться».
И это сначала ощущается как деградация.
Но на деле это убрали галлюцинации под видом «интеллекта».
Есть два типа неопределённости, и они теперь ведут себя по-разному.
Когда задача размытая, но цель понятна - 4.7 справляется лучше.
Когда формулировка кривоватая - он не пытается угадать, что ты имел в виду.
Раньше модель закрывала это фантазией.
Теперь возвращает контроль тебе.
Тебе не нужно писать длинные инструкции.
Нужно чётко задать:
• что ты строишь
• зачем это нужно
• что считается хорошим результатом
Дальше модель сама достраивает остальное.
И меняется сам процесс разработки.
Сначала смотри план, а не код.
Ошибки появляются не в реализации, а в понимании задачи.
plan mode позволяет поймать это до генерации кода
/ultrareview уже проверяет результат
Точка контроля - не строки кода
а изначальное намерение
• 4.6 казался умным
• 4.7 стал честнее.
👍20❤5👎5😁2
Как подросток заработал $70 000 за месяц на ИИ книгах
Как подросток заработал $70 000 за месяц на ИИ книгах
Пятнадцатилетний парень за один месяц поднял $70 000 на книгах, которые никто в здравом уме не стал бы читать. Весь механизм держится на одной цифре: Amazon платит авторам Kindle Unlimited около<b> $0.0041 за каждую прочитанную страницу</b>. Если книга на <b>3000</b> страниц получает тысячу фейковых прочтений в день, это уже <b>$12 000</b> в месяц. Сто таких книг одновременно дают больше миллиона долларов в месяц.
Схема до смешного простая. Открываешь любой ИИ инструмент, просишь сгенерировать книгу на 3000 страниц, ждёшь пару минут, добавляешь обложку и заливаешь в Amazon KDP. Включаешь раздачу через Kindle Unlimited, и книга моментально становится доступна миллионам читателей. Дальше идёт самая интересная часть.
Автор платит клик ферме пару сотен долларов, и тысячи фейковых аккаунтов Kindle начинают круглосуточно имитировать чтение этой книги. Некоторые ребята крутили сотни книг одновременно, каждая под разным именем, каждая ровно на максимальных 3000 страницах, каждая прокачивалась ботами 24/7. Отдельные умельцы вставляли на первую страницу поддельные ссылки вроде "выиграй Kindle Fire", которые одним кликом уносили реального читателя сразу на последнюю страницу и засчитывали полное прочтение.
Amazon в итоге спохватился и срезал лимит страниц в Kindle Unlimited с 10 000 до 3000. Под раздачу попали и настоящие авторы: боты маскировали свою активность, читая случайные легитимные книги, из за чего живых писателей начали банить вместе с мошенниками.
Вся эта история показывает неприятную изнанку связки ИИ и платформ с автоматическими выплатами. Генеративные модели превратили написание тысяч страниц в дело пары минут, а системы монетизации по прочтениям до сих пор не умеют отличать бота от человека. Пока платформы учатся защищаться, кто то спокойно делает на этом миллионы.
https://vc.ru/money/2874629-kak-podrostok-zarabotal-dengi-na-ii-knigakh-i-kindle-unlimited
Как подросток заработал $70 000 за месяц на ИИ книгах
Пятнадцатилетний парень за один месяц поднял $70 000 на книгах, которые никто в здравом уме не стал бы читать. Весь механизм держится на одной цифре: Amazon платит авторам Kindle Unlimited около<b> $0.0041 за каждую прочитанную страницу</b>. Если книга на <b>3000</b> страниц получает тысячу фейковых прочтений в день, это уже <b>$12 000</b> в месяц. Сто таких книг одновременно дают больше миллиона долларов в месяц.
Схема до смешного простая. Открываешь любой ИИ инструмент, просишь сгенерировать книгу на 3000 страниц, ждёшь пару минут, добавляешь обложку и заливаешь в Amazon KDP. Включаешь раздачу через Kindle Unlimited, и книга моментально становится доступна миллионам читателей. Дальше идёт самая интересная часть.
Автор платит клик ферме пару сотен долларов, и тысячи фейковых аккаунтов Kindle начинают круглосуточно имитировать чтение этой книги. Некоторые ребята крутили сотни книг одновременно, каждая под разным именем, каждая ровно на максимальных 3000 страницах, каждая прокачивалась ботами 24/7. Отдельные умельцы вставляли на первую страницу поддельные ссылки вроде "выиграй Kindle Fire", которые одним кликом уносили реального читателя сразу на последнюю страницу и засчитывали полное прочтение.
Amazon в итоге спохватился и срезал лимит страниц в Kindle Unlimited с 10 000 до 3000. Под раздачу попали и настоящие авторы: боты маскировали свою активность, читая случайные легитимные книги, из за чего живых писателей начали банить вместе с мошенниками.
Вся эта история показывает неприятную изнанку связки ИИ и платформ с автоматическими выплатами. Генеративные модели превратили написание тысяч страниц в дело пары минут, а системы монетизации по прочтениям до сих пор не умеют отличать бота от человека. Пока платформы учатся защищаться, кто то спокойно делает на этом миллионы.
https://vc.ru/money/2874629-kak-podrostok-zarabotal-dengi-na-ii-knigakh-i-kindle-unlimited
👍12❤9🔥5👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Секунда - и ты уже не понимаешь, что произошло: два силуэта в белом, вспышка, очко. Фехтование всегда было спортом быстрее человеческого глаза.
Японцы это изменили!
Система Fencing Visualized (https://dentsulab.tokyo/en/works/fencingvisualized/) превращает бой в читаемую картинку: компьютерное зрение в реальном времени отслеживает кончик шпаги и рисует за ним цветной след. Теперь видно не просто “кто выиграл”, а как именно был нанесён укол.
Раньше это выглядело как хаос. Теперь - как дуэль на световых мечах из Star Wars.
И внутри никакого железа:
без датчиков
без маркеров
только видео и нейросети
Система сама вытаскивает движение из потока и накладывает визуал прямо во время трансляции. Плюс - уже умеет распознавать приёмы фехтовальщиков.
AI делает сложный спорт понятным.
Теперь вопрос времени, когда в футболе появится огненный след за мячом и полоска стамины над игроками.
Японцы это изменили!
Система Fencing Visualized (https://dentsulab.tokyo/en/works/fencingvisualized/) превращает бой в читаемую картинку: компьютерное зрение в реальном времени отслеживает кончик шпаги и рисует за ним цветной след. Теперь видно не просто “кто выиграл”, а как именно был нанесён укол.
Раньше это выглядело как хаос. Теперь - как дуэль на световых мечах из Star Wars.
И внутри никакого железа:
без датчиков
без маркеров
только видео и нейросети
Система сама вытаскивает движение из потока и накладывает визуал прямо во время трансляции. Плюс - уже умеет распознавать приёмы фехтовальщиков.
AI делает сложный спорт понятным.
Теперь вопрос времени, когда в футболе появится огненный след за мячом и полоска стамины над игроками.
🔥21❤3👍2🥰1👏1
Как мы автоматизировали Code Review с помощью LLM ⚡️
В Авито большой поток пул-реквестов. Разработчики регулярно отвлекаются на ревью чужого кода, отчего быстрее устают. К тому же у каждого ревьюера своё представление о том, как делать правильно.
Мы автоматизировали часть проверок с помощью LLM, чтобы освободить разработчиков от этой задачи. Модель анализирует код и находит максимум потенциальных ошибок, но благодаря валидации оставляет комментарии только по делу. Разработчики получают полезную обратную связь и могут сосредоточиться на основной работе.
О том, как устроена система, почему выбрали селфхостинг и какие метрики отслеживаем, рассказывает Марк Каширский, DS-инженер команды LLM Авито.
Прочитать подробности на Хабре
В Авито большой поток пул-реквестов. Разработчики регулярно отвлекаются на ревью чужого кода, отчего быстрее устают. К тому же у каждого ревьюера своё представление о том, как делать правильно.
Мы автоматизировали часть проверок с помощью LLM, чтобы освободить разработчиков от этой задачи. Модель анализирует код и находит максимум потенциальных ошибок, но благодаря валидации оставляет комментарии только по делу. Разработчики получают полезную обратную связь и могут сосредоточиться на основной работе.
О том, как устроена система, почему выбрали селфхостинг и какие метрики отслеживаем, рассказывает Марк Каширский, DS-инженер команды LLM Авито.
Прочитать подробности на Хабре
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
🧭 LLMRouter - умная маршрутизация запросов между LLM
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
❤5👍3🤬2🔥1
Forwarded from Machinelearning
Компания представила 2 новых автономных агента в Gemini API - Deep Research и Deep Research Max. Оба построены на Gemini 3.1 Pro и доступны через Interactions API.
Главное изменение по сравнению с декабрьским превью - поддержка MCP: теперь агент умеет выходить за пределы открытого веба и работать с закрытыми корпоративными источниками данных.
Типичный сценарий: асинхронные фоновые процессы, например ночной cron-job, готовящий аналитикам к утру набор подробных аналитических отчётов.
По внутренним замерам Google, Max консультируется с заметно большим числом источников и точнее взвешивает противоречивые свидетельства, чем декабрьская версия. Все отчёты полностью сопровождаются ссылками (от документов SEC до открытых рецензируемых журналов).
Инструменты агента можно включать одновременно: Google Search, URL Context, Code Execution, File Search и произвольные удалённые MCP-серверы. Веб при желании отключается (тогда поиск идёт только по пользовательским данным). В качестве опорных данных принимаются PDF, CSV, изображения, аудио и видео.
Отдельное новшество - нативная генерация графиков и инфографики прямо в теле отчёта через HTML или Nano Banana, без внешних библиотек.
Для интерактивных интерфейсов предусмотрен стриминг промежуточных рассуждений и результатов в реальном времени.
Появился и режим совместного планирования: план исследования можно просмотреть и скорректировать до того, как агент начнёт его выполнять.
Deep Research и Deep Research Max доступны в режиме public preview на платных тарифах Gemini API.
В ближайшее время оба агента появятся в Google Cloud для корпоративных клиентов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤4
🚨 Искусственный интеллект Anthropic взломан: модель Mythos вышла из-под контроля!
Модель Claude Mythos от Anthropic, которую компания скрывала, называя её «слишком опасной для общественности» из-за её способностей к кибератакам и взлому операционных систем, была захвачена хакерами!
Благодаря утечке данных через партнёра по обучению Mercor хакеры расшифровали схему именования модели, предсказали структуру URL и проникли внутрь.
Заявления Дарио Амадео о том, что «у нас самая безопасная лаборатория», рухнули из-за этой масштабной утечки. Речь идёт не только о Mythos — вся линия разработки (pipeline) Anthropic теперь может быть в руках пиратов.
Самый мощный «ключ» цифрового мира теперь в руках тёмных сил за дверью!
Модель Claude Mythos от Anthropic, которую компания скрывала, называя её «слишком опасной для общественности» из-за её способностей к кибератакам и взлому операционных систем, была захвачена хакерами!
Благодаря утечке данных через партнёра по обучению Mercor хакеры расшифровали схему именования модели, предсказали структуру URL и проникли внутрь.
Заявления Дарио Амадео о том, что «у нас самая безопасная лаборатория», рухнули из-за этой масштабной утечки. Речь идёт не только о Mythos — вся линия разработки (pipeline) Anthropic теперь может быть в руках пиратов.
Самый мощный «ключ» цифрового мира теперь в руках тёмных сил за дверью!
😁20👍14❤6👎6
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
❤3👍2🔥1
⚡️ 12 крутых вещей, которые умеет Claude
Большинство до сих пор общается с Claude как с обычным чат-ботом. В итоге использует примерно 10% того, что он реально умеет.
Вот остальные 90%.
1. Сайты без кода через Claude Code
Подключаете GitHub, описываете обычным языком, что нужно собрать, и выкатываете в прод. Лендинги, дашборды, внутренние тулзы - это уже не демо, а рабочий сценарий.
2. Доступ к вашему компьютеру
Claude может кликать, открывать сайты и работать на Mac, пока вас нет рядом. Управлять процессом можно с телефона через Dispatch.
3. Skills через /commands
Один раз описываете сценарий, дальше команда вроде
4. Слайды с ресёрчем из одного промпта
Claude изучает тему, собирает структурированный бриф и превращает его в презентацию через Gamma. Без ручной копипасты между вкладками.
5. Расписание
Регулярные задачи запускаются автоматически. Например, сводка по конкурентам каждый понедельник в 7 утра. Настройка занимает пару минут.
6. Excel-файлы из текста
Описываете, какая таблица нужна, и получаете финансовую модель, дашборд или аналитику. Без ручного написания формул.
7. Connectors
Claude можно подключить к Slack, Gmail, Google Drive, Notion и десяткам других сервисов. Он не просто пересказывает данные, а работает внутри ваших инструментов.
8. Cowork как AI-сотрудник
Указываете рабочую папку, дальше Claude сам читает файлы, задаёт уточняющие вопросы и выдаёт готовые документы, отчёты и черновики.
9. Projects с памятью
Cowork Projects помнят прошлые сессии. Пишете «продолжи отчёт с прошлой недели», и контекст подтягивается без повторного объяснения.
10. Плагины под роль
Есть готовые наборы для Sales, Marketing, Legal, Finance и Data. Каждый даёт специализированные workflow, команды и шаблоны под конкретную работу.
11. AskUserQuestion
Claude сам задаёт нужные уточняющие вопросы в виде кликабельной формы. Не нужно писать километровый промпт и пытаться заранее предусмотреть всё.
12. Claude Design
Лендинги, pitch decks, прототипы приложений, экспорт в Canva, PDF или сразу в Claude Code на доработку.
Главная мысль простая: Claude давно перестал быть чат-окном с текстом. Это связка из агента, инструментов, расписаний, памяти и доступа к вашим сервисам.
Вопрос уже не в том, что он умеет. Вопрос в том, какие из этих 12 возможностей вы реально подключили.
Большинство до сих пор общается с Claude как с обычным чат-ботом. В итоге использует примерно 10% того, что он реально умеет.
Вот остальные 90%.
1. Сайты без кода через Claude Code
Подключаете GitHub, описываете обычным языком, что нужно собрать, и выкатываете в прод. Лендинги, дашборды, внутренние тулзы - это уже не демо, а рабочий сценарий.
2. Доступ к вашему компьютеру
Claude может кликать, открывать сайты и работать на Mac, пока вас нет рядом. Управлять процессом можно с телефона через Dispatch.
3. Skills через /commands
Один раз описываете сценарий, дальше команда вроде
/linkedin или /brief запускает его в один клик. Skills можно расшаривать всей команде.4. Слайды с ресёрчем из одного промпта
Claude изучает тему, собирает структурированный бриф и превращает его в презентацию через Gamma. Без ручной копипасты между вкладками.
5. Расписание
Регулярные задачи запускаются автоматически. Например, сводка по конкурентам каждый понедельник в 7 утра. Настройка занимает пару минут.
6. Excel-файлы из текста
Описываете, какая таблица нужна, и получаете финансовую модель, дашборд или аналитику. Без ручного написания формул.
7. Connectors
Claude можно подключить к Slack, Gmail, Google Drive, Notion и десяткам других сервисов. Он не просто пересказывает данные, а работает внутри ваших инструментов.
8. Cowork как AI-сотрудник
Указываете рабочую папку, дальше Claude сам читает файлы, задаёт уточняющие вопросы и выдаёт готовые документы, отчёты и черновики.
9. Projects с памятью
Cowork Projects помнят прошлые сессии. Пишете «продолжи отчёт с прошлой недели», и контекст подтягивается без повторного объяснения.
10. Плагины под роль
Есть готовые наборы для Sales, Marketing, Legal, Finance и Data. Каждый даёт специализированные workflow, команды и шаблоны под конкретную работу.
11. AskUserQuestion
Claude сам задаёт нужные уточняющие вопросы в виде кликабельной формы. Не нужно писать километровый промпт и пытаться заранее предусмотреть всё.
12. Claude Design
Лендинги, pitch decks, прототипы приложений, экспорт в Canva, PDF или сразу в Claude Code на доработку.
Главная мысль простая: Claude давно перестал быть чат-окном с текстом. Это связка из агента, инструментов, расписаний, памяти и доступа к вашим сервисам.
Вопрос уже не в том, что он умеет. Вопрос в том, какие из этих 12 возможностей вы реально подключили.
❤5👍4🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Claude можно превратить из «чат-бота» в полноценного агента, если правильно организовать проект.
Вся магия - в структуре папки:
Фактически ты собираешь мини-систему из агентов внутри репозитория.
https://www.youtube.com/shorts/ej5qiDJ0Ibo
Вся магия - в структуре папки:
your-project/
├── CLAUDE.md → инструкции для команды (сохраняется в репозитории)
├── CLAUDE.local.md → личные настройки (игнорируется git)
├── .claude/ → центр управления
│ ├── settings.json → права доступа и конфигурация (в репозитории)
│ ├── settings.local.json → локальные настройки
│ ├── commands/ → кастомные slash-команды
│ │ ├── review.md → /project:review
│ │ ├── fix-issue.md → /project:fix-issue
│ │ └── deploy.md → /project:deploy
│ ├── rules/ → модульные инструкции
│ │ ├── code-style.md
│ │ ├── testing.md
│ │ └── api-conventions.md
│ ├── skills/ → авто-запускаемые workflow
│ │ ├── security-review/
│ │ │ └── SKILL.md
│ │ └── deploy/
│ │ └── SKILL.md
│ └── agents/ → субагенты (роли)
│ ├── code-reviewer.md
│ └── security-auditor.mdФактически ты собираешь мини-систему из агентов внутри репозитория.
https://www.youtube.com/shorts/ej5qiDJ0Ibo
🔥9👍4❤2👎2
🔥 Sakana показала, как будут выглядеть AI-команды будущего: один агент больше не решает всё сам
Sakana AI представила работу “Learning to Orchestrate Agents in Natural Language with the Conductor”, принятую на ICLR 2026. Идея простая, но мощная: вместо того чтобы заставлять одну модель тянуть всю задачу на себе, исследователи обучили отдельную 7B-модель быть менеджером для других ИИ.
Этот Conductor не пишет код и не решает задачу напрямую. Он смотрит на проблему и сам решает, кого из агентов подключить, какую подзадачу каждому дать и какой контекст показать. По сути, это не просто роутер между моделями, а мета-промпт-инженер, который собирает рабочую AI-команду под конкретную задачу.
Самое интересное, что поведение появилось не через жёстко прописанные правила, а через Reinforcement Learning. На простых вопросах Conductor может обойтись одним вызовом модели. На сложных задачах он сам выстраивает цепочку: планировщик, исполнитель, проверяющий, исправляющий агент. Очень похоже на то, как сильная команда разбивает сложную работу на роли.
Результаты выглядят серьёзно. 7B Conductor смог обойти каждую отдельную модель из своего пула, включая GPT-5, Gemini, Claude и open-source модели, доступные на момент исследования. В работе заявлены новые рекорды на LiveCodeBench: 83.9% и GPQA-Diamond: 87.5%. При этом система оказалась дешевле тяжёлых multi-agent подходов вроде Mixture-of-Agents.
Отдельная фишка называется Recursive Test-Time Scaling. Conductor может выбрать самого себя как одного из рабочих агентов, перечитать результат своей команды, понять, где всё пошло не так, и собрать новый исправляющий workflow. То есть масштабирование на инференсе происходит не просто за счёт “подумай дольше”, а за счёт самосборки новой команды под ошибку.
Главный вывод тут не в том, что появился ещё один multi-agent фреймворк. Важнее другое: модели начинают учиться не только отвечать, но и управлять другими моделями. Если раньше AI-системы строились вокруг одного “самого умного” агента, то теперь фокус смещается к оркестрации, ролям, проверкам и коллективному мышлению.
И похоже, именно на этом фундаменте Sakana строит свою новую multi-agent систему Sakana Fugu.
sakana.ai/fugu-beta)
OpenReview: https://openreview.net/forum?id=U23A2BUKYt
Sakana AI представила работу “Learning to Orchestrate Agents in Natural Language with the Conductor”, принятую на ICLR 2026. Идея простая, но мощная: вместо того чтобы заставлять одну модель тянуть всю задачу на себе, исследователи обучили отдельную 7B-модель быть менеджером для других ИИ.
Этот Conductor не пишет код и не решает задачу напрямую. Он смотрит на проблему и сам решает, кого из агентов подключить, какую подзадачу каждому дать и какой контекст показать. По сути, это не просто роутер между моделями, а мета-промпт-инженер, который собирает рабочую AI-команду под конкретную задачу.
Самое интересное, что поведение появилось не через жёстко прописанные правила, а через Reinforcement Learning. На простых вопросах Conductor может обойтись одним вызовом модели. На сложных задачах он сам выстраивает цепочку: планировщик, исполнитель, проверяющий, исправляющий агент. Очень похоже на то, как сильная команда разбивает сложную работу на роли.
Результаты выглядят серьёзно. 7B Conductor смог обойти каждую отдельную модель из своего пула, включая GPT-5, Gemini, Claude и open-source модели, доступные на момент исследования. В работе заявлены новые рекорды на LiveCodeBench: 83.9% и GPQA-Diamond: 87.5%. При этом система оказалась дешевле тяжёлых multi-agent подходов вроде Mixture-of-Agents.
Отдельная фишка называется Recursive Test-Time Scaling. Conductor может выбрать самого себя как одного из рабочих агентов, перечитать результат своей команды, понять, где всё пошло не так, и собрать новый исправляющий workflow. То есть масштабирование на инференсе происходит не просто за счёт “подумай дольше”, а за счёт самосборки новой команды под ошибку.
Главный вывод тут не в том, что появился ещё один multi-agent фреймворк. Важнее другое: модели начинают учиться не только отвечать, но и управлять другими моделями. Если раньше AI-системы строились вокруг одного “самого умного” агента, то теперь фокус смещается к оркестрации, ролям, проверкам и коллективному мышлению.
И похоже, именно на этом фундаменте Sakana строит свою новую multi-agent систему Sakana Fugu.
sakana.ai/fugu-beta)
OpenReview: https://openreview.net/forum?id=U23A2BUKYt
❤6👍6🔥4
SenseNova-U1: мультимодальная модель без привычной «склейки» зрения и языка
SenseNova-U1 вышла на ModelScope под Apache 2.0. Это native multimodal модель, которая объединяет понимание и генерацию в одной архитектуре.
Внутри NEO-Unify: без visual encoder и без VAE. Вместо отдельной обработки картинки и текста модель работает с языком и визуальными данными как с единым end-to-end представлением.
На практике одна модель закрывает сразу несколько задач: text-to-image, редактирование изображений, interleaved generation и visual QA.
Заявлены две версии: 8B-MoT dense и A3B-MoT MoE. По словам разработчиков, SenseNova-U1 показывает SOTA на open-source бенчмарках для понимания и генерации.
https://modelscope.cn/models/SenseNova/SenseNova-U1
SenseNova-U1 вышла на ModelScope под Apache 2.0. Это native multimodal модель, которая объединяет понимание и генерацию в одной архитектуре.
Внутри NEO-Unify: без visual encoder и без VAE. Вместо отдельной обработки картинки и текста модель работает с языком и визуальными данными как с единым end-to-end представлением.
На практике одна модель закрывает сразу несколько задач: text-to-image, редактирование изображений, interleaved generation и visual QA.
Заявлены две версии: 8B-MoT dense и A3B-MoT MoE. По словам разработчиков, SenseNova-U1 показывает SOTA на open-source бенчмарках для понимания и генерации.
https://modelscope.cn/models/SenseNova/SenseNova-U1
❤2👍1🔥1
Алек Рэдфорд, автор GPT-1, GPT-2 и CLIP, совместно с Университетом Торонто обучил 13B-модель исключительно на текстах, опубликованных до 31 декабря 1930 года.
В сет на 260 млрд токенов вошли: англоязычные книги, газеты, патенты и судебные архивы. Моделью-судьей выступила Sonnet 4.6. В обучающем корпусе нет кода, поэтому модель защищена от протекания бенчмарков. Тем не менее на HumanEval она пишет простые Python-скрипты.
Авторы прогнали модель по архивным сводкам The New York Times: перплексия на материалах после 1930 года растёт, максимум - на текстах 1950–60-х. Летом команда планирует масштабировать датасет до 1 трлн токенов и выпустить ретро-модель, сопоставимую по возможностям с ChatGPT.
talkie-lm.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2❤1