🔥 Инженер из Google автоматизировал 80% работы с помощью Claude Code
Разработчик из Google с 11-летним стажем собрал систему, которая взяла на себя 80% его рутинных задач. В основе - Claude Code и три компонента, каждый из которых закрывает конкретную боль. Разбираемся, как это устроено и почему вам стоит попробовать уже сегодня.
CLAUDE.md по правилам Карпати: как один файл снижает ошибки с 40% до 3%
Андрей Карпати - один из самых влиятельных AI-исследователей в мире - задокументировал типовые ошибки, которые допускают LLM при работе с кодом. Кто-то взял эти наблюдения и превратил их в один-единственный файл CLAUDE.md на 15 000 слов. Идея простая: если ошибки предсказуемы, их можно предотвратить правильными инструкциями.
Внутри четыре принципа: Simplicity First (не усложняй), Surgical Changes (меняй точечно), Think Before Coding (сначала подумай, потом пиши), Goal-Driven Execution (работай на результат). Никаких фреймворков и сложного тулинга - один файл, который меняет поведение Claude на уровне проекта. Без CLAUDE.md Claude нарушает конвенции примерно в 40% случаев. С ним - нарушения падают до 3%. Настройка занимает 5 минут.
На GitHub появился репозиторий everything-claude-code (github.com/affaan-m/everything-claude-code), который набрал уже более 153 000 звезд. Это не просто коллекция промптов, а полноценная операционная система для разработки продуктов с помощью AI. Внутри: planner.md для планирования фич, architect.md для принятия системных решений, tdd-guide.md для тестирования, более 30 специализированных агентов, свыше 180 скиллов и встроенный AgentShield с 1282 тестами безопасности.
Работает на Claude, Codex, Cursor, OpenCode, Gemini - одна система везде. Можно установить через plugin marketplace или вручную скопировать нужные компоненты в .claude/ вашего проекта. Только не грузите все сразу - берите то, что реально нужно.
Кто-то настроил HTTP-прокси и перехватил полные API-запросы четырех разных версий Claude Code. Выяснилось занятное: версия v2.1.100 отправляет меньше байт, но списывает на 20 000 токенов больше, чем v2.1.98. Инфляция происходит целиком на стороне сервера - вы ее не видите в клиенте.
Почему это важно не только для кошелька: эти 20 000 токенов попадают в реальное контекстное окно Claude. Ваши инструкции из CLAUDE.md разбавляются скрытым контентом, качество ответов падает, а вы даже не понимаете почему. Временное решение - откатиться на v2.1.98 командой npx claude-code@2.1.98. Фикс занимает 30 секунд.
Кейс: как выглядит полная автоматизация на практике
Тот самый инженер собрал трехступенчатый пайплайн. Dotnet-приложение обращается к GitLab API каждые 15 минут. Claude читает задачу и решает, готова ли она к работе. Если да - пишет код, прогоняет тесты, открывает merge request. Результат через неделю: вместо 8 часов кодинга в день - 2-3 часа на ревью и тестирование. Качество кода при этом не упало, потому что он проверяет каждый коммит.
Никакой магии: CLAUDE.md + правильные агенты + 15-минутный цикл. Это не требует гениальности или опыта из FAANG. Нужно просто потратить один вечер на настройку и перестать спорить, заменит ли AI разработчиков, и начать использовать его как инструмент.
Ссылки:
Репозиторий Everything Claude Code: https://github.com/affaan-m/everything-claude-code
Разработчик из Google с 11-летним стажем собрал систему, которая взяла на себя 80% его рутинных задач. В основе - Claude Code и три компонента, каждый из которых закрывает конкретную боль. Разбираемся, как это устроено и почему вам стоит попробовать уже сегодня.
CLAUDE.md по правилам Карпати: как один файл снижает ошибки с 40% до 3%
Андрей Карпати - один из самых влиятельных AI-исследователей в мире - задокументировал типовые ошибки, которые допускают LLM при работе с кодом. Кто-то взял эти наблюдения и превратил их в один-единственный файл CLAUDE.md на 15 000 слов. Идея простая: если ошибки предсказуемы, их можно предотвратить правильными инструкциями.
Внутри четыре принципа: Simplicity First (не усложняй), Surgical Changes (меняй точечно), Think Before Coding (сначала подумай, потом пиши), Goal-Driven Execution (работай на результат). Никаких фреймворков и сложного тулинга - один файл, который меняет поведение Claude на уровне проекта. Без CLAUDE.md Claude нарушает конвенции примерно в 40% случаев. С ним - нарушения падают до 3%. Настройка занимает 5 минут.
На GitHub появился репозиторий everything-claude-code (github.com/affaan-m/everything-claude-code), который набрал уже более 153 000 звезд. Это не просто коллекция промптов, а полноценная операционная система для разработки продуктов с помощью AI. Внутри: planner.md для планирования фич, architect.md для принятия системных решений, tdd-guide.md для тестирования, более 30 специализированных агентов, свыше 180 скиллов и встроенный AgentShield с 1282 тестами безопасности.
Работает на Claude, Codex, Cursor, OpenCode, Gemini - одна система везде. Можно установить через plugin marketplace или вручную скопировать нужные компоненты в .claude/ вашего проекта. Только не грузите все сразу - берите то, что реально нужно.
Кто-то настроил HTTP-прокси и перехватил полные API-запросы четырех разных версий Claude Code. Выяснилось занятное: версия v2.1.100 отправляет меньше байт, но списывает на 20 000 токенов больше, чем v2.1.98. Инфляция происходит целиком на стороне сервера - вы ее не видите в клиенте.
Почему это важно не только для кошелька: эти 20 000 токенов попадают в реальное контекстное окно Claude. Ваши инструкции из CLAUDE.md разбавляются скрытым контентом, качество ответов падает, а вы даже не понимаете почему. Временное решение - откатиться на v2.1.98 командой npx claude-code@2.1.98. Фикс занимает 30 секунд.
Кейс: как выглядит полная автоматизация на практике
Тот самый инженер собрал трехступенчатый пайплайн. Dotnet-приложение обращается к GitLab API каждые 15 минут. Claude читает задачу и решает, готова ли она к работе. Если да - пишет код, прогоняет тесты, открывает merge request. Результат через неделю: вместо 8 часов кодинга в день - 2-3 часа на ревью и тестирование. Качество кода при этом не упало, потому что он проверяет каждый коммит.
Никакой магии: CLAUDE.md + правильные агенты + 15-минутный цикл. Это не требует гениальности или опыта из FAANG. Нужно просто потратить один вечер на настройку и перестать спорить, заменит ли AI разработчиков, и начать использовать его как инструмент.
Ссылки:
Репозиторий Everything Claude Code: https://github.com/affaan-m/everything-claude-code
❤8🔥4👍2
По словам Василия Разумных, CTO «Т-Рекламы», рекламная платформа Т-Банка изначально строится вокруг ML. Модели используются не только для предсказания кликабельности, а для всего целиком: от формирования аудитории до генерации креатива в реальном времени. Вместо статичного баннера система динамически собирает офер — комбинирует условия партнера, продукты экосистемы, персональные скидки прямо в момент запроса.
От ручного управления ставками отказались, потому что поведение пользователей и контекст меняются слишком быстро. Автоматизация на данных повысила эффективность, снизила нагрузку на менеджеров и число ошибок. В аукционе ставка перестала быть единственным фактором победы — добавилась многокритериальная оптимизация с прогнозом вовлеченности и качеством креатива.
Главные инженерные сложности были не в самих моделях, а в низкой задержке при обработке данных и сохранении их актуальности. Пришлось объединять разрозненные источники из разных вертикалей экосистемы (финансовые сервисы, Шопинг, Путешествия) в единое хранилище и feature store, соблюдая приватность. Отдельная задача — холодный старт новых кампаний: для этого сделали механизмы быстрого сбора статистики и предварительных оценок.
Принятие решения о показе выглядит так. На запрос рекламодателя система формирует пул кандидатов, ранжирует их скоринговой моделью, которая учитывает экономику, вероятность целевого действия, качество креатива и репутацию рекламодателя. Вес факторов адаптируется под контекст и конкуренцию. Побеждает не самое дорогое объявление, а то, которое лучше всего подходит пользователю в текущий момент.
От классической ручной сегментации постепенно отходят в сторону динамического формирования аудиторий на основе ML-таргетинга. Система сама находит пользователей, склонных к целевому действию, исходя из заданных целей кампании. При этом ручные уточнения сохраняются для брендовых стратегий. Развиваются look-alike и другие инструменты расширения аудиторий.
Что меняется в запросах рекламодателей? Растет спрос на перформанс и измеримые действия, а не просто на охваты. Сохраняется запрос на брендинг, но в форме брендформанса. Увеличивается интерес к автоматизированным стратегиям закупки и self-service-инструментам, чтобы запускать кампании быстрее и без ручной оптимизации. Бюджеты смещаются в ретейл-медиа и внутренние площадки экосистем, где есть близость к покупке и прозрачная атрибуция.
📌AdIndex: https://adindex.ru/publication/interviews/agency/2026/04/13/344156.phtml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤12🥰1😁1
Невероятное открытие: Математики тихо провернули безумную вещь: нашли «универсальную операцию» для всей математики
Польский физик показал, что любую функцию вообще можно собрать из одного примитива. Да, буквально всё: exp, π, i, sin, cos, сложение, умножение и дальше по списку. Раньше нужно было много разных операций, а теперь теоретически всё можно выразить через одну формулу.
Если знаком с NAND, ты уже понял вайб. В булевой логике это одна операция, через которую выражается вообще всё. Из-за этого реальные процессоры по сути собираются из NAND-гейтов.
Так вот здесь сделали то же самое, только для непрерывной математики.
Вместо кучи операций вводится одна:
eml(x, y) = e^x - ln(y)
И дальше начинается магия. Любую функцию можно развернуть в композицию таких выражений. Иногда это выглядит как монстр из вложенных вызовов, но формально всё сводится к одному строительному блоку.
Например, даже логарифм можно собрать через такие вложенности. Для более сложных вещей выражения становятся длинными, но они существуют и это доказано.
И вот тут начинается самое интересное.
Обычно symbolic regression это ад. Нужно перебирать формулы из кучи операций: плюс, умножение, синусы, логарифмы. Огромное дискретное пространство, почти не оптимизируется.
С EML всё упрощается. У тебя один тип узла. Всё пространство формул становится однородным деревом.
А значит можно делать то, что раньше было болью: оптимизировать формулы градиентами, как нейросети.
То есть модель не просто фитит данные. Она может реально схлопнуться в точную формулу.
Если это масштабируется, это прям мост между ML и классической наукой. Не просто предсказания, а извлечение законов из данных.
www.alphaxiv.org/abs/2603.21852v2
Польский физик показал, что любую функцию вообще можно собрать из одного примитива. Да, буквально всё: exp, π, i, sin, cos, сложение, умножение и дальше по списку. Раньше нужно было много разных операций, а теперь теоретически всё можно выразить через одну формулу.
Если знаком с NAND, ты уже понял вайб. В булевой логике это одна операция, через которую выражается вообще всё. Из-за этого реальные процессоры по сути собираются из NAND-гейтов.
Так вот здесь сделали то же самое, только для непрерывной математики.
Вместо кучи операций вводится одна:
eml(x, y) = e^x - ln(y)
И дальше начинается магия. Любую функцию можно развернуть в композицию таких выражений. Иногда это выглядит как монстр из вложенных вызовов, но формально всё сводится к одному строительному блоку.
Например, даже логарифм можно собрать через такие вложенности. Для более сложных вещей выражения становятся длинными, но они существуют и это доказано.
И вот тут начинается самое интересное.
Обычно symbolic regression это ад. Нужно перебирать формулы из кучи операций: плюс, умножение, синусы, логарифмы. Огромное дискретное пространство, почти не оптимизируется.
С EML всё упрощается. У тебя один тип узла. Всё пространство формул становится однородным деревом.
А значит можно делать то, что раньше было болью: оптимизировать формулы градиентами, как нейросети.
То есть модель не просто фитит данные. Она может реально схлопнуться в точную формулу.
Если это масштабируется, это прям мост между ML и классической наукой. Не просто предсказания, а извлечение законов из данных.
www.alphaxiv.org/abs/2603.21852v2
👍12❤10🔥5
Трансформация профессии разработчика в эпоху ИИ
Профессия разработчика меняется прямо сейчас: ИИ уже пишет код, предлагает архитектуру и собирает прототипы за минуты. Но без фундаментальных знаний архитектуры, алгоритмов, сетей, безопасности и DevOps использовать такие инструменты рискованно.
Центральный университет запускает серию бесплатных вебинаров о том, как меняется роль разработчика в 2026 году, какие навыки остаются критически важными и как безопасно и эффективно использовать нейросети в разработке.
На вебинарах разберем:
— почему ИИ не заменит программиста, но изменит его роль;
— какие навыки и языки будут востребованы;
— чего ждут работодатели от разработчиков сегодня;
— почему магистратура по бэкенд-разработке может стать преимуществом;
— как вырасти в техлида и тимлида, не теряя технических экспертных знаний.
Спикеры — лидеры индустрии из Центрального университета, Авито и cloud. ru.
Даты вебинаров: 21, 23 и 27 апреля 2026, 19:00 мск.
Регистрируйся по ссылке
Профессия разработчика меняется прямо сейчас: ИИ уже пишет код, предлагает архитектуру и собирает прототипы за минуты. Но без фундаментальных знаний архитектуры, алгоритмов, сетей, безопасности и DevOps использовать такие инструменты рискованно.
Центральный университет запускает серию бесплатных вебинаров о том, как меняется роль разработчика в 2026 году, какие навыки остаются критически важными и как безопасно и эффективно использовать нейросети в разработке.
На вебинарах разберем:
— почему ИИ не заменит программиста, но изменит его роль;
— какие навыки и языки будут востребованы;
— чего ждут работодатели от разработчиков сегодня;
— почему магистратура по бэкенд-разработке может стать преимуществом;
— как вырасти в техлида и тимлида, не теряя технических экспертных знаний.
Спикеры — лидеры индустрии из Центрального университета, Авито и cloud. ru.
Даты вебинаров: 21, 23 и 27 апреля 2026, 19:00 мск.
Регистрируйся по ссылке
❤2🔥2👍1
GitHub stars больше не показатель. Их просто покупают
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
Исследование показало: около 6 миллионов звёзд, поставленных недавно на GitHub могут быть накрученными. Это 18 617 репозиториев и 300 000+ аккаунтов.
Рынок уже сформировался:
• звезда стоит от $0.03 до $0.85
• продаётся через фриланс-платформы, вроде Fiverr и через Telegram
• накрутка делается пачками под запуск или «рост» проекта
Проблема в том, что инвесторы и алгоритмы до сих пор смотрят на звёзды как на сигнал качества и популярности.
Реальный показатель сейчас - разрыв между метриками:
• если звёзд много, а форков и watchers почти нет
• если никто не копирует код и не следит за обновлениями
• если нет активности в issues и PR
https://awesomeagents.ai/news/github-fake-stars-investigation/
👍8❤5🔥2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Ты до сих пор пишешь промпты как «сделай пост про AI» и удивляешься, что получается мусор?
Проблема не в модели. Проблема в том, что ты сразу просишь результат, минуя самый важный этап — выравнивание контекста.
Продвинутый хак: перестань писать промпты как команды. Начни писать их как процесс.
90% людей делают так:
«Напиши пост для LinkedIn про AI»
1% делают так:
«НЕ начинай писать. Сначала задай вопросы, чтобы понять аудиторию, цель, стиль и уровень глубины»
И это полностью меняет качество ответа.
Почему это работает
LLM не читает твои мысли. Она достраивает недостающий контекст сама.
И почти всегда делает это неправильно.
Когда ты заставляешь модель сначала задавать вопросы:
- она сама собирает контекст
- снижает вероятность галлюцинаций
- подстраивается под задачу до генерации
Фактически ты превращаешь её из генератора текста в аналитика перед генерацией.
Но есть уровень выше.
Топовый промпт выглядит так:
«Хочу написать пост для LinkedIn про AI инструменты, которые использую каждый день.
Не начинай писать.
Сначала задай уточняющие вопросы.
После этого предложи структуру поста.
Согласуй её со мной.
И только потом напиши финальный текст»
Ты разбиваешь задачу на этапы:
контекст → структура → результат
Это и есть настоящая работа с моделями.
Самое интересное
Такой подход:
- уменьшает количество итераций в 2-3 раза
- дает текст, который реально можно публиковать
- экономит токены, потому что нет переписываний
Вывод простой
Плохой промпт просит ответ.
Хороший промпт управляет процессом мышления модели.
Именно это и есть разница между новичком и тем, кто реально выжимает из LLM максимум.
Проблема не в модели. Проблема в том, что ты сразу просишь результат, минуя самый важный этап — выравнивание контекста.
Продвинутый хак: перестань писать промпты как команды. Начни писать их как процесс.
90% людей делают так:
«Напиши пост для LinkedIn про AI»
1% делают так:
«НЕ начинай писать. Сначала задай вопросы, чтобы понять аудиторию, цель, стиль и уровень глубины»
И это полностью меняет качество ответа.
Почему это работает
LLM не читает твои мысли. Она достраивает недостающий контекст сама.
И почти всегда делает это неправильно.
Когда ты заставляешь модель сначала задавать вопросы:
- она сама собирает контекст
- снижает вероятность галлюцинаций
- подстраивается под задачу до генерации
Фактически ты превращаешь её из генератора текста в аналитика перед генерацией.
Но есть уровень выше.
Топовый промпт выглядит так:
«Хочу написать пост для LinkedIn про AI инструменты, которые использую каждый день.
Не начинай писать.
Сначала задай уточняющие вопросы.
После этого предложи структуру поста.
Согласуй её со мной.
И только потом напиши финальный текст»
Ты разбиваешь задачу на этапы:
контекст → структура → результат
Это и есть настоящая работа с моделями.
Самое интересное
Такой подход:
- уменьшает количество итераций в 2-3 раза
- дает текст, который реально можно публиковать
- экономит токены, потому что нет переписываний
Вывод простой
Плохой промпт просит ответ.
Хороший промпт управляет процессом мышления модели.
Именно это и есть разница между новичком и тем, кто реально выжимает из LLM максимум.
❤8🔥3👍2
Роскошный максимум: получить приглашение в команду SberAds за один день! 😉
Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:
✔️ создавать и улучшать модели для real-time аукционов
✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы
✔️ стать частью команды из 8000+ коллег (это вау! 🤩)
Занимай место в проекте мечты!
* One Day Offer — предложение о работе за один день.
** Data Analyst — аналитик данных.
Сделать это можно на One Day Offer* для Data Analyst**, который пройдёт уже 25 апреля. Сбер ждёт специалистов, которые готовы:
✔️ создавать и улучшать модели для real-time аукционов
✔️ трансформировать SberAds — вывести на пик эффективности, качества и релевантности рекламы
✔️ стать частью команды из 8000+ коллег (это вау! 🤩)
Занимай место в проекте мечты!
* One Day Offer — предложение о работе за один день.
** Data Analyst — аналитик данных.
❤1
⚡️ Курс по Deep Learning (Fall 2024) от MIT выложили в открытый доступ.
Один из преподавателей — Phillip Isola, исследователь в области Computer Vision, известный по работе над CycleGAN (2017).
В курсе есть всё:
- видеолекции
- слайды
- дополнительные материалы
- домашние задания
Домашки можно попробовать выполнить самостоятельно — это хороший способ закрепить материал.
Курс подойдёт тем, кто уже знаком с основами и хочет лучше разобраться в Deep Learning, а не только использовать готовые инструменты.
Скачать и смотреть:
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
Один из преподавателей — Phillip Isola, исследователь в области Computer Vision, известный по работе над CycleGAN (2017).
В курсе есть всё:
- видеолекции
- слайды
- дополнительные материалы
- домашние задания
Домашки можно попробовать выполнить самостоятельно — это хороший способ закрепить материал.
Курс подойдёт тем, кто уже знаком с основами и хочет лучше разобраться в Deep Learning, а не только использовать готовые инструменты.
Скачать и смотреть:
https://ocw.mit.edu/courses/6-7960-deep-learning-fall-2024/video_galleries/lecture-videos/
MIT OpenCourseWare
Lecture Videos | Deep Learning | Electrical Engineering and Computer Science | MIT OpenCourseWare
MIT OpenCourseWare is a web based publication of virtually all MIT course content. OCW is open and available to the world and is a permanent MIT activity
🔥7❤3👍3🎉1
⭐️ Opus 4.7 перестал угадывать. И в этом вся разница.
4.6 выглядел умным, потому что додумывал за тебя.
4.7 больше так не делает.
Если ты не сказал, он не будет предполагать.
Если инструкция неочевидна, он не будет «догадываться».
И это сначала ощущается как деградация.
Но на деле это убрали галлюцинации под видом «интеллекта».
Есть два типа неопределённости, и они теперь ведут себя по-разному.
Когда задача размытая, но цель понятна - 4.7 справляется лучше.
Когда формулировка кривоватая - он не пытается угадать, что ты имел в виду.
Раньше модель закрывала это фантазией.
Теперь возвращает контроль тебе.
Тебе не нужно писать длинные инструкции.
Нужно чётко задать:
• что ты строишь
• зачем это нужно
• что считается хорошим результатом
Дальше модель сама достраивает остальное.
И меняется сам процесс разработки.
Сначала смотри план, а не код.
Ошибки появляются не в реализации, а в понимании задачи.
plan mode позволяет поймать это до генерации кода
/ultrareview уже проверяет результат
Точка контроля - не строки кода
а изначальное намерение
• 4.6 казался умным
• 4.7 стал честнее.
4.6 выглядел умным, потому что додумывал за тебя.
4.7 больше так не делает.
Если ты не сказал, он не будет предполагать.
Если инструкция неочевидна, он не будет «догадываться».
И это сначала ощущается как деградация.
Но на деле это убрали галлюцинации под видом «интеллекта».
Есть два типа неопределённости, и они теперь ведут себя по-разному.
Когда задача размытая, но цель понятна - 4.7 справляется лучше.
Когда формулировка кривоватая - он не пытается угадать, что ты имел в виду.
Раньше модель закрывала это фантазией.
Теперь возвращает контроль тебе.
Тебе не нужно писать длинные инструкции.
Нужно чётко задать:
• что ты строишь
• зачем это нужно
• что считается хорошим результатом
Дальше модель сама достраивает остальное.
И меняется сам процесс разработки.
Сначала смотри план, а не код.
Ошибки появляются не в реализации, а в понимании задачи.
plan mode позволяет поймать это до генерации кода
/ultrareview уже проверяет результат
Точка контроля - не строки кода
а изначальное намерение
• 4.6 казался умным
• 4.7 стал честнее.
👍20❤5👎4😁2
Как подросток заработал $70 000 за месяц на ИИ книгах
Как подросток заработал $70 000 за месяц на ИИ книгах
Пятнадцатилетний парень за один месяц поднял $70 000 на книгах, которые никто в здравом уме не стал бы читать. Весь механизм держится на одной цифре: Amazon платит авторам Kindle Unlimited около<b> $0.0041 за каждую прочитанную страницу</b>. Если книга на <b>3000</b> страниц получает тысячу фейковых прочтений в день, это уже <b>$12 000</b> в месяц. Сто таких книг одновременно дают больше миллиона долларов в месяц.
Схема до смешного простая. Открываешь любой ИИ инструмент, просишь сгенерировать книгу на 3000 страниц, ждёшь пару минут, добавляешь обложку и заливаешь в Amazon KDP. Включаешь раздачу через Kindle Unlimited, и книга моментально становится доступна миллионам читателей. Дальше идёт самая интересная часть.
Автор платит клик ферме пару сотен долларов, и тысячи фейковых аккаунтов Kindle начинают круглосуточно имитировать чтение этой книги. Некоторые ребята крутили сотни книг одновременно, каждая под разным именем, каждая ровно на максимальных 3000 страницах, каждая прокачивалась ботами 24/7. Отдельные умельцы вставляли на первую страницу поддельные ссылки вроде "выиграй Kindle Fire", которые одним кликом уносили реального читателя сразу на последнюю страницу и засчитывали полное прочтение.
Amazon в итоге спохватился и срезал лимит страниц в Kindle Unlimited с 10 000 до 3000. Под раздачу попали и настоящие авторы: боты маскировали свою активность, читая случайные легитимные книги, из за чего живых писателей начали банить вместе с мошенниками.
Вся эта история показывает неприятную изнанку связки ИИ и платформ с автоматическими выплатами. Генеративные модели превратили написание тысяч страниц в дело пары минут, а системы монетизации по прочтениям до сих пор не умеют отличать бота от человека. Пока платформы учатся защищаться, кто то спокойно делает на этом миллионы.
https://vc.ru/money/2874629-kak-podrostok-zarabotal-dengi-na-ii-knigakh-i-kindle-unlimited
Как подросток заработал $70 000 за месяц на ИИ книгах
Пятнадцатилетний парень за один месяц поднял $70 000 на книгах, которые никто в здравом уме не стал бы читать. Весь механизм держится на одной цифре: Amazon платит авторам Kindle Unlimited около<b> $0.0041 за каждую прочитанную страницу</b>. Если книга на <b>3000</b> страниц получает тысячу фейковых прочтений в день, это уже <b>$12 000</b> в месяц. Сто таких книг одновременно дают больше миллиона долларов в месяц.
Схема до смешного простая. Открываешь любой ИИ инструмент, просишь сгенерировать книгу на 3000 страниц, ждёшь пару минут, добавляешь обложку и заливаешь в Amazon KDP. Включаешь раздачу через Kindle Unlimited, и книга моментально становится доступна миллионам читателей. Дальше идёт самая интересная часть.
Автор платит клик ферме пару сотен долларов, и тысячи фейковых аккаунтов Kindle начинают круглосуточно имитировать чтение этой книги. Некоторые ребята крутили сотни книг одновременно, каждая под разным именем, каждая ровно на максимальных 3000 страницах, каждая прокачивалась ботами 24/7. Отдельные умельцы вставляли на первую страницу поддельные ссылки вроде "выиграй Kindle Fire", которые одним кликом уносили реального читателя сразу на последнюю страницу и засчитывали полное прочтение.
Amazon в итоге спохватился и срезал лимит страниц в Kindle Unlimited с 10 000 до 3000. Под раздачу попали и настоящие авторы: боты маскировали свою активность, читая случайные легитимные книги, из за чего живых писателей начали банить вместе с мошенниками.
Вся эта история показывает неприятную изнанку связки ИИ и платформ с автоматическими выплатами. Генеративные модели превратили написание тысяч страниц в дело пары минут, а системы монетизации по прочтениям до сих пор не умеют отличать бота от человека. Пока платформы учатся защищаться, кто то спокойно делает на этом миллионы.
https://vc.ru/money/2874629-kak-podrostok-zarabotal-dengi-na-ii-knigakh-i-kindle-unlimited
👍12❤9🔥5👎4
This media is not supported in your browser
VIEW IN TELEGRAM
Секунда - и ты уже не понимаешь, что произошло: два силуэта в белом, вспышка, очко. Фехтование всегда было спортом быстрее человеческого глаза.
Японцы это изменили!
Система Fencing Visualized (https://dentsulab.tokyo/en/works/fencingvisualized/) превращает бой в читаемую картинку: компьютерное зрение в реальном времени отслеживает кончик шпаги и рисует за ним цветной след. Теперь видно не просто “кто выиграл”, а как именно был нанесён укол.
Раньше это выглядело как хаос. Теперь - как дуэль на световых мечах из Star Wars.
И внутри никакого железа:
без датчиков
без маркеров
только видео и нейросети
Система сама вытаскивает движение из потока и накладывает визуал прямо во время трансляции. Плюс - уже умеет распознавать приёмы фехтовальщиков.
AI делает сложный спорт понятным.
Теперь вопрос времени, когда в футболе появится огненный след за мячом и полоска стамины над игроками.
Японцы это изменили!
Система Fencing Visualized (https://dentsulab.tokyo/en/works/fencingvisualized/) превращает бой в читаемую картинку: компьютерное зрение в реальном времени отслеживает кончик шпаги и рисует за ним цветной след. Теперь видно не просто “кто выиграл”, а как именно был нанесён укол.
Раньше это выглядело как хаос. Теперь - как дуэль на световых мечах из Star Wars.
И внутри никакого железа:
без датчиков
без маркеров
только видео и нейросети
Система сама вытаскивает движение из потока и накладывает визуал прямо во время трансляции. Плюс - уже умеет распознавать приёмы фехтовальщиков.
AI делает сложный спорт понятным.
Теперь вопрос времени, когда в футболе появится огненный след за мячом и полоска стамины над игроками.
🔥20❤3👍2🥰1👏1
Как мы автоматизировали Code Review с помощью LLM ⚡️
В Авито большой поток пул-реквестов. Разработчики регулярно отвлекаются на ревью чужого кода, отчего быстрее устают. К тому же у каждого ревьюера своё представление о том, как делать правильно.
Мы автоматизировали часть проверок с помощью LLM, чтобы освободить разработчиков от этой задачи. Модель анализирует код и находит максимум потенциальных ошибок, но благодаря валидации оставляет комментарии только по делу. Разработчики получают полезную обратную связь и могут сосредоточиться на основной работе.
О том, как устроена система, почему выбрали селфхостинг и какие метрики отслеживаем, рассказывает Марк Каширский, DS-инженер команды LLM Авито.
Прочитать подробности на Хабре
В Авито большой поток пул-реквестов. Разработчики регулярно отвлекаются на ревью чужого кода, отчего быстрее устают. К тому же у каждого ревьюера своё представление о том, как делать правильно.
Мы автоматизировали часть проверок с помощью LLM, чтобы освободить разработчиков от этой задачи. Модель анализирует код и находит максимум потенциальных ошибок, но благодаря валидации оставляет комментарии только по делу. Разработчики получают полезную обратную связь и могут сосредоточиться на основной работе.
О том, как устроена система, почему выбрали селфхостинг и какие метрики отслеживаем, рассказывает Марк Каширский, DS-инженер команды LLM Авито.
Прочитать подробности на Хабре
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
🧭 LLMRouter - умная маршрутизация запросов между LLM
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
❤5👍2🤬2🔥1
Forwarded from Machinelearning
Компания представила 2 новых автономных агента в Gemini API - Deep Research и Deep Research Max. Оба построены на Gemini 3.1 Pro и доступны через Interactions API.
Главное изменение по сравнению с декабрьским превью - поддержка MCP: теперь агент умеет выходить за пределы открытого веба и работать с закрытыми корпоративными источниками данных.
Типичный сценарий: асинхронные фоновые процессы, например ночной cron-job, готовящий аналитикам к утру набор подробных аналитических отчётов.
По внутренним замерам Google, Max консультируется с заметно большим числом источников и точнее взвешивает противоречивые свидетельства, чем декабрьская версия. Все отчёты полностью сопровождаются ссылками (от документов SEC до открытых рецензируемых журналов).
Инструменты агента можно включать одновременно: Google Search, URL Context, Code Execution, File Search и произвольные удалённые MCP-серверы. Веб при желании отключается (тогда поиск идёт только по пользовательским данным). В качестве опорных данных принимаются PDF, CSV, изображения, аудио и видео.
Отдельное новшество - нативная генерация графиков и инфографики прямо в теле отчёта через HTML или Nano Banana, без внешних библиотек.
Для интерактивных интерфейсов предусмотрен стриминг промежуточных рассуждений и результатов в реальном времени.
Появился и режим совместного планирования: план исследования можно просмотреть и скорректировать до того, как агент начнёт его выполнять.
Deep Research и Deep Research Max доступны в режиме public preview на платных тарифах Gemini API.
В ближайшее время оба агента появятся в Google Cloud для корпоративных клиентов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤4
🚨 Искусственный интеллект Anthropic взломан: модель Mythos вышла из-под контроля!
Модель Claude Mythos от Anthropic, которую компания скрывала, называя её «слишком опасной для общественности» из-за её способностей к кибератакам и взлому операционных систем, была захвачена хакерами!
Благодаря утечке данных через партнёра по обучению Mercor хакеры расшифровали схему именования модели, предсказали структуру URL и проникли внутрь.
Заявления Дарио Амадео о том, что «у нас самая безопасная лаборатория», рухнули из-за этой масштабной утечки. Речь идёт не только о Mythos — вся линия разработки (pipeline) Anthropic теперь может быть в руках пиратов.
Самый мощный «ключ» цифрового мира теперь в руках тёмных сил за дверью!
Модель Claude Mythos от Anthropic, которую компания скрывала, называя её «слишком опасной для общественности» из-за её способностей к кибератакам и взлому операционных систем, была захвачена хакерами!
Благодаря утечке данных через партнёра по обучению Mercor хакеры расшифровали схему именования модели, предсказали структуру URL и проникли внутрь.
Заявления Дарио Амадео о том, что «у нас самая безопасная лаборатория», рухнули из-за этой масштабной утечки. Речь идёт не только о Mythos — вся линия разработки (pipeline) Anthropic теперь может быть в руках пиратов.
Самый мощный «ключ» цифрового мира теперь в руках тёмных сил за дверью!
👍9😁7❤4