Предисловие
Жить в исторические времена уже изрядно поднадоело, но видимо всё только начинается. Каждый день я сажусь за компуктер, открываю интерфейс с новенькой нейронкой и очередная привычка, накопленная за 10 лет в стартапах, летит в мусорку. Об этом хочется не то что болтать в чатиках, а вопить во всё горло, но за пределами tpot тусовочки в твитторе и подкаста Дваркеша разумного дискурса вокруг темы нет.
Мне важно говорить об этом на русском, отсюда и формат тг канала,вам же как раз не хватало еще одного . Я постараюсь сделать так, чтобы все оформленные высказывания можно было удобно прочитать на любом экране, без необходимости скроллить вытянутый бабл на 70% ширины экрана, будет похоже на подписной журнал, надеюсь, будет удобно!
В основном здесь будем думать о том, как выйти из трех сигм, попасть в заветные топ1% и успеть найти место под солнцем, пока еще индустрия работает по старым правилам. Уведомления выключайте, но периодически заглядывайте — есть предчувствие, что посты будут устаревать с феноменальной скоростью.
accelerate, anon
Жить в исторические времена уже изрядно поднадоело, но видимо всё только начинается. Каждый день я сажусь за компуктер, открываю интерфейс с новенькой нейронкой и очередная привычка, накопленная за 10 лет в стартапах, летит в мусорку. Об этом хочется не то что болтать в чатиках, а вопить во всё горло, но за пределами tpot тусовочки в твитторе и подкаста Дваркеша разумного дискурса вокруг темы нет.
Мне важно говорить об этом на русском, отсюда и формат тг канала,
В основном здесь будем думать о том, как выйти из трех сигм, попасть в заветные топ1% и успеть найти место под солнцем, пока еще индустрия работает по старым правилам. Уведомления выключайте, но периодически заглядывайте — есть предчувствие, что посты будут устаревать с феноменальной скоростью.
accelerate, anon
40🔥49👍18👀3🆒2🤔1🎉1👾1
indie-unicorns.html
11.6 KB
Не будет никаких инди-уникорнов
С самого начала хайпа ChatGPT, люди ставят её себе в ко-фаундеры на лендинге и пишут: "ИИ — полноценный член команды". Логичная экстраполяция, к которой все приходят — в том, что дескать нам стоит ожидать сначала драматическое уменьшение размера средней команды в стартапах, а потом и вовсе мы увидим огромные миллиардные компании, в которых один человек будет оркестрировать ансамбль нейросетей и извлекать сверх-прибыль. Думаю, так не будет.
С самого начала хайпа ChatGPT, люди ставят её себе в ко-фаундеры на лендинге и пишут: "ИИ — полноценный член команды". Логичная экстраполяция, к которой все приходят — в том, что дескать нам стоит ожидать сначала драматическое уменьшение размера средней команды в стартапах, а потом и вовсе мы увидим огромные миллиардные компании, в которых один человек будет оркестрировать ансамбль нейросетей и извлекать сверх-прибыль. Думаю, так не будет.
8🔥26👍11❤6🙏6😁3🤔3🌚2🥰1
no_new_instruments.html
931.6 KB
Создание новых технологий вредит прогрессу
Консолидация технологий — важнейшее явление для осознания в эпоху между популярностью LLM и AGI. Подумаем, как не попасть под каток этого тренда, как скорректировать свою стратегию и почему оптимальный выбор будет разным для бизнесов и личной карьеры.
Консолидация технологий — важнейшее явление для осознания в эпоху между популярностью LLM и AGI. Подумаем, как не попасть под каток этого тренда, как скорректировать свою стратегию и почему оптимальный выбор будет разным для бизнесов и личной карьеры.
8🔥27👍9❤2👏2🌚1
i_robot.html
745.1 KB
Я — робот?
Моделируем концовку с элементами алармизма, где человеческую цивилизацию поджидает сюжетный поворот уровня Атаки Титанов.
Моделируем концовку с элементами алармизма, где человеческую цивилизацию поджидает сюжетный поворот уровня Атаки Титанов.
8👾18❤13👏6👍3🤔3🥰2🥴1
boss_fight_planning.html
1.3 MB
Приоритизация как битва с боссом
Чему нас могут научить сражения с примитивными ИИ в видеоиграх? Разбираем ментальную модель, глубинно понятную любому геймеру, которая оказывается удивительно полезной для извлечения асинхронной прибыли в бизнесе и жизни.
Чему нас могут научить сражения с примитивными ИИ в видеоиграх? Разбираем ментальную модель, глубинно понятную любому геймеру, которая оказывается удивительно полезной для извлечения асинхронной прибыли в бизнесе и жизни.
8❤18👍14👎1
An Observation on Generalization
Каждый раз, когда вы слышите, что пре-трейнинг LLM — это “ZIP-архив” Интернета с потерями, это звучит одновременно понятно и нет. Илья Суцкевер одним из первых ввёл интуицию думать об обучении без учителя, как о сжатии данных. Формула “интеллект == компрессия” актуальна и в 2025 (см. GPT-4.5 ), а доклад успел стать абсолютной классикой. Обязателен к просмотру для того, чтобы понять, почему bitter lesson и scaling laws работают.
▶️ YouTube
Каждый раз, когда вы слышите, что пре-трейнинг LLM — это “ZIP-архив” Интернета с потерями, это звучит одновременно понятно и нет. Илья Суцкевер одним из первых ввёл интуицию думать об обучении без учителя, как о сжатии данных. Формула “интеллект == компрессия” актуальна и в 2025 (
▶️ YouTube
102❤🔥15🔥10❤4👍4👏3
сursor_rules.html
1.1 MB
Правила для кодинг агентов на примере Cursor
Мы очень хотим “нанять” асинхронных ИИ-агентов в нашу команду, но сначала нужно научиться one-shot’ить задачки самостоятельно. Подвожу итоги 8-ми недель R&D по системе правил Курсора, в результате которых мы стали регулярно решать задачи с одного промпта.
Мы очень хотим “нанять” асинхронных ИИ-агентов в нашу команду, но сначала нужно научиться one-shot’ить задачки самостоятельно. Подвожу итоги 8-ми недель R&D по системе правил Курсора, в результате которых мы стали регулярно решать задачи с одного промпта.
7🔥48👍14❤3👏2💘2
figma-rules.txt
2.9 KB
Организация Figma для one-shot c Сursor + Figma-Context-MCP
Вышел супер-вдохновленный с нашей внутренней AI-встречи, где был парный доклад Лены (FE) + Егора (Design), в котором они рассказали как прошли путь от полного мусора до почти идеального экрана с одного промпта.
С разрешения Егора украл для этого канала правила для макетов, которые ребята сформулировали по итогам этого ресерча 💎.
Вышел супер-вдохновленный с нашей внутренней AI-встречи, где был парный доклад Лены (FE) + Егора (Design), в котором они рассказали как прошли путь от полного мусора до почти идеального экрана с одного промпта.
С разрешения Егора украл для этого канала правила для макетов, которые ребята сформулировали по итогам этого ресерча 💎.
1🔥28❤5👏4👍2🥰1
Media is too big
VIEW IN TELEGRAM
Я создал своего первого агента
В понедельник у нас прошла последняя внутренняя обзорная встреча по ИИ-инструментам. Я записал для канала заключительное [умеренно-техническое ] выступление, в котором делился опытом создания собственных агентов на практических примерах. Выражаясь примитивно, у меня снова взорвался мозг. Впечатления такие: Cursor — прошлый век, сингулярность — уже здесь.
В понедельник у нас прошла последняя внутренняя обзорная встреча по ИИ-инструментам. Я записал для канала заключительное [
3🔥57❤14👏1🤔1
ai_sponsored_window.html
288.4 KB
Останется ли вайб без субсидий?
Рефлексируем о том, сколько еще текущая LLM индустрия протянет в режиме закидывания рынка деньгами, что нас ждет после этого, как к этому подготовиться и не стать заложником конкретной экосистемы. Поговорим о Cursor, Claude Code, DSPy, self-hosted AI и альтернативных инференс провайдерах.
Рефлексируем о том, сколько еще текущая LLM индустрия протянет в режиме закидывания рынка деньгами, что нас ждет после этого, как к этому подготовиться и не стать заложником конкретной экосистемы. Поговорим о Cursor, Claude Code, DSPy, self-hosted AI и альтернативных инференс провайдерах.
2🔥21👍6❤4
Sparks of AGI: early experiments with GPT-4
Исторический доклад Себастьяна Бубека, одного из главных авторов статьи Microsoft, которые получили возможность поэкспериментировать с GPT-4 до её выхода. Никогда не забуду пример с единорогом и LaTex. 48 минут, сделавшие меня эффективным акселерационистом.
▶️ YouTube
Исторический доклад Себастьяна Бубека, одного из главных авторов статьи Microsoft, которые получили возможность поэкспериментировать с GPT-4 до её выхода. Никогда не забуду пример с единорогом и LaTex. 48 минут, сделавшие меня эффективным акселерационистом.
▶️ YouTube
⚡8❤5💩3🦄2👍1🌚1
Media is too big
VIEW IN TELEGRAM
Gracia x AdventuryXR
Мы тут дропнули новые демки, которые поснимали с нашими партнерами из Лондона. У них современная студия вольюметрического капчуринга, поэтому качество получилось на редкость хорошим!
Смотреть в сторе Грации. Как всегда, лучший опыт будет с PCVR хедсетом, но покрутить в нашем Mac или Windows вьювере будет тоже интересно! Под капотом бесконечный FPS, идеальная темпоральная стабильность, фотореалистичный 360° view-dependency, ~2гб/мин компрессия и ультра-быстрый рендеринг (работает даже на standalone Quest 3).
Мы тут дропнули новые демки, которые поснимали с нашими партнерами из Лондона. У них современная студия вольюметрического капчуринга, поэтому качество получилось на редкость хорошим!
Смотреть в сторе Грации. Как всегда, лучший опыт будет с PCVR хедсетом, но покрутить в нашем Mac или Windows вьювере будет тоже интересно! Под капотом бесконечный FPS, идеальная темпоральная стабильность, фотореалистичный 360° view-dependency, ~2гб/мин компрессия и ультра-быстрый рендеринг (работает даже на standalone Quest 3).
👏20🔥15❤7
diy_software.html
386.8 KB
DIY Software
Приход GPT-5 наконец-то показывает: простые утилиты больше не нужно искать и скачивать, их можно просто создавать по мере необходимости, прямо перед использованием! По горячим следам написал короткую заметку о том, как это повлияет на наши отношения с продуктами и компьютерами.
Приход GPT-5 наконец-то показывает: простые утилиты больше не нужно искать и скачивать, их можно просто создавать по мере необходимости, прямо перед использованием! По горячим следам написал короткую заметку о том, как это повлияет на наши отношения с продуктами и компьютерами.
3💯15👍13🔥7🤡2
The Bitter Lesson.html
7.1 KB
The Bitter Lesson
Короткое, но беспощадное эссе о самом горьком уроке в истории исследования ИИ: машины учатся лучше, когда мы не мешаем им своими знаниями.
Рич Саттон — наш Ролан Барт, только вместо “смерти авторов” здесь — рождение современных LLM.
Ссылка на сайт автора.
Короткое, но беспощадное эссе о самом горьком уроке в истории исследования ИИ: машины учатся лучше, когда мы не мешаем им своими знаниями.
Рич Саттон — наш Ролан Барт, только вместо “смерти авторов” здесь — рождение современных LLM.
Ссылка на сайт автора.
2👍16❤6👾4
the_end_of_information.html
1.3 MB
Маркетологи уничтожат Интернет
А вместе с ним и информацию. Бренды переписывают сеть, в попытках повлиять на мнения моделей. Лонгрид о том, чем обернутся современные тренды в SEO (GEO). Если Вы всё чаще советуетесь с нейросетями по личным вопросам, этот материал для Вас.
А вместе с ним и информацию. Бренды переписывают сеть, в попытках повлиять на мнения моделей. Лонгрид о том, чем обернутся современные тренды в SEO (GEO). Если Вы всё чаще советуетесь с нейросетями по личным вопросам, этот материал для Вас.
10❤27👍9👾3👏1
Attention Is All You Need
Статья 2017 года от Google Brain, которая вполне могла называться как-нибудь в духе “Learning Representations with Multi-Head Query–Key–Value Attention ”, но начала целый тренд стильных заголовков. Ну, а еще стала самым важным трудом в современной истории ИИ со времен изобретения MLP.
📜 arXiv
Bonus: Visualizing transformers and attention
Классный доклад от автора 3Blue1Brown, который на пальцах объясняет механизм атеншена.
▶️ YouTube
Статья 2017 года от Google Brain, которая вполне могла называться как-нибудь в духе “
📜 arXiv
Bonus: Visualizing transformers and attention
Классный доклад от автора 3Blue1Brown, который на пальцах объясняет механизм атеншена.
▶️ YouTube
12❤12❤🔥4👏2🫡2
Model hopping
По всей видимости, бегать между провайдерами от нерфа до нерфа теперь — новая норма. В то время, как Sonnet последние 1.5 месяца стала просто неюзабельной, все пищат от восторга Codex + GPT-5 Prо. Видимо, провал GPT-5 повлёк за собой падение метрик и они решили на всех выкатить сильную модель без квантизации и ограничений reasoning бюджета. Я пошёл пробовать. По опыту такое быстро заканчивается. О впечатлениях расскажу позже, но,сука , какая же гнилая компания OpenAI, просто зла не хватает.
Обнаружили, что у всех была включена галочка по воровству данных. Причем она интересным образом у всех не отжимается с первого раза, вот интересный UI баг. Будьте осторожны, я чуть не задонатил OpenAI всю нашу технологию.
Если ЛЛМки сейчас реально застагнируются, я точно перееду на локальное железо, но об этом скоро видос!
По всей видимости, бегать между провайдерами от нерфа до нерфа теперь — новая норма. В то время, как Sonnet последние 1.5 месяца стала просто неюзабельной, все пищат от восторга Codex + GPT-5 Prо. Видимо, провал GPT-5 повлёк за собой падение метрик и они решили на всех выкатить сильную модель без квантизации и ограничений reasoning бюджета. Я пошёл пробовать. По опыту такое быстро заканчивается. О впечатлениях расскажу позже, но,
Обнаружили, что у всех была включена галочка по воровству данных. Причем она интересным образом у всех не отжимается с первого раза, вот интересный UI баг. Будьте осторожны, я чуть не задонатил OpenAI всю нашу технологию.
Если ЛЛМки сейчас реально застагнируются, я точно перееду на локальное железо, но об этом скоро видос!
17👍18🫡11🔥8❤2😁2
ai_risks_discourse.html
23.6 KB
Что не так с дискурсом о рисках ИИ
Посмотрел дебаты моего друга Гриши @mustreads и Сергея Маркова. Накопилось больше одного предложения впечатлений, решил накатать заметку о том, почему я не могу всерьез вовлечься в такие публичные дискуссии ни как зритель, ни как спикер.
Посмотрел дебаты моего друга Гриши @mustreads и Сергея Маркова. Накопилось больше одного предложения впечатлений, решил накатать заметку о том, почему я не могу всерьез вовлечься в такие публичные дискуссии ни как зритель, ни как спикер.
60❤24👍7💯5🔥2
The Unreasonable Effectiveness of Data.pdf
376.8 KB
The Unreasonable Effectiveness of Data
2009 год. Google. Трое исследователей пишут статью, в которой заявляют, что элегантного представления для естественного языка не существует, а значит масштаб данных важнее изящества алгоритма или наличия разметки. Мурашки по коже от того, что эти идеи до сих пор направляют индустрию.
2009 год. Google. Трое исследователей пишут статью, в которой заявляют, что элегантного представления для естественного языка не существует, а значит масштаб данных важнее изящества алгоритма или наличия разметки. Мурашки по коже от того, что эти идеи до сих пор направляют индустрию.
❤2