The awareness of impermanence is sobering.
No matter how deep the awareness of this quality, which relates to absolutely everything we experience in life - it sobers us up.
A few years ago (a bit less than a decade), I was completely crushed, dealing with constant stress, anxiety, despair, and periodic panic attacks.
I don't know how my life would have turned out if I had sought psychiatric help, but I see how it has unfolded and continues to unfold after I turned to the awareness of impermanence - panic attacks became less frequent and shorter until they completely disappeared, just like laziness and procrastination. Then I got into IT and started working an insane number of hours with an insane amount of effort.
Of course, this brought many fruits in the form of life's benefits and professional qualities. But recently I caught myself having put aside the quality and power of impermanence awareness.
Most likely, I just got too involved in endless chores, career, and various experiences, worked too much, and drove myself to extreme fatigue due to inadequate overwork.
Consistency in work and learning is good, but you need to perceive this whole thing through the lens of impermanence, and remember your own nature and the nature of all surrounding things and people.
Otherwise, life will just pass you by.
Permanence, although it's completely groundless and unreal in an absolute sense, is a good thing as a relative concept - it can be applied to achieve results in relative things, but starting to believe in it and getting involved in it as truth is a road to nowhere.
Give yourself rest. This will pass. And this too shall pass.
No matter how deep the awareness of this quality, which relates to absolutely everything we experience in life - it sobers us up.
A few years ago (a bit less than a decade), I was completely crushed, dealing with constant stress, anxiety, despair, and periodic panic attacks.
I don't know how my life would have turned out if I had sought psychiatric help, but I see how it has unfolded and continues to unfold after I turned to the awareness of impermanence - panic attacks became less frequent and shorter until they completely disappeared, just like laziness and procrastination. Then I got into IT and started working an insane number of hours with an insane amount of effort.
Of course, this brought many fruits in the form of life's benefits and professional qualities. But recently I caught myself having put aside the quality and power of impermanence awareness.
Most likely, I just got too involved in endless chores, career, and various experiences, worked too much, and drove myself to extreme fatigue due to inadequate overwork.
Consistency in work and learning is good, but you need to perceive this whole thing through the lens of impermanence, and remember your own nature and the nature of all surrounding things and people.
Otherwise, life will just pass you by.
Permanence, although it's completely groundless and unreal in an absolute sense, is a good thing as a relative concept - it can be applied to achieve results in relative things, but starting to believe in it and getting involved in it as truth is a road to nowhere.
Give yourself rest. This will pass. And this too shall pass.
❤4✍1🌭1
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1
Brilliant playlist:
https://youtube.com/playlist?list=PLi01XoE8jYoi3SgnnGorR_XOW3IcK-TP6&si=MS8u8PbFBIgoUyWm
https://youtube.com/playlist?list=PLi01XoE8jYoi3SgnnGorR_XOW3IcK-TP6&si=MS8u8PbFBIgoUyWm
YouTube
Abstract Algebra
Abstract Algebra deals with groups, rings, fields, and modules. These are abstract structures which appear in many different branches of mathematics, includi...
👍1🌭1💯1
Hello.
The first post on substack.
Consider to subscribe!
https://ivanzakutnii.substack.com/p/short-note-on-abstractions
The first post on substack.
Consider to subscribe!
https://ivanzakutnii.substack.com/p/short-note-on-abstractions
/var/log/ivan.zakutnii
Short Note on Abstractions
As I continue exploring abstractions and trying to understand their proper nature, I'd like to share some thoughts.
🌭1
https://www.instantdb.com/essays/pg_upgrade
This is the downside of not being familiar with relational databases (and PostgreSQL in particular) basic administration at any kind of respectable level.
RDS and Aurora are cool services, but you might have saved a bunch of money and avoided a lot of pain if you had invested some time in your education.There is nothing scary about administrating and managing self-hosted PostgreSQL, and you need only 1-2 months of studying documentation and free courses online.
Outcome -> invaluable skills. This kind of article keeps being released from different teams yearly (The COOL STORY how we replicated and switched over database in AWS).
I might have been lucky having one of my first jobs in database administration and support centric company, but aren't IT people interested in how databases work? At least from a software perspective. This is a treasure trove of fundamental computer science and software engineering topics - the more you dig, the deeper it gets.
This is the downside of not being familiar with relational databases (and PostgreSQL in particular) basic administration at any kind of respectable level.
RDS and Aurora are cool services, but you might have saved a bunch of money and avoided a lot of pain if you had invested some time in your education.There is nothing scary about administrating and managing self-hosted PostgreSQL, and you need only 1-2 months of studying documentation and free courses online.
Outcome -> invaluable skills. This kind of article keeps being released from different teams yearly (The COOL STORY how we replicated and switched over database in AWS).
I might have been lucky having one of my first jobs in database administration and support centric company, but aren't IT people interested in how databases work? At least from a software perspective. This is a treasure trove of fundamental computer science and software engineering topics - the more you dig, the deeper it gets.
Instantdb
A Major Postgres Upgrade with Zero Downtime
🌭2💯1
Please open Telegram to view this post
VIEW IN TELEGRAM
Hello fellows, hope you are all doing well.
here is a new post from me 🙂
Share, and subscribe, thats an order.
(Please.)
here is a new post from me 🙂
Share, and subscribe, thats an order.
(Please.)
Ivanzakutnii
I of SOLID is SOLD too good.
The architectural complexity of a system is directly related to the number, and in some sense - the quality of dependencies in this system.
🌭2🔥1🤯1
Recently, I had a nice talk with HR from a successful fintech startup already secured series A.
I could not resist having this call, because for quite a long time, the message from HR was respectful and no bs informative, with included concrete numbers of compensation. (WOW, No mind-games!)
Everything from the initial meeting was super cool - monolith, flat, and transparent organization. Positions opened just to grow teams and increase the pace of integrations, without having gaps in the lifecycle of the product itself.
Zero red flags, but there are 5 (or 4?) interview steps.
Oh momma, where I should get so much time to not just attend, but prepare somehow for these interviews?
I am so sorry, but last years I've been hard-working (and continuing to do so), instead of jerking LeetCode.
I could not resist having this call, because for quite a long time, the message from HR was respectful and no bs informative, with included concrete numbers of compensation. (WOW, No mind-games!)
Everything from the initial meeting was super cool - monolith, flat, and transparent organization. Positions opened just to grow teams and increase the pace of integrations, without having gaps in the lifecycle of the product itself.
Zero red flags, but there are 5 (or 4?) interview steps.
Oh momma, where I should get so much time to not just attend, but prepare somehow for these interviews?
I am so sorry, but last years I've been hard-working (and continuing to do so), instead of jerking LeetCode.
🔥1🌭1
Доступны консультации и менторинг ⤵️
помогаю инженерам и командам внедрять ai в бэкенд и процессы
Все мои ссылки: links.ivanzakutnii.com
разбираем конкретные боли:
• как внедрить llm в существующий backend и бизнес
• архитектура ai-сервисов
• производительность и стоимость
• безопасность инференса
• качество и наблюдаемость
• инфраструктура и mlops
форматы работы:
• разовая консультация — 60–90 минут: быстрый разбор, приоритеты, чёткие следующие шаги.
• проектная консультация и работа над проектом — архитектура, разработка/ревью кода и промптов, hands-on, запуск системы.
• индивидуальное менторство — гибкий формат с созвонами и async-поддержкой.
работаю системно: после меня остаются модели, чеклисты, шаблоны, промпт-карты и тесты, которые вы поддерживаете дальше сами.
если понимаю что не смогу помочь качественно: честно скажу на первичном знакомстве и порекомендую подходящего специалиста.
как записаться:
Пишите в tg @m0n0x41d с пометкой «консультация» + 3 строки: стек → цель → где болит
Все ссылки: links.ivanzakutnii.com
⸻
темы этого канала:
— архитектура и паттерны ai-систем
— системное моделирование
— разбор инструментов и технологий
— практики внедрения
— вайб разработка и вайб проектирование
— только важные новости
Здесь категорический минимум шума;
программная инженерия, мемы, оффтоп и личное тут — @ivanshiddenlayer.
избранные посты и лонгриды:
— почему augmented, а не artificial? 📝
обратная связь по каналу:
Яндекс-Форма
Google-Форма (eng).
помогаю инженерам и командам внедрять ai в бэкенд и процессы
Все мои ссылки: links.ivanzakutnii.com
разбираем конкретные боли:
• как внедрить llm в существующий backend и бизнес
• архитектура ai-сервисов
• производительность и стоимость
• безопасность инференса
• качество и наблюдаемость
• инфраструктура и mlops
форматы работы:
• разовая консультация — 60–90 минут: быстрый разбор, приоритеты, чёткие следующие шаги.
• проектная консультация и работа над проектом — архитектура, разработка/ревью кода и промптов, hands-on, запуск системы.
• индивидуальное менторство — гибкий формат с созвонами и async-поддержкой.
работаю системно: после меня остаются модели, чеклисты, шаблоны, промпт-карты и тесты, которые вы поддерживаете дальше сами.
если понимаю что не смогу помочь качественно: честно скажу на первичном знакомстве и порекомендую подходящего специалиста.
как записаться:
Пишите в tg @m0n0x41d с пометкой «консультация» + 3 строки: стек → цель → где болит
Все ссылки: links.ivanzakutnii.com
⸻
темы этого канала:
— архитектура и паттерны ai-систем
— системное моделирование
— разбор инструментов и технологий
— практики внедрения
— вайб разработка и вайб проектирование
— только важные новости
Здесь категорический минимум шума;
программная инженерия, мемы, оффтоп и личное тут — @ivanshiddenlayer.
избранные посты и лонгриды:
— почему augmented, а не artificial? 📝
обратная связь по каналу:
Яндекс-Форма
Google-Форма (eng).
Please open Telegram to view this post
VIEW IN TELEGRAM
✍3🌭2
А ну и да, вы тут все русскоговорящий и писать я буду сюда теперь на родном языке.
На сабстак буду дублировать далеко не все, ибо из контекста отдельные статьи (особенно по системной инженерии) может быть довольно сложно вырывать.
Так что, окейлетсгоу!
Накидайте пепе хакеров если вам впадлу / сложно читать меня на английском, и в целом поддерживаете такое изменение.
На сабстак буду дублировать далеко не все, ибо из контекста отдельные статьи (особенно по системной инженерии) может быть довольно сложно вырывать.
Так что, окейлетсгоу!
Накидайте пепе хакеров если вам впадлу / сложно читать меня на английском, и в целом поддерживаете такое изменение.
Есть предложение.
Если вы хоть сколько нибудь занимаетесь персональным брендом в айтишке, то скорее всего у вас есть LinkedIn.
Я совсем недавно узнал про так называемый Social Selling Index в линке (Привет Китай🇨🇳 И Nosedive)
Так вот, этот долбанный рейтинг по всей видимости нифигов так влияет на ваши показы в поиске и прочем.
Узнал я кстати про него от Назарова (видос про валютные удаленки. И это не реклама), и за прошедшие пару недель поднял с 20 до 49, и планирую добивать до 60 хотя бы.
Как поднять SSI? Ну, например заполнить профиль в линкедине, МАКСИМАЛЬНО, образование, опыт работы, всякие полезные и бесполезные сертификатики, и прочее прочее. Надо лайкать посты, хотя бы иногда, и хотя бы иногда репостить / комментить.
Еще, обязательно нужна куча connections, не follow подписок, а прям connections с профильными инженерами, продактами и прочими айтишными приятелями.
Все вышеперичислинное фармится достаточно просто, особенно хорошо виляет на SSI (по личным наблюденяим) коннекты с прям крутыми дядьками, по тику Кента Бека.
Так воооот, а recommendations нафармить - сложнее, чем я вам и предлагаю заняться.
1) Заполните опыт в линкидине если по какой то причине его не заполнили
2) Пишите рекоммендаху мне, а я напишу вам ответ (Скриньте)
Как писать рекоммендаху? Самое адекватное выглядит "... worked with you but at different companies" и выбирайте любое место работы.
Это со стороны выглядит как просто консалтинг🤷♀️
Позицию может выбирать любую, а сам текст рекоммендахи... ну например сгенерить LLM и попроавить, чтобы совсем по ублюдски не выглядело. Можно посмотреть на остальне 3 мои рекоммендахи (они честно добытые!!!) и вдохновиться / вдохновить LLM ими.
P.S. Нет, не стремно
P.P.S. Всем пофиг и никто нас не оттрейсит, а кто будет по рекомменадахам туда сюда ходить - нам не товарищ де факто!
Если вы хоть сколько нибудь занимаетесь персональным брендом в айтишке, то скорее всего у вас есть LinkedIn.
Я совсем недавно узнал про так называемый Social Selling Index в линке (Привет Китай
Так вот, этот долбанный рейтинг по всей видимости нифигов так влияет на ваши показы в поиске и прочем.
Узнал я кстати про него от Назарова (видос про валютные удаленки. И это не реклама), и за прошедшие пару недель поднял с 20 до 49, и планирую добивать до 60 хотя бы.
Как поднять SSI? Ну, например заполнить профиль в линкедине, МАКСИМАЛЬНО, образование, опыт работы, всякие полезные и бесполезные сертификатики, и прочее прочее. Надо лайкать посты, хотя бы иногда, и хотя бы иногда репостить / комментить.
Еще, обязательно нужна куча connections, не follow подписок, а прям connections с профильными инженерами, продактами и прочими айтишными приятелями.
Все вышеперичислинное фармится достаточно просто, особенно хорошо виляет на SSI (по личным наблюденяим) коннекты с прям крутыми дядьками, по тику Кента Бека.
Так воооот, а recommendations нафармить - сложнее, чем я вам и предлагаю заняться.
1) Заполните опыт в линкидине если по какой то причине его не заполнили
2) Пишите рекоммендаху мне, а я напишу вам ответ (Скриньте)
Как писать рекоммендаху? Самое адекватное выглядит "... worked with you but at different companies" и выбирайте любое место работы.
Это со стороны выглядит как просто консалтинг
Позицию может выбирать любую, а сам текст рекоммендахи... ну например сгенерить LLM и попроавить, чтобы совсем по ублюдски не выглядело. Можно посмотреть на остальне 3 мои рекоммендахи (они честно добытые!!!) и вдохновиться / вдохновить LLM ими.
P.S. Нет, не стремно
P.P.S. Всем пофиг и никто нас не оттрейсит, а кто будет по рекомменадахам туда сюда ходить - нам не товарищ де факто!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🌭2👍1
Ошибка в “сеньерском“ найме, чисто по своему потенциалу ущерба в разы хуже чем просто человеческая (индивидуальная или коллективная) ошибка в моменте.
Например - джун испортил или дропнул базу в продакшене.
Переживем, исправимо (ну или с трудом, историй уйма.)
И тем не менее - джун он на то и джун. От джуна мы ждем факапа, и джун вероятно научится на постмортеме.
Некомпетентный инженер / разработчик, волей случая оказавшийся на слишком высокой позиции, во всех смыслах - компетенции, ответственности, власти, будет вести вашу компанию или подразделение исключительно к одному:
К краху.
Например - джун испортил или дропнул базу в продакшене.
Переживем, исправимо (ну или с трудом, историй уйма.)
И тем не менее - джун он на то и джун. От джуна мы ждем факапа, и джун вероятно научится на постмортеме.
Некомпетентный инженер / разработчик, волей случая оказавшийся на слишком высокой позиции, во всех смыслах - компетенции, ответственности, власти, будет вести вашу компанию или подразделение исключительно к одному:
👍3💯2🌭1
Сколько у вас, дорогие подписчеги, экранное время на мобиле за вчера, и куда вы его потратили? 🤨
Anonymous Poll
47%
1-3 Часа. мне некогда залипать / я залипал совсем чучуть 🥺
11%
3-6 Часов. Я работаю с телефона, короткие видео не смотрю 🐗
21%
3-6 Часов, больше половины - короткие видосы 🤪
11%
Мне стыдно признаваться 🙅♂️
11%
Ноль, у меня нету умного телефона 😞
🌭1
Новый пост на сабстаке.
Рассуждаю про open–closed principle.
Элитно, на русском вот ссылка на телеграф.
Жаление читателя закон🥰
На сабстаке есть картинка с кодом.
Очень конечно болезненно переживаются альтернативно одаренные блог площадки🤬
Ну, на сабстак я забивать не буду. во-первых я им денег заплатил за домен, во-вторых - считается в народе довольно ценным иметь список почт подписчиков, и вроде разумно.
Спасибо за внимание.
Рассуждаю про open–closed principle.
Элитно, на русском вот ссылка на телеграф.
Жаление читателя закон
На сабстаке есть картинка с кодом.
Очень конечно болезненно переживаются альтернативно одаренные блог площадки
которые не поддерживают маркдаун, это что вообще такое? Ну, на сабстак я забивать не буду. во-первых я им денег заплатил за домен, во-вторых - считается в народе довольно ценным иметь список почт подписчиков, и вроде разумно.
Спасибо за внимание.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🌭1
[абсолютный оффтоп]
Тот случай, когда не стыдно посмотреть короткий видос в инстаграме.
Любите Линча? Поглядите:
https://www.instagram.com/reel/DGnHuD6oxxq/?igsh=MWxtYjMza213ZjFnZw==
Это очень хорошо, Денис.
Спасибо тебе!
Тот случай, когда не стыдно посмотреть короткий видос в инстаграме.
Любите Линча? Поглядите:
https://www.instagram.com/reel/DGnHuD6oxxq/?igsh=MWxtYjMza213ZjFnZw==
Это очень хорошо, Денис.
Спасибо тебе!
🌭2❤🔥1
Насколько вам интересно / знакомо машинное обучение и в целом ML / LLM движуха с инженерной стороны?
Anonymous Poll
27%
Инетересно / знакомо - читаю «популярные» статейки 🤓
32%
Я запускал модельки локально, знаю даже что такое эпоха, веса, дропаут, градиентный спуск 🤓
32%
Я потребитель современных достижений - мне пофиг че там внутри. «Fix bug gpt please» 😢
9%
Я не знаю что такое машинное обучение и нейросети 🦣
🌭1
Харпер классный мужик.
Никогда не слышал о нем и не читал.
Вот линк на его блогпост который в линкедине расхвалил Мартин Фаулер😱
Харпер описывает свой воркфлоу по разработке программных продуктов.
Оставим в стороне на сей раз мои душные миллениалские негодования – чувак говорит дело🚨
Если вкратце – сначала просим ллм нас итеративно опросить, чтобы собрать список проектных требований.
Потом просим сварганить подробную спецификацию для разработчика - с ТДД или без (лучше конечно с ним).
Потом эту спеку мы кормим штуке вроде курсора.
В целом подход хорош тем, что он системный. Харпер например упоминает что очень хорошо просить ллм сгенерировать чеклист тудушек, а чеклисты «многому голова» по Левенчуку :)
Я признаюсь, использовал менее системный подход, и обязательно попробую рекомендации Харпера в деле.
Разве что поправлю промпты, попрошу не просто ТДД чеклист, а внедрю степ на котором попытаюсь с ЛЛМ спроектировать систему хотя бы как то по ООАП кананоам.
Читайте!
Никогда не слышал о нем и не читал.
Вот линк на его блогпост который в линкедине расхвалил Мартин Фаулер
Харпер описывает свой воркфлоу по разработке программных продуктов.
Оставим в стороне на сей раз мои душные миллениалские негодования – чувак говорит дело
Если вкратце – сначала просим ллм нас итеративно опросить, чтобы собрать список проектных требований.
Потом просим сварганить подробную спецификацию для разработчика - с ТДД или без (лучше конечно с ним).
Потом эту спеку мы кормим штуке вроде курсора.
В целом подход хорош тем, что он системный. Харпер например упоминает что очень хорошо просить ллм сгенерировать чеклист тудушек, а чеклисты «многому голова» по Левенчуку :)
Я признаюсь, использовал менее системный подход, и обязательно попробую рекомендации Харпера в деле.
Разве что поправлю промпты, попрошу не просто ТДД чеклист, а внедрю степ на котором попытаюсь с ЛЛМ спроектировать систему хотя бы как то по ООАП кананоам.
Читайте!
Please open Telegram to view this post
VIEW IN TELEGRAM
harper.blog
My LLM codegen workflow atm
A detailed walkthrough of my current workflow for using LLms to build software, from brainstorming through planning and execution.
👍3🔥2🌭1
Крутые чуваки из Стэнфорда продолжают арку "Давайте подружим LLM-ки!"
В целом, конечно задумка очень хорошая, и человечество рано или поздно придет к какому то крутому решению благодаря синергии наработанных исследований, как это обычно и бывает.
Что у меня вызывает вопросы, это то что они пришли опять к подходу когда "большая и умная, дорогая модель в облаке" генерирует куски кода, которые "локальные и маленькие, дешевые и более глупые" Миньоны выполняют, например на данных из PDF документов, и отдают результаты большой модели для генерации ответа❓
Направление круто, но как же сильно это все еще пахнет ужасающим недетерминизмом.
1️⃣ Во-первых, со стороны пользователя - что с безопасностью? Какими средствами и в каких средах эти модели будут запускаться локально? В Ollama? Окей. Доверяем ли мы коду который генерирует LLM?
Не смотря на все прелести в ускорении работы, ускорению мышления (людского) с помощью всяких прекрасных моделей вроде Claude - мне не верится что в ближайшее время такие "протоколы" будут жизнеспособны и адаптированы хоть сколько нибудь массово. По крайней мере с текущим базисом.
Сейчас более верится в разработку более конкретного продукта, с локально запущенными моделями, которые четко "понимают" свою ответственность и возможности (tool-calls?), "переваривают" запрос пользователя (потенциально понимая запрос лучше чем сам пользователь) и далее по необходимости с обращением в LLM, например для предсказания итогового ответа - ну... звучит интересно! Очень даже!
2️⃣ Во-вторых, со стороны разработчика такой системы - как это вообще отлаживать? Оправдана ли сложность такой недетерминированной системы? Тут я разглагольствовать не буду, ибо кажется очевидным.
Чем больше копать сюда, тем больше возникает совершенно прикладных проблем, которые, имхо, лучше решать знакомыми и проверенными способами.
3️⃣ В-третьих, попытка общаться даже маленькими кусками кода, имею в виду не tool-calls, а как в работе выше предлагают - это уже какая никакая, но минимальная инженерия. Инженерия которая требует аналитического мышления при первых же проблемках. К такок инженерии LLM совершенно не готовы.
Поймите меня правильно, даже Cursor с последним обновлением, когда в цикле пытается "анализировать" предыдущие результаты - выдает подчас полную хрень.
Он может предложить вам удалить миграции, просто в тупую - "А давай перегенерируем!" Или откровенно галлюцинировать методами / классами из импортированных библиотек, которых там нет и отродясь не было.
У Cursor сейчас появилась возможность предлагать пользователю вызвать команду в директории проекта (в терминале) и работать дальше с ответом этой команды.
Результат такой же.
Анализ Ошибок работает так же – часто и с простыми ошибками, аннотациями типов и прочим Cursor может справиться вполне хорошо, но как только мы сталкиваемся с дебагом проблемы хоть сколько нибудь более сложного порядка, где нужно проверить 2-3 зависимости - оно утыкается в стекляный потолок своих "когнитивных возможностей".
А это, на секундочку, очень классный 3.7 с "thinking"🤪
Тем не менее, это все очень классные штуки! Они чертовски помогают ускорять работу! Но анализировать, хоть сколько нибудь __логически__ думать LLM не может.
***
Весь "thinking" который мы наблюдаем в современных LLM, это отчаянная попытка, заслуживающая уважения попытка, заставить LLM как то генерировать "промежуточные токены" при решении поставленной задачи.
Первые попытки (те которые мы сейчас наблюдаем) - промежуточного рассуждения на естественном, человеческом языке - разбиваются как мы видим дребезги на задачках требущих рассуждения уровня junior+
Сейчас это известно как проблема токенизации - Для LLM рассуждения на наших языках ограничены дискретностью токенов, которые они формируют.
Из чего естественно получается что квантование пространства смысла решаемой задачи происходит в этих самых токенах - туда где совпала температура, туда и "падаем".
В настоящем, человеческом анализе логика и рассуждения так не работают. Ассоциативные связи не настолько примитивны.
В целом, конечно задумка очень хорошая, и человечество рано или поздно придет к какому то крутому решению благодаря синергии наработанных исследований, как это обычно и бывает.
Что у меня вызывает вопросы, это то что они пришли опять к подходу когда "большая и умная, дорогая модель в облаке" генерирует куски кода, которые "локальные и маленькие, дешевые и более глупые" Миньоны выполняют, например на данных из PDF документов, и отдают результаты большой модели для генерации ответа
Направление круто, но как же сильно это все еще пахнет ужасающим недетерминизмом.
Абсолютно не доверяем. Я - не доверяю.Не смотря на все прелести в ускорении работы, ускорению мышления (людского) с помощью всяких прекрасных моделей вроде Claude - мне не верится что в ближайшее время такие "протоколы" будут жизнеспособны и адаптированы хоть сколько нибудь массово. По крайней мере с текущим базисом.
Сейчас более верится в разработку более конкретного продукта, с локально запущенными моделями, которые четко "понимают" свою ответственность и возможности (tool-calls?), "переваривают" запрос пользователя (потенциально понимая запрос лучше чем сам пользователь) и далее по необходимости с обращением в LLM, например для предсказания итогового ответа - ну... звучит интересно! Очень даже!
Чем больше копать сюда, тем больше возникает совершенно прикладных проблем, которые, имхо, лучше решать знакомыми и проверенными способами.
Поймите меня правильно, даже Cursor с последним обновлением, когда в цикле пытается "анализировать" предыдущие результаты - выдает подчас полную хрень.
Он может предложить вам удалить миграции, просто в тупую - "А давай перегенерируем!" Или откровенно галлюцинировать методами / классами из импортированных библиотек, которых там нет и отродясь не было.
У Cursor сейчас появилась возможность предлагать пользователю вызвать команду в директории проекта (в терминале) и работать дальше с ответом этой команды.
Результат такой же.
Анализ Ошибок работает так же – часто и с простыми ошибками, аннотациями типов и прочим Cursor может справиться вполне хорошо, но как только мы сталкиваемся с дебагом проблемы хоть сколько нибудь более сложного порядка, где нужно проверить 2-3 зависимости - оно утыкается в стекляный потолок своих "когнитивных возможностей".
А это, на секундочку, очень классный 3.7 с "thinking"
Тем не менее, это все очень классные штуки! Они чертовски помогают ускорять работу! Но анализировать, хоть сколько нибудь __логически__ думать LLM не может.
***
Весь "thinking" который мы наблюдаем в современных LLM, это отчаянная попытка, заслуживающая уважения попытка, заставить LLM как то генерировать "промежуточные токены" при решении поставленной задачи.
Первые попытки (те которые мы сейчас наблюдаем) - промежуточного рассуждения на естественном, человеческом языке - разбиваются как мы видим дребезги на задачках требущих рассуждения уровня junior+
Сейчас это известно как проблема токенизации - Для LLM рассуждения на наших языках ограничены дискретностью токенов, которые они формируют.
Из чего естественно получается что квантование пространства смысла решаемой задачи происходит в этих самых токенах - туда где совпала температура, туда и "падаем".
В настоящем, человеческом анализе логика и рассуждения так не работают. Ассоциативные связи не настолько примитивны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2🤔1
В этом свете мне более интересными кажутся следующие две работы:
🤖 DroidSpeak
👩💻 Byte Latent Transformers
TL;DR:
DroidSpeak - делаем так чтобы модели общались между собой без токенизации; Byte Latent Transformers - тоже про отказ от токенов, в пользу байтовых представлений.
Оба этих подхода создают более "адекватное" пространство для рассуждений моделей, менее прерывное пространство - избавились от токенов и "думаем" непрерывными векторами!
В дополнение к этому, продолжать обучать модели на мейнстримных кодовых базах с крудами и прочем, как показывает практика - качество и генерируемого кода, и "мышления" LLM модели не увеличивает вообще.
С другой стороны - обучать модели логическому программированию на языке вроде Prolog выглядит очень и очень перспективно.
Хочется верить, что эти направления будут добиты, на загнутся, и революционно выстрелят в бурной синергии.
И верится в это - без особого труда.
***
P.S.
Удивительно, но ни один из каналов в телеграмме посвещенных ML или около того не написал вообще ничего про DroidSpeak (Byte Latent я не чекал, но скорее всего история таже). И большие (30, 50, 60к подписчиков) и маленькие, узко специализированные блоггеры.
Ну и в целом в Рунете всего ничего изданий об этом написало.
Да, я прошу поделиться с друзьями инженерами, кому это может быть хоть сколько нибудь интересно 🙂
Large Language Models (LLMs) are increasingly employed in complex workflows, where different LLMs and fine-tuned variants collaboratively address complex tasks. However, these systems face significant inefficiencies due to redundant context processing of the shared context. We propose DroidSpeak, a framework that optimizes context sharing between fine-tuned LLMs derived from the same foundational model. DroidSpeak identifies critical layers in the KV cache and selectively recomputes them, enabling effective reuse of intermediate data while maintaining high accuracy. Our approach balances computational efficiency and task fidelity, significantly reducing inference latency and throughput bottlenecks. Experiments on diverse datasets and model pairs demonstrate that DroidSpeak achieves up to 3x higher throughputs and 2.6x faster prefill times with negligible accuracy loss compared to full recomputation.
We introduce the Byte Latent Transformer (BLT), a new byte-level LLM architecture that, for the first time, matches tokenization-based LLM performance at scale with significant improvements in inference efficiency and robustness. BLT encodes bytes into dynamically sized patches, which serve as the primary units of computation. Patches are segmented dynamically based on the entropy of the next byte, allocating more compute and model capacity where increased data complexity demands it. We present the first flop controlled scaling study of byte-level models up to 8B parameters with 4T training bytes. Our results demonstrate the feasibility of scaling models trained on raw bytes without a fixed-vocabulary. Both training and inference efficiency improve due to dynamically selecting long patches when data is predictable, along with qualitative improvements on reasoning and long tail generalization. Overall, for fixed inference costs, BLT shows significantly better scaling than tokenization-based models, by simultaneously growing both patch and model size.
TL;DR:
DroidSpeak - делаем так чтобы модели общались между собой без токенизации; Byte Latent Transformers - тоже про отказ от токенов, в пользу байтовых представлений.
Оба этих подхода создают более "адекватное" пространство для рассуждений моделей, менее прерывное пространство - избавились от токенов и "думаем" непрерывными векторами!
В дополнение к этому, продолжать обучать модели на мейнстримных кодовых базах с крудами и прочем, как показывает практика - качество и генерируемого кода, и "мышления" LLM модели не увеличивает вообще.
С другой стороны - обучать модели логическому программированию на языке вроде Prolog выглядит очень и очень перспективно.
Хочется верить, что эти направления будут добиты, на загнутся, и революционно выстрелят в бурной синергии.
И верится в это - без особого труда.
***
P.S.
Удивительно, но ни один из каналов в телеграмме посвещенных ML или около того не написал вообще ничего про DroidSpeak (Byte Latent я не чекал, но скорее всего история таже). И большие (30, 50, 60к подписчиков) и маленькие, узко специализированные блоггеры.
Ну и в целом в Рунете всего ничего изданий об этом написало.
Да, я прошу поделиться с друзьями инженерами, кому это может быть хоть сколько нибудь интересно 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2