Иван Закутний про
196 subscribers
130 photos
3 videos
161 links
Авторский канал про инженерию умных систем.
По всем вопросам: @m0n0x41d
Download Telegram
Если вдруг вы сейчас строите сложную хрень с LLM, где под сложной я имею в виду кластеризацию на хотя бы 3+ домена – не тратьте время на велосипедостроение роутера тупо на completions api или любой другой модели чисто на промптах и structured outputs.

Это можно заставить полу-вменяемо работать, Н-н-но

Меня последние три рабочих днях не покидало ощущение что я делаю опасно недерминированную ерунду, которую потом все равно придется менять на какой нибудь классификатор.

Вот вам хороший пример игнорирования Дребезга (разбираем в материалах по ШСМ)

Вместо того чтобы "на потом", надо было хоть немного поискать решение.

Вот например – бери и юзай на эмбеддингах:
https://github.com/aurelio-labs/semantic-router

Вполне себе минималистичный интерфейс. Можно ходить в Cohere или OpenAI api за эмбедингамми и сравнениями, можно прикрутить локальный мистрал, это сами решайте.

В этой же либе есть dynamic router, но это обычный function calling, внимания вроде бы вообще не стоит (Юзайте PydanticAI ок?)


Вот вам в догонку еще дядьку Фаулера почитать, если изголодались по нормальному инженерному контенту про AI системы. Не одним же Блогом Антропика кормиться :)

https://martinfowler.com/articles/gen-ai-patterns/
3🌭1
Сейчас канал переименую 🙂

/var/log/ivan.zakutnii оно конечно прекольно-креативно, но ничего не понятно и в поиске не ищется.

Продаюсь! Новое название хотя бы ищется в поиске, ну и все таки большую часть контента хотя бы как то отражает:

- Нейросети и прочая нежить
- Системная инженерия (собранность, продуктивность и тд)
- Прововерная программная инженерия.

Знаете, оно как то все больше про мозги, а мозги тоже нейросеть 🙂

А то log какой то... ну log и log, никто логи не читает 💥

Такшто переименовываюсь без угрызений совести в @neuralstack

(я все еще не собираюсь нагонять много средне-паршивого контента)

БУМ
Please open Telegram to view this post
VIEW IN TELEGRAM
6🌭1
Channel name was changed to «Neural Stack»
Вот это модно 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
5🌭1
Не первый раз натыкаюсь на контринтуитивный совет-ответ на вопрос «как разрабу вкатиться в ML, с какой базы начинать и какую математику учить» в духе:

Никак, оно (база) вам скорее всего не надо. Вкатываться может быть долго и сложно, а самих квалифицированных ML инженеров вроде как хватает. Проблема больше в MLOps – на рынке недостаток людей кто нормально понимает как модели деплоить, обеспечить цикл переобучения и доставки без кровопотерь. Так что лучше начните с того чтобы научиться строить AI системы на готовых моделях и API, и хорошо разберитесь с инфрой для них.

В целом – согласен. Но у меня bias с Ops конечно
🥱
Please open Telegram to view this post
VIEW IN TELEGRAM
2🌭1
А никто не собирается обсуждать этот мув в моральных рельсах OpenAI от:

“извините я не могу лицо человека переместить сюда, нельзя! давайте я вам лучше котика с 6 лапами сгенерирую»

До:

“Aye aye Captain!”
4🌭1
Слыш купи телегу премиум, там теперь Грок включен

@GrokAI
🌭2
На следующей неделе будет ежегодный (вроде как традиция уже) пятидневный интенсив от Kaggle и Гугла по GenAI и вот этой всей нежити 🌟

У вас два варианта:
1) Жмать сюда и поучаствовать тоже 😎
2) Никуда не жмать и читать мои отчеты по каждому дню в этом канале 🫡
Please open Telegram to view this post
VIEW IN TELEGRAM
4🌭2
Найдена основная причина появления багов в моем коде – на кнопки нажимаю чем то не похожим на руки ✌️
Please open Telegram to view this post
VIEW IN TELEGRAM
4🌭21
Количество кода, которое я выплюнул из своих мозгов за последнюю неделю, не было бы возможно достичь без Курсора.

Не думайте, что я переобулся – вся моя критика на месте.

Лишь благодаря тому, насколько быстро эта скотина может распространять изменения по кодовой базе можно достигать таких объемов.
3🌭111
Если вы не прекратите рассуждать в форматах "Нет ну смотри вот тут во фреймворке же вот так вота сделано, надо так и делать", то вы как раз из тех кого AI заменит в первую очередь. Ну или уже заменяет...

LLM можно достаточно быстро "обьяснить" что не так, в конце концов в продолжение сообщения выше – написать пример как надо, и она пойдет копи-peace-дить как хороший джуниор 🏃‍♂️

Ну пусть это "достаточно быстро" займет сколько, пару часо? 🆗

С майндсетом фреймворкера-формошлепа либо вообще смысла нет бадаться (если всю карьеру так и рассуждал/работал), либо придется бадаться много дольше чем с моделью 🙂

Вбивайте в голову инженерные принципы с молоду пока мозги не закостенели, пригодится. Еще вроде поезд не ушел 🚂
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
Неделька очень тяжелая.

Практически не было времени продолжить нормально по курсу ШСМ – надо демку ассистента допиливать 😂

Но работа по факту ведется. Эта неделя – по сути выполнение домашнего задания по первой части курса о которой были все предыдущие посты.

Задание не очень сложное – заземлиться по поводу себя самого, в смысле куда время тратишь и на что.

При том дали на курсе совершенно четкие категории траты времени, именно то чего мне не хватало в прошлом году.

Первый день (понедельник), прошел очень скомкано, но я быстро исправился и принесу вам методичку в ближайшие дни о том как попробовать заземлиться самостоятельно.

Спойлер такой: ставишь одно приложение, настраиваешь как скажут, и если лямки на кнопку нажимать хватит, через неделю у тебя будет вполне четкая картина куда время утекает.

Конечно кроме как жать на кнопку надо будет еще немножко порефлексировать, и особенно поупражняться во внимании к дребезгу.

Короче, максимально конкретно напишу.

А тем кто не зассыт и следующую неделю после релиза этой методички попробует ее в деле – что нибудь подарю 🫡 скажем – трем человекам точно будут 🎁
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭211
Хорошая новость в том что дальше начинается первый, ознакомительный блок по моделированию!

Конечно, будет аж целый отдельный курс, где уже попрет петля в моделирование моделирования 🤯 но до вводного материала хочется очень поскорее добраться энивэй.

Вопрос только когда?

Неделя еще не кончилась, но я уже и за это время трекания по методе увидел очень явственно свою саму главную проблему – и это не отвлечения (я практически робот, глядите экранку за неделю), и даже не переключения контекста…

Это слишком большое колличество сайд-задач, которые я пытаюсь делать одновременно! 💥

Под одновременностью тут мной понимается попытка делать какие-либо под-задачи из этих проектов в один день.

Прикол в том, что если бы я распланировал неделю более предметно, например в понедельник один проект, во вторник другой – толку было бы намного больше, был бы какой то ощутимый прогресс, даже от учете кранча! Час на себя у меня в эту неделю ежедневно точно находится.

Но конечно, надо снижать количество этих параллельных проектов максимально, в идеале до одного :)

Мне об этом мудрый учитель говорил еще года два назад. Ну лучше поздно, чем никогда 🔨

Очень хочу часов 5 дополнительного времени в сутках чтобы все успевать, но такого не предвидится.

Хорошо что следующая неделя у нас уже определилась как состоящая на 80% из AI, как минимум из за интенсива Каггла. За базар отвечаю 😎

Может войду в резонанс.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭3
BRUH 🗣
Please open Telegram to view this post
VIEW IN TELEGRAM
4🌭1
One shot tickets ребят.

Че та за тикеты, ваши мысли?

Поправить респонс код в ручке?
🌭2
Если без шуток – отпишитесь кто уже попробовал Gemini 2.5 Pro. Я пока не могу добраться до ноута 😭

Че делали?
Чем то лучше соннета? Подойдут хотя бы субъективные ощущения.

Маркетинговые стоны в твиттере как обычно нагрузки несут маловато, все примеры задачек которые «оооуоооуоо посмотрите как круто сделало!» Claude итак норм тащил.

Из бенчмарков интересны от Рината Абдуллина которых пока для новой модели нет (очень ждем!)
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1
Все perfomance review в которых я когда либо участвовал были чем-то вроде цирка лицемерия – тебя нахваливают за то, где ты был молодец, если серьезных косяков не было - вообще их не упоминают, или упоминают вскользь. Ну и иногда дают прибавку которая приближает тебя к нижнему грейду по рынку (сверху или снизу :) и стремится покрыть инфляцию.

Один мой знакомый аналитик пошел джуном в Яндекс, очень толковый парнишка. Обещали через N месяцев ревью, если косяков нет – повысят оклад.

Результат – Биба. Пацан смайнал в банк и правильно сделал.

Perfomance review как абстрактная концепция может и норм, только правда вот в чем:

1) если вы будете косячить как Олег, никто не будет ждать очередного PR в календаре и Лид начнет стучать по башке сразу.

2) обещания ничего не стоят. Пустая похвала - приятна, но тоже ничего не стоит. Если вам обещают прибавку на следующем ревью - фиксируйте это обещание а переписке, а потом все время пока работаете до этого PR сами фиксируйте свои достижения. Так будет нааааамного сложнее вас прокатить. Ну и в рефлексии потренируетесь.

Вообще конечно самая крутая система была в DBI, когда в тебя кидают таблицей с грейдами и списками знаний/задач которые надо обрести и доказать на практике. Очень прозрачно, и далеко не все сразу ломятся по грейдам подниматься.

В любом случае, чтобы там не было – pr, грейды, или вообще ничего - свои достижения и косяки лучше фиксировать самостоятельно. Далеко не каждый менеджер хорошо фиксирует последние, и редко какой вообще нормально фиксирует первые.
🌭2
This media is not supported in your browser
VIEW IN TELEGRAM
Всем и повсюду – привет!

Я заползаю в свою AI неделю и начну делиться наработками и мыслями по мере их появления.

Сейчас же представляю вам небольшой пост на тему Квантовых Вычислений, не вижу причин не поделиться материалом раз он появился 🥳

Мне было интересно посмотреть что это такое, и немного помечтать куда оно выльется :)

Оказалось чуть менее интересно, чем я думал 🤷‍♀️

Методичка по тайм трекингу тоже будет на этой неделе, но чуть позже 💃
Please open Telegram to view this post
VIEW IN TELEGRAM
3🌭11
Жесть канешна они с козырей зашли на интенсиве.
Закинули два дока, и лабы – рассчет на один день? Ну если на доки забить и сразу лабы ломануться делать!

Очень сомнительное, ибо бумажули хорошие, хочется их вычитывать внимательнее, изучать концепции глубже и писать из своей головы больше! Вроде база базой, но так хорошо и последовательно написано! Идеальный баланс в тех деталях, никакой воды.

Вероятно что создатели интесива не подразумевали что большая часть, или вообще кто-то так будут к изучению подходить... Ну, главное нахватать материала и лабы сдать 🚗

По части первого документа – Foundational Large Language Models & Text Generation я вам немного написал

Внутри так же ссылки на оба документа и на NotebookLM сгенеренные подкасты по ним же.
Please open Telegram to view this post
VIEW IN TELEGRAM
2🌭1
А лабы кстати, вообще фигня 🙂
🌭1