Не первый раз натыкаюсь на контринтуитивный совет-ответ на вопрос «как разрабу вкатиться в ML, с какой базы начинать и какую математику учить» в духе:
В целом – согласен. Но у меня bias с Ops конечно🥱
Никак, оно (база) вам скорее всего не надо. Вкатываться может быть долго и сложно, а самих квалифицированных ML инженеров вроде как хватает. Проблема больше в MLOps – на рынке недостаток людей кто нормально понимает как модели деплоить, обеспечить цикл переобучения и доставки без кровопотерь. Так что лучше начните с того чтобы научиться строить AI системы на готовых моделях и API, и хорошо разберитесь с инфрой для них.
В целом – согласен. Но у меня bias с Ops конечно
Please open Telegram to view this post
VIEW IN TELEGRAM
На следующей неделе будет ежегодный (вроде как традиция уже) пятидневный интенсив от Kaggle и Гугла по GenAI и вот этой всей нежити 🌟
У вас два варианта:
1) Жмать сюда и поучаствовать тоже😎
2) Никуда не жмать и читать мои отчеты по каждому дню в этом канале🫡
У вас два варианта:
1) Жмать сюда и поучаствовать тоже
2) Никуда не жмать и читать мои отчеты по каждому дню в этом канале
Please open Telegram to view this post
VIEW IN TELEGRAM
Найдена основная причина появления багов в моем коде – на кнопки нажимаю чем то не похожим на руки ✌️
Please open Telegram to view this post
VIEW IN TELEGRAM
Количество кода, которое я выплюнул из своих мозгов за последнюю неделю, не было бы возможно достичь без Курсора.
Не думайте, что я переобулся – вся моя критика на месте.
Лишь благодаря тому, насколько быстро эта скотина может распространять изменения по кодовой базе можно достигать таких объемов.
Не думайте, что я переобулся – вся моя критика на месте.
Лишь благодаря тому, насколько быстро эта скотина может распространять изменения по кодовой базе можно достигать таких объемов.
Если вы не прекратите рассуждать в форматах "Нет ну смотри вот тут во фреймворке же вот так вота сделано, надо так и делать", то вы как раз из тех кого AI заменит в первую очередь. Ну или уже заменяет...
LLM можно достаточно быстро "обьяснить" что не так, в конце концов в продолжение сообщения выше – написать пример как надо, и она пойдет копи-peace-дить как хороший джуниор🏃♂️
Ну пусть это "достаточно быстро" займет сколько, пару часо?🆗
С майндсетом фреймворкера-формошлепа либо вообще смысла нет бадаться (если всю карьеру так и рассуждал/работал), либо придется бадаться много дольше чем с моделью 🙂
Вбивайте в голову инженерные принципы с молоду пока мозги не закостенели, пригодится. Еще вроде поезд не ушел🚂
LLM можно достаточно быстро "обьяснить" что не так, в конце концов в продолжение сообщения выше – написать пример как надо, и она пойдет копи-peace-дить как хороший джуниор
Ну пусть это "достаточно быстро" займет сколько, пару часо?
С майндсетом фреймворкера-формошлепа либо вообще смысла нет бадаться (если всю карьеру так и рассуждал/работал), либо придется бадаться много дольше чем с моделью 🙂
Вбивайте в голову инженерные принципы с молоду пока мозги не закостенели, пригодится. Еще вроде поезд не ушел
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
Неделька очень тяжелая.
Практически не было времени продолжить нормально по курсу ШСМ – надо демку ассистента допиливать😂
Но работа по факту ведется. Эта неделя – по сути выполнение домашнего задания по первой части курса о которой были все предыдущие посты.
Задание не очень сложное – заземлиться по поводу себя самого, в смысле куда время тратишь и на что.
При том дали на курсе совершенно четкие категории траты времени, именно то чего мне не хватало в прошлом году.
Первый день (понедельник), прошел очень скомкано, но я быстро исправился и принесу вам методичку в ближайшие дни о том как попробовать заземлиться самостоятельно.
Спойлер такой: ставишь одно приложение, настраиваешь как скажут, и если лямки на кнопку нажимать хватит, через неделю у тебя будет вполне четкая картина куда время утекает.
Конечно кроме как жать на кнопку надо будет еще немножко порефлексировать, и особенно поупражняться во внимании к дребезгу.
Короче, максимально конкретно напишу.
А тем кто не зассыт и следующую неделю после релиза этой методички попробует ее в деле – что нибудь подарю🫡 скажем – трем человекам точно будут 🎁
Практически не было времени продолжить нормально по курсу ШСМ – надо демку ассистента допиливать
Но работа по факту ведется. Эта неделя – по сути выполнение домашнего задания по первой части курса о которой были все предыдущие посты.
Задание не очень сложное – заземлиться по поводу себя самого, в смысле куда время тратишь и на что.
При том дали на курсе совершенно четкие категории траты времени, именно то чего мне не хватало в прошлом году.
Первый день (понедельник), прошел очень скомкано, но я быстро исправился и принесу вам методичку в ближайшие дни о том как попробовать заземлиться самостоятельно.
Спойлер такой: ставишь одно приложение, настраиваешь как скажут, и если лямки на кнопку нажимать хватит, через неделю у тебя будет вполне четкая картина куда время утекает.
Конечно кроме как жать на кнопку надо будет еще немножко порефлексировать, и особенно поупражняться во внимании к дребезгу.
Короче, максимально конкретно напишу.
А тем кто не зассыт и следующую неделю после релиза этой методички попробует ее в деле – что нибудь подарю
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2 1 1
Хорошая новость в том что дальше начинается первый, ознакомительный блок по моделированию!
Конечно, будет аж целый отдельный курс, где уже попрет петля в моделирование моделирования🤯 но до вводного материала хочется очень поскорее добраться энивэй.
Вопрос только когда?
Неделя еще не кончилась, но я уже и за это время трекания по методе увидел очень явственно свою саму главную проблему – и это не отвлечения (я практически робот, глядите экранку за неделю), и даже не переключения контекста…
Это слишком большое колличество сайд-задач, которые я пытаюсь делать одновременно!💥
Под одновременностью тут мной понимается попытка делать какие-либо под-задачи из этих проектов в один день.
Прикол в том, что если бы я распланировал неделю более предметно, например в понедельник один проект, во вторник другой – толку было бы намного больше, был бы какой то ощутимый прогресс, даже от учете кранча! Час на себя у меня в эту неделю ежедневно точно находится.
Но конечно, надо снижать количество этих параллельных проектов максимально, в идеале до одного :)
Мне об этом мудрый учитель говорил еще года два назад. Ну лучше поздно, чем никогда 🔨
Очень хочу часов 5 дополнительного времени в сутках чтобы все успевать, но такого не предвидится.
Хорошо что следующая неделя у нас уже определилась как состоящая на 80% из AI, как минимум из за интенсива Каггла. За базар отвечаю😎
Может войду в резонанс.
Конечно, будет аж целый отдельный курс, где уже попрет петля в моделирование моделирования
Вопрос только когда?
Неделя еще не кончилась, но я уже и за это время трекания по методе увидел очень явственно свою саму главную проблему – и это не отвлечения (я практически робот, глядите экранку за неделю), и даже не переключения контекста…
Это слишком большое колличество сайд-задач, которые я пытаюсь делать одновременно!
Под одновременностью тут мной понимается попытка делать какие-либо под-задачи из этих проектов в один день.
Прикол в том, что если бы я распланировал неделю более предметно, например в понедельник один проект, во вторник другой – толку было бы намного больше, был бы какой то ощутимый прогресс, даже от учете кранча! Час на себя у меня в эту неделю ежедневно точно находится.
Но конечно, надо снижать количество этих параллельных проектов максимально, в идеале до одного :)
Мне об этом мудрый учитель говорил еще года два назад. Ну лучше поздно, чем никогда 🔨
Очень хочу часов 5 дополнительного времени в сутках чтобы все успевать, но такого не предвидится.
Хорошо что следующая неделя у нас уже определилась как состоящая на 80% из AI, как минимум из за интенсива Каггла. За базар отвечаю
Может войду в резонанс.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭3
Если без шуток – отпишитесь кто уже попробовал Gemini 2.5 Pro. Я пока не могу добраться до ноута 😭
Че делали?
Чем то лучше соннета? Подойдут хотя бы субъективные ощущения.
Маркетинговые стоны в твиттере как обычно нагрузки несут маловато, все примеры задачек которые «оооуоооуоо посмотрите как круто сделало!» Claude итак норм тащил.
Из бенчмарков интересны от Рината Абдуллина которых пока для новой модели нет (очень ждем!)
Че делали?
Чем то лучше соннета? Подойдут хотя бы субъективные ощущения.
Маркетинговые стоны в твиттере как обычно нагрузки несут маловато, все примеры задачек которые «оооуоооуоо посмотрите как круто сделало!» Claude итак норм тащил.
Из бенчмарков интересны от Рината Абдуллина которых пока для новой модели нет (очень ждем!)
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1
Все perfomance review в которых я когда либо участвовал были чем-то вроде цирка лицемерия – тебя нахваливают за то, где ты был молодец, если серьезных косяков не было - вообще их не упоминают, или упоминают вскользь. Ну и иногда дают прибавку которая приближает тебя к нижнему грейду по рынку (сверху или снизу :) и стремится покрыть инфляцию.
Один мой знакомый аналитик пошел джуном в Яндекс, очень толковый парнишка. Обещали через N месяцев ревью, если косяков нет – повысят оклад.
Результат – Биба. Пацан смайнал в банк и правильно сделал.
Perfomance review как абстрактная концепция может и норм, только правда вот в чем:
1) если вы будете косячить как Олег, никто не будет ждать очередного PR в календаре и Лид начнет стучать по башке сразу.
2) обещания ничего не стоят. Пустая похвала - приятна, но тоже ничего не стоит. Если вам обещают прибавку на следующем ревью - фиксируйте это обещание а переписке, а потом все время пока работаете до этого PR сами фиксируйте свои достижения. Так будет нааааамного сложнее вас прокатить. Ну и в рефлексии потренируетесь.
Вообще конечно самая крутая система была в DBI, когда в тебя кидают таблицей с грейдами и списками знаний/задач которые надо обрести и доказать на практике. Очень прозрачно, и далеко не все сразу ломятся по грейдам подниматься.
В любом случае, чтобы там не было – pr, грейды, или вообще ничего - свои достижения и косяки лучше фиксировать самостоятельно. Далеко не каждый менеджер хорошо фиксирует последние, и редко какой вообще нормально фиксирует первые.
Один мой знакомый аналитик пошел джуном в Яндекс, очень толковый парнишка. Обещали через N месяцев ревью, если косяков нет – повысят оклад.
Результат – Биба. Пацан смайнал в банк и правильно сделал.
Perfomance review как абстрактная концепция может и норм, только правда вот в чем:
1) если вы будете косячить как Олег, никто не будет ждать очередного PR в календаре и Лид начнет стучать по башке сразу.
2) обещания ничего не стоят. Пустая похвала - приятна, но тоже ничего не стоит. Если вам обещают прибавку на следующем ревью - фиксируйте это обещание а переписке, а потом все время пока работаете до этого PR сами фиксируйте свои достижения. Так будет нааааамного сложнее вас прокатить. Ну и в рефлексии потренируетесь.
Вообще конечно самая крутая система была в DBI, когда в тебя кидают таблицей с грейдами и списками знаний/задач которые надо обрести и доказать на практике. Очень прозрачно, и далеко не все сразу ломятся по грейдам подниматься.
В любом случае, чтобы там не было – pr, грейды, или вообще ничего - свои достижения и косяки лучше фиксировать самостоятельно. Далеко не каждый менеджер хорошо фиксирует последние, и редко какой вообще нормально фиксирует первые.
🌭2
This media is not supported in your browser
VIEW IN TELEGRAM
Всем и повсюду – привет!
Я заползаю в свою AI неделю и начну делиться наработками и мыслями по мере их появления.
Сейчас же представляю вам небольшой пост на тему Квантовых Вычислений, не вижу причин не поделиться материалом раз он появился🥳
Мне было интересно посмотреть что это такое, и немного помечтать куда оно выльется :)
Оказалось чуть менее интересно, чем я думал🤷♀️
Методичка по тайм трекингу тоже будет на этой неделе, но чуть позже💃
Я заползаю в свою AI неделю и начну делиться наработками и мыслями по мере их появления.
Сейчас же представляю вам небольшой пост на тему Квантовых Вычислений, не вижу причин не поделиться материалом раз он появился
Мне было интересно посмотреть что это такое, и немного помечтать куда оно выльется :)
Оказалось чуть менее интересно, чем я думал
Методичка по тайм трекингу тоже будет на этой неделе, но чуть позже
Please open Telegram to view this post
VIEW IN TELEGRAM
Жесть канешна они с козырей зашли на интенсиве.
Закинули два дока, и лабы – рассчет на один день? Ну если на доки забить и сразу лабы ломануться делать!
Очень сомнительное, ибо бумажули хорошие, хочется их вычитывать внимательнее, изучать концепции глубже и писать из своей головы больше! Вроде база базой, но так хорошо и последовательно написано! Идеальный баланс в тех деталях, никакой воды.
Вероятно что создатели интесива не подразумевали что большая часть, или вообще кто-то так будут к изучению подходить... Ну, главное нахватать материала и лабы сдать🚗
По части первого документа – Foundational Large Language Models & Text Generation я вам немного написал
Внутри так же ссылки на оба документа и на NotebookLM сгенеренные подкасты по ним же.
Закинули два дока, и лабы – рассчет на один день? Ну если на доки забить и сразу лабы ломануться делать!
Очень сомнительное, ибо бумажули хорошие, хочется их вычитывать внимательнее, изучать концепции глубже и писать из своей головы больше! Вроде база базой, но так хорошо и последовательно написано! Идеальный баланс в тех деталях, никакой воды.
Вероятно что создатели интесива не подразумевали что большая часть, или вообще кто-то так будут к изучению подходить... Ну, главное нахватать материала и лабы сдать
По части первого документа – Foundational Large Language Models & Text Generation я вам немного написал
Внутри так же ссылки на оба документа и на NotebookLM сгенеренные подкасты по ним же.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Kaggle intensive day 1
Привет, идет первый день интенсива про LLM от Kaggle и Google. TL;DR: Материал ну просто топ! Первым документом на интенсиве предлагают довольно свежее и подробное описание о том где мы оказались – что такое трансформеры, как они появились, как развивались…
Давайте подумаем что кроется за коммунистическим мувом от Google – «SoTA трансформер в каждый дом»?
Anonymous Quiz
40%
Это тупо хайп. Скоро повесят ценник.
53%
Да этаж Гугол! Собирают телеметрию чтобы еще круче модель натаскать! Experimental!
7%
Это совершенно искренняя благотворительность.
🌭2
Привет, завершаем курить бамбук с первого дня интесива.
Я очень борюсь с тем чтобы не утыкаться в приложенные источники, ибо как раз там, там мякотка! Ну ладно, вот отчет или типа того.
Тема второго дня интенсива – “Embeddings and Vector Stores/Databases"
И три лабы.
Ждите новостей сегодня вечером или завтра утром по этому материалу.
Саммари подкаст от NotebookLM как обычно прилагаетяся, можно послушать тут
Я очень борюсь с тем чтобы не утыкаться в приложенные источники, ибо как раз там, там мякотка! Ну ладно, вот отчет или типа того.
Тема второго дня интенсива – “Embeddings and Vector Stores/Databases"
И три лабы.
Ждите новостей сегодня вечером или завтра утром по этому материалу.
Саммари подкаст от NotebookLM как обычно прилагаетяся, можно послушать тут
Telegraph
Kaggle intensive day 1 Prompt Engineering
Привет, завершим первый день интесива. Вторая папира не такая плотная. Тут у нас про промпт-инжиниринг, рассказывают основные техники промптирования и важные параметры выхлопа моделей. Ну про температуру вы точно знаете – чем выше температура, тем рандомнее…
🌭4 1
Ну а вот пасхалки в виде бонусного папируса мы уважаем, спасибо, нрааааиица!
В конце второй лабы первого дня (про эвалюйшены) прицепили это
Тут у нас про методы оценки LLM, рассказывают как от MVP дойти до продаи сколько ног при этом придется сломать.
есть три основных подхода к оценке:
- Computation-Based Methods: количественная оценка, BLEU, ROUGE и прочее. Быстро, но не всегда точно.
- Human Evaluation: самое надежное (правда ведь?), но дорого и долго.
- Autoraters: оценка с помощью других LLM, попытка баланса между масштабируемостью и качеством.
Опять проталкивают – "документируйте всё!" Молодцы))
Эвалы это тоже мучение LLM, поэтому тут все еще работает правило garbage in - garbage out.
Про autoraters интересно - они могут давать bias (позиционный, к длине текста, к своей модели), но есть разные техники для борьбы с этим.
В документе даже есть таблица с разными моделями-оценщиками и их особенностями.
Структура оценки для LLM сложнее, чем для обычных ML-моделей. Нужно учитывать, что "правильный" ответ может быть не один, а метрики надо адаптировать под бизнес-задачу.
Мета-оценка тоже важна (да-да сами оценщики надо оценивать😃 ): как понять, что сам оценщик адекватен?
Уже есть много датасетов для этого.
В конце второй лабы первого дня (про эвалюйшены) прицепили это
Тут у нас про методы оценки LLM, рассказывают как от MVP дойти до прода
есть три основных подхода к оценке:
- Computation-Based Methods: количественная оценка, BLEU, ROUGE и прочее. Быстро, но не всегда точно.
- Human Evaluation: самое надежное (правда ведь?), но дорого и долго.
- Autoraters: оценка с помощью других LLM, попытка баланса между масштабируемостью и качеством.
Опять проталкивают – "документируйте всё!" Молодцы))
Эвалы это тоже мучение LLM, поэтому тут все еще работает правило garbage in - garbage out.
Про autoraters интересно - они могут давать bias (позиционный, к длине текста, к своей модели), но есть разные техники для борьбы с этим.
В документе даже есть таблица с разными моделями-оценщиками и их особенностями.
Структура оценки для LLM сложнее, чем для обычных ML-моделей. Нужно учитывать, что "правильный" ответ может быть не один, а метрики надо адаптировать под бизнес-задачу.
Мета-оценка тоже важна (да-да сами оценщики надо оценивать
Уже есть много датасетов для этого.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1 1