NGI | Влад Корнышев про AI и создание AI-продуктов
4.06K subscribers
130 photos
32 videos
2 files
320 links
Простым языком рассказываю об AI и работе AI-продактом.

Консультирую стартапы, помогаю запускать MVP. Co-Founder EAI, ex-Skyeng, ex-Pearson.

💼 Внедрить AI: https://e-ai.solutions
🎓 Обучить команду: https://www.ngi.academy/b2b
Download Telegram
Anthropic дали Claude запасные “мозги”: рассказываю про новый “think” tool

Пока мы с вами ждем эфир, вот вам выжимка из свежей статьи от Anthropic про то, как они научили модель "думать" по-новому. И нет, речь не про Extended Thinking, о котором я писал еще с релизом модели.

Речь идет об инструменте, который значительно расширяет возможности модели в решении сложных задач. Компания рассказывает о так называемом "think" tool, который позволяет Claude выделять специальное пространство для структурированного мышления в процессе работы над задачей.

Что это за "think" tool и как он работает?

По сути, это дополнительный "шаг мышления" для Claude при генерации ответа. Если раньше Claude просто выдавал результат, то теперь, особенно когда информации для ответа недостаточно, или задача требует обработки внешних данных, модель может использовать этот инструмент, чтобы "подумать" над задачей.

Важно отметить, что это не то же самое, что "extended thinking". "Extended thinking" относится к процессу, который Claude выполняет перед генерацией ответа, когда модель глубоко анализирует задачу и планирует свои действия. А "think" tool, наоборот, используется в процессе генерации ответа, позволяя Claude остановиться и проанализировать, достаточно ли у него информации для дальнейших действий.

Подход, на мой взгляд, очень интересный. Но не напоминает ли это вам что-то? Подумайте!

Нечто похожее можно увидеть у разных компаний. Например, примерно так работает DeepResearch у ряда ИИ-сервисов, когда модель задает нам доуточняющие вопросы, чтобы лучше понять задачу.

Вообще, дать модели "подумать" - это вполне логичный шаг с точки зрения промптинга. Подобная стратегия широко применяется, чтобы снизить баяс (предвзятость) модели и направить ее в нужное русло. Разница сейчас будет в том, что теперь модель сама определяет, когда это надо сделать.

В целом, такой подход позволяет развивать LLM в сторону принятия автономных решений, что необходимо для создания ИИ-агентов. Поэтому сам подход - не является чем-то новым и удивительным, но прикольно, что они идут в сторону автоматизации. Тем не менее, моделям все равно необходима будет валидация, и лучше всего это работает в сочетании с подсказками от человека, что как раз отметили в исследовании.

Звучит прикольно, но как это работает в реальности?

От себя точно могу сказать, что подобный подход - очень эффективен. В Pollux AI мы как раз даем моделям доп шаг на “размышление” при брифинге клиента, это позволяет модели лучше следовать сценарию.

Разработчики Claude, в свою очередь, протестировали "think" tool на базе τ-bench, бенчмарка для оценки способности модели использовать инструменты в реалистичных сценариях обслуживания клиентов.

Тесты показали значительное улучшение результатов в задачах, требующих:
- Анализа вывода инструментов.
- Соблюдения строгих политик.
- Принятия последовательных решений, где каждый шаг зависит от предыдущего.


Как отмечал выше, лучше всего использование "think" tool работало в сочетании с оптимизированными подсказками, дающими модели примеры рассуждений для анализа запросов пользователей.

В общем, мы уверенно движемся к созданию более автономных ИИ-систем, о которых как раз сегодня поговорим 😉
🔥2
Начинаем трансляцию. Ждем 5 минуточек 🙂

Трансляция завершена, чуть позже скину запись и презентацию.
👍1
Media is too big
VIEW IN TELEGRAM
Запись эфира по ИИ-трендам

Друзья, благодарю всех, кто посетил эфир сегодня. Надеюсь, что каждый унес для себя с него что-то ценное.

Анонс будет завтра.

Презентация - в первом комментарии :)
🔥6👍2
Запускаю два новых продукта по AI!

Привет, друзья! В конце вчерашнего эфира я презентовал два продукта над которыми активно работал последние 6 месяцев.

Речь идет о моих тренингах по ИИ и AI продакт менеджменту.
В посте про образование я говорил о трех столпах: базовых знаниях, методологии и знаниях в моменте.

Именно на них стрятся мои программы: в начале мы разберемся с основами ИИ, затем перейдем к методологии, которую сразу же опробуем для решения конкретных задач. Помимо этого, я снабжу вас огромным количеством ресурсов, которые помогут вам углубить свои знания в выбранном направлении.

📈 ИИ для личной эффективности Старт 8 апреля, занятия по вторникам, 4 недели
Этот тренинг я создал для тех, кто хочет не просто использовать ИИ, а понимать, что это за технология и как она может сделать вас эффективнее.

Он для вас, если:
- Вы хотите понять, что такое ИИ, когда он действительно спасает, а когда лучше сделать по-старинке
- Хотите быстрее анализировать большие объемы данных, принимать более взвешенные решения стимулировать свою креативность
- Хотите расширить спектр своих возможностей с помощью ИИ и начать делать то, что откладывали раньше

🙋🏻‍♂️ AI продакт менеджмент Старт 9 апреля, занятия по средам, 8 недель
Этот тренинг охватывает два ключевых направления: создание AI-продуктов и применение AI-инструментов в повседневной деятельности продакт-менеджера.

Он для вас, если:
- Вы человек из бизнеса либо продакт,и хотите внедрить AI в свои продукты и бизнес-процессы
- Ищете проверенные методологии разработки AI-продуктов из реальной практики
- Хотите, внедрить AI не потому что это модно, а чтобы он давал конкретные результаты

Почему я уверен в своих тренингах:
В основе тренингов - мой опыт разработки AI-продуктов: тысячи часов исследований и общения с пользователями для того, чтобы создать 20+ AI продуктов за время работы в Skyeng, Pearson и EAI
Программы уже обкатаны: на закрытых группах, индивидуальных консультациях и даже Michigan State University. Я доработал тренинги, на основе обратной связи и глубинных интервью с представителями различных сфер, включая: IT, предпринимательство, медицину, маркетинг и др.
Фокус на фундаментальных знаниях и методологии, а не конкретных сервисах, которые завтра могут исчезнуть. Вы научитесь выбирать и комбинировать ИИ-инструменты под свои задачи

Что вы конкретно получите:
1. Самые актуальные знания и навыки в области ИИ, подкрепленные моим опытом и знаниями, полученными из образовательных программ Reforge, Google, OpenAI.
2. Рабочие методы взаимодействия с AI, которые мы активно используем в EAI, включая фреймворк AI-Дизайна продукта в программе для продактов.
3. Пожизненный доступ к материалам c обновлениями. Вы не просто получите записи будущих потоков, а сможете участвовать в живых сессиях. Также материалы будущих потоков будут включать инсайты из моего будущего обучения по программе в MIT.
4. Все выпускники тренинга получат постоянный доступ к закрытому коммьюнити по ИИ. Там будут отдельные материалы, мероприятия, а также крутые специалисты по ИИ, которым я доверяю. Для всех остальных доступ к коммьюнити откроется позже и будет осуществляться по ежемесячной подписке

👉 В комментарии к посту прикрепляю подробные программы тренингов — они должны ответить на все ваши вопросы. Если остались вопросы — задавайте их прямо под этим постом, я отвечу каждому.

🚀 Приобрести тренинги можно на моём сайте: https://www.ngi.academy/

Оплата доступна российскими и зарубежными картами. Если у вас возникли сложности с оплатой — пишите в личку.

❗️ В честь запуска, до 2 апреля включительно цены снижены. После - будут постепенно повышаться. Тренинги 3 потока, запланированные на май и июнь, будут дороже, т.к. в цены будет заложен доп бюджет на маркетинг.

P.S. В январе своим давним подписчикам я обещал скидку на тренинги - напишите мне в личку, и я предоставлю вам 5% скидку на любой тариф. Эту же скидку получат первые 3, кто отпишется под этим постом

Также я разыграю места среди всех подписчиков. Детали в посте ниже
6👍1
Получите востребованные навыки в AI бесплатно. Розыгрыш мест на тренинги

Как и обещал, разыгрываю несколько мест на мои тренинги ИИ для личной эффективности и AI-продакт-менеджмент! Хочу, чтобы эти знания достались тем, кто действительно увлечен темой и готов применять их на практике.

Поэтому наиболее честный способ выбрать победителей – оценить ваши мотивационные письма.

Сколько мест разыгрываем? Это зависит от вас!
- 600 подписчиков в канале активируют розыгрыш. Разыграю по 1 месту на каждый тренинг
- 800 подписчиков: + 1 место на тренинг "ИИ для личной эффективности".
- 1200 подписчиков: + 1 место на тренинг "AI-продакт-менеджмент".

Максимум – по 2 места на каждый тренинг!

❗️Подписчики должны быть живые, а не боты. Качество аудитории буду проверять.

Как принять участие:
1. Быть подписаным на этот канал
2. Заполнить Google-форму
3. В ней указать, на какой тренинг вы хотите попасть
4. И вставить свое мотивационное письмо: расскажите, почему вы хотите пройти именно этот тренинг и как планируете применять полученные знания. Письмо я настоятельно рекомендую писать самостоятельно. За текстом я хочу увидеть личность человека, а не набор фактов. Длина - не более 700 символов
5. Поделитесь постом с теми, кому может быть полезен мой канал либо один из тренингов

Прием заявок: до 19:00 (МСК) 6 апреля.

Как будем выбирать победителей:
1. Я лично прочитаю каждое письмо и самым сильным в каждой категории отдам свои 2 балла. Я могу отдать оба балла одному письму либо отдать по 1
2. Затем то же самое сделают Gemini и ChatGPT: выберут по одному лучшему письму в каждой категории (+1 балл).
3. Победителями станут те, кто наберет больше всего баллов. При равенстве баллов победителя из числа лидеров выберу я сам.

Итоги подведем в прямом эфире, 7 апреля в 19:00 (МСК).

👉 Форма для участия

❗️Важно: В канале установлена защита от накрутки подписчиков. Любая попытка накрутки ботов в канал будет обнаружена и приведёт к бану инициаторов и отмене розыгрыша.
🔥2👍1
NGI | Влад Корнышев про AI и создание AI-продуктов pinned «Запускаю два новых продукта по AI! Привет, друзья! В конце вчерашнего эфира я презентовал два продукта над которыми активно работал последние 6 месяцев. Речь идет о моих тренингах по ИИ и AI продакт менеджменту. В посте про образование я говорил о трех столпах:…»
Google не перестает удивлять: Gemini 2.5 Pro – новый король AI?

Кажется, Сундар Пичаи не шутил, когда говорил, что Google намерен сделать все, чтобы вырваться в лидеры AI-гонки. Сначала Gemma, потом обновления Deep Research, и вот – новая Gemini 2.5 Pro.

Gemini 2.5 Pro – это “думающая” модель. Если Gemini 2.0 Flash Thinking Experimental уже была моей любимицей и отлично справлялась со сложными задачами, то теперь у нее появилась более продвинутая версия в лице Gemini 2.5 Pro. Конкурент "думающему” режиму Claude 3.7 и моделями семейства GPT-o.

Будет крайне интересно посмотреть на прямое сравнение этой модельки как раз с GPT.

На данный момент Gemini 2.5 Pro занимает первое место в рейтинге LMArena, но, как мы знаем, бенчмарки не всегда отражают реальную картину.

Модель унаследовала все лучшее от предыдущих моделей Gemini, включая контекстное окно.

Что обещает гугл:

Улучшенное "мышление”: Gemini 2.5 Pro демонстрирует передовые результаты в бенчмарках, требующих продвинутого логического мышления. Из интересного - модель обгоняет всех в так называемом Humanity’s Last Exam.

Продвинутое программирование: Google уделили особое внимание навыкам программирования, и в Gemini 2.5 Pro достигнут значительный прогресс по сравнению с 2.0. Тут интересно будет сравнить с Claude. Из тех задач, что я решал, Gemini хорошо находил ошибки в коде, но не мог исправить их, в то время как Claude это делал.

Мультимодальность и контекстное окно: Gemini 2.5 Pro продолжает традиции Gemini, предлагая нативную мультимодальность и огромное контекстное окно. На старте модель имеет контекстное окно в 1 миллион токенов (в будущем планируется 2 миллиона), что позволяет ей обрабатывать большие объемы данных и решать сложные задачи, используя информацию из различных источников, включая текст, аудио, изображения, видео и код.

Модель уже можно попробовать в Google AI Studio
👍5
Что такое RAG и почему он вам точно пригодится

Пока все сходят с ума по обновлению GPT-4o с его возможностью генерировать картинки и видео, продолжаю цикл образовательных постов. Сегодня у нас ликбез по RAG (Retrieval-Augmented Generation).

Что такое RAG простыми словами?
RAG — технология, позволяющая языковой модели получать данные из внешних источников. Иначе говоря, это подход, который объединяет поиск информации (Retrievial) и генерацию ответов на основе найденных данных (Augumented Generation).

Как это работает на практике?
Если объяснять простыми словами: представьте, что вы студент и пришли на экзамен. Часть тем вы знаете хорошо, а часть - так себе. Но у вас по карманам распиханы шпаргалки на которых вы сделали насечки, чтобы отличать, где какая. Когда вы получаете свой вопрос, вы не пытаетесь вспомнить ответ, а быстро находите нужную карточку на ощупь, и, опираясь на информацию из нее, формулируете ответ.

Почему я сказал про насечки? Примерно так это работает у LLM. Для поиска в базе знаний LLM используют специальные механизмы, один из самых популярных — векторный поиск с эмбеддингами. Эмбеддинги — это способ представить слова, предложения или целые документы в виде набора чисел (векторов). Похожие по смыслу тексты имеют похожие наборы чисел. Это позволяет находить информацию не просто по совпадению слов, а по близости смысла — даже если в запросе используются совсем другие термины.

Полный процесс RAG выглядит примерно так:
1. Получаем запрос от пользователя
2. Ищем релевантную информацию в нашей "картотеке" с помощью эмбеддингов
3. Формируем контекст из найденных данных
4. Генерируем ответ с помощью LLM, которая учитывает как свои "врожденные" знания, так и только что найденную информацию
5. Добавляем ссылки на источники

RAG VS Длинный Контекст: когда что использовать?
По этому поводу есть целые статьи и вопрос становится все более актуальным, так как за последнее время появилось много моделей с огромным контекстным окном. Помимо Gemini - это QWEN 2.5, Grok 3 и другие. Возникает вопрос: мне нужен RAG или можно тупо загрузить документы в модель? На самом деле, это не вопрос "или-или", а скорее "когда и что".

Когда лучше использовать RAG:
- Когда вам нужна всегда актуальная информация: RAG берет данные из внешних источников, которые могут оперативно обновляться
- Когда важна точность фактов: опираясь на реальные данные из внешнего источника, модель меньше "выдумывает"
- При работе с закрытыми корпоративными данными, которых нет в обучающей выборке модели
- Когда нужно оптимизировать расходы: обработка длинного контекста обычно дороже
- Если важна прозрачность: с RAG легче показать, откуда именно взялась информация

Когда может подойти длинный контекст:
- Для разовых задач с фиксированным набором документов
- Когда важна скорость ответа без дополнительных запросов к базе данных
- При работе с текстами, где важны взаимосвязи между разными частями документа
- Для творческих задач, где не требуется сверка с внешними источниками

В чем сложности использования RAG?
Как и любая технология, RAG имеет свои нюансы:
- Качество зависит от поисковика: если система поиска находит не те документы, LLM выдаст красивую, но бесполезную информацию
- Задержка: поиск данных требует времени, что может замедлить ответ
- Конфликты в данных: если в разных документах информация противоречит друг другу, модель может запутаться

Где применяется RAG?
Чат-боты службы поддержки, поисковые системы по внутренним базам знаний, в Pearson мы экспериментировали еще с генерацией контента. Ну и далеко ходить не надо - мой бот Нейросова Нейджи. Она основана на RAG-подходе и при подборе ИИ-инструментов и ответе на вопросы сначала ищет их в моей базе данных, чтобы выдавать наиболее релевантные рекомендации, адаптированные под ваши запросы.

Итого, RAG соединяет силу генеративных моделей с точностью и актуальностью внешних источников данных.

А для тех, кто хочет сильнее разобраться в RAG - в рамках обоих тренингов я рассказываю, как это сделать без кода и где это может быть полезно.

#обучающиематериалы
🔥52👍1
Почему я не разделяю всеобщего восторга по поводу новых возможностей GPT 4o

Буквально две недели назад весь медийный мир был одержим экспериментальной версией Gemini Flash, способной генерировать изображения. Парадокс заключался в том, что большинство восторженных обзоров базировались не на глубоком понимании технологических нюансов, а на примитивной способности модели создавать мемы. Неискушенная аудитория внезапно открыла для себя Google AI Studio, воспринимая его как революционный продукт, исключительно благодаря визуальному функционалу, а не тонким настройкам и списку доступных моделей. Reels, статьи, и посты о том, какая Gemini крутая просто взорвали медиа пространство.

Прошло чуть больше 10 дней и OpenAI выпустили свой ответ в виде GPT 4o, вернее, ее обновления, которая тоже может генерировать картинки. Что происходит сейчас? Правильно, о ней пишут везде, все пошли генерировать мемы и все опять пишут, какая классная теперь уже GPT 4o.

Вот только здесь есть несколько проблем
Иллюзия новизны. Генерация картинок тем подходом, что используется в LLM - это вообще не инновация. Такой должна была быть GPT 4o тогда, когда нам ее анонсировали (около года назад). А до нее - подобный подход к генерации изображений уже был известен, но не использовался в продуктах крупных компаний вроде OpenAI и Google, от чего логично, что и качество было хуже, ведь ресурсов в виде людей и железа у них в разы больше.

Качество VS Универсальность. Даже не смотря на рост качества генерации, оно все равно СУЩЕСТВЕННО хуже, чем у специализированных моделей для работы с изображениями. Это решится со временем, однако на мой взгляд, специализация в AI при прочих равных всегда будет работать лучше универсальных решений.

Профанация полезности. Малая практическая ценность данного функционала в его текущем состоянии. Очень мало кейсов. За все дни я увидел несколько сотен публикаций про картинки. И практически ВСЕ ОНИ БЫЛИ С МЕМАМИ или чем-то подобным. Я подписан на кучу профессиональных пабликов, но только в одном из них (спасибо, Артем) увидел что-то про реальную пользу.

А все потому - что реальная польза этой функции - это польза для самих компаний.
Потребительское поведение работает так, что люди склонны пользоваться продуктами и платить за те решения, которые “доступны для понимания каждому”. Не важно, инженер ты со степенью pHD, бизнесмен или домохозяйка. Картинки - это лишь умная воронка.

Механизм прост: сначала развлечение (мемы, случайные картинки), затем любопытство, далее - знакомство с дополнительными возможностями продукта и, как финал, подписка. Универсальность контента - мемы понятны всем. Идеальный инструмент для массового маркетинга.

Да, технологический прогресс налицо, но за красивой картинкой скрывается воронка старого образца - привлечение внимания через максимально доступный и понятный контент.

Стоит ли восторгаться? Решать вам. Но критически важно сохранять трезвость мышления и не поддаваться первому впечатлению.

(Заходите в комментарии, к этому посту они максимально полезные)
👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Alibaba выпустили QWEN 2.5 7b Omni, которую вы можете запустить прямо у себя на компьютере

Китайцы не перестают удивлять! Выкатили то, чего явно никто не ожидал: модель, которая может с вами разговаривать. И мало того, что оно говорит, ее можно еще и запустить на любом современном макбуке с чипами серии M.

Архитектуру модели назвали Thinker-Talker и с ней буквально можно разговаривать в прямом эфире. На компьютер пока себе не скачивал (жду MLX или GGUF-формат), но записал вам короткое демо с Hugging Face. Кому интересно - с моделью можно поговорить тут.

Почему вообще это важно?
До текущего момента, подавляющее большинство LLM, которые можно было запустить у себя на компьютере, были либо сугубо текстовыми, либо частично мультимодальными (поддерживали еще обработку изображений). Чтобы заставить модель с вами говорить и разбирать голос - нужно было собирать отдельный пайплайн из LLM, ASR и TTS. А теперь достаточно просто скачать одну модель, которая из коробки умеет распознавать: тексты, аудио, видео, отвечать вам в голосом, да еще и делать это в режиме диалога

Alibaba буквально перевернула представления об open-source моделях. Легковесная и реально мультимодальная из коробки.

Уже можно предвидеть, как энтузиасты и компании будут:
- Файнтюнить модель под бизнес-кейсы
- Создавать уникальные приложения
- Экспериментировать с новыми форматами взаимодействия

Не побоюсь назвать QWEN 2.5 7b Omni прорывом в мире локальных LLM, который делает технологию диалога максимально доступной и простой.
🔥101
Кейс: AI-нутрициолог на рынок Saudi - разработка, грабли и переход на Gemini

Привет друзья! Сегодня у нас очередной кейс в формате лонгрида. На этот раз я расскажу про интересный проект, который мы делали совместно с MVP Lab. Необычен он тем, что мне, как продакту, пришлось засучить рукава и поработать руками: много писал промптов, продумывал архитектуру AI-решения и пайплайны обработки данных. В общем, был больше инженером, чем менеджером — опыт получился максимально интересный!

Будет полезно всем, кто хочет прототипировать самостоятельно или занимается промпт инжинирингом. Уверен, что поможет не наступить на те грабли, по которым прошлись мы с командой :)

Поехали!

#кейсы
🔥8
Почему я решил заняться тренингами

Начать, наверное, стоит с того, что мне в целом нравится сфера образования. Ведь именно образование и стремление учиться помогли выбраться из провинциального городка. Я пришёл в EdTech 5 лет назад, потому что меня драйвила идея: через свои действия повысить доступность образования и помочь кому-то развиться, как когда-то помогли мне.

Однако EdTech раз за разом разочаровывал тем, что коммерческая составляющая часто превалировала над качеством. Я не говорю, что в Skyeng или Pearson мы делали плохие продукты, речь скорее о том, что их можно было сделать ещё эффективнее, но это стоило бы компаниям дороже. Skyeng стремился сократить траты на преподавателей, а Pearson везде внедрял свой фреймворк GSE, который подходил далеко не ко всем продуктам.

Из возможностей оставалась преподавательская деятельность и... создание собственного университета. Создать университет пока сложновато 😅 Поэтому я решил сконцентрироваться на преподавании, а основной доход обеспечивать чем-то другим. Я уже писал, что активно работаю с вузами, но ВУЗы – это тоже рамки и образовательные стандарты, а мне хотелось делать что-то своё. Именно поэтому я решил запустить тренинги в рамках NGI Academy.

🙋🏻‍♂️ Почему тренинг по AI-продакт-менеджменту?
В 2022 году, когда меня позвали в R&D Skyeng, я считал, что неплохо разбираюсь в ИИ и разработке. Но, придя в команду, которую нужно было строить с нуля, я понял, что мои знания, хоть и были обширными, нуждались в систематизации и углублении, особенно в контексте создания AI-продуктов. Методы, работавшие с обычной разработкой, здесь не работали: спринты не закрывались, цели не достигались. И, что самое забавное, после встреч с инженерами я уходил с блокнотом, полным слов, которые потом приходилось гуглить 😅

Я искал курсы, которые помогли бы мне разобраться, но сталкивался либо с тем, что нужные знания надо собирать по крупицам, либо с "полноценными" курсами, которые давали лишь поверхностное представление и быстро устаревали. Такого курса, как я хотел, на рынке просто не было.

Моей целью было создать фундаментальный курс по разработке AI-продуктов, который останется актуальным и через 6, и через 12 месяцев, требуя лишь небольших обновлений. Курс, к которому можно будет возвращаться, чтобы находить ответы на вопросы, возникающие в повседневной работе AI-продакта. Я хотел создать такой курс,который сам бы с удовольствием прошел и за который не пожалел бы заплатить любые деньги. И который мне было бы не стыдно ассоциировать со своим именем.

🚀 Почему тренинг по эффективности?
Этот тренинг родился, когда я работал над программой для продактов. Меня несколько раз приглашали читать лекции по ИИ, рассказать про промпт-инжиниринг. Я соглашался, рассказывал вещи, которые казались мне очевидными, но, как выяснилось, были совсем не очевидны для аудитории. Я увидел этот запрос – запрос на качественные знания об ИИ – и из любопытства решил посмотреть, что есть на рынке.

А на рынке я увидел бесчисленное множество курсов, обещающих "избавление от рутины" и "оптимизацию всего и вся" с помощью "нейронок". Авторы этих курсов – блогеры и маркетологи, которые учат, как "делать деньги на ИИ". Я раздобыл материалы некоторых из этих курсов и был, мягко говоря, разочарован. Никто не давал базу, обучение строилось только на освоении конкретных инструментов. Возможности ИИ описывались так, будто тебе не нужно быть экспертом, чтобы создавать что-то крутое – "ИИ всё сделает за тебя!". Они учат создавать приложения с ИИ, но не говорят о рисках разработки. Учат делать рекламные креативы, но не учат проверять ключевые слова.

И я решил создать продукт, который покажет ИИ таким, какой он есть – со всеми его преимуществами и недостатками. Курс, который будет действительно полезным, а не бомбой замедленного действия, создающей иллюзию знаний.

Вот так мы и оказались в той точке, где я запускаю свои тренинги. Если вам знакомы эти проблемы, если вы тоже ищете качественное обучение по AI, то ещё есть время записаться на любой из них или поделиться информацией с другом.
👍6🤔1
Посмотрел сериал Severance - великолепная аллегория на корпоративную жизнь

Живя в сегодняшнем быстро меняющемся мире иногда полезно остановиться и сделать паузу. Периодически для меня такой паузой являются сериалы. Неплохой способ непринужденного времяпрепровождения. И иногда так совпадает, что то или иное произведение кинематографа затрагивает какие-то аспекты твоей обычной жизни. Те аспекты, о которых ты, может быть, задумывался, а может быть и нет.

Именно таким открытием для меня стал сериал Severance (в русской локализации "Разделение"). Действие происходит в биотехнологической компании Lumon, которая придумала технологию так называемого "Разделения" - в мозг вживляется специальный чип, благодаря которому на работе вы не думаете о всем, что происходит за ее пределами и становитесь максимально эффективным и наоборот - в обычной жизни работа не отвлекает вас. Эдакий аналог life-work balance.

Однако плюсы от этого только на бумаге. Выясняется, что пошедшие на "разделение" сотрудники испытывали в жизни серьезные проблемы, и такая работа лишь помогала им бежать от проблем, а не решать их. В то же время, сериал показывает, насколько сам человек ничтожен для современных корпораций, являясь лишь винтиком во всей этой системе. Не соответствуешь стратегии - сокращен. Полезен системе - загружен на полную, даже если этого не хочешь.

Эффективность, достижение квартальных целей и следование идеологии, видению и культуре компании становится во главе угла. Доходит даже до того, что личность человека в этих условиях просто уничтожается, потому что ее существование - это препятствие к прогрессу. Создается определенный культ вокруг работы, корпоративных мероприятий, а сама работа приобретает все больше признаков секты. Гордость за общие достижения и чувство приобщения к чему-то высокому.

С развитием сюжета ты все сильнее понимаешь, что разделение - это не про вымышленную технологию, а про реальный процесс, который происходит с твоей личностью, когда ты работаешь в крупной компании. Особенно это резонирует с теми, кто работает IT-сфере, где границы между работой и личной жизнью часто размываются.

Сегодняшний рынок труда как нельзя точно отражает эту тенденцию. Массовые загоны людей в офис, аргументированные тем, что "удаленка неэффективна", она не создает нужную атмосферу и синергию между сотрудниками. Обустройство офисов таким образом, чтобы вам было комфортно в них не просто работать, а жить. Громкие призывы из уст учредителей компаний, транслирующие необходимость работать по 60 часов в неделю для достижения "великой цели".

Через экран нам наглядно показывают как цели человека дробятся на профессиональные и личные, где с одной стороны работа, амбиции и коллектив, а с другой - любовь, семья и твои переживания. Мы видим, как одну личность дробят на две, которые должны делать противоречивые выборы.

В контексте AI эта метафора особенно актуальна. Мы создаем инструменты, которые должны облегчать нашу работу, но часто они же становятся причиной еще большего "разделения" нашей личности. Технологические решения, призванные повысить эффективность, иногда создают парадоксальную ситуацию: чем больше у нас инструментов для оптимизации работы, тем больше нам надо работать - над созданием еще более совершенных инструментов и развитием новых качеств, потому что AI заменил собой старое и ненужное

Тем, кто не смотрел, настоятельно рекомендую к просмотру. Великолепно снятый и срежиссированный сериал, в котором местами вы возможно увидите свое отражение. А еще это отличный повод задуматься: какие продукты мы создаем? Усиливают ли они "разделение" или помогают людям сохранить целостность их личности?
👍3
🚀 NGI дайджест за неделю (№2)

1. Anthropic дали Claude запасные “мозги”: рассказываю про новый “think” tool - высказал свои мысли по поводу нового тула think в Claude
2. Запись эфира по ИИ-трендам - в посте сама запись и в комментариях оставил презентацию со всеми ссылками
3. Анонс моих тренингов и розыгрыш мест на них - обявляю набор на два тренинга: “ИИ для личной эффективности” (цена 24 990 р) и “AI продакт менеджмент” (74 990 р). Над тренингами работал в последние полгода. Если хотите по-настоящему понимать ИИ и использовать его на полную или содавать AI-продукты, то вам сюда. Продажи открыты до 8 апреля (тренинг по эффективности) и 9 апреля (по продакт менеджменту). Для текущего потока самая низкая цена. Приобрести места можно на сайте
4. Выход Gemini 2.5 PRO - гугл выпустили самую мощную на сегодняшний день LLM. После нескольких дней с ней, могу сказать, что это не просто цифры в бенчмарках, а реально модель, которая уделывает конкурентов в большинстве кейсов.
5. Что такое RAG и почему он вам точно пригодится - очередной обучающий пост для тех, кто хочет расширить поле своих возможностей при работе с LLM.
6. Почему я не разделяю всеобщего восторга по поводу новых возможностей GPT 4o - рассказал про свое отношение к генерированию картинок в стиле Ghibli, в комментариях развязалась интересная дискуссия 🙂
7. QWEN 2.5 Omni 7b - новость про маленькую, да удаленькую мультимодальную модель от Alibaba. Китайцы создали первую LLM подобного размера, которая может разговаривать с вами “из коробки”
8. Кейс: AI-нутрициолог на рынок Saudi - разработка, грабли и переход на Gemini - лонгрид с очередным кейсом, который мы реализовывали. Будет полезен для всех, кто планирует заниматься прототипированием и кому интересна тема промптинга.
9. Почему я решил заняться тренингами - пост про мою мотивацию заниматься образовательным проектом. Если вы рассматриваете для себя покупку какого-то их моих тренингов, поможет лучше понять, совпадаем ли мы по майндсету и решает ли какой-то из них вашу проблему.
10. Пост про сериал Severence - не по тематике канала, но очень впечатлил 🙂

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍2
Размер имеет значение? На что обращать внимание при выборе LLM

Все мы знаем, что модели существуют разные: GPT-4o и GPT-4o-mini, Gemini Pro и Gemini Flash... А если вы, как и я, любите возиться с опенсорсными моделями, то наверняка обращали внимание на цифры с рядом с буквой "b" в названиях: 7b, 14b, 70b. И то и другое относится к размерности модели. Но как оно влияет на работу?

Давайте разбираться!
Эти самые "b" – это миллиарды параметров модели. Грубо говоря, параметры – это количество нейронов в “мозгу” ИИ. Чем их больше, тем обычно "умнее" модель и тем сложнее задачи она может решать. Однако, как и в жизни, "больше" не всегда значит "лучше"! 🙃

Не гонитесь за гигантами!
Не для каждой задачи нужен "тяжеловес" с сотнями миллиардов параметров. Например, если вам нужно быстро просуммаризировать статью или получить ответ на простой вопрос, вполне хватит и "малыша". Я, например, для таких целей часто использую китайскую Qwen 2.5 на 7b. Шустрая, компактная, бесплатная и работает оффлайн!

Но! Важно помнить, что количество параметров - это не единственный фактор. Очень многое зависит от архитектуры модели, качества данных, на которых она училась, и методов обучения. Вполне реальна ситуация, когда модель с меньшим количеством параметров уделывает более "накачанного" конкурента. Например, новые модели LLama при меньшей размерности работают лучше, чем предыдущее поколение.

Коротко и ясно vs. Подробно и детально
Тут есть важный нюанс. Маленькие модели, как правило, лучше работают с короткими и четкими промптами. Им сложно удерживать в памяти длинные инструкции и кучу деталей. Но если у вас задача -“монстр", требующая соблюдения множества условий, тут без большой модели зачастую не обойтись.

Хотя и тут есть лайфхаки! Даже с небольшой моделью можно добиться хороших результатов, если правильно "разжевать" ей задачу. Используйте few-shot prompting (дайте модели несколько примеров) или chain-of-thought prompting (разбейте задачу на цепочку простых шагов). Это как объяснить что-то ребенку: не надо сразу вываливать всю информацию, лучше по шагам, с примерами.

Контекст – наше все!
Хоть это и не связано напрямую с количеством параметров, но более "тяжелые" модели обычно имеют и большее контекстное окно. Это как оперативная память у ИИ: чем больше, тем больше информации он может удерживать “в голове” и учитывать при ответе. Например, у Gemini Pro контекстное окно - 2 миллиона токенов, а у Flash - 1 миллион. Для большинства задач и миллиона хватит за глаза, но бывают и исключения.

Но опять же, не все так просто. Есть техники, позволяющие работать с длинными текстами даже на моделях с небольшим окном. Можно разбить текст на части, обработать каждую отдельно, а потом "сшить" результаты. Или использовать RAG, когда модель ищет нужную информацию в базе данных, а не держит все в памяти.

Больше данных – больше проблем?
Размерность модели влияет и на то, насколько эффективно она работает с большими объемами информации. По своему опыту скажу: Gemini Flash начинает "сбоить" после 50 тысяч токенов, а Pro спокойно переваривает и 800 тысяч! Так что, если вы планируете "скормить" модели целую библиотеку, выбирайте с умом.

И не забывайте про узкие места. Например, внимание (attention) – механизм, который позволяет модели фокусироваться на важных частях текста. В классических трансформерах (архитектура большинства LLM) сложность вычисления внимания растет квадратично с длиной текста. Это значит, что обработка очень длинных текстов может быть очень медленной и дорогой (особенно если вы платите за API). Поэтому разработчики и придумывают всякие "хитрости", вроде sparse attention или linear attention.

Выбор модели – это всегда компромисс между мощностью, скоростью, размером контекстного окна и... вашими задачами. Смотрите на реальные возможности моделей, экспериментируйте и помните, что лучший ИИ – это тот, который решает ваши задачи, а не тот, у которого больше цифр в названии.

Еще больше про особенности выбора моделей я рассказываю в рамках обоих тренингов, на которые все еще можно записаться по сниженной цене.

#обучающиематериалы
1👍101
AI заменит джунов - их навыки никому не нужны
На пост с такой идеей я наткнулся на днях, листая LinkedIn. Подобное говорят уже давно, просто чаще всего под удар попадают разработчики, а тут речь шла о продактах, маркетологах и вообще любых других специалистах.

Основной поинт автора был в том, что на джуниор позиции обычно нанимают людей, чтобы они выполняли простые операции: для продакта - это составить скрипт интервью, сделать анализ рынка, написать ТЗ и так далее по списку. Все эти функции будут делаться через AI-инструменты и ИИ-агентов, которые работают быстрее, дешевле и без кофе-брейков.

Почему это неправда
Начну с того, что я категорически не согласен с автором. Делегирование - это сложный процесс, и если бы все было так просто, то джуны уже не нужны никому с 2022 года, вместе с появлением ChatGPT.

Когда я делегирую задачу джуну, я жду не тупо исполнения, а:
Во-первых, вопросов или лучше даже несогласия в чем-то
Во-вторых, что он ее как-то докрутит и интерпретирует по-своему
В-третьих, что он пропустит ее через свой опыт и, будучи максимально мотивированным, сделает больше, чем я его просил


А теперь сравним мои ожидания с тем, что есть у ИИ:
1. Отсутствие эмпатии и эмоционального опыта. ИИ не понимает контекст человеческих отношений в команде, политику компании и неписаные правила, которые новичок схватывает на лету.
2. Отсутствие механизма регуляции критического мышления. Если попытаться запромптить LLM давать объективную оценку, то она все равно будет клониться в сторону тех суждений, которые ей заложили на этапе обучения. Просишь быть критически настроенной - будет критиковать до бесконечности, пока ее не остановишь.
3. Отсутствие мотивации как таковой. ИИ не хочет вырасти до сеньора, не мечтает о повышении и не стремится превзойти ожидания.
4. Отсутствие механизма иной интерпретации того, о чем я его попросил. LLM будет предсказывать наиболее вероятный ответ по моему запросу, а мне не всегда это нужно. Иногда нужен неожиданный взгляд или "глупый" вопрос, который перевернет всё с ног на голову.

Кого действительно заменит ИИ?
Как видим - все эти качества присущи именно человеку. Поэтому каких людей ИИ заменит, так это тех, кто не развивает свое мышление и другие софт-скиллы. И, объективно говоря, такие сотрудники никогда и никому не были нужны.

Поэтому если всё, что у вас есть - это навыки заполнения документов, поиска в гугле и т.п., то не ИИ вас заменил, а вы сами совершили карьерный суицид. Роль ИИ в данном случае - просто вбить последний гвоздь в гроб для карьеры такого специалиста.

Что изменится?
Джуны все еще будут нужны, просто произойдет изменение в том, какие к ним предъявляются требования:

1. Спрос на эмоциональные навыки + быстрый онбординг. Боевые задачи с реальными людьми сразу после прихода в компанию. Вместо рутины - настоящая работа.
2. Навык валидации результатов работы AI. Даже если AI найдет информацию с указанием ссылки на источник - все равно нужно будет валидировать не только AI, но и первоисточник. Насколько он соответствует задаче и вашему продукту?
3. Понимание того, когда и какой AI вам стоит применить. Допустим, вы сделали анализ рынка через DeepResearch. Проанализировали конкурентов, протыкали их приложения и составили список лучших функций. Где применять AI, а где нет? Стоит ли это делать для формирования выводов или их валидации? Тот самый навык AI Orchestration, о котором я говорил во время стрима.

Требования изменятся не только к джунам, а вообще ко всем. Нужно будет уметь мыслить стратегически, трезво оценивать перспективы, вовремя уметь остановиться и, где нужно - применить AI, а где нужно - включить человеческий фактор.

На самом деле, джуны даже получают фору перед более опытными специалистами - они изначально растут в эпоху AI и воспринимают его как естественный рабочий инструмент, а не как "новую технологию", к которой нужно адаптироваться.

Именно такому подходу работы с ИИ я обучаю на обоих своих тренингах. Если еще не записались - у вас все еще есть такая возможность.

#развитиеии
👍43
"Сделано человеком" 2.0: Как Vibe Coding и AI меняют ценность экспертизы.

Текущее развитие AI-инструментов делает доступным широкому кругу людей просто огромное количество вещей, которые ранее были немыслимы для масс. Чего стоит один Vibe Coding, делающий программирование доступным почти каждому! С ИИ можно создать свое приложение, запустить бизнес, вести блог, стать AI-художником, писателем — кем угодно. ИИ дает огромный простор для деятельности, снижая барьеры входа практически в любую сферу. Каждый может проявить свою креативность. Но не напоминает ли вам это что-то?

История богата примерами, но так как музыка - одно из моих хобби, хочется провести параллель именно с ней. В 80-х появились доступные синтезаторы, активно пошла цифровая звукозапись. В 90-х - ПО вроде Pro Tools и FL Studio, которое позволило любому клепать треки с помощью драм-машины и плагинов, сидя дома на диване. Необязательно было быть виртуозным музыкантом - достаточно усидчивости и желания донести свою идею. К чему это привело? К взрыву новых жанров, альбомов, к появлению чего-то прорывного... и одновременно к тоннам музыкального хлама.

Умерла ли "традиционная" музыка? Конечно, нет. Кто-то остался верен гитарам и живым барабанам (классика, блюз, рок), кто-то полностью ушел в электронику, а кто-то, как Linkin Park, гениально смешал лучшее из двух миров. На каждый продукт нашлась своя аудитория. Кому-то, как и мне, важна аранжировка, игра с паузами, глубина текста и музыки, "почерк" автора. Кому-то — главное, "чтобы качало". Опера, альтернативный рок и электронная музыка спокойно сосуществуют. Предпочтения часто зависят от искушенности слушателя.

Очень похожее происходит сейчас и с "ИИ-креативностью". У нас есть тексты, код, дизайн, созданные с помощью ИИ. Но тут начинается самое интересное:

Чистый AI-продукт: Часто создан людьми без глубокого понимания дела. Это шаблонный контент, сгенерированный по запросу. Дешевый масс-маркет. В народе — ширпотреб со всеми его плюсами и минусами.

Гибридный подход: Специалисты используют ИИ как мощный инструмент, но вкладывают свою экспертизу, видение, доводят результат до ума. Продукт получается на порядок качественнее, часто с уникальными фишками.

Ручной труд: Эксперты создают что-то с нуля, полагаясь только на свой опыт и мастерство.
Отличие последних двух категорий от первой — ровно как и с музыкой: авторы этих продуктов глубоко понимают, ЧТО они делают и КАК. Они вкладывают душу и мастерство.


И вот мой прогноз: чисто "ИИшные" продукты останутся уровнем масс-маркета. А вот гибридный и особенно "ручной" труд станут цениться еще выше. Мы придем к точке, когда будем готовы доплачивать за пометку "Сделано человеком", точно так же, как сейчас платим за ярлычок "Organic" на продуктах.

Реально крутой специалист, независимо от сферы, найдет применение своему мастерству - будет он использовать ИИ или нет. Что точно изменится, так это само понятие "посредственный". Если раньше это значило просто “дерьмовый”, то теперь "посредственный" — это "созданный AI без глубокой экспертизы и души".

Так что нет никакой ИИ-революции. Есть только естественно протекающая эволюция.
👍131👌1
С 4 апреля дня повышаю цены на тренинги

Друзья, короткий апдейт. Если вы пропустили анонс или раздумывали над приобретением места на какой-то из моих тренингов, то сегодня у вас последняя возможность сделать это по самой низкой цене. Изначально планировал повышение с 3 апреля, но слишком погрузился в создание контента и чуть запоздал с этим ремайдером, поэтому текущие цены оставляю еще на один день.

В группах уже запустил сбор пожеланий по каждой из тем тренинга. Все материалы будут адаптированы под конкретный поток.

Мест осталось немного + в последние дни продаж планирую дополнительное привлечение, после которого, скорее всего, не останется мест на тренинг по эффективности, но еще будет парочка на продакт менеджмент.

👉 Забрать свое место

P.S. Чуть позже опубликую разбор статьи по безопасности ИИ от DeepMind, там много интересного. Прочитал более 100 страниц и был действительно вдохновлен увиденным
👍5