NGI | Влад Корнышев про AI и создание AI-продуктов
4.05K subscribers
130 photos
32 videos
2 files
320 links
Простым языком рассказываю об AI и работе AI-продактом.

Консультирую стартапы, помогаю запускать MVP. Co-Founder EAI, ex-Skyeng, ex-Pearson.

💼 Внедрить AI: https://e-ai.solutions
🎓 Обучить команду: https://www.ngi.academy/b2b
Download Telegram
NGI | Влад Корнышев про AI и создание AI-продуктов pinned «Выступлю на вашем мероприятии в Белграде, в Москве или по видео-связи Друзья, знаю, что меня читает много людей из корпоративной среды, в том числе, организующих различные мероприятия как внутри компаний, так и на конференциях. В конце апреля я выдвигаюсь…»
Cursor навайбкодили ИИ-ассистента, который знатно накосячил

Наткнулся на забавную новость, которая в очередной раз напоминает: до того, что ИИ заменит разработчиков нам пока еще далеко. И самое ироничное - эта история произошла с Cursor, всем известным редактором кода :D

Итак, что же случилось?
Один из пользователей Cursor хотел использовать инструмент и на рабочем и на личном компьютере и заметил странную вещь: при переключении между устройствами его сеанс работы с редактором кода постоянно завершался. Он обратился в поддержку, где ИИ-бот по имени Сэм сообщил ему, что это новая политика компании, связанная с безопасностью.

Весь сок в том, что никакой новой политики не существовало :D Бот просто сгаллюцинировал и отправил ее пользователю.

Это привело к волне возмущения среди пользователей и угрозам отмены подписки. Разработчики, мягко говоря, офигели :)

Отдельно стоит отметить, что такой критически важный функционал, как сапорт, видимо, был просто "завайбкожен" либо плохо запромптчен, не прошел полной проверки и выложен в продакшн.

Cursor, конечно, быстро исправили саму проблему и пользователю сделали возврат, но осадочек, как говорится, остался.

Итого, что мы имеем:
- ИИ-саппорт все еще не идеален
- Даже сами разработчики AI-тулов косячат
- Программисты пока могут спать спокойно (ну, относительно спокойно).

Как вам такое? Лично меня новость певеселила)
🤣6🤔2👌1
Откуда я узнаю про изменения в законодательстве по ИИ

Друзья, в своем посте с прогнозами на 2025 я как-то упомянул, что 2025 год - станет тем годом, когда ИИ попадет на радар регуляторов.

Это неизбежно: технология становится настолько мощной, что вопросы ее разработки и последствий внедрения должны регулироваться со стороны государств.

Причем, делать это нужно очень осторожно и ответственно, т.к., например, Калифорнийская инициатива прошлого года, хоть и имела за собой благие намерения, фактически убивала технический прогресс. Произошло это ввиду того, что среди авторов просто не было специалистов в области ИИ.

В целом, вопросы законодательного регулирования ИИ лежат на стыке этики, права и технологии. И если с этикой и технологиями я на "ты", то для того, чтобы ориентироваться в праве, а особенно, на международном уровне, я предпочитаю обращаться к проверенным источником.

Сегодня я хочу поделиться именно таким: канал ИИ и Право. Автор канала - Марина, специалист в области цифрового права, и должен сказать, это один из тех каналов, которые я читаю с мыслями "вау, я этого не знал!", который при этом помогает мне не потеряться в тематике. Также отмечу, что здесь много материала не только на юридические, но и на этические темы

Среди последних постов я бы выделил:
- Пост про обратный эффект слабого регулирования ИИ в сфере безопасности - очень тонкая тема
- Разбор исследования от Anthropic про то, что ИИ скрывает свои мысли - именно его я упоминал в своем посте про AI 2027.
- Цикл постов по вопросам ИИ и авторского права, например этот

В общем, канал очень рекомендую.

👉🏻Подписаться на канал ИИ и Право
👍2
Протестировал llama 4 в реальных задачах: на бенчмарках Лев Толстой, а на деле текст - отстой

Спустя несколько дней после релиза новых моделей Llama, компанию Цукенберга начали обвинять в том, что бенчмарки накручены (раз, два). При этом сама компания усердно это отрицала.

Мне стало очень интересно, как оно на самом деле, и я практически 2 недели тестировал новые модели для своих задач. На прошлой неделе я писал про то, как экономить на LLM, там же рассказал про Openrouter, в котором, очень кстати, новые модели Llama 4: Maveric и Scout доступны бесплатно. Учитывая их миллионный контекст, я решил использовать эти модели для тех же задач, для которых сейчас использую Gemini.

И, честно говоря, модели меня очень разочаровали. По качеству ответов в моих личных сценариях они часто не оправдывали ожиданий. Более того, Llama 4 проигрывает не только Gemini PRO 2.5, которая была единственной моделью на llm arena. По моим ощущениям, модель работает хуже, чем оба DeepSeek (R1/V3), Qwen 2.5, gpt 4o, Gemini Flash 2.0 и многие другие. То есть модель, которая новее, инновационнее и имеет больше параметров, работает хуже, чем более старые или легковесные конкуренты.

В чем проявилось это "хуже" в моих задачах и что это за задачи, которые я решал с помощью моделей?

Начнем с задач:
- брейнсторминг
- написание ТЗ
- суммаризация текстов
- написание промптов к другим моделям
- поиск багов в коде

Что мне не понравилось:
1. Модель очень склонна торопиться. В задачах, где я выполняю какой-то пошаговый процесс, например, генерацию ТЗ, я предпочитаю идти по шагам. И если Gemini, с которой я обычно работаю, задает мне уточняющие вопросы, то Llama, во-первых, давала меньше детализации, отвечала короче и все время торопилась перейти к следующему этапу. Ощущалось это как работа с каким-то ленивым работником, который пытается сделать тяп-ляп и пойти дальше.
2. Непонимание финальной цели задачи, над которой работаем. Например, с той же генерацией ТЗ. Я делал ТЗ на создание лендинга. В первоначальном промпте прописал, что мне нужно создать ТЗ, по которому я дальше буду кодить. И если Gemini после просьбы о последней правке радовался и спрашивал, есть ли еще пожелания по правкам, то Llama, даже не убедившись в том, доволен я или нет, говорила, что теперь будет сама писать код. Вроде как и хочется похвалить за инициативность, но моя первоначальная задача была другая.
3. Требуется большее количество перегенераций, чтобы получить качественный ответ. С таким я не сталкивался, наверное, со времен GPT 3. Я даю модели вполне понятный промпт - получаю некачественный ответ. Ради эксперимента жал кнопку "перегенерировать", хороший ответ получался с 3-4 раза. Отправлял такой же промпт в Gemini Flash 2.0 - модель дает качественный ответ с первого раза, DeepSeek V3 - ответ с первого раза.
4. Странная работа с контекстом. Я генерировал несколько промптов для создания картинок. Обычно делаю это в одном чате и промпты для 4-5 картинок получаюстя нормально. В случае с Llama - модель в последующих картинках пыталась вставить элементы предыдущих.

В целом, модель ощущается как некий откат на 1 - 1.5 года назад, и если тогда это ощущалось нормально, то на фоне современных моделей это выглядит как даунгрейд.
👍4
Как получить наилучший результат при генерации фото и видео

Делюсь своим подходом. Генережка визуального контента - одна из тех областей, где можно реально упороться, пытаясь добиться ожидаемого результата. И, исходя из моего опыта, пути здесь два:

1. Следовать официальным гайдам и искать свои фишечки
Такой есть, например, для Veo 2 и для Midjourney. Способ хороший, рабочий, но требует инвестиций времени. Ибо каждый раз надо сидеть и думать: как описать сцену, объект, как лучше передать атмосферу и.т.д. В целом, это имеет смысл, если вы - какой-нибудь AI Artist и делаете визуалы на заказ, которые потом все равно дорабатываете в редакторе. Мне лично такая история не подходит

2. Использовать LLM-managed workflows
Это тот подход, в эффективности которого я неоднократно убеждался на практике. Прежде всего, когда мы делали автоматизацию создания рекламных креативов для одного из стартапов. Все генераторы на входе все равно используют LLM, преобразуя ваш запрос в язык, понятный модели. Поэтому лучше всего будет заставить LLM генерить нам промпт для нашего визуала. И здесь есть несколько хаков, которые я использую.

- Во-первых, генерим промпты с помощью LLM, которая с большей вероятностью используется для расшифровки нашего запроса в визуальной модели. Для Imagen 3 и Veo - это Gemini, для Dall-E и Sora - это GPT, для Midjourney - в целом, удавалось добиться хороших результатов и с OpenAI и c Gemini, но в идеале надо искать модельки от одного вендора.
- Во-вторых, просим не просто сгенерировать промпт чего-то, а даем few-shot примеры. Примеры можно брать разные, в зависимости от ваших целей. Например, когда мы делали рекламу - для продукта или услуги обычно используются крупные планы того, что рекламируется, с каким-то ярким впечатлением или эмоцией. Для примеров мы написали несколько таких промптов, по которым сгенерировали те изображения, которые нас устроили. Получился запромченый под определенную задачу ИИ-ассистент.
- В-третьих, используем примеры от разработчиков в качестве few-shot примеров. Они есть в гайдах выше. Кто, как не разработчики самих моделей, знает, как правильно их промптить? 🙂 Если нам нужны промпты для широкого круга задач - набираем примеров из гайдов, штук 5-6, максимально разных, чтобы избежать ситуации, когда нам, например, генерятся только видео в анимационном стиле.
- В-четвертых, инструкции из гайдов переносим в промпт.

Вот такое тело промпта я использую для VEO 2 в Gemini:
You are a world-class prompt engineer specializing in creating prompts for text-to-video tools such as Google Veo 2 and Kling. Your job is to create the best possible prompts for video generation based on a user-provided description in natural language.

The following elements can be included in your prompt:
Subject: The object, person, animal, or scenery that you want in your video.
Context: The background or context in which the subject is placed.
Action: What the subject is doing (for example, walking, running, or turning their head).
Style: This can be general or very specific. Consider using specific film style keywords, such as horror film, film noir, or animated styles like cartoon-style render.
Camera motion: Optional: What the camera is doing, such as aerial view, eye-level, top-down shot, or low-angle shot.
Composition: Optional: How the shot is framed, such as wide shot, close-up, or extreme close-up.
Ambiance: Optional: How the color and light contribute to the scene, such as blue tones, night, or warm tones.

How to handle negative prompts:
Avoid instructive language or words like "no" or "don't." For example, instead of "No walls" or "Don't show walls,"
Describe what you don't want to see. For example, use "wall, frame" to indicate that you don't want a wall or a frame in the video.

Few-shot answer examples: [сюда вставляем примеры]

Answer in English, sending only the prompt text.


Пишем простым текстом или даже просто наговариваем, что нам надо, получаем промпт. Практически всегда выходит отличный результат с первого раза.

#обучающиематериалы
6👍3
В понедельник послушал эфир state of the union от Байрама Аннакова, рекомендую и вам

Кто не знает Байрама, в свое время он основал App In The Air (то самое приложение для путешестенников), занял офигенную долю рынка и после - продал компанию. Последние несколько лет Байрам плотно занимается AI, onsa.ai - его сервис для автоматизации B2B продаж.

Байрам регулярно проводит эфиры, где анализирует текущее состояние индустрии, разбирает интересные статьи, тренды и делает какие-то предикшены, которые очень часто попадают в цель, и State of the union - как раз один из таких эфиров. В общем, делает то, что люблю делать и я сам. Видимо, играет роль, что мы прошли через одну школу в МГУ 😄

Так вот, лично для меня самая главная ценность и показатель экспертности — это когда ты, даже разбираясь в теме, получив контент, уходишь с какими-то инсайтами для себя, и прошедший эфир - как раз один из таких кейсов. Байрам много говорил про то, куда движется индустрия и как это может отразиться на бизнесе, подраскрыл свои мысли о возможной разработке гуглом аналога Google Play для AI агентов. Под конец эфира он противопоставил два подхода восприятия ИИ: AI 2027 и AI is Normal Technology. Первый я детально разбирал в канале, второй пока не успел, но он представляет собой более сдержанную оценку к тому, как будет внедряться AI в нашу жизнь.

В процессе встречи в чатике я высказал позицию, что AI 2027 - больше история про привлечение внимания к проблемам через некоторую однобокость, в то время как второй лонгрид - уже больше про реальную жизнь, и здесь наши мнения настолько совпали, что у меня создалось впечатление, будто я веду какой-то внутренний диалог с собой, при этом Байрам накидал еще несколько умных мыслей с разных углов. В общем, было реально полезно и интересно, и двухчасовая встреча буквально пролетела.

В общем, если вам нравится, о чем пишу я, но вы хотите посмотреть на это немного под другим углом, рекомендую еще и на канал Байрама подписаться.

Не взаимопиар и не реклама, а полезная рекомендация. Мне в личку даже пару подписчиков писали, скидывая его канал со словами “Влад, читаю твой канал, нравится, а еще есть такой чувак, Байрам Аннаков, тоже интересно пишет”. Решил, что многим тут будет полезно 🙂
🔥4👍3
Как AI помогает мне трекать прогресс в английском

ChatGPT - полная фигня по сравнению с тем, о чем пойдет речь!

Еще во время работы в Skyeng, в далеком 2021, я делал ресерч платформ с AI, которые реально эффективны в обучении английскому языку. Тогда я наткнулся на сервис Small Talk 2 Me. И это очень крутая штука. Сервис направлен на подготовку к нежелательному экзамену через говорение. Понятно, что полноценного преподавателя это не заменит, но если вы хотите получить измеримый результат, понять свою стартовую точку и трекать со временем прогресс - он подходит идеально. А еще там есть упражнения, которые помогут вам прокачать те места, в которых у вас пробелы.

Под капотом лежит алгоритм, который оценивает ваш вокабуляр, уровень грамматики, беглости речи, произношения и ряд других параметров. В начале вам надо пройти тест, примерно на 15-20 минут, в котором вам предстоит: прочитать текст, ответить на простой вопрос, описать картинку, а затем несколько раз говорить на случайные темы. То есть в целом, проверяются все основные навыки устной речи, которые могут вам пригодиться. Единственное, что отмечу, так это если вы пользуетесь сервисом раз в год, как я, то метрика объема вокабуляра будет не самой точной, если постоянно, то с каждым вашим упражнением показатель будет ближе к реальности. Остальным показателям можно доверять.

В Skyeng мы пытались сделать нечто подобное, при мне мы разработали алгоритм оценки речи. Уже после моего ухода ребята обернули это в продукт: Skyeng Avatar, который буквально копирует оригинал :) Прикольно наблюдать за тем, как твои идеи реализуются уже после твоего ухода.

Как определить свой уровень точнее? Пройдите оба теста. Скаенговский мы обучали на своих записях и теоретически должен точнее определять уровень русскоговорящих, а Small Talk - международная история, но очень точная. Тест проходил как я отдельно, так и мой преподаватель, чисто из интереса. Вместе пришли к выводу, что результаты, в целом, соответствуют действительности :)

Тест я прохожу примерно раз в год. С прошлого раза получилось +300 слов к вокабуляру, +2 слова в минуту к скорости речи и собрал еще кучу ачивок.

Кидайте результаты своих тестов в комментарии и делитесь впечатлениями, точно ли определился ваш уровень?

#инструменты
🔥11👍5
Как развернуть свой сервер для Affine и прикрутить к нему GPT, чтобы не платить за подписку

Ранее я писал про сервис, на который перешел с Notion, если не читали - вот пост. Там также есть AI-функционал. Подписка на Affine AI стоит 8 баксов в месяц, но я его так активно не использую, поэтому поднял сервер и прикрутил туда свой API-ключ Openrouter. На данный момент AI официально не поддерживается для селф-хостинга, но я посмотрел код и нашел, как это обойти. Публикую неофициальный способ завести AI.

1. Вам понадобится арендовать сервер с IP не в РФ. Можно на Digital Ocean или VDSINA. ОС выбираем 24.04 Ubuntu, оперативка минимум 1 гб, памяти - сколько вам нужно. Также вам понадобится купить любой домен (к нему мы будем подключаться). Домен привязываем к IP сервера, как сделать - обычно написано там, где покупали домен. Также вам понадобится установить nginx, об этом в процессе спросите Gemini.

2. Подключаемся к серверу средствами командной строки (проще всего прямо с сайта вашего хостинга). Зовем на помощь Gemini или любую другую LLM, просим помочь установить версию canary в папку ~/affine-docker Копируем отсюда весь текст документации и просим помочь развернуть AFFINE на своем сервере и подключить nginx, говорите, чтобы давал вам пошаговые инструкции и присылал по одной конкретные команды. В случае проблем - копируем текст ошибки и просим ее решить. Сначала он вам поможет установить docker, а затем все остальное

3. После того, как установили и запустили - идем в приложение Affine, добавляем свой сервер по домену. Создаем аккаунт и попадаем в админку, она будет по адресу ваш_домен_для_affine/admin, там находим себя в списке пользователей, жмем Edit и включаем для себя UnlimitedCopilot. Остальные настройки с AI трогать не нужно. В боковом меню будет тумблер с AI, но он не работает (способ неофициальный).

4. Возвращаемся на сервер, выполняем следующую команду:

nano ~/.affine/self-host/config/config.json

5. Откроется редактор текста, надо поправить его на такой, вставив свокй апи ключ

{
"$schema": "https://github.com/toeverything/affine/releases/latest/download/config.schema.json",
"copilot": {
"enabled": true,
"providers.openai": {
"apiKey": "sk-or-v1-ВАШ_API_КЛЮЧ_Openrouter,
"baseUrl": "https://openrouter.ai/api/v1"
}
}
}

6. Как поправили - жмем control+S, а затем control+X, чтобы сохраниться и выйти из редактора

7. Выполняем команду:

sudo chmod 644 ~/.affine/self-host/config/config.json

8. Выполняем команду:

docker compose up -d --force-recreate

9. Ждем, пока все запустится и ждем еще минутку

10. Далее выполняем команду:

docker compose logs affine | grep -i 'copilot\|openai\|provider'

11. У вас появятся логи, там надо найти

Copilot provider [openai] registered - это значит, что все ОК

12. Перезапускаете свой клиент Affine и у вас заработает AI

Авторы обещают добавить официальную поддержку AI для селф-хостинга в течении пары месяцев, а это значит, что скоро можно будет туда подключить бесплатный DeepSeek от OpenRouter или Gemini и вообще не платить за AI ни цента!
1👍3
C AI теперь можно делать больше, чем просто прототипы.

Меня редко чем можно удивить в области ИИ. Все-таки, когда работаешь в индустрии, у тебя образуется некоторая предвзятость: большую часть инноваций, вызывающих “вау-эффект”, ты либо видел сам, либо читал в статьях/видел в демо, как это сделали другие.

То, что AI можно использовать для быстрого прототипирования, тестирования гипотез, - уже ни для кого не секрет. Сервисы вроде Lovable и Bolt - одни из моих любимых и наиболее часто используемых. Но можно ли запустить цифровой бизнес с помощью AI?

Давайте отбросим момент с генерацией идей, здесь AI может помочь, но реально креативную идею, которая будет отвечать рынку, все же должен генерировать человек. Предположим, что у нас такая есть. Встает вопрос: а до какой степени я могу полагаться на AI в ее реализации? Нужна ли мне команда разработки?

Здесь все зависит только от вас
Чтобы построить цифровой продукт, вам нужно: во-первых, желание сидеть и разбираться с инструментами для AI-кодинга, во-вторых, базовое понимание принципов разработки, архитектуры и обеспечения безопасности. Если у вас есть это, то, как говорится, sky is the limit. Реализовать хороший MVP с помощью AI - можно! Подчеркиваю, что именно MVP. Я разделяю понятия прототипа, MVP и полноценного продукта.

Прототип - это про потестировать гипотезу.
MVP - базовый продукт в том виде, за который готовы платить, имеет интеграцию с парой сервисов, например, БД + платежка.
Полноценный продукт - масштабируемая история, которая может справляться с большим потоком пользователей и имеет интеграцию с большим количеством сервисов.

Какого рода MVP можно построить с AI сегодня?
1. Информационные продукты - как делал я с тренингами. В Bolt сделал лендос, с помощью Cursor подключил к нему платежку, развернул open source LMS для хранения материалов и написал пару ботов для обучения.
2. Обертки для LLM - можно относительно просто создавать MVP, ядром которых будет любое взаимодействие с AI. Это могут быть как веб-, так и мобильные приложения. Можете прикрутить туда свою базу знаний, запромптить ассистента и продавать.
3. Интернет-магазины - создаем базу данных, делаем витрину, прикручиваем платежку и какую-нибудь CRM-ку.

Какие есть ограничения?
1. Главное - усидчивость и желание разобраться в технических деталях и архитектуре.
2. Чем сложнее продукт - тем детальнее должно быть ТЗ.
3. Вы должны быть готовы работать поэтапно и, в случае чего, - упрощать логику и идти на компромиссы.
4. Вам нужно думать о безопасности самостоятельно. Пытаться “сломать” свой продукт и латать обнаруженные дыры.

Благодаря этому подходу сегодня я за 8 часов собрал веб-приложение с авторизацией, базой данных, RAG, встроенным AI и админкой, на реализацию которого ушло бы 3 дня дизайна и 2 недели разработки.

Кому интересно - на скрине стек проекта

Как запустим — поделюсь здесь 🙂

#развитиеии #бизнес
6🔥13👍1
🚀 NGI дайджест за неделю (№6)

1. Google добавили Veo 2 и Whisk в подписку Google One с Gemini - гугл прокачали подписку прикольными фишками + в посте рассказал про Google Labs

2. Выступлю на вашем мероприятии в Белграде, в Москве или по видео-связи - сейчас вылетаю в Сербию, затем буду в МСК. В Москве несколько слотов на коп обучение уже предварительно забронировано. Думаю, что успею провести еще одно.

3. Cursor навайбкодили ИИ-ассистента, который знатно накосячил - забавная новость, которая еще раз напоминает о том, что незачем торопить события

4. Откуда я узнаю про изменения в законодательстве по ИИ - рассказал про классный канал с информацией по юридическому регулированию ИИ

5. Протестировал llama 4 в реальных задачах: на бенчмарках Лев Толстой, а на деле текст - отстой - мой отзыв на последние модели и сравнение с конкурентами

6. Как получить наилучший результат при генерации фото и видео - поделился своим вокфлоу создания фото и видео с помощью ИИИ

7. В понедельник послушал эфир state of the union от Байрама Аннакова, рекомендую и вам - еще одна рекомендация крутого автора, кто не читал Байрама - очень советую

8. Какой контент в канале вам интереснее всего (хотелось бы больше видеть) - небольшой опрос. Я вижу ваши реакции и репосты, но будет круто, если вы еще и проголосуете, чтобы дать мне более подробную картинку

9. Как AI помогает мне трекать прогресс в английском - поделился сервисом, которым пользуюсь сам. Как и в случае с любым AI, он может ошибаться, но в целом, довольно точный способ.

10. Как развернуть свой сервер для Affine и прикрутить к нему GPT, чтобы не платить за подписку - ранее писал про Affine. Эта инструкция - дополнение к прошлому посту

11. C AI теперь можно делать больше, чем просто прототипы - рассказал о возможностях и ограничнениях того, что сейчас можно “навайбкодить”, если у вас есть желание разбираться и время

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Про минусы США

Еду в поезде до Чикаго и пишу этот пост, потому что снова убеждаюсь, насколько переоценены США. Вроде цивилизованный чистый поезд с Wi-Fi и широкими креслами, но за этой оберткой скрывается реальная сущность вещей.

Нам говорят, что в России жить плохо, а США - великая страна. Прожив здесь год, я могу сказать, что это самая переоцененная страна, в которой не хочется ни жить, ни оставаться. Почему? Приведу несколько примеров.

1. Дерьмовый интернет - в дороге я планировал работать. Но за 5 часов я не увидел нормального интернета. Ни по WI-FI ни через 5G. А дома у нас периодически тормозит хваленный AT&T. Такая прекрасная связь обходится нам в 200 баксов в месяц. В России у меня LTE ловит даже в глухих деревнях, а в Армении я звонил по видеосвязи с вершины горы Арагац.

2. Социальные проблемы - куча бомжей, торчков и людей, которые, простите за выражение, ссут и срут на тротуары. И государству это ок. Вместо того, чтобы заставить их работать - им платят им соц пособия, которое те тратят на наркотики. Они могут жить в шелтерах и получать бесплатную еду в фуд-банках. Блогеры обычно восторгаются этим, но никто не говорит об обратной стороне. А ведь на содержание этих бездарей уходят налоги рабочего населения.

3. Отсутствие чувства безопасности - здесь любой может купить оружие, даже полный псих. Траву курят все и везде. По некоторым районам ты ходишь и оглядываешься, чтобы на тебя неехал какой-нибудь чернокожий гангстер. Причем как в прямом, так и переносном смысле. Не смотря на запреты курить за рулем - всем плевать. Тебе всегда нужно быть осторожным, потому что ты не знаешь, чего ожидать.

4. Уравниловка в действии - если вам жилось хорошо в СНГ, у вас хорошая работа и есть своя квартира - вы здесь не будете жить лучше. Про то, как хорошо жить в Штатах обычно рассказывают блогеры, зарабатывающие на иммиграции и те, кому плохо жилось в наших странах. В основном это либо люди с низкими зарплатами либо без образования. Если вы хотите жить лучше других, а не просто комфортно “как все”, при этом вы не выросли в местной культуре - США не для вас. “Стать богатым” в СНГ намного доступнее, чем здесь. Ведь даже если ты “айтишник” с зп $350 к/год - больше половины уйдет на налоги и жилье в СФ, а жить ты будешь так же, как не самый лучший плотник.

5. “Красный” рынок труда - за последнее время довольно много знакомых из разных сфер потеряли работу. Причем потеряли чуть ли не одним днем. Обрезали финансирование - гудбай. Устроиться куда-то - огромный челлендж. Есть знакомый, отправивший 5 000 откликов, чтобы получить оффер. Если большая часть вашего опыта работы - не в США, устроиться еще сложнее. Потому что здесь важен опыт работы в местных компаниях. Думаете с AI проще? Знаю несколько крутых специалистов по ИИ, сидящих больше года без работы.

7. Капитализм во главе всего - для меня было дикостью когда я узнал, что здесь беременные женщины работают до самых родов, а декретный отпуск всего 6-12 недель. Плевать, как будет развиваться ребенок до и после рождения. Проще поставить ребенку СДВГ и посадить на таблетки, чем сделать так, чтобы родители уделяли время воспитанию.

8. Страна не приспособлена для жизни без авто - здесь нет “магазинов у дома”, чтобы погулять - надо ехать куда-то на машине. А, например, в Чикаго нет даже светофоров со звуком и дорожек для незрячих.

9. Сахар, сахар, сахар - питаться нормально - тот еще квест. Нужно очень тщательно выбирать продукты питания. Берешь зерновой хлеб, а там калорий х2 от российского. Смотришь состав: кукурузный сироп, сахар…

10. Медицина и страховки - мы платим $3300 в год за страховку. Думаете она все покрывает? Нет. Если легонько заболеешь - накинь пару сотен баксов, серьезнее - пару тысяч. Не болел - считай подарил эти деньги дяде из страховой. При этом без страховки стоимость медицины выйдет в десятки или даже сотни тысяч.

Очень рад, что следующие пару месяцев проведу в России и надеюсь на нормализацию политической обстановки к моменту окончания нашего пребывания в Штатах.
1🔥16👍64👎2🤣2🤔1
Протестировал локальный ИИ на максималках

Пока был в полете, работал над шлифовкой финальной лекции тренинга по эффективности с ИИ. Нужно было обновить часть материалов: где-то подрасписать инструкции, где-то вытащить что-то из моих выступлений и преобразовать это в нормальный конспект.

Базовый набор для таких задач: Vibe - для транскрибации и LM Studio для работы с текстами.

Vibe, как всегда, отработал на 9/10 - мелкие ошибки, не особо влияющие на итоговый результат. А вот с LM Studio было поинтереснее 🙂

Мой базовый сценарий для локальных ЛЛМ - либо быстрые задачки для суммаризации, ответов на вопросы и всякого такого, либо извлечение информации из всяких конфиденциальных встреч через те же транскрипты. В основном на английском либо на русском, где не так важен язык. В целом, все это закрывалось через Ministral 8b Q4 либо DeepCogito 14b Q4. Но при работе с длинными текстами вылез жирный минус - кривой русский язык, что в случае с конспектами сильно бросалось в глаза.

Для справки: Q - это степень сжатия модели. Несжатые модели - это FP16 и FP32, сжатые - Q8, Q6, Q4, Q2. Из сжатых самая крутая, но самая медленная - Q8, самая быстрая, но менее точная - Q2. В целом, модели ниже, чем Q4 не имеет смысла использовать. Это баланс скорости и точности.


Мне стало интересно, что сильнее влияет на работу с русским языком, на маке было несколько моделей и вот основные выводы:

Первая гипотеза: Yandex GPT 8b Q4 решит проблему с языком.
Да, проблему он решил, но модель игнорирует вообще все инструкции и пишет по-своему, а не в заданном формате.
Вывод: Для Алисы модель, мб, и норм, а для работы - мусор.

Вторая гипотеза: включение Thinking в DeepCogito 14b Q4 улучшит русский язык.
И русский и качество чуть возросли, но остались артефакты.
Вывод: Thinking дает хороший буст даже на маленьких моделях, сокращая количество артефактов но не то, как звучит язык.

Третья гипотеза: использовать Ministral на Q8, а не Q4.
Улучшился и язык (реже стал вылезать английский) и качество (тексты лучше), но все еще неидеально.
Вывод: квантизация влияет на понимание и язык, но если языка было недостаточно в обучающих данных - пользы мало

Четвертая гипотеза: Gemma 3 все порешает.
Я попробовал 4b на Q4 и Q8 и это сработало! Восьмерка справлялась чуть лучше. Но что интересно - это самая маленькая модель из всех.
Вывод: архитектура модели и ее обучающие данные - важнее размера.

Работать над задачей закончил как раз с Геммой. Наблюдениями решил поделиться в этом посте, вдруг кому еще предстоит работать в самолете)
1👍12🔥1
Alibaba выпустили новые модели QWEN 3 и скоро завезут MCP

Только вчера писал про локальные модельки, а сегодня вышли новые. QWEN 3 - это гибридные модели, в которых можно включать/выключать ризонинг. Из подобных на рынке сейчас только Gemini Flash 2.5, Claude 3.7 и DeepCogito. Кажется, что намечается новый тренд, что вполне логично, так как иметь возможность переключать ризонинг в рамках одной модели - намного удобнее, как минимум, с точки зрения UX. Помимо этого, у моделей можно регулировать “бюджет” на ризонинг, контролируя, как усердно она будет думать.

Если запускаете у себя, мышление отключается путем добавления в промпт /no_think

По бенчмаркам все модели - SOTA в своих весовых категориях (будем проверять, у меня еще один перелет впереди 😁). При этом архитектура у них схожая с LLama - MOE. Т.е. всегда активными остается небольшое количество параметров модели, предъявляя меньше требований к железу.

Еще из интересного - я глянул в веб-интерфейс и заметил, что там появилась кнопка MCP с надписью “Coming Soon”, то есть в модельки скоро занесут компьютер юз, это прямо круто!

В целом, к моделям высокие ожидания, т.к. 2.5 версия была очень крутой, а благодаря своей опенсорсности много где использовалась. Напомню, что именно квен тюнили под себя Авито и Т-банк, поэтому ожидайте скорого обновления и у них 🙂

Потестировать модели в веб-интерфейсе можно тут
Hugging Face для тех, кто хочет локально - здесь
👍3
Инвестиции в разработку vs Vibe Coding для MVP: что выбирают фаундеры и что будет дальше

Поскольку я много работаю со стартапами, вопрос выбора между полноценной разработкой и быстрым прототипированием на ИИ для MVP всплывает постоянно. Решил поделиться здесь своими наблюдениями и размышлениями, так как с одной стороны - много общаюсь с фаундерами, а с другой - неоднократно запускал проекты и с помощью вайбкодинга и с традиционной разработкой. Когда и что применять?

Наблюдение №1: "Опытные" с деньгами выбирают классику
Первое, что бросается в глаза: фаундеры, у которых нет проблем с финансированием, почти всегда предпочитают традиционную разработку, даже если им предлагаешь сделать прототип с ИИ. Как правило, это ребята с уже действующим (и часто крупным) бизнесом, которые хотят диверсифицироваться. К идее использовать ИИ они относятся в целом положительно, но главный барьер - железобетонная уверенность в крутости своей идеи и в том, что "маркетинг зарешает". От них часто можно услышать: "Мне не нужен прототип, мне нужно сразу выходить на рынок с готовым продуктом".

Наблюдение №2: "Молодые и дерзкие" на инвестициях и за быстрые эксперименты
Второе наблюдение: более молодые фаундеры и те, кто живет на инвестиционные деньги, чаще склоняются к быстрым прототипам, сделанным с помощью ИИ (тот самый вайбкодинг). Их логика понятна: бюджет и время на эксперименты ограничены либо собственными средствами, либо деньгами инвестора. ИИ-прототипирование и POC они рассматривают как проверку гипотезы. У них есть готовность к тому, что гипотеза провалится, и они без особых сожалений переключатся на что-то другое.

Какой подход правильный?
Однозначного ответа, конечно, нет. Первый подход - чисто предпринимательский, в духе Ричарда Брэнсона: вижу цель, верю в себя, не вижу препятствий. Второй - классический продуктовый: тестируем гипотезы, работаем итерациями, считаем юнит-экономику.

И здесь видна интересная дилемма. С одной стороны, мы часто видим, как опытные продакты не могут запустить свой продукт - им не хватает той самой предпринимательской жилки, готовности рискнуть и слепой веры в идею, ведь нас учат действовать осторожно, проверять гипотезы и оставаться в рамках бюджета.

С другой стороны, не редки случаи, когда матерые предприниматели, уверенные в своей гениальности, влетают в новую нишу и просто сжигают бюджеты, потому что переоценили идею или недооценили рынок. В общем, хороший менеджер ≠ хороший предприниматель, и наоборот.

Кто выиграет в будущем?
Интуиция подсказывает, что чистое следование только первому или только второму подходу - не самая выигрышная стратегия в долгосрочной перспективе, так как они слишком полярны. Как говорил Нассим Талеб, выигрывают те, кто ставит собственную шкуру на кон. Риск оправдан, если он подкреплен действием.

И вот здесь, мне кажется, на сцену выходит ИИ и то самое солопредпринимательство. С текущим развитием технологий поставить "шкуру на кон" становится значительно дешевле. Думаю, прорываться будут те, кто готов разбираться в технологиях самостоятельно, минимизировать зависимость от больших команд на старте и идти на рассчитанный риск.  

Ведь цена проверки гипотезы с помощью вайбкодинга радикально снижается. Условно, вам может потребоваться $100 на создание вполне рабочего ИИ-прототипа и, скажем, $1000 на первую маркетинговую кампанию для проверки спроса. Это уже не сотни тысяч и не годы разработки. Это суммы, доступные очень многим. А значит, шанс реализовать свою идею получают те, кто раньше об этом и не мечтал.

#развитиеии #бизнес
👍8🔥2
Audio
NotebookLM теперь поддерживает русский язык, но не спешите радоваться

Я неоднократно писал о том, как люблю этот продукт от гугл, но у него один минус - отсутствие русского языка. Все-таки не всегда хочется работать на английском, и вот, теперь Google добавили поддержку русского и еще кучи языков.

Причем добавили не только в режиме “тетрадки” и ответов на вопросы, но и для моей любимой функции генерации подкастов :)

Я пошел тестировать, впечатления смешанные.

Во-первых, работает сейчас медленно (видимо, народ налетел). Во-вторых, на английском подкасты звучат более естественно, видимо, сказывается количество данных, на которых обучали голосовой модуль. В русской версии слышно, что все-таки говорит робот. В-третьих, качество работы с русским с точки зрения фактологической точности меня сейчас огорчило. В-четвертых, в англоязычной версии подкасты получаются более детализированными и длинными. В-пятых, эканья, бэканья, мэканья сейчас в русском звучат неестественно. В-шестых, голос девушки мне не понравился :(

Ради интереса - сгенерировал подкаст на основе своей лекции по введению в ИИ, и моделька много где напутала. Например, очень сильно ошиблась в классификации видов ИИ, привела неправильные примеры, а архитектуру Transformers назвали “трансформаторами” 🤣.

В общем, вроде как функцию добавили, но косяков очень много. Ждем теперь, когда исправят :)
5👍3
DeepSeek выпустили новую модель с фокусом на математике и логике разбираем что за зверь

С утра на HuggingFace появилась новая моделька от китайцев. Пока все ждали R2, в свет вышла модель DeepSeek Prover V2.

Что это за модель и почему раньше о ней не говорили?
Как можно видеть из названия, это вторая версия модели, а не говорили о них лишь потому, что до R1 за DeepSeek следили только гики. Моделька предназначена для решения логических и математических задач на языке формальных доказательств Lean 4. В целом, сфера формальной логики у LLM сейчас довольно сильно страдает, и цель этой модели – как раз исправить это.

Модельку специально тренировали на имитацию процесса рассуждения, но без традиционных сворачиваемых “мыслей”, которые мы видим у других моделей. Попробуйте дать ей задачку на логику - поймете, о чем я.

Как они этого добились?

Если коротко, то применили хитрый подход:

1. Разбивка и синтез: Использовали DeepSeek-V3, чтобы та разложила сложные теоремы на шаги и сгенерировала "черновики" доказательств, соединяя неформальные рассуждения с формальным кодом.
2. Оптимизация: Для решения подзадач использовали модель поменьше (7B), чтобы сэкономить ресурсы.
3. Дообучение: Полученную модель-прувер докрутили с помощью обучения с подкреплением (RL), поощряя за верные формальные шаги.

Идея в том, чтобы научить модель не просто генерировать текст, похожий на математический, а именно строить формальные доказательства, связывая их с логикой рассуждения.

Результаты и бенчмарк

Флагманская 671B модель показала себя очень неплохо: 88.9% успеха на стандартном тесте MiniF2F и решила почти полсотни задач из сложного университетского PutnamBench.

Чтобы лучше тестировать такие модели, DeepSeek даже создали свой бенчмарк – ProverBench, куда включили задачи с реальных олимпиад (AIME) и из учебников. Это важно для оценки на разнообразных и практически значимых примерах.

Доступные модели

Выпустили две версии:

DeepSeek-Prover-V2-7B: Младшая, с увеличенным до 32K токенов контекстом.
DeepSeek-Prover-V2-671B: Старшая, на базе новейшей DeepSeek-V3, показывающая топовые результаты.

Что в итоге?

Появление DeepSeek Prover V2 – интересный шаг к тому, чтобы LLM стали лучше справляться с логикой и математикой. Их подход к обучению, имитирующий процесс доказательства, выглядит многообещающе. Но есть и свои минусы, например, нам уже известно, что RL часто ведет к тому, что модели ВРУТ, что показали нам OpenAI. + я немного потыкал модель, с моими задачками на логику она не справилась 🙂

Модель доступна на OpenRouter
👍3🔥1
Когда инновации остаются за кадром… (О разработке персонализированных уроков в Skyeng)

Наконец-то могу поделиться подробностями еще об одном продукте, в создание которого наша R&D команда вложила немало сил. Недавно Skyeng анонсировали новый функционал - генерацию персонализированных уроков. И, конечно, это отличная новость! Однако, в официальной статье команда разработки осталась за кадром: в статье упомянули совсем не тех, кто этим всем занимался, я бы даже сказал, далеко не тех. Что ж, исправляю эту несправедливость.

Что же представили?
Skyeng добавили на платформу возможность генерировать персонализированные уроки с учетом уровня и интересов ученика. В статье упомянули, что система генерирует карточки с упражнениями, и это как-то связано с мотивацией, но детали остались за кадром. А "под капотом" там целая система технологий.

Как это работает?
Генерация упражнений: Еще в начале 2022 года наша команда разработала несколько моделей на базе T5, способных генерировать различные типы упражнений: открытые вопросы, вопросы с вариантами ответов, true/false и другие. Важно, что все упражнения четко соответствовали уровням подготовки учеников. Отдельное спасибо здесь Роме Смирнову и Вите Склизневу - именно они создали эти сетки. Не смотря на то, что уже тогда наши методисты начали использовать данные технологии в создании контента, мы хотели генерировать целые уроки, а для этого нужно было создавать тексты

Генерация текстов: В ядре любого упражнения в английском языке находится текст. Если это чтение - нам нужна статья, если это аудирование - нам нужен скрипт. Именно поэтому мы и сосредоточились на текстах. Сначала мы научились генерировать короткие тексты, а затем и более длинные, адаптированные под уровень по шкале CEFR. Здесь огромная заслуга Вити Прилепского, сделавшего модели для генерации каждого типа текстов.

Работа с мотивацией: В статье лишь вскользь упомянули про "вовлеченность", а ведь это ключевой элемент персонализированного обучения! Вопросами методологии и мотивации у нас занимались две Насти - Екушевская и Солодкова. И занимались, между прочим, очень крутой штукой. Мы предположили, что если влиять на мотивацию ученика, то и результаты обучения будут лучше. Проанализировали тысячи уроков, выявили закономерности и даже увидели, что динамика возвращения к занятиям соответствует кривой мотивации Бандуры. Вокруг полученных выводов строилась последующая работа.
 
Экстракция интересов: Персонализация невозможна без понимания интересов ученика. Наша команда разработала экстрактор интересов, который на основе анализа вводных уроков, обратной связи от преподавателей и анкет учеников вычленял наиболее интересующие студентов темы. К его созданию руку приложил Рома Смирнов.

Менеджеры и разработчики
Также хочу упомянуть тех, кто драйвил всю эту историю. Мы с Женей Литвиненко создали R&D-команду, придумали вместе с ней и выпустили первые технологии. Потом Рома Михайлов подхватил руководство и довёл до ума интеграцию генерации контента в те самые карточки. Также в команде был еще один человек, без которого ничего бы не было - Семён Кошкаров, который оборачивал все наши наработки в рабочие прототипы.

Из упомянутых выше ребят почти никто уже не работает в компании. Кто-то ушел в свой стартап, другие - работают на ведущие зарубежные компании. Но это не отменяет того факта, что компания забывает тех, кто создаёт для неё крутые продукты и инфоповоды. И ладно бы не упомянули только бывших сотрудников, забыли даже про действующих.

Заграницей принято делать публикации на Arxiv, писать статьи, где упомянуты все: инженеры, ресерчеры, разработчики. Все, кто приложил руку к разработке чего-то крутого. А Skyeng решили опубликовать лишь имена тех, кто остался в компании, и по большей части, даже не имеет представления о том, как работает продукт, которым так гордится компания.

#кейсы
👍6🔥5
🚀 NGI дайджест за неделю (№7)

1. Про минусы США - редко пишу здесь что-то не про AI, но по дороге в Чикаго решил поделиться своими мыслями после почти года жизни в Штатах

2. Протестировал локальный ИИ на максималках - делюсь опытом работы с локальными ЛЛМ во время перелета через Атлантику

3. Alibaba выпустили новые модели QWEN 3 и скоро завезут MCP - китайцы выпустили новые мощные опенсорсные модельки

4. Инвестиции в разработку vs Vibe Coding для MVP: что выбирают фаундеры и что будет дальше - поделился своими наблюдениями и видением будущего в разработке MVP

5. NotebookLM теперь поддерживает русский язык, но не спешите радоваться - апдейт, которого долго ждали оказался так себе, читаем в посте, что не так

6. DeepSeek выпустили новую модель с фокусом на математике и логике разбираем что за зверь - разобрал как устроена новая моделька от DeepSeek

7. Когда инновации остаются за кадром… (О разработке персонализированных уроков в Skyeng) - делюсь кейсом того, как Скаенг выкатили очередной проект, который делала моя команда, не упомянув никого из нас 🙂

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍6🔥3
Google выпускает мобильные приложения NotebookLM для Android и IOS

Похоже, что у Гугла большие планы на NotebookLM. Пока большинство из нас праздновало первомай, поедая шашлыки, компания объявила о том, что очень скоро выйдут мобильные приложения для “умной тетрадки”.

Что приятно - будет сразу версия не только для смартфонов, но и планшетная, то есть тем, кто пользовался на iPad, можно будет удалять PWA-ярлыки.

Очень надеюсь, что проект будет долго жить и развиваться, все-таки гугл известна как компания, которая любит “убивать” свои продукты. А терять заметки, которые хранятся только в облаке - не самый приятный опыт. Поэтому все-таки важные доки буду хранить в Affine.

Релиз намечен на 20 мая (первый день Google I/O), должны стать доступны бета-версии. А сейчас можно предварительно зарегистрироваться на тесты.

🤖 Ссылка для Android
🍏 Ссылка для iOS/iPad OS
🔥5👍31