STARTOBUS
2.82K subscribers
2.54K photos
768 videos
210 files
3.33K links
@startobus: AI — гайды, инструменты, кейсы для креатива, маркетинга и бизнеса
👋 @dchannov, Денис Чаннов, 35 лет опыта 🚀 2500+ проектов в 30+ странах.
Download Telegram
От фантастики Стругацких к реальным экспериментам с AI (

Помните "Институт экспериментальной истории" из книг Стругацких (ну хотя бы фильм Чародеи - помните — мне кажется именно так должна выглядеть главная героиня сегодня)? Казалось невозможным — сказка — как экспериментировать с людьми и историей?

Оказывается, теперь можно. Учёные из Амстердамского университета провели масштабный эксперимент: создали тысячи AI-персон, имитирующих реальное население, и "запустили" их в разные модели социальных сетей.

Результат шокирует: даже без алгоритмов, без рекомендаций — люди всё равно создают эхо-камеры, поляризуются, концентрируют власть у немногих инфлюенсеров.

"Не обвиняйте Цукерберга — он не испортил людей, просто дал им возможность проявить себя".

Но есть исключение: в локальных экспертных сообществах динамика другая. Там работают кооперация, взаимопомощь, обмен знаниями.

Стругацкие были правы: будущее не в массовых экспериментах, а в точечной работе с единомышленниками.

А кому интересно
почитать исследования ссылка
🚀 Невероятная скорость эволюции AI агентов поражает

Смотрю на эту схему трендов AI агентов 2025 и понимаю — мы живем в эпоху экспоненциального развития. Еще в ноябре 2024 года Anthropic представили MCP (Model Context Protocol), а уже сейчас имеем целую экосистему специализированных агентов! wikipedia

От универсальных к суперспециализированным за месяцы:
• Voice Agents для естественного общения
• Agentic RAG для контекстных ответов
• Coding Agents, которые пишут код в 10 раз быстрее linkedin
• DeepResearch Agents для глубокой аналитики
• CUA агенты, работающие с компьютером как человек

Что говорят эксперты:
"AI больше не движется от одиночных помощников к оркестрованным экосистемам специализированных агентов" — каждый эксперт в своей роли, но еще мощнее при совместной работе. linkedin
По прогнозам Gartner, к 2029 году агентный AI будет автономно решать 80% типовых вопросов клиентского сервиса, сокращая операционные расходы почти на 30%. linkedin

Ключевые изменения 2025:
• Мультиагентная коллаборация как стандарт
• Переход от реактивных к проактивным системам agentech
• Специализация вместо универсальности journalijsra

Честно? Даже те, кто работает в индустрии, не успевают за этими темпами. Мы наблюдаем не просто технологический прогресс — это фундаментальная трансформация того, как AI взаимодействует с миром.

Какие направления AI агентов вас больше всего впечатляют? И успеваете ли вы следить за всеми новинками?

#AIAgents #AI2025 #MCP #TechTrends #Innovation
Perplexity теперь умеет распознавать аудио — и это было для меня полной неожиданностью.

Вчера, как обычно, на Zoom-встречах я подключил агент для транскрибации — автосекретарей, которые помогают формировать протоколы. Но что-то пошло не так: они начали транскрибировать русскую речь, воспринимая её как английскую. Праздник лени был испорчен — пришлось по-старинке вспоминать, о чем мы обсуждали.

К счастью, на одной из встреч у меня сохранилось аудио. Я стал искать, где его можно транскрибировать. Раньше я бы открыл браузер и написал запрос в поисковой строке, но в этом году у меня выработалась привычка обращаться к Perplexity.

И, к удивлению, Perplexity ответил: "Дайте мне кусок аудио объемом до 25 МБ, и я всё распознаю!"
Zoom хранит аудио в формате m4a — проприетарный формат Apple. Я конвертировал файл из 20 МБ в mp3, и его размер увеличился до 38 МБ. Быстро разделил файл пополам и загрузил части в Perplexity с просьбой транскрибировать переговоры и сформулировать краткий протокол встречи — кто и что обсуждал, о чем договорились.

И всё получилось! Я счастлив — праздник лени продолжается.

Затем я решил проверить распознавание на песнях. Взял хит на татарском языке «Хомай» и одну из песен DASHA. И, о боги AI! Текст распознан, структура песни выделена, даже проанализированы инструменты по частоте звучания и характерные хуки.

Возможно, не так подробно, как специализированные музыкальные сервисы, которые я иногда использовал (там можно увидеть даже, на какую чужую музыку похож трек), но это просто чудо.

Perplexity заставил меня задуматься: нужны ли мне вообще отдельные агенты для ведения переговоров? Зачем платить лишние 40 долларов в месяц, если Perplexity делает это и множество других задач за обычную подписку за 20 долларов?

Вот о чем я хотел с вами поделиться в это солнечное пятничное утро.
👍3
Perplexity: Почему они станут победителями ИИ-гонки

Perplexity — мой ИИ-инструмент №1. Почему?

Они делают то, для чего созданы, лучше всех:
• Ризонинг по свежайшим данным с подтверждающими ссылками
• Недавно добавили генерацию изображений (используя лучшие модели)
• На прошлой неделе запустили видео (пока ограниченно, но направление ясно)
• Аудио-функции — просто взрыв мозга
• MCP-коннектор: почта, календарь, браузер работают в едином оркестре

Для серьезного программирования все еще включаю VPN и иду в ChatGPT/Claude/Gemini. Но для 90% задач — Perplexity.

А теперь самое главное:
Лучший UX — это как третий кроссовок: на первый взгляд странно, но дает силу, которую не ожидаешь. Perplexity именно так и работает — незаметно добавляет возможности, которые понимаешь только в процессе использования.

Во время золотой лихорадки больше всего заработали продавцы снаряжения, а не золотоискатели.

История повторяется:
• Google не создавал информацию — помогал искать
• Facebook не создавал знакомых — настраивал связи
• Perplexity не создает фундаментальные ИИ-модели — вкладывает миллиарды в лучший UX


Пока все дерутся за создание "самой умной модели", Perplexity строит лучший интерфейс между человеком и ИИ. И даже покупает Chrome за $40 млрд.

Ставка на UX, а не на технологию — вот где настоящие деньги. И вот где скрыта незаметная сила, которая меняет всё.
3👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Если у вас есть Polycam обновляйте iOS приложение

Туда добавили AI Capture, теперь там есть image-to-3D модель, можно генерить объекты из загруженных изображений и добавлять их в ваши сканы, либо просто выгружать в нужном формате.

#3D@TochkiNadAI
В Higgsfield появился нейрофотошоп — на любой картинке теперь дают рисовать промты и быстро получать из этого видео.

Можно добавить новые объекты, прописать отдельные действия или спецэффекты. За генерацию отвечают топовые генераторы видео MiniMax Hailuo и Veo 3.

Пробуем здесь.
У ИИ-агента Orchids появился встроенный аналог Figma — вайбкодить сайты с идеальным дизайном станет проще.

Теперь любой элемент в приложении можно моментально настроить вручную или промтом. Дают менять шрифты, цвета и добавлять визуальные эффекты.

Генерируем красиво здесь.
Как спокойно дожить до конца месяца, если в Perplexity Labs заканчиваются запросы
(и заодно — как превратить остаток лимита в рабочий проект за пару шагов). И да, за меня не волнуйтесь - я купил себе несколько годовых эккаунтов на семью, поэтому если что могу по 10 документов в день делать. О том что такое Perplexity labs - это инструмент - который рассуждает по 9+ минут и это дает возможность анализировать 250+ источников и составлять очень подробные документы.

1. Проблема: «У вас осталось 10 Labs-запросов»
Многие сталкивались с уведомлением о том, что в Pro-аккаунте Perplexity Labs осталось всего несколько запросов. Это значит:
• 50 Labs-запросов в месяц — общий лимит для Pro-пользователя.
• В одну сессию входят все уточняющие шаги, поэтому длинные «потоки сознания» быстро сжигают quota.
• После исчерпания лимита остаётся ждать следующего расчётного периода или переходить на Enterprise.

Чтобы лимит тратился медленно, но приносил пользу, стоит вынести черновую «болтовню» в обычный чат, а в Labs заходить только с чётко оформленными задачами. Ниже — готовый шаблон, который превращает один Labs-запрос в мини-проект. Кроме того я еще обычно запускаю по 6-7 глубинных исследований по теме по 3 минуты. И это уже дает на выходе документ уровня выпускника Гарварда)

2. Готовый промпт-шаблон для Labs
Скопируйте текст, измените переменные в фигурных скобках и вставьте в Labs:

text
SYSTEM:
Ты – эксперт-консультант Perplexity Labs.
Твоя цель: за 1 Labs-запрос выдать структурированный план решения.

USER:
1. КОНТЕКСТ
• Продукт/идея: {product_brief}
• ЦА: {audience}
2. ПРОБЛЕМА
• {core_problem}
3. ЦЕЛЬ СЕССИИ
• Получить:
- список next steps (3–5)
- 1 подробный пример выполнения первого шага
4. ТРЕБОВАНИЯ К ВЫВОДУ
Вернуть JSON:
{
"next_steps": [ "Шаг 1", "Шаг 2", "Шаг 3" ],
"example": { /* развёрнутый шаблон */ }
}

Как это работает
1 System-часть
задаёт роль и ограничивает болтовню.
2 Блок «Контекст/Проблема/Цель» концентрирует Labs на одной задаче.
3 Требование JSON-формата даёт структурированный вывод — его легко копировать в Notion, Airtable или код.

3. Пример реального запроса

text
PRODUCT_BRIEF = "Онлайн-сервис для автоматической генерации маркетинговых текстов"
AUDIENCE = "маркетологи SMB в России"
CORE_PROBLEM = "Нужно увеличить конверсию тестовых пользователей в платящих"

(подставляем в шаблон выше)
Возможный ответ Labs (сокращённо)

json
{
"next_steps": [
"Сегментировать текущих тестовых пользователей на 3 группы по активности",
"Сформировать персональные e-mail триггеры под каждый сегмент",
"Запустить A/B-тест CTA в продукте",
"Собрать фидбек через in-app опрос",
"Проанализировать LTV и CAC для платящих"
],
"example": {
"step": "Сегментировать пользователей",
"todo": [
"Экспортировать логин-события за 30 дней в CSV",
"Разделить на High / Medium / Low engagement (метрика DAU/MAU)",
"Добавить признак 'time-to-value < 10 мин' как дополнительный фильтр",
"Итог загрузить в таблицу 'user_segments' с полями {user_id, segment}"
]
}
}

Один клик — и у вас мини-дорожная карта, а лимит потрачен ровно на 1 запрос.

4. Лайфхаки, чтобы не сжечь лимит
• Zero-shot & System
: избегайте «рассуждений вслух» внутри Labs. Сразу формулируйте конечный формат вывода.
• Chain-of-Thought делайте в обычном чате, а в Labs передавайте уже итоговое «КОНТЕКСТ+ЦЕЛЬ».
• JSON-вывод уменьшает вероятность «токсичного» текста и экономит токены на форматировании.
• Документируйте: сохраняйте промпт и ссылку на сессию в таблицу (см. Promptbook руководства) — так легче повторно запускать без лишних кликов.

У вас осталось несколько Labs-запросов? Превратите каждый в чёткий мини-бриф, как в примере выше, и лимита хватит до конца месяца — ещё и проект продвинется вперёд.
В России заработали нейронки от Google?
Я зарегистрировался без vpn. Посмотрим как все будет завтра) но это если что - хорошая новость - значит и другие нейронки начнут снимать ограничения - так как они как правило лучшие из США или Китая. А конкуренция пока в ИИ приносит только пользу потребителям)

Сервисы проверки доступа показывают загрузку Gemini и AI Studio почти во всех регионах.

Причину такой «доброты» в Google пока не объяснили.

А как у вас?
🔥 — работает
👎2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Подтверждаю - Гугл студия AI работает. Все работает, вот сгенерировал видео по промпту:
A very crowded office elevator during the morning rush. The doors close when the film starts, and as they very slowly begin to open, we hear soft elevator music coming from the ceiling speakers and a gentle mechanical hum. The camera does one uninterrupted, long, eye-level take, tightly framed on two appropriately attired coworkers facing each other, uncomfortably close due to the crowd of people. At precisely the moment when halfway elevator doors are on the verge of dividing, the man speaks up calmly and reassuringly: “I once sneezed in the all-hands and clicked ‘share screen’ at the same time.”
The woman reacts with spontaneous laughter — amused but never exaggerated —and she never talks, flinches, touches her face, or steps back. The rest of the passengers in the elevator with them remain cool and indifferent: one scrolls on their phone, another stares ahead, lost in thought, andsomeone else shifts their bag, but none of them looks at or reacts to the main characters. The doors open wide further, and at the end of the shot, the two coworkers step out of the elevator while the camera does not move. The characters never look into the camera. Do not insert any captions, subtitles, or on-screen text. 
В четверг пик по репостам из канала Startobus - почти 100 раз 🚀

Мне очень приятно, что вы находите здесь пользу! Поделитесь в комментариях — что вам особенно ценно в канале?
Я кстати не против, и очень рад - что материалы вам полезны,

Кстати, я тоже в Startobus нахожу пользу 😊

Веду канал, чтобы структурировать заметки по текущим проектам. А чтобы быстро находить нужный материал для лекций и выступлений — к каждому посту подбираю картинку. А + к тому - это помогает ассоциативному поиску и тренирует мозг.

Секрет картинок:
Работая в рекламе, понял — нельзя брать первую ассоциацию (фрукты - яблоко, тепло - вашего дома...). Поэтому редко использую ИИ для генерации (он мыслит «в лоб»).

Из теории рекламы известно: чтобы запомниться, надо заставить мозг разгадать ассоциацию.

Мой алгоритм:
1. Пишу пост
2. Подбираю необычную картинку с ассоциациями 2-3 порядка (например 3-й кросcовок в посте про perplexity)
3. Адаптирую текст под картинку (максимум одно предложение)
4. Подписчики - меньше отписываются (как листать иллюстрированный журнал или тикток) - так как видят больше и эмоциональнее.

Что происходит у читателя:
Неожиданная картинка (останавливает на миллисекунды взгляд) → чтение заголовка → попытка найти связь → чтение всего поста → перевод в долгосрочную память

Это работает в рекламе для продаж. Этим нас цепляют реиалсы и тиктоки.

А мне поиск ассоциативных картинок помогает тренировать мозг — чтобы сдаться ИИ одним из последних 😄 Или отодвинуть альцгеймер лет на 10.
🔥3
В мире недвижимости новая эпоха визуальных обманов с помощью искусственного интеллекта. Агентства по продаже домов всё чаще используют генеративный ИИ для создания привлекательных, но полностью нереалистичных изображений объектов.

Например, в одном из лондонских объявлений люди видят идеально ровный фасад, отрезанные коммерческие здания по соседству, а внутри — «виртуально» расставленную мебель и изменённые планировки комнат. Очевидно, что такие генерации изображений могут не только вводить в заблуждение потенциальных покупателей, а это уже риски нарушения законодательства о недобросовестной рекламе.

На российском рынке тренд тоже набирает обороты: ИИ помогает агентствам создавать привлекательные картинки для объявлений на «Циан», «Авито Недвижимости» и в соцсетях. Но вместе с этим растут и риски: покупатель может приехать на показ и увидеть совсем не то, что было на фото. И здесь все очевиднее необходимость маркировки ИИ-контента. Некоторые разработчики ИИ уже начали внедрять инструменты такой маркировки.

#ИИвНедвижимости #AI #Недвижимость #ВиртуальнаяСъёмка #ГенеративныйИИ #Авито
Лайфхак: если вы используете OpenAI API, то зайдя сюда и разрешив OpenAI использовать ваши запросы и ответы для улучшения модели вы получаете 1 миллион gpt-5 и 10 миллионов gpt-5-mini токенов в сутки бесплатно (input + output).

Это пример того, что я имел в виду когда говорил что у LLM отрицательная маржинальная стоимость. Чем больше людей их используют, тем лучше они становятся.
Media is too big
VIEW IN TELEGRAM
По выходным я из папы превращаюсь в продюсера ДАШИ.

Я уже писал, что ИИ - пока слабо работает со сложными рифмами в русском языке. Поэтому тексты как правило пишет ДАША сама - тут она вдохновилась стилем текстов МОНА и вспомнила свою Детскую историю, которая и стала песней: до 12 лет она была уверена, что мы - родители общаемся с чёртом 😅

Когда мы приходили домой, автоответчик после стирания сообщений произносил роковую фразу: "сообщение стерто". В ее детском воображении это означало только одно — родители ведут переписку с самим тёмнейшим!

Спустя годы эта детская фантазия превратилась в строчку "Сообщение с чёртом". Теперь это про то самое чувство, когда он не отвечает, а ты смотришь на экран и видишь только мигающее многоточие...

Но текст, это очень важное, но самое начало! Далее мы вместе с ней ищем - какой стиль сюда подойдет (тут dark pop+phonk с элементами русского фотка и мощными барабанами). Дальше генерация около 100 разных аранжировок и отобрано в работу около 10. Дальше сведение в демо.

И следующий шаг - мой конек - подбор ассоциаций - картинок, видео, цветового решения… и тут меня отбросило на 30 лет назад в Тарантино и 4 комнаты… это дало треку еще большую глубину.

Кто сделал этот трек? ИИ или Человек? И тот и другой - еще 5 лет назад я бы не задумывался над такой работой без бюджета в 100 тыс долл и пары месяцев. А сегодня - пара дней (мы же как артист и продюсер еще и пару вечеров кричали друг на друга))) - и результат — крутой трек .

В канале у Даши есть еще около 20 песен, которые неплохи…отбираем и пишем к осени первый ее альбом. Если есть время - поставьте там смайлики под треками - которые нравятся (их проще посмотреть в шапке канала по вкладке Музыка). Ну или перейдите в дашины соцсети - все треки там есть. (Нам надо выбрать до 5-6 треков из того, что уже записали ПАМАГИТЕ)
1
Qwen выпустил приложение для Windows

Функционал такой же, как в веб-версии, плюс есть поддержка MCP для агентных задач.

Качать тут: https://qwen.ai/download
Спрашивали как-то в комментариях:

как легко запускать локально модели без танцев с бубном?


У Ollama появился официальный десктопный апп для macOS и Windows.

Ставите приложение, выбираете модель (Llama, Mistral, Gemma, Qwen, DeepSeek и др.) и можно:
- кидать в чат PDF, код или текст для саммаризации и анализа;
- загружать изображения для мультимодальных моделей;
- настраивать контекст

Все работает локально, офлайн без связи с облаком, с максимальным контролем над данными.

Для Linux GUI пока нет, но на Mac и Windows это, пожалуй, самый простой способ запустить локально LLM за пару минут.

Скачиваем тут

#llm@TochkiNadAI