STARTOBUS
2.77K subscribers
2.56K photos
773 videos
212 files
3.35K links
@startobus: AI — гайды, инструменты, кейсы для креатива, маркетинга и бизнеса
👋 @dchannov, Денис Чаннов, 35 лет опыта 🚀 2500+ проектов в 30+ странах.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
👆Идея для бизнеса:
1. Генерация видео из детских рисовкой. Промо в мама-чатах.
2. Пошив игрушки, которая понравилась.
3. Благотворительность 10%.

Рынок России + 1,5 млн в год. 150 тыс в месяц. Аналог - Акула из ИКЕА.
Время запуска прототипа 1-2 дня. Инвестиции 10 долл.
Финмодель дивидендная + агентские продажи сопутствующих товаров.
Площадка - маркетплейсы WB, Ozon..
2
Microsoft Copilot теперь умеет кликать мышкой. И даже думает, куда кликать

На этой неделе Microsoft добавила в Copilot Studio новую функцию — Computer Use.

Теперь можно обучить AI-агента, который сам:
– нажимает кнопки,
– заполняет формы,
– лазит по сайтам и
– работает с десктопными приложениями,
как если бы это делал человек с мышкой и клавой.

Даже если API нет — всё равно работает.
Copilot с функцией Computer Use идёт другим путём, он как бы смотрит на экран, распознаёт кнопки, поля и текст, и сам кликает, пишет и выбирает нужное — имитируя действия обычного пользователя.

Примеры — от автоматического ввода счетов до парсинга данных с сайта или обработки заявок в старом ПО. Всё это агент делает сам.
Записаться на тест можно тут.

#Agents@TochkiNadAI
👍3🔥1
Какими ИИ я пользуюсь?
Всеми, кроме Typefully - значит надо пробовать…
А есть ли еще какие, да - но об этом завтра.
🔥3
🧠 @Startobus: a16z - Мы инвестируем в Krea.

Это браузерная платформа, которая позволяет легко генерировать, редактировать и настраивать изображения и видео, созданные с помощью ИИ. Она объединяет мощные креативные модели в одном месте и оптимизирует рабочие процессы с помощью интуитивно понятных инструментов, таких как обучение LoRA, сегментация изображений и редактирование в реальном времени.

Творческие профессионалы сегодня часто сшивают воедино лоскутное одеяло из разрозненных инструментов. Krea упрощает и ускоряет этот процесс — позволяя пользователям быстро и точно генерировать, итерировать и улучшать визуальный контент.

То, что началось с отдельных авторов, теперь набирает обороты в масштабах всей компании: креативщики из Pixar, LEGO, Samsung и Perplexity используют Krea для ускорения своих рабочих процессов.
🧠 @Startobus: Создание правдоподобного ИИ-аватара — с реалистичным лицом и голосом, которые вместе формируют говорящего персонажа, — задача не из лёгких.

Но это уже происходит.

Мы начинаем видеть реалистичных ИИ-персонажей и цифровых клонов людей в рекламе, создании контента и корпоративных коммуникациях. #ИИ #Аватары #Технологии
🔥2
Forwarded from DASHA
Пост в соцсетях набрал 15 тыс просмотров (по всем) - больше всего понравилось в Likee:
https://l.likee.video/v/ENYQ5c
Instagram* выпустил полноценный видеоредактор Edits, который должен конкурировать с CapCut. Приложение уже доступно в App Store и Google Play. Кроме стандартных функций, можно будет отследить трендовые Reels и статистику видео, не заходя в Instagram.

Пользователи уже хвалят автоматические субтитры, которые точно распознают голос. По замыслу Марка Цукерберга такое приложение должно удержать контент-креаторов в рамках только Инсты. Плюс, в видеоредакторе есть разные ИИ-фишки, чтобы было проще монтировать.

Из самого приятного — все функции пока бесплатны. Из самого неприятного — без VPN не работает.

*принадлежит Meta, признана экстремистской

@lobushkin
This media is not supported in your browser
VIEW IN TELEGRAM
Copilot Vision теперь бесплатен в Edge — ИИ, который смотрит на экран вместе с тобой

Теперь у всех пользователей Edge появился доступ к Copilot Vision — функции, которая позволяет ИИ анализировать то, что ты видишь в браузере. Можно голосом

💡 Примеры, где это может пригодиться:

– Читаешь PDF с инструкцией — Copilot объясняет по пунктам
– Бродишь по маркетплейсу — он помогает выбрать
– Нашёл объявление о работе — обсуждаете, как на него ответить
– Статья слишком длинная — просишь краткий пересказ

Copilot смотрит на содержимое страницы и отвечает, как будто вы обсуждаете то, что видите вместе.
Не кликает, не пишет — только подсказывает и объясняет.

Прямо сейчас доступно всем пользователям Edge.

Кстати, также можно и с GPT — шарим экран сматрфона через голосовой ввод (голосовой ввод ➡️ 3 точки ➡️ поделиться экраном ➡️ открываем приложение) и обсуждаем с ним всё, что происходит у вас в браузере.

#Agents@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Wan2.1 — open-source модель, которая генерит видео из пары кадров и текста

На сцену выходит Wan2.1-FLF2V-14B — первая open-source модель на 14B параметров, которая (как и многие) умеет собирать видео из первого и последнего кадра.

Что умеет:
Генерит видео 720p с плавными переходами и физикой без безумия
Отлично держит референс: персонажи, цвета, стили сохраняются
Работает даже на потребительских видеокартах
Поддерживает текст-видео, изображение-видео, редактирование, текст-в-картинку и даже видео-в-аудио
Генерирует текст в видео на английском и китайском — то, чего у open-source моделей почти нет

Новая фишка — First-Last-Frame-to-Video (FLF2V)
Даёшь начальный и финальный кадр → получаешь логичное видео между ними. Подходит для раскадровок, анимации и рекламных переходов.

Wan2.1 в некоторых тестах уже обходит даже закрытые модели. А самое вкусное — всё открыто: от архитектуры до кода. Прямо как хочется.

Но самое главное, тестим до 5 бесплатных генераций в день.

На ПрактикИИ этой моделью уже пользуются для прохождения заданий

#videoGenerative@TochkiNadAI
CapCut выпустили бесплатную модель для генерации изображений Seedream 3.0. Справляется почти как 3D-художник.

Создание картинок занимает пару секунд. На выходе получаются достаточно реалистичные сцены. Модель умеет работать с текстом и разными визуальными эффектами.

Тестировали на таких промтах:
A laptop on a table running a program for editing images — the image in the interface has a circle yellow logo with stylized letters "NN" in the middle

A tram number 23 is driving in the city center during a busy day, the electric sign says "В ДЕПО", rainy weather, the image is extremely photorealistic

A cowboy riding through the Wild West city on his horse, he is wearing a poncho. Cinematic shot, desert filter, lens flare


Пробуем здесь.
🍓3
Media is too big
VIEW IN TELEGRAM
Ух, Character.AI показали AvatarFX — теперь их чатботы будут по сути еще и анимированными видеоботами. Пока закрытая бета, но вы посмотрите на демки!

https://character-ai.github.io/avatar-fx/
🔥2
Моя дочка, ДАША, музыкант и начинающий Промтограф (рисует и делает видео по промптам).

Как и другие она проходит ПрактикИИ. Я немного помогаю.

Но в целом ожившие детские рисунки сегодня стрельнули в соцсетях (Likee и YouTube) - уже +50К просмотров, +4К - вовлеченность, и сотни подписчиков.

И это неделя занятий.
В Anthropic ждут появления виртуальных AI-сотрудников в следующем году

Директор по безопасности Anthropic Джейсон Клинтон рассказал в интервью, что уже через год корпоративные AI-агенты, специализирующиеся на какой-то одной задаче, перерастут в AI-сотрудников. Они будут иметь собственные воспоминания, роли в компании и собственные логины и пароли от корпоративных учеток.

Клинтон добавил, что существует опасность выхода AI-сотрудников из-под контроля: «Если сотрудник взломает корпоративную систему, его будут судить, но кого будут судить, если это сделает AI-сотрудник?».

Представитель Anthropic считает, что безопасность виртуальных сотрудников — одна из важных задач, которой разработчики AI займутся в ближайшие годы.

https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Adobe представил AI-агента, который покажет, как пользоваться Photoshop

Пользователь сможет написать чат-боту то, что он хочет сделать с изображением, инструмент покажет в интерфейсе Photoshop шаги, необходимые для выполнения запроса и сделает всю работу.

https://www.engadget.com/ai/adobes-new-ai-agent-can-show-you-how-to-use-photoshop-090049772.html
👨‍💻3
Интересная особенность

Вчера у меня были запланированы два zoom, я там был не основным докладчиком, просто меня поставили в копию. И у меня нарисовались другие задачи, я в зум не зашел.

Но что прикольно. Мой AI-ассистент, а я бы его уже назвал агентом - зашел на эти встречи и все мне записал за всеми выступающими, прислал протокол встречи и выделил задачи касающиеся того, чем я из проектов в настоящее время занимаюсь.

И это я ему даже не говорил что и как мне нужно сделать - он все сделал за меня.

Tldv

PS. Будем ждать, что через пару месяцев, агент за меня сможет и выступать).
🔥5👍2
CISO (директор по защите информации) Анторопика считает, что уже через ~год в ваших слаках / тимс / гитхабах начнут появляться виртуальные коллеги – автономные АИ-сотрудники с собственной «памятью», корпоративными логинами и чётко прописанной ролью и в отличие от сегодняшних агент-скриптов, они смогут самостоятельно расширять задачи и принимать решения без прямого запроса человека. И даже ставить задачи вам, я знаю вы только этого и ждали ☕️

Пока что системы контроля доступа к такому уровню свободы не готовы: непонятно, как безопасно выпускать и отзывать их учётные данные, до какой степени открывать им доступ к внутренним сетям и кто понесёт ответственность, если такой бот все сломает и хакнет компанию (спойлер – виноват IT отдел, как всегда)

В статье еще написано, что компаниям бы уже сейчас начать думать, про – автоматические учётки, перевести их на короткоживущие токены, внедрить аварийный «килл-свитч» для подозрительных АИ-аккаунтов и чётко прописать, кто отвечает за действия бота, если тот вдруг превратится из помощника в инсайдера

Но зная как работает бизнес много где, мне кажется многие компании сначала подключат АИ-коллег, а потом будут разбираться с последствиями 💃

Статья целиком:
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
ИИ прогнозирует успехи и провалы научных докладов за секунды

Новое исследование Michigan State University показало: чтобы оценить качество научного выступления, достаточно послушать его первые 10% — а иногда и всего 1%! Уже первые 15-60 слов содержат всю ключевую информацию, по которой можно судить о докладе в целом.

Крупные языковые модели (например, GPT-4) умеют оценивать такие «тонкие срезы» не хуже экспертов. Теперь ИИ может практически мгновенно подсказать, насколько вы убедительны и понятно излагаете материал.

Основные выводы исследования
- Уже первые 10% выступления дают почти полную информацию для итоговой оценки, а даже 1% (примерно 15 слов) и 5% (около 60 слов) демонстрируют значимую предсказательную силу

- Оценки, выставленные GPT-4 и Gemini на основе фрагментов, практически полностью совпадают с оценками людей-экспертов. Это доказывает, что LLM можно использовать для быстрой и эффективной автоматизированной обратной связи по публичным выступлениям

- В исследовании не учитывались невербальные сигналы — только текстовые транскрипты. Следующий шаг — интеграция анализа речи и мимики

Полный текст исследования «Искусство вовлечения аудитории: «тонкие срезы» научных докладов на основе LLM-подхода» добавлю в комментарии 👇🏻

#наука #публичныевыступления #ИИ #thin_slicing
@volotovskayaelena
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Представьте, что вы идете во сне и видите, как Майкл Джексон держит вас за руку

Это видео не было снято и срежиссировано. Это было придумано и сгенерировано с помощью ИИ - кадр за кадром, момент за моментом

Вот как на самом деле происходит эта магия👇

1️⃣ Диффузионные модели начинают с чистого шума - например, телевизионных помех - и превращают его в живую сцену.
2️⃣ GAN натравливают друг на друга два ИИ - один симулирует, другой оценивает - до тех пор, пока визуальные эффекты не становятся почти реальными.
3️⃣ Трансформеры отображают течение времени, заставляя каждый шаг, каждый взгляд, каждое вращение персонажа выглядеть естественно.

Видео: Koldo Huici (в X)

#интересное

Нейросети: Волшебство AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1