🧠 @Startobus: a16z - Мы инвестируем в Krea.
Это браузерная платформа, которая позволяет легко генерировать, редактировать и настраивать изображения и видео, созданные с помощью ИИ. Она объединяет мощные креативные модели в одном месте и оптимизирует рабочие процессы с помощью интуитивно понятных инструментов, таких как обучение LoRA, сегментация изображений и редактирование в реальном времени.
Творческие профессионалы сегодня часто сшивают воедино лоскутное одеяло из разрозненных инструментов. Krea упрощает и ускоряет этот процесс — позволяя пользователям быстро и точно генерировать, итерировать и улучшать визуальный контент.
То, что началось с отдельных авторов, теперь набирает обороты в масштабах всей компании: креативщики из Pixar, LEGO, Samsung и Perplexity используют Krea для ускорения своих рабочих процессов.
Это браузерная платформа, которая позволяет легко генерировать, редактировать и настраивать изображения и видео, созданные с помощью ИИ. Она объединяет мощные креативные модели в одном месте и оптимизирует рабочие процессы с помощью интуитивно понятных инструментов, таких как обучение LoRA, сегментация изображений и редактирование в реальном времени.
Творческие профессионалы сегодня часто сшивают воедино лоскутное одеяло из разрозненных инструментов. Krea упрощает и ускоряет этот процесс — позволяя пользователям быстро и точно генерировать, итерировать и улучшать визуальный контент.
То, что началось с отдельных авторов, теперь набирает обороты в масштабах всей компании: креативщики из Pixar, LEGO, Samsung и Perplexity используют Krea для ускорения своих рабочих процессов.
🧠 @Startobus: Создание правдоподобного ИИ-аватара — с реалистичным лицом и голосом, которые вместе формируют говорящего персонажа, — задача не из лёгких.
Но это уже происходит.
Мы начинаем видеть реалистичных ИИ-персонажей и цифровых клонов людей в рекламе, создании контента и корпоративных коммуникациях. #ИИ #Аватары #Технологии
Но это уже происходит.
Мы начинаем видеть реалистичных ИИ-персонажей и цифровых клонов людей в рекламе, создании контента и корпоративных коммуникациях. #ИИ #Аватары #Технологии
🔥2
Forwarded from DASHA
Пост в соцсетях набрал 15 тыс просмотров (по всем) - больше всего понравилось в Likee:
https://l.likee.video/v/ENYQ5c
https://l.likee.video/v/ENYQ5c
Instagram* выпустил полноценный видеоредактор Edits, который должен конкурировать с CapCut. Приложение уже доступно в App Store и Google Play. Кроме стандартных функций, можно будет отследить трендовые Reels и статистику видео, не заходя в Instagram.
Пользователи уже хвалят автоматические субтитры, которые точно распознают голос. По замыслу Марка Цукерберга такое приложение должно удержать контент-креаторов в рамках только Инсты. Плюс, в видеоредакторе есть разные ИИ-фишки, чтобы было проще монтировать.
Из самого приятного — все функции пока бесплатны. Из самого неприятного — без VPN не работает.
*принадлежит Meta, признана экстремистской
@lobushkin
Пользователи уже хвалят автоматические субтитры, которые точно распознают голос. По замыслу Марка Цукерберга такое приложение должно удержать контент-креаторов в рамках только Инсты. Плюс, в видеоредакторе есть разные ИИ-фишки, чтобы было проще монтировать.
Из самого приятного — все функции пока бесплатны. Из самого неприятного — без VPN не работает.
*принадлежит Meta, признана экстремистской
@lobushkin
This media is not supported in your browser
VIEW IN TELEGRAM
Copilot Vision теперь бесплатен в Edge — ИИ, который смотрит на экран вместе с тобой
Теперь у всех пользователей Edge появился доступ к Copilot Vision — функции, которая позволяет ИИ анализировать то, что ты видишь в браузере. Можно голосом
💡 Примеры, где это может пригодиться:
– Читаешь PDF с инструкцией — Copilot объясняет по пунктам
– Бродишь по маркетплейсу — он помогает выбрать
– Нашёл объявление о работе — обсуждаете, как на него ответить
– Статья слишком длинная — просишь краткий пересказ
Copilot смотрит на содержимое страницы и отвечает, как будто вы обсуждаете то, что видите вместе.
Не кликает, не пишет — только подсказывает и объясняет.
Прямо сейчас доступно всем пользователям Edge.
Кстати, также можно и с GPT — шарим экран сматрфона через голосовой ввод (голосовой ввод ➡️ 3 точки ➡️ поделиться экраном ➡️ открываем приложение) и обсуждаем с ним всё, что происходит у вас в браузере.
#Agents@TochkiNadAI
Теперь у всех пользователей Edge появился доступ к Copilot Vision — функции, которая позволяет ИИ анализировать то, что ты видишь в браузере. Можно голосом
💡 Примеры, где это может пригодиться:
– Читаешь PDF с инструкцией — Copilot объясняет по пунктам
– Бродишь по маркетплейсу — он помогает выбрать
– Нашёл объявление о работе — обсуждаете, как на него ответить
– Статья слишком длинная — просишь краткий пересказ
Copilot смотрит на содержимое страницы и отвечает, как будто вы обсуждаете то, что видите вместе.
Не кликает, не пишет — только подсказывает и объясняет.
Прямо сейчас доступно всем пользователям Edge.
Кстати, также можно и с GPT — шарим экран сматрфона через голосовой ввод (голосовой ввод ➡️ 3 точки ➡️ поделиться экраном ➡️ открываем приложение) и обсуждаем с ним всё, что происходит у вас в браузере.
#Agents@TochkiNadAI
This media is not supported in your browser
VIEW IN TELEGRAM
Wan2.1 — open-source модель, которая генерит видео из пары кадров и текста
На сцену выходит Wan2.1-FLF2V-14B — первая open-source модель на 14B параметров, которая (как и многие) умеет собирать видео из первого и последнего кадра.
Что умеет:
Генерит видео 720p с плавными переходами и физикой без безумия
Отлично держит референс: персонажи, цвета, стили сохраняются
Работает даже на потребительских видеокартах
Поддерживает текст-видео, изображение-видео, редактирование, текст-в-картинку и даже видео-в-аудио
Генерирует текст в видео на английском и китайском — то, чего у open-source моделей почти нет
Новая фишка — First-Last-Frame-to-Video (FLF2V)
Даёшь начальный и финальный кадр → получаешь логичное видео между ними. Подходит для раскадровок, анимации и рекламных переходов.
Wan2.1 в некоторых тестах уже обходит даже закрытые модели. А самое вкусное — всё открыто: от архитектуры до кода. Прямо как хочется.
Но самое главное, тестим до 5 бесплатных генераций в день.
На ПрактикИИ этой моделью уже пользуются для прохождения заданий
#videoGenerative@TochkiNadAI
На сцену выходит Wan2.1-FLF2V-14B — первая open-source модель на 14B параметров, которая (как и многие) умеет собирать видео из первого и последнего кадра.
Что умеет:
Генерит видео 720p с плавными переходами и физикой без безумия
Отлично держит референс: персонажи, цвета, стили сохраняются
Работает даже на потребительских видеокартах
Поддерживает текст-видео, изображение-видео, редактирование, текст-в-картинку и даже видео-в-аудио
Генерирует текст в видео на английском и китайском — то, чего у open-source моделей почти нет
Новая фишка — First-Last-Frame-to-Video (FLF2V)
Даёшь начальный и финальный кадр → получаешь логичное видео между ними. Подходит для раскадровок, анимации и рекламных переходов.
Wan2.1 в некоторых тестах уже обходит даже закрытые модели. А самое вкусное — всё открыто: от архитектуры до кода. Прямо как хочется.
Но самое главное, тестим до 5 бесплатных генераций в день.
На ПрактикИИ этой моделью уже пользуются для прохождения заданий
#videoGenerative@TochkiNadAI
CapCut выпустили бесплатную модель для генерации изображений Seedream 3.0. Справляется почти как 3D-художник.
Создание картинок занимает пару секунд. На выходе получаются достаточно реалистичные сцены. Модель умеет работать с текстом и разными визуальными эффектами.
Тестировали на таких промтах:
Пробуем здесь.
Создание картинок занимает пару секунд. На выходе получаются достаточно реалистичные сцены. Модель умеет работать с текстом и разными визуальными эффектами.
Тестировали на таких промтах:
A laptop on a table running a program for editing images — the image in the interface has a circle yellow logo with stylized letters "NN" in the middle
A tram number 23 is driving in the city center during a busy day, the electric sign says "В ДЕПО", rainy weather, the image is extremely photorealistic
A cowboy riding through the Wild West city on his horse, he is wearing a poncho. Cinematic shot, desert filter, lens flare
Пробуем здесь.
🍓3
Media is too big
VIEW IN TELEGRAM
Ух, Character.AI показали AvatarFX — теперь их чатботы будут по сути еще и анимированными видеоботами. Пока закрытая бета, но вы посмотрите на демки!
https://character-ai.github.io/avatar-fx/
https://character-ai.github.io/avatar-fx/
🔥2
Моя дочка, ДАША, музыкант и начинающий Промтограф (рисует и делает видео по промптам).
Как и другие она проходит ПрактикИИ. Я немного помогаю.
Но в целом ожившие детские рисунки сегодня стрельнули в соцсетях (Likee и YouTube) - уже +50К просмотров, +4К - вовлеченность, и сотни подписчиков.
И это неделя занятий.
Как и другие она проходит ПрактикИИ. Я немного помогаю.
Но в целом ожившие детские рисунки сегодня стрельнули в соцсетях (Likee и YouTube) - уже +50К просмотров, +4К - вовлеченность, и сотни подписчиков.
И это неделя занятий.
Telegram
Dasha_music_art
Где меня найти: @dasha_music_art (телеграмм и другие соцсети)
Yappy
Likee
YouTube
Instagram (запрещенный…)
Threads
Или #dashamusic
Yappy
Likee
YouTube
Instagram (запрещенный…)
Threads
Или #dashamusic
В Anthropic ждут появления виртуальных AI-сотрудников в следующем году
Директор по безопасности Anthropic Джейсон Клинтон рассказал в интервью, что уже через год корпоративные AI-агенты, специализирующиеся на какой-то одной задаче, перерастут в AI-сотрудников. Они будут иметь собственные воспоминания, роли в компании и собственные логины и пароли от корпоративных учеток.
Клинтон добавил, что существует опасность выхода AI-сотрудников из-под контроля: «Если сотрудник взломает корпоративную систему, его будут судить, но кого будут судить, если это сделает AI-сотрудник?».
Представитель Anthropic считает, что безопасность виртуальных сотрудников — одна из важных задач, которой разработчики AI займутся в ближайшие годы.
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Директор по безопасности Anthropic Джейсон Клинтон рассказал в интервью, что уже через год корпоративные AI-агенты, специализирующиеся на какой-то одной задаче, перерастут в AI-сотрудников. Они будут иметь собственные воспоминания, роли в компании и собственные логины и пароли от корпоративных учеток.
Клинтон добавил, что существует опасность выхода AI-сотрудников из-под контроля: «Если сотрудник взломает корпоративную систему, его будут судить, но кого будут судить, если это сделает AI-сотрудник?».
Представитель Anthropic считает, что безопасность виртуальных сотрудников — одна из важных задач, которой разработчики AI займутся в ближайшие годы.
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Adobe представил AI-агента, который покажет, как пользоваться Photoshop
Пользователь сможет написать чат-боту то, что он хочет сделать с изображением, инструмент покажет в интерфейсе Photoshop шаги, необходимые для выполнения запроса и сделает всю работу.
https://www.engadget.com/ai/adobes-new-ai-agent-can-show-you-how-to-use-photoshop-090049772.html
Пользователь сможет написать чат-боту то, что он хочет сделать с изображением, инструмент покажет в интерфейсе Photoshop шаги, необходимые для выполнения запроса и сделает всю работу.
https://www.engadget.com/ai/adobes-new-ai-agent-can-show-you-how-to-use-photoshop-090049772.html
👨💻3
Интересная особенность
Вчера у меня были запланированы два zoom, я там был не основным докладчиком, просто меня поставили в копию. И у меня нарисовались другие задачи, я в зум не зашел.
Но что прикольно. Мой AI-ассистент, а я бы его уже назвал агентом - зашел на эти встречи и все мне записал за всеми выступающими, прислал протокол встречи и выделил задачи касающиеся того, чем я из проектов в настоящее время занимаюсь.
И это я ему даже не говорил что и как мне нужно сделать - он все сделал за меня.
Tldv
PS. Будем ждать, что через пару месяцев, агент за меня сможет и выступать).
Вчера у меня были запланированы два zoom, я там был не основным докладчиком, просто меня поставили в копию. И у меня нарисовались другие задачи, я в зум не зашел.
Но что прикольно. Мой AI-ассистент, а я бы его уже назвал агентом - зашел на эти встречи и все мне записал за всеми выступающими, прислал протокол встречи и выделил задачи касающиеся того, чем я из проектов в настоящее время занимаюсь.
И это я ему даже не говорил что и как мне нужно сделать - он все сделал за меня.
Tldv
PS. Будем ждать, что через пару месяцев, агент за меня сможет и выступать).
tl;dv
tl;dv.io | ИИ-помощник для ведения заметок в Zoom, Google Meet и MS Teams.
ИИ-инструмент для ведения записей на встречах. Записывайте звонки, делитесь заметками, обновляйте CRM, создавайте черновики для последующих контактов и отслеживайте ключевые обсуждения. Все на автопилоте. И всегда бесплатно!
🔥5👍2
CISO (директор по защите информации) Анторопика считает, что уже через ~год в ваших слаках / тимс / гитхабах начнут появляться виртуальные коллеги – автономные АИ-сотрудники с собственной «памятью», корпоративными логинами и чётко прописанной ролью и в отличие от сегодняшних агент-скриптов, они смогут самостоятельно расширять задачи и принимать решения без прямого запроса человека. И даже ставить задачи вам, я знаю вы только этого и ждали ☕️
Пока что системы контроля доступа к такому уровню свободы не готовы: непонятно, как безопасно выпускать и отзывать их учётные данные, до какой степени открывать им доступ к внутренним сетям и кто понесёт ответственность, если такой бот все сломает и хакнет компанию (спойлер – виноват IT отдел, как всегда)
В статье еще написано, что компаниям бы уже сейчас начать думать, про – автоматические учётки, перевести их на короткоживущие токены, внедрить аварийный «килл-свитч» для подозрительных АИ-аккаунтов и чётко прописать, кто отвечает за действия бота, если тот вдруг превратится из помощника в инсайдера
Но зная как работает бизнес много где, мне кажется многие компании сначала подключат АИ-коллег, а потом будут разбираться с последствиями💃
Статья целиком:
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Пока что системы контроля доступа к такому уровню свободы не готовы: непонятно, как безопасно выпускать и отзывать их учётные данные, до какой степени открывать им доступ к внутренним сетям и кто понесёт ответственность, если такой бот все сломает и хакнет компанию (спойлер – виноват IT отдел, как всегда)
В статье еще написано, что компаниям бы уже сейчас начать думать, про – автоматические учётки, перевести их на короткоживущие токены, внедрить аварийный «килл-свитч» для подозрительных АИ-аккаунтов и чётко прописать, кто отвечает за действия бота, если тот вдруг превратится из помощника в инсайдера
Но зная как работает бизнес много где, мне кажется многие компании сначала подключат АИ-коллег, а потом будут разбираться с последствиями
Статья целиком:
https://www.axios.com/2025/04/22/ai-anthropic-virtual-employees-security
Please open Telegram to view this post
VIEW IN TELEGRAM
Axios
Exclusive: Anthropic warns fully AI employees are a year away
Managing those AI identities will require companies to completely reassess their cybersecurity strategies.
👍1
ИИ прогнозирует успехи и провалы научных докладов за секунды
Новое исследование Michigan State University показало: чтобы оценить качество научного выступления, достаточно послушать его первые 10% — а иногда и всего 1%! Уже первые 15-60 слов содержат всю ключевую информацию, по которой можно судить о докладе в целом.
Крупные языковые модели (например, GPT-4) умеют оценивать такие «тонкие срезы» не хуже экспертов. Теперь ИИ может практически мгновенно подсказать, насколько вы убедительны и понятно излагаете материал.
Основные выводы исследования
- Уже первые 10% выступления дают почти полную информацию для итоговой оценки, а даже 1% (примерно 15 слов) и 5% (около 60 слов) демонстрируют значимую предсказательную силу
- Оценки, выставленные GPT-4 и Gemini на основе фрагментов, практически полностью совпадают с оценками людей-экспертов. Это доказывает, что LLM можно использовать для быстрой и эффективной автоматизированной обратной связи по публичным выступлениям
- В исследовании не учитывались невербальные сигналы — только текстовые транскрипты. Следующий шаг — интеграция анализа речи и мимики
Полный текст исследования «Искусство вовлечения аудитории: «тонкие срезы» научных докладов на основе LLM-подхода» добавлю в комментарии 👇🏻
#наука #публичныевыступления #ИИ #thin_slicing
@volotovskayaelena
Новое исследование Michigan State University показало: чтобы оценить качество научного выступления, достаточно послушать его первые 10% — а иногда и всего 1%! Уже первые 15-60 слов содержат всю ключевую информацию, по которой можно судить о докладе в целом.
Крупные языковые модели (например, GPT-4) умеют оценивать такие «тонкие срезы» не хуже экспертов. Теперь ИИ может практически мгновенно подсказать, насколько вы убедительны и понятно излагаете материал.
Основные выводы исследования
- Уже первые 10% выступления дают почти полную информацию для итоговой оценки, а даже 1% (примерно 15 слов) и 5% (около 60 слов) демонстрируют значимую предсказательную силу
- Оценки, выставленные GPT-4 и Gemini на основе фрагментов, практически полностью совпадают с оценками людей-экспертов. Это доказывает, что LLM можно использовать для быстрой и эффективной автоматизированной обратной связи по публичным выступлениям
- В исследовании не учитывались невербальные сигналы — только текстовые транскрипты. Следующий шаг — интеграция анализа речи и мимики
Полный текст исследования «Искусство вовлечения аудитории: «тонкие срезы» научных докладов на основе LLM-подхода» добавлю в комментарии 👇🏻
#наука #публичныевыступления #ИИ #thin_slicing
@volotovskayaelena
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Представьте, что вы идете во сне и видите, как Майкл Джексон держит вас за руку
Это видео не было снято и срежиссировано. Это было придумано и сгенерировано с помощью ИИ - кадр за кадром, момент за моментом
Вот как на самом деле происходит эта магия👇
1️⃣ Диффузионные модели начинают с чистого шума - например, телевизионных помех - и превращают его в живую сцену.
2️⃣ GAN натравливают друг на друга два ИИ - один симулирует, другой оценивает - до тех пор, пока визуальные эффекты не становятся почти реальными.
3️⃣ Трансформеры отображают течение времени, заставляя каждый шаг, каждый взгляд, каждое вращение персонажа выглядеть естественно.
Видео: Koldo Huici (в X)
#интересное
Нейросети: Волшебство AI
Это видео не было снято и срежиссировано. Это было придумано и сгенерировано с помощью ИИ - кадр за кадром, момент за моментом
Вот как на самом деле происходит эта магия👇
Видео: Koldo Huici (в X)
#интересное
Нейросети: Волшебство AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Яндекс Браузер научился переводить видео с передачей оригинальных голосов и интонаций героев. Новая нейросетевая модель анализирует тембр, ритм и стиль речи, делая перевод более естественным и эмоциональным. Перевод уже доступен пользователям браузера при просмотре видео на YouTube, VK Видео, Дзене, Rutube и в поиске Яндекса — пресс-релиз
#AI #Яндекс
#AI #Яндекс
🔥2
Alibaba выпустила Qwen 3
Китайская компания утверждает, что семейство моделей Qwen 3 соответствует лучшим моделям от OpenAI и Google, а иногда и превосходит их.
Qwen 3 — гибридные модели, они могут рассуждать для ответа на сложные вопросы и давать быстрые ответы на вопросы попроще. Пользователи могут настраивать этот параметр, чтобы управлять бюджетом.
По словам Alibaba, Qwen 3 поддерживает 119 языков.
Попробовать Qwen 3 бесплатно можно здесь: https://chat.qwen.ai/
Код моделей доступен на Hugging Face: https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
Китайская компания утверждает, что семейство моделей Qwen 3 соответствует лучшим моделям от OpenAI и Google, а иногда и превосходит их.
Qwen 3 — гибридные модели, они могут рассуждать для ответа на сложные вопросы и давать быстрые ответы на вопросы попроще. Пользователи могут настраивать этот параметр, чтобы управлять бюджетом.
По словам Alibaba, Qwen 3 поддерживает 119 языков.
Попробовать Qwen 3 бесплатно можно здесь: https://chat.qwen.ai/
Код моделей доступен на Hugging Face: https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
🧠 @Startobus: Какие задачи решают с помощью ИИ в 2025 году? 📊 Согласно Visual Capitalist, ИИ активно используют для:
- Генерации контента (тексты, изображения, видео)
- Аналитики данных и бизнес-инсайтов
- Автоматизации задач (от рутинных до сложных)
- Персонализированного обучения и поддержки клиентов
От создания мемов до управления проектами — ИИ проникает повсюду! 🚀 Подробности и рейтинг: visualcapitalist.com #ИИ #Технологии #2025
- Генерации контента (тексты, изображения, видео)
- Аналитики данных и бизнес-инсайтов
- Автоматизации задач (от рутинных до сложных)
- Персонализированного обучения и поддержки клиентов
От создания мемов до управления проектами — ИИ проникает повсюду! 🚀 Подробности и рейтинг: visualcapitalist.com #ИИ #Технологии #2025