Технозаметки Малышева
8.48K subscribers
3.78K photos
1.41K videos
40 files
3.96K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Антиглянец
Смотрите-ка, что придумал H&M. Бренд взял 30 ведущих моделей, отфоткал каждую в мельчайших подробностях - вплоть до незаметных родинок - и всех ракурсах. И нарисовал диджитального двойника для каждой модели.

Да такого, что даже бойфренды девушек не смогли отличить AI от реальности. Как и редакция BoF за редким исключением не отличила диджитальную грузинку Матильду Гварлиани от настоящей (цифровые двойники на фото подписаны).

Таким образом как бы найдена грань между этичностью использования AI. Модели не теряют работу, а получают возможность больше отдыхать. Цифровой двойник - их собственность. Модели могут распоряжаться им, гонорары тоже в их распоряжении. Чистый фантастический фильм, конечно.

Судя по цитатам, девушки всем довольны, чего не скажешь о парикмахерах, стилистах, визажистах, которые стоят за каждой "живой" картинкой. Их и так годами пытаются сократить - просят моделей самим делать прически, ищут мастеров-универсалов и так далее. Тут прямо труба. И профи уверены, что магия картинки без них исчезнет.

Мы-то тоже уверены, что AI-кампейны это какая-то мертвечина. Но в этот раз их правда невозможно отличить от реальности...
9👍7🔥6
Gemini 2.5: Новая модель с размышлениями от Google DeepMind

Google выпустил Gemini 2.5 Pro – свою самую интеллектуальную модель ИИ.
Версия Pro Experimental заняла первое место в рейтинге LMArena с внушительным отрывом.

! на 18.8% выполнила "последний экзамен человечества"!

Ключевое новшество – размышления.

Система демонстрирует выдающиеся результаты в тестах по рассуждению, точным наукам и программированию.

На GPQA и AIME модель показывает рекордные показатели без дополнительных вычислительных трат.

В SWE-Bench Verified достигает 63,8%.

Контекстное окно расширено до 1 миллиона токенов с перспективой роста до 2 миллионов.

Обрабатывает данные различных форматов: текст, аудио, изображения, видео и программные репозитории.

Доступна в Google AI Studio и приложении для пользователей Gemini Advanced.

Подумалось, - Новый Год что ли? Откуда столько релизов?
Получается отмечаем Навруз! :)

#Gemini #Google #DeepMind
———
@tsingular
🔥94
Forwarded from Denis Sexy IT 🤖
ChatGPT сегодня обновится:

– gpt4o теперь умеет редактировать картинки, ака текстовый фотошоп (лицо adobe представили)

– умеет генерировать картинки намного лучше чем Dalle, с нормальным текстом и тп

– ChatGPT теперь может генерировать видео через Sora, не ходя на отдельный сайт (3 видео в сутки бесплатно)

– Можно удалять фон у картинок (привет нормальные png)

– Работает довольно медленно, сделал видео как оно работает
15👍6
Media is too big
VIEW IN TELEGRAM
Продолжаем готовиться к Подмосковным Вечерам - Весна - 13-14 апреля.

Готовим секцию "Рассекреченные агенты", в которой рассмотрим:


• Пошаговое руководство по созданию ИИ-агентов и их интеграции в рабочие процессы компании.

• Обзор технологий low-code и no-code, которые позволяют создавать эффективные решения без глубоких знаний программирования.

• Демонстрацию разговорного агента, работающего на базе Giga Chat. Вы сможете увидеть, как он отвечает на вопросы и выполняет задачи в реальном времени — в том числе позвонить и поговорить с ним!

Ещё будет футурологическая сессия с Дмитрием Алтуховым про прекрасное прошлое и страшное будущее :)

Напишите, если планируете быть.
https://pvesna.4cio.ru/

#pvesna #4CIO
———
@tsingular
👍13🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Новая Sora - просто тушите свет.

OpenAI удивили.

#OpenAI #Sora
———
@tsingular
👍10🔥9
Forwarded from Не баг, а фича
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 3D-СЦЕНА ИЗ ФОТКИ в Blender — новый MCP-плагин Tripo превращает любые изображения в трёхмерные локации в один клик!

Эту огромную 3D-сцену маленького Гарри Поттера на видео сделала нейронка БЕЗ участия человека всего за пару минут.

Гайд, как это повторить:

1️⃣ Качаем и устанавливаем плагин для Blender.
2️⃣ В появившийся чат загружаем картинку-референс и текстовый запрос.
3️⃣ Нейронка в реальном времени генерирует все 3D-объекты, располагает их как на фото и добавляет освещение.

Сохраняем — тут.

🙂 Не баг, а фича
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👀31
Grok для Премиумов в телеге подтвержден.

@GrokAI

#Grok #боты
------
@tsingular
🔥112
OpenAI добавили поддержку MCP протокола от Anthropic.

MCP штука не новая, но пока была больше в области экспериментов и прототипов.

Однако количество этих прототипов, быстрое развитие и перспективность технологии привели к тому, что OpenAI официально добавил поддержку Model Context Protocol (MCP) в свой Agents SDK.

Вчера, сразу после обновления спецификации MCP, Альтман подтвердил это в X, отметив, что поддержка уже доступна в Agents SDK, а скоро появится и в ChatGPT Desktop и Responses API.

MCP — это открытый протокол, который стандартизирует взаимодействие AI-моделей с внешними источниками данных и инструментами. Его часто сравнивают с USB-C для AI: универсальный интерфейс, позволяющий подключать различные инструменты к AI-моделям без необходимости создавать уникальные интеграции для каждого сервиса.

На практике это даст:
- Упрощение разработки AI-решений
- Стандартизация интеграций
- Расширение возможностей AI-агентов (доступ к большему количеству инструментов)

Что нового в обновлении MCP?
Вчерашнее обновление протокола включает несколько важных изменений:

- OAuth 2.1 для авторизации (повышение безопасности)
- Улучшенный HTTP Transport с поддержкой двунаправленного обмена
- JSON-RPC Batching (отправка нескольких запросов одновременно)
- Tool Annotations (метаданные для описания инструментов)

Накануне, 24 марта, Microsoft выпустила Playwright-MCP сервер, который позволяет AI-агентам автоматизировать взаимодействие с браузером с использованием MCP.

Кто ещё использует MCP?
Помимо гигантов OpenAI и Microsoft, протокол активно внедряется и другими игроками:
Такие компании как Block и Apollo интегрировали MCP в свои системы. Инструменты для разработчиков, включая Replit, Windsurf и Cursor, используют его для улучшения помощи при кодировании. Apify создала MCP-сервер для задач извлечения данных.

Техника:
MCP использует модульную архитектуру на базе JSON-RPC 2.0, разделенную на слои:

- Базовый транспорт
- Управление жизненным циклом
- Серверные возможности (ресурсы, промпты)
- Клиентские возможности (сэмплирование, логирование)

Разработчики могут выбирать компоненты в зависимости от своих задач.

Главный вопрос: становится ли MCP новым индустриальным стандартом?

С поддержкой от Anthropic, LangChain, и теперь Microsoft и OpenAI, по идее, имеет все шансы стать общим языком для агентских интеграций.

MCP документация от Anthropic
GitHub

Примеры от OpenAI

#MCP #OpenAI #Anthropic #Microsoft
———
@tsingular
3❤‍🔥2👍1
Forwarded from Семейка продактов (Tatiana Sushchenko)
Эфир с CTO GigaChat B2B&Enterprise Денисом Маколиным

Про зарубежные нейросети говорили тут. Про B2B говорили. А вот про российские нейросети для B2B - ещё не было.

Теперь будет. Жутко интересно посмотреть на мир глазами команды GigaChat.

Когда: суббота 29 марта, 12-00 по мск
Кто и что: Денис Маколин, мой бывший коллега по Microsoft и CTO GigaChat B2B&Enterprise, расскажет про апдейт GigaChat и ответит на кучу вопросов, в том числе про использование нейросетей для российского B2B.

Ссылка на эфир
Если нужны напоминалки, можно зарегистрироваться на эфир через Timepad

Оставляйте ваши вопросы в комментариях к этому посту

Таня, [ex-B2B 👩‍💻]
@productsgossip
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93🔥3
Forwarded from NN
В чат-бота Qwen добавили голосовые и видеозвонки. Теперь с топовой китайской нейронкой можно полноценно общаться.

Бот запоминает все, что вы ему скажете или покажете. Реагирует с минимальной задержкой и хорошо имитирует живой диалог. Понимает английский, но если начать говорить на русском, то он сразу перейдет на китайский.

Уже можно пробовать. Дают провести 10 разговоров в день.
🔥9🆒2😢1👾1
4о очень красиво, конечно, рисует иллюстрации вида "найди 100 инженерных ошибок на картинке"

Прям очень красиво. :)

Но, когда он перестанет ошибаться, как с пальцами, и начнёт рисовать технически достоверную эффективную оптимизированную инженерку - будет поздно.

#openai #нейрорендер
———
@tsingular
🤣12😁6👍1
тем не менее для иллюстраций, - это просто огонь.

такие вот вещи из фото он делает за 3 минуты. рендер долгий, но достоверный по фото.

#openai #нейрорендер
———
@tsingular
🔥12👍21
Но, кстати, если точнее описать деталь и что именно и где менять или что именно показать, - то уже, пусть даже схематично, можно получить внятную наглядную инструкцию.

Оно может и не 100% достоверно, но понятно.

Думаю через год можно будет просто прогнать через ИИ любой мануал и оно мало того, что само научится, - так еще и новичку доступно объяснить сможет.
Переписав и перерисовав инструкцию под уровень понимания учащегося.

#openai #нейрорендер
———
@tsingular
🔥56🤔26👍15🤨2😁1
Qwen2.5-Omni: мультимодальный интеллект в одной модели

Qwen2.5-Omni-7B воспринимает текст, изображения, аудио и видео одновременно, выдавая ответы в текстовом и голосовом форматах.
Уникальная архитектура Thinker-Talker с технологией TMRoPE обеспечивает идеальную синхронизацию видео и звука.
Система работает в полностью реальном времени, мгновенно обрабатывая фрагментированные данные.
Превосходит узкоспециализированные модели аналогичного размера, демонстрируя выдающиеся результаты в OmniBench.
Функционал включает выбор голоса (Chelsie/Daring) и поддержку FlashAttention-2 для оптимизации производительности.
Требования к памяти: 16 ГБ в стандартном режиме, 28 ГБ при использовании FlashAttention-2 с BF16.

Один интеллект чтобы править всеми. Наконец-то не нужно переключаться между разными моделями для разных задач!

Видеочат в реальном времени на 16 гигах!!!
Это же буквально локально в каждом смартфоне или роботе.


#Qwen #multimodal #Alibaba
-------
@tsingular
🔥15👍4
Трассировка цепей в языковых моделях: новая методика от Anthropic

Новое исследование Anthropic раскрывает внутренние механизмы работы языковых моделей через трассировку вычислительных графов. Это прорыв в области интерпретируемого ИИ, показывающий, как модели на самом деле "думают".

Суть технологии
Команда разработала методологию, позволяющую создавать графы атрибуции - визуализации того, как информация проходит от входных токенов через внутренние компоненты модели к выходному предсказанию.
По сути, это создание анатомии или топологии нейросети.

Ключевая инновация — замена стандартных нейронных слоев (MLP) на кросс-слойные транскодеры (CLT), обучаемые реконструировать выходы исходной модели. CLT создает более интерпретируемые компоненты, которые активируются только когда встречают определенные значимые концепты.

Исследователи показали, как модель:

1. Поэтапно рассуждает при выполнении арифметики (36+59=95):
- Определяет группы десятков - 3_ и 5_
- Обрабатывает цифры по отдельности (_6+_9=_5)
- Параллельно оценивает приблизительные значения (~36+~60≈90)
- Комбинирует эти пути для точного ответа

2. Распознает акронимы и автоматически их формирует:

The National Digital Analytics Group (N → DAG)

Модель выделяет первые буквы ключевых слов и складывает их в аббревиатуру.

3. Извлекает фактическую информацию:

Fact: Michael Jordan plays the sport of → basketball

Активируются два параллельных пути: от "Michael Jordan" к баскетболу и от "sports" к списку видов спорта, которые пересекаются на правильном ответе.

Технические ограничения

1. Отсутствие объяснений механизмов внимания — методология не показывает, как формируются паттерны внимания, что критично для некоторых задач.

2. Ошибки реконструкции — даже лучшие CLT восстанавливают только ~80% активаций оригинальной модели.

3. Проблемы масштабирования — для больших моделей требуется огромная вычислительная мощность. Пример: для модели Gemma 2 9B требуется ~3,844 часов на H100 GPU.

Практическое значение
Для бизнеса и разработчиков эта технология открывает:

1. Обнаружение и исправление слабых мест в моделях — можно точно определить, где модель "ломается" при решении задач.

2. Целенаправленная настройка — вместо случайного файнтюнинга можно сфокусироваться на конкретных компонентах.

3. Повышение безопасности — выявление механизмов, ответственных за нежелательное поведение (отказы, галлюцинации).

Например, исследование показало, как модель понимает, знает ли она ответ на вопрос или нет. Некорректная работа этого механизма приводит к галлюцинациям.

Будущие перспективы

Эта методология — только начало. С её помощью можно будет:

- Создавать модели с контролируемым поведением
- Внедрять проверяемые гарантии в критически важные системы
- Понимать, как масштабировать ИИ без потери интерпретируемости

Технология трассировки цепей — мост между "черным ящиком" современных ИИ-систем и прозрачными, объяснимыми инструментами будущего.

Антропик, конечно, делает невероятный вклад в науку о LLM.
Например, вот эта деталь с поэзией, - надо же сначала накидать смысл, потом рифму, потом от рифмы обратным счётом переписать смысловой блок.
Я поэтому Венком Сонетов проверяю модели - потому что это многослойная рекурсия. На ней сразу видно насколько сложные механизмы внутри работают.
И Антропиковский Claude всегда лучший в этих тестах.

#Anthropic #CircuitTracing
———
@tsingular
👍15🔥531
Generate an image of what you think will happen to the humans after AGI


Возможно киберпанк нам покажется ещё цветочками.

По версии мир после AGI будет выглядеть как-то так.
А мы уже на 92% его достигли.
Остался примерно год.

#openai #нейрорендер
———
@tsingular
🤔77🤯35🤣16👀9👍5🤗2
OpenAI, оказывается вчера выкатили обновление для 4o - и оно по тестам хуже, чем аналоги от конкурентов.

Другой вопрос, что это базовая модель, а весь топ уже состоит из моделей с размышлениями.

#opeanai #benchmark
———
@tsingular
🤔13👍7
Forwarded from OpenAI Community
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ работает в аптеке: в Минске нашли первого «аптечного робота» — продаст вам лекарства без участия человека.

Нужно лишь приложить паспорт и подвердить оплату лицом. Дальше робот подаст ваши лекарства в окошко — одного нашли на нижнем этаже ЖД вокзала.

OpenAI Community | #neurointelligence
🤔5🔥4👍3
OpeanAI GPT 4o может нарисовать вам одним запросом раскадровку для разработки игры.

Запрос:

Create a detailed pixel art frame animation for a game, where the final image is divided into multiple sub-images, each serving as a continuous animation keyframe. Design the sequence to depict [a wizard casting a spell: begin with intricate hand motions, then show the wizard conjuring a vibrant fireball, and finally capture the moment of casting the fireball.] Ensure the keyframes transition smoothly and continuously, and include as many frames as possible to achieve a high level of fluidity and detail in the animation.
В принципе уже можно собирать пайплайн для автоматической сборки всей игры целиком.

Source

#openai #GPT-4o #gamedev
------
@tsingular
🔥113