This media is not supported in your browser
VIEW IN TELEGRAM
Уже 24 апреля на MAX London Adobe покажет первого AI-агента для Photoshop — и это не просто ассистент, а полноценный исполнитель. Он будет анализировать изображение, предлагать релевантные правки (например, убрать лишних людей с фона или размыть задний план), и сам выполнять эти действия. Всё это появится в новой плавающей панели Actions.
Все агенты будут работать на agentic AI, архитектуре, сочетающей генерацию, диалог и выполнение действий. Под капотом — те же принципы, что в Firefly, но с новым акцентом на интерактив и продуктивность.
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI официально выкатили GPT‑4.1, а вместе с ним — mini и nano версии. Все они уже доступны в API и уверенно выносят GPT‑4o по всем ключевым задачам: кодинг, следование инструкциям, работа с длинным контекстом и изображениями.
Что нового:
Все модели работают с текстом и изображениями, и имеют обновлённый срез знаний — июнь 2024.
GPT‑4.1 пришёл не просто как новинка, а как замена.
OpenAI планирует деактивировать GPT‑4.5 Preview в API 14 июля, потому что 4.1 уже показывает сопоставимые или лучшие результаты — и при этом работает дешевле и быстрее.
В ChatGPT изменений пока нет — улучшения внедряются постепенно через GPT‑4o. А вот через API — всё уже доступно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
На фоне релиза GPT‑4.1, mini и nano многие пропустили ещё одну важную новость: OpenAI опубликовали новый официальный гайд по промптам, где рассказывают, как выжать максимум из GPT‑4.1
Что внутри:
Отдельный акцент — точность и буквальность. GPT‑4.1 меньше "догадывается" и сильнее зависит от чётких инструкций. Один недосказанный момент — и модель выдаст не то. Но стоит грамотно сформулировать — и результат превосходит все ожидания.
Please open Telegram to view this post
VIEW IN TELEGRAM
Не успели мы освоиться с GPT-4.1, как OpenAI уже полезли в новые дебри — теперь они делают собственную соцсеть с ИИ-фидом.
По данным сразу нескольких источников, у них уже есть рабочий прототип: это нечто вроде ленты в стиле X (Twitter), где можно постить сгенерированные ChatGPT картинки. А Сэм Альтман тем временем, говорят, активно собирает фидбэк у «своих».
Причины? Вот парочка:
Пока неясно, станет ли это отдельным приложением или частью ChatGPT — но направление уже понятно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Модель, которая за неделю нагенерила 700+ млн картинок в ChatGPT, теперь доступна всем разработчикам через API. Да, это та самая модель, которая делает Ghibli-фото, экшен-фигурки и умеет в текст на изображениях.
— Создание фотореалистичных изображений с точной передачей деталей
— Точная отрисовка текста и символов на изображении
— Поддержка inpainting и частичного редактирования (например, масками)
— Разные стили, уровни качества и суперспособность "понимать контекст"
— Контроль качества (а значит — и скорости генерации)
— Настраиваемая фильтрация контента: auto или low
— Автоматическая C2PA-метка — для распознавания AI-контента
— $5 за 1M текстовых токенов
— $10 за 1M токенов на входные картинки
— $40 за 1M токенов на выходные изображения
На деле выходит от $0.02 до $0.19 за картинку в зависимости от качества.
Кто уже внедрил: Figma, Adobe, Canva, Wix, Quora, Photoroom, Instacart, GoDaddy, Airtable и многие другие. Используют gpt-image-1 для генерации визуала, аватаров, маркетинговых материалов, логотипов и редактирования изображений.
— Потестить прямо сейчас можно в Playground
— Подробный гайд по внедрению — здесь
— А весь анонс и детали — в официальном посте от OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Кажется, с выходом новой модели генерации изображений от ChatGPT наш мир стал чуточку страшнее.
Один энтузиаст решил пропустить рисунки своих детей через GPT-4o — модель интерпретировала форму, стиль и контекст. Затем — Kling или Veo, и картинка... ожила. Буквально.
В результате получилась анимированная версия того, что лучше бы оставалось на бумаге — с сохранённым “шармом” оригинала.
Please open Telegram to view this post
VIEW IN TELEGRAM
Если Google всё-таки заставят продать Chrome, у него уже есть потенциальный покупатель — OpenAI. На слушаниях по делу о монополии представитель компании, Ник Тёрли, заявил: мы заинтересованы в покупке браузера. Это не шутка и не утечка — официальное заявление под присягой.
— Минюст США признал Google монополистом в поиске
— Один из возможных исходов — Google обязуют продать браузер Chrome
— OpenAI уже стоит в очереди
Кроме того, стало известно, что OpenAI пытались договориться с Google о партнёрстве — хотели использовать их поиск в ChatGPT.
Google отказал.
Сейчас ChatGPT работает с Bing, но OpenAI честно сказали: качество так себе. Прямо в суде это назвали “существенными проблемами с текущим провайдером”.
OpenAI разрабатывают собственный поисковый движок, но быстро заменить Google у них не получится. Поэтому им нужен или доступ к его технологиям, или... сам Chrome.
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI запустили облегчённую версию Deep Research — инструмента, который анализирует веб, собирает источники и пишет подробные сводки. Теперь она доступна всем: и платным, и бесплатным пользователям.
Что это значит:
Кому и сколько:
Если у платного пользователя заканчиваются лимиты на оригинальную Deep Research, запросы автоматически переключаются на лёгкую версию.
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSeek долго молчали, но, похоже, скоро нас ждёт громкий камбэк: интернет взорвался слухами о DeepSeek R2 — и если всё подтвердится, на горизонте вырастет новый монстр ИИ.
Что известно из сливов:
Это на 97.3% дешевле, чем у GPT-4o.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Один пользователь устроил эксперимент с gpt-image: он загрузил мем «отвлечённый парень» и попросил модель показать, как будет выглядеть эта сцена через 5 секунд в будущем.
Полученный кадр он снова отправил в генерацию. Потом ещё раз. И ещё. И ещё.
На первых итерациях мем держался... но потом всё превратилось в нечто иное и криповое.
Please open Telegram to view this post
VIEW IN TELEGRAM
Alibaba представили Qwen 3 — мощное семейство ИИ-моделей от 0.6B до 235B параметров, включая MoE-гигантов. И снова напомнили миру: китайский ИИ — это уже не догоняющий, а опережающий.
Главное нововведение — режимы мышления:
Гибридный подход повышает точность, а MoE-архитектура экономит ресурсы: на каждый токен активны лишь 8 из 128 "экспертов". Это сильно снижает нагрузку и ускоряет работу.
Что ещё важно:
Флагман Qwen3-235B-A22B:
Но! Эта версия пока не выложена в открытый доступ
Зато Qwen3-32B уже в открытом доступе — и уверенно обходит как o1 от OpenAI, так и DeepSeek R1.
Онлайн-чат
GitHub
Hugging Face
Блог
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
На конференции LlamaCon Meta представила то, чего давно ждали разработчики: полноценный Llama API, с которым работать с их ИИ стало в разы проще. Пока это ограниченный превью-доступ, но главное — уже можно попробовать бесплатно.
Что даёт Llama API:
На старте доступны Llama 3.3 8B, плюс опции с Llama 4 через партнёрство с Cerebras и Groq. Всё отслеживается в одном интерфейсе.
Немного цифр:
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Один гений сделал косплей на Боба Росса и показал, как сегодня создаётся «искусство»: вместо холста — экран, вместо кисти — клавиатура, вместо краски — промпт.
Где-то в углу сейчас плачет настоящий художник
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Камера наблюдения зафиксировала, как подвешенный на крюке робот внезапно вышел из строя — и пошёл в атаку. На кого именно — не так уж важно. Главное, что это уже не выглядит как баг. Это уже выглядит как трейлер.
На всякий случай — начните с понедельника здороваться с техникой. Мало ли, кто из них обидчивый.
Please open Telegram to view this post
VIEW IN TELEGRAM
На платформе запускается глобальная система меток “AI modified” — теперь под каждой генеративной картинкой будет честный бейджик. Причём неважно, есть ли в ней скрытые метки от Google SynthID или Adobe Content Credentials — Pinterest внедрил собственный ИИ-детектор, который умеет распознавать сгенерированные изображения даже без метаданных.
Пользователи теперь могут:
Первыми под удар попали категории вроде "искусство", "дизайн" и "бьюти" — именно там пользователи чаще всего жалуются на то, что под референсами скрываются несуществующие вещи.
Pinterest хочет вернуть людям контроль: чтобы вы могли отличать реальный референс от вдохновляющего, но фальшивого миража.
Please open Telegram to view this post
VIEW IN TELEGRAM