How2AI
14.5K subscribers
952 photos
354 videos
6 files
733 links
Новости и полезняхи для повышения технологической продуктивности.

Наш ютуб – https://www.youtube.com/@ProdAdvice
---
Авторы – @dan4eck и @ligoryan
Download Telegram
💻 OpenAI выпустила GPT-5.4 mini и GPT-5.4 nano и обновили Codex

По SWE-Bench Pro mini близко подошла к полной модели: GPT-5.4: 57.7% / GPT-5.4 mini: 54.4%

А еще:
• GPT-5.4 mini стоит $0.75 / $4.50 за 1M токенов, держит 400k контекста и уверенно тянет рабочие задачи
• В Codex mini использует около 30% квоты GPT-5.4

👍 А в сам Codex наконец-то завезли субагентов. Большая модель координирует и проводит финальный контроль, а mini может параллельно выполнять рефакторинг, поиск по коду, да и сами изменения в логику вносить.

В общем, ничего глобального, но приятно. Особенно субагенты в кодекс. Не сказать, что я пользуюсь субагентами очень часто, но в некоторых флоу для экономии контекстного окна главного агента – бывает полезно

@how2ai | Курс по ИИ-агентам в терминале
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍8🔥3🥰1
🙃 Появился ранний доступ к Midjourney V8

Персонализация, sref и moodboard с прошлых версий будут поддерживаться новой

Сразу есть поддержка: --chaos, --weird, --exp, --raw, --chaos, --weird, но пока без relax генераций

Новые фичи:
• --hd mode — нативная генерация в 2K разрешении (стоит в 4 раза дороже)
• --q 4 mode — дополнительная стабильность (стоит в 4 раза дороже)
• Улучшенный conversational mode — можно просто разговаривать с нейросетью в потоке
• Grid Mode для фокуса на одной серии изображений

Так же улучшили генерацию текста и в среднем генерация теперь занимает в 5 раз меньше времени

Потестить можно тут (нужна подписка)

Эстетика, конечно, крутая, но как я вижу по тому, что делают люди в генкрациях прилично артефактов, плохой анатомии и кривых лиц при достаточном отдалении, короче я скорее разочарован, если вам нужна крутая эстетика - идите в Recraft

У кого есть подписка - кидайте в комменты примеры того, как она генерирует текст на русском и еще какие-то интересные примеры генераций

@creadvice
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍4🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
😫 Claude Code в телеграм!

И я обижен на антропиков, потому что я уже снял и почти опубликовал ролик, о том как сделать тоже самое, но на архитектуре ACP через Openclaw😁

В нативном варианте от антропика запускается через: claude --channels discord telegram. Дальше он сам слушает входящие сообщения, понимает контекст и отвечает в тот же тред

В нашем ролике потенциала сильно больше. Можно и кодекс и любого CLI агента к топику в тг прикрутить. В общем, ждите)☕️

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
👍288🤣1
🦞 А вот и моя версия по CLI агентам в тг

Разбираем релиз Openclaw, который позволяет настроить коммуникацию между ИИ-агентами благодаря Agent Client Protocol (ACP)

Ролик уже на канале. Велком - https://youtu.be/z7QB-LHsUUo

Полезные ссылки их ролика

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👏5🥰4
🔥 Hermes Agent написал роман на 79 456 слов

В X набирает популярность новый агент от Nous Research. Агент может тащить длинный, многоэтапный проект с памятью, ревизиями и автопайплайном. Благодаря продивнутой архитектуре памяти агент живет дольше одной сессии, помнит контекст, дорабатывает результат итерациями и умело испольует инструменты.

👾 В кейсе с романом использовался отдельный пайплайн с итеративной генерацией/оценкой/переписыванием и экспортом в книгу/аудио.

Штука интересная и опенсорсная и можно использовать на любом апи-провайдере и установить себе в терминал. Поковряю на выходных. Может на новый ролик намайню контента 👍

https://nousresearch.com/bells/

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍128😁4
🫡 Новые модели GPT-5.4 mini и nano от OpenAI

А так же скандал вокруг модели Composer от Cursor, мощнейшие анонсы с конференции Nvidia GTC 2026, Claude Code превратился в полноценный OpenClaw, Skyreels v4 и Midjourney v8

Скидка на курс "CLI Агенты + Вайб-кодинг"

Ролик уже на канале - https://youtu.be/G-YS4Z1JAc8

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
19👌5🔥11
This media is not supported in your browser
VIEW IN TELEGRAM
😫 OpenAI закрывает Sora. И приложение и API

Разве есть способы направить компьют на более полезные задачи чем генерация подобных роликов?

Трудно поверить.

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁40😢13🔥4😱3😭1
😅 Крутая фича в клод-код. Очередная

Раньше было 2 крайности.

1) Ручной режим - Claude спрашивает подтверждение почти на каждое действие.

2) --dangerously-skip-permissions — отключает проверки и подтверждения. Это флаг, который говорит агенту: «не спрашивай разрешений, просто выполняй команды».

Теперь появился auto mode - промежуточный умный режим:

- рутинные и низкорисковые действия проходят автоматически;
- потенциально опасные - дополнительно проверяются и тормозятся.

Anthropic добавила защиту в 2 слоя:
- probe-механизм против prompt injection;
- отдельный classifier, который анализирует ход сессии и ищет рискованные паттерны.

Антропики говорят пишут, что защита не 100% и для high-stakes задач человек в контуре все равно нужен.

Ну и график всех релизов от компании за последние 52 дня.

Шипят, быстрее чем я пишу посты 😐

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥36👍155💯3🤣1
Media is too big
VIEW IN TELEGRAM
😏 Помните идею Pied Piper из Silicon Valley?

Теперь мы знаем, чем сотрудники гугл занимаются на работе. Google Research показала TurboQuant – метод сжатия памяти модели без заметной потери качества. Идея почти как в сериале: ужать данные сильно, но не убить качество.

Ключевая штука – KV cache. это “оперативка” модели во время ответа.

Она хранит контекст диалога, чтобы модель не пересчитывала все с нуля на каждом токене. Чем больше контекст, тем больше раздувается KV cache → выше расход RAM и дороже инференс.

TurboQuant обещает сжимать этот кэш минимум в 6 раз, а значит можно запускать модели дешевле и эффективнее по памяти.

Нюанс: это пока research-стадия, и проблему памяти при тренировке моделей TurboQuant не решает. А только при запуске моделей.

@how2ai | Забустить канал 💗
Please open Telegram to view this post
VIEW IN TELEGRAM
20👍9😁31
🎥 Вы вероятно слышали, что вышел Seedance 2.0

В новом ролике попытался разобраться, так ли все хорошо в модели и погонял ее по тестам

Результаты уже на ютубе - https://youtu.be/fxWRXTPgSb0

@how2ai | Обновленный курс по ИИ Видео
6👍5👌32