Вайб-кодинг
33.7K subscribers
1.73K photos
660 videos
30 files
985 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.me/+ll3pbl442dNkZmYy

Cотрудничество: @devmangx
По контенту: @agonycurse

РКН: https://clck.ru/3RRVfk
Download Telegram
🤨 Codex превратил браузер в свою основную рабочую среду.

OpenAI сегодня официально объявила, что Codex теперь нативно поддерживает расширения браузера Chrome, работая напрямую на macOS и Windows.

Получается, теперь он не только лучше управляет веб-страницами и приложениями, но и способен обрабатывать несколько вкладок параллельно в фоновом режиме, вообще не перехватывая управление окном браузера.

Это означает, что однотипные задачи в браузере, такие как: структурированная навигация по страницам, сложный ввод данных, проверки дашбордов, обновления в CRM и т.д. — Codex может выполнять самостоятельно: генерировать код, выполнять его и параллельно обрабатывать задачи в многопоточном режиме.

Расширение Chrome уже доступно для установки в приложении Codex (пока не поддерживается в ЕС и Великобритании, поддержка появится позже).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Тимлид команды Google Gemini, Адди Османи собрал воркфлоу и стандарты разработки, накопленные старшими инженерами за много лет, в унифицированную библиотеку скиллов, позволяющую ИИ-агентам выполнять каждый этап написания кода по единым высоким стандартам.

Это можно рассматривать как снабжение ИИ операционным мануалом от опытных инженеров. 🤩
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Tencent выпустили полностью опенсорс модель перевода, которая, по заявлениям, превосходит Google Translate — и при этом запускается локально прямо на смартфоне. 🤩

Модель поддерживает:

- 33 языка;
- полностью офлайн-перевод;
- запуск прямо на устройстве без облака.

Размер модели всего около 440MB.

Для сжатия используется AngelSlim — внутренний тулкит Tencent для компрессии моделей. За счёт этого удалось сильно уменьшить размер и сохранить производительность.

Веса модели и GGUF-версии доступны на Hugging Face: Hy-MT1.5-1.8B-1.25bit

Также разработчики выложили Android-демо для тестирования локального перевода прямо на телефоне. Ссылка доступна на странице модели в Hugging Face.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Парень крашнул телевизор с помощью Claude Code

Понимая, что он работает на Linux, он попросил Claude подумать о типичных уязвимостях, которым могла бы быть подвержена обычная Linux-машина 2014 года, учитывая, что она доступна только из локальной сети.

Они протестировали несколько вариантов (например, Heartbleed) и в итоге нашли CVE-2012-5958 — баг в libupnp, C-библиотеке, которая есть почти в каждом Smart TV того времени.

Отправили один сетевой пакет с одним полем, где было на несколько байт больше, чем нужно, что привело к переполнению стекового буфера и падению телевизора.

Дальше пошла декомпиляция прошивки, попытка понять, что именно эти производители телевизоров могут видеть о пользователях через свои сомнительные рекламные программы.

Vizio в 2017 году был засужен FTC за тайное отслеживание всего, что смотрят люди, и продажу этих данных рекламодателям. 😕
Please open Telegram to view this post
VIEW IN TELEGRAM
2
This media is not supported in your browser
VIEW IN TELEGRAM
Появился новый подход для RAG, который:

- уменьшает размер корпуса данных в 40 раз;
- снижает количество токенов на запрос в 3 раза;
- повышает релевантность векторного поиска в 2.3 раза.

И всё это в open-source. Читать подробности 😈
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft выпустила waza — CLI-инструмент на Go для системной оценки качества Agent Skills.

Может быть полезен для повышения качества разработки агентов и построения бенчмарков.

исходники 🐀
Please open Telegram to view this post
VIEW IN TELEGRAM
Дай любому ИИ-агенту полный контроль над файлами Office: OfficeCLI 🤩

Создан специально для ИИ-агентов. Позволяет работать с документами Word, Excel и PowerPoint без установки офисного пакета, прямо из терминала. Поддерживаются создание, чтение и изменение файлов, что удобно для автоматизации.

После установки такие инструменты, как Claude Code и Cursor, могут обрабатывать офисные файлы автоматически.
Типовые сценарии:

- пакетное изменение Excel-файлов через скрипты
- генерация Word-документов
- обработка презентаций PPT
- автоматизация без ручного открытия файлов

Бесплатный, с открытым исходным кодом, один бинарный файл.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сохраняем в коллекцию MCP-инструментов: CodexSaver

Он выносит низкорисковые задачи из Codex в DeepSeek, оставляя дорогим моделям только принятие решений. В тестах на пяти задачах средняя экономия составила 48%, задержка — около 6 секунд.
This media is not supported in your browser
VIEW IN TELEGRAM
Исследователи нашли способ ускорить большие языковые модели в 8.5 раза? 🤓

Спекулятивное декодирование — довольно эффективный способ решить проблему узкого места одного токена в традиционном инференсе больших языковых моделей.

Сначала маленькая черновая модель генерирует несколько следующих токенов, затем большая модель проверяет их все сразу за один прямой проход.

Если токен на любой позиции оказывается неверным, сохраняется всё до него, после чего генерация продолжается с этой точки. Такой подход никогда не работает хуже обычного декодирования.

Но текущие черновые модели в спекулятивном декодировании всё ещё предсказывают токены по одному. Из-за этого сам этап черновой генерации становится узким местом, ограничивая ускорение в реальных сценариях примерно 2–3 разами.

DFlash — новая техника, которая заменяет авторегрессионную черновую модель на облегчённую блочную диффузионную модель, предсказывающую все токены параллельно за один проход.

Стоимость черновой генерации остаётся постоянной независимо от количества спекулятивно предсказываемых токенов.

Дополнительно черновая модель получает скрытые признаки из нескольких слоёв целевой модели, которые внедряются в каждый слой генерации черновика. Благодаря этому она делает заметно более точные предсказания по сравнению с моделью, работающей без такого контекста.

В демонстрации выше обычное декодирование работает со скоростью 48.5 токена в секунду. DFlash достигает 415 токенов в секунду на той же модели без какой-либо потери качества.

Техника уже интегрирована в vLLM, SGLang и Transformers, а модели для черновой генерации доступны на HuggingFace для Qwen3, Qwen3.5, Llama 3.1, Kimi-K2.5, gpt-oss и многих других моделей.

- репозиторий на GitHub

KV-кэширование — ещё одна обязательная техника для ускорения инференса больших языковых моделей. Вот об этом статья.
Please open Telegram to view this post
VIEW IN TELEGRAM
Слева - водяной знак, который GPT Image 2 встраивает в каждое сгенерированное изображение.
Справа - отпечаток SynthID, который Google встраивает в каждое изображение Nano Banana и Gemini.

Невидим для человеческого глаза. Добавляется во время генерации, а не постфактум. Спроектирован так, чтобы сохраняться после скриншотов, обрезки и сжатия.

Большинство юзеров не осознают, что их вывод помечается на уровне пикселей. Почти все крупные генераторы фоток маркируют контент, и эта метка сохраняется при любом дальнейшем распространении.

Это можно проверить самостоятельно. Content Credentials Verify обнаруживает C2PA-метаданные в изображениях OpenAI. Gemini определяет SynthID при прямой загрузке изображения.

btw: вот исследование, показывающее рабочий обход SynthID от Google на Nano Banana Pro
Думаю, для GPT скоро тоже сделают реверс-инжиниринг таких механизмов 😈
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM