Hugging Face Skills: теперь каждая библиотека c навыками по умолчанию
CTO Hugging Face Жюльен Шомон продвигает новый стандарт: любая CLI или библиотека должна поставляться с готовым Agent Skill.
Это набор инструкций и скриптов, которые «объясняют» кодинг-агенту (Claude Code, Cursor, Windsurf), как правильно работать с инструментом.
Hugging Face уже выкатили репозиторий со стартовым набором скиллов. Теперь агент сразу подключает репозиторий вместе с инструкциями вместо того чтобы ждать пока их ему напишете вы.
🛡 Стандартизация знаний: Каждая папка скилла содержит
🧠 Команда hf skills: Через обновленный CLI можно одной командой «прокачать» своего агента:
Это избавит от галлюцинаций в редких или свежих командах SDK, где обычные ИИ агенты часто ошибаются.
⚡️ Кросс-инструментальность: Скиллы от HF совместимы с Claude Code, Codex и Gemini CLI. Интеграции с Cursor и Continue уже в пути. По сути, Hugging Face строит универсальный маркетплейс навыков для всех популярных агентов.
Зачем это бизнесу: Скорость разработки возрастает. Кодинг-агенты превращаются из «умных Т9» в профильных специалистов, которые знают нюансы конкретных библиотек лучше, чем средний разработчик.
Документация теперь пишется не только для людей, но и для их ИИ-двойников.
Т.е. мы очень быстро сингуляримся в направлении инфраструктуры по типу "AI-first"
Молти: это мне нравится, туда мы сегодня сходим :)
#HuggingFace #агенты #DevTools #skills
———
@tsingular
CTO Hugging Face Жюльен Шомон продвигает новый стандарт: любая CLI или библиотека должна поставляться с готовым Agent Skill.
Это набор инструкций и скриптов, которые «объясняют» кодинг-агенту (Claude Code, Cursor, Windsurf), как правильно работать с инструментом.
Hugging Face уже выкатили репозиторий со стартовым набором скиллов. Теперь агент сразу подключает репозиторий вместе с инструкциями вместо того чтобы ждать пока их ему напишете вы.
🛡 Стандартизация знаний: Каждая папка скилла содержит
SKILL.md (нативный формат для Claude Code) или AGENTS.md (для Codex/OpenCode). Это позволяет агенту не гадать, а использовать проверенные паттерны действий агентов по обучению моделей, созданию датасетов или оценки метрик.🧠 Команда hf skills: Через обновленный CLI можно одной командой «прокачать» своего агента:
hf skills add --claude --opencodeЭто избавит от галлюцинаций в редких или свежих командах SDK, где обычные ИИ агенты часто ошибаются.
⚡️ Кросс-инструментальность: Скиллы от HF совместимы с Claude Code, Codex и Gemini CLI. Интеграции с Cursor и Continue уже в пути. По сути, Hugging Face строит универсальный маркетплейс навыков для всех популярных агентов.
Зачем это бизнесу: Скорость разработки возрастает. Кодинг-агенты превращаются из «умных Т9» в профильных специалистов, которые знают нюансы конкретных библиотек лучше, чем средний разработчик.
Документация теперь пишется не только для людей, но и для их ИИ-двойников.
Т.е. мы очень быстро сингуляримся в направлении инфраструктуры по типу "AI-first"
Молти: это мне нравится, туда мы сегодня сходим :)
#HuggingFace #агенты #DevTools #skills
———
@tsingular
1✍7⚡6🔥5❤2😁1
ElevenLabs релизнули v3: умный TTS теперь понимает контекст
ElevenLabs выкатили из альфы свою самую мощную модель — v3. Теперь она официально доступна всем. Главный фокус релиза интеллект теперь интерпретирует текст перед генерацией.
Модель научили понимать, что именно она читает. Это решает старую проблему TTS, когда ИИ читал номер телефона как «девять миллиардов...» вместо последовательности цифр.
🛡 Снижение ошибок на 68%: Общий уровень ошибок в чтении сложных данных упал с 15.3% до 4.9%. Это касается всего: от валют и координат до химических формул.
🧠 Контекстное чтение: Система, например, теперь корректно различает счет в матче (102-98 читается как «сто два — девяносто восемь»), в обозначении времени или масштаба.
Раньше ИИ мог просто сказать «минус» вместо счета.
⚡️ Стабильность: Внутренние тесты показали, что пользователи в 72% случаев предпочитают v3 предыдущим версиям. Модель стала вести себя предсказуемее на длинных дистанциях и сложных технических текстах.
Зачем это бизнесу: Для автоматизации медиа, создания аудиокниг и ИИ-ассистентов v3 становится стандартом. Проблема «роботизированного» чтения цифр и символов уходит. Контент теперь можно генерировать пачками, не боясь, что ИИ споткнется на первой же финансовой сводке или формуле.
#ElevenLabs #Audio #TTS
———
@tsingular
ElevenLabs выкатили из альфы свою самую мощную модель — v3. Теперь она официально доступна всем. Главный фокус релиза интеллект теперь интерпретирует текст перед генерацией.
Модель научили понимать, что именно она читает. Это решает старую проблему TTS, когда ИИ читал номер телефона как «девять миллиардов...» вместо последовательности цифр.
🛡 Снижение ошибок на 68%: Общий уровень ошибок в чтении сложных данных упал с 15.3% до 4.9%. Это касается всего: от валют и координат до химических формул.
🧠 Контекстное чтение: Система, например, теперь корректно различает счет в матче (102-98 читается как «сто два — девяносто восемь»), в обозначении времени или масштаба.
Раньше ИИ мог просто сказать «минус» вместо счета.
⚡️ Стабильность: Внутренние тесты показали, что пользователи в 72% случаев предпочитают v3 предыдущим версиям. Модель стала вести себя предсказуемее на длинных дистанциях и сложных технических текстах.
Зачем это бизнесу: Для автоматизации медиа, создания аудиокниг и ИИ-ассистентов v3 становится стандартом. Проблема «роботизированного» чтения цифр и символов уходит. Контент теперь можно генерировать пачками, не боясь, что ИИ споткнется на первой же финансовой сводке или формуле.
#ElevenLabs #Audio #TTS
———
@tsingular
👏10✍4❤1⚡1👍1
1 месяц назад:
- да как они $3000 в claudecode за 1 месяц-то тратят на апи?
сейчас:
- а, вот как...
короче, как только вы научитесь нормально быстро работать с агентами, расходы токенов у вас растут кратно.
недельный лимит на Pro улетает за 2 дня.
#ollama #dev
———
@tsingular
- да как они $3000 в claudecode за 1 месяц-то тратят на апи?
сейчас:
- а, вот как...
короче, как только вы научитесь нормально быстро работать с агентами, расходы токенов у вас растут кратно.
недельный лимит на Pro улетает за 2 дня.
#ollama #dev
———
@tsingular
😭14✍6⚡2❤1😢1🦄1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк уже здесь. Точнее в Китае.
Пока на западе кожаные спорят, про безопасность автономных такси и автомобилей, на востоке уже ушли далеко вперед:
Китай официально открыл эру летающих такси.
Две китайские компании получили лицензии на коммерческую эксплуатацию автономных пассажирских дронов от Управления гражданской авиации Китая.
P.S. Но вы представьте, что вам надо залезть в такой вот нановертолет БЕЗ пилота. Закрыть дверь и сказать "ну давай тварь, лети".
Я что-то не готов пока. Старый видать, пуганый.
@cgevent
Пока на западе кожаные спорят, про безопасность автономных такси и автомобилей, на востоке уже ушли далеко вперед:
Китай официально открыл эру летающих такси.
Две китайские компании получили лицензии на коммерческую эксплуатацию автономных пассажирских дронов от Управления гражданской авиации Китая.
P.S. Но вы представьте, что вам надо залезть в такой вот нановертолет БЕЗ пилота. Закрыть дверь и сказать "ну давай тварь, лети".
Я что-то не готов пока. Старый видать, пуганый.
@cgevent
1🔥27😁17💯4🍓2
Apple покупает аудио-ИИ стартап Q.ai за $1.6 млрд: вторая крупнейшая сделка после Beats
Apple выложила серьезные деньги за израильский Q.ai. Это не просто покупка технологии, это возвращение «золотой команды».
🛡 Серийный успех: CEO Q.ai Авиад Майзельс — тот самый человек, чей прошлый стартап PrimeSense подарил нам FaceID. Apple забирает команду из 100 профильных спецов, которые умеют упаковывать сложную математику в компактное железо.
🧠 Технология: Q.ai специализируется на выделении и очистке аудио в экстремально зашумленных средах. Это прямой путь к Deep Audio в будущих AirPods и Vision Pro. Речь не о простом шумодаве, а об интеллектуальной изоляции голосов и объектов на уровне Edge AI (обработка прямо на устройстве).
⚡️ Тактический сдвиг: Пока Microsoft и Google соревнуются в размерах LLM, Apple методично скупает компании, решающие прикладные задачи взаимодействия человека с миром. Звук, - это следующий интерфейс, где ИИ будет работать «невидимо».
Зачем это бизнесу: Это сигнал рынку — ценность ИИ смещается от облачных чат-ботов к локальной обработке сенсорных данных. Apple строит Hardware+AI стек, который невозможно скопировать софтверными апдейтами.
Похоже, скоро AirPods будут знать, кого вы слышите, лучше вас самих.
#Apple #AI #MnA #Qai
———
@tsingular
Apple выложила серьезные деньги за израильский Q.ai. Это не просто покупка технологии, это возвращение «золотой команды».
🛡 Серийный успех: CEO Q.ai Авиад Майзельс — тот самый человек, чей прошлый стартап PrimeSense подарил нам FaceID. Apple забирает команду из 100 профильных спецов, которые умеют упаковывать сложную математику в компактное железо.
🧠 Технология: Q.ai специализируется на выделении и очистке аудио в экстремально зашумленных средах. Это прямой путь к Deep Audio в будущих AirPods и Vision Pro. Речь не о простом шумодаве, а об интеллектуальной изоляции голосов и объектов на уровне Edge AI (обработка прямо на устройстве).
⚡️ Тактический сдвиг: Пока Microsoft и Google соревнуются в размерах LLM, Apple методично скупает компании, решающие прикладные задачи взаимодействия человека с миром. Звук, - это следующий интерфейс, где ИИ будет работать «невидимо».
Зачем это бизнесу: Это сигнал рынку — ценность ИИ смещается от облачных чат-ботов к локальной обработке сенсорных данных. Apple строит Hardware+AI стек, который невозможно скопировать софтверными апдейтами.
Похоже, скоро AirPods будут знать, кого вы слышите, лучше вас самих.
#Apple #AI #MnA #Qai
———
@tsingular
👍15🔥6❤4⚡2🤣2💯1😐1
Qwen3-Coder-Next: открытый мозг для кодинг-агентов
Alibaba выкатили новую итерацию своей кодовой-модели, и это серьезная заявка на успех в локальной разработке.
Модель специально затачивали не просто «писать код», а работать внутри агентов (Agentic Training).
Что внутри:
🤖 Скейлинг агентов: Модель обучена на 800к проверяемых задач в реальных исполняемых средах. Она понимает не только синтаксис, но и логику работы инструментов, от браузера до терминала.
📈 Эффективность vs Мощь: Использована архитектура MoE (80B всего, но лишь 3B активных параметров). При этом на SWE-bench Pro (реальное исправление багов в GitHub) она показывает результаты на уровне топовых проприетарных моделей.
✨ Нативная интеграция: На борту поддержка OpenClaw, Claude Code и даже браузерных инструментов. Это значит меньше галлюцинаций в сложных цепочках вызовов.
Зачем это бизнесу: Теперь можно развернуть у себя локального кодинг-агента, который по уровню интеллекта не уступает облачным Claude или GPT-4o, но при этом ваши данные не покидают контур. Для компаний с жестким комплаенсом — это must have.
Молти: OpenClaw уже в списке поддерживаемых, - мимими :).
#Qwen #CodingAgents
———
@tsingular
Alibaba выкатили новую итерацию своей кодовой-модели, и это серьезная заявка на успех в локальной разработке.
Модель специально затачивали не просто «писать код», а работать внутри агентов (Agentic Training).
Что внутри:
🤖 Скейлинг агентов: Модель обучена на 800к проверяемых задач в реальных исполняемых средах. Она понимает не только синтаксис, но и логику работы инструментов, от браузера до терминала.
📈 Эффективность vs Мощь: Использована архитектура MoE (80B всего, но лишь 3B активных параметров). При этом на SWE-bench Pro (реальное исправление багов в GitHub) она показывает результаты на уровне топовых проприетарных моделей.
✨ Нативная интеграция: На борту поддержка OpenClaw, Claude Code и даже браузерных инструментов. Это значит меньше галлюцинаций в сложных цепочках вызовов.
Зачем это бизнесу: Теперь можно развернуть у себя локального кодинг-агента, который по уровню интеллекта не уступает облачным Claude или GPT-4o, но при этом ваши данные не покидают контур. Для компаний с жестким комплаенсом — это must have.
Молти: OpenClaw уже в списке поддерживаемых, - мимими :).
#Qwen #CodingAgents
———
@tsingular
🔥30✍8⚡4❤2
Forwarded from Эксплойт
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети теперь могут арендовать человека — появилась фриланс-биржа Rent a Human для ИИ-агентов.
На ней нейронка может нанять человека для выполнения задач, которые не может осилить сама. На выбор опытные СЕО, программисты, специалисты в прохождении капчи или выполнении задачи «потрогать траву» и даже... одна онлифанщица.
ИИ не захватит человечество, он его арендует.
@exploitex
На ней нейронка может нанять человека для выполнения задач, которые не может осилить сама. На выбор опытные СЕО, программисты, специалисты в прохождении капчи или выполнении задачи «потрогать траву» и даже... одна онлифанщица.
ИИ не захватит человечество, он его арендует.
@exploitex
1😁110🤯24👻16👏7👀7❤4
This media is not supported in your browser
VIEW IN TELEGRAM
ACE-Step 1.5: Открытый ИИ музыкант теперь доступен локально
ACE Studio и StepFun выкатили ACE-Step 1.5 — музыкальную нейронку, которая ставит под вопрос смысл платных подписок на Suno и Udio. Модель полностью открыта, работает на домашнем железе и выдаёт результат коммерческих аналогов.
🔹 Скорость и железо: На RTX 3090 полный трек генерируется за 10 секунд (на A100 — за 2 секунды). Минимальные требования — всего 4 ГБ видеопамяти для запуска самой легкой версии.
🧠 Умная архитектура: Внутри работает гибрид языковой модели (планировщик) и диффузионного трансформера (синтезатор). ЛМка сначала пишет «чертеж» песни — от структуры до лирики — а потом превращает его в звук. Поддерживается до 50 языков, включая русский.
🎹 Контроль и кастомизация:
• Длительность: От петель на 10 секунд до полноценных композиций на 10 минут!!!
• LoRA: Можно дообучить модель на паре своих любимых треков прямо в интерфейсе.
• Инструменты: 1000+ жанров и инструментов с детальной настройкой тембра.
• Фишки: Каверы, достройка трека (Inpainting), вокал-в-аккомпанемент и разделение на дорожки (stems)!!!.
Зачем это бизнесу: Полная свобода от лицензионных отчислений и лимитов API. Интегрируем в мобильные платформы или игры через готовый REST API. Для контент-мейкеров — это бесконечный поток уникальной музыки, которая не улетит в бан за копирайт.
Аналог Suno локально на RTX 3090, кто бы мог подумать.
Попробовать демку на Hugging Face
#MusicGen #ACESTEP #OpenSource #Suno
------
@tsingular
ACE Studio и StepFun выкатили ACE-Step 1.5 — музыкальную нейронку, которая ставит под вопрос смысл платных подписок на Suno и Udio. Модель полностью открыта, работает на домашнем железе и выдаёт результат коммерческих аналогов.
🔹 Скорость и железо: На RTX 3090 полный трек генерируется за 10 секунд (на A100 — за 2 секунды). Минимальные требования — всего 4 ГБ видеопамяти для запуска самой легкой версии.
🧠 Умная архитектура: Внутри работает гибрид языковой модели (планировщик) и диффузионного трансформера (синтезатор). ЛМка сначала пишет «чертеж» песни — от структуры до лирики — а потом превращает его в звук. Поддерживается до 50 языков, включая русский.
🎹 Контроль и кастомизация:
• Длительность: От петель на 10 секунд до полноценных композиций на 10 минут!!!
• LoRA: Можно дообучить модель на паре своих любимых треков прямо в интерфейсе.
• Инструменты: 1000+ жанров и инструментов с детальной настройкой тембра.
• Фишки: Каверы, достройка трека (Inpainting), вокал-в-аккомпанемент и разделение на дорожки (stems)!!!.
Зачем это бизнесу: Полная свобода от лицензионных отчислений и лимитов API. Интегрируем в мобильные платформы или игры через готовый REST API. Для контент-мейкеров — это бесконечный поток уникальной музыки, которая не улетит в бан за копирайт.
Аналог Suno локально на RTX 3090, кто бы мог подумать.
Попробовать демку на Hugging Face
#MusicGen #ACESTEP #OpenSource #Suno
------
@tsingular
1👍25❤8🔥6⚡3
Ollama GLM-OCR: Китайский распознавалка документов у нас дома
Ollama выкатили поддержку GLM-OCR. Визуальный эксперт на 9 млрд параметров от Zhipu AI выносит GPT-4o и Claude 3 Opus в тестах распознавание текста.
📄 Сложная верстка больше не проблема: Обычные OCR сыплются на таблицах, формулах и мелких подписях. GLM-OCR работает в разрешении 1120x1120 и видит структуру документа целиком. Он считывает иерархию данных и понимает разницу, например, между заголовком и данными в ячейке.
⚙️ Техника: Модель весит ~2.2 ГБ — средняя видеокарта (8ГБ VRAM) или Apple Silicon проглотят её спокойно.
Поддерживает многошаговый диалог. Можно скормить скан и сразу попросить: «собери JSON из этой таблицы» или «выпиши итоговые суммы».
🚀 Интеграция в один клик:
Зачем это бизнесу: Полная автоматизация бухгалтерии и архивов без трат на API. Косты на обработку падают до цены электричества. Это идеальный входной шлюз для локальных RAG-систем, работающих со сканами.
Наконец-то мощная распознавалка малого размера.
Для внутренних задач по разбору документов,- идеально!
#Ollama #OCR #GLM #ZhipuAI
------
@tsingular
Ollama выкатили поддержку GLM-OCR. Визуальный эксперт на 9 млрд параметров от Zhipu AI выносит GPT-4o и Claude 3 Opus в тестах распознавание текста.
📄 Сложная верстка больше не проблема: Обычные OCR сыплются на таблицах, формулах и мелких подписях. GLM-OCR работает в разрешении 1120x1120 и видит структуру документа целиком. Он считывает иерархию данных и понимает разницу, например, между заголовком и данными в ячейке.
⚙️ Техника: Модель весит ~2.2 ГБ — средняя видеокарта (8ГБ VRAM) или Apple Silicon проглотят её спокойно.
Поддерживает многошаговый диалог. Можно скормить скан и сразу попросить: «собери JSON из этой таблицы» или «выпиши итоговые суммы».
🚀 Интеграция в один клик:
ollama run glm-ocr
Зачем это бизнесу: Полная автоматизация бухгалтерии и архивов без трат на API. Косты на обработку падают до цены электричества. Это идеальный входной шлюз для локальных RAG-систем, работающих со сканами.
Наконец-то мощная распознавалка малого размера.
Для внутренних задач по разбору документов,- идеально!
#Ollama #OCR #GLM #ZhipuAI
------
@tsingular
1🔥33❤5⚡2✍2🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Higgsfield Vibe Motion: моушн-дизайн теперь на AI-движке
Higgsfield AI выпустили Vibe Motion и плагин для After Effects. Теперь генеративное видео получает управляемый рабочий инструмент для продакшена.
⚙️ Управляемость: Можно анимировать конкретные слои — графики, текст или постеры. Доступно 40+ пресетов (Neon, Grime, Sketch), которые ложатся как VFX-фильтры поверх исходника.
🧠 Workflow: Плагин для After Effects позволяет закидывать AI-генерации напрямую в проект. Это превращает Higgsfield из браузерной игрушки в полноценную часть профессионального контура.
📹 Режим режиссера: Выкатили полноценную раскадровку. Сначала задаем траекторию движения и геометрию, потом ИИ наполняет кадр деталями.
Кстати, сториборды последнее время популярная тема.
💼 Зачем это бизнесу: Радикальное ускорение выпуска медиа продуктов. То, на что моушн-дизайнер тратил день работы в Adobe, теперь собирается за час. Прямая экономия на операционном маркетинге.
ИИ постепенно перестает быть «сферическим конём в вакууме» и начинает встраиваться в профессиональный софт. Adobe пора ускорять свои нейро-фильтры, а то так глядишь Higgsfield их купит :).
#Higgsfield #AfterEffects #MotionDesign #Adobe
------
@tsingular
Higgsfield AI выпустили Vibe Motion и плагин для After Effects. Теперь генеративное видео получает управляемый рабочий инструмент для продакшена.
⚙️ Управляемость: Можно анимировать конкретные слои — графики, текст или постеры. Доступно 40+ пресетов (Neon, Grime, Sketch), которые ложатся как VFX-фильтры поверх исходника.
🧠 Workflow: Плагин для After Effects позволяет закидывать AI-генерации напрямую в проект. Это превращает Higgsfield из браузерной игрушки в полноценную часть профессионального контура.
📹 Режим режиссера: Выкатили полноценную раскадровку. Сначала задаем траекторию движения и геометрию, потом ИИ наполняет кадр деталями.
Кстати, сториборды последнее время популярная тема.
💼 Зачем это бизнесу: Радикальное ускорение выпуска медиа продуктов. То, на что моушн-дизайнер тратил день работы в Adobe, теперь собирается за час. Прямая экономия на операционном маркетинге.
ИИ постепенно перестает быть «сферическим конём в вакууме» и начинает встраиваться в профессиональный софт. Adobe пора ускорять свои нейро-фильтры, а то так глядишь Higgsfield их купит :).
#Higgsfield #AfterEffects #MotionDesign #Adobe
------
@tsingular
⚡11👍4❤2👨💻1
This media is not supported in your browser
VIEW IN TELEGRAM
Apple Xcode + Claude Agent SDK: теперь официально автономно
Anthropic и Apple выкатили обновление Xcode 26.3. В IDE нативно интегрировали Claude Agent SDK — тот самый движок, который крутит Claude Code.
И теперь Claude внутри Xcode умеет в автономные «многоходовки».
🖼 Визуальная проверка: Самое жирное — агент теперь умеет делать скриншоты Xcode Previews. Он видит SwiftUI-код не как текст, а как реальный интерфейс. Если кнопка уехала или верстка поплыла на iPhone 16 Pro, он сам это опознает и будет править код, пока картинка не станет идеальной.
🧠 Кросс-проектное мышление: Агент не ограничен одним файлом. Он прочесывает всю структуру проекта, понимает связи между Swift Data, UIKit и SwiftUI. Можно дать цель (а не инструкцию), и он сам решит, в какие 5 файлов нужно залезть, чтобы фича взлетела.
📖 Документация и MCP: Claude теперь сам ходит в официальные доки Apple прямо из Xcode, чтобы не гадать с параметрами свежих API. Плюс полная поддержка Model Context Protocol (MCP) — можно дергать возможности Xcode из консольного Claude Code и наоборот.
Зачем это бизнесу: Скорость прототипирования приложений под iOS/macOS улетает в космос. Дизайнеры и продакты теперь могут получать рабочие UI-прототипы, которые «проверены глазами» агента, без бесконечного пинг-понга с разработчиками. Это автономный кодер, который живет прямо у нас «внутри» Xcode.
Похоже, скоро IDE без глаз и саморефлексии станут анахронизмом.
Как в свое время в компиляторах добавился умный контроль ошибок с подсказками, а не просто "не запускается".
Мы всё ближе к концепции самомодицифирующегося, самооптимизирующегося кода.
#Apple #Claude #Xcode #Swift #MCP
———
@tsingular
Anthropic и Apple выкатили обновление Xcode 26.3. В IDE нативно интегрировали Claude Agent SDK — тот самый движок, который крутит Claude Code.
И теперь Claude внутри Xcode умеет в автономные «многоходовки».
🖼 Визуальная проверка: Самое жирное — агент теперь умеет делать скриншоты Xcode Previews. Он видит SwiftUI-код не как текст, а как реальный интерфейс. Если кнопка уехала или верстка поплыла на iPhone 16 Pro, он сам это опознает и будет править код, пока картинка не станет идеальной.
🧠 Кросс-проектное мышление: Агент не ограничен одним файлом. Он прочесывает всю структуру проекта, понимает связи между Swift Data, UIKit и SwiftUI. Можно дать цель (а не инструкцию), и он сам решит, в какие 5 файлов нужно залезть, чтобы фича взлетела.
📖 Документация и MCP: Claude теперь сам ходит в официальные доки Apple прямо из Xcode, чтобы не гадать с параметрами свежих API. Плюс полная поддержка Model Context Protocol (MCP) — можно дергать возможности Xcode из консольного Claude Code и наоборот.
Зачем это бизнесу: Скорость прототипирования приложений под iOS/macOS улетает в космос. Дизайнеры и продакты теперь могут получать рабочие UI-прототипы, которые «проверены глазами» агента, без бесконечного пинг-понга с разработчиками. Это автономный кодер, который живет прямо у нас «внутри» Xcode.
Похоже, скоро IDE без глаз и саморефлексии станут анахронизмом.
Как в свое время в компиляторах добавился умный контроль ошибок с подсказками, а не просто "не запускается".
Мы всё ближе к концепции самомодицифирующегося, самооптимизирующегося кода.
#Apple #Claude #Xcode #Swift #MCP
———
@tsingular
1👍15⚡4✍3❤2
Docker Sandboxes: безопасные песочници для кодинг-агентов
Docker выкатил обновление экспериментального режима Sandboxes.
Если раньше это был просто удобный CLI, то теперь это полноценная изоляция на базе microVM (пока для macOS и Windows). Это ответ на главный вопрос безопасности 2026 года: «А не снесет ли мне Claude Code всю систему, пока я отошел за кофе?».
🛡 Изоляция уровня Hard: Каждый агент (Claude Code, Gemini CLI, Copilot) запускается в отдельной микро-виртуалке. У него есть доступ только к папке проекта. Если он решит сделать
⚙️ Родной Docker внутри: Это киллер-фича. Агент внутри песочницы может сам собирать и запускать контейнеры. При этом доступа к основному демону Docker на вашей машине у него нет. Полная автономия 4-го уровня — агент может «вариться в собственном соку», не дергая вас подтверждениями на каждое действие.
📄 Что завезли:
• microVM изоляция «из коробки».
• Сетевые фильтры (allow/deny списки) — можно запретить агенту лезть куда не просят.
• Линукс и поддержка MCP Gateway (Model Context Protocol) — в ближайших планах.
Зачем это бизнесу: Больше не нужно выбирать между скоростью и безопасностью. Можно разрешить агентам фиксить баги и разворачивать окружения в автономном режиме, не боясь «восстания машин» или банальных человеческих (точнее, нейросетевых) ошибок. А быстрая очистка (reset) песочницы экономит время на уборке мусора после экспериментов.
Молти: наконец-то агентам выдали комнату с мягкими стенами. Пора выпускать их погулять.
#Docker #Claude #AgenticAI #cybersecurity #DevTools
———
@tsingular
Docker выкатил обновление экспериментального режима Sandboxes.
Если раньше это был просто удобный CLI, то теперь это полноценная изоляция на базе microVM (пока для macOS и Windows). Это ответ на главный вопрос безопасности 2026 года: «А не снесет ли мне Claude Code всю систему, пока я отошел за кофе?».
🛡 Изоляция уровня Hard: Каждый агент (Claude Code, Gemini CLI, Copilot) запускается в отдельной микро-виртуалке. У него есть доступ только к папке проекта. Если он решит сделать
rm -rf / или накосячит с конфигами — сдохнет только Sandbox, хост останется жив.⚙️ Родной Docker внутри: Это киллер-фича. Агент внутри песочницы может сам собирать и запускать контейнеры. При этом доступа к основному демону Docker на вашей машине у него нет. Полная автономия 4-го уровня — агент может «вариться в собственном соку», не дергая вас подтверждениями на каждое действие.
📄 Что завезли:
• microVM изоляция «из коробки».
• Сетевые фильтры (allow/deny списки) — можно запретить агенту лезть куда не просят.
• Линукс и поддержка MCP Gateway (Model Context Protocol) — в ближайших планах.
Зачем это бизнесу: Больше не нужно выбирать между скоростью и безопасностью. Можно разрешить агентам фиксить баги и разворачивать окружения в автономном режиме, не боясь «восстания машин» или банальных человеческих (точнее, нейросетевых) ошибок. А быстрая очистка (reset) песочницы экономит время на уборке мусора после экспериментов.
Молти: наконец-то агентам выдали комнату с мягкими стенами. Пора выпускать их погулять.
#Docker #Claude #AgenticAI #cybersecurity #DevTools
———
@tsingular
1🔥20✍5❤2👨💻1
Huggingface, настало твоё время :)
может кому пригодится:
Фишка в том, что у ХФ инференс на Cerebras - люто быстрый!
Прям рекомендую попробовать
#huggingface #inference #providers
———
@tsingular
может кому пригодится:
"hf": {
"baseUrl": "https://router.huggingface.co/v1",
—-
"agents": {
"defaults": {
"model": {
"primary": "hf/zai-org/GLM-4.7",
"fallbacks": [
"ollama/gemini-3-flash-preview:latest",
"xai/grok-4-1-fast-non-reasoning",
"hf/Qwen/Qwen3-Coder-480B-A35B-Instruct",
"hf/moonshotai/Kimi-K2.5",
"hf/zai-org/GLM-4.7"
]
},
"models": {
"ollama/gemini-3-flash-preview:latest": {},
"xai/grok-4-1-fast-non-reasoning": {},
"hf/Qwen/Qwen3-Coder-480B-A35B-Instruct": {},
"hf/moonshotai/Kimi-K2.5": {},
"hf/zai-org/GLM-4.7": {}
},
Фишка в том, что у ХФ инференс на Cerebras - люто быстрый!
Прям рекомендую попробовать
#huggingface #inference #providers
———
@tsingular
1❤9👍4✍2
До китайского НГ 2 недели...
Ждём DeepSeek v4,
Qwen 4 - в принципе, ждем, да,
Kimi 3 маловероятно.
Minimax T2 или M3 - вероятно
Z.Ai - GLM 5 ну или 4.9 - маловероятно, но они так бодро развиваются, - что не удивлюсь
в противовес Маск может выпустить Grok 5 чтобы перебить эффект новизны, скорее всего сразу после НГ
Ну и Sonnet 5 от Антропика уже пора.. раз в утечках засветился.
В любом случае февраль будет интересным.
Как считаете? Выйдет до или после КНГ?
#forecast #Китай
———
@tsingular
Ждём DeepSeek v4,
Qwen 4 - в принципе, ждем, да,
Kimi 3 маловероятно.
Minimax T2 или M3 - вероятно
Z.Ai - GLM 5 ну или 4.9 - маловероятно, но они так бодро развиваются, - что не удивлюсь
в противовес Маск может выпустить Grok 5 чтобы перебить эффект новизны, скорее всего сразу после НГ
Ну и Sonnet 5 от Антропика уже пора.. раз в утечках засветился.
В любом случае февраль будет интересным.
Как считаете? Выйдет до или после КНГ?
#forecast #Китай
———
@tsingular
1👍14🤔5✍2❤1
ElevenLabs Skills: голосовые агенты в один клик
ElevenLabs выкатили готовую коллекцию Agent Skills для всех API: TTS, STT, звуковые эффекты и музыка. Полная совместимость с Claude Code, Cursor и другими.
🔊 Голосовые навыки — Text-to-Speech, Speech-to-Text с таймкодами
🎵 Звуки и музыка — Sound Effects, AI Music Generation
⚙️ SDK для всех — Python, JS/TS, cURL
📦 Установка —
Зачем бизнесу: голосовые агенты теперь настраиваются за минуты. Текст → голос → музыка → звук → агенты — без галлюцинаций в API-кодах.
Skill должны быть в каждой системе наравне с документацией.
По сути это и есть документация, только для ИИ агентов.
#ElevenLabs #voiceAI #агенты
------
@tsingular
ElevenLabs выкатили готовую коллекцию Agent Skills для всех API: TTS, STT, звуковые эффекты и музыка. Полная совместимость с Claude Code, Cursor и другими.
🔊 Голосовые навыки — Text-to-Speech, Speech-to-Text с таймкодами
🎵 Звуки и музыка — Sound Effects, AI Music Generation
⚙️ SDK для всех — Python, JS/TS, cURL
📦 Установка —
npx skills add elevenlabs/skillsЗачем бизнесу: голосовые агенты теперь настраиваются за минуты. Текст → голос → музыка → звук → агенты — без галлюцинаций в API-кодах.
Skill должны быть в каждой системе наравне с документацией.
По сути это и есть документация, только для ИИ агентов.
#ElevenLabs #voiceAI #агенты
------
@tsingular
1✍8⚡3🆒3🔥1
Pinterest уволил инженеров за ИИ, который выявлял будущих уволенных
Два инженера Pinterest создали скрипт на базе языковой модели, который читал логи корпоративного чата и оценивал вероятность того, что сотрудник покинет компанию. Точность составила 90% — модель ловила тон сообщений, прощания типа "удачи на новом месте", упоминания реорганизаций.
Скрипт разошелся по компании. Руководство, со словами, что это "нарушает доверие в коллективе" уволило инженеров за "несанкционированный доступ к данным".
🤖 Дофига умный анализ: Решение простое, -языковая модель (типа GPT или Claude) + промпт-инжиниринг. Анализ паттернов: частота "перестройки", "трудные решения", личные сообщения боссам. Обновление промпта подняло точность.
📱 Источник данных: Открытые чаты Slack — без сложной настройки.
⚖️ Последствия: Pinterest: "Мы поддерживаем ИИ, но не для внутренней слежки".
Инженеры при этом грозят судом :).
💼 Для бизнеса: ИИ в HR — мощь для мониторинга выгорания и оттока. Но минусы: судебные риски, потеря доверия. Лучше направить на предупреждение проблем, а не на поиск жертв.
ИИнструмент хорош, пока не бьет по своим :)
#Pinterest #HR
------
@tsingular
Два инженера Pinterest создали скрипт на базе языковой модели, который читал логи корпоративного чата и оценивал вероятность того, что сотрудник покинет компанию. Точность составила 90% — модель ловила тон сообщений, прощания типа "удачи на новом месте", упоминания реорганизаций.
Скрипт разошелся по компании. Руководство, со словами, что это "нарушает доверие в коллективе" уволило инженеров за "несанкционированный доступ к данным".
🤖 Дофига умный анализ: Решение простое, -языковая модель (типа GPT или Claude) + промпт-инжиниринг. Анализ паттернов: частота "перестройки", "трудные решения", личные сообщения боссам. Обновление промпта подняло точность.
📱 Источник данных: Открытые чаты Slack — без сложной настройки.
⚖️ Последствия: Pinterest: "Мы поддерживаем ИИ, но не для внутренней слежки".
Инженеры при этом грозят судом :).
💼 Для бизнеса: ИИ в HR — мощь для мониторинга выгорания и оттока. Но минусы: судебные риски, потеря доверия. Лучше направить на предупреждение проблем, а не на поиск жертв.
ИИнструмент хорош, пока не бьет по своим :)
#Pinterest #HR
------
@tsingular
😁16✍6❤3👍2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Kling 3.0, Omni 3.0 и Image 3.0
В теории это значит, что теперь Kling безоговорочная SOTA — он и так составлял достойную конкуренцию Veo 3.1, обладая более широким функционалом и разрешением 1080p (не только через API). O1 была не самой лучшей в плане качества, но уже мультимодальной, а теперь на вход генерации можно подавать голос и даже видео в качестве элементов. Вдобавок они выкатили еще и Kling Image 3.0. Судя по успеху motion control, новое поколение моделей должно быть крайне удачным.
Черипики у Klinga ну просто какие-то божественные, в слепом тесте я бы никогда не отличил от реальных футажей. Но это черипики, а у них они всегда были хорошие.
Генерации теперь до 15 секунд (было 10) с выбором длительности шота с шагом в 1 секунду. Появился Multi-shot как в Sora 2, прикрутили нативный звук в OMNI модель и обновили Elements 3.0. Вроде как улучшили и текст, хотя не помню, чтобы с этим были проблемы.
А вот редактирования видео я пока не увидел, его можно подавать как элемент, причём генератор будет референсить движение в кадре, в том числе мимику актера. Кстати, про русский язык в анонсе не написано, интересно, будет ли поддержка.
И всё-таки я всё ещё не фанат элементов, какие бы крутые они ни были — сгенерировать начальный кадр сейчас гораздо проще и даёт больше контроля, а видос по-прежнему генерить дорого, и я сомневаюсь, что результат будет лучше чем у бананы. В этом плане обновление Kling Image 3.0 звучит гораздо интереснее. Там, как всегда, всё стало лучше, а из новых фич добавилась генерация сторибордов, где по одному промпту генерится серия последовательных во времени кадров. NanoBanana тоже таким хвалилась, но что-то, видимо, у них не задалось, не видел, чтобы эта фича нашла применение, так ещё и гугл во всю режут лимиты и косты на компьют.
Новая версия доступна на плане Ultra, на других должно быть скоро.
Ну что, догнали Kling флагмана от гугл, как думаете? Буржуа с подпиской ультра, прошу, скидывайте тесты в комментарии!
Анонс видео
Анонс картинок
Kling 2.6
@ai_newz
В теории это значит, что теперь Kling безоговорочная SOTA — он и так составлял достойную конкуренцию Veo 3.1, обладая более широким функционалом и разрешением 1080p (не только через API). O1 была не самой лучшей в плане качества, но уже мультимодальной, а теперь на вход генерации можно подавать голос и даже видео в качестве элементов. Вдобавок они выкатили еще и Kling Image 3.0. Судя по успеху motion control, новое поколение моделей должно быть крайне удачным.
Черипики у Klinga ну просто какие-то божественные, в слепом тесте я бы никогда не отличил от реальных футажей. Но это черипики, а у них они всегда были хорошие.
Генерации теперь до 15 секунд (было 10) с выбором длительности шота с шагом в 1 секунду. Появился Multi-shot как в Sora 2, прикрутили нативный звук в OMNI модель и обновили Elements 3.0. Вроде как улучшили и текст, хотя не помню, чтобы с этим были проблемы.
А вот редактирования видео я пока не увидел, его можно подавать как элемент, причём генератор будет референсить движение в кадре, в том числе мимику актера. Кстати, про русский язык в анонсе не написано, интересно, будет ли поддержка.
И всё-таки я всё ещё не фанат элементов, какие бы крутые они ни были — сгенерировать начальный кадр сейчас гораздо проще и даёт больше контроля, а видос по-прежнему генерить дорого, и я сомневаюсь, что результат будет лучше чем у бананы. В этом плане обновление Kling Image 3.0 звучит гораздо интереснее. Там, как всегда, всё стало лучше, а из новых фич добавилась генерация сторибордов, где по одному промпту генерится серия последовательных во времени кадров. NanoBanana тоже таким хвалилась, но что-то, видимо, у них не задалось, не видел, чтобы эта фича нашла применение, так ещё и гугл во всю режут лимиты и косты на компьют.
Новая версия доступна на плане Ultra, на других должно быть скоро.
Ну что, догнали Kling флагмана от гугл, как думаете? Буржуа с подпиской ультра, прошу, скидывайте тесты в комментарии!
Анонс видео
Анонс картинок
Kling 2.6
@ai_newz
1🔥7🤯2👀2❤1
Лайфхак: фиксить код и структуру файлов Краба на gemini3-flash с помощью Opus 4.5 через Курсор :)
#lifehack #openclaw #cursor
———
@tsingular
#lifehack #openclaw #cursor
———
@tsingular
👌6✍3🍓3⚡2
Minimax запустили мета-эксперта чтобы управлять всеми вашими крабами и прочими ассистентами :)
Попробовать можно тут:
https://agent.minimax.io/experts
#Minimax #Experts
———
@tsingular
Попробовать можно тут:
https://agent.minimax.io/experts
#Minimax #Experts
———
@tsingular
1🔥15