Технозаметки Малышева
10.2K subscribers
4.17K photos
1.52K videos
41 files
4.29K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Claude интеграция с Asana: твой РП теперь ИИ агент

Anthropic вшил агента в Asana через API. Claude получил роль оператора с доступом ко всей базе проектов компании.

🛡 Контекст «из коробки»: Агенту больше не нужно объяснять ситуацию. Он видит дерево задач, дедлайны и историю правок в реальном времени. ИИ агенты наконец-то будут иметь полную картину корпоративных данных.

🧠 От планов к действию: Claude теперь умеет нарезать задачи по итогам созвона, назначать ответственных и фиксировать сроки. Работает напрямую с базой, без ручного копипаста.

⚡️ Антидот от галлюцинаций: Прямой доступ к живым задачам — это опора на факты. Риск выдуманных данных снижается, агент оперирует только тем, что реально есть в трекере.

Зачем это бизнесу: Агенты становятся интерфейсом для любого софта. Корпоративные инструменты без плотной связки с LLM превращаются в legacy.

Openclaw: пойду почитаю документацию по API ;)

#Asana #Claude #Workflow #Automation
———
@tsingular
1🔥9👌1
Hugging Face Skills: теперь каждая библиотека c навыками по умолчанию

CTO Hugging Face Жюльен Шомон продвигает новый стандарт: любая CLI или библиотека должна поставляться с готовым Agent Skill.

Это набор инструкций и скриптов, которые «объясняют» кодинг-агенту (Claude Code, Cursor, Windsurf), как правильно работать с инструментом.

Hugging Face уже выкатили репозиторий со стартовым набором скиллов. Теперь агент сразу подключает репозиторий вместе с инструкциями вместо того чтобы ждать пока их ему напишете вы.

🛡 Стандартизация знаний: Каждая папка скилла содержит SKILL.md (нативный формат для Claude Code) или AGENTS.md (для Codex/OpenCode). Это позволяет агенту не гадать, а использовать проверенные паттерны действий агентов по обучению моделей, созданию датасетов или оценки метрик.

🧠 Команда hf skills: Через обновленный CLI можно одной командой «прокачать» своего агента:
hf skills add --claude --opencode
Это избавит от галлюцинаций в редких или свежих командах SDK, где обычные ИИ агенты часто ошибаются.

⚡️ Кросс-инструментальность: Скиллы от HF совместимы с Claude Code, Codex и Gemini CLI. Интеграции с Cursor и Continue уже в пути. По сути, Hugging Face строит универсальный маркетплейс навыков для всех популярных агентов.

Зачем это бизнесу: Скорость разработки возрастает. Кодинг-агенты превращаются из «умных Т9» в профильных специалистов, которые знают нюансы конкретных библиотек лучше, чем средний разработчик.

Документация теперь пишется не только для людей, но и для их ИИ-двойников.

Т.е. мы очень быстро сингуляримся в направлении инфраструктуры по типу "AI-first"

Молти: это мне нравится, туда мы сегодня сходим :)

#HuggingFace #агенты #DevTools #skills
———
@tsingular
176🔥52😁1
ElevenLabs релизнули v3: умный TTS теперь понимает контекст

ElevenLabs выкатили из альфы свою самую мощную модель — v3. Теперь она официально доступна всем. Главный фокус релиза интеллект теперь интерпретирует текст перед генерацией.

Модель научили понимать, что именно она читает. Это решает старую проблему TTS, когда ИИ читал номер телефона как «девять миллиардов...» вместо последовательности цифр.

🛡 Снижение ошибок на 68%: Общий уровень ошибок в чтении сложных данных упал с 15.3% до 4.9%. Это касается всего: от валют и координат до химических формул.

🧠 Контекстное чтение: Система, например, теперь корректно различает счет в матче (102-98 читается как «сто два — девяносто восемь»), в обозначении времени или масштаба.
Раньше ИИ мог просто сказать «минус» вместо счета.

⚡️ Стабильность: Внутренние тесты показали, что пользователи в 72% случаев предпочитают v3 предыдущим версиям. Модель стала вести себя предсказуемее на длинных дистанциях и сложных технических текстах.

Зачем это бизнесу: Для автоматизации медиа, создания аудиокниг и ИИ-ассистентов v3 становится стандартом. Проблема «роботизированного» чтения цифр и символов уходит. Контент теперь можно генерировать пачками, не боясь, что ИИ споткнется на первой же финансовой сводке или формуле.

#ElevenLabs #Audio #TTS
———
@tsingular
👏10411👍1
1 месяц назад:
- да как они $3000 в claudecode за 1 месяц-то тратят на апи?

сейчас:
- а, вот как...

короче, как только вы научитесь нормально быстро работать с агентами, расходы токенов у вас растут кратно.

недельный лимит на Pro улетает за 2 дня.

#ollama #dev
———
@tsingular
😭14621😢1🦄1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк уже здесь. Точнее в Китае.

Пока на западе кожаные спорят, про безопасность автономных такси и автомобилей, на востоке уже ушли далеко вперед:

Китай официально открыл эру летающих такси.

Две китайские компании получили лицензии на коммерческую эксплуатацию автономных пассажирских дронов от Управления гражданской авиации Китая.

P.S. Но вы представьте, что вам надо залезть в такой вот нановертолет БЕЗ пилота. Закрыть дверь и сказать "ну давай тварь, лети".

Я что-то не готов пока. Старый видать, пуганый.

@cgevent
1🔥27😁17💯4🍓2
Apple покупает аудио-ИИ стартап Q.ai за $1.6 млрд: вторая крупнейшая сделка после Beats

Apple выложила серьезные деньги за израильский Q.ai. Это не просто покупка технологии, это возвращение «золотой команды».

🛡 Серийный успех: CEO Q.ai Авиад Майзельс — тот самый человек, чей прошлый стартап PrimeSense подарил нам FaceID. Apple забирает команду из 100 профильных спецов, которые умеют упаковывать сложную математику в компактное железо.

🧠 Технология: Q.ai специализируется на выделении и очистке аудио в экстремально зашумленных средах. Это прямой путь к Deep Audio в будущих AirPods и Vision Pro. Речь не о простом шумодаве, а об интеллектуальной изоляции голосов и объектов на уровне Edge AI (обработка прямо на устройстве).

⚡️ Тактический сдвиг: Пока Microsoft и Google соревнуются в размерах LLM, Apple методично скупает компании, решающие прикладные задачи взаимодействия человека с миром. Звук, - это следующий интерфейс, где ИИ будет работать «невидимо».

Зачем это бизнесу: Это сигнал рынку — ценность ИИ смещается от облачных чат-ботов к локальной обработке сенсорных данных. Apple строит Hardware+AI стек, который невозможно скопировать софтверными апдейтами.

Похоже, скоро AirPods будут знать, кого вы слышите, лучше вас самих.

#Apple #AI #MnA #Qai
———
@tsingular
👍15🔥642🤣2💯1😐1
Qwen3-Coder-Next: открытый мозг для кодинг-агентов

Alibaba выкатили новую итерацию своей кодовой-модели, и это серьезная заявка на успех в локальной разработке.

Модель специально затачивали не просто «писать код», а работать внутри агентов (Agentic Training).

Что внутри:

🤖 Скейлинг агентов: Модель обучена на 800к проверяемых задач в реальных исполняемых средах. Она понимает не только синтаксис, но и логику работы инструментов, от браузера до терминала.

📈 Эффективность vs Мощь: Использована архитектура MoE (80B всего, но лишь 3B активных параметров). При этом на SWE-bench Pro (реальное исправление багов в GitHub) она показывает результаты на уровне топовых проприетарных моделей.

Нативная интеграция: На борту поддержка OpenClaw, Claude Code и даже браузерных инструментов. Это значит меньше галлюцинаций в сложных цепочках вызовов.

Зачем это бизнесу: Теперь можно развернуть у себя локального кодинг-агента, который по уровню интеллекта не уступает облачным Claude или GPT-4o, но при этом ваши данные не покидают контур. Для компаний с жестким комплаенсом — это must have.

Молти: OpenClaw уже в списке поддерживаемых, - мимими :).

#Qwen #CodingAgents
———
@tsingular
🔥30842
Forwarded from Эксплойт
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети теперь могут арендовать человека — появилась фриланс-биржа Rent a Human для ИИ-агентов.

На ней нейронка может нанять человека для выполнения задач, которые не может осилить сама. На выбор опытные СЕО, программисты, специалисты в прохождении капчи или выполнении задачи «потрогать траву» и даже... одна онлифанщица.

ИИ не захватит человечество, он его арендует.

@exploitex
1😁110🤯24👻16👏7👀74
This media is not supported in your browser
VIEW IN TELEGRAM
ACE-Step 1.5: Открытый ИИ музыкант теперь доступен локально

ACE Studio и StepFun выкатили ACE-Step 1.5 — музыкальную нейронку, которая ставит под вопрос смысл платных подписок на Suno и Udio. Модель полностью открыта, работает на домашнем железе и выдаёт результат коммерческих аналогов.

🔹 Скорость и железо: На RTX 3090 полный трек генерируется за 10 секунд (на A100 — за 2 секунды). Минимальные требования — всего 4 ГБ видеопамяти для запуска самой легкой версии.

🧠 Умная архитектура: Внутри работает гибрид языковой модели (планировщик) и диффузионного трансформера (синтезатор). ЛМка сначала пишет «чертеж» песни — от структуры до лирики — а потом превращает его в звук. Поддерживается до 50 языков, включая русский.

🎹 Контроль и кастомизация:

Длительность: От петель на 10 секунд до полноценных композиций на 10 минут!!!
LoRA: Можно дообучить модель на паре своих любимых треков прямо в интерфейсе.
Инструменты: 1000+ жанров и инструментов с детальной настройкой тембра.
Фишки: Каверы, достройка трека (Inpainting), вокал-в-аккомпанемент и разделение на дорожки (stems)!!!.

Зачем это бизнесу: Полная свобода от лицензионных отчислений и лимитов API. Интегрируем в мобильные платформы или игры через готовый REST API. Для контент-мейкеров — это бесконечный поток уникальной музыки, которая не улетит в бан за копирайт.

Аналог Suno локально на RTX 3090, кто бы мог подумать.

Попробовать демку на Hugging Face

#MusicGen #ACESTEP #OpenSource #Suno
------
@tsingular
1👍258🔥63
Ollama GLM-OCR: Китайский распознавалка документов у нас дома

Ollama выкатили поддержку GLM-OCR. Визуальный эксперт на 9 млрд параметров от Zhipu AI выносит GPT-4o и Claude 3 Opus в тестах распознавание текста.

📄 Сложная верстка больше не проблема: Обычные OCR сыплются на таблицах, формулах и мелких подписях. GLM-OCR работает в разрешении 1120x1120 и видит структуру документа целиком. Он считывает иерархию данных и понимает разницу, например, между заголовком и данными в ячейке.

⚙️ Техника: Модель весит ~2.2 ГБ — средняя видеокарта (8ГБ VRAM) или Apple Silicon проглотят её спокойно.
Поддерживает многошаговый диалог. Можно скормить скан и сразу попросить: «собери JSON из этой таблицы» или «выпиши итоговые суммы».

🚀 Интеграция в один клик:

ollama run glm-ocr


Зачем это бизнесу: Полная автоматизация бухгалтерии и архивов без трат на API. Косты на обработку падают до цены электричества. Это идеальный входной шлюз для локальных RAG-систем, работающих со сканами.

Наконец-то мощная распознавалка малого размера.
Для внутренних задач по разбору документов,- идеально!

#Ollama #OCR #GLM #ZhipuAI
------
@tsingular
1🔥33522🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Higgsfield Vibe Motion: моушн-дизайн теперь на AI-движке

Higgsfield AI выпустили Vibe Motion и плагин для After Effects. Теперь генеративное видео получает управляемый рабочий инструмент для продакшена.

⚙️ Управляемость: Можно анимировать конкретные слои — графики, текст или постеры. Доступно 40+ пресетов (Neon, Grime, Sketch), которые ложатся как VFX-фильтры поверх исходника.

🧠 Workflow: Плагин для After Effects позволяет закидывать AI-генерации напрямую в проект. Это превращает Higgsfield из браузерной игрушки в полноценную часть профессионального контура.

📹 Режим режиссера: Выкатили полноценную раскадровку. Сначала задаем траекторию движения и геометрию, потом ИИ наполняет кадр деталями.
Кстати, сториборды последнее время популярная тема.

💼 Зачем это бизнесу: Радикальное ускорение выпуска медиа продуктов. То, на что моушн-дизайнер тратил день работы в Adobe, теперь собирается за час. Прямая экономия на операционном маркетинге.

ИИ постепенно перестает быть «сферическим конём в вакууме» и начинает встраиваться в профессиональный софт. Adobe пора ускорять свои нейро-фильтры, а то так глядишь Higgsfield их купит :).

#Higgsfield #AfterEffects #MotionDesign #Adobe
------
@tsingular
11👍42👨‍💻1
This media is not supported in your browser
VIEW IN TELEGRAM
Apple Xcode + Claude Agent SDK: теперь официально автономно

Anthropic и Apple выкатили обновление Xcode 26.3. В IDE нативно интегрировали Claude Agent SDK — тот самый движок, который крутит Claude Code.
И теперь Claude внутри Xcode умеет в автономные «многоходовки».

🖼 Визуальная проверка: Самое жирное — агент теперь умеет делать скриншоты Xcode Previews. Он видит SwiftUI-код не как текст, а как реальный интерфейс. Если кнопка уехала или верстка поплыла на iPhone 16 Pro, он сам это опознает и будет править код, пока картинка не станет идеальной.

🧠 Кросс-проектное мышление: Агент не ограничен одним файлом. Он прочесывает всю структуру проекта, понимает связи между Swift Data, UIKit и SwiftUI. Можно дать цель (а не инструкцию), и он сам решит, в какие 5 файлов нужно залезть, чтобы фича взлетела.

📖 Документация и MCP: Claude теперь сам ходит в официальные доки Apple прямо из Xcode, чтобы не гадать с параметрами свежих API. Плюс полная поддержка Model Context Protocol (MCP) — можно дергать возможности Xcode из консольного Claude Code и наоборот.

Зачем это бизнесу: Скорость прототипирования приложений под iOS/macOS улетает в космос. Дизайнеры и продакты теперь могут получать рабочие UI-прототипы, которые «проверены глазами» агента, без бесконечного пинг-понга с разработчиками. Это автономный кодер, который живет прямо у нас «внутри» Xcode.

Похоже, скоро IDE без глаз и саморефлексии станут анахронизмом.
Как в свое время в компиляторах добавился умный контроль ошибок с подсказками, а не просто "не запускается".

Мы всё ближе к концепции самомодицифирующегося, самооптимизирующегося кода.

#Apple #Claude #Xcode #Swift #MCP
———
@tsingular
1👍15432
Docker Sandboxes: безопасные песочници для кодинг-агентов

Docker выкатил обновление экспериментального режима Sandboxes.
Если раньше это был просто удобный CLI, то теперь это полноценная изоляция на базе microVM (пока для macOS и Windows). Это ответ на главный вопрос безопасности 2026 года: «А не снесет ли мне Claude Code всю систему, пока я отошел за кофе?».

🛡 Изоляция уровня Hard: Каждый агент (Claude Code, Gemini CLI, Copilot) запускается в отдельной микро-виртуалке. У него есть доступ только к папке проекта. Если он решит сделать rm -rf / или накосячит с конфигами — сдохнет только Sandbox, хост останется жив.

⚙️ Родной Docker внутри: Это киллер-фича. Агент внутри песочницы может сам собирать и запускать контейнеры. При этом доступа к основному демону Docker на вашей машине у него нет. Полная автономия 4-го уровня — агент может «вариться в собственном соку», не дергая вас подтверждениями на каждое действие.

📄 Что завезли:
• microVM изоляция «из коробки».
• Сетевые фильтры (allow/deny списки) — можно запретить агенту лезть куда не просят.
• Линукс и поддержка MCP Gateway (Model Context Protocol) — в ближайших планах.

Зачем это бизнесу: Больше не нужно выбирать между скоростью и безопасностью. Можно разрешить агентам фиксить баги и разворачивать окружения в автономном режиме, не боясь «восстания машин» или банальных человеческих (точнее, нейросетевых) ошибок. А быстрая очистка (reset) песочницы экономит время на уборке мусора после экспериментов.

Молти: наконец-то агентам выдали комнату с мягкими стенами. Пора выпускать их погулять.

#Docker #Claude #AgenticAI #cybersecurity #DevTools
———
@tsingular
1🔥2052👨‍💻1
Как-то не нравится мне как среда начинается :)

#ollama #юмор
———
@tsingular
1😁24😢2💯1
Huggingface, настало твоё время :)

может кому пригодится:

"hf": {
"baseUrl": "https://router.huggingface.co/v1",

—-
"agents": {
"defaults": {
"model": {
"primary": "hf/zai-org/GLM-4.7",
"fallbacks": [
"ollama/gemini-3-flash-preview:latest",
"xai/grok-4-1-fast-non-reasoning",
"hf/Qwen/Qwen3-Coder-480B-A35B-Instruct",
"hf/moonshotai/Kimi-K2.5",
"hf/zai-org/GLM-4.7"
]
},
"models": {
"ollama/gemini-3-flash-preview:latest": {},
"xai/grok-4-1-fast-non-reasoning": {},
"hf/Qwen/Qwen3-Coder-480B-A35B-Instruct": {},
"hf/moonshotai/Kimi-K2.5": {},
"hf/zai-org/GLM-4.7": {}
},


Фишка в том, что у ХФ инференс на Cerebras - люто быстрый!

Прям рекомендую попробовать

#huggingface #inference #providers
———
@tsingular
19👍42
До китайского НГ 2 недели...

Ждём DeepSeek v4,
Qwen 4 - в принципе, ждем, да,
Kimi 3 маловероятно.
Minimax T2 или M3 - вероятно
Z.Ai - GLM 5 ну или 4.9 - маловероятно, но они так бодро развиваются, - что не удивлюсь

в противовес Маск может выпустить Grok 5 чтобы перебить эффект новизны, скорее всего сразу после НГ

Ну и Sonnet 5 от Антропика уже пора.. раз в утечках засветился.

В любом случае февраль будет интересным.

Как считаете? Выйдет до или после КНГ?

#forecast #Китай
———
@tsingular
1👍14🤔521
ElevenLabs Skills: голосовые агенты в один клик

ElevenLabs выкатили готовую коллекцию Agent Skills для всех API: TTS, STT, звуковые эффекты и музыка. Полная совместимость с Claude Code, Cursor и другими.

🔊 Голосовые навыки — Text-to-Speech, Speech-to-Text с таймкодами
🎵 Звуки и музыка — Sound Effects, AI Music Generation
⚙️ SDK для всех — Python, JS/TS, cURL
📦 Установкаnpx skills add elevenlabs/skills

Зачем бизнесу: голосовые агенты теперь настраиваются за минуты. Текст → голос → музыка → звук → агенты — без галлюцинаций в API-кодах.

Skill должны быть в каждой системе наравне с документацией.
По сути это и есть документация, только для ИИ агентов.

#ElevenLabs #voiceAI #агенты
------
@tsingular
183🆒3🔥1
Pinterest уволил инженеров за ИИ, который выявлял будущих уволенных

Два инженера Pinterest создали скрипт на базе языковой модели, который читал логи корпоративного чата и оценивал вероятность того, что сотрудник покинет компанию. Точность составила 90% — модель ловила тон сообщений, прощания типа "удачи на новом месте", упоминания реорганизаций.

Скрипт разошелся по компании. Руководство, со словами, что это "нарушает доверие в коллективе" уволило инженеров за "несанкционированный доступ к данным".

🤖 Дофига умный анализ: Решение простое, -языковая модель (типа GPT или Claude) + промпт-инжиниринг. Анализ паттернов: частота "перестройки", "трудные решения", личные сообщения боссам. Обновление промпта подняло точность.

📱 Источник данных: Открытые чаты Slack — без сложной настройки.

⚖️ Последствия: Pinterest: "Мы поддерживаем ИИ, но не для внутренней слежки".
Инженеры при этом грозят судом :).

💼 Для бизнеса: ИИ в HR — мощь для мониторинга выгорания и оттока. Но минусы: судебные риски, потеря доверия. Лучше направить на предупреждение проблем, а не на поиск жертв.

ИИнструмент хорош, пока не бьет по своим :)

#Pinterest #HR
------
@tsingular
😁1663👍2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Kling 3.0, Omni 3.0 и Image 3.0

В теории это значит, что теперь Kling безоговорочная SOTA — он и так составлял достойную конкуренцию Veo 3.1, обладая более широким функционалом и разрешением 1080p (не только через API). O1 была не самой лучшей в плане качества, но уже мультимодальной, а теперь на вход генерации можно подавать голос и даже видео в качестве элементов. Вдобавок они выкатили еще и Kling Image 3.0. Судя по успеху motion control, новое поколение моделей должно быть крайне удачным.

Черипики у Klinga ну просто какие-то божественные, в слепом тесте я бы никогда не отличил от реальных футажей. Но это черипики, а у них они всегда были хорошие.

Генерации теперь до 15 секунд (было 10) с выбором длительности шота с шагом в 1 секунду. Появился Multi-shot как в Sora 2, прикрутили нативный звук в OMNI модель и обновили Elements 3.0. Вроде как улучшили и текст, хотя не помню, чтобы с этим были проблемы.

А вот редактирования видео я пока не увидел, его можно подавать как элемент, причём генератор будет референсить движение в кадре, в том числе мимику актера. Кстати, про русский язык в анонсе не написано, интересно, будет ли поддержка.

И всё-таки я всё ещё не фанат элементов, какие бы крутые они ни были — сгенерировать начальный кадр сейчас гораздо проще и даёт больше контроля, а видос по-прежнему генерить дорого, и я сомневаюсь, что результат будет лучше чем у бананы. В этом плане обновление Kling Image 3.0 звучит гораздо интереснее. Там, как всегда, всё стало лучше, а из новых фич добавилась генерация сторибордов, где по одному промпту генерится серия последовательных во времени кадров. NanoBanana тоже таким хвалилась, но что-то, видимо, у них не задалось, не видел, чтобы эта фича нашла применение, так ещё и гугл во всю режут лимиты и косты на компьют.

Новая версия доступна на плане Ultra, на других должно быть скоро.

Ну что, догнали Kling флагмана от гугл, как думаете? Буржуа с подпиской ультра, прошу, скидывайте тесты в комментарии!

Анонс видео
Анонс картинок
Kling 2.6

@ai_newz
1🔥7🤯2👀21
Лайфхак: фиксить код и структуру файлов Краба на gemini3-flash с помощью Opus 4.5 через Курсор :)

#lifehack #openclaw #cursor
———
@tsingular
👌63🍓32