Технозаметки Малышева
8.34K subscribers
3.75K photos
1.4K videos
40 files
3.93K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Китайская компания Skywork AI выпустила мощную мультимодальную модель R1V3

Skywork AI представила Skywork-R1V3-38B — новую открытую мультимодальную модель с передовыми возможностями визуального рассуждения.
Модель обучена через reinforcement learning и показывает 76.0 баллов на MMMU — это круче, чем Claude Sonnet 3.7, например.

Особенность подхода в том, что модель использует InternVL3-38B как базу, но значительно улучшает reasoning через пост-обучение.
Доступны квантизованные версии от LMStudioCommunity размером от 17 гигов:
https://huggingface.co/lmstudio-community/Skywork-R1V3-38B-GGUF

Полный размер - 80 гигов.

MIT License.
Commercial use permitted
Modification allowed
Distribution allowed

Paper
HuggingFace

Интересно, что китайские разработчики делают акцент именно на chain-of-thought рассуждениях в мультимодальных задачах — это может стать новым стандартом для vision-language моделей.

#Skywork #multimodal #reasoning #Китай
———
@tsingular
🔥6
Alex Cheema - сооснователь EXO Labs поделился расчётами производительности кластеров на базе MacMini
И даже выложил отдельно табличку, где можно сравнить разные варианты с H100.

По скорости запуска DeepSeek V3/R1 получается так:
- NVIDIA H100 (80GB): 37.5/s
- AMD MI300X (192GB): 27.6/s
- Apple M2 Ultra (192GB): 4.16/s (9x медленнее H100)
- Apple M3 Ultra (512GB): 1.56/s (24x медленнее H100)

Экономический эффект возникает на масштабе:
NVIDIA H100: 80GB @ 3TB/s, $25,000, $312.50 per GB
AMD MI300X: 192GB @ 5.3TB/s, $20,000, $104.17 per GB
Apple M3 Ultra: 512GB @ 800GB/s, $9,500, $18.55 per GB

проект exolabs как раз концентрируется на том, чтобы за счёт параллелизма добиться снижения потерь на скорости инференса для крупных моделей.

И тогда можно будет на железо для полной не сжатой версии Дипсика тратить не $1.5 млн, а, например, $80К.
Сейчас скорость порядка 2х токенов в секунду на стандартном распараллеливании, - это нельзя, конечно, использовать. Цель - добить 27 токенов/секунду (скорее получится 15-20 по экспериментам) на этом железе.

В любом случае сравнение производительности может пригодиться для построения домашних сред разработки.

#exolabs #M3Ultra #MacMini #cluster
———
@tsingular
👍955🔥3🤔1🤨1
Media is too big
VIEW IN TELEGRAM
Martin Nebelong поделился простой, но невероятно эффективной техникой, как добиться от нейрорендера 100% качественного переноса исходной картинки на итоговое видео.

Промпт:
Instantly jump/cut on frame 1. [Describe the new context]


Максимально кратко и максимально эффективно.
Итоговые ролики в первом кадре содержат его набросок, а дальше переходят к генерации видео, но из-за того, что 1й кадр уже содержит картинку - остальной нейрорендер максимально соответствует исходнику.

Дальше при монтаже первые кадры вырезаются, но в комментах к посту у него эти примеры приведены целиком.

#Veo3 #tips #prompts #нейрорендер
———
@tsingular
1🔥14👍31🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
Реактивный дрон для медицинских поставок развивает 200 миль/час

Компания FusionFlight разработала AB6 JetQuad — дрон с четырьмя микрореактивными двигателями для экстренных медицинских поставок. Дизельное топливо обеспечивает в 40 раз больше энергии, чем литиевые батареи.

Дрон развивает скорость 200 миль/час и летает 15 минут на 5-галлонном баке. Дальность — 50 миль, что покрывает большинство медицинских миссий. Система векторной тяги позволяет взлетать и садиться вертикально на обычные вертолетные площадки.

В разработке находится AB8 Axion — увеличенная версия для транспортировки пациентов из труднодоступных мест. Заправка занимает минуты против часов зарядки батарей.

#drones #jetengine #JetQuad #Axion
------
@tsingular
🔥11👍31
🔥 Бывший сотрудник OpenAI поделился откровенными впечатлениями о годе работы внутри одной из самых обсуждаемых компаний мира.

Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.

Он подчёркивает:
никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.

Культура OpenAI — это хаос, скорость и независимость.

Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.

Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.

Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.

OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.

Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.

Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.

Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.

Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.

Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.

Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.

📌 Читать

@data_analysis_ml
👍116🔥4❤‍🔥1🐳1
Разработчиков Candy Crush увольняют и заменяют на ИИ-инструменты, которые они сами создавали

Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.

"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.

Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".

#Microsoft #layoffs
------
@tsingular
🔥10🤣2❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь это канал про Аниме. :)

https://github.com/Jackywine/Bella

Маск, конечно, задал тренд, - не остановить.

#characters #Китай
———
@tsingular
9🤣3
LangChain выпустил Open Deep Research — открытый мульти-агентный исследователь

Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.

Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.

Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.

#LangChain #multiagent #deepresearch
------
@tsingular
🔥6322👍1
NuExtract 2.0 превзошёл GPT-4 в извлечении данных

Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.

Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.

Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.

Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.

#NuExtract #DataExtraction #OpenSource
------
@tsingular
🔥5322
Forwarded from PWN AI (Artyom Semenov)
Logic-layer Prompt Control Injection: долговременная угроза для AI-агентов.

Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.

Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.

LPCI эксплуатирует три основные архитектурные слабости агентных систем:

1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.

Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?

4 возможных окна для реализации данной угрозы:


1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP

2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.

3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.

4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((

Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%

Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
622
Дубай запустил первую в мире систему классификации совместной работы человека и ИИ

Наследный принц Дубая утвердил запуск Human-Machine Collaboration (HMC) — глобальной системы иконок для обозначения авторства контента.

Теперь можно понять, что создано человеком, ИИ или совместно. Система включает пять основных классификаций и девять подкатегорий для исследований, публикаций, дизайна.

«Различать человеческое творчество и ИИ стало реальным вызовом», — объяснил шейх Хамдан необходимость создания классификатора.

Все госструктуры Дубая уже обязаны использовать новую маркировку. Система гибкая — работает с текстами, изображениями, видео, но не указывает точные проценты участия машины.

* такие же 5 шагов, кстати, у меня в презе были еще 2 года назад.

#Dubai #transparency #classification
------
@tsingular
932👍1🔥1
ИИ-компании не готовы к рискам создания систем человеческого уровня

Исследование Future of Life Institute показало шокирующие результаты: ни одна из крупных ИИ-компаний не получила оценку выше D по "планированию экзистенциальной безопасности".

Оценивали семь гигантов: Google DeepMind, OpenAI, Anthropic, Meta, xAI и китайские Zhipu AI и DeepSeek. Лучший результат у Anthropic — C+, OpenAI получил C, DeepMind — C-.

Парадокс в том, что компании обещают создать искусственный общий интеллект в ближайшее десятилетие, но у них нет "связного, практического плана" обеспечения безопасности. Макс Тегмарк из MIT сравнил это с постройкой ядерной электростанции в центре Нью-Йорка без плана предотвращения аварии.

#AGI #safety #AI
------
@tsingular
5👾4
Ученые нашли способ сделать ИИ похожим на человеческий мозг

Исследователи из Rensselaer Polytechnic Institute предложили добавить к нейросетям третье измерение — «высоту». Если сейчас ИИ имеет только ширину (количество нейронов в слое) и глубину (количество слоев), то новая архитектура включает внутренние связи между нейронами одного слоя.

Это похоже на боковые связи в коре головного мозга, отвечающие за высшие когнитивные функции. Система получает обратную связь и может «дорабатывать» свои решения, как мозг человека.

Проблема трансформеров в том, что их «закон масштабирования» больше не работает — просто увеличивать размер моделей бесполезно. Новый подход может стать ключом к созданию AGI — искусственного интеллекта уровня человека.

#AI #neuroscience #AGI
------
@tsingular
73🔥3😁2🍾2
Lovable стал единорогом через 8 месяцев после запуска

Шведский стартап Lovable привлек $200 млн при оценке $1,8 млрд всего за 8 месяцев существования. Платформа позволяет создавать сайты и приложения на естественном языке без программирования.

Цифры впечатляют: 2,3 млн активных пользователей и 180 тыс платящих подписчиков. Годовая выручка достигла $75 млн за 7 месяцев работы.

В команде всего 45 сотрудников, а среди инвесторов CEO Klarna и сооснователь Slack. Большинство пользователей — не-программисты, которые создают прототипы для дальнейшей разработки. Основатель уже инвестирует в стартап, созданный через собственную платформу.

#Lovable #unicorn #nocode
------
@tsingular
🔥154🤯2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
В Le Chat закинули фич

Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.

Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.

@ai_newz
2🍾2
Anthropic может получить оценку в $100 миллиардов благодаря Claude Code

Инвесторы готовы почти удвоить оценку Anthropic с $58 до $100 миллиардов. Главный драйвер — Claude Code, который за полгода принёс $200 миллионов годового дохода, а еженедельные загрузки выросли в шесть раз до 3 миллионов.

Интересная экономика: прямые продажи дают 60% маржи, но через AWS и Google Cloud компания теряет 30%. Поэтому 70% выручки идёт напрямую.

Cursor, использующий модели Anthropic, при этом заработал $500 миллионов за тот же период.
Два разработчика даже перешли из Антропика в Cursor, но потом, всего через пару недель, вернулись обратно.

#Anthropic #Claude #Valuation
------
@tsingular
3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT Agent — Deep Research и Operator теперь одно целое

Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.

Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.

Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.

Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.

Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.

@ai_newz
🔥2🎉2
Amazon запустил S3 Vectors — векторную базу данных в облаке

AWS представил S3 Vectors — специализированные бакеты для хранения и поиска векторных эмбеддингов. Теперь можно создавать семантический поиск прямо в S3 без дополнительных решений.

Основные возможности:
- Векторные индексы до 4096 измерений
- Интеграция с Amazon Bedrock для генерации эмбеддингов
- Поддержка Cosine и Euclidean метрик расстояния
- Прямая интеграция с Knowledge Bases для RAG-пайплайнов

Правда после создания индекса нельзя изменить его параметры — размерность, метрику расстояния и ключи метаданных.
Так что планировать нужно загодя.

Сервис уже доступен в preview-версии и может серьезно упростить архитектуру RAG-систем.

Мануал на 3000 страниц в комментарии.

#AWS #Vectors #RAG
———
@tsingular
🔥321
Blaxel привлек $7,3 млн на создание «AWS для ИИ-агентов»

Стартап из Сан-Франциско строит облачную инфраструктуру специально для ИИ-агентов. Команда из шести основателей уже обрабатывает миллионы запросов агентов ежедневно в 16 регионах мира.

Основная идея: традиционные облачные провайдеры создавались для эпохи SaaS, но ИИ-агенты требуют совершенно другого подхода. Агенты могут подключаться к языковым моделям в одном регионе, API в другом облаке, а базы знаний где-то еще.

Blaxel предлагает виртуальные машины, которые загружаются за 25 миллисекунд, автоматическое масштабирование и API, созданные для потребления ИИ-системами, а не разработчиками.

Компания планирует повторить путь AWS — начать со стартапов и перейти к корпоративным клиентам.

blaxel.ai

Выглядит достаточно перспективно.
При том у них еще и интересная подборка opensource рядом.
Не знаю уж выложат ли саму платформу, но тулы для MCP могут быть полезны.

#Blaxel #Agents #Cloud
------
@tsingular
🔥6👍3🤨1
LG выпустила EXAONE 4.0 - гибридную модель с режимами мышления

Корейская LG AI Research представила EXAONE 4.0 - модель, которая совмещает быстрые ответы и глубокое рассуждение в одной системе. Доступны версии 32B и 1.2B параметров.

Ключевая особенность - переключение между режимами: обычный для быстрых задач и reasoning для сложных вычислений. Модель поддерживает контекст до 128K токенов и работает с инструментами как агент.

По бенчмаркам 32B версия превосходит Qwen3 235B в математике и программировании, оставаясь конкурентоспособной с frontier-моделями. Добавлена поддержка испанского языка наряду с английским и корейским.

Модель использует гибридное внимание (3:1 локальное к глобальному) для эффективной работы с длинными контекстами.

Paper

#EXAONE #LG
------
@tsingular
11👍1🎉1