Китайская компания Skywork AI выпустила мощную мультимодальную модель R1V3
Skywork AI представила Skywork-R1V3-38B — новую открытую мультимодальную модель с передовыми возможностями визуального рассуждения.
Модель обучена через reinforcement learning и показывает 76.0 баллов на MMMU — это круче, чем Claude Sonnet 3.7, например.
Особенность подхода в том, что модель использует InternVL3-38B как базу, но значительно улучшает reasoning через пост-обучение.
Доступны квантизованные версии от LMStudioCommunity размером от 17 гигов:
https://huggingface.co/lmstudio-community/Skywork-R1V3-38B-GGUF
Полный размер - 80 гигов.
MIT License.
✅ Commercial use permitted
✅ Modification allowed
✅ Distribution allowed
Paper
HuggingFace
Интересно, что китайские разработчики делают акцент именно на chain-of-thought рассуждениях в мультимодальных задачах — это может стать новым стандартом для vision-language моделей.
#Skywork #multimodal #reasoning #Китай
———
@tsingular
Skywork AI представила Skywork-R1V3-38B — новую открытую мультимодальную модель с передовыми возможностями визуального рассуждения.
Модель обучена через reinforcement learning и показывает 76.0 баллов на MMMU — это круче, чем Claude Sonnet 3.7, например.
Особенность подхода в том, что модель использует InternVL3-38B как базу, но значительно улучшает reasoning через пост-обучение.
Доступны квантизованные версии от LMStudioCommunity размером от 17 гигов:
https://huggingface.co/lmstudio-community/Skywork-R1V3-38B-GGUF
Полный размер - 80 гигов.
MIT License.
✅ Commercial use permitted
✅ Modification allowed
✅ Distribution allowed
Paper
HuggingFace
Интересно, что китайские разработчики делают акцент именно на chain-of-thought рассуждениях в мультимодальных задачах — это может стать новым стандартом для vision-language моделей.
#Skywork #multimodal #reasoning #Китай
———
@tsingular
🔥6
Alex Cheema - сооснователь EXO Labs поделился расчётами производительности кластеров на базе MacMini
И даже выложил отдельно табличку, где можно сравнить разные варианты с H100.
По скорости запуска DeepSeek V3/R1 получается так:
- NVIDIA H100 (80GB): 37.5/s
- AMD MI300X (192GB): 27.6/s
- Apple M2 Ultra (192GB): 4.16/s (9x медленнее H100)
- Apple M3 Ultra (512GB): 1.56/s (24x медленнее H100)
Экономический эффект возникает на масштабе:
NVIDIA H100: 80GB @ 3TB/s, $25,000, $312.50 per GB
AMD MI300X: 192GB @ 5.3TB/s, $20,000, $104.17 per GB
Apple M3 Ultra: 512GB @ 800GB/s, $9,500, $18.55 per GB
проект exolabs как раз концентрируется на том, чтобы за счёт параллелизма добиться снижения потерь на скорости инференса для крупных моделей.
И тогда можно будет на железо для полной не сжатой версии Дипсика тратить не $1.5 млн, а, например, $80К.
Сейчас скорость порядка 2х токенов в секунду на стандартном распараллеливании, - это нельзя, конечно, использовать. Цель - добить 27 токенов/секунду (скорее получится 15-20 по экспериментам) на этом железе.
В любом случае сравнение производительности может пригодиться для построения домашних сред разработки.
#exolabs #M3Ultra #MacMini #cluster
———
@tsingular
И даже выложил отдельно табличку, где можно сравнить разные варианты с H100.
По скорости запуска DeepSeek V3/R1 получается так:
- NVIDIA H100 (80GB): 37.5/s
- AMD MI300X (192GB): 27.6/s
- Apple M2 Ultra (192GB): 4.16/s (9x медленнее H100)
- Apple M3 Ultra (512GB): 1.56/s (24x медленнее H100)
Экономический эффект возникает на масштабе:
NVIDIA H100: 80GB @ 3TB/s, $25,000, $312.50 per GB
AMD MI300X: 192GB @ 5.3TB/s, $20,000, $104.17 per GB
Apple M3 Ultra: 512GB @ 800GB/s, $9,500, $18.55 per GB
проект exolabs как раз концентрируется на том, чтобы за счёт параллелизма добиться снижения потерь на скорости инференса для крупных моделей.
И тогда можно будет на железо для полной не сжатой версии Дипсика тратить не $1.5 млн, а, например, $80К.
Сейчас скорость порядка 2х токенов в секунду на стандартном распараллеливании, - это нельзя, конечно, использовать. Цель - добить 27 токенов/секунду (скорее получится 15-20 по экспериментам) на этом железе.
В любом случае сравнение производительности может пригодиться для построения домашних сред разработки.
#exolabs #M3Ultra #MacMini #cluster
———
@tsingular
👍9❤5✍5🔥3🤔1🤨1
Media is too big
VIEW IN TELEGRAM
Martin Nebelong поделился простой, но невероятно эффективной техникой, как добиться от нейрорендера 100% качественного переноса исходной картинки на итоговое видео.
Промпт:
Максимально кратко и максимально эффективно.
Итоговые ролики в первом кадре содержат его набросок, а дальше переходят к генерации видео, но из-за того, что 1й кадр уже содержит картинку - остальной нейрорендер максимально соответствует исходнику.
Дальше при монтаже первые кадры вырезаются, но в комментах к посту у него эти примеры приведены целиком.
#Veo3 #tips #prompts #нейрорендер
———
@tsingular
Промпт:
Instantly jump/cut on frame 1. [Describe the new context]
Максимально кратко и максимально эффективно.
Итоговые ролики в первом кадре содержат его набросок, а дальше переходят к генерации видео, но из-за того, что 1й кадр уже содержит картинку - остальной нейрорендер максимально соответствует исходнику.
Дальше при монтаже первые кадры вырезаются, но в комментах к посту у него эти примеры приведены целиком.
#Veo3 #tips #prompts #нейрорендер
———
@tsingular
1🔥14👍3⚡1🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
Реактивный дрон для медицинских поставок развивает 200 миль/час
Компания FusionFlight разработала AB6 JetQuad — дрон с четырьмя микрореактивными двигателями для экстренных медицинских поставок. Дизельное топливо обеспечивает в 40 раз больше энергии, чем литиевые батареи.
Дрон развивает скорость 200 миль/час и летает 15 минут на 5-галлонном баке. Дальность — 50 миль, что покрывает большинство медицинских миссий. Система векторной тяги позволяет взлетать и садиться вертикально на обычные вертолетные площадки.
В разработке находится AB8 Axion — увеличенная версия для транспортировки пациентов из труднодоступных мест. Заправка занимает минуты против часов зарядки батарей.
#drones #jetengine #JetQuad #Axion
------
@tsingular
Компания FusionFlight разработала AB6 JetQuad — дрон с четырьмя микрореактивными двигателями для экстренных медицинских поставок. Дизельное топливо обеспечивает в 40 раз больше энергии, чем литиевые батареи.
Дрон развивает скорость 200 миль/час и летает 15 минут на 5-галлонном баке. Дальность — 50 миль, что покрывает большинство медицинских миссий. Система векторной тяги позволяет взлетать и садиться вертикально на обычные вертолетные площадки.
В разработке находится AB8 Axion — увеличенная версия для транспортировки пациентов из труднодоступных мест. Заправка занимает минуты против часов зарядки батарей.
#drones #jetengine #JetQuad #Axion
------
@tsingular
🔥11👍3❤1
Forwarded from Анализ данных (Data analysis)
🔥 Бывший сотрудник OpenAI поделился откровенными впечатлениями о годе работы внутри одной из самых обсуждаемых компаний мира.
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
👍11❤6🔥4❤🔥1🐳1
Разработчиков Candy Crush увольняют и заменяют на ИИ-инструменты, которые они сами создавали
Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.
"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.
Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".
#Microsoft #layoffs
------
@tsingular
Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.
"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.
Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".
#Microsoft #layoffs
------
@tsingular
🔥10🤣2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь это канал про Аниме. :)
https://github.com/Jackywine/Bella
Маск, конечно, задал тренд, - не остановить.
#characters #Китай
———
@tsingular
https://github.com/Jackywine/Bella
Маск, конечно, задал тренд, - не остановить.
#characters #Китай
———
@tsingular
⚡9🤣3
LangChain выпустил Open Deep Research — открытый мульти-агентный исследователь
Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.
Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.
Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.
#LangChain #multiagent #deepresearch
------
@tsingular
Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.
Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.
Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.
#LangChain #multiagent #deepresearch
------
@tsingular
🔥6✍3❤2⚡2👍1
NuExtract 2.0 превзошёл GPT-4 в извлечении данных
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
🔥5✍3❤2⚡2
Forwarded from PWN AI (Artyom Semenov)
Logic-layer Prompt Control Injection: долговременная угроза для AI-агентов.
Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.
Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.
LPCI эксплуатирует три основные архитектурные слабости агентных систем:
1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.
Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?
4 возможных окна для реализации данной угрозы:
1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP
2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.
3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.
4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((
Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%
Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.
Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.
LPCI эксплуатирует три основные архитектурные слабости агентных систем:
1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.
Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?
4 возможных окна для реализации данной угрозы:
1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP
2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.
3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.
4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((
Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%
Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
⚡6❤2✍2
Дубай запустил первую в мире систему классификации совместной работы человека и ИИ
Наследный принц Дубая утвердил запуск Human-Machine Collaboration (HMC) — глобальной системы иконок для обозначения авторства контента.
Теперь можно понять, что создано человеком, ИИ или совместно. Система включает пять основных классификаций и девять подкатегорий для исследований, публикаций, дизайна.
«Различать человеческое творчество и ИИ стало реальным вызовом», — объяснил шейх Хамдан необходимость создания классификатора.
Все госструктуры Дубая уже обязаны использовать новую маркировку. Система гибкая — работает с текстами, изображениями, видео, но не указывает точные проценты участия машины.
* такие же 5 шагов, кстати, у меня в презе были еще 2 года назад.
#Dubai #transparency #classification
------
@tsingular
Наследный принц Дубая утвердил запуск Human-Machine Collaboration (HMC) — глобальной системы иконок для обозначения авторства контента.
Теперь можно понять, что создано человеком, ИИ или совместно. Система включает пять основных классификаций и девять подкатегорий для исследований, публикаций, дизайна.
«Различать человеческое творчество и ИИ стало реальным вызовом», — объяснил шейх Хамдан необходимость создания классификатора.
Все госструктуры Дубая уже обязаны использовать новую маркировку. Система гибкая — работает с текстами, изображениями, видео, но не указывает точные проценты участия машины.
* такие же 5 шагов, кстати, у меня в презе были еще 2 года назад.
#Dubai #transparency #classification
------
@tsingular
⚡9✍3❤2👍1🔥1
ИИ-компании не готовы к рискам создания систем человеческого уровня
Исследование Future of Life Institute показало шокирующие результаты: ни одна из крупных ИИ-компаний не получила оценку выше D по "планированию экзистенциальной безопасности".
Оценивали семь гигантов: Google DeepMind, OpenAI, Anthropic, Meta, xAI и китайские Zhipu AI и DeepSeek. Лучший результат у Anthropic — C+, OpenAI получил C, DeepMind — C-.
Парадокс в том, что компании обещают создать искусственный общий интеллект в ближайшее десятилетие, но у них нет "связного, практического плана" обеспечения безопасности. Макс Тегмарк из MIT сравнил это с постройкой ядерной электростанции в центре Нью-Йорка без плана предотвращения аварии.
#AGI #safety #AI
------
@tsingular
Исследование Future of Life Institute показало шокирующие результаты: ни одна из крупных ИИ-компаний не получила оценку выше D по "планированию экзистенциальной безопасности".
Оценивали семь гигантов: Google DeepMind, OpenAI, Anthropic, Meta, xAI и китайские Zhipu AI и DeepSeek. Лучший результат у Anthropic — C+, OpenAI получил C, DeepMind — C-.
Парадокс в том, что компании обещают создать искусственный общий интеллект в ближайшее десятилетие, но у них нет "связного, практического плана" обеспечения безопасности. Макс Тегмарк из MIT сравнил это с постройкой ядерной электростанции в центре Нью-Йорка без плана предотвращения аварии.
#AGI #safety #AI
------
@tsingular
⚡5👾4
Ученые нашли способ сделать ИИ похожим на человеческий мозг
Исследователи из Rensselaer Polytechnic Institute предложили добавить к нейросетям третье измерение — «высоту». Если сейчас ИИ имеет только ширину (количество нейронов в слое) и глубину (количество слоев), то новая архитектура включает внутренние связи между нейронами одного слоя.
Это похоже на боковые связи в коре головного мозга, отвечающие за высшие когнитивные функции. Система получает обратную связь и может «дорабатывать» свои решения, как мозг человека.
Проблема трансформеров в том, что их «закон масштабирования» больше не работает — просто увеличивать размер моделей бесполезно. Новый подход может стать ключом к созданию AGI — искусственного интеллекта уровня человека.
#AI #neuroscience #AGI
------
@tsingular
Исследователи из Rensselaer Polytechnic Institute предложили добавить к нейросетям третье измерение — «высоту». Если сейчас ИИ имеет только ширину (количество нейронов в слое) и глубину (количество слоев), то новая архитектура включает внутренние связи между нейронами одного слоя.
Это похоже на боковые связи в коре головного мозга, отвечающие за высшие когнитивные функции. Система получает обратную связь и может «дорабатывать» свои решения, как мозг человека.
Проблема трансформеров в том, что их «закон масштабирования» больше не работает — просто увеличивать размер моделей бесполезно. Новый подход может стать ключом к созданию AGI — искусственного интеллекта уровня человека.
#AI #neuroscience #AGI
------
@tsingular
⚡7❤3🔥3😁2🍾2
Lovable стал единорогом через 8 месяцев после запуска
Шведский стартап Lovable привлек $200 млн при оценке $1,8 млрд всего за 8 месяцев существования. Платформа позволяет создавать сайты и приложения на естественном языке без программирования.
Цифры впечатляют: 2,3 млн активных пользователей и 180 тыс платящих подписчиков. Годовая выручка достигла $75 млн за 7 месяцев работы.
В команде всего 45 сотрудников, а среди инвесторов CEO Klarna и сооснователь Slack. Большинство пользователей — не-программисты, которые создают прототипы для дальнейшей разработки. Основатель уже инвестирует в стартап, созданный через собственную платформу.
#Lovable #unicorn #nocode
------
@tsingular
Шведский стартап Lovable привлек $200 млн при оценке $1,8 млрд всего за 8 месяцев существования. Платформа позволяет создавать сайты и приложения на естественном языке без программирования.
Цифры впечатляют: 2,3 млн активных пользователей и 180 тыс платящих подписчиков. Годовая выручка достигла $75 млн за 7 месяцев работы.
В команде всего 45 сотрудников, а среди инвесторов CEO Klarna и сооснователь Slack. Большинство пользователей — не-программисты, которые создают прототипы для дальнейшей разработки. Основатель уже инвестирует в стартап, созданный через собственную платформу.
#Lovable #unicorn #nocode
------
@tsingular
🔥15⚡4🤯2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
В Le Chat закинули фич
Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.
Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.
@ai_newz
Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.
Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.
@ai_newz
⚡2🍾2
Anthropic может получить оценку в $100 миллиардов благодаря Claude Code
Инвесторы готовы почти удвоить оценку Anthropic с $58 до $100 миллиардов. Главный драйвер — Claude Code, который за полгода принёс $200 миллионов годового дохода, а еженедельные загрузки выросли в шесть раз до 3 миллионов.
Интересная экономика: прямые продажи дают 60% маржи, но через AWS и Google Cloud компания теряет 30%. Поэтому 70% выручки идёт напрямую.
Cursor, использующий модели Anthropic, при этом заработал $500 миллионов за тот же период.
Два разработчика даже перешли из Антропика в Cursor, но потом, всего через пару недель, вернулись обратно.
#Anthropic #Claude #Valuation
------
@tsingular
Инвесторы готовы почти удвоить оценку Anthropic с $58 до $100 миллиардов. Главный драйвер — Claude Code, который за полгода принёс $200 миллионов годового дохода, а еженедельные загрузки выросли в шесть раз до 3 миллионов.
Интересная экономика: прямые продажи дают 60% маржи, но через AWS и Google Cloud компания теряет 30%. Поэтому 70% выручки идёт напрямую.
Cursor, использующий модели Anthropic, при этом заработал $500 миллионов за тот же период.
Два разработчика даже перешли из Антропика в Cursor, но потом, всего через пару недель, вернулись обратно.
#Anthropic #Claude #Valuation
------
@tsingular
⚡3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT Agent — Deep Research и Operator теперь одно целое
Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.
Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.
Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.
Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.
Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.
@ai_newz
Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.
Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.
Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.
Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.
Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.
@ai_newz
🔥2🎉2
Amazon запустил S3 Vectors — векторную базу данных в облаке
AWS представил S3 Vectors — специализированные бакеты для хранения и поиска векторных эмбеддингов. Теперь можно создавать семантический поиск прямо в S3 без дополнительных решений.
Основные возможности:
- Векторные индексы до 4096 измерений
- Интеграция с Amazon Bedrock для генерации эмбеддингов
- Поддержка Cosine и Euclidean метрик расстояния
- Прямая интеграция с Knowledge Bases для RAG-пайплайнов
Правда после создания индекса нельзя изменить его параметры — размерность, метрику расстояния и ключи метаданных.
Так что планировать нужно загодя.
Сервис уже доступен в preview-версии и может серьезно упростить архитектуру RAG-систем.
Мануал на 3000 страниц в комментарии.
#AWS #Vectors #RAG
———
@tsingular
AWS представил S3 Vectors — специализированные бакеты для хранения и поиска векторных эмбеддингов. Теперь можно создавать семантический поиск прямо в S3 без дополнительных решений.
Основные возможности:
- Векторные индексы до 4096 измерений
- Интеграция с Amazon Bedrock для генерации эмбеддингов
- Поддержка Cosine и Euclidean метрик расстояния
- Прямая интеграция с Knowledge Bases для RAG-пайплайнов
Правда после создания индекса нельзя изменить его параметры — размерность, метрику расстояния и ключи метаданных.
Так что планировать нужно загодя.
Сервис уже доступен в preview-версии и может серьезно упростить архитектуру RAG-систем.
Мануал на 3000 страниц в комментарии.
#AWS #Vectors #RAG
———
@tsingular
🔥3⚡2❤1
Blaxel привлек $7,3 млн на создание «AWS для ИИ-агентов»
Стартап из Сан-Франциско строит облачную инфраструктуру специально для ИИ-агентов. Команда из шести основателей уже обрабатывает миллионы запросов агентов ежедневно в 16 регионах мира.
Основная идея: традиционные облачные провайдеры создавались для эпохи SaaS, но ИИ-агенты требуют совершенно другого подхода. Агенты могут подключаться к языковым моделям в одном регионе, API в другом облаке, а базы знаний где-то еще.
Blaxel предлагает виртуальные машины, которые загружаются за 25 миллисекунд, автоматическое масштабирование и API, созданные для потребления ИИ-системами, а не разработчиками.
Компания планирует повторить путь AWS — начать со стартапов и перейти к корпоративным клиентам.
blaxel.ai
Выглядит достаточно перспективно.
При том у них еще и интересная подборка opensource рядом.
Не знаю уж выложат ли саму платформу, но тулы для MCP могут быть полезны.
#Blaxel #Agents #Cloud
------
@tsingular
Стартап из Сан-Франциско строит облачную инфраструктуру специально для ИИ-агентов. Команда из шести основателей уже обрабатывает миллионы запросов агентов ежедневно в 16 регионах мира.
Основная идея: традиционные облачные провайдеры создавались для эпохи SaaS, но ИИ-агенты требуют совершенно другого подхода. Агенты могут подключаться к языковым моделям в одном регионе, API в другом облаке, а базы знаний где-то еще.
Blaxel предлагает виртуальные машины, которые загружаются за 25 миллисекунд, автоматическое масштабирование и API, созданные для потребления ИИ-системами, а не разработчиками.
Компания планирует повторить путь AWS — начать со стартапов и перейти к корпоративным клиентам.
blaxel.ai
Выглядит достаточно перспективно.
При том у них еще и интересная подборка opensource рядом.
Не знаю уж выложат ли саму платформу, но тулы для MCP могут быть полезны.
#Blaxel #Agents #Cloud
------
@tsingular
🔥6👍3🤨1
LG выпустила EXAONE 4.0 - гибридную модель с режимами мышления
Корейская LG AI Research представила EXAONE 4.0 - модель, которая совмещает быстрые ответы и глубокое рассуждение в одной системе. Доступны версии 32B и 1.2B параметров.
Ключевая особенность - переключение между режимами: обычный для быстрых задач и reasoning для сложных вычислений. Модель поддерживает контекст до 128K токенов и работает с инструментами как агент.
По бенчмаркам 32B версия превосходит Qwen3 235B в математике и программировании, оставаясь конкурентоспособной с frontier-моделями. Добавлена поддержка испанского языка наряду с английским и корейским.
Модель использует гибридное внимание (3:1 локальное к глобальному) для эффективной работы с длинными контекстами.
Paper
#EXAONE #LG
------
@tsingular
Корейская LG AI Research представила EXAONE 4.0 - модель, которая совмещает быстрые ответы и глубокое рассуждение в одной системе. Доступны версии 32B и 1.2B параметров.
Ключевая особенность - переключение между режимами: обычный для быстрых задач и reasoning для сложных вычислений. Модель поддерживает контекст до 128K токенов и работает с инструментами как агент.
По бенчмаркам 32B версия превосходит Qwen3 235B в математике и программировании, оставаясь конкурентоспособной с frontier-моделями. Добавлена поддержка испанского языка наряду с английским и корейским.
Модель использует гибридное внимание (3:1 локальное к глобальному) для эффективной работы с длинными контекстами.
Paper
#EXAONE #LG
------
@tsingular
❤1⚡1👍1🎉1