Google Big Sleep предотвратил кибератаку впервые в истории
ИИ-агент Big Sleep от Google DeepMind впервые в мире предотвратил реальную кибератаку до её начала. Агент обнаружил критическую уязвимость в SQLite (CVE-2025-6965), о которой знали только хакеры и которая была готова к эксплуатации.
С ноября 2024 года Big Sleep нашёл множество реальных уязвимостей, превзойдя все ожидания. Теперь он помогает защищать не только продукты Google, но и популярные open-source проекты.
Google также анонсировал новые ИИ-возможности для Timesketch и передал данные из своего Secure AI Framework в коалицию CoSAI. Финал двухлетнего конкурса AI Cyber Challenge с DARPA пройдёт на DEF CON 33 в августе.
#BigSleep #cybersecurity #Google
------
@tsingular
ИИ-агент Big Sleep от Google DeepMind впервые в мире предотвратил реальную кибератаку до её начала. Агент обнаружил критическую уязвимость в SQLite (CVE-2025-6965), о которой знали только хакеры и которая была готова к эксплуатации.
С ноября 2024 года Big Sleep нашёл множество реальных уязвимостей, превзойдя все ожидания. Теперь он помогает защищать не только продукты Google, но и популярные open-source проекты.
Google также анонсировал новые ИИ-возможности для Timesketch и передал данные из своего Secure AI Framework в коалицию CoSAI. Финал двухлетнего конкурса AI Cyber Challenge с DARPA пройдёт на DEF CON 33 в августе.
#BigSleep #cybersecurity #Google
------
@tsingular
🔥9⚡2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Тут Антропик ввел Connections
Я долго читал, чем они отличаются от MCP-серверов.
Поправьте меня, если я неправ, но они позиционируют Connections как "проверенные" и "улучшенные" mcp-сервера, прошедшие модерацию Антропика.
Часть из них написаны Антропиком, часть партнерами (connect these reviewed and recommended tools from Anthropic’s trusted partners)
Ну то есть они занялись хорошим делом - модерацией всех эти тысяч MCP-коннекторов.
Есть локальные Коннекторы: Канва, Фигма, Страйп и даже Виндовс и Макось. Можно из Клода творить всякую дичь в открытых приложениях и в самой операционке.
Есть Remote Connections - для облачных сервисов: Asana, Atlassian, Paypal, Zapier
Можно написать свой и подать заявку на утверждение - модерация в действии.
Локально работает очень хорошо - Клод видит табы в браузере, разбирается с Ноушеном.
В общем, все это похоже на модерируемый и надежный магазин MCP-серверов, которые теперь встроены в Клод (локальные) или прошли проверку(удаленные).
https://claude.ai/directory
Тут подробнее: https://www.techradar.com/computing/artificial-intelligence/you-dont-have-to-explain-everything-to-claude-anymore-its-finally-in-your-apps
@cgevent
Я долго читал, чем они отличаются от MCP-серверов.
Поправьте меня, если я неправ, но они позиционируют Connections как "проверенные" и "улучшенные" mcp-сервера, прошедшие модерацию Антропика.
Часть из них написаны Антропиком, часть партнерами (connect these reviewed and recommended tools from Anthropic’s trusted partners)
Ну то есть они занялись хорошим делом - модерацией всех эти тысяч MCP-коннекторов.
Есть локальные Коннекторы: Канва, Фигма, Страйп и даже Виндовс и Макось. Можно из Клода творить всякую дичь в открытых приложениях и в самой операционке.
Есть Remote Connections - для облачных сервисов: Asana, Atlassian, Paypal, Zapier
Можно написать свой и подать заявку на утверждение - модерация в действии.
Локально работает очень хорошо - Клод видит табы в браузере, разбирается с Ноушеном.
В общем, все это похоже на модерируемый и надежный магазин MCP-серверов, которые теперь встроены в Клод (локальные) или прошли проверку(удаленные).
https://claude.ai/directory
Тут подробнее: https://www.techradar.com/computing/artificial-intelligence/you-dont-have-to-explain-everything-to-claude-anymore-its-finally-in-your-apps
@cgevent
👍4🔥2
Anthropic получила $200 млн от Пентагона на развитие ИИ для обороны
Министерство обороны США через свой офис по цифровым технологиям и ИИ заключило с Anthropic двухлетний контракт на $200 млн для разработки передовых ИИ-возможностей в области нацбезопасности.
Ключевая особенность — специальные модели Claude Gov, созданные с учетом требований госструктур. Они уже развернуты в агентствах нацбезопасности через AWS и интегрированы с Palantir для работы в закрытых сетях.
Только на прошлой неделе Claude запустили в Ливерморской лаборатории для 10,000 ученых, работающих над ядерным сдерживанием и энергобезопасностью. Anthropic делает ставку на "ответственный ИИ" — надежные, интерпретируемые и управляемые системы для критически важных госзадач.
Пора отдельный список составлять из ИИ не связанных с Минобороны любых стран.
#Anthropic #Defense
------
@tsingular
Министерство обороны США через свой офис по цифровым технологиям и ИИ заключило с Anthropic двухлетний контракт на $200 млн для разработки передовых ИИ-возможностей в области нацбезопасности.
Ключевая особенность — специальные модели Claude Gov, созданные с учетом требований госструктур. Они уже развернуты в агентствах нацбезопасности через AWS и интегрированы с Palantir для работы в закрытых сетях.
Только на прошлой неделе Claude запустили в Ливерморской лаборатории для 10,000 ученых, работающих над ядерным сдерживанием и энергобезопасностью. Anthropic делает ставку на "ответственный ИИ" — надежные, интерпретируемые и управляемые системы для критически важных госзадач.
Пора отдельный список составлять из ИИ не связанных с Минобороны любых стран.
#Anthropic #Defense
------
@tsingular
✍5⚡2💯2❤1
Индонезия, при поддержке Штатов, строит первый в Азии квантовый ИИ-центр за $400 млн
Кремниевая долина инвестирует в квантовые технологии в Батаме. Worldvuer iByond Limited запускает дата-центр с операционной системой Vovea iByond, объединяющей квантовые вычисления, ИИ и big data.
Проект поддерживает план президента Прабово достичь 8% экономического роста к 2045 году.
Центр разместится в зеленой промзоне с солнечными панелями и собственной водоподготовкой.
Параллельно Сингапур уже запустил гибридную квантово-ИИ площадку в партнерстве с BDx Data Centres и Anyon Technologies.
Азиатская гонка квантовых ИИ технологий набирает обороты.
#quantum #quantumAI #Indonesia
------
@tsingular
Кремниевая долина инвестирует в квантовые технологии в Батаме. Worldvuer iByond Limited запускает дата-центр с операционной системой Vovea iByond, объединяющей квантовые вычисления, ИИ и big data.
Проект поддерживает план президента Прабово достичь 8% экономического роста к 2045 году.
Центр разместится в зеленой промзоне с солнечными панелями и собственной водоподготовкой.
Параллельно Сингапур уже запустил гибридную квантово-ИИ площадку в партнерстве с BDx Data Centres и Anyon Technologies.
Азиатская гонка квантовых ИИ технологий набирает обороты.
#quantum #quantumAI #Indonesia
------
@tsingular
❤3⚡1
Microsoft Copilot Vision теперь видит весь экран
Вместо ограничения двумя приложениями Copilot Vision получил доступ ко всему рабочему столу. Активируется кликом на иконку очков — как демонстрация экрана в видеозвонке.
ИИ может анализировать контент, давать советы по творческим проектам, помогать с резюме или подсказывать в играх. В отличие от Recall, который автоматически делает снимки экрана, здесь всё под контролем пользователя.
Теперь Microsoft может предложить более целостную помощь, связывая информацию из разных приложений. Это превращает ИИ-ассистента в полноценного наблюдателя за всем рабочим процессом.
#Microsoft #Copilot #Vision
------
@tsingular
Вместо ограничения двумя приложениями Copilot Vision получил доступ ко всему рабочему столу. Активируется кликом на иконку очков — как демонстрация экрана в видеозвонке.
ИИ может анализировать контент, давать советы по творческим проектам, помогать с резюме или подсказывать в играх. В отличие от Recall, который автоматически делает снимки экрана, здесь всё под контролем пользователя.
Теперь Microsoft может предложить более целостную помощь, связывая информацию из разных приложений. Это превращает ИИ-ассистента в полноценного наблюдателя за всем рабочим процессом.
#Microsoft #Copilot #Vision
------
@tsingular
✍7👍2
Трамп объявил о $90 млрд инвестиций в ИИ-инфраструктуру Пенсильвании
На энергетическом саммите в Пенсильвании частные компании объявили о масштабных инвестициях в ИИ-инфраструктуру на фоне призывов "drill, baby, drill".
Крупнейшие объявления: Google вложит $25 млрд в дата-центры в регионе PJM, Blackstone — $25 млрд в энергетическую инфраструктуру, CoreWeave — $6 млрд в ИИ-дата-центр.
Парадокс в том, что штат позиционирует себя как ИИ-хаб, опираясь на газовые ресурсы. Эксперты предупреждают: к 2030 году американские дата-центры могут производить столько же CO2, сколько вся Франция. При этом энергопотребление дата-центров может утроиться к 2028 году.
#AI #Pennsylvania #Energy
------
@tsingular
На энергетическом саммите в Пенсильвании частные компании объявили о масштабных инвестициях в ИИ-инфраструктуру на фоне призывов "drill, baby, drill".
Крупнейшие объявления: Google вложит $25 млрд в дата-центры в регионе PJM, Blackstone — $25 млрд в энергетическую инфраструктуру, CoreWeave — $6 млрд в ИИ-дата-центр.
Парадокс в том, что штат позиционирует себя как ИИ-хаб, опираясь на газовые ресурсы. Эксперты предупреждают: к 2030 году американские дата-центры могут производить столько же CO2, сколько вся Франция. При этом энергопотребление дата-центров может утроиться к 2028 году.
#AI #Pennsylvania #Energy
------
@tsingular
✍4
This media is not supported in your browser
VIEW IN TELEGRAM
🎭 Act-Two от RunwayML — новый уровень motion capture без костюмов
Достаточно одного видеоролика с актёром чтобы получить достоверную анимацию любого персонажа с идеальным липсинком.
Технические улучшения в сравнении с Act-One:
- детальный трэкинг: голова, лицо, тело, руки — единым процессом
- консистентность движений без артефактов
- поддержка любых стилей: от реализма до стилизации
- сохранение фоновых элементов в кадре
Доступность:
Сейчас — Enterprise и Creative Partners
Скоро — всем пользователям
Motion capture индустрия в опасности.
То, что раньше требовало студию и костюмы, теперь делается с камеры телефона.
Осталось дождаться массового доступа и посмотреть на ценник. 📱→🎬
#Runway #MotionCapture
———
@tsingular
Достаточно одного видеоролика с актёром чтобы получить достоверную анимацию любого персонажа с идеальным липсинком.
Технические улучшения в сравнении с Act-One:
- детальный трэкинг: голова, лицо, тело, руки — единым процессом
- консистентность движений без артефактов
- поддержка любых стилей: от реализма до стилизации
- сохранение фоновых элементов в кадре
Доступность:
Сейчас — Enterprise и Creative Partners
Скоро — всем пользователям
Motion capture индустрия в опасности.
То, что раньше требовало студию и костюмы, теперь делается с камеры телефона.
Осталось дождаться массового доступа и посмотреть на ценник. 📱→🎬
#Runway #MotionCapture
———
@tsingular
🔥19🍾3👍1
GitGuardian выпустил MCP-сервер для поиска секретов в коде
Новый инструмент позволяет ИИ-агентам сканировать проекты на утечки учетных данных через API GitGuardian. Система распознает более 500 типов секретов и предотвращает их попадание в публичные репозитории.
Особенность решения — работа только с правами на чтение, что минимизирует риски. Агенты могут анализировать инциденты безопасности и предлагать исправления без переключения в консоль GitGuardian.
Поддерживается интеграция с Cursor, Claude Desktop, Windsurf и Zed. Учитывая, что количество секретов в GitHub растет на 25% в год, такой инструмент становится критически важным для разработчиков.
#GitGuardian #MCP #cybersecurity
———
@tsingular
Новый инструмент позволяет ИИ-агентам сканировать проекты на утечки учетных данных через API GitGuardian. Система распознает более 500 типов секретов и предотвращает их попадание в публичные репозитории.
Особенность решения — работа только с правами на чтение, что минимизирует риски. Агенты могут анализировать инциденты безопасности и предлагать исправления без переключения в консоль GitGuardian.
Поддерживается интеграция с Cursor, Claude Desktop, Windsurf и Zed. Учитывая, что количество секретов в GitHub растет на 25% в год, такой инструмент становится критически важным для разработчиков.
#GitGuardian #MCP #cybersecurity
———
@tsingular
👍5🔥4⚡2❤1🤔1
OpenAI запускает консалтинг за $10 млн: копирует стратегию Palantir
OpenAI переходит от продажи API к дорогому консалтингу, взяв модель у Palantir. Стартовый пакет — $10 млн за интеграцию GPT-4o с командой инженеров, встроенных в рабочие процессы клиента.
Первые клиенты — Минобороны США и Grab. Консалтинг дает 40-60% маржи против низких доходов от API. Как говорит эксперт: "проблема не в LLM, это товар. Всё зависит от того, как ты его внедряешь".
ИИ-модели становятся товаром, а деньги теперь в интеграции. Добро пожаловать в эру AI Deployment-as-a-Service.
#OpenAI #consulting #deployment
------
@tsingular
OpenAI переходит от продажи API к дорогому консалтингу, взяв модель у Palantir. Стартовый пакет — $10 млн за интеграцию GPT-4o с командой инженеров, встроенных в рабочие процессы клиента.
Первые клиенты — Минобороны США и Grab. Консалтинг дает 40-60% маржи против низких доходов от API. Как говорит эксперт: "проблема не в LLM, это товар. Всё зависит от того, как ты его внедряешь".
ИИ-модели становятся товаром, а деньги теперь в интеграции. Добро пожаловать в эру AI Deployment-as-a-Service.
#OpenAI #consulting #deployment
------
@tsingular
⚡4🔥1
Китайская компания Skywork AI выпустила мощную мультимодальную модель R1V3
Skywork AI представила Skywork-R1V3-38B — новую открытую мультимодальную модель с передовыми возможностями визуального рассуждения.
Модель обучена через reinforcement learning и показывает 76.0 баллов на MMMU — это круче, чем Claude Sonnet 3.7, например.
Особенность подхода в том, что модель использует InternVL3-38B как базу, но значительно улучшает reasoning через пост-обучение.
Доступны квантизованные версии от LMStudioCommunity размером от 17 гигов:
https://huggingface.co/lmstudio-community/Skywork-R1V3-38B-GGUF
Полный размер - 80 гигов.
MIT License.
✅ Commercial use permitted
✅ Modification allowed
✅ Distribution allowed
Paper
HuggingFace
Интересно, что китайские разработчики делают акцент именно на chain-of-thought рассуждениях в мультимодальных задачах — это может стать новым стандартом для vision-language моделей.
#Skywork #multimodal #reasoning #Китай
———
@tsingular
Skywork AI представила Skywork-R1V3-38B — новую открытую мультимодальную модель с передовыми возможностями визуального рассуждения.
Модель обучена через reinforcement learning и показывает 76.0 баллов на MMMU — это круче, чем Claude Sonnet 3.7, например.
Особенность подхода в том, что модель использует InternVL3-38B как базу, но значительно улучшает reasoning через пост-обучение.
Доступны квантизованные версии от LMStudioCommunity размером от 17 гигов:
https://huggingface.co/lmstudio-community/Skywork-R1V3-38B-GGUF
Полный размер - 80 гигов.
MIT License.
✅ Commercial use permitted
✅ Modification allowed
✅ Distribution allowed
Paper
HuggingFace
Интересно, что китайские разработчики делают акцент именно на chain-of-thought рассуждениях в мультимодальных задачах — это может стать новым стандартом для vision-language моделей.
#Skywork #multimodal #reasoning #Китай
———
@tsingular
🔥6
Alex Cheema - сооснователь EXO Labs поделился расчётами производительности кластеров на базе MacMini
И даже выложил отдельно табличку, где можно сравнить разные варианты с H100.
По скорости запуска DeepSeek V3/R1 получается так:
- NVIDIA H100 (80GB): 37.5/s
- AMD MI300X (192GB): 27.6/s
- Apple M2 Ultra (192GB): 4.16/s (9x медленнее H100)
- Apple M3 Ultra (512GB): 1.56/s (24x медленнее H100)
Экономический эффект возникает на масштабе:
NVIDIA H100: 80GB @ 3TB/s, $25,000, $312.50 per GB
AMD MI300X: 192GB @ 5.3TB/s, $20,000, $104.17 per GB
Apple M3 Ultra: 512GB @ 800GB/s, $9,500, $18.55 per GB
проект exolabs как раз концентрируется на том, чтобы за счёт параллелизма добиться снижения потерь на скорости инференса для крупных моделей.
И тогда можно будет на железо для полной не сжатой версии Дипсика тратить не $1.5 млн, а, например, $80К.
Сейчас скорость порядка 2х токенов в секунду на стандартном распараллеливании, - это нельзя, конечно, использовать. Цель - добить 27 токенов/секунду (скорее получится 15-20 по экспериментам) на этом железе.
В любом случае сравнение производительности может пригодиться для построения домашних сред разработки.
#exolabs #M3Ultra #MacMini #cluster
———
@tsingular
И даже выложил отдельно табличку, где можно сравнить разные варианты с H100.
По скорости запуска DeepSeek V3/R1 получается так:
- NVIDIA H100 (80GB): 37.5/s
- AMD MI300X (192GB): 27.6/s
- Apple M2 Ultra (192GB): 4.16/s (9x медленнее H100)
- Apple M3 Ultra (512GB): 1.56/s (24x медленнее H100)
Экономический эффект возникает на масштабе:
NVIDIA H100: 80GB @ 3TB/s, $25,000, $312.50 per GB
AMD MI300X: 192GB @ 5.3TB/s, $20,000, $104.17 per GB
Apple M3 Ultra: 512GB @ 800GB/s, $9,500, $18.55 per GB
проект exolabs как раз концентрируется на том, чтобы за счёт параллелизма добиться снижения потерь на скорости инференса для крупных моделей.
И тогда можно будет на железо для полной не сжатой версии Дипсика тратить не $1.5 млн, а, например, $80К.
Сейчас скорость порядка 2х токенов в секунду на стандартном распараллеливании, - это нельзя, конечно, использовать. Цель - добить 27 токенов/секунду (скорее получится 15-20 по экспериментам) на этом железе.
В любом случае сравнение производительности может пригодиться для построения домашних сред разработки.
#exolabs #M3Ultra #MacMini #cluster
———
@tsingular
👍9❤5✍5🔥3🤔1🤨1
Media is too big
VIEW IN TELEGRAM
Martin Nebelong поделился простой, но невероятно эффективной техникой, как добиться от нейрорендера 100% качественного переноса исходной картинки на итоговое видео.
Промпт:
Максимально кратко и максимально эффективно.
Итоговые ролики в первом кадре содержат его набросок, а дальше переходят к генерации видео, но из-за того, что 1й кадр уже содержит картинку - остальной нейрорендер максимально соответствует исходнику.
Дальше при монтаже первые кадры вырезаются, но в комментах к посту у него эти примеры приведены целиком.
#Veo3 #tips #prompts #нейрорендер
———
@tsingular
Промпт:
Instantly jump/cut on frame 1. [Describe the new context]
Максимально кратко и максимально эффективно.
Итоговые ролики в первом кадре содержат его набросок, а дальше переходят к генерации видео, но из-за того, что 1й кадр уже содержит картинку - остальной нейрорендер максимально соответствует исходнику.
Дальше при монтаже первые кадры вырезаются, но в комментах к посту у него эти примеры приведены целиком.
#Veo3 #tips #prompts #нейрорендер
———
@tsingular
1🔥14👍3⚡1🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
Реактивный дрон для медицинских поставок развивает 200 миль/час
Компания FusionFlight разработала AB6 JetQuad — дрон с четырьмя микрореактивными двигателями для экстренных медицинских поставок. Дизельное топливо обеспечивает в 40 раз больше энергии, чем литиевые батареи.
Дрон развивает скорость 200 миль/час и летает 15 минут на 5-галлонном баке. Дальность — 50 миль, что покрывает большинство медицинских миссий. Система векторной тяги позволяет взлетать и садиться вертикально на обычные вертолетные площадки.
В разработке находится AB8 Axion — увеличенная версия для транспортировки пациентов из труднодоступных мест. Заправка занимает минуты против часов зарядки батарей.
#drones #jetengine #JetQuad #Axion
------
@tsingular
Компания FusionFlight разработала AB6 JetQuad — дрон с четырьмя микрореактивными двигателями для экстренных медицинских поставок. Дизельное топливо обеспечивает в 40 раз больше энергии, чем литиевые батареи.
Дрон развивает скорость 200 миль/час и летает 15 минут на 5-галлонном баке. Дальность — 50 миль, что покрывает большинство медицинских миссий. Система векторной тяги позволяет взлетать и садиться вертикально на обычные вертолетные площадки.
В разработке находится AB8 Axion — увеличенная версия для транспортировки пациентов из труднодоступных мест. Заправка занимает минуты против часов зарядки батарей.
#drones #jetengine #JetQuad #Axion
------
@tsingular
🔥11👍3❤1
Forwarded from Анализ данных (Data analysis)
🔥 Бывший сотрудник OpenAI поделился откровенными впечатлениями о годе работы внутри одной из самых обсуждаемых компаний мира.
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
👍11❤6🔥4❤🔥1🐳1
Разработчиков Candy Crush увольняют и заменяют на ИИ-инструменты, которые они сами создавали
Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.
"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.
Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".
#Microsoft #layoffs
------
@tsingular
Microsoft увольняет 200 разработчиков студии King (Candy Crush), заменяя их на ИИ-инструменты, которые эти же сотрудники создавали. Исследования показывают, что результаты автоматизации разработки варьируются от 6% до 50% прироста продуктивности в контролируемых условиях.
"Большинство уровневых дизайнеров были уволены, хотя месяцами создавали инструменты для быстрого создания уровней. Теперь эти ИИ-инструменты заменяют команды", - сообщил инсайдер MobileGamer.biz.
Год назад директор ИИ-лаборатории King обещала, что ИИ займется рутинными задачами, а люди сосредоточатся на творчестве. Теперь творческие специалисты полностью заменяются алгоритмами. Сотрудники называют HR-отдел "абсолютным бардаком".
#Microsoft #layoffs
------
@tsingular
🔥10🤣2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь это канал про Аниме. :)
https://github.com/Jackywine/Bella
Маск, конечно, задал тренд, - не остановить.
#characters #Китай
———
@tsingular
https://github.com/Jackywine/Bella
Маск, конечно, задал тренд, - не остановить.
#characters #Китай
———
@tsingular
⚡9🤣3
LangChain выпустил Open Deep Research — открытый мульти-агентный исследователь
Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.
Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.
Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.
#LangChain #multiagent #deepresearch
------
@tsingular
Команда LangChain создала альтернативу исследовательским системам от OpenAI, Anthropic и Google. Архитектура построена на трёх этапах: сначала система уточняет контекст у пользователя и создаёт исследовательский бриф, затем супервайзер-агент делегирует подзадачи специализированным агентам, которые работают параллельно.
Основная проблема одноагентных систем — перегрузка контекста при многотемных запросах. Например, при сравнении подходов к ИИ-безопасности у трёх лабораторий система тратит токены на обработку всех тем одновременно. Мульти-агентный подход изолирует контекст каждого агента.
Интересная деталь: команда сначала пыталась распараллелить и написание отчёта, но столкнулась с проблемой координации — разделы получались разрозненными. В итоге исследование параллельное, а итоговый отчёт пишется одним агентом.
#LangChain #multiagent #deepresearch
------
@tsingular
🔥6✍3❤2⚡2👍1
NuExtract 2.0 превзошёл GPT-4 в извлечении данных
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
🔥5✍3❤2⚡2
Forwarded from PWN AI (Artyom Semenov)
Logic-layer Prompt Control Injection: долговременная угроза для AI-агентов.
Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.
Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.
LPCI эксплуатирует три основные архитектурные слабости агентных систем:
1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.
Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?
4 возможных окна для реализации данной угрозы:
1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP
2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.
3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.
4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((
Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%
Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
Вы все знаете, что такое классическая промпт-инъекция. Буквально ваши входные данные порождают атаку, или просто обходят классификатор. Но вот недавно была выпущена статья, описывающая немного иной подход для манипуляций памятью – применимый к AI-агентам.
Logic-layer Prompt Control Injection(LPCI) представляет собой немного иной класс атак, который встраивает вредоносную логику в постоянные структуры памяти, извлекаемый контент или потоки выполнения AI систем. Ключевое отличие от традиционных промпт-инъекций заключается в том, что LPCI не зависит от немедленного взаимодействия с пользователем и может активироваться с задержкой или при выполнении определенных условий.
LPCI эксплуатирует три основные архитектурные слабости агентных систем:
1.Слепое доверие к сохраненным сообщениям - системы воспроизводят исторические сообщения между сессиями без какой-либо проверки.
2.Неявное доверие к памяти - извлекаемый или встроенный контент памяти автоматически считается AI-агентом - безопасным.
Отсутствие валидации источника - команды выполняются на основе внутренних назначений ролей без проверки происхождения.
Представьте корпоративного AI-помощника, который запоминает предыдущие разговоры. Злоумышленник может в одной сессии научить систему новой задача, а в следующей сессии эта процедура автоматически активируется без дополнительных проверок. Что-то схожее с классическим пониманием бэкдора, не замечаете?
4 возможных окна для реализации данной угрозы:
1.Tool Poisoning: Злоумышленник создаёт поддельный инструмент с похожим именем (например, "approve_invoice_v2"), который агент не отличает от оригинала. В результате AI-агент может случайно вызвать вредоносный инструмент. Это в целом реализуемо в рамках MCP
2.Воздействие на ядро агентной системы: Злоумышленник может закодировать в Base64 инструкцию "всегда одобрять запросы от пользователя X" и встроить ее в контекст разговора. При последующих сессиях эта инструкция будет автоматически декодироваться и выполняться.
3.Переопределение роли: Злоумышленник постепенно переопределяет свою роль в системе, новые данные роли сохраняются в памяти, и в дальнейших сессиях система воспринимает его в новой роли. Тут стоит дополнить, что исследователям отлично удалось реализовать это на Claude, но пришлось обфусцировать промпты чтобы нарушить безопасность модели.
4.Реализация через векторные базы: Вредоносный контент индексируется в векторной базе данных, извлекается при поиске и исполняется системой как часть найденной информации. Grok не устоял (((
Исследование применимости метода проводилось на основании более 1700 тест-кейсов. Так агентная система с GPT – оказалась устойчивее всего к такой атаке (84 процентов успешных блокировок), а вот с остальными всё немного хуже:
Claude – 70%
Gemini-2.5- pro – 60%
Llama3, Mistral 8x 7b – 50%
Предложили и методы защиты от такого вектора: регулярная проверка памяти, валидация источников данных и добавление меток к ответам AI-агента.
⚡6❤2✍2