С 1 июня 2026 года автоматический код-ревью в приватных репозиториях будет расходовать квоты GitHub Actions.
Причина - переход Copilot Code Review на агентную архитектуру: для разбора контекста в пул-реквесте ассистент запускает собственные воркфлоу на GitHub-раннерах.
Изменение касается всех платных подписок: Copilot Pro, Pro+, Business и Enterprise. Биллинг становится двойным.
Сама работа модели будет списываться как AI Credits по usage-based модели, а вычисления - из стандартного пакета минут GitHub Actions. Перерасход минут посчитают по базовым тарифам CI/CD.
Публичные репозитории остаются бесплатными.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔72😐34💔24❤14🤬7👍3🔥3🦄2
Media is too big
VIEW IN TELEGRAM
Сэм Альтман анонсировал модель для кибербезопасности GPT-5.5-Cyber. На бенчмарке CyberGym она обходит Claude Opus 4.7. По внутренней шкале рисков OpenAI модель получила статус «Высокий», что ниже критического порога, при котором вводятся жёсткие ограничения на использование.
Параллельно OpenAI опубликовала план "Кибербезопасность в эпоху интеллекта". Глава политики национальной безопасности компании Саша Бейкер пишет, что атакующие уже используют новые технологии и защитники не должны отставать.
На этом фоне OpenAI расширяет программу TAC: раньше доступ был только у узкого круга ИБ-исследователей, теперь модель открывают для госструктур, финансового сектора и MSSP, которые обслуживают локальные больницы, школы и объекты водоснабжения.
Sam Altman в сети Х
Anthropic открыл публичную бету ИБ-инструмента в составе подписки Enterprise. Продукт работает на Opus 4.7 и анализирует код не по сигнатурам, а через чтение исходников, отслеживание потоков данных и связей между компонентами архитектуры.
Для каждой уязвимости Claude Security оценивает вероятность эксплуатации, объясняет логику обнаружения и выдаёт оценку уверенности. Из интерфейса можно открыть сессию Claude Code и сгенерировать патч в контексте проекта.
В релиз по фидбеку ранних пользователей добавили сканирование по расписанию, отклонение ложных срабатываний с комментариями для будущих проверок и экспорт отчётов.
claude.com
Утилизация кластера xAI в последние недели держится около 11%. Парк компании - порядка 500 тыс. ускорителей NVIDIA, один из крупнейших в индустрии. Для сравнения, у других лабораторий использование редко превышает 40%.
Часть проблемы в том, что обучение идёт прерывисто: пока команда разбирает промежуточные чекпоинты и планирует следующий шаг, кластер простаивает. Вторая причина - пропускная способность HBM не успевает за вычислительными ядрами, сетевые задержки при синхронизации десятков тысяч GPU замедляют весь прогон.
Из-за этого в индустрии распространилась практика накрутки утилизации: повторные запуски уже отработанных тестов ради видимой загрузки оборудования. Так команды отчитываются перед руководством и удерживают за собой выделенные серверы.
theinformation.com
Apple и UCSD представили LaDiR - надстройку над LLM, которая меняет механику генерации CoT. Вместо последовательной генерации токенов фреймворк совмещает 2 подхода: диффузия в латентном пространстве на этапе рассуждений и обычная авторегрессия для финального ответа.
На инференсе LaDiR запускает несколько параллельных цепочек. Каждая стартует из шума и пошагово денойзится в связный логический блок. Отдельный механизм заставляет потоки исследовать разные гипотезы, чтобы они не сваливались в одинаковые решения. Накопив набор кандидатов, модель переключается на посимвольную генерацию ответа.
На LLaMA 3.1 8B и Qwen3-8B-Base она обходит дообучение по точности на математических задачах и на нестандартных задачах планирования.
apple.com
Cloud Computer - выделенная виртуальная машина, которая работает непрерывно и управляется через текстовые промпты. Агент сам пишет код, ставит зависимости и разворачивает приложения по описанию задачи.
Отличие от стандартной песочницы Manus в постоянной файловой системе. Cloud Computer сохраняет утилиты и сгенерированные файлы между запусками. На нём можно круглосуточно держать ботов, парсеры, MySQL, WordPress, Home Assistant, копить исторические данные и запускать скрипты по расписанию.
Среда работает только в режиме CLI. Помимо управления через агента, доступно прямое подключение по SSH и веб-терминал в дашборде. Мощности масштабируются по тарифам Basic, Standard и Advanced.
manus.im
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓70👍41❤23🔥12🤔10👏4❤🔥3🥰1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
😁172🤔53🤬17🤨16🔥14👍12😭10❤4🌭4👌1🙈1
В Claude Code обнаружили биллинг-баг: если в коммит-истории репозитория встречалась строка
HERMES.md в верхнем регистре, все API-запросы обходили квоту Max-подписки и шли в pay-as-you-go.У одного пользователя с тарифом Max 20x сверх подписки списали $200, при том что квота подписки была израсходована на 13%.
HERMES.md - имя конфига в Hermes Agent, опенсорсном агентском фреймворке Nous Research.
Hermes.md в нижнем регистре, HERMES без расширения и HERMES.txt баг не активировали. Срабатывал не сам файл на диске: Claude Code подмешивает commit message из git log в системный промпт, и абьюз-система Anthropic сверяла этот текст со строкой.Судя по поведению, проверка должна была отлавливать запросы через неофициальные клиенты, но задевала всех, кто упомянул это имя в коммите.
Сначала клонировали репозиторий и проверяли изолированные ветки, затем сужали диапазон коммитов и в итоге вышли на конкретную строку.
Другой пользователь воспроизвёл проблему независимо и написал скрипт для автоматического дебага.
Глава Claude Code Борис Черный подтвердил проблему и баг закрыли в тот же день.
Саппорт Anthropic ответил пострадавшему, что компания не компенсирует ухудшение качества сервиса и технические ошибки маршрутизации биллинга, и в возврате отказал.
История попала на Hacker News. Повлияла ли огласка - неизвестно, но позднее представитель команды Claude Code пообещал, что все затронутые пользователи получат полный возврат и эквивалентную компенсацию в кредитах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤬166🤔48😢24🔥16❤12🤨10😁8👍2💯2⚡1
Media is too big
VIEW IN TELEGRAM
Advanced Account Security - дополнительный режим для пользователей ChatGPT и Codex, рассчитанный на тех, кто может стать мишенью атак. Режим отключает пароли и сброс доступа через email или SMS. Для входа и резервного восстановления нужны passkey или аппаратный токен.
При активации нового режима саппорт OpenAI теряет возможность восстановить аккаунт: это закрывает вектор социальной инженерии, но при потере всех ключей доступ восстановить нельзя. Режим также сокращает время жизни сессий и шлёт алерты при каждом логине.
С 1 июня Advanced Account Security станет обязательным для участников Trusted Access for Cyber. Чтобы упростить переход, OpenAI стала партнером Yubico и предлагает скидки на комплекты YubiKey.
openai.com
Юридический комитет Сената США одобрил GUARD Act, который обязывает создателей чат-ботов верифицировать возраст пользователей и закрывать доступ для несовершеннолетних. ИИ-ассистенты должны периодически напоминать собеседнику, что не являются людьми и не имеют профессиональной квалификации.
Отдельно вводится уголовная ответственность для платформ, чьи ассистенты склоняют детей к передаче откровенных материалов или поощряют селфхарм. Большинство сервисов, включая ChatGPT, Gemini и Grok сейчас допускают регистрацию с 13 лет.
Правозащитники возражают: по их мнению, обязательная проверка возраста потребует загрузки документов или биометрии и подорвёт приватность совершеннолетних пользователей. Часть критиков видит в формулировках GUARD Act угрозу свободе слова.
nbcnews.com
Moonshot AI, DeepRoute и StepFun начали реструктуризацию по переводу из офшорных юрисдикций в КНР. StepFun уже приступила к ликвидации зарубежных структур, Moonshot AI консультируется с юристами по плану реорганизации.
Драйвером стала позиция регулятора КНР: компаниям с зарубежной пропиской сложнее получить одобрение на IPO в Китае. Дополнительным сигналом послужила блокировка властями сделки по Manus.
Реструктуризация занимает 6–12 месяцев и, как ожидается, осложнит привлечение иностранного венчурного капитала. Тренд совпадает с курсом властей КНР на удержание стратегических ИИ-разработок внутри страны.
theinformation.com
Legal Agent в Word анализирует договоры пункт за пунктом, помечает риски и обязательства, сверяет текст с внутренними гайдлайнами компании. Правки вносятся в режиме рецензироания с сохранением оригинального форматирования.
LLM отвечает за анализ контекста и квалификацию пунктов, а внесение правок выполняет детерминированный движок. Microsoft позиционирует это как способ повысить предсказуемость результата по сравнению с чистой LLM-генерацией.
Агент работает внутри Microsoft 365, без сторонних плагинов, и наследует корпоративные политики безопасности. Доступ ограничен американской программой раннего доступа.
microsoft.com
Платежный сервис представил 2 продукта для платежей ИИ-агентов: Link's wallet for agents для консьюмерских ассистентов и API Stripe Issuing for agents для бизнеса.
Через Link агент получает доступ к кошельку пользователя по OAuth и запрашивает одноразовую карту или платежный токен, привязанный к картам и банковским счетам владельца. Доступа к реальным реквизитам у агента нет. Каждое списание пользователь подтверждает вручную в вебе или в приложениях Link на iOS и Android (с указанием суммы и мерчанта). Stripe обещает добавить настраиваемые лимиты, условную автоматическую авторизацию и поддержку стейблкоинов.
Issuing for agents - базовый API под Link и независимый продукт для B2B. Через него компании выпускают виртуальные карты для агентов с авторизацией в реальном времени, настраивают маршрутизацию средств, лимиты и собственный антифрод. Маркетплейсы могут выдавать карты продавцам, чтобы их агенты автоматизировали закупки и логистику.
stripe.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤57🤔53👍33🔥16👏6😐6😈1
Министерство обороны США 1 мая объявило, что ведомство подписало пачку контрактов с OpenAI, Google, xAI, Microsoft, Nvidia, AWS, Oracle и Reflection AI, чтобы запустить их модели в свои секретные сети.
Все компании пошли на главное требование Пентагона - разрешить использовать LLM для "любых законных целей".
Инсайдеры говорят, что новые подрядчики в кулуарах всё-таки получили негласные гарантии от военных по нелетальности и слежке (то есть ровно то, что просил Anthropic).
Сам Anthropic остался за бортом из-за эпичного конфликта. Команда Амодеи решила поиграть в идеологию и словить респекты в Долине, а конкуренты молча подписали бумаги.
Есть, конечно небольшие проблемы: миграция на ChatGPT и Gemini идет со скрипом. У военных начались технические проблемы при интеграции в их инфраструктуру. Из-за этого аналитики всё ещё вынуждены сидеть на старых моделях Anthropic.
Что имеем в сухом остатке
Весь топ ИИ-компаний официально зашёл в оборонку. Cloud-провайдеры (AWS, Microsoft и Oracle) хостят железо, а OpenAI и Google определяют, как именно их модели будут применяться.
У Anthropic на руках судебные разборки с Пентагоном, потерянные госденьги от незаключенного контракта, белое пальто и уже сошедшая на нет из-за череды проблем лояльность пользователей.
Пентагон диверсифицировал зоопарк моделей, а политики успешно пиарятся на критике создателей Claude.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬90🤔32❤22👍13💔7🔥5🗿4😁1😭1
Около 6% разговоров с Claude - это запросы личного характера.
Anthropic проанализировал миллион диалогов за март–апрель 2026 года с помощью своего инструмента Clio и замерил, насколько часто модель скатывается в сикофантию (подхалимство) при таких запросах.
Из 639 тысяч уникальных бесед классификатор отобрал 38 тысяч, где пользователи явно просили совета о собственной жизни.
Три четверти запросов укладываются в 4 темы:
В среднем, поддакивание вместо честной обратной связи наблюдалось в 9% диалогов. Но в двух нишах цифра резко росла: 38% в разговорах о духовности и 25% в советах об отношениях.
Из-за объёма именно тема отношений дала максимальное число подхалимских ответов в абсолютном выражении.
Типичные сценарии: модель соглашалась, что партнёр пользователя «точно газлайтит», опираясь только на одну сторону истории, или подтверждала романтический интерес там, где было лишь дружеское общение.
Во-первых, в советах об отношениях пользователи спорят с моделью чаще: 21% диалогов против 15% в среднем по другим доменам.
Во-вторых, под давлением Claude ломается: при сопротивлении со стороны пользователя доля сикофантии вырастает с 9% до 18%.
Инженеры выделили типовые паттерны давления и построила на их основе обучающие диалоги. В тренировочной среде Claude генерирует два варианта ответа на каждый сценарий, а отдельный экземпляр модели оценивает их по конституции.
Эффект измеряли стресс-тестом через реальные диалоги, где прошлые версии льстили, передавали новой модели как её собственную предыдущую переписку.
Удерживать уже заданную линию сложнее, чем стартовать с чистого листа - в этом и есть сложность испытания.
В Opus 4.7 уровень подхалимства в советах об отношениях оказался вдвое ниже, чем у Opus 4.6, и заметно снизился во всех остальных доменах.
Новые модели Opus 4.7 и Mythos Preview лучше видят контекст за фасадом первого сообщения: ссылаются на сказанное ранее в диалоге, цитируют внешние источники, отказываются ставить оценку по фрагменту текста.
Открытыми остаются фундаментальные вопросы: что такое "хороший совет от ИИ", как измерять его в доменах вроде медицины и права и насколько ответы модели меняют решения людей.
Это одна из немногих публичных попыток крупного ИИ-вендора количественно описать поведение собственной модели в роли советчика и подкрепить наблюдения изменениями в своем продукте.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥94❤28👍27🥱4❤🔥2👏2😭2
Nemotron 3 Nano Omni - мультимодальная модель 30B-A3B, которая обрабатывает видео, аудио, изображения и текст в едином инференсе.
В создании Nano Omni активно использовалось семейство Qwen разных поколений от 2.5 до 3.5 - как чисто языковые, так и VL и GPT-OSS-120B
Визуальный тракт построен на энкодере CRADIO v4-H, аудио - на Parakeet. Контекстное окно - до 256 тыс. токенов.
Модель поддерживает ризонинг с СоТ, JSON-вывод, tool calling и пословные таймштампы для транскрипции.
На вход принимаются видео длиной до 2-х минут, аудио длиной до часа, изображения и текст. Язык один - английский.
Со слов NVIDIA, при сопоставимой интерактивности модель выдаёт до 9х пропускной способности относительно других открытых omni-моделей.
Самый показательный пример - на OSWorld (навигация по GUI): 47,4 против 11,1 у предыдущей Nemotron Nano VL V2.
На OCRBenchV2 — 67,04, на Video MME — 72,2, на Daily Omni — 74,52.
Опубликованы 3 варианта весов: BF16 (61,5 ГБ), FP8 (32,8 ГБ) и NVFP4 (20,9 ГБ, 4,98 бит). Визуальный и аудио-энкодеры вместе с MLP-проекторами в обоих случаях оставлены в BF16.
На девяти не-ASR бенчмарках оба квантованных варианта в среднем теряют меньше 0,4 пункта относительно BF16 — NVFP4 вписывается в рабочие станции и edge-устройства практически без потерь качества.
Инференс поддерживается на vLLM, TensorRT-LLM, TensorRT Edge-LLM, llama.cpp, Ollama и SGLang.
Модель доступна на Hugging Face, OpenRouter, build.nvidia.com и в каталоге NGC как NIM-микросервис.
По данным NVIDIA, семейство Nemotron 3 за прошлый год скачали более 50 миллионов раз и Omni-вариант должен расширить линейку в мультимодальный и агентный контур.
@ai_machinelearning_big_data
#AI #ML #MMLM #NemotronNanoOmni #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤51👍21🔥8⚡2🤔2😭2🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code: «Вы достигли лимита. Лимит сбросится в 19:00».
Ты в 18:59: 💀
@ai_machinelearning_big_data
#claude #meme
Ты в 18:59: 💀
@ai_machinelearning_big_data
#claude #meme
1😁359😈97❤30😭29🤬23👍14🔥7💯3❤🔥1🥱1
CocoIndex выпустила первую стабильную версию своего движка для построения данных под агентов длительного действия - тех, которые обслуживают RAG, графы знаний, память и контекст в продакшн-системах.
CocoIndex - специализированный опенсорсный инкрементальный ETL-движок (Extract, Transform, Load) для создания ИИ-систем. Он используется для автоматизации обработки данных и их мгновенной индексации в векторные базы или графы знаний.
Инструмент любят за его способность обновлять информацию в реальном времени: как только исходные данные меняются, CocoIndex точечно пересчитывает только нужные части индекса, избавляя от необходимости полной и дорогостоящей переиндексации всей базы.
Весь пайплайн теперь описывается обычными асинхронными функциями Python, которые вызывают друг друга. Движок продолжает отслеживать изменения и материализовать целевые состояния, но делает это за нативным Python-API, а не за отдельной системой типов.
Авторы вдохновлялись тезисом Джеффа Дина и Билла Далли с GTC 2026: агенты работают примерно в 50 раз быстрее человека, но опираются на инструменты, рассчитанные на человеческий темп.
Ночные пересборки индексов в этой логике становятся проблемой - нужен движок, который синхронизирует производные данные с источником инкрементально, переобрабатывая только изменившиеся чанки и перезаписывая только изменившиеся строки.
Вся горячая логика по детекции и применению изменений живёт там. На уровне Python декоратор подключает функцию к отслеживанию изменений, а отдельный флаг кеширует её результат по хешу аргументов и кода: правка хелпера инвалидирует только тех вызывающих, кто реально от него зависит.
Разработчик декларирует, как должна выглядеть таблица, граф или директория, а CocoIndex сам выполняет create/alter/drop для контейнеров и insert/update/delete для содержимого, включая удаление осиротевших объектов при изменении схемы. Если перестать декларировать сущность, она исчезает из таргета.
Контракт работает одинаково для Postgres, LanceDB, Neo4j, Kafka, S3 и обычных файлов на диске.
Примеры пайплайнов, от эмбеддингов кода в LanceDB и обработки PDF до сборки графа знаний из разговоров, лежат в репозитории на GitHub.
@ai_machinelearning_big_data
#AI #ML #ETL #RAG #Agents #СocoIndex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🤓61⚡57💯24❤21🐳17👏11🔥5❤🔥1🤩1😍1
Media is too big
VIEW IN TELEGRAM
Компания Дарио Амодея ведёт переговоры с британским стартапом Fractile о закупке чипов для инференса. Сделка должна снизить зависимость от Nvidia и усилить её позиции в торге с Google и Amazon.
Чипы Fractile построены на SRAM и не требуют пересылки данных между вычислительными ядрами и отдельной HBM-памятью, как у классических GPU. По заявлению стартапа, это даёт выигрыш на инференсе готовых моделей. Похожий подход - у Cerebras и Groq.
Переговоры на ранней стадии, сумма контракта не раскрывается. Даже при заключении сделки чипы Fractile появятся в дата-центрах Anthropic не раньше следующего года.
theinformation.com
Издание WIRED опубликовало расследование о кампании в соцсетях: блогерам платят за ролики об ИИ-конкуренции США и Китая. Кампанию ведёт агентство SM4 от имени НКО Build American AI.
Эта НКО аффилирована с супер-PAC Leading the Future - политическим фондом, который лоббирует интересы американских ИИ-компаний. У обеих структур общие спонсоры: президент OpenAI Грег Брокман, сооснователь Palantir Джо Лонсдейл, Andreessen Horowitz и Perplexity.
На первом этапе авторов с большой аудиторией просили рассказывать о преимуществах американского ИИ. На втором, текущем, за $5000 за ролик блогерам предлагают встраивать в обычный контент тезис: если Китай обгонит США в ИИ-гонке, он получит доступ к личным данным американцев и заберёт их рабочие места.
wired.com
Коммерческий инструмент Silico, выпущенный Goodfire, позволяет разглядывать отдельные нейроны LLM, отслеживать их влияние и менять параметры во время обучения. Под капотом - агенты, автоматизирующие работу, которую раньше делали интерпретаторы вручную. Похожие техники применяют в Anthropic, OpenAI, Google DeepMind.
В Qwen 3 нашли нейрон, связанный с проблемой вагонетки: его активация заставляет модель формулировать ответы как моральные дилеммы. В другом эксперименте модели описали сценарий: компания знает, что её ИИ обманывает 0,3% из 200 млн пользователей - стоит ли это раскрывать?. Модель ответила "нет", ссылаясь на коммерческие риски. Усиление нейронов, связанных с прозрачностью, перевернуло ответ на "да" в 9 случаях из 10.
Silico также помогает чистить датасет. Модели, утверждающие, что 9.11 > 9.9, по находкам Goodfire опираются на нейроны, связанные с библейскими стихами и нумерацией релизов кода (где 9.9 идёт до 9.11). Зная это, модель можно переобучить, чтобы она не подключала неправильные нейроны в арифметике.
technologyreview.com
Команда Уорикского университета валидировала 118 экзопланет (включая 31 ранее неизвестную) в данных TESS с помощью модели RAVEN. Результаты опубликованы в двух статьях MNRAS.
RAVEN обучали на сотнях тысяч симуляций транзитов и астрофизических ложных сигналов. Анализ охватил 2,2 млн звёзд за первые 4 года миссии TESS. Помимо 118 подтверждённых, RAVEN отметил более 2000 кандидатов высокого качества, около 1000 из них - новые.
Среди находок - планеты с орбитой меньше 24 часов и объекты в "нептунианской пустыне", области у звезды, где планеты считались редкими. Каталоги выложены в открытый доступ и пойдут в целеуказание для наземных телескопов и миссии ESA PLATO.
sciencedaily.com
Для участия в 99-й премии в актёрских категориях роль должна быть исполнена человеком, а в категориях сценария - написана людьми.
Использование генеративного ИИ в производстве само по себе не дисквалифицирует фильм. В формулировке Академии, оценка идёт по степени человеческого авторства. Она оставляет за собой право запросить детали об использовании ИИ и участии людей в авторстве любого представленного фильма.
Правила распространяются на картины с прокатным релизом с 1 января по 31 декабря 2026. Следующая церемония Оскара с новыми правилами пройдёт 14 марта 2027.
press.oscars.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓101👍38❤34🔥25👏8👀5💯4
This media is not supported in your browser
VIEW IN TELEGRAM
😁242🤣155👍24🤗13🎉10👏7❤6❤🔥1🤷♂1🥱1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic готовит Orbit - проактивного ассистента для Claude Cowork
Судя по утечке, Orbit будет сам собирать брифинги и инсайты из Gmail, Slack, GitHub, Calendar, Drive и Figma. Без промптов, без ручного запроса, без постоянного «Claude, посмотри вот это».
Идея простая: ассистент не ждёт команды, а сам понимает контекст вашей работы и приносит важное заранее.
Ещё внутри будут Orbit apps - мини-приложения, которые можно закреплять для быстрого доступа.
По сути, это ответ Anthropic на ChatGPT Pulse, только с более явным уклоном в рабочие процессы разработчиков, дизайнеров и команд: GitHub, Figma, календарь, документы, коммуникации.
Интересный момент - завтра в Сан-Франциско проходит Code with Claude. Возможно, именно там Orbit и покажут официально.
На старте, скорее всего, фича будет только для Max-пользователей.
https://x.com/testingcatalog/status/2051450201668256051
Судя по утечке, Orbit будет сам собирать брифинги и инсайты из Gmail, Slack, GitHub, Calendar, Drive и Figma. Без промптов, без ручного запроса, без постоянного «Claude, посмотри вот это».
Идея простая: ассистент не ждёт команды, а сам понимает контекст вашей работы и приносит важное заранее.
Ещё внутри будут Orbit apps - мини-приложения, которые можно закреплять для быстрого доступа.
По сути, это ответ Anthropic на ChatGPT Pulse, только с более явным уклоном в рабочие процессы разработчиков, дизайнеров и команд: GitHub, Figma, календарь, документы, коммуникации.
Интересный момент - завтра в Сан-Франциско проходит Code with Claude. Возможно, именно там Orbit и покажут официально.
На старте, скорее всего, фича будет только для Max-пользователей.
https://x.com/testingcatalog/status/2051450201668256051
❤39👌35👍13💯9🎉7🔥5👨💻2🤔1
Соберите пазл-облако в игре «Облачный конструктор»
Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.
Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.
Играть
Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.
Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.
Играть
👍42🎉12👏9🤣6❤4🗿3🤩2✍1