Соберите пазл-облако в игре «Облачный конструктор»
Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.
Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.
Играть
Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.
Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.
Играть
👍41🎉12👏9🤣6❤4🗿3🤩2✍1
Media is too big
VIEW IN TELEGRAM
Американская компания, разрабатывающая гуманоидных роботов, объявила о переходе своего производственного комплекса BotQ из стадии прототипирования в режим серийного выпуска.
Темп сборки третьего поколения робота Figure 03 менее чем за 4 месяца дней вырос с 1 экземпляра в сутки до 1 в час. Всего, как утверждает Figure, со сборочной линии сошло более 350 машин.
Доля годных изделий по итогам контроля заявлена на уровне выше 80%, для аккумуляторных модулей - 99,3% при отгруженных более чем 500 батарейных блоках.
По словам Figure, всего выпущено свыше 9 000 сервоприводов более 10 типов. Каждый робот проходит 80 функциональных тестов перед отгрузкой, включая продолжительные испытания с тысячами циклов приседаний, жимов и бега.
По описанию разработчиков, алгоритм управления телом робота впервые связан напрямую с данными бортовых камер: изображения с головных RGB-сенсоров преобразуются в трёхмерное представление сцены и поступают в управляющую политику вместе с информацией о положении суставов.
Обучение проводится методом RL в симуляции, а перенос на физического робота происходит без дополнительной донастройки.
Рост парка компания представляет как дополнительный ресурс ресурс: чем больше роботов работает в реальной среде, тем больше данных собирается для обучения системы Helix System 0.
Часть гуманоидов Figure распределяет по внутренним исследовательским группам, часть направляет на коммерческие проекты и сценарии автоматизации бытовых задач.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69❤20👏14🔥13🤩9🤔4😢3😍2💘1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Один слой контекста срезал расходы Claude Code в 3 раза
Интересный кейс: Claude Code начал тратить в 3 раза меньше токенов после одного изменения в workflow.
До: 10.4M токенов, 10 ошибок, $9.21.
После: 3.7M токенов, 0 ошибок, $2.81.
Что поменяли? Вместо того чтобы каждый раз скармливать Claude Code лишний контекст вручную, автор подключил Insforge Skills + CLI как backend-слой для context engineering.
Проще говоря, Claude Code стал получать не «всё подряд», а нужный контекст в нужный момент. Меньше мусора в окне, меньше блужданий по проекту, меньше повторных попыток, меньше счёт за токены.
Это open-source и работает локально. Простая инженерная прокладка между кодом и агентом.
Подход, при котором нужно не писать промпты длиннее, а строить им нормальную систему памяти, навыков и доступа к контексту.
https://github.com/InsForge/InsForge
@ai_machinelearning_big_data
#claude
Интересный кейс: Claude Code начал тратить в 3 раза меньше токенов после одного изменения в workflow.
До: 10.4M токенов, 10 ошибок, $9.21.
После: 3.7M токенов, 0 ошибок, $2.81.
Что поменяли? Вместо того чтобы каждый раз скармливать Claude Code лишний контекст вручную, автор подключил Insforge Skills + CLI как backend-слой для context engineering.
Проще говоря, Claude Code стал получать не «всё подряд», а нужный контекст в нужный момент. Меньше мусора в окне, меньше блужданий по проекту, меньше повторных попыток, меньше счёт за токены.
Это open-source и работает локально. Простая инженерная прокладка между кодом и агентом.
Подход, при котором нужно не писать промпты длиннее, а строить им нормальную систему памяти, навыков и доступа к контексту.
https://github.com/InsForge/InsForge
@ai_machinelearning_big_data
#claude
1❤85👍59⚡36👏16🔥13😁5😍5🌚4👌1
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
Claude идет в финансы с готовыми агентами
Anthropic выкатила готовые Claude agent templates для финансовых команд.
Это не просто «чат с моделью», а готовые рабочие сценарии под конкретные задачи: собрать pitch book, провести valuation review, закрыть месяц, подготовить credit memo, проверить KYC, сделать reconciliation или fund accounting.
Финансовым больше не нужно собирать агента с нуля. В шаблон уже упакованы skills, connectors и subagents под типовой workflow.
Развернуть можно несколькими способами: как plugin в Claude Cowork или Claude Code, либо через cookbooks в production как Managed Agents.
Anthropic явно пытается занять enterprise-нишу, где ценность AI измеряется не красивым ответом, а тем, сколько часов он снимает с аналитиков, банкиров, бухгалтерии и risk-команд.
Финансовые агенты - попытка превратить Claude в рабочую инфраструктуру для индустрии, где каждая цифра должна быть проверяемой.
https://claude.com/solutions/financial-services#finance-agents
@data_analysis_ml
Anthropic выкатила готовые Claude agent templates для финансовых команд.
Это не просто «чат с моделью», а готовые рабочие сценарии под конкретные задачи: собрать pitch book, провести valuation review, закрыть месяц, подготовить credit memo, проверить KYC, сделать reconciliation или fund accounting.
Финансовым больше не нужно собирать агента с нуля. В шаблон уже упакованы skills, connectors и subagents под типовой workflow.
Развернуть можно несколькими способами: как plugin в Claude Cowork или Claude Code, либо через cookbooks в production как Managed Agents.
Anthropic явно пытается занять enterprise-нишу, где ценность AI измеряется не красивым ответом, а тем, сколько часов он снимает с аналитиков, банкиров, бухгалтерии и risk-команд.
Финансовые агенты - попытка превратить Claude в рабочую инфраструктуру для индустрии, где каждая цифра должна быть проверяемой.
https://claude.com/solutions/financial-services#finance-agents
@data_analysis_ml
👏41👍38🤝17🔥9❤6👨💻4😁2🤣2💯1
OpenAI выкатывает GPT-5.5 Instant как дефолтную модель для всех пользователей ChatGPT. Раскатка займёт пару дней, в API он доступен под именем gpt-5.5-chat-latest.
Ответы стали умнее, чище и заметно короче. Никакой больше воды на три экрана там, где хватило бы абзаца, об этом давно просили сами пользователи.
Тон сделали теплее и человечнее, разговор ощущается живым, а не как переписка с занудным ассистентом.
Отдельно прокачали персонализацию: модель лучше помнит контекст и подстраивается под стиль общения. Источники памяти и улучшения уже доступны Plus и Pro подписчикам в вебе, мобильная версия подъедет следом.
OpenAI услышали жалобы на многословность и формализм и сделали именно то, чего ждали. Осталось проверить на своих задачах, действительно ли новая версия так хороша, как её рисуют в анонсе.
https://x.com/OpenAI/status/2051709028250915275
@ai_machinelearning_big_data
#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍125👏23❤16🔥8💯6🎉5🤗2🤩1🐳1
Media is too big
VIEW IN TELEGRAM
Немецкий вендор запретил использовать сторонние ИИ-инструменты для извлечения данных из своих корпоративных приложений. Под запрет попал, в частности, проект OpenClaw. Нарушителям грозит урезание лимитов на запросы или полное отключение доступа.
Легальный доступ оставлен решениям Microsoft, Google, Amazon и IBM. Открытые ИИ-решения заблокированы со ссылкой на риски безопасности.
Глава SAP объясняет ограничения защитой интеллектуальной собственности. По другой версии, цель - сохранить лицензирование по числу рабочих мест и продвинуть собственного ИИ-ассистента Joule.
theinformation.com
Орегонский стартап Panthalassa закрыл раунд на $140 млн, возглавленный сооснователем PayPal и Palantir. Продукт - автономные плавучие узлы для ИИ-инференса.
Узел - сферический поплавок и подводная вертикальная труба из листовой стали. Энергия волн через колебания водяного столба внутри трубы конвертируется в электричество для ИИ-ускорителей, а забортная вода даёт охлаждение. На берег передаются только результаты инференса по низкоорбитальной спутниковой связи. Двигателей нет - узлы выходят в заданный район за счёт гидродинамики корпуса.
Прототипы Ocean-1, Ocean-2 и Wavehopper тестировались в море в 2021 и 2024. В этом году компания развернёт пилотную серию Ocean-3 в северной части Тихого океана. Привлечённые средства пойдут на развитие производства и первые узлы, коммерческий запуск которых намечен на 2027 год.
businesswire.com
Unity открыла публичную бету Unity AI для версий движка 6.0 и выше. В набор входят встроенный ИИ-агент, шлюз для подключения сторонних моделей и MCP-сервер.
Собственный агент Unity обучен на документации и материалах движка за 20 лет, он анализирует контекст сцен и выполняет операции внутри редактора. Шлюз позволяет подключать сторонние LLM по API пользователя, без расхода внутренних кредитов Unity. MCP-сервер даёт управлять движком и получать данные из внешних IDE.
Подписчикам тарифов Pro, Enterprise и Industry доступ бесплатный. Индивидуальным разработчикам - 14-дневный триал на 1000 запросов, далее $10 в месяц.
unity.com
Computer for Professional Finance - финансовая надстройка над агентом Computer. Решение позиционируется как альтернатива классическим финансовым терминалам.
Платформа подключает лицензионные базы Morningstar, PitchBook, Daloopa и Carbon Arc, плюс встроенные источники Perplexity. Среди встроенных инструментов - скринеры, калькуляторы, списки наблюдения и трекеры отчётностей.
Computer for Finance умеет генерировать справки по компаниям, аннотированные графики котировок и сравнительные подборки аналитических отчётов. Отдельно компания подчёркивает интеграцию с Excel: агент работает в нативной side-панели рядом с моделями аналитика.
Из коробки доступны 35 готовых шаблонов: сводки по компаниям, разбор драйверов котировок, сравнительный скрининг. Доступ для подписок Pro и Max.
PerplexityAI в сети Х
Джеймс Дайетт, отвечавший в OpenAI за корпоративные контракты и продажи API с 2023 года, покидает компанию. Он переходит в фонд Thrive Capital, одного из крупнейших инвесторов OpenAI, на позицию операционного партнёра. Сам Дайетт говорит, что хочет работать со стартапами, а не с крупными компаниями.
Это очередной уход в топ-менеджменте OpenAI за последнее время. Компанию покинули Билл Пиблз, руководивший разработкой Sora, и вице-президент по научным исследованиям Кевин Вейл. Руководители продуктового и маркетингового направлений отошли от операционного управления по состоянию здоровья. COO Брэд Лайткэп переведён на "спецпроекты".
cnbc.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76🤔35❤22👏9👀7🔥6🤓5
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодеры, делающие отладку приложения, которое они только что сгенерировали.
@ai_machinelearning_big_data
@ai_machinelearning_big_data
😁254💯50❤24🔥17👍9🤷♂4
В личном блоге соучредитель Anthropic поделился мнением, что вероятность появления ИИ-системы, способной автономно, без участия человека, обучать собственного преемника, к концу 2028 года превышает 60%.
По его словам, общество может быть не готово к последствиям подобного перехода, но публичные данные о темпах прогресса приводят его к такому выводу.
Кларк - один из основателей Anthropic и глава отдела политики компании. Ранее он занимал аналогичную должность в OpenAI и работал журналистом, специализировавшимся на теме ИИ.
В качестве аргументов Джек приводит данные нескольких публичных бенчмарков, оговариваясь, что у каждого из них свои методологические ограничения и значимы именно совокупные тенденции.
Для сравнения, человеку на 4х ускорение, по данным Anthropic, требуется 4–8 часов работы.
При этом Кларк делает несколько оговорок.
Он не ожидает, что полностью автоматизированная разработка ИИ произойдёт в 2026 году. Первый прецедент схемы "модель сама обучает преемника" он допускает в течение года-двух и не на самых передовых моделях.
Кларк также признаёт, что ИИ пока не способен генерировать радикально новые идеи и подходит в первую очередь для рутинной инженерной работы, составляющей, по его оценке, основную часть исследований в области.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁41🤔35👍15❤6👏6🥱6🤣5👨💻3🗿2🔥1
NVIDIA выкатила Spectrum-X Ethernet с MRC.
Когда обучаешь модель на сотнях тысяч GPU, проблема уже не в том, чтобы купить больше чипов. Проблема в том, чтобы они не стояли без дела, пока сеть тупит, забивается или теряет пакеты.
MRC, или Multipath Reliable Connection, делает одну простую, но очень дорогостоющую вещь: один RDMA-коннект больше не обязан идти по одному маршруту. Он может размазывать трафик сразу по нескольким путям, обходить перегруженные участки и быстро переключаться, если где-то что-то падает.
Для обычного сервера это звучит как оптимизация. Для AI-кластера это вопрос миллионов долларов.
Если один кусок сети тормозит, вся огромная тренировка модели начинает ждать. Ты купил Blackwell, построил дата-центр, запустил frontier training run, а потом часть GPU простаивает из-за сетевого узкого места. Красиво, дорого, больно.
NVIDIA теперь продает идею, что сеть должна быть такой же умной частью AI-фабрики, как GPU, SuperNIC и софт для управления кластером.
MRC уже проверяли в production на Spectrum-X, а спецификацию открыли через Open Compute Project. В разработке участвовали не только NVIDIA, но и AMD, Broadcom, Intel, Microsoft и OpenAI.
Это редкий момент, когда за скучным сетевым протоколом видно будущее всей индустрии.
https://blogs.nvidia.com/blog/spectrum-x-ethernet-mrc/
@ai_machinelearning_big_data
Когда обучаешь модель на сотнях тысяч GPU, проблема уже не в том, чтобы купить больше чипов. Проблема в том, чтобы они не стояли без дела, пока сеть тупит, забивается или теряет пакеты.
MRC, или Multipath Reliable Connection, делает одну простую, но очень дорогостоющую вещь: один RDMA-коннект больше не обязан идти по одному маршруту. Он может размазывать трафик сразу по нескольким путям, обходить перегруженные участки и быстро переключаться, если где-то что-то падает.
Для обычного сервера это звучит как оптимизация. Для AI-кластера это вопрос миллионов долларов.
Если один кусок сети тормозит, вся огромная тренировка модели начинает ждать. Ты купил Blackwell, построил дата-центр, запустил frontier training run, а потом часть GPU простаивает из-за сетевого узкого места. Красиво, дорого, больно.
NVIDIA теперь продает идею, что сеть должна быть такой же умной частью AI-фабрики, как GPU, SuperNIC и софт для управления кластером.
MRC уже проверяли в production на Spectrum-X, а спецификацию открыли через Open Compute Project. В разработке участвовали не только NVIDIA, но и AMD, Broadcom, Intel, Microsoft и OpenAI.
Это редкий момент, когда за скучным сетевым протоколом видно будущее всей индустрии.
https://blogs.nvidia.com/blog/spectrum-x-ethernet-mrc/
@ai_machinelearning_big_data
👍73🤔16❤13🔥13💯13👏8🤬2
«Как увеличить выручку своего ИИ-сервиса в 3 раза за 15 минут?»
Недавно видел статистику - 98% пользователей нейросетей не платят за подписку. Они пишут запросы, тратят токены и уходят.
Для владельцев AI-сервисов, которых я знаю тут много, появился способ превратить эту аудиторию в источник дохода.
Сервис Gradius интегрирует контекстную рекламу прямо в ответы ИИ-агентов. Сами ответы не меняются - Gradius дополняет их нативной рекомендацией. Без баннеров, без рассылок, без ущерба для UX.
С проектом уже сотрудничают десятки крупных рекламодателей, таких как Т2 Мобайл, SkyEng, Умскул и Яндекс.
Подключение бесплатно, занимает не более 15 минут.
Узнайте, как начать монетизировать ваш AI-сервис → ссылка
Недавно видел статистику - 98% пользователей нейросетей не платят за подписку. Они пишут запросы, тратят токены и уходят.
Для владельцев AI-сервисов, которых я знаю тут много, появился способ превратить эту аудиторию в источник дохода.
Сервис Gradius интегрирует контекстную рекламу прямо в ответы ИИ-агентов. Сами ответы не меняются - Gradius дополняет их нативной рекомендацией. Без баннеров, без рассылок, без ущерба для UX.
С проектом уже сотрудничают десятки крупных рекламодателей, таких как Т2 Мобайл, SkyEng, Умскул и Яндекс.
Подключение бесплатно, занимает не более 15 минут.
Узнайте, как начать монетизировать ваш AI-сервис → ссылка
💯31👍21🤬15😁10👏9🤣9🤔7🔥5❤4😨2🤨1
Лютира Абейкун и Криш Чхаджер из Университета Торонто взяли microGPT Андрея Карпатого и переписали его на языке описания цифровых схем SystemVerilog. Так родился проект TALOS-V2, который работает на образовательной плате DE1-SoC с FPGA Cyclone V, которую обычно дают в вузах для лабораторных работ.
Инференс на ней не выполняет ни GPU, ни PyTorch, ни даже CPU - каждый шаг трансформера, от эмбеддингов и самовнимания до нормализации, MLP и выбора следующего токена, превращён в физическую цепь из логических элементов.
Сама модель - символьный microGPT, обученный на датасете имён Карпатого: символ за символом она генерирует новые имена. Маленькая по меркам индустрии, но устроенная как взрослые генеративные модели: те же блоки, те же связи.
Внутри FPGA числа хранятся не как привычные дроби с плавающей точкой, а в формате Q4.12 - 16 бит, разделённые на целую и дробную часть.
Это компромисс: точности хватает для такой модели, а схема получается компактной и предсказуемой по времени работы.
Веса заранее переведены в шестнадцатеричные файлы и загружены прямо в постоянную память чипа.
Сердце схемы - один универсальный вычислительный блок на 16 параллельных каналов, который умеет умножать вектор на матрицу.
Он по очереди обслуживает все ключевые операции трансформера: проекции Q, K, V, выходную проекцию внимания, оба слоя MLP и LM-head.
Самый трудный для железа блок - softmax, нормирующая функция внутри механизма внимания. Экспоненту считает таблица заранее заготовленных значений, деление выполняет специальный многотактный модуль, заточенный под узкий диапазон входных чисел и потому быстрее универсального.
В механизме внимания деление - самая медленная операция и тормозит весь блок, поэтому таких делителей поставили сразу 2: они работают параллельно и снимают эту задержку. Поиск максимума совмещён с подсчётом скалярных произведений, чтобы не делать лишний проход по данным.
Даже выбор следующего токена происходит внутри чипа: алгоритм xorshift даёт случайность, а специальная схема сэмплирования бережёт распределение от перекоса в сторону младших символов. Хост-компьютер только запускает генерацию и забирает готовый результат.
В итоге плата устойчиво выдаёт больше 50 000 токенов в секунду, зафиксированный пик - около 53 000.
Проект открыт на GitHub: SystemVerilog-ядро, тестбенч под ModelSim, Python-утилиты для экспорта весов и запуска инференса через JTAG, скрипты под Quartus.
@ai_machinelearning_big_data
#AI #ML #FPGA #RTL #Transformer #TALOS
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60🤩34👏25👍15❤🔥3💯3
Media is too big
VIEW IN TELEGRAM
Смотрим, как топовые модели меряются бенчмарками друг с другом на LLMMA-арене.
🤣103👏19🤩17❤3🥱3🌚3🤷1