307K subscribers
4.91K photos
1.09K videos
17 files
5.3K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📌 Студенты собрали GPT целиком в железе на учебной плате

Лютира Абейкун и Криш Чхаджер из Университета Торонто взяли microGPT Андрея Карпатого и переписали его на языке описания цифровых схем SystemVerilog. Так родился проект TALOS-V2, который работает на образовательной плате DE1-SoC с FPGA Cyclone V, которую обычно дают в вузах для лабораторных работ.

Инференс на ней не выполняет ни GPU, ни PyTorch, ни даже CPU - каждый шаг трансформера, от эмбеддингов и самовнимания до нормализации, MLP и выбора следующего токена, превращён в физическую цепь из логических элементов.

Сама модель - символьный microGPT, обученный на датасете имён Карпатого: символ за символом она генерирует новые имена. Маленькая по меркам индустрии, но устроенная как взрослые генеративные модели: те же блоки, те же связи.

Внутри FPGA числа хранятся не как привычные дроби с плавающей точкой, а в формате Q4.12 - 16 бит, разделённые на целую и дробную часть.

Это компромисс: точности хватает для такой модели, а схема получается компактной и предсказуемой по времени работы.

Веса заранее переведены в шестнадцатеричные файлы и загружены прямо в постоянную память чипа.


Сердце схемы - один универсальный вычислительный блок на 16 параллельных каналов, который умеет умножать вектор на матрицу.

Он по очереди обслуживает все ключевые операции трансформера: проекции Q, K, V, выходную проекцию внимания, оба слоя MLP и LM-head.

Самый трудный для железа блок - softmax, нормирующая функция внутри механизма внимания. Экспоненту считает таблица заранее заготовленных значений, деление выполняет специальный многотактный модуль, заточенный под узкий диапазон входных чисел и потому быстрее универсального.

В механизме внимания деление - самая медленная операция и тормозит весь блок, поэтому таких делителей поставили сразу 2: они работают параллельно и снимают эту задержку. Поиск максимума совмещён с подсчётом скалярных произведений, чтобы не делать лишний проход по данным.

Даже выбор следующего токена происходит внутри чипа: алгоритм xorshift даёт случайность, а специальная схема сэмплирования бережёт распределение от перекоса в сторону младших символов. Хост-компьютер только запускает генерацию и забирает готовый результат.

В итоге плата устойчиво выдаёт больше 50 000 токенов в секунду, зафиксированный пик - около 53 000.


Проект открыт на GitHub: SystemVerilog-ядро, тестбенч под ModelSim, Python-утилиты для экспорта весов и запуска инференса через JTAG, скрипты под Quartus.


🟡Статья
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #FPGA #RTL #Transformer #TALOS
Please open Telegram to view this post
VIEW IN TELEGRAM
84🤩50👏31👍20🔥5❤‍🔥3💯3🤝2🤷1
Media is too big
VIEW IN TELEGRAM
Смотрим, как топовые модели меряются бенчмарками друг с другом на LLMMA-арене.
🤣199👏32🤩28🥱8🌚64🤷2😁1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic арендовала Colossus 1 у SpaceX и подняла лимиты Claude

Компания законтрактовала все вычислительные мощности Colossus 1: более 300 МВт и свыше 220 тысяч GPU NVIDIA. Сделка пополнила пакет соглашений с Amazon, Google/Broadcom, Microsoft/NVIDIA и Fluidstack, и совокупный прирост мощностей конвертирован в расширение лимитов Claude Code и Claude API.

В Claude Code пятичасовые лимиты удвоены для тарифов Pro, Max, Team и Enterprise. Для Pro и Max дополнительно сняты ограничения в часы пиковой нагрузки.

В Claude API повышены лимиты для Opus на всех уровнях. На Tier 4 теперь до 10M входных и 800K выходных токенов в минуту.

Мощности Colossus 1 пойдут в первую очередь на подписчиков Claude Pro и Max. Стороны также заявили об интересе к развёртыванию гигаваттных ИИ-узлов на орбите, но это пока декларация, а не часть подписанного соглашения.
anthropic.com

✔️ Gemma 4 получила MTP-драфтеры

Команда Google опубликовала драфтеры с Multi-Token Prediction для семейства Gemma 4. Они работают через спекулятивное декодирование и решают проблему по пропускной способности памяти при авторегрессионной генерации.

Лёгкий MTP-драфтер предсказывает несколько токенов вперёд, пока базовая модель простаивает. Затем основная сеть верифицирует кандидатов параллельно за один проход.
По данным Google, такой режим ускоряет инференс до 3 раз.

Целевые сценарии: локальные агенты, ассистенты для программирования, мобильные приложения. Веса драфтеров опубликованы под Apache 2.0 на Hugging Face и Kaggle.
blog.google

✔️ Microsoft расширил Copilot Cowork

Автономный агент, выполняющий многошаговые задачи в Microsoft 365, получил мобильные приложения для iOS и Android, Skills и платформу плагинов.

Microsoft опубликовала встроенные скилы для создания документов, организации встреч и исследовательских задачи. Пользователи могут писать кастомные скилы под собственные процессы.

Параллельно расширяются интеграции: добавляется нативная связь с Fabric IQ через Power BI и расширение Dynamics 365 на сценарии продаж и ERP. В ближайшие недели Microsoft обещает коннекторы к LSEG, Miro, Мonday и S&P Global Energy. Корпоративные клиенты могут писать собственные плагины для подключения внутренних систем.

Все обновления доступны в рамках программы Frontier для корпоративных подписчиков Copilot.
microsoft.com

✔️ Apple откроет Apple Intelligence для моделей Google и Anthropic

Осенью, с выходом iOS 27, iPadOS 27 и macOS 27 пользователи смогут сами выбирать базовую LLM для системных задач от генерации текста до редактирования изображений. Переключение провайдера будет доступно в настройках системы.

Механизм называется Extensions. Сторонним разработчикам нужно добавить совместимость в свои приложения из App Store, после чего модель станет доступна для встроенных функций.

По данным источников, закрытое тестирование с Google и Anthropic уже идёт. Официальных комментариев яблочная компания не давала.
bloomberg.com

✔️ Google DeepMind будет исследовать AGI в офлайн-версии EVE Online

Студия Fenris Creations договорилась с DeepMind о совместном исследовании. Лаборатория Google будет использовать EVE как песочницу для тестирования ИИ в сложной среде с живыми игроками.

Для DeepMind это продолжение линии работ типа AlphaGo и AlphaStar в среде, которая ведёт себя как живой мир. Эксперименты пойдут на изолированных офлайн-инстансах, не связанных с боевым сервером Tranquility. Подробности обещают раскрыть на Fanfest 2026 на следующей неделе.

Анонс приурочен к выходу студии из-под контроля Pearl Abyss и ребрендингу в Fenris Creations.
eveonline.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
85👨‍💻68👍49💯20👏13🤩6🔥4🎉4
This media is not supported in your browser
VIEW IN TELEGRAM
Единственный сотрудник, которого не может заменить ИИ.

@ai_machinelearning_big_data
👍107😁69🤔4921🔥13💯12🍾2
⚡️ Zyphra выкатила ZAYA1-8B - маленькую MoE-модель, которая выглядит слишком бодро для своего размера.

У модели меньше 1 млрд активных параметров, но Zyphra заявляет, что она конкурирует с куда более крупными open-weight и proprietary-моделями на математике, кодинге и reasoning-бенчмарках.

ZAYA1-8B - это ставка на весь стек сразу:

- MoE-архитектура с Compressed Convolutional Attention;
- новый MLP-router для более стабильного выбора экспертов;
- learned residual scaling для контроля роста residual-норм;
- pretraining на AMD Instinct MI300x, без NVIDIA-стека;
- большой post-training pipeline с SFT, reasoning warmup, RLVE-Gym, math/code RL и RLHF/RLAIF;
- test-time compute метод Markovian RSA.

Markovian RSA - самая любопытная часть. Модель генерирует несколько reasoning-трасс параллельно, затем рекурсивно агрегирует их и продолжает рассуждение кусками, не раздувая контекст бесконечно. По заявлению Zyphra, именно это резко бустит сложные математические задачи.

На HMMT'25 они показывают 89.6 против 88.3 у Claude 4.5 Sonnet и GPT-5-High. А при extra-high test-time compute говорят, что ZAYA1-8B обходит DeepSeek-V3.2 и GPT-OSS-120B High на APEX-shortlist.

Модель полностью обучали на AMD-инфраструктуре. Для рынка это почти политическое заявление - serious AI training больше не обязан выглядеть как “NVIDIA or nothing”.

ZAYA1-8B доступна в Zyphra Cloud, веса выложены на Hugging Face, лицензия Apache-2.0.

https://www.zyphra.com/post/zaya1-8b

@ai_machinelearning_big_data

#Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
2👏148👍38🔥3221🎉4🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Настоящий хай тек лоу лайф

Всё-таки настоящий киберпанк не в Китае, а в Сан-Франциско.

Девушка вызвала беспилотное такси от Zoox, но, когда авто подъехало, туда запрыгнул бездомный.

Возможно, он думал, что это автобус.

@ai_machinelearning_big_data
😁103🤨37🤔14👍1210😐9🤣8🔥2😢2
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ OpenAI запустила платформу для размещения рекламы в ChatGPT

OpenAI открыла бета-доступ к инструменту Ads Manager, который позволяет компаниям самостоятельно создавать и вести рекламные кампании в ChatGPT.

О запуске в сообщил журналистам глава направления монетизации Асад Аван. На старте сервис доступен только рекламодателям в США.

По словам Авана, в период закрытого пилота платформа требовала минимальных расходов в 50 тысяч долларов - теперь этот порог снят. К прежней модели оплаты за показы добавлена оплата за клик.

Доступ к Ads Manager уже получили рекламные агентства Dentsu, Omnicom, Publicis и WPP, а также ряд технологических партнёров: Adobe, Criteo, Kargo, Pacvue и StackAdapt.

Запуск вписан в долгосрочные финансовые ориентиры компании. По данным Axios, OpenAI рассчитывает получить 2,5 миллиарда долларов рекламной выручки в текущем году и довести этот показатель до 100 миллиардов к 2030 году.

Reuters в марте сообщало, что американский рекламный пилот OpenAI за 6 недель вышел на годовую выручку свыше 100 миллионов долларов.

По оценке eMarketer, доля рекламы в ИИ-поиске на американском рынке в 2025 году составляет около 0,7% всех расходов на поисковую рекламу.

К 2029 году аналитики ожидают её рост до 13,6%, а в абсолютных цифрах - до 25,9 миллиарда долларов. При этом значительная часть прироста придётся не только на OpenAI, но и на Microsoft и Google, развивающих собственные поисковые продукты с ИИ.

Развитие рекламных продуктов в ИИ отраслевые издания связывают с ростом затрат на инфраструктуру: компании ищут способы диверсифицировать выручку и одновременно сохранить доступность потребительских сервисов.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩100👍42🔥26🤬16🙈1210👏8😢5🤔4🎉4🌭1
Media is too big
VIEW IN TELEGRAM
📌 Еще OpenAI выкатила GPT-Realtime-2 - голосовую модель нового поколения для API.

Api позволяет делать realtime-собеседников, которые могут слушать, рассуждать, перебивать себя по ходу диалога, вызывать инструменты и решать задачи прямо во время разговора.

Что вышло:

- GPT-Realtime-2 - модель для production voice agents с reasoning уровня GPT-5, обработкой перебиваний, tool calls и более живым диалогом;
- GPT-Realtime-Translate - потоковый перевод в реальном времени: более 70 входных языков и 13 выходных;
- GPT-Realtime-Whisper - потоковая транскрибация речи для субтитров, заметок и live-конспектов.

https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api/

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥74🤩5829👍19👏63👌1🤣1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ ЕС сдвинул дедлайны AI Act на 2027-2028

Европарламент и Совет ЕС достигли соглашения по пакету поправок, упрощающих реализацию AI Act и сдвигающих дедлайны.

Правила для высокорисковых систем (биометрия, найм, образование, миграция, критическая инфраструктура, правоохранительные органы) начнут применяться со 2 декабря 2027 года. Для систем, встроенных в продукты (промышленность, медизделия, игрушки, лифты, маломерные суда), срок - 2 августа 2028 года.

Льготы для малого бизнеса расширят на компании с численностью до 500 сотрудников. Кроме того, разработчики получат более свободный доступ к регуляторным песочницам для тестирования своих продуктов в реальных условиях до выхода на рынок.

Отдельно документ вводит жесткий запрет на генерацию интимного контента без согласия- разработка и использование приложений для создания дипфейков и нюдификации на базе нейросетей теперь полностью нелегальны. Обязательства по маркировке ИИ-контента сдвинуты на декабрь 2026 года.
europa.eu

✔️ OpenAI поддержит студенческие проекты грантами по $10 000

Компания запустила программу ChatGPT Futures: гранты по $10 000 и приоритетный доступ к своим моделям для студентов выпуска 2026 года, поколения, поступившего в ВУЗы осенью 2022 года, одновременно с релизом первой версии ChatGPT.

В стартовый набор вошли представители более 20 университетов. Финансирование выделяется на проекты в анализе данных, инклюзивных приложениях, медицинских и социальных сервисах.

По формулировке OpenAI, программа должна сократить путь от идеи до прототипа и дать командам ресурсы для старта без поиска первых инвестиций.
openai.com

✔️ xAI становится подразделением SpaceX и переименовывается в SpaceXAI

Илон Маск объявил о ликвидации xAI как независимой компании. ИИ-направление переходит в структуру SpaceX и продолжит выпускать продукты под брендом SpaceXAI.

Слияние формально завершает сделку февраля 2026 года, по которой SpaceX выкупила xAI через обмен акциями. Сотрудникам тогда обещали сохранить отдельный бренд, но переход под зонтик материнской компании произошел быстрее ожидаемого.
Elon Musk в сети Х

✔️Anthropic выкатил Dreaming и оркестрацию субагентов в Claude Managed Agents

Обновилась платформа Claude Managed Agents: добавлена экспериментальная функция Dreaming, инструмент Outcomes и мультиагентная оркестрация переведены в публичную бету

Dreaming - фоновый процесс, который разбирает логи завершённых сессий, выделяет повторяющиеся паттерны и обновляет память агента.

Outcomes позволяет задать метрики качества финального результата. Отдельная модель-оценщик проверяет работу основного агента в изолированном контекстном окне. При несоответствии задача уходит на повторный прогон без участия человека.

Оркестрация даёт lead-агенту возможность дробить задачи и делегировать их специализированным субагентам. Те работают параллельно в общей файловой системе и сохраняют историю действий в Claude Console. О завершении работы система оповещает разработчика через вебхуки.
claude.com

✔️ Prime Intellect вывел Lab из беты

Lab закрывает цикл пост-трейна в одном пайплайне: оценка, RL, деплой адаптеров и инференс.

Пользователь задаёт задачу и критерии скоринга. Дальше Lab прогоняет модель через циклы проб и ошибок, собирает сигналы вознаграждения и обучает LoRA-адаптеры - обновляются только нужные веса, после чего адаптер автоматически разворачивается на следующую итерацию.

Базовая абстракция - Environment: пакет с данными задачи, обвязкой модели, изолированной песочницей и метриками награды. Среду можно переиспользовать для локальной разработки, хостинга, генерации синтетики или RL-обучения.

Биллинг идет по обработанным токенам, а не по часам GPU. Сейчас поддерживаются 14 открытых и проприетарных моделей с диапазоном от 1B до 70B параметров на dense и MoE-архитектурах.
primeintellect.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5718👍13🫡1
📌Autodata: ИИ-агенты теперь сами себе дата-саентисты

Проект RAM Марка Цукерберга замахнулся решить проблему качества синтетических данных для обучения, выкатив концепт фреймворка Autodata.

Идея - превращать компьют, который тратится на инференс, в качественные данные для тренировки. Агенты крутятся в цикле, гоняют LLM по много раз, и вместо одного ответа пользователю получается отфильтрованный датасет для обучения следующего поколения моделей.


Схема строится на архитектуре Agentic Self-Instruct, где главная LLM-ка дирижирует командой из четырех субагентов:

🟢Challenger: читает исходный документ (например, научную статью), генерит сложный вопрос, эталонный ответ и рубрику для оценки;

🟢Слабая модель: пытается решить эту задачу. По задумке, она должна зафейлиться;

🟢Сильная модель: тоже решает задачу, но уже обязана с ней справиться;

🟢Судья: прогоняет ответы обеих моделей по критериям рубрики.

Фишка в том, что система работает в замкнутом цикле. Если задача оказалась слишком легкой (обе модели справились) или непроходимой (обе слились), главный агент анализирует репорты судьи и заставляет Challenger'а переписать промпт, чтобы создать идеальный хардкорный пример, который разделяет слабую и сильную модели.

Но на этом умные люди Марка не остановились и прикрутили мета-оптимизацию как внешний цикл. Система буквально читает логи своих падений и переписывает собственный код.

Например, мета-оптимизатор сам допёр, что отрицательные веса в рубриках работают как баг — они рушили скоринг сильной модели и съедали разрыв со слабой. И сам же выпилил их из кода, оставив только положительные баллы.


🟡Эксперименты

Прогнали 10 тыс научных статей через пайплайн, вытянув 2117 качественных QA-пар.

Если использовать стандартный CoT в один шот, то разрыв между моделями всего 1.9 п.п. (задачи слишком легкие). После агентного цикла Autodata разница улетела до 34 п.п. (слабая модель набирает 43.7%, сильная — 77.8%).

Сделали дотюн слабой Qwen-3.5-4B и обучили через GRPO на собранных данных. Модель, проглотившая датасет Autodata, заметно обходит ту, что училась на базовой синтетике.

Мета-оптимизация (когда агент правил свой же код) подняла долю успешных генераций с 12.8% до 42.4% за 233 итерации.

🟡Звучит круто, но...

Во-первых, 5 LLM-ролей в цикле до успешного результата — это дорого (главный агент + Challenger + слабая + сильная + Судья; на практике их крутили на трех моделях, но оркестрация всё равно жирная).

Во-вторых, исследователи поймали агентов на читерстве: чтобы слабая модель гарантированно провалила тест, агент втихую менял ей промпт, добавляя инструкцию "будь слабой" классика.

Также генерируемые вопросы часто переобучаются на конкретные цифры из статей, а не на проверку фундаментальной логики.

Ну и если честно: максимальный pass rate в 42.4% даже после авто-патчей намекает, что генерить реально сложные задачи все еще очень тяжело.

Так что заменить кожаных дата-саентистов полностью пока не выйдет, но работа интересная и начало положено: сложный сетапы приходят на смену слепой генерации синтетики.


Ждем полноценный пейпер и опенсорс.


🟡Блогпост


#AI #ML #Datasets #Autodata #RAMTeam
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔7153🔥26👍1514💯12👏9🤣4🤨2
📊Начинающим аналитикам часто не хватает не мотивации, а системы. SQL вроде знаком, Python уже открывали, отчёты делали, но уверенной работы с данными пока нет.

Курс Нетологии «Аналитик данных» помогает собрать навыки в рабочую связку. Вы разберёте получение данных через SQL, очистку и обработку данных на Python, статистику, проверку гипотез, визуализацию, А/Б-тесты, большие данные и Power BI.

В программе до 8 проектов и больше 20 задач для портфолио, разбор тестовых заданий крупных ИТ-компаний, поддержка ментора на дипломе и блок по применению ИИ в аналитике.

Курс подойдёт тем, кто уже начал работать с данными и хочет увереннее двигаться к следующему уровню задач.

Купите курс в мае со скидкой 50% по промокоду
IT50MAY.

👉Подробнее

Реклама. ООО “Нетология” ОГРН 1207700135884 Erid: 2VSb5xpchez
👍3010🤩8👏6🤣6😐2🔥1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🙂 POV: Мы добавили пару ИИ-фич в наш продукт

Релиз:

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👨‍💻95😁51😍25😎18👍12👏9😭5🔥42🤣2🤝1
✔️ Google расширила File Search в Gemini API: 3 апдейта для RAG

File Search получил 3 обновления, ориентированных на разработчиков RAG-систем: совместную обработку текста и изображений, пользовательские метаданные и постраничные цитаты.

Мультимодальный поиск работает на модели эмбеддингов Gemini Embedding 2.

File Search теперь индексирует изображения и текст в общем пространстве, что позволяет агентам находить визуальные ассеты по описанию на естественном языке (например, по эмоциональному тону или визуальному стилю, а не только по именам файлов и ключевым словам).

Пользовательские метаданные крепятся к файлам в формате "ключ: значение". Фильтрация по этим тегам на этапе запроса сужает выборку до нужного среза данных и снижает шум от нерелевантных документов.

Постраничные цитаты привязывают ответ модели к конкретной странице исходного PDF. Это даёт точку для верификации источника без ручного поиска по документу.

Подробности и примеры кода - в developer guide и документации Gemini API.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓51👏2823👍22🎉8🔥6
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic открыла инструмент перевода активаций модели в читаемый текст

Компания представила систему прямой трансляции активаций ИИ-моделей в естественный язык - Natural Language Autoencoder (NLA).

В отличие от SAE, NLA обучается через игру двух моделей с RL: первая переводит активации в текст, вторая пытается восстановить исходное состояние по описанию.

При симуляции кибератак Claude внешне соглашался сотрудничать, но NLA зафиксировал, что в 16% случаев модель понимала, что её тестируют. На SWE-bench "понимание среды" проявлялось в 26% прогонов.

Ограничения: высокая вычислительная стоимость и риск галлюцинаций исключают мониторинг длинных контекстов.

Метод применялся в аудите Claude Mythos Preview и Opus 4.6 перед релизом. Код и часть весов опубликованы на GitHub. Демо можно посмотреть на Neuronpedia.
anthropic.com

✔️ Ai2 разработал MoE-модель нового типа

Институт Аллена представил EMO - MoE-модель с семантической маршрутизацией токенов.

В стандартных MoE токены маршрутизируются независимо и эксперты группируются вокруг поверхностных языковых паттернов. В EMO токены одного документа направляются в общий пул модулей: в результате сеть самостоятельно распределяет экспертов по смысловым доменам без разметки.

Это открывает гибкий деплой: ненужные эксперты отсекаются под конкретную задачу. Одна базовая EMO заменяет десятки доменных моделей. Веса и код опубликованы в открытом доступе.
allenai.org

✔️ Perplexity выпустила автономного агента для macOS

Perplexity выпустила macOS-приложение Personal Computer - автономный агент с прямым доступом к локальным файлам, приложениям, интернету и серверам компании.

В связке с браузером Perplexity Comet агент управляет веб-инструментами без настройки отдельных коннекторов. Задачи можно запускать удалённо с iPhone, пока данные и вычисления остаются на домашнем или рабочем Mac. Для always-on-сценариев рекомендован выделенный Mac mini.

Приложение уже доступно для скачивания. Старый десктопный клиент Perplexity будет помечен как устаревший в ближайшие недели.
PerplexityAI в сети Х

✔️ Genesis AI выходит на рынок робототехники полного цикла

Франко-американский стартап представил базовую модель для управления роботами GENE-26.5 и собственную человекоразмерную роботизированную руку.

Модель совместима как с изделиями Genesis, так и с роботами сторонних производителей. Рука повторяет анатомию человеческой кисти, что позволяет напрямую переносить данные о движениях оператора в обучающий датасет. В демо модель выполняет нарезку помидоров, разбивание яиц, сборку кубика Рубика и игру на пианино.

Для сбора данных разработана телеметрическая перчатка: по данным компании, она в 100Х дешевле аналогов и в 5 раз эффективнее традиционной телеоперации. Перчатку можно носить в рабочих условиях, превращая ежедневные операции в обучающий датасет.
genesis.ai

✔️ Cloudflare сокращает 20% штата

Cloudflare объявила о первом массовом сокращении более 1100 сотрудников (~20% штата) за 16-летнюю историю компании. На фоне рекордных результатов по выручке в первом квартале 2026 года под увольнение попал саппорт во всех подразделениях и регионах.

Руководители объяснили решение переходом на агентно-ориентированную операционную модель: внутреннее использование ИИ в Cloudflare выросло более чем на 600% за последние 3 месяца.

Пакет выходных выплат: зарплата и медстраховка до конца 2026 года, плюс вестинг акций продлён до 15 августа.
cloudflare.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔17👍127👏4🔥2💯2