307K subscribers
4.9K photos
1.09K videos
17 files
5.29K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ SAP блокирует open-source агентов

Немецкий вендор запретил использовать сторонние ИИ-инструменты для извлечения данных из своих корпоративных приложений. Под запрет попал, в частности, проект OpenClaw. Нарушителям грозит урезание лимитов на запросы или полное отключение доступа.

Легальный доступ оставлен решениям Microsoft, Google, Amazon и IBM. Открытые ИИ-решения заблокированы со ссылкой на риски безопасности.

Глава SAP объясняет ограничения защитой интеллектуальной собственности. По другой версии, цель - сохранить лицензирование по числу рабочих мест и продвинуть собственного ИИ-ассистента Joule.
theinformation.com

✔️ Питер Тиль вложил $140 млн в создание автономных плавучих ИИ-дата-центров

Орегонский стартап Panthalassa закрыл раунд на $140 млн, возглавленный сооснователем PayPal и Palantir. Продукт - автономные плавучие узлы для ИИ-инференса.

Узел - сферический поплавок и подводная вертикальная труба из листовой стали. Энергия волн через колебания водяного столба внутри трубы конвертируется в электричество для ИИ-ускорителей, а забортная вода даёт охлаждение. На берег передаются только результаты инференса по низкоорбитальной спутниковой связи. Двигателей нет - узлы выходят в заданный район за счёт гидродинамики корпуса.

Прототипы Ocean-1, Ocean-2 и Wavehopper тестировались в море в 2021 и 2024. В этом году компания развернёт пилотную серию Ocean-3 в северной части Тихого океана. Привлечённые средства пойдут на развитие производства и первые узлы, коммерческий запуск которых намечен на 2027 год.
businesswire.com

✔️ Unity открыла бету Unity AI

Unity открыла публичную бету Unity AI для версий движка 6.0 и выше. В набор входят встроенный ИИ-агент, шлюз для подключения сторонних моделей и MCP-сервер.

Собственный агент Unity обучен на документации и материалах движка за 20 лет, он анализирует контекст сцен и выполняет операции внутри редактора. Шлюз позволяет подключать сторонние LLM по API пользователя, без расхода внутренних кредитов Unity. MCP-сервер даёт управлять движком и получать данные из внешних IDE.

Подписчикам тарифов Pro, Enterprise и Industry доступ бесплатный. Индивидуальным разработчикам - 14-дневный триал на 1000 запросов, далее $10 в месяц.
unity.com

✔️ Perplexity запустила Computer для финансистов

Computer for Professional Finance - финансовая надстройка над агентом Computer. Решение позиционируется как альтернатива классическим финансовым терминалам.

Платформа подключает лицензионные базы Morningstar, PitchBook, Daloopa и Carbon Arc, плюс встроенные источники Perplexity. Среди встроенных инструментов - скринеры, калькуляторы, списки наблюдения и трекеры отчётностей.

Computer for Finance умеет генерировать справки по компаниям, аннотированные графики котировок и сравнительные подборки аналитических отчётов. Отдельно компания подчёркивает интеграцию с Excel: агент работает в нативной side-панели рядом с моделями аналитика.

Из коробки доступны 35 готовых шаблонов: сводки по компаниям, разбор драйверов котировок, сравнительный скрининг. Доступ для подписок Pro и Max.
PerplexityAI в сети Х

✔️ Глава корпоративных продаж OpenAI уходит в венчурный фонд

Джеймс Дайетт, отвечавший в OpenAI за корпоративные контракты и продажи API с 2023 года, покидает компанию. Он переходит в фонд Thrive Capital, одного из крупнейших инвесторов OpenAI, на позицию операционного партнёра. Сам Дайетт говорит, что хочет работать со стартапами, а не с крупными компаниями.

Это очередной уход в топ-менеджменте OpenAI за последнее время. Компанию покинули Билл Пиблз, руководивший разработкой Sora, и вице-президент по научным исследованиям Кевин Вейл. Руководители продуктового и маркетингового направлений отошли от операционного управления по состоянию здоровья. COO Брэд Лайткэп переведён на "спецпроекты".
cnbc.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77🤔4323👏9👀7🔥6🤓5
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодеры, делающие отладку приложения, которое они только что сгенерировали.

@ai_machinelearning_big_data
😁290💯5425🔥18👍9🤷‍♂4
📌 Джек Кларк: вероятность автоматизированной ИИ-разработки к концу 2028 года - выше 60%

В личном блоге соучредитель Anthropic поделился мнением, что вероятность появления ИИ-системы, способной автономно, без участия человека, обучать собственного преемника, к концу 2028 года превышает 60%.

По его словам, общество может быть не готово к последствиям подобного перехода, но публичные данные о темпах прогресса приводят его к такому выводу.

Кларк - один из основателей Anthropic и глава отдела политики компании. Ранее он занимал аналогичную должность в OpenAI и работал журналистом, специализировавшимся на теме ИИ.


В качестве аргументов Джек приводит данные нескольких публичных бенчмарков, оговариваясь, что у каждого из них свои методологические ограничения и значимы именно совокупные тенденции.

🟢По метрикам METR, продолжительность задач, которые ИИ-системы способны выполнять автономно, выросла с 30 секунд в 2022 году (GPT-3.5) до 12 часов в начале 2026-го (Opus 4.6). Прогноз METR на конец этого года - около 100 часов.

🟢На SWE-Bench Claude 2 справлялся лишь с 2% задач, а свежайшая Claude Mythos Preview уже с 93,9%.

🟢Внутренний бенч Anthropic по оптимизации обучения малой языковой модели на CPU показывает, что за год ИИ-системы прошли путь от 2,9х до 52-кратного ускорения исходного кода.

Для сравнения, человеку на 4х ускорение, по данным Anthropic, требуется 4–8 часов работы.


При этом Кларк делает несколько оговорок.

Он не ожидает, что полностью автоматизированная разработка ИИ произойдёт в 2026 году. Первый прецедент схемы "модель сама обучает преемника" он допускает в течение года-двух и не на самых передовых моделях.

Кларк также признаёт, что ИИ пока не способен генерировать радикально новые идеи и подходит в первую очередь для рутинной инженерной работы, составляющей, по его оценке, основную часть исследований в области.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔50😁45👍187👏6🥱6🤣5👨‍💻3🗿3🔥1
NVIDIA выкатила Spectrum-X Ethernet с MRC.

Когда обучаешь модель на сотнях тысяч GPU, проблема уже не в том, чтобы купить больше чипов. Проблема в том, чтобы они не стояли без дела, пока сеть тупит, забивается или теряет пакеты.

MRC, или Multipath Reliable Connection, делает одну простую, но очень дорогостоющую вещь: один RDMA-коннект больше не обязан идти по одному маршруту. Он может размазывать трафик сразу по нескольким путям, обходить перегруженные участки и быстро переключаться, если где-то что-то падает.

Для обычного сервера это звучит как оптимизация. Для AI-кластера это вопрос миллионов долларов.

Если один кусок сети тормозит, вся огромная тренировка модели начинает ждать. Ты купил Blackwell, построил дата-центр, запустил frontier training run, а потом часть GPU простаивает из-за сетевого узкого места. Красиво, дорого, больно.

NVIDIA теперь продает идею, что сеть должна быть такой же умной частью AI-фабрики, как GPU, SuperNIC и софт для управления кластером.

MRC уже проверяли в production на Spectrum-X, а спецификацию открыли через Open Compute Project. В разработке участвовали не только NVIDIA, но и AMD, Broadcom, Intel, Microsoft и OpenAI.

Это редкий момент, когда за скучным сетевым протоколом видно будущее всей индустрии.

https://blogs.nvidia.com/blog/spectrum-x-ethernet-mrc/

@ai_machinelearning_big_data
👍118🤔2317🔥15💯15👏8🤬2
«Как увеличить выручку своего ИИ-сервиса в 3 раза за 15 минут?»

Недавно видел статистику - 98% пользователей нейросетей не платят за подписку. Они пишут запросы, тратят токены и уходят.

Для владельцев AI-сервисов, которых я знаю тут много, появился способ превратить эту аудиторию в источник дохода.

Сервис Gradius интегрирует контекстную рекламу прямо в ответы ИИ-агентов. Сами ответы не меняются - Gradius дополняет их нативной рекомендацией. Без баннеров, без рассылок, без ущерба для UX.

С проектом уже сотрудничают десятки крупных рекламодателей, таких как Т2 Мобайл, SkyEng, Умскул и Яндекс.

Подключение бесплатно, занимает не более 15 минут.

Узнайте, как начать монетизировать ваш AI-сервис → ссылка
💯47👍26🤬23🤣12😁10👏9🤔76🔥5😨2🤨1
📌 Студенты собрали GPT целиком в железе на учебной плате

Лютира Абейкун и Криш Чхаджер из Университета Торонто взяли microGPT Андрея Карпатого и переписали его на языке описания цифровых схем SystemVerilog. Так родился проект TALOS-V2, который работает на образовательной плате DE1-SoC с FPGA Cyclone V, которую обычно дают в вузах для лабораторных работ.

Инференс на ней не выполняет ни GPU, ни PyTorch, ни даже CPU - каждый шаг трансформера, от эмбеддингов и самовнимания до нормализации, MLP и выбора следующего токена, превращён в физическую цепь из логических элементов.

Сама модель - символьный microGPT, обученный на датасете имён Карпатого: символ за символом она генерирует новые имена. Маленькая по меркам индустрии, но устроенная как взрослые генеративные модели: те же блоки, те же связи.

Внутри FPGA числа хранятся не как привычные дроби с плавающей точкой, а в формате Q4.12 - 16 бит, разделённые на целую и дробную часть.

Это компромисс: точности хватает для такой модели, а схема получается компактной и предсказуемой по времени работы.

Веса заранее переведены в шестнадцатеричные файлы и загружены прямо в постоянную память чипа.


Сердце схемы - один универсальный вычислительный блок на 16 параллельных каналов, который умеет умножать вектор на матрицу.

Он по очереди обслуживает все ключевые операции трансформера: проекции Q, K, V, выходную проекцию внимания, оба слоя MLP и LM-head.

Самый трудный для железа блок - softmax, нормирующая функция внутри механизма внимания. Экспоненту считает таблица заранее заготовленных значений, деление выполняет специальный многотактный модуль, заточенный под узкий диапазон входных чисел и потому быстрее универсального.

В механизме внимания деление - самая медленная операция и тормозит весь блок, поэтому таких делителей поставили сразу 2: они работают параллельно и снимают эту задержку. Поиск максимума совмещён с подсчётом скалярных произведений, чтобы не делать лишний проход по данным.

Даже выбор следующего токена происходит внутри чипа: алгоритм xorshift даёт случайность, а специальная схема сэмплирования бережёт распределение от перекоса в сторону младших символов. Хост-компьютер только запускает генерацию и забирает готовый результат.

В итоге плата устойчиво выдаёт больше 50 000 токенов в секунду, зафиксированный пик - около 53 000.


Проект открыт на GitHub: SystemVerilog-ядро, тестбенч под ModelSim, Python-утилиты для экспорта весов и запуска инференса через JTAG, скрипты под Quartus.


🟡Статья
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #FPGA #RTL #Transformer #TALOS
Please open Telegram to view this post
VIEW IN TELEGRAM
79🤩49👏31👍20🔥5❤‍🔥3💯3🤝2🤷1
Media is too big
VIEW IN TELEGRAM
Смотрим, как топовые модели меряются бенчмарками друг с другом на LLMMA-арене.
🤣187👏31🤩28🥱7🌚54🤷2😁1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic арендовала Colossus 1 у SpaceX и подняла лимиты Claude

Компания законтрактовала все вычислительные мощности Colossus 1: более 300 МВт и свыше 220 тысяч GPU NVIDIA. Сделка пополнила пакет соглашений с Amazon, Google/Broadcom, Microsoft/NVIDIA и Fluidstack, и совокупный прирост мощностей конвертирован в расширение лимитов Claude Code и Claude API.

В Claude Code пятичасовые лимиты удвоены для тарифов Pro, Max, Team и Enterprise. Для Pro и Max дополнительно сняты ограничения в часы пиковой нагрузки.

В Claude API повышены лимиты для Opus на всех уровнях. На Tier 4 теперь до 10M входных и 800K выходных токенов в минуту.

Мощности Colossus 1 пойдут в первую очередь на подписчиков Claude Pro и Max. Стороны также заявили об интересе к развёртыванию гигаваттных ИИ-узлов на орбите, но это пока декларация, а не часть подписанного соглашения.
anthropic.com

✔️ Gemma 4 получила MTP-драфтеры

Команда Google опубликовала драфтеры с Multi-Token Prediction для семейства Gemma 4. Они работают через спекулятивное декодирование и решают проблему по пропускной способности памяти при авторегрессионной генерации.

Лёгкий MTP-драфтер предсказывает несколько токенов вперёд, пока базовая модель простаивает. Затем основная сеть верифицирует кандидатов параллельно за один проход.
По данным Google, такой режим ускоряет инференс до 3 раз.

Целевые сценарии: локальные агенты, ассистенты для программирования, мобильные приложения. Веса драфтеров опубликованы под Apache 2.0 на Hugging Face и Kaggle.
blog.google

✔️ Microsoft расширил Copilot Cowork

Автономный агент, выполняющий многошаговые задачи в Microsoft 365, получил мобильные приложения для iOS и Android, Skills и платформу плагинов.

Microsoft опубликовала встроенные скилы для создания документов, организации встреч и исследовательских задачи. Пользователи могут писать кастомные скилы под собственные процессы.

Параллельно расширяются интеграции: добавляется нативная связь с Fabric IQ через Power BI и расширение Dynamics 365 на сценарии продаж и ERP. В ближайшие недели Microsoft обещает коннекторы к LSEG, Miro, Мonday и S&P Global Energy. Корпоративные клиенты могут писать собственные плагины для подключения внутренних систем.

Все обновления доступны в рамках программы Frontier для корпоративных подписчиков Copilot.
microsoft.com

✔️ Apple откроет Apple Intelligence для моделей Google и Anthropic

Осенью, с выходом iOS 27, iPadOS 27 и macOS 27 пользователи смогут сами выбирать базовую LLM для системных задач от генерации текста до редактирования изображений. Переключение провайдера будет доступно в настройках системы.

Механизм называется Extensions. Сторонним разработчикам нужно добавить совместимость в свои приложения из App Store, после чего модель станет доступна для встроенных функций.

По данным источников, закрытое тестирование с Google и Anthropic уже идёт. Официальных комментариев яблочная компания не давала.
bloomberg.com

✔️ Google DeepMind будет исследовать AGI в офлайн-версии EVE Online

Студия Fenris Creations договорилась с DeepMind о совместном исследовании. Лаборатория Google будет использовать EVE как песочницу для тестирования ИИ в сложной среде с живыми игроками.

Для DeepMind это продолжение линии работ типа AlphaGo и AlphaStar в среде, которая ведёт себя как живой мир. Эксперименты пойдут на изолированных офлайн-инстансах, не связанных с боевым сервером Tranquility. Подробности обещают раскрыть на Fanfest 2026 на следующей неделе.

Анонс приурочен к выходу студии из-под контроля Pearl Abyss и ребрендингу в Fenris Creations.
eveonline.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
80👨‍💻58👍49💯20👏13🤩6🔥4🎉4
This media is not supported in your browser
VIEW IN TELEGRAM
Единственный сотрудник, которого не может заменить ИИ.

@ai_machinelearning_big_data
👍102😁64🤔4421🔥13💯12🍾2
⚡️ Zyphra выкатила ZAYA1-8B - маленькую MoE-модель, которая выглядит слишком бодро для своего размера.

У модели меньше 1 млрд активных параметров, но Zyphra заявляет, что она конкурирует с куда более крупными open-weight и proprietary-моделями на математике, кодинге и reasoning-бенчмарках.

ZAYA1-8B - это ставка на весь стек сразу:

- MoE-архитектура с Compressed Convolutional Attention;
- новый MLP-router для более стабильного выбора экспертов;
- learned residual scaling для контроля роста residual-норм;
- pretraining на AMD Instinct MI300x, без NVIDIA-стека;
- большой post-training pipeline с SFT, reasoning warmup, RLVE-Gym, math/code RL и RLHF/RLAIF;
- test-time compute метод Markovian RSA.

Markovian RSA - самая любопытная часть. Модель генерирует несколько reasoning-трасс параллельно, затем рекурсивно агрегирует их и продолжает рассуждение кусками, не раздувая контекст бесконечно. По заявлению Zyphra, именно это резко бустит сложные математические задачи.

На HMMT'25 они показывают 89.6 против 88.3 у Claude 4.5 Sonnet и GPT-5-High. А при extra-high test-time compute говорят, что ZAYA1-8B обходит DeepSeek-V3.2 и GPT-OSS-120B High на APEX-shortlist.

Модель полностью обучали на AMD-инфраструктуре. Для рынка это почти политическое заявление - serious AI training больше не обязан выглядеть как “NVIDIA or nothing”.

ZAYA1-8B доступна в Zyphra Cloud, веса выложены на Hugging Face, лицензия Apache-2.0.

https://www.zyphra.com/post/zaya1-8b

@ai_machinelearning_big_data

#Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
2👏116👍36🔥2921🎉4🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Настоящий хай тек лоу лайф

Всё-таки настоящий киберпанк не в Китае, а в Сан-Франциско.

Девушка вызвала беспилотное такси от Zoox, но, когда авто подъехало, туда запрыгнул бездомный.

Возможно, он думал, что это автобус.

@ai_machinelearning_big_data
😁93🤨35🤔14👍11😐9🤣87🔥2😢2
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ OpenAI запустила платформу для размещения рекламы в ChatGPT

OpenAI открыла бета-доступ к инструменту Ads Manager, который позволяет компаниям самостоятельно создавать и вести рекламные кампании в ChatGPT.

О запуске в сообщил журналистам глава направления монетизации Асад Аван. На старте сервис доступен только рекламодателям в США.

По словам Авана, в период закрытого пилота платформа требовала минимальных расходов в 50 тысяч долларов - теперь этот порог снят. К прежней модели оплаты за показы добавлена оплата за клик.

Доступ к Ads Manager уже получили рекламные агентства Dentsu, Omnicom, Publicis и WPP, а также ряд технологических партнёров: Adobe, Criteo, Kargo, Pacvue и StackAdapt.

Запуск вписан в долгосрочные финансовые ориентиры компании. По данным Axios, OpenAI рассчитывает получить 2,5 миллиарда долларов рекламной выручки в текущем году и довести этот показатель до 100 миллиардов к 2030 году.

Reuters в марте сообщало, что американский рекламный пилот OpenAI за 6 недель вышел на годовую выручку свыше 100 миллионов долларов.

По оценке eMarketer, доля рекламы в ИИ-поиске на американском рынке в 2025 году составляет около 0,7% всех расходов на поисковую рекламу.

К 2029 году аналитики ожидают её рост до 13,6%, а в абсолютных цифрах - до 25,9 миллиарда долларов. При этом значительная часть прироста придётся не только на OpenAI, но и на Microsoft и Google, развивающих собственные поисковые продукты с ИИ.

Развитие рекламных продуктов в ИИ отраслевые издания связывают с ростом затрат на инфраструктуру: компании ищут способы диверсифицировать выручку и одновременно сохранить доступность потребительских сервисов.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩69👍38🔥25🤬14🙈118👏8🤔4😢4🎉4🌭1
Media is too big
VIEW IN TELEGRAM
📌 Еще OpenAI выкатила GPT-Realtime-2 - голосовую модель нового поколения для API.

Api позволяет делать realtime-собеседников, которые могут слушать, рассуждать, перебивать себя по ходу диалога, вызывать инструменты и решать задачи прямо во время разговора.

Что вышло:

- GPT-Realtime-2 - модель для production voice agents с reasoning уровня GPT-5, обработкой перебиваний, tool calls и более живым диалогом;
- GPT-Realtime-Translate - потоковый перевод в реальном времени: более 70 входных языков и 13 выходных;
- GPT-Realtime-Whisper - потоковая транскрибация речи для субтитров, заметок и live-конспектов.

https://openai.com/index/advancing-voice-intelligence-with-new-models-in-the-api/

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥70🤩4627👍18👏43👌1🤣1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ ЕС сдвинул дедлайны AI Act на 2027-2028

Европарламент и Совет ЕС достигли соглашения по пакету поправок, упрощающих реализацию AI Act и сдвигающих дедлайны.

Правила для высокорисковых систем (биометрия, найм, образование, миграция, критическая инфраструктура, правоохранительные органы) начнут применяться со 2 декабря 2027 года. Для систем, встроенных в продукты (промышленность, медизделия, игрушки, лифты, маломерные суда), срок - 2 августа 2028 года.

Льготы для малого бизнеса расширят на компании с численностью до 500 сотрудников. Кроме того, разработчики получат более свободный доступ к регуляторным песочницам для тестирования своих продуктов в реальных условиях до выхода на рынок.

Отдельно документ вводит жесткий запрет на генерацию интимного контента без согласия- разработка и использование приложений для создания дипфейков и нюдификации на базе нейросетей теперь полностью нелегальны. Обязательства по маркировке ИИ-контента сдвинуты на декабрь 2026 года.
europa.eu

✔️ OpenAI поддержит студенческие проекты грантами по $10 000

Компания запустила программу ChatGPT Futures: гранты по $10 000 и приоритетный доступ к своим моделям для студентов выпуска 2026 года, поколения, поступившего в ВУЗы осенью 2022 года, одновременно с релизом первой версии ChatGPT.

В стартовый набор вошли представители более 20 университетов. Финансирование выделяется на проекты в анализе данных, инклюзивных приложениях, медицинских и социальных сервисах.

По формулировке OpenAI, программа должна сократить путь от идеи до прототипа и дать командам ресурсы для старта без поиска первых инвестиций.
openai.com

✔️ xAI становится подразделением SpaceX и переименовывается в SpaceXAI

Илон Маск объявил о ликвидации xAI как независимой компании. ИИ-направление переходит в структуру SpaceX и продолжит выпускать продукты под брендом SpaceXAI.

Слияние формально завершает сделку февраля 2026 года, по которой SpaceX выкупила xAI через обмен акциями. Сотрудникам тогда обещали сохранить отдельный бренд, но переход под зонтик материнской компании произошел быстрее ожидаемого.
Elon Musk в сети Х

✔️Anthropic выкатил Dreaming и оркестрацию субагентов в Claude Managed Agents

Обновилась платформа Claude Managed Agents: добавлена экспериментальная функция Dreaming, инструмент Outcomes и мультиагентная оркестрация переведены в публичную бету

Dreaming - фоновый процесс, который разбирает логи завершённых сессий, выделяет повторяющиеся паттерны и обновляет память агента.

Outcomes позволяет задать метрики качества финального результата. Отдельная модель-оценщик проверяет работу основного агента в изолированном контекстном окне. При несоответствии задача уходит на повторный прогон без участия человека.

Оркестрация даёт lead-агенту возможность дробить задачи и делегировать их специализированным субагентам. Те работают параллельно в общей файловой системе и сохраняют историю действий в Claude Console. О завершении работы система оповещает разработчика через вебхуки.
claude.com

✔️ Prime Intellect вывел Lab из беты

Lab закрывает цикл пост-трейна в одном пайплайне: оценка, RL, деплой адаптеров и инференс.

Пользователь задаёт задачу и критерии скоринга. Дальше Lab прогоняет модель через циклы проб и ошибок, собирает сигналы вознаграждения и обучает LoRA-адаптеры - обновляются только нужные веса, после чего адаптер автоматически разворачивается на следующую итерацию.

Базовая абстракция - Environment: пакет с данными задачи, обвязкой модели, изолированной песочницей и метриками награды. Среду можно переиспользовать для локальной разработки, хостинга, генерации синтетики или RL-обучения.

Биллинг идет по обработанным токенам, а не по часам GPU. Сейчас поддерживаются 14 открытых и проприетарных моделей с диапазоном от 1B до 70B параметров на dense и MoE-архитектурах.
primeintellect.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥459👍5