Машинное обучение RU
18.1K subscribers
1.67K photos
238 videos
11 files
2.11K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
👍135😁5🔥3
👣 GrayMatter: память для AI-агентов в три строки кода

У AI-агентов есть старая проблема: каждый новый запуск начинается почти с нуля. Чтобы агент «помнил» контекст, приходится снова скармливать ему историю, правила, предпочтения и детали проекта. Это быстро сжигает токены и замедляет работу.

GrayMatter решает это как легкий слой persistent memory для агентов.

Идея простая: агент сохраняет важные факты в локальное хранилище, а перед новой задачей достает только релевантный контекст.

Не всю историю подряд, а именно то, что нужно сейчас.
Не нужен Docker, база данных, облако или отдельный аккаунт. Один бинарник, локальное хранение, офлайн-режим.

Можно использовать и как обычную Go-библиотеку: Remember сохраняет факт, Recall достает нужную память по запросу.

Есть TUI-дашборд, где видно, сколько фактов сохранено, как часто они используются, сколько памяти занимает store и как работает recall.

https://github.com/angelnicolasc/graymatter
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍5👎21
🖥 NVIDIA тихо подвинула Rust ближе к CUDA

В CUDA появился экспериментальный проект cuda-oxide. Это компилятор, который позволяет писать GPU-кернелы на Rust и получать на выходе PTX для NVIDIA GPU.

Без отдельного DSL. Без прослойки на C++. Без схемы «Rust только управляет, а настоящая работа всё равно в CUDA C++».

Пока это ранняя alpha, так что ждать production-ready инструмента рано. API будет ломаться, баги будут, часть возможностей ещё не закрыта. Но сам ход показательный.

CUDA много лет была территорией C и C++. Rust рядом с ней обычно жил как host-код, биндинги или инфраструктура вокруг вычислений. cuda-oxide пробует другое: дать Rust зайти прямо внутрь GPU-кернелов.

Почему это интересно:

- можно писать SIMT-код на Rust
- компиляция идёт напрямую в PTX
- не нужно тащить C++-обвязку для каждого критичного участка
- появляется шанс использовать Rust-эргономику в низкоуровневом GPU-коде
- у NVIDIA, похоже, появился серьёзный интерес к Rust-разработчикам

Сейчас это не «убийца CUDA C++» и не повод срочно переписывать ML-инфру.

Но если проект доживёт до стабильной версии, он может сильно упростить жизнь тем, кто пишет HPC, симуляции, ML-runtime и системный GPU-код.

Rust всё дальше уходит из роли «безопасной замены C для серверов» и залезает в зоны, где раньше почти безраздельно сидел C++.

https://github.com/NVlabs/cuda-oxide/releases/tag/v0.1.0
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2🔥2
Forwarded from Machinelearning
✔️ Конгресс США начал расследование против Сэма Альтмана

Комитет по надзору Палаты представителей США направил официальное письмо Сэму Альтману с требованием раскрыть детали его личных инвестиций и финансовые связи с топ-менеджментом.

Власти подозревают, что ресурсы OpenAI могли использоваться для искусственного завышения капитализации компаний, в которых CEO имеет личную долю.

Главным поводом для расследования стала ситуация вокруг разработчика термоядерных реакторов Helion.

В 2021 году Альтман вложил в него $375 млн из собственных средств, а позже предложил OpenAI инвестировать в проект еще $500 млн. Эта сделка могла увеличить оценку Helion в шесть раз - до $35 млрд.

Согласно документам комитета, сотрудники OpenAI были настолько встревожены инициативой, что избегали ее обсуждения в корпоративном Slack из-за страха перед возможным судебным преследованием.

Расследование также выявило непубличные связи внутри руководства компании: выяснилось, что президент OpenAI Грег Брокман владеет долями в двух стартапах Альтмана и имеет процент в его семейном фонде.

Конгресс обязал OpenAI до 22 мая провести брифинг с участием главного юрисконсульта и предоставить всю внутреннюю переписку с 2015 года, касающуюся конфликтов интересов.

Отдельно законодатели запросили доступ к отчета аудиторского комитета, созданного советом директоров OpenAI после скандального увольнения и возвращения Альтмана в 2023 году.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1😱1
Новый репозиторий Anthropic: Claude for Legal.

Это набор готовых AI-workflow для юридических команд.

Внутри сценарии для работы с:

• контрактами
приватностью
• трудовым правом
• судебными спорами
• корпоративными задачами
• интеллектуальной собственностью
• AI governance
• мониторингом регулирования
• юридическими клиниками
• студентами-юристами

Ссылка:
https://github.com/anthropics/claude-for-legal
3👍3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Python 3.15 beta 1 вышла в релиз 🐍

Это значит, что крупные фичи для релиза фактически зафиксированы. Дальше - бета, тесты, багфиксы и подготовка к финальному релизу.

Что интересного в 3.15:
- lazy imports через ключевое слово lazy
- встроенные frozendict и sentinel
- JIT стал быстрее на x86-64 Linux
- распаковка прямо внутри comprehensions
- новый статистический profiler с низким overhead
- frame pointers включены по умолчанию

Python 3.15.0b1 вышел 7 мая 2026 года, это первая из четырёх запланированных beta-версий и точка feature freeze; финальный релиз запланирован на 1 октября 2026 года.

https://blog.python.org/2026/05/python-3150-beta-1/
👍31
Just AI Agent Platform теперь доступна в облаке.

Раньше такие платформы чаще были историей для крупного enterprise: долгий запуск, отдельная инфраструктура, большой бюджет на внедрение. Теперь всё проще - зарегистрировался и можно сразу собирать AI-агентов под свои задачи.

Это low-code-платформа, где агентов можно настраивать в конструкторе без полноценной разработки с нуля. Удобно, если нужно быстро проверить гипотезу, собрать прототип и понять, где автоматизация реально даёт пользу бизнесу.

Что можно делать:

• обрабатывать обращения клиентов

• собирать внутренних помощников для сотрудников

• автоматизировать рутину в отделах

• подключать базы знаний через RAG

• интегрироваться с внутренними системами

• использовать разные LLM-модели под конкретные сценарии

Агентные сценарии можно тестировать быстрее, дешевле и без необходимости сразу запускать большой проект разработки.

Попробовать тут

Реклама. ООО «Маинд Крафт», ИНН: 7813286694, erid:2VtzqwzrhUj
Пользователи твиттера разгромили картину Клода Моне, так как поверили, что это генерация ИИ:

> Чувак под ником SHL0MS написал, что сгенерировал картину в стиле Моне, и попросил подробно рассказать, чем она уступает настоящему Моне

> Диванные искусствоведы начали критиковать работу со светом, деталями, цветами и так далее

> В итоге оказалось, что это не генерация ИИ, а настоящая картина Клода Моне из цикла «Кувшинки»
😁163👏3
🧠 Mercury: Soul-Driven AI Agent

Mercury — это умный AI-агент, который запрашивает разрешения перед выполнением действий и запоминает важные детали. Он работает 24/7 через CLI или Telegram, имеет 31 встроенный инструмент и расширяемые навыки, а также память на основе SQLite.

🚀 Основные моменты:
- Запрашивает разрешения перед выполнением команд.
- Обладает структурированной памятью с автоэкстракцией.
- Легко настраивается и расширяется с помощью пользовательских навыков.
- Работает в фоновом режиме и автоматически перезапускается при сбоях.
- Поддерживает многоканальный доступ через Telegram и CLI.

📌 GitHub: https://github.com/cosmicstack-labs/mercury-agent

#javascript
🔥3👍21
✔️ Intern-S2-Preview - эффективная научная мультимодальная foundation-модель на 35B параметров.

1. Показывает качество, сопоставимое с trillion-scale моделью Intern-S1-Pro на ключевых научных задачах.

2. Первая open-source модель с возможностью генерации кристаллических структур материалов и сильными общими способностями.

3. Значительно усиливает возможности научных агентов на нескольких бенчмарках.

4. Повышает MTP acceptance rate и скорость генерации токенов за счёт shared-weight MTP + KL loss.

5. CoT compression сокращает ответы, сохраняя сильное рассуждение, что улучшает и качество, и эффективность.

Теперь поддерживается vLLM и SGLang. В будущем обещают больше интеграций с экосистемой.

Модель:
https://huggingface.co/collections/internlm/intern-s2

ModelScope:
https://modelscope.cn/collections/Shanghai_AI_Laboratory/Intern-S2

GitHub:
https://github.com/InternLM/Intern-S1

Попробовать:
https://chat.intern-ai.org.cn
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2🔥2👏1