Машинное обучение digest
57 subscribers
1.69K photos
224 videos
923 links
Download Telegram
Параллельно Минобороны США запустило платформу GenAi.mil с Gemini for Government на борту, чтобы предоставить армии доступ к передовым языковым моделям. Таким образом, ИИ перестает быть экспериментальным направлением и становится штатной функцией офицерского состава.
federalnewsnetwork.com (https://federalnewsnetwork.com/army/2025/12/army-launches-ai-and-machine-learning-career-path-for-officers/)
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 DFlash: как ускорить LLM без потери качества

DFlash - это способ ускорить генерацию текста у больших моделей.

Он работает так: одна модель быстро делает черновик, другая - проверяет его и исправляет ошибки.

Почему это круто?

🚀 6.2× быстрее без потери качества на Qwen3-8B
в 2.5 раза быстрее EAGLE-3

Идея простая:

• диффузионные модели - генерируют быстро, но иногда ошибаются
• автогенеративные (AR) - очень точные, но работают медленно
DFlash сочетает оба подхода:
диффузия — черновик → AR — проверка и подтверждение

Получается: и быстро, и аккуратно, вместо того, чтобы выбирать одно.

🔗 Блог: https://z-lab.ai/projects/dflash/
💻 Код: https://github.com/z-lab/dflash
🤗 Модели: https://huggingface.co/collections/z-lab/dflash
Please open Telegram to view this post
VIEW IN TELEGRAM
Создатель Claude Code поделился своим сетапом

1. Параллельные сессии — это база

Борис держит 5 инстансов Claude одновременно в терминале.

Чтобы не пропустить момент, когда модели нужен ввод, использует системные уведомления.

2. Веб + локальная версия параллельно

К 5 терминальным сессиям добавляет ещё 5-10 в вебе.

Задачи между вебом и терминалом передаёт через "&", а для быстрого перехода туда-сюда использует "--teleport".

3. Opus 4.5 с thinking — лучшая модель

Да, она крупнее и медленнее Sonnet. Но её меньше нужно направлять, она лучше работает с инструментами, и в итоге почти всегда оказывается быстрее, чем использование меньшей модели.

4. Командный CLAUDE.md

Вся команда работает с одним файлом CLAUDE.md на репозиторий. Его хранят в git и обновляют несколько раз в неделю. Если видят, что Claude делает что-то не так — сразу добавляют туда, чтобы ошибка не повторялась.

5. Код-ревью через @claude

Во время ревью PR коллег, тегают @claude, чтобы он сразу добавил правки в CLAUDE.md. Используют для этого Claude Code Github action.

6. Plan mode — стартовая точка

Большинство сессий начинается в Plan mode. Борис работает над планом, пока тот не станет идеальным. Потом переключается в auto-accept edits mode, и Claude обычно делает всё за один проход.

7. Slash commands для рутины

Для рабочих процессов, которые повторяются много раз в день, использует slash commands. Команды хранятся в ".claude/commands/". Например, "commit-push-pr" — коммит, пуш и открытие PR.

8. Subagents для автоматизации

Агент "code-simplifier" упрощает код после того, как Claude закончил, а "verify-app" содержит детальные инструкции для e2e-тестирования.

Борис думает о сабагентах как об автоматизации самых частых рабочих процессов для PR.

9. Команда permissions вместо --dangerously-skip-permissions

Через "permissions" заранее разрешает bash-команды, которые безопасны в его окружении.

Настройки хранит в ".claude/settings.json" и делится ими с командой.

10. MCP для интеграций

Claude сам использует Slack-поиск, BigQuery, Sentry и т.д. Конфигурация в .mcp.json делится внутри команды.

Конфиг в .mcp.json тоже шарится с командой.
NVIDIA представила Alpamayo-R1 - новый открытый AI для автономных автомобилей, способную не просто «видеть», но и думать, рассуждать и планировать действия, как человек.

Это первый в мире крупномасштабный open-source VLA-модель (Vision-Language-Action), объединяющая:

• восприятие окружающего мира (камера, сенсоры)
• понимание сцены и причинно-следственное рассуждение
• генерацию пути и управление автомобилем

Такая структура позволяет автомобилю не только реагировать на препятствия, но оценивать ситуацию, выбирать безопасную траекторию и «объяснять» свои решения, чего не было в традиционных моделях без явного рассуждения.

👉 Модель открыта для исследователей и разработчиков на GitHub и Hugging Face, что позволит ускорить исследования автономного вождения и повысить безопасность.

https://developer.nvidia.com/blog/building-autonomous-vehicles-that-reason-with-nvidia-alpamayo/
⚡️ Сам Шиллейс (Deputy CTO Microsoft), как искусственный интеллект уже меняет программирование и это только начало.

Идея проста: то, что уже случилось с программированием, вскоре произойдет почти везде.

Что уже видно на примере разработки
- Раньше ИИ был как умное автодополнение. Помогал, но не менял правила игры.
- Теперь он анализирует, пишет и отлаживает код, снимая львиную долю рутины.
- Команды, которые встроили ИИ глубоко в процессы, работают быстрее и качественнее.
- Те, кто игнорирует инструменты, постепенно отстают.

Как выглядит общий цикл изменений
1. ИИ становится достаточно хорошим, чтобы помогать.
2. Появляются новые практики и инструменты под конкретные задачи.
3. Ранние пользователи ускоряются и усиливают конкурентное преимущество.
4. Наступает точка, где без ИИ уже нельзя. Кто не адаптируется - исчезает с рынка.

Почему это важнее, чем просто новые инструменты
- Это не косметическое улучшение.
- Это смена модели работы: меньше ручной рутины, больше фокуса на стратегию и постановку задач.
- Такой сдвиг затронет дизайн, аналитику, инженерные и научные профессии.

Что это значит для нас
- Навык использовать ИИ быстро становится базовым.
- Побеждают не те, кто знает больше фактов, а те, кто умеет работать вместе с ИИ.
- Лучшее время учиться этому - сейчас.

Короткий вывод
ИИ сначала делает работу удобнее, потом дешевле, потом неизбежной. И те, кто освоит его раньше, зададут правила игры.

sundaylettersfromsam.substack.com/p/how-it-will-happen
Please open Telegram to view this post
VIEW IN TELEGRAM
✔️ C# стал языком 2025 года по версии TIOBE.

Индекс TIOBE подвел итоги года: звание «Язык 2025 года» досталось C#, который показал рекордный рост популярности (+2.94%)? однако в общем зачете он по-прежнему занимает 5-ю строчку. Абсолютным лидером остается Python с 22.61% долей рынка.

В первой пятерке произошли перестановки: язык C поднялся на 2 место, сместив C++ на 4-ю позицию; 3 место досталось Java, а R вернулся в топ-10. Провал года - Go, который неожиданно сдал позиции, опустившись сразу на 16-е место.

Индекс оценивает популярность технологий на основе поисковых запросов, активности комьюнити и количества обучающих материалов.

https://www.tiobe.com/tiobe-index/
Please open Telegram to view this post
VIEW IN TELEGRAM
🌟 Открытые модели и инструментарий для автопилотов от NVIDIA.

NVIDIA, сдержала обещания c NeurIPS 2025 и сделала еще один шаг к тому чтобы автомобили наконец научились понимать контекст вождения, а не просто детектировать разметку.

Современные автопилоты неплохо справляются со стандартными ситуациями. Но главная головная боль инженеров — это редкие, сложные сценарии, которые почти невозможно предугадать. Традиционные архитектуры, где восприятие отделено от планирования, часто пасуют, когда случается что-то нестандартное.

И вот здесь предлагается подход, где модель учится рассуждать причинно-следственными связями, почти как человек, разбирая ситуацию шаг за шагом. А это важный фактор для безопасности и доверия к системе.

🟡NVIDIA выкатила целую экосистему, которую можно пощупать руками:

🟢Alpamayo - первая в индустрии 10 миллиардная VLA-модель с поддержкой СoT, созданная специально для исследований. Она берет на вход видеопоток и генерирует не только траекторию движения, но и "reasoning traces" — то есть буквально объясняет логику своего решения.

Модель позиционируется как модель-учитель, которая может быть использована для обучения более компактных моделей или для авто-разметки данных.

🟢AlpaSim - полностью открытый, end-to-end фреймворк для симуляции, который позволяет моделировать реалистичные сенсоры и трафик, создавая идеальную песочницу для тестов.

🟢Physical AI Open Datasets - пожалуй, самый богатый датасет для автономного вождения на сегодняшний день. Туда входит более 1700 часов записей вождения из самых разных географических зон и условий. И, что важно, там куча тех самых редких кейсов, о которых мы говорили выше.

На практике, NVIDIA предлагает применять эти инструменты в своих решениях NVIDIA Cosmos и NVIDIA Omniverse.

В них можно дообучать модели на своих данных, валидировать их в симуляции и затем деплоить на железо.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Karpathy выпустил nanochat miniseries v1.

Главная идея: мы не оптимизируем одну конкретную модель, а целое семейство моделей, где качество растёт монотонно вместе с вычислительными затратами. Это позволяет строить реальные scaling laws и быть уверенными, что когда платишь за большой прогон, результат оправдает деньги.

В nanochat был сделан упор на полный LLM-пайплайн. Теперь акцент сместился на предобучение как фундамент интеллекта модели.

После тюнинга гиперпараметров выяснилось, что nanochat отлично следует законам масштабирования и ведет себя как в Chinchilla: оптимальное соотношение параметров и токенов сохраняется. Причем константа у nanochat примерно 8, а у Chinchilla была 20.

Далее была обучена мини-серия моделей d10...d20. У всех чистые, не пересекающиеся кривые обучения. Чтобы сравнить их с GPT-2 и GPT-3, Karpathy использовал CORE score вместо validation loss. В итоге nanochat корректно ложится на ту же шкалу и показывает, что всё движется в правильном направлении.

Стоимость экспериментов примерно 100 долларов за 4 часа на 8×H100. Уже сейчас можно тренировать вычислительно оптимальные модели и улучшать их просто увеличивая compute. А соответствие GPT-2 пока стоит около 500 долларов, но, по мнению автора, можно довести до менее 100.

Полный разбор и код: github.com/karpathy/nanochat/discussions/420

Смысл: масштабирование работает, пайплайн воспроизводим, и дальше всё упирается только в то, сколько вычислений вы готовы включить.
🔥 AI-исследователи сегодня стоят слишком дорого.

По данным СМИ, OpenAI осенью 2025 года зарезервировала пул акций на 50 млрд долларов для будущих опционов и RSU.
Это примерно 10% компании при оценке около 500 млрд долларов.

Уже выдано акций примерно на 80 млрд.
Вместе с новым пулом это около 26% всей компании.

Вывод простой: рынок ИИ полностью перестраивает компенсации и фонды под сотрудников. Компании борются не за сервера, а за людей, которые умеют тренировать модели мирового уровня.

Подробнее: reuters.com/technology/openai-reserves-50-billion-stock-grant-pool-information-reports-2026-01-08/
Главные новости ИИ и Мл.

✔️ OpenAI запустила ChatGPT Health.

ChatGPT Health — отдельный раздел чат-бота исключительно для запросов, связанных со здоровьем, с возможностью интеграции с сервисами трекинга: Apple Health, MyFitnessPal, а также с личными медицинскими записями для анализа результатов анализов и истории болезни.

Вопросы приватности и безопасности данных решены с помощью многоуровневого шифрования и отдельной инфраструктуры; данные из ChatGPT Health по умолчанию не используются для обучения основных моделей ChatGPT.

Доступ к бета-версии открыт через лист ожидания для пользователей за пределами ЕС, Швейцарии и Великобритании; интеграция с медицинскими картами пока доступна только в США.
openai.com

✔️ Китай проверяет сделку по покупке Manus на нарушение экспортного контроля.

Министерство торговли КНР начало расследование приобретения стартапа Manus. Власти подозревают, что релокация сотрудников и технологий компании из Китая в Сингапур с последующей продажей американскому техно-гиганту могла быть попыткой обхода требований по лицензированию экспорта технологий.

Команда и основатели Manus покинули Китай летом 2025 года, чтобы дистанцироваться от геополитических рисков. Этот маневр позволил привлечь $75 млн. от американского фонда Benchmark, что ранее уже вызывало вопросы у Минфина США.

Компания Цукерберга утверждает, что на момент закрытия сделки в Manus не осталось китайского капитала, однако Пекин намерен выяснить, легально ли технологии покинули страну до того, как стартап сменил юрисдикцию.
ft.com

✔️ Siemens и NVIDIA создадут ИИ-ОС для заводов.

Компании объявили о расширении партнерства ради создания единой среды Industrial AI Operating System. Она построена на концепции централизованного интеллекта, который позволит непрерывно анализировать цифровые двойники и валидировать любые производственные изменения в виртуальной среде до их реализации в поле. Эталоном такого производства станет завод Siemens в немецком Эрлангене.

Для инженеров альянс готовит новые инструменты. В середине 2026 года выйдет Digital Twin Composer на движке NVIDIA Omniverse для построения промышленных мета-вселенных, а интеграция библиотек CUDA-X в программный стек Siemens обещает кратный прирост производительности в проектировании полупроводников и тяжелых инженерных симуляциях.
press.siemens.com

✔️ OpenAI, Anthropic и Google разделили лидерство в Intelligence Index 4.0.

Artificial Analysis представила 4-ю версию рейтинга ИИ-моделей, зафиксировав жесткую конкуренцию между топовыми игроками. Формальное лидерство досталось GPT-5.2 (Х-High), однако Claude Opus 4.5 и Gemini 3 Pro отстают от нее с минимальным разрывом, фактически образуя тройку равных лидеров.

В новой итерации индекса заметно просели абсолютные показатели: лучшие модели теперь набирают в районе 50 баллов против 73 в прошлой версии. Это связано с ужесточением методологии и ротацией тестовых наборов.

На смену AIME 2025 и MMLU-Pro пришли более суровые тесты: AA-Omniscience для проверки эрудиции и склонности к галлюцинациям, GDPval-AA для прикладных задач в 44 сферах и CritPt, оценивающий способности в физических исследованиях. Итоговый балл формируется из 4-х категорий: агенты, программирование, научное мышление и общие задачи.
Artificial Analysis в сети Х

✔️ Учёные из Ватерлоо научились бэкапить квантовые данные.

Команда из Университета Ватерлоо решила одну из фундаментальных проблем квантовых вычислений — невозможность прямого копирования информации. Суть метода, описанного в Physical Review Letters, заключается в шифровании квантовой информации в процессе ее копирования.

Как поясняют авторы, запрет на клонирование можно обойти, если создавать неограниченное количество зашифрованных дубликатов кубитов. Механизм защиты работает через одноразовые ключи: как только пользователь расшифровывает одну из копий, ключ автоматически аннулируется.

Это открытие фактически легализует создание «квантового облака». Технология позволяет хранить квантовые данных на распределенных серверах и создать аналог квантового Dropbox или Google Drive.
uwaterloo.ca
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Хочешь прокачаться в аналитике, но не просто читать теорию, а решать реальные задачи?

Мы запустили полностью бесплатный телеграм-тренажёр 👇

Тебя ждут сценарии, с которыми сталкиваются аналитики каждый день: от простых запросов до задач уровня собеседований.

Что внутри:

живые кейсы из реальной практики
удобный симулятор - как работа в компании, только бесплатно
разбор ошибок — понимаешь не только «как», но и «почему»
добавляем задачи с интервью и улучшаем бот вместе с сообществом

Начни тренироваться сегодня — и почувствуй уверенность в работе с данными.

t.me/Analitics_databot
🖥 Подробный вводный курс по парсингу на Python 2026 года

В этом бесплатном курсе вы шаг за шагом научитесь собирать данные с веб-сайтов с помощью Python. Мы начнём с основ парсинга (скрапинга) - автоматического сбора информации с веб-страниц – и постепенно перейдём к более продвинутым темам.

Материал разбит на модули с понятными примерами и практическими заданиями после каждой темы. Курс рассчитан на начинающих и продолжающих (junior/middle) разработчиков, знакомых с основами Python.

📌 Гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
Главные новости ИИ и Мл

✔️ Commonwealth Fusion Systems запустит термоядерный реактор в 2027 году.

Стартап Commonwealth переходит от теоретических моделей к реальному строительству демонстрационной установки SPARC. Для ускорения разработки инженеры используют «цифровых двойников» на базе ИИ, созданных в партнерстве с Siemens и Nvidia.

Получение первой плазмы запланировано уже на 2027 год. Успех этого этапа откроет дорогу к запуску полноценной коммерческой станции ARC мощностью 400 МВт в начале 2030-х годов.

Такая установка способна обеспечить электричеством около 300 тыс. домов. В компании говорят, что стабильная и чистая энергия станет важным ресурсом в первую очередь для питания дата-центров, обслуживающих ИИ.
fortune.com

✔️ Arm открывает подразделение Physical AI.

Arm Holdings проводит реструктуризацию, чтобы закрепиться на растущем рынке роботов. Компания объявила о создании нового бизнес-юнита «Physical AI», который объединит разработки для автомобильной индустрии и робототехники. Теперь глобальная стратегия Arm будет строиться вокруг трех направлений: Cloud & AI, Edge (мобильные устройства и ПК) и нового сегмента физического ИИ.

По словам директора по маркетингу Arm, слияние автомобильного и робототехнического векторов — это инженерная необходимость. Оба направления предъявляют одинаковые требования к архитектуре чипов: безопасность, отказоустойчивость и оптимизация энергопотребления. Возглавит новую структуру Дрю Генри, а компания уже анонсировала расширение штата специалистов под эти задачи.
reuters.com

✔️ NVIDIA RTX 60ХХ может задержаться до 2027 года.

По данным инсайдеров, следующее поколение потребительских видеокарт NVIDIA выйдет не раньше второй половины 2027 года. Это создаст беспрецедентный разрыв между релизами: учитывая выход серии RTX 50 в начале 2025-го, ожидание новинок растянется минимум на 30 месяцев — рекордный срок обновления для линейки GeForce.

Причиной задержки стал рост потребностей ИИ. Огромный спрос на компьют спровоцировал дефицит GDDR7 и скачок цен, из-за чего Micron пересмотрела приоритеты производства в ущерб потребительской памяти.

Ожидается, что будущая серия RTX 60ХХ будет базироваться на архитектуре Vera Rubin (GPU GR200). В качестве временной меры для насыщения рынка компания, по слухам, рассматривает повторный выпуск RTX 3060.
techspot.com

✔️ Gmail начинает переход на Gemini 3.

Google объявила о начале «эры Gemini» в своем почтовом сервисе. Главным нововведением стала система AI Overviews, заимствованная из поиска. В Gmail она выполняет 2 задачи: автоматически создает краткие выжимки из длинных цепочек писем и позволяет искать информацию через запросы.

Инструменты для написания писем также получили апгрейд. Функция Help Me Write для генерации и редактирования черновиков стала бесплатной для всех пользователей. Привычные шаблонные ответы заменили на Suggested Replies — они анализируют контекст переписки и пытаются имитировать стиль автора.

Параллельно, Google тестирует режим AI Inbox, который должен решить проблему перегруженных ящиков, автоматически выделяя приоритетные письма на основе истории взаимодействия с контактами. На данный момент эти обновления появляются у пользователей из США.
blog.google

✔️ Hugging Face запустила функцию «чата со статьями» для анализа публикаций.

Платформа интегрировала умного ассистента в раздел Hugging Face Papers. Теперь при просмотре любой научной работы доступен встроенный интерфейс на базе HuggingChat и собственного MCP-сервера.

Новый инструмент ускоряет процесс погружения в сложные исследования. Вместо полного чтения PDF можно попросить сделать саммари, объяснить ключевые концепции или найти конкретные данные внутри текста в режиме диалога.

Функция работает автоматически для всех ссылок на arXiv, размещенных на хабе.
huggingface.co

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Андрей Карпаты нашел идеальный баланс токенов и параметров для обучения LLM.

Андрей Карпаты опубликовал результаты экспериментов по оптимизации претрейна языковых моделей в условиях фиксированного бюджета.

Чтобы найти наиболее эффективный способ расходования вычислительных ресурсов, он провел серию тестов на сервере с 8х GPU H100, обучив 11 моделей разного размера при одинаковых затратах на вычисления.

🟡Главный вывод: существует «золотое сечение».

Карпаты обнаружил, что по мере увеличения мощностей оптимальное количество параметров и тренировочных токенов растут синхронно. Эмпирическое правило для протестированных конфигураций: на 1 параметр модели должно приходиться примерно 8 токенов обучающей выборки.

Если модель слишком мала, она не усваивает достаточно информации; если слишком велика — бюджет заканчивается раньше, чем она успевает обучиться.

Для инженеров этот рецепт позволяет заранее планировать архитектуру и бюджет, избегая создания заведомо неэффективных моделей.

Традиционно, все эксперименты Андрея открыты и их можно повторить самостоятельно.

🔜 Погрузиться в детали экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Karpathy
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM