В 2026 году компания реализует более десяти проектов, охватывающих инженерные, аналитические и офисные сценарии.
Технологическая основа:
— SourceCraft Code Assistant — LLM-система для поддержки разработки, ускоряющая работу свыше 500 инженеров.
— Yandex SpeechSense — платформа речевой аналитики, обрабатывающая более 20 тыс. звонков в сутки и формирующая обучающие датасеты для NLP-моделей.
— Yandex AI Studio — среда для создания ИИ-агентов, автоматизирующих обработку документов, протоколирование встреч и HR-воркфлоу.
В фокусе партнёрства — построение распределённой экосистемы Generative AI, где ИИ-сервисы становятся ядром корпоративных процессов.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1
⚡️ NVIDIA: как объединять распределённые дата-центры в одну AI-фабрику
NVIDIA предлагает смотреть на дата-центры как на единый вычислительный организм, даже если они находятся на расстоянии десятков и сотен километров.
Ключевая идея — Scale-Across Networking.
Что это значит по-простому:
– Раньше масштабировали внутри сервера (scale-up)
– Потом внутри дата-центра (scale-out)
– Теперь — между дата-центрами, как будто это один большой кластер
Для этого NVIDIA представила Spectrum-XGS Ethernet — сетевую архитектуру, которая позволяет нескольким дата-центрам работать как одна AI-фабрика.
Что внутри:
– Те же Spectrum-X коммутаторы и ConnectX-8 SuperNIC
– Учет расстояния и задержек на уровне сети
– Адаптивный роутинг и контроль перегрузок
– Предсказуемая латентность для обучения и инференса
Почему это важно:
– Можно обучать и запускать большие модели на географически распределённых ресурсах
– Не нужно строить один гигантский дата-центр
– GPU в разных локациях работают как единый пул
– До 1.9× ускорение NCCL all-reduce по сравнению с обычным Ethernet
По сути, NVIDIA двигает индустрию к модели:
AI-фабрика = сеть дата-центров, а не одно здание
И это критично для следующего поколения LLM, агентных систем и промышленных AI-платформ.
NVIDIA предлагает смотреть на дата-центры как на единый вычислительный организм, даже если они находятся на расстоянии десятков и сотен километров.
Ключевая идея — Scale-Across Networking.
Что это значит по-простому:
– Раньше масштабировали внутри сервера (scale-up)
– Потом внутри дата-центра (scale-out)
– Теперь — между дата-центрами, как будто это один большой кластер
Для этого NVIDIA представила Spectrum-XGS Ethernet — сетевую архитектуру, которая позволяет нескольким дата-центрам работать как одна AI-фабрика.
Что внутри:
– Те же Spectrum-X коммутаторы и ConnectX-8 SuperNIC
– Учет расстояния и задержек на уровне сети
– Адаптивный роутинг и контроль перегрузок
– Предсказуемая латентность для обучения и инференса
Почему это важно:
– Можно обучать и запускать большие модели на географически распределённых ресурсах
– Не нужно строить один гигантский дата-центр
– GPU в разных локациях работают как единый пул
– До 1.9× ускорение NCCL all-reduce по сравнению с обычным Ethernet
По сути, NVIDIA двигает индустрию к модели:
AI-фабрика = сеть дата-центров, а не одно здание
И это критично для следующего поколения LLM, агентных систем и промышленных AI-платформ.
🎥🚀 Wan-Move: Motion-Controlled Video Generation
Wan-Move представляет собой инновационную платформу для генерации видео с управлением движением, обеспечивая высокое качество и точность. Используя новаторское руководство по латентным траекториям, проект позволяет создавать 5-секундные видео с точным контролем на уровне объектов, интегрируясь с существующими моделями без изменений архитектуры.
🚀 Основные моменты:
- 🎯 Высококачественная генерация видео 480p с SOTA контролем движений.
- 🧩 Новая методология латентного управления траекторией.
- 🕹️ Точный контроль движений объектов с помощью плотных точечных траекторий.
- 📊 Уникальный бенчмарк MoveBench для оценки движений.
📌 GitHub: https://github.com/ali-vilab/Wan-Move
Wan-Move представляет собой инновационную платформу для генерации видео с управлением движением, обеспечивая высокое качество и точность. Используя новаторское руководство по латентным траекториям, проект позволяет создавать 5-секундные видео с точным контролем на уровне объектов, интегрируясь с существующими моделями без изменений архитектуры.
🚀 Основные моменты:
- 🎯 Высококачественная генерация видео 480p с SOTA контролем движений.
- 🧩 Новая методология латентного управления траекторией.
- 🕹️ Точный контроль движений объектов с помощью плотных точечных траекторий.
- 📊 Уникальный бенчмарк MoveBench для оценки движений.
📌 GitHub: https://github.com/ali-vilab/Wan-Move
❤2
Как управлять поведением больших языковых моделей (LLM) не через дообучение, а прямо во время работы модели, с помощью специальных методов, похожих на нейростимуляцию.
🧠 В видео объясняют:
• зачем управлять поведением моделей без тонкой настройки (fine-tuning)
• как это достигается с помощью небольшого кода и библиотек типа Transformers
• почему это важно для практических приложений ИИ
• почему такой подход может быть альтернативой классическим fine-tune-методам
⚡ Это интересная и перспективная альтернатива дообучению модели - она позволяет быстрее и гибче корректировать поведение ИИ без больших затрат.
Видео: https://www.youtube.com/watch?v=-x3jjAzAhPU
HF: https://huggingface.co/spaces/dlouapre/eiffel-tower-llama
🧠 В видео объясняют:
• зачем управлять поведением моделей без тонкой настройки (fine-tuning)
• как это достигается с помощью небольшого кода и библиотек типа Transformers
• почему это важно для практических приложений ИИ
• почему такой подход может быть альтернативой классическим fine-tune-методам
⚡ Это интересная и перспективная альтернатива дообучению модели - она позволяет быстрее и гибче корректировать поведение ИИ без больших затрат.
Видео: https://www.youtube.com/watch?v=-x3jjAzAhPU
HF: https://huggingface.co/spaces/dlouapre/eiffel-tower-llama
👍4❤1👎1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ PANDAS-ТРЮК
Если нужно быстро найти дубликаты, но сразу увидеть, *чем* именно строки отличаются — используй сравнение через groupby + nunique.
Это позволяет ловить «почти одинаковые» строки без сложных проверок. Подписывайся, больше фишек каждый день !
Если нужно быстро найти дубликаты, но сразу увидеть, *чем* именно строки отличаются — используй сравнение через groupby + nunique.
Это позволяет ловить «почти одинаковые» строки без сложных проверок. Подписывайся, больше фишек каждый день !
import pandas as pd
df = pd.DataFrame({
"name": ["Tom", "Tom", "Alice", "Alice"],
"age": [25, 25, 30, 31],
"city": ["NY", "NY", "LA", "LA"]
})
diff = (df
.groupby("name")
.nunique()
.reset_index())
print(diff)
# Показывает, какие поля у одинаковых ключей различаются
🔥10🤔2
🚀 VulnLLM-R-7B - первый специализированный reasoning LLM для поиска уязвимостей, сразу с agent-scaffold.
Что важно:
- Заточен именно под vulnerability detection
- Использует рассуждения, а не только шаблонный паттерн-матчинг
- Может работать как агент для анализа кода
Полный стек уже доступен:
📜 Paper: https://alphaxiv.org/abs/2512.07533
💻 Code: https://github.com/ucsb-mlsec/VulnLLM-R
🤗 Model & Data: https://huggingface.co/collections/UCSB-SURFI/vulnllm-r
🕹️ Demo: https://huggingface.co/spaces/UCSB-SURFI/VulnLLM-R
Хороший пример того, как узкоспециализированные LLM начинают превосходить универсальные модели в реальных задачах безопасности.
Что важно:
- Заточен именно под vulnerability detection
- Использует рассуждения, а не только шаблонный паттерн-матчинг
- Может работать как агент для анализа кода
Полный стек уже доступен:
📜 Paper: https://alphaxiv.org/abs/2512.07533
💻 Code: https://github.com/ucsb-mlsec/VulnLLM-R
🤗 Model & Data: https://huggingface.co/collections/UCSB-SURFI/vulnllm-r
🕹️ Demo: https://huggingface.co/spaces/UCSB-SURFI/VulnLLM-R
Хороший пример того, как узкоспециализированные LLM начинают превосходить универсальные модели в реальных задачах безопасности.
🔥7
🤖 Gentleman Guardian Angel: AI для проверки кода
Gentleman Guardian Angel - это инструмент для автоматической проверки кода с использованием ИИ, который работает на каждом коммите. Он помогает соблюдать стандарты кодирования, проверяя изменения перед их добавлением в репозиторий.
Полностью написан на Bash и не требует дополнительных зависимостей.
🚀Основные моменты:
- 🔌 Поддержка различных ИИ-провайдеров
- 📦 Никаких зависимостей, только Bash
- 🪝 Установка в качестве git-хука
- ⚙️ Высокая настраиваемость правил проверки
- 🚨 Режим строгой проверки для CI
📌 GitHub: https://github.com/Gentleman-Programming/gentleman-guardian-angel
Gentleman Guardian Angel - это инструмент для автоматической проверки кода с использованием ИИ, который работает на каждом коммите. Он помогает соблюдать стандарты кодирования, проверяя изменения перед их добавлением в репозиторий.
Полностью написан на Bash и не требует дополнительных зависимостей.
🚀Основные моменты:
- 🔌 Поддержка различных ИИ-провайдеров
- 📦 Никаких зависимостей, только Bash
- 🪝 Установка в качестве git-хука
- ⚙️ Высокая настраиваемость правил проверки
- 🚨 Режим строгой проверки для CI
📌 GitHub: https://github.com/Gentleman-Programming/gentleman-guardian-angel
👍2🔥1
⚡️ В этой работе показано, что трансформеры могут обучаться без normalization-слоёв и даже показывать лучшие результаты - благодаря простому слою Derf.
Derf заменяет Layer Normalization на лёгкое point-wise преобразование, которое:
- проще и дешевле в вычислении
- не требует статистик по батчу или токенам
- снижает обращения к памяти и затраты на синхронизацию
В итоге обучение и инференс становятся быстрее и проще.
При этом качество не падает, а иногда растёт.
Пример: ImageNet-1K
Vision Transformer
- 82.8% с Derf
- 82.3% с LayerNorm
Трансформеры лежат в основе большинства языковых и визуальных моделей.
Обычно normalization стабилизирует числа, вычисляя среднее и дисперсию, а затем перескалируя активации.
Но эти операции добавляют оверхед по памяти и координации, что снижает эффективность.
Derf устраняет эту проблему, применяя S-образную функцию к каждому элементу отдельно — без глобальных измерений.
Авторы выделяют 4 ключевых свойства такой функции:
- значения центрированы около 0
- выход ограничен, чтобы избежать взрывов
- высокая чувствительность вблизи 0
- монотонность — порядок значений сохраняется
Derf содержит всего два обучаемых параметра:
- масштаб входа
- сдвиг функции
Эксперименты на задачах зрения, диффузионной генерации, речи, ДНК и GPT-2 показывают, что Derf стабильно не хуже или лучше LayerNorm и Dynamic Tanh, а также лучше обобщается.
Вывод: меньше оверхеда, проще архитектура и потенциально более сильные трансформеры.
📄 Статья: arxiv.org/abs/2512.10938
Derf заменяет Layer Normalization на лёгкое point-wise преобразование, которое:
- проще и дешевле в вычислении
- не требует статистик по батчу или токенам
- снижает обращения к памяти и затраты на синхронизацию
В итоге обучение и инференс становятся быстрее и проще.
При этом качество не падает, а иногда растёт.
Пример: ImageNet-1K
Vision Transformer
- 82.8% с Derf
- 82.3% с LayerNorm
Трансформеры лежат в основе большинства языковых и визуальных моделей.
Обычно normalization стабилизирует числа, вычисляя среднее и дисперсию, а затем перескалируя активации.
Но эти операции добавляют оверхед по памяти и координации, что снижает эффективность.
Derf устраняет эту проблему, применяя S-образную функцию к каждому элементу отдельно — без глобальных измерений.
Авторы выделяют 4 ключевых свойства такой функции:
- значения центрированы около 0
- выход ограничен, чтобы избежать взрывов
- высокая чувствительность вблизи 0
- монотонность — порядок значений сохраняется
Derf содержит всего два обучаемых параметра:
- масштаб входа
- сдвиг функции
Эксперименты на задачах зрения, диффузионной генерации, речи, ДНК и GPT-2 показывают, что Derf стабильно не хуже или лучше LayerNorm и Dynamic Tanh, а также лучше обобщается.
Вывод: меньше оверхеда, проще архитектура и потенциально более сильные трансформеры.
📄 Статья: arxiv.org/abs/2512.10938
🔥10❤1👍1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Шанхайская лаборатория ИИ выложила в опенсорс спецификации SCP — протокола, созданного для формирования глобальной сети автономных исследовательских систем. Новинка развивает идеи стандарта MCP от Anthropic, добавляя к нему критически важный слой для взаимодействия с физическим миром науки.
В отличие от MCP, ориентированного на подключение данных, SCP поддерживает подключение лабораторного оборудования, расширенные метаданные экспериментов и API для оркестрации сложных рабочих процессов.
Фактически это позволяет ИИ-агентам напрямую управлять приборами и обмениваться результатами между различными институтами. Технология уже обкатана на платформе Internal Discovery, где доступно более 1600 инструментов, преимущественно для биологии, физики и химии.
arxiv.org
Компания Сэма Альтмана меняет стратегию выпуска дебютного аппаратного устройства под кодовым именем «Gumdrop». По данным Economic Daily News, OpenAI отказалась от услуг китайской Luxshare и передала контракт тайваньскому гиганту Foxconn, чтобы исключить материковый Китай из цепочки поставок - сборка будет развернута на мощностях во Вьетнаме или США.
Gumdrop находится на стадии проектирования и, вероятно, это будет умная ручка или носимый аудио-гаджет. Устройство получит камеру и микрофон, а его киллер-фичей станет нативная интеграция с ChatGPT для оцифровки и анализа рукописных заметок.
Релиз устройства запланирован на 2026–2027 годы.
money.udn.com
Сатья Наделла непреднамеренно спровоцировал имиджевый кризис, опубликовав в конце 2025 года призыв к обществу «перерасти» использование термина «slop» в отношении генеративного контента. Реакция сообщества оказалась мгновенной: эффект Стрейзанд вывел в тренды тег «Microslop», ставший символом отторжения агрессивной политики компании по повсеместному внедрению ИИ.
Пользователи выражают недовольство тем, что Microsoft принудительно встраивает Copilot в каждый продукт, игнорируя реальные потребности аудитории. Пока руководство Big Tech обещает глобальные прорывы, рынок фиксирует негативные побочные эффекты: от дефицита и удорожания памяти и сокращения рабочих мест до засорения экосистемы бесполезными функциями.
windowscentral.com
Илон Маск подтвердил планы компании начать массовый выпуск интерфейсов «мозг-компьютер» в 2026 году. Технологический процесс станет полностью автономной хирургической процедурой: роботы будут устанавливать импланты без прямого участия людей-нейрохирургов.
Проект уже вышел за рамки лабораторных экспериментов - база пациентов с активными имплантами достигла 12 человек. Устройства позволяют людям с тяжелыми нарушениями моторики управлять цифровыми интерфейсами и игровыми контроллерами напрямую через нейронную активность.
reuters.com
С 5 января Пентагон официально открыл прием заявок на новую специализацию, позволяющую офицерам строить карьеру в ИИ и ML. Приоритет при отборе отдается кандидатам с профильным образованием и опытом разработки.
Офицеры пройдут углубленную подготовку, после чего займутся созданием, развертыванием и поддержкой военных ИИ-систем. Инициатива реализуется на фоне жестких дедлайнов по внедрению ИИ-управления в штабах к 2027 году и обеспечению армии автономными системами до конца 2026 года.
Параллельно Минобороны США запустило платформу GenAi.mil с Gemini for Government на борту, чтобы предоставить армии доступ к передовым языковым моделям. Таким образом, ИИ перестает быть экспериментальным направлением и становится штатной функцией офицерского состава.
federalnewsnetwork.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🔥1
🚀 AutoMathText-V2 - один из самых масштабных STEM-датасетов для обучения ИИ на сегодняшний день.
Что это такое:
- 2.46 триллиона токенов
- полностью AI-curated датасет по математике и STEM-дисциплинам
- 132 000 загрузок только за последний месяц
Зачем это важно:
- датасет используется для обучения следующего поколения frontier-моделей Kimi от Moonshot
- фокус не на количестве текста, а на качественной логике, доказательствах и рассуждениях
- специально отобранные данные для обучения reasoning, а не поверхностных ответов
Почему это меняет игру:
- математика и STEM - ключ к сильному reasoning
- большие модели упираются не в архитектуру, а в данные
- AI-curated датасеты становятся стандартом вместо ручной разметки
Тренд очевиден:
- больше токенов
- выше плотность знаний
- меньше «шума»
- лучшее обобщение и рассуждение
🔗 https://huggingface.co/collections/math-ai/training
Что это такое:
- 2.46 триллиона токенов
- полностью AI-curated датасет по математике и STEM-дисциплинам
- 132 000 загрузок только за последний месяц
Зачем это важно:
- датасет используется для обучения следующего поколения frontier-моделей Kimi от Moonshot
- фокус не на количестве текста, а на качественной логике, доказательствах и рассуждениях
- специально отобранные данные для обучения reasoning, а не поверхностных ответов
Почему это меняет игру:
- математика и STEM - ключ к сильному reasoning
- большие модели упираются не в архитектуру, а в данные
- AI-curated датасеты становятся стандартом вместо ручной разметки
Тренд очевиден:
- больше токенов
- выше плотность знаний
- меньше «шума»
- лучшее обобщение и рассуждение
🔗 https://huggingface.co/collections/math-ai/training
👍3❤1🔥1
Владение Docker - навык, который отличает новичка от профи,
Сегодня почти всё разворачивается в контейнерах.
Если ты не умеешь работать с Docker, ты медленнее, зависим от чужих настроек и постоянно ловишь баги «у меня локально работает».
• как упаковывать проекты в контейнеры
• как поднимать целые системы за минуты
• как избегать типичных ошибок в продакшене
• как делать стабильные и повторяемые окружения
•в нем разобраны все возможные ошибки
Только практика и реальные кейсы от авторов Docker Академии- с нуля до уверенного уровня.
🎁 Скидка 40 процентов действует 48 часов
👉 Записывайся и сделай Docker своим настоящим рабочим инструментом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🚀 Автономные AI-агенты с Ralph Loop
Ralph Loop Agent — это фреймворк для создания автономных AI-агентов, который использует методику непрерывного выполнения задач. Он позволяет агентам повторять попытки до тех пор, пока задача не будет успешно завершена, обеспечивая проверку результатов и обратную связь.
🚀Основные моменты:
- Итеративное выполнение задач до подтверждения завершения
- Полная совместимость с AI SDK
- Гибкие условия остановки
- Управление контекстом для долгосрочных задач
- Поддержка потоковой передачи результатов
📌 GitHub: https://github.com/vercel-labs/ralph-loop-agent
Ralph Loop Agent — это фреймворк для создания автономных AI-агентов, который использует методику непрерывного выполнения задач. Он позволяет агентам повторять попытки до тех пор, пока задача не будет успешно завершена, обеспечивая проверку результатов и обратную связь.
🚀Основные моменты:
- Итеративное выполнение задач до подтверждения завершения
- Полная совместимость с AI SDK
- Гибкие условия остановки
- Управление контекстом для долгосрочных задач
- Поддержка потоковой передачи результатов
📌 GitHub: https://github.com/vercel-labs/ralph-loop-agent