Forwarded from Анализ данных (Data analysis)
🚀 LTX-Video 13B — один из самых мощных open-source видеогенераторов.
Разработчики внедрили в модель мультимасштабный рендеринг.
✅ Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.
📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:
один поток отвечает за фон (низкая детализация, большой масштаб),
другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).
Потом всё объединяется в один кадр, как слои в Photoshop.
🎯 Зачем это нужно?
Фон остаётся стабильным, не "дергается"
Движущиеся объекты остаются чёткими и отдельными от фона
Картинка в целом не разваливается (нет смешивания движений, артефактов)
Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.
👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.
Что нового?
– Модель 13 миллиардов параметров
– Multiscale rendering → больше деталей, чётче текстуры
– Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций
Запускается даже на RTX 4090.
#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration
▪Попробовать можно тут→ https://app.ltx.studio/ltx-video
▪Code → https://github.com/Lightricks/LTX-Video
▪Weights → https://huggingface.co/Lightricks/LTX-Video
Разработчики внедрили в модель мультимасштабный рендеринг.
✅ Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.
📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:
один поток отвечает за фон (низкая детализация, большой масштаб),
другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).
Потом всё объединяется в один кадр, как слои в Photoshop.
🎯 Зачем это нужно?
Фон остаётся стабильным, не "дергается"
Движущиеся объекты остаются чёткими и отдельными от фона
Картинка в целом не разваливается (нет смешивания движений, артефактов)
Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.
👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.
Что нового?
– Модель 13 миллиардов параметров
– Multiscale rendering → больше деталей, чётче текстуры
– Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций
Запускается даже на RTX 4090.
#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration
▪Попробовать можно тут→ https://app.ltx.studio/ltx-video
▪Code → https://github.com/Lightricks/LTX-Video
▪Weights → https://huggingface.co/Lightricks/LTX-Video
👍9⚡4🔥1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ RealtimeVoiceChat — живой голосовой чат с ИИ.
RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.
➡️ Как работает:
1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через
4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через
6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через
✨ Особенности:
- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API
✔️ Стек:
- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker
✔️ Требуется CUDA-совместимая видеокарта (для Whisper/TTS) и Docker.
🔥 Отличный проект для тех, кто хочет интегрировать голосовой интерфейс с LLM — например, для ассистентов, чат-ботов, презентаций или UX-экспериментов.
🔜 Репозиторий: https://github.com/KoljaB/RealtimeVoiceChat
🔜 Демо: https://www.youtube.com/watch?v=-1AD4gakCKw
@ai_machinelearning_big_data
#tts #llm #opensource
RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.
1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через
RealtimeSTT
(на базе Whisper)4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через
RealtimeTTS
(Coqui XTTSv2, Kokoro и др.)6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через
turndetect.py
✨ Особенности:
- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API
- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker
@ai_machinelearning_big_data
#tts #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3⚡2❤1
VS Code превращается в открытую среду для ИИ разработки
Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.
Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.
Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.
Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)
#VSCode #OpenSource #кратко
———
@tsingular
Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.
Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.
Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.
Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)
#VSCode #OpenSource #кратко
———
@tsingular
⚡5🔥4👍1 1
Forwarded from Machinelearning
Главное:
• Глубокое рассуждение — на уровне моделей Google
• Улучшена генерация текста — более естественно, структурировано и аккуратно
• Уникальный стиль reasoning — не просто быстро, а вдумчиво и последовательно
• Может работать над одной задачей 30–60 минут, удерживая контекст
Новая модель показывает результат почти на уровне o3 (High) на бенчмарк LiveCodeBench.
https://huggingface.co/deepseek-ai/DeepSeek-R1-0528
@ai_machinelearning_big_data
#DeepSeek #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19
Forwarded from Machine learning Interview
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Теперь можно запускать модели Hugging Face прямо в Google Colab — бесплатно!
Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.
✅ Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций
💡 Бонус для разработчиков:
Добавь файл
Пользователи смогут запускать твой пример сразу, без копирования кода!
🔥 Работает с Google Colab — бесплатно, быстро, удобно.
#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning
✔️ Подробнее
@machinelearning_interview
Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.
✅ Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций
💡 Бонус для разработчиков:
Добавь файл
notebook.ipynb
в свой репозиторий модели — и Hugging Face автоматически подхватит его. Пользователи смогут запускать твой пример сразу, без копирования кода!
🔥 Работает с Google Colab — бесплатно, быстро, удобно.
#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8⚡2✍1❤1👍1
Hugging Face запустила MCP Server для подключения ИИ к своей экосистеме
Hugging Face представила первую версию MCP сервера - теперь можно подключить языковые модели напрямую к их API через VSCode, Cursor, Claude Desktop и другие MCP-совместимые приложения.
Сервер предоставляет встроенные инструменты: поиск по статьям и Spaces, исследование моделей и датасетов. Но главная фишка - динамический список всех MCP-совместимых Gradio приложений, размещённых на Spaces.
Проект полностью open source. Это не просто сервер - это попытка стандартизировать экосистему AI-инструментов с Gradio как основным UI-слоем.
HuggingFaceMCP
#HuggingFace #MCP #OpenSource
------
@tsingular
Hugging Face представила первую версию MCP сервера - теперь можно подключить языковые модели напрямую к их API через VSCode, Cursor, Claude Desktop и другие MCP-совместимые приложения.
Сервер предоставляет встроенные инструменты: поиск по статьям и Spaces, исследование моделей и датасетов. Но главная фишка - динамический список всех MCP-совместимых Gradio приложений, размещённых на Spaces.
Проект полностью open source. Это не просто сервер - это попытка стандартизировать экосистему AI-инструментов с Gradio как основным UI-слоем.
HuggingFaceMCP
#HuggingFace #MCP #OpenSource
------
@tsingular
⚡6✍3🔥3🤔1
LightAutoML - быстрый AutoML фреймворк от Сбера
LightAutoML (LAMA) — opensource фреймворк для создания ML моделей за несколько строк кода от команды Sber AI Lab.
Поддерживает табличные данные, временные ряды, изображения и тексты. Можно использовать готовые пресеты или собирать кастомные пайплайны из блоков.
Особенности:
- Быстрое прототипирование моделей
- Готовые решения для разных типов задач
- Гибкая настройка под конкретные нужды
- GPU и Spark поддержка в разработке
#AutoML #Сбер #OpenSource
------
@tsingular
LightAutoML (LAMA) — opensource фреймворк для создания ML моделей за несколько строк кода от команды Sber AI Lab.
Поддерживает табличные данные, временные ряды, изображения и тексты. Можно использовать готовые пресеты или собирать кастомные пайплайны из блоков.
Особенности:
- Быстрое прототипирование моделей
- Готовые решения для разных типов задач
- Гибкая настройка под конкретные нужды
- GPU и Spark поддержка в разработке
#AutoML #Сбер #OpenSource
------
@tsingular
✍6
Forwarded from Machinelearning
Первая полностью open-source, готовая к продакшену PBR 3D генеративная модель!
PBR (Physically Based Rendering) - это технология, при которой внешний вид 3D-объектов рассчитывается с учётом реальных физических законов взаимодействия света и поверхности.
✅ Модель выдает кинематографичное качество: синтез PBR-материалов — кожа, бронза и другие поверхности выглядят фотореалистично с красивыми эффектами освещения.
✅ Open source: доступны веса модели, код для обучения и инференса, пайплайны — всё можно доработать под себя.
✅ Запускается даже на потребительских GPU (Модель тестировалась на GPU A100 с Python 3.10 и PyTorch 2.5.1+cu124.) — с моделью создавать 3D-контент могут не только студии, но и любые разработчики и малые команды.
▪ Модель: https://huggingface.co/tencent/Hunyuan3D-2.1
▪ Github: https://github.com/Tencent-Hunyuan/Hunyuan3D-2.1
▪ Hunyuan 3D Creation Engine: https://3d.hunyuan.tencent.com
@ai_machinelearning_big_data
#Hunyuan3D #OpenSource #3DCreation #tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✍5👍3⚡2❤1
Коллекция руководств по созданию production-ready AI агентов
Охватывает достаточно большое количество аспектов: орекстраторы, инструменты, инструкции по установке и настройке, память, интерфейсы, фреймворки, мультиагентные сценарии, безопасность и тестирование.
Каждый урок содержит готовый к запуску код с документацией.
Включает паттерны для масштабирования от прототипа до продакшена, готовые блюпринты архитектуры и интеграционные решения.
#Agents #Production #OpenSource #каталоги
———
@tsingular
Охватывает достаточно большое количество аспектов: орекстраторы, инструменты, инструкции по установке и настройке, память, интерфейсы, фреймворки, мультиагентные сценарии, безопасность и тестирование.
Каждый урок содержит готовый к запуску код с документацией.
Включает паттерны для масштабирования от прототипа до продакшена, готовые блюпринты архитектуры и интеграционные решения.
#Agents #Production #OpenSource #каталоги
———
@tsingular
✍9⚡3👍3
Google выпустил Gemini CLI — открытый AI-агент для терминала
Google запустил бесплатный open-source инструмент, который приносит возможности Gemini прямо в командную строку разработчиков.
Gemini CLI может писать код, дебажить, генерировать контент и проводить исследования через естественный язык. Доступ к Gemini 2.5 Pro с окном контекста в 1 млн токенов.
Лимиты: 60 запросов в минуту и 1000 в день бесплатно — самый щедрый в индустрии. Интегрирован с Gemini Code Assist и поддерживает создание видео через Veo.
Теперь терминал станет еще мощнее для разработчиков.
#Gemini #CLI #OpenSource #Google
------
@tsingular
Google запустил бесплатный open-source инструмент, который приносит возможности Gemini прямо в командную строку разработчиков.
Gemini CLI может писать код, дебажить, генерировать контент и проводить исследования через естественный язык. Доступ к Gemini 2.5 Pro с окном контекста в 1 млн токенов.
Лимиты: 60 запросов в минуту и 1000 в день бесплатно — самый щедрый в индустрии. Интегрирован с Gemini Code Assist и поддерживает создание видео через Veo.
Теперь терминал станет еще мощнее для разработчиков.
#Gemini #CLI #OpenSource #Google
------
@tsingular
⚡6✍2❤1👍1
Forwarded from Machinelearning
🚀 Baidu открыла исходный код серии моделей ERNIE 4.5 !
🧠 Эти модели достигли SOTA-результатов на текстовых и мультимодальных бенчмарках:
— следование инструкциям,
— запоминание фактов,
— визуальное понимание,
— мультимодальные рассуждения.
🔧 Обучены на PaddlePaddle с эффективностью до 47% MFU при претрейне крупнейшей модели.
📦 В составе релиза:
- 10 моделей ERNIE 4.5,
- MoE‑архитектуры с 3B и 47B активных параметров,
- самая крупная модель содержит 424B параметров (MoE),
- также доступна компактная dense‑версия на 0.3B.
Всего Baidu выложила сразу 23 модели на Hugging Face размерами — от 0.3B до 424B параметров! 💥
🟢 Попробовать: http://ernie.baidu.com
🟢 Hugging Face: https://huggingface.co/baidu
🟢 GitHub: https://github.com/PaddlePaddle/ERNIE
🟢 AI Studio: https://aistudio.baidu.com/overview
@ai_machinelearning_big_data
#ERNIE #opensource #Baidu
🧠 Эти модели достигли SOTA-результатов на текстовых и мультимодальных бенчмарках:
— следование инструкциям,
— запоминание фактов,
— визуальное понимание,
— мультимодальные рассуждения.
🔧 Обучены на PaddlePaddle с эффективностью до 47% MFU при претрейне крупнейшей модели.
📦 В составе релиза:
- 10 моделей ERNIE 4.5,
- MoE‑архитектуры с 3B и 47B активных параметров,
- самая крупная модель содержит 424B параметров (MoE),
- также доступна компактная dense‑версия на 0.3B.
Всего Baidu выложила сразу 23 модели на Hugging Face размерами — от 0.3B до 424B параметров! 💥
@ai_machinelearning_big_data
#ERNIE #opensource #Baidu
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
NotebookLLaMA: открытая альтернатива NotebookLM
Команда LlamaIndex выпустила полностью открытый аналог Google NotebookLM. Проект работает на базе LlamaCloud и позволяет создавать подкасты из документов.
Основные возможности:
- Генерация разговорных аудиосводок из загруженных файлов
- Использование нескольких моделей Llama для разных этапов обработки
- Преобразование текста в речь через Elevenlabs
Установка требует настройки PostgreSQL, Jaeger и MCP сервера. Готовое решение запускается через Streamlit на порту 8751.
Интересная альтернатива для работы с документами и создания AI-подкастов, если кто-то не хочет делать это с Гуглом.
#NotebookLM #LlamaCloud #OpenSource
------
@tsingular
Команда LlamaIndex выпустила полностью открытый аналог Google NotebookLM. Проект работает на базе LlamaCloud и позволяет создавать подкасты из документов.
Основные возможности:
- Генерация разговорных аудиосводок из загруженных файлов
- Использование нескольких моделей Llama для разных этапов обработки
- Преобразование текста в речь через Elevenlabs
Установка требует настройки PostgreSQL, Jaeger и MCP сервера. Готовое решение запускается через Streamlit на порту 8751.
Интересная альтернатива для работы с документами и создания AI-подкастов, если кто-то не хочет делать это с Гуглом.
#NotebookLM #LlamaCloud #OpenSource
------
@tsingular
✍7❤5⚡1
Швейцария выпустит полностью открытую языковую модель
Исследователи из EPFL и ETH Zurich создали языковую модель, которая будет доступна под лицензией Apache 2.0 уже этим летом.
Особенность проекта — модель обучена на углеродно-нейтральном суперкомпьютере Alps.
Модель говорит на 1000+ языках и будет выпущена в двух размерах: 8 и 70 миллиардов параметров. Обучение велось на 15 триллионах токенов из более чем 1500 языков (английский, правда занял 60% всего датасета).
"Полностью открытые модели позволяют создавать высокодоверенные приложения и необходимы для исследований рисков и возможностей ИИ", — объясняет руководитель проекта Имануэль Шлаг.
Интересно будет посмотреть.
#OpenSource #Switzerland
———
@tsingular
Исследователи из EPFL и ETH Zurich создали языковую модель, которая будет доступна под лицензией Apache 2.0 уже этим летом.
Особенность проекта — модель обучена на углеродно-нейтральном суперкомпьютере Alps.
Модель говорит на 1000+ языках и будет выпущена в двух размерах: 8 и 70 миллиардов параметров. Обучение велось на 15 триллионах токенов из более чем 1500 языков (английский, правда занял 60% всего датасета).
"Полностью открытые модели позволяют создавать высокодоверенные приложения и необходимы для исследований рисков и возможностей ИИ", — объясняет руководитель проекта Имануэль Шлаг.
Интересно будет посмотреть.
#OpenSource #Switzerland
———
@tsingular
✍6
This media is not supported in your browser
VIEW IN TELEGRAM
Machine Learning Visualized — интерактивные уроки по машинному обучению
Некий студент из University of Maryland создал открытый ресурс для изучения ML-алгоритмов через интерактивную визуализацию.
Проект состоит из Jupyter Notebooks с математическими выводами и наглядными примерами обучения моделей.
На данный момент включает 4 главы: оптимизация, кластеризация, линейные модели и нейросети.
Каждый алгоритм показан от теории до практики с визуализацией процесса обучения и поиска оптимальных весов.
Есть проект в GitHub.
Все блокноты можно скачать и запустить локально или в Google Colab.
#MachineLearning #обучение #OpenSource
———
@tsingular
Некий студент из University of Maryland создал открытый ресурс для изучения ML-алгоритмов через интерактивную визуализацию.
Проект состоит из Jupyter Notebooks с математическими выводами и наглядными примерами обучения моделей.
На данный момент включает 4 главы: оптимизация, кластеризация, линейные модели и нейросети.
Каждый алгоритм показан от теории до практики с визуализацией процесса обучения и поиска оптимальных весов.
Есть проект в GitHub.
Все блокноты можно скачать и запустить локально или в Google Colab.
#MachineLearning #обучение #OpenSource
———
@tsingular
✍9🍾4👍2
NuExtract 2.0 превзошёл GPT-4 в извлечении данных
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.
Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.
Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.
Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.
#NuExtract #DataExtraction #OpenSource
------
@tsingular
🔥4✍3❤2⚡2
NVIDIA выпустила семейство OpenReasoning-Nemotron для решения сложных задач
Четыре модели размером от 1.5B до 32B параметров специально обучены для математики, программирования и естественных наук. Основаны на Qwen2.5 и дообучены на 5 миллионах ответов от DeepSeek R1.
Главная особенность — режим GenSelect, который запускает несколько параллельных генераций и выбирает лучшее решение. В этом режиме 32B модель превосходит O3 (High) на математических и кодовых бенчмарках.
Интересно, что модели обучались только на математических задачах, но способности автоматически перенеслись на код и науку. Все модели доступны под лицензией CC-BY-4.0 для коммерческого и исследовательского использования.
#NVIDIA #reasoning #opensource
------
@tsingular
Четыре модели размером от 1.5B до 32B параметров специально обучены для математики, программирования и естественных наук. Основаны на Qwen2.5 и дообучены на 5 миллионах ответов от DeepSeek R1.
Главная особенность — режим GenSelect, который запускает несколько параллельных генераций и выбирает лучшее решение. В этом режиме 32B модель превосходит O3 (High) на математических и кодовых бенчмарках.
Интересно, что модели обучались только на математических задачах, но способности автоматически перенеслись на код и науку. Все модели доступны под лицензией CC-BY-4.0 для коммерческого и исследовательского использования.
#NVIDIA #reasoning #opensource
------
@tsingular
👍4❤2🔥1
GitHub Models решает проблему инференса для open source AI проектов
GitHub запустил бесплатный API для инференса популярных моделей - GPT-4o, DeepSeek-R1, Llama 3.
Проблема была в том, что open source проекты постоянно спотыкались о настройку инференса - нужны были ключи API, локальные модели жрали ресурсы, конфигурация отнимала время.
Теперь достаточно GitHub токена и REST эндпоинта, совместимого с OpenAI спецификацией. Никакой дополнительной настройки.
Интеграция с GitHub Actions позволяет автоматизировать AI фичи прямо в CI/CD пайплайнах. Есть бесплатый тир с опцией масштабирования.
Поддерживаются multiple SDK без изменений кода - просто меняешь endpoint.
Удобно. Теперь любой студент может прикрутить ИИ к своему поектику не покидая платформу.
Вообще Гитхаб превращается в пространство самообновляющегося оупенсорса с ИИ мультиагентами разрабами.
#GitHub #inference #opensource
------
@tsingular
GitHub запустил бесплатный API для инференса популярных моделей - GPT-4o, DeepSeek-R1, Llama 3.
Проблема была в том, что open source проекты постоянно спотыкались о настройку инференса - нужны были ключи API, локальные модели жрали ресурсы, конфигурация отнимала время.
Теперь достаточно GitHub токена и REST эндпоинта, совместимого с OpenAI спецификацией. Никакой дополнительной настройки.
Интеграция с GitHub Actions позволяет автоматизировать AI фичи прямо в CI/CD пайплайнах. Есть бесплатый тир с опцией масштабирования.
Поддерживаются multiple SDK без изменений кода - просто меняешь endpoint.
Удобно. Теперь любой студент может прикрутить ИИ к своему поектику не покидая платформу.
Вообще Гитхаб превращается в пространство самообновляющегося оупенсорса с ИИ мультиагентами разрабами.
#GitHub #inference #opensource
------
@tsingular
❤3⚡2👍2🔥2
Forwarded from Анализ данных (Data analysis)
MongoDB представили открытый MCP сервер, который позволяет AI-инструментам вроде Claude, Cursor и GitHub Copilot напрямую общаться с вашей MongoDB-базой.
Теперь даже без знаний запросов можно просто написать:
• «Покажи самых активных пользователей»
• «Создай нового пользователя с правами только на чтение»
• «Как устроена коллекция orders?»
⚙️ MCP Server поддерживает:
• MongoDB Atlas
• Community Edition
• Enterprise Advanced
📌 Главное — не нужен SQL, не нужно знать синтаксис. Достаточно обычного языка.
💡 Под капотом: AI превращает ваши фразы в рабочие Mongo-запросы.
Открытый исходный код. Готово к продакшену.
📌 GitHub
#MongoDB #AItools #OpenSource #MCP
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
✍11🔥4❤1
🚀 Seed-OSS-36B-Instruct от ByteDance — новая открытая модель с контролем глубины мышления
36B параметров с GQA attention
Контекст 512K токенов
Совместимость с vLLM и Transformers
Бенчмарки — SOTA среди открытых моделей:
MMLU: 90.6% (vs 78.6% у Gemma3-27B)
LiveCodeBench: 66.8%
SWE-Bench Verified: 48.4%
AIME 2024: 90.3%
ArcAGI V2 - 50.3%
SimpleQA 23.7%
Agent: SWE-Bench Verified
(OpenHands) 41.8%
Про thinking budget:
- Задается через лимит токенов на размышления (512, 1K, 2K, 4K, 8K, 16K)
- Модель периодически отчитывается о потраченных/оставшихся ресурсах
- При исчерпании бюджета выдает финальный ответ
- Budget = 0 → прямой ответ без раздумий
Требует ~77GB VRAM (FP16), но thinking budget позволяет оптимизировать затраты — простые задачи решает быстро, сложные получают необходимое время на размышления.
Есть GGUF вариант под LM Studio и Ollama в Q4 - 20 гигов
Q8 - 38.5 Gb
Apache 2.0 лицензия - можно использовать в коммерции.
HF: https://huggingface.co/ByteDance-Seed/Seed-OSS-36B-Instruct
#SeedOSS #ByteDance #OpenSource #Китай
———
@tsingular
36B параметров с GQA attention
Контекст 512K токенов
Совместимость с vLLM и Transformers
Бенчмарки — SOTA среди открытых моделей:
MMLU: 90.6% (vs 78.6% у Gemma3-27B)
LiveCodeBench: 66.8%
SWE-Bench Verified: 48.4%
AIME 2024: 90.3%
ArcAGI V2 - 50.3%
SimpleQA 23.7%
Agent: SWE-Bench Verified
(OpenHands) 41.8%
Про thinking budget:
- Задается через лимит токенов на размышления (512, 1K, 2K, 4K, 8K, 16K)
- Модель периодически отчитывается о потраченных/оставшихся ресурсах
- При исчерпании бюджета выдает финальный ответ
- Budget = 0 → прямой ответ без раздумий
Требует ~77GB VRAM (FP16), но thinking budget позволяет оптимизировать затраты — простые задачи решает быстро, сложные получают необходимое время на размышления.
Есть GGUF вариант под LM Studio и Ollama в Q4 - 20 гигов
Q8 - 38.5 Gb
Apache 2.0 лицензия - можно использовать в коммерции.
HF: https://huggingface.co/ByteDance-Seed/Seed-OSS-36B-Instruct
#SeedOSS #ByteDance #OpenSource #Китай
———
@tsingular
⚡3👍2🔥1
🇨🇳 Китай захватил топ OpenSource на designarena.ai
Интересно сформировался топ-15 открытых моделей в Design Arena,- теперь он состоит только из китайских моделей.
Топ-15 открытых моделей:
- DeepSeek - лидер (5 моделей: позиции 1, 4, 5, 8, 10)
- Alibaba (6 моделей: позиции 3, 6, 9, 13, 14, 15)
- Zhipu AI (2 модели: позиции 2, 7)
- THUDM (1 модель: позиция 11)
- Moonshot AI (1 модель: позиция 12)
Первая западная модель, GPT-OSS-120B, появляется только на 16 месте
#OpenSource #designarena #China #Китай
———
@tsingular
Интересно сформировался топ-15 открытых моделей в Design Arena,- теперь он состоит только из китайских моделей.
Топ-15 открытых моделей:
- DeepSeek - лидер (5 моделей: позиции 1, 4, 5, 8, 10)
- Alibaba (6 моделей: позиции 3, 6, 9, 13, 14, 15)
- Zhipu AI (2 модели: позиции 2, 7)
- THUDM (1 модель: позиция 11)
- Moonshot AI (1 модель: позиция 12)
Первая западная модель, GPT-OSS-120B, появляется только на 16 месте
#OpenSource #designarena #China #Китай
———
@tsingular
🔥8🤯3⚡2