⚡️ Новый проект: DeepSeek OCR — React + FastAPI
Открыли репозиторий с современным веб-приложением OCR: фронтэнд на React, бэкенд на FastAPI.
Что умеет:
- Plain OCR — извлечение текста из изображения
- Describe — генерация описания изображения
- Find — поиск заданного термина с отображением рамки
- Freeform — задаёшь кастомный prompt и получаешь результат
Почему круто:
- Drag-and-drop загрузка изображений до 100 МБ, визуализация bounding boxes
- Конфигурация через .env (порт, размер файла, модель)
- Стек: React 18 + Vite + TailwindCSS + FramerMotion + FastAPI + PyTorch + Transformers
- Всё контейнеризовано через Docker + Docker Compose → можно быстро запустить
Как начать:
1. Клонируй репозиторий
2. Cкопируй .env.example в .env и настрой параметры
3. Запусти: docker compose up --build
4. Открой: фронтэнд (по умолчанию http://localhost:3000) & API (http://localhost:8000)
https://github.com/rdumasia303/deepseek_ocr_app/
Открыли репозиторий с современным веб-приложением OCR: фронтэнд на React, бэкенд на FastAPI.
Что умеет:
- Plain OCR — извлечение текста из изображения
- Describe — генерация описания изображения
- Find — поиск заданного термина с отображением рамки
- Freeform — задаёшь кастомный prompt и получаешь результат
Почему круто:
- Drag-and-drop загрузка изображений до 100 МБ, визуализация bounding boxes
- Конфигурация через .env (порт, размер файла, модель)
- Стек: React 18 + Vite + TailwindCSS + FramerMotion + FastAPI + PyTorch + Transformers
- Всё контейнеризовано через Docker + Docker Compose → можно быстро запустить
Как начать:
1. Клонируй репозиторий
2. Cкопируй .env.example в .env и настрой параметры
3. Запусти: docker compose up --build
4. Открой: фронтэнд (по умолчанию http://localhost:3000) & API (http://localhost:8000)
https://github.com/rdumasia303/deepseek_ocr_app/
🔥8👍3❤1
📚 Читаем EPUB с LLM 🚀
Легкий самодостаточный EPUB-ридер, позволяющий читать книги по главам и легко копировать текст для работы с LLM. Проект создан для вдохновения и не требует поддержки. Просто загружайте EPUB и читайте вместе с ИИ.
🚀 Основные моменты:
- Чтение EPUB-файлов по главам
- Удобный интерфейс для работы с LLM
- Легкая настройка и использование
- Проект для вдохновения, без поддержки
📌 GitHub: https://github.com/karpathy/reader3
#python
Легкий самодостаточный EPUB-ридер, позволяющий читать книги по главам и легко копировать текст для работы с LLM. Проект создан для вдохновения и не требует поддержки. Просто загружайте EPUB и читайте вместе с ИИ.
🚀 Основные моменты:
- Чтение EPUB-файлов по главам
- Удобный интерфейс для работы с LLM
- Легкая настройка и использование
- Проект для вдохновения, без поддержки
📌 GitHub: https://github.com/karpathy/reader3
#python
❤3👍2🤔2
🧠 ChatTutor: Интерактивный ИИ-учитель
Это ИИ-репетитор, использующий электронную доску для обучения. Он предоставляет пользователям возможность взаимодействовать с различными учебными инструментами, что делает процесс обучения более наглядным и эффективным, особенно в STEM-дисциплинах.
🚀Основные моменты:
- Интерактивные математические и логические канвасы
- Поддержка создания ментальных карт
- Многоагентная архитектура для улучшенного взаимодействия
- Возможность решения задач с помощью ИИ
📌 GitHub: https://github.com/sheepbox8646/ChatTutor
#javascript
Это ИИ-репетитор, использующий электронную доску для обучения. Он предоставляет пользователям возможность взаимодействовать с различными учебными инструментами, что делает процесс обучения более наглядным и эффективным, особенно в STEM-дисциплинах.
🚀Основные моменты:
- Интерактивные математические и логические канвасы
- Поддержка создания ментальных карт
- Многоагентная архитектура для улучшенного взаимодействия
- Возможность решения задач с помощью ИИ
📌 GitHub: https://github.com/sheepbox8646/ChatTutor
#javascript
👍3
🚀 **LongCat-Flash-Omni - новая открытыая560B omni-modal модель от Meituan
Новая SOTA-модель LongCat-Flash-Omni (560B параметров) - универсальная омнимодальная система, которая работает с видео, аудио, текстом и действиями в реальном времени.
Что в ней важно:
- Mixture-of-Experts архитектура - даёт высокую скорость и низкие задержки, несмотря на масштаб 560B.
- Полноценное мультимодальное понимание: видео + аудио + текст, обработка движений и сцен в потоке.
- Modality-decoupled parallelism — модель тренировали так, чтобы эффективно комбинировать разные типы данных, не тормозя обучение.
- Заявлен SOTA-уровень качества среди открытых омнимодальных моделей.
Технический отчёт: https://huggingface.co/papers/2511.00279
Модель: https://huggingface.co/meituan-longcat/LongCat-Flash-Omni
Проект: https://longcat.ai
Новая SOTA-модель LongCat-Flash-Omni (560B параметров) - универсальная омнимодальная система, которая работает с видео, аудио, текстом и действиями в реальном времени.
Что в ней важно:
- Mixture-of-Experts архитектура - даёт высокую скорость и низкие задержки, несмотря на масштаб 560B.
- Полноценное мультимодальное понимание: видео + аудио + текст, обработка движений и сцен в потоке.
- Modality-decoupled parallelism — модель тренировали так, чтобы эффективно комбинировать разные типы данных, не тормозя обучение.
- Заявлен SOTA-уровень качества среди открытых омнимодальных моделей.
Технический отчёт: https://huggingface.co/papers/2511.00279
Модель: https://huggingface.co/meituan-longcat/LongCat-Flash-Omni
Проект: https://longcat.ai
❤5
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Трансформеры стали стандартом в NLP, но многие специалисты используют их как «чёрный ящик», не до конца понимая работу внимания, эмбеддингов и нормализации.
📅 24 ноября в 20:00 МСК состоится открытый урок «Анатомия нейросетей: от трансформеров к современным архитектурам» в рамках курса «NLP / Natural Language Processing».
🔍 Мы разберём ключевые механизмы современных моделей, покажем эволюцию архитектур и объясним, почему именно эти идеи лежат в основе BERT, GPT и других систем.
🎯 Вы увидите, как компоненты собираются в единую структуру, научитесь понимать их сильные и слабые стороны и сможете осознанно выбирать подход под задачу — от генерации текста до классификации и анализа.
👉 Зарегистрируйтесь на открытый урок в преддверии старта курса «NLP / Natural Language Processing» и получите скидку на обучение: https://otus.pw/GRjh0/?erid=2W5zFG4WT6Y
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
📅 24 ноября в 20:00 МСК состоится открытый урок «Анатомия нейросетей: от трансформеров к современным архитектурам» в рамках курса «NLP / Natural Language Processing».
🔍 Мы разберём ключевые механизмы современных моделей, покажем эволюцию архитектур и объясним, почему именно эти идеи лежат в основе BERT, GPT и других систем.
🎯 Вы увидите, как компоненты собираются в единую структуру, научитесь понимать их сильные и слабые стороны и сможете осознанно выбирать подход под задачу — от генерации текста до классификации и анализа.
👉 Зарегистрируйтесь на открытый урок в преддверии старта курса «NLP / Natural Language Processing» и получите скидку на обучение: https://otus.pw/GRjh0/?erid=2W5zFG4WT6Y
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
👎1
💡 Он пересказал материал WSJ о том, как Уолл-стрит фактически перекачивает огромные заёмные деньги в строительство AI-дата-центров - и как финансовые риски постепенно уходят в фонды, пенсионные планы и долговые продукты, которые покупают обычные люди.
Сегодня частные кредитные структуры вроде Blue Owl работают по схеме: несколько миллиардов собственного капитала + более $20 млрд долга, а всё это закрепляется 10–15-летними арендами от Meta, Oracle или Microsoft.
Деньги идут на гигантские площадки мощностью близкой к 1 ГВт и сотни тысяч GPU, но весь риск висит не на Big Tech, а на проектных компаниях, перегруженных кредитами.
Аналитики ожидают, что лидеры ИИ потратят около $3 трлн до 2028 года, но смогут профинансировать из операционного потока лишь половину.
Значит, 1.2–1.5 трлн долларов придётся занимать — через облигации, кредиты и частный капитал.
Эти долги нарезаются на инструменты с доходностью 6–7% и оказываются в ETF, взаимных фондах, страховых компаниях и пенсионных программах.
По сути, рядовые вкладчики незаметно становятся спонсорами AI-инфраструктуры.
Некоторые инвесторы уже заработали: например, Pimco в сделке Meta Hyperion получили $1–2 млрд бумажной прибыли, потому что облигации быстро подросли — в том числе благодаря сильным защитным условиям, гарантирующим выплаты даже если арендатор уйдёт.
Но самые уязвимые — высоко закредитованные структуры.
Если спрос на ИИ замедлится или маржа сузится, Big Tech всё равно успеет воспользоваться дешёвыми мощностями, а вот убытки лягут на широкий круг инвесторов, которые рассчитывали на «надёжный доход».
Источник: wsj.com/finance/investing/wall-street-ai-spending-bubble-810d270e
Сегодня частные кредитные структуры вроде Blue Owl работают по схеме: несколько миллиардов собственного капитала + более $20 млрд долга, а всё это закрепляется 10–15-летними арендами от Meta, Oracle или Microsoft.
Деньги идут на гигантские площадки мощностью близкой к 1 ГВт и сотни тысяч GPU, но весь риск висит не на Big Tech, а на проектных компаниях, перегруженных кредитами.
Аналитики ожидают, что лидеры ИИ потратят около $3 трлн до 2028 года, но смогут профинансировать из операционного потока лишь половину.
Значит, 1.2–1.5 трлн долларов придётся занимать — через облигации, кредиты и частный капитал.
Эти долги нарезаются на инструменты с доходностью 6–7% и оказываются в ETF, взаимных фондах, страховых компаниях и пенсионных программах.
По сути, рядовые вкладчики незаметно становятся спонсорами AI-инфраструктуры.
Некоторые инвесторы уже заработали: например, Pimco в сделке Meta Hyperion получили $1–2 млрд бумажной прибыли, потому что облигации быстро подросли — в том числе благодаря сильным защитным условиям, гарантирующим выплаты даже если арендатор уйдёт.
Но самые уязвимые — высоко закредитованные структуры.
Если спрос на ИИ замедлится или маржа сузится, Big Tech всё равно успеет воспользоваться дешёвыми мощностями, а вот убытки лягут на широкий круг инвесторов, которые рассчитывали на «надёжный доход».
Источник: wsj.com/finance/investing/wall-street-ai-spending-bubble-810d270e
❤4👍3
🧠 На AI Journey представили новое поколение открытых моделей распознавания речи — GigaAM-v3, ставшее самым крупным обновлением стека ASR от Сбера.
Главное изменение — масштаб предобучения. Вместо стандартных 50k часов корпус расширили до 700k часов, а все данные прошли нормализацию и восстановление пунктуации через GigaChat Max Audio. Это позволило значительно улучшить понимание сложной, живой, эмоциональной речи.
Линейка включает CTC- и RNNT-модели, а также e2e-версии, которые добавляют пунктуацию прямо на выходе, что делает текст читаемым без постобработки.
По ключевым датасетам (OpenSTT, Golos, CV) новый стек сохраняет паритет, но на сложных доменах улучшения достигают 30–40%. Модель уже доступна разработчикам — исходники опубликованы в полном объёме.
Главное изменение — масштаб предобучения. Вместо стандартных 50k часов корпус расширили до 700k часов, а все данные прошли нормализацию и восстановление пунктуации через GigaChat Max Audio. Это позволило значительно улучшить понимание сложной, живой, эмоциональной речи.
Линейка включает CTC- и RNNT-модели, а также e2e-версии, которые добавляют пунктуацию прямо на выходе, что делает текст читаемым без постобработки.
По ключевым датасетам (OpenSTT, Golos, CV) новый стек сохраняет паритет, но на сложных доменах улучшения достигают 30–40%. Модель уже доступна разработчикам — исходники опубликованы в полном объёме.
🔥4❤1😁1
🎤 Быстрый текст-в-речь с Supertonic
Supertonic — это высокопроизводительная система текст-в-речь, работающая на вашем устройстве. Она обеспечивает молниеносное создание речи с минимальными затратами ресурсов и полным соблюдением конфиденциальности. Никаких облачных решений — всё происходит локально.
🚀Основные моменты:
- ⚡ Генерация речи до 167× быстрее реального времени
- 🪶 Легковесная архитектура с 66M параметрами
- 📱 Полная обработка на устройстве без задержек
- 🎨 Обработка сложных текстов без предварительной подготовки
- ⚙️ Гибкая настройка параметров и развертывания
📌 GitHub: https://github.com/supertone-inc/supertonic
#python
Supertonic — это высокопроизводительная система текст-в-речь, работающая на вашем устройстве. Она обеспечивает молниеносное создание речи с минимальными затратами ресурсов и полным соблюдением конфиденциальности. Никаких облачных решений — всё происходит локально.
🚀Основные моменты:
- ⚡ Генерация речи до 167× быстрее реального времени
- 🪶 Легковесная архитектура с 66M параметрами
- 📱 Полная обработка на устройстве без задержек
- 🎨 Обработка сложных текстов без предварительной подготовки
- ⚙️ Гибкая настройка параметров и развертывания
📌 GitHub: https://github.com/supertone-inc/supertonic
#python
GitHub
GitHub - supertone-inc/supertonic: Lightning-Fast, On-Device TTS — running natively via ONNX.
Lightning-Fast, On-Device TTS — running natively via ONNX. - supertone-inc/supertonic
❤4🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 На международной конференции AI Journey Сбер представил первого российского человекоподобного робота Грина
Что важно знать:
- разработкой полностью занимался Сбер, от конструкции и электроники до наполнения. То есть это полностью российский проект
- в основе искусственного интеллекта нейросеть GigaChat
- разработка заняла 1 год: от сбора команды инженеров и первого прототипа до презентации
- робот умеет перемещаться пространстве и манипулировать реальными объектами
Что важно знать:
- разработкой полностью занимался Сбер, от конструкции и электроники до наполнения. То есть это полностью российский проект
- в основе искусственного интеллекта нейросеть GigaChat
- разработка заняла 1 год: от сбора команды инженеров и первого прототипа до презентации
- робот умеет перемещаться пространстве и манипулировать реальными объектами
👍8😁4👎2🔥1
📢 Сбер выпустил полную линейку моделей Kandinsky 5.0 в open-source
В открытом доступе теперь доступна вся линейка моделей под лицензией MIT. Код и веса неограниченно доступны для модификации и интеграции.
🤖 Больше о моделях:
- 🖼 Image Lite — генерация и редактирование HD-изображений с фокусом на русский культурный контекст. Превосходит FLUX.1 по Text-to-Image, паритет с FLUX.1 Kontext по Image Editing. Обучена на 520 млн изображений и ~1 млн картинок национального культурного кода.
- 📹 Video Lite — компактная версия, оптимизированная для GPU от 12 ГБ VRAM. Обучалась на 520 млн изображениях и 120 млн видео. Значительно лучше по качеству в 7 раз большую Wan 2.1-14B как в Text-to-Video, так и Image-to-Video.
- 🎥 Video Pro — флагман для генерации HD-видео до 10 секунд с контролем движения камеры. Обучена на 520 млн изображениях и 250 млн видео. Модель превосходит Wan 2.2-A14B и сравнима по визуальному качеству с Veo 3. Лучшая открытая модель в мире.
- ⚙️ K-VAE 1.0 — вариационные автоэнкодеры для диффузионных моделей с улучшенной сжимаемостью. Модели показывают более высокое качество восстановления сигнала по сравнению с лучшими альтернативами на открытых датасетах.
📌 GitHub: https://github.com/kandinskylab/kandinsky-5
📌 Gitverse: https://gitverse.ru/kandinsky/Kandinsky-5
📌 HuggingFace: https://huggingface.co/kandinskylab/collections
📌 Технический отчет: https://huggingface.co/papers/2511.14993
В открытом доступе теперь доступна вся линейка моделей под лицензией MIT. Код и веса неограниченно доступны для модификации и интеграции.
🤖 Больше о моделях:
- 🖼 Image Lite — генерация и редактирование HD-изображений с фокусом на русский культурный контекст. Превосходит FLUX.1 по Text-to-Image, паритет с FLUX.1 Kontext по Image Editing. Обучена на 520 млн изображений и ~1 млн картинок национального культурного кода.
- 📹 Video Lite — компактная версия, оптимизированная для GPU от 12 ГБ VRAM. Обучалась на 520 млн изображениях и 120 млн видео. Значительно лучше по качеству в 7 раз большую Wan 2.1-14B как в Text-to-Video, так и Image-to-Video.
- 🎥 Video Pro — флагман для генерации HD-видео до 10 секунд с контролем движения камеры. Обучена на 520 млн изображениях и 250 млн видео. Модель превосходит Wan 2.2-A14B и сравнима по визуальному качеству с Veo 3. Лучшая открытая модель в мире.
- ⚙️ K-VAE 1.0 — вариационные автоэнкодеры для диффузионных моделей с улучшенной сжимаемостью. Модели показывают более высокое качество восстановления сигнала по сравнению с лучшими альтернативами на открытых датасетах.
📌 GitHub: https://github.com/kandinskylab/kandinsky-5
📌 Gitverse: https://gitverse.ru/kandinsky/Kandinsky-5
📌 HuggingFace: https://huggingface.co/kandinskylab/collections
📌 Технический отчет: https://huggingface.co/papers/2511.14993
❤9👍4👎1
⚡ Пятница — чёрная, цены в Сервер Молл — красные! ⚡
Уже купили холодильник на 11.11? Теперь настоящая распродажа: Чёрная Пятница с 24 по 30 ноября в Сервер Молл — неделя огромных скидок на серверы и СХД от Dell, HPE и Lenovo!
Оборудование в наличии и готово к отправке. Нужна кастомная конфигурация? Подберём под любой бюджет и задачу: от почтового сервера и 1С до виртуализации и HPC.
Самое время обновить IT-инфраструктуру и уложиться в годовой бюджет.
От нас:
▪️ Гарантия 3–5 лет с выездом инженера в любой город России.
▪️ Бесплатная доставка 1–4 дня до двери.
▪️Постпродажная поддержка.
▪️КП за 30-60 минут.
📌 Скидки действуют, пока оборудование есть на складах. Смотрите подборку и бронируйте свой сервер по ссылке.
Если появятся вопросы, то пишите в чат или звоните 📞 8 800 755-25-51 — отвечаем быстро!
erid: 2W5zFGRMKLk
Уже купили холодильник на 11.11? Теперь настоящая распродажа: Чёрная Пятница с 24 по 30 ноября в Сервер Молл — неделя огромных скидок на серверы и СХД от Dell, HPE и Lenovo!
Оборудование в наличии и готово к отправке. Нужна кастомная конфигурация? Подберём под любой бюджет и задачу: от почтового сервера и 1С до виртуализации и HPC.
Самое время обновить IT-инфраструктуру и уложиться в годовой бюджет.
От нас:
▪️ Гарантия 3–5 лет с выездом инженера в любой город России.
▪️ Бесплатная доставка 1–4 дня до двери.
▪️Постпродажная поддержка.
▪️КП за 30-60 минут.
📌 Скидки действуют, пока оборудование есть на складах. Смотрите подборку и бронируйте свой сервер по ссылке.
Если появятся вопросы, то пишите в чат или звоните 📞 8 800 755-25-51 — отвечаем быстро!
erid: 2W5zFGRMKLk
🔥1
⚡️ Google DeepMind делает серьёзный шаг к созданию «Android для роботов»
Google DeepMind наняла Аарона Сандерса, бывшего CTO Boston Dynamics, на позицию вице-президента по аппаратной инженерии.
Сандерс ушёл из Boston Dynamics всего три месяца назад, после 22 лет работы в компании и участия в создании таких роботов, как Atlas и Spot.
DeepMind теперь стремится создать универсальную платформу для робототехники.
Демис Хассабис объяснил цель так:
«Это похоже на стратегию Android. Мы хотим построить ИИ-систему на базе Gemini, которая сможет работать почти *из коробки* на любом типе робота».
Сандерс говорит, что его задача — “усилить это направление”, работая вместе с партнёрами и решая фундаментальные задачи аппаратного уровня, чтобы ИИ мог эффективно работать в физическом мире.
Иронично, что Google уже владела Boston Dynamics с 2013 по 2017 год, но продала компанию SoftBank, не найдя коммерческой модели. В то время Сандерс тоже был VP по аппаратной инженерии.
Сегодня Google возвращается в робототехнику снова — но уже с чётким пониманием:
универсальная база Gemini может стать для роботов тем, чем Android стал для смартфонов.
Google DeepMind наняла Аарона Сандерса, бывшего CTO Boston Dynamics, на позицию вице-президента по аппаратной инженерии.
Сандерс ушёл из Boston Dynamics всего три месяца назад, после 22 лет работы в компании и участия в создании таких роботов, как Atlas и Spot.
DeepMind теперь стремится создать универсальную платформу для робототехники.
Демис Хассабис объяснил цель так:
«Это похоже на стратегию Android. Мы хотим построить ИИ-систему на базе Gemini, которая сможет работать почти *из коробки* на любом типе робота».
Сандерс говорит, что его задача — “усилить это направление”, работая вместе с партнёрами и решая фундаментальные задачи аппаратного уровня, чтобы ИИ мог эффективно работать в физическом мире.
Иронично, что Google уже владела Boston Dynamics с 2013 по 2017 год, но продала компанию SoftBank, не найдя коммерческой модели. В то время Сандерс тоже был VP по аппаратной инженерии.
Сегодня Google возвращается в робототехнику снова — но уже с чётким пониманием:
универсальная база Gemini может стать для роботов тем, чем Android стал для смартфонов.
🦾 Argo Workflows и MLOps: автоматизируйте всё, что можно
Если вы хотите, чтобы обучение и деплой моделей стали управляемыми и предсказуемыми — пора переходить к автоматизации. На открытом уроке разберём, как оркестрация ML-процессов в Kubernetes превращает хаос в стройную систему. Мы покажем, как описывать пайплайны в YAML, передавать данные между шагами и управлять всем через UI и CLI. Разберём архитектуру Argo Workflows и создадим типовой ML-процесс: от обучения до деплоя модели.
Вы научитесь использовать Argo Workflows для автоматизации задач, которые раньше занимали дни. Вы увидите, как CI/CD становится естественной частью ML-инфраструктуры. Поймёте, как Data Scientists и DevOps могут говорить на одном языке.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса “MLOps”. Создавайте надёжные и масштабируемые ML-пайплайны: https://otus.pw/EMs7/?erid=2W5zFGbsdH2
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Если вы хотите, чтобы обучение и деплой моделей стали управляемыми и предсказуемыми — пора переходить к автоматизации. На открытом уроке разберём, как оркестрация ML-процессов в Kubernetes превращает хаос в стройную систему. Мы покажем, как описывать пайплайны в YAML, передавать данные между шагами и управлять всем через UI и CLI. Разберём архитектуру Argo Workflows и создадим типовой ML-процесс: от обучения до деплоя модели.
Вы научитесь использовать Argo Workflows для автоматизации задач, которые раньше занимали дни. Вы увидите, как CI/CD становится естественной частью ML-инфраструктуры. Поймёте, как Data Scientists и DevOps могут говорить на одном языке.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса “MLOps”. Создавайте надёжные и масштабируемые ML-пайплайны: https://otus.pw/EMs7/?erid=2W5zFGbsdH2
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🛠️ Улучшаем коммиты с AI
Git Rewrite Commits — это инструмент для автоматического улучшения сообщений коммитов с помощью AI. Он помогает привести в порядок историю коммитов, создавая более осмысленные и структурированные сообщения, что особенно полезно перед публикацией проектов или для повышения удобства работы с репозиториями.
🚀Основные моменты:
- AI-генерация сообщений для коммитов
- Поддержка локальных моделей и оффлайн-работы
- Установка git hooks одним командой
- Оценка качества коммитов и автоматическое исправление
- Возможность настройки формата и языка сообщений
📌 GitHub: https://github.com/f/git-rewrite-commits
#javascript
Git Rewrite Commits — это инструмент для автоматического улучшения сообщений коммитов с помощью AI. Он помогает привести в порядок историю коммитов, создавая более осмысленные и структурированные сообщения, что особенно полезно перед публикацией проектов или для повышения удобства работы с репозиториями.
🚀Основные моменты:
- AI-генерация сообщений для коммитов
- Поддержка локальных моделей и оффлайн-работы
- Установка git hooks одним командой
- Оценка качества коммитов и автоматическое исправление
- Возможность настройки формата и языка сообщений
📌 GitHub: https://github.com/f/git-rewrite-commits
#javascript
👍3🔥1
Помните, как это было? Кофе, зачетка и возможность просто учиться без спринтов и задач
29 ноября в 16:00 будет Back to Uni — встреча-ностальгия в кампусе Центрального университета для ИТ-сообщества.
Что вас ждет:
— Пары от преподавателей ЦУ — применять знания не обязательно, будет просто интересно.
— Возможность узнать, как и зачем ИТ-специалисту преподавать в вузе, даже если нет опыта или страшно начать.
— Студенческие клубы, разговоры по душам в коридорах и та самая атмосфера, где можно просто вдохновляться.
Пары будут вести руководитель отдела прикладного ML в AI-центре Т-Банка Андрей Мельников, руководитель аналитики международного Яндекс Поиска Роман Васильев, к.м.н., руководитель направления исследований «Мышление и AI» в лаборатории нейронаук и поведения человека Сбера Яна Венерина и другие эксперты.
Это бесплатно. Приходите с однокурсниками — ностальгировать вместе.
Регистрируйтесь по ссылке тут!
29 ноября в 16:00 будет Back to Uni — встреча-ностальгия в кампусе Центрального университета для ИТ-сообщества.
Что вас ждет:
— Пары от преподавателей ЦУ — применять знания не обязательно, будет просто интересно.
— Возможность узнать, как и зачем ИТ-специалисту преподавать в вузе, даже если нет опыта или страшно начать.
— Студенческие клубы, разговоры по душам в коридорах и та самая атмосфера, где можно просто вдохновляться.
Пары будут вести руководитель отдела прикладного ML в AI-центре Т-Банка Андрей Мельников, руководитель аналитики международного Яндекс Поиска Роман Васильев, к.м.н., руководитель направления исследований «Мышление и AI» в лаборатории нейронаук и поведения человека Сбера Яна Венерина и другие эксперты.
Это бесплатно. Приходите с однокурсниками — ностальгировать вместе.
Регистрируйтесь по ссылке тут!
🤬3
⚡️ Google подписал крупный контракт с НАТО на суверенный облачный ИИ
Акции GOOGL растут после того как НАТО заключило многомиллионное соглашение на использование Google Distributed Cloud в полностью изолированном air-gapped режиме.
Решение будет работать на кастомных TPU Google и предназначено для JATEC, центра анализа и обучения.
Что это даёт НАТО
✔ Полностью суверенное облако
Вся вычислительная инфраструктура и хранилище остаются внутри территории НАТО. Это закрывает вопросы юрисдикций, резидентства данных и аудита.
✔ Полная изоляция от интернета
Air-gapped означает что системы физически не подключены к сети.
Обновления, модели и данные проходят только через контролируемые каналы.
Это снижает поверхность атаки и исключает утечки.
✔ Современный ИИ в закрытой среде
Можно запускать аналитику, ИИ-модели и обработку секретных данных не выходя в публичное облако.
✔ Kubernetes, хранилища и ускорители прямо на объектах НАТО
Команды смогут разворачивать контейнерные ИИ-сервисы, симуляции и анализ телеметрии в реальном времени непосредственно в защищённых дата-центрах.
Почему это важно для JATEC
Становится возможным проводить обучение, моделирование и разбор операций на более высоких уровнях секретности, с быстрой корреляцией логов, изображений и данных наблюдения.
NCIA получает единые политики, централизованные патчи и аппаратный root-of-trust чтобы поддерживать одинаковый уровень безопасности на всех площадках.
googlecloudpresscorner.com/2025-11-24-NATO-and-Google-Cloud-Sign-Multi-Million-Dollar-Deal-for-AI-Enabled-Sovereign-Cloud
Акции GOOGL растут после того как НАТО заключило многомиллионное соглашение на использование Google Distributed Cloud в полностью изолированном air-gapped режиме.
Решение будет работать на кастомных TPU Google и предназначено для JATEC, центра анализа и обучения.
Что это даёт НАТО
✔ Полностью суверенное облако
Вся вычислительная инфраструктура и хранилище остаются внутри территории НАТО. Это закрывает вопросы юрисдикций, резидентства данных и аудита.
✔ Полная изоляция от интернета
Air-gapped означает что системы физически не подключены к сети.
Обновления, модели и данные проходят только через контролируемые каналы.
Это снижает поверхность атаки и исключает утечки.
✔ Современный ИИ в закрытой среде
Можно запускать аналитику, ИИ-модели и обработку секретных данных не выходя в публичное облако.
✔ Kubernetes, хранилища и ускорители прямо на объектах НАТО
Команды смогут разворачивать контейнерные ИИ-сервисы, симуляции и анализ телеметрии в реальном времени непосредственно в защищённых дата-центрах.
Почему это важно для JATEC
Становится возможным проводить обучение, моделирование и разбор операций на более высоких уровнях секретности, с быстрой корреляцией логов, изображений и данных наблюдения.
NCIA получает единые политики, централизованные патчи и аппаратный root-of-trust чтобы поддерживать одинаковый уровень безопасности на всех площадках.
googlecloudpresscorner.com/2025-11-24-NATO-and-Google-Cloud-Sign-Multi-Million-Dollar-Deal-for-AI-Enabled-Sovereign-Cloud
👎6❤4🔥2👍1
🤖 Яндекс открыл Alice AI для бизнеса
Что важно знать:
• Alice AI — новое поколение моделей от Яндекса, LLM-модель уже доступна на платформе Yandex AI Studio. Скоро добавится и Alice AI ART;
• В 60% задач показывает результаты лучше, чем DeepSeek V3.1 и Qwen3-235b;
• По сравнению с ними модель лучше в RAG-сценариях, она лучше пишет и редактирует тексты и отвечает на общие вопросы;
• Среди апдейтов – более “человечные” и развернутые ответы: модель может простым языком объяснить сложные вещи, например – рассказать сэйлзам специфику сложного продукта;
• Компании Just AI и presentsimple.ai уже тестируют модель в своих продуктах
• Благодаря оптимизации токенайзера под русский язык при идентичной тарификации использование модели выходит в 1,5-2 раза дешевле опенсорса.
Из интересного: пишут, что Alice AI LLM прошла все этапы обучения модели на данных Яндекса – от претрейна до SFT. До всех этих этапов модель прошла инициализацию опенсорсными весами – они использовались в качестве изначальных параметров модели. Но после обучения все параметры были изменены.
Подробнее тут.
Что важно знать:
• Alice AI — новое поколение моделей от Яндекса, LLM-модель уже доступна на платформе Yandex AI Studio. Скоро добавится и Alice AI ART;
• В 60% задач показывает результаты лучше, чем DeepSeek V3.1 и Qwen3-235b;
• По сравнению с ними модель лучше в RAG-сценариях, она лучше пишет и редактирует тексты и отвечает на общие вопросы;
• Среди апдейтов – более “человечные” и развернутые ответы: модель может простым языком объяснить сложные вещи, например – рассказать сэйлзам специфику сложного продукта;
• Компании Just AI и presentsimple.ai уже тестируют модель в своих продуктах
• Благодаря оптимизации токенайзера под русский язык при идентичной тарификации использование модели выходит в 1,5-2 раза дешевле опенсорса.
Из интересного: пишут, что Alice AI LLM прошла все этапы обучения модели на данных Яндекса – от претрейна до SFT. До всех этих этапов модель прошла инициализацию опенсорсными весами – они использовались в качестве изначальных параметров модели. Но после обучения все параметры были изменены.
Подробнее тут.
❤4👍4🤔3👎1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Используется модель LFM2-Audio-1.5B от LiquidAI, а все данные остаются приватными.
Полностью локальный пайплайн, который можно адаптировать под свои задачи и интегрировать где угодно.
Готовый разбор и код - по ссылке:
https://github.com/Liquid4All/cookbook/tree/main/examples/audio-transcription-cli
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤1🤔1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Президент США подписал указ о создании единой государственной ИИ-платформы. Проект, реализация которого поручена Министерству энергетики, должен радикально ускорить научные исследования и сократить циклы открытий в биотехнологиях и энергетике с нескольких лет до дней.
Инициатива мобилизует инфраструктуру 17 федеральных исследовательских центров. Их суперкомпьютеры и накопленные за десятилетия массивы научных данных будут использованы для обучения специализированных моделей. Новая платформа позволит ИИ-агентам автономно планировать эксперименты, проверять гипотезы и генерировать прогнозы в области химии, биологии и инженерии.
whitehouse.gov
ChatGPT получил обновление, которое устраняет барьер между способами ввода: голосовой чат теперь интегрирован непосредственно в основное окно переписки. Это позволяет пользователям бесшовно переключаться между речью и набором текста, не переходя в отдельный режим.
Теперь во время голосовой сессии можно свободно просматривать историю сообщений, сгенерированные изображения или карты, а ответы ассистента автоматически дублируются в текстовом виде.
Функция уже доступна в мобильных приложениях и веб-версии. Для тех, кто хочет пользоваться голосовым интерфейсом отдельно, OpenAI оставила возможность вернуть его через настройки в разделе Voice Mode.
OpenAi в сети Х
Fara-7B — компактная агентная модель от Microsoft Research на базе Qwen2.5-VL для автономной работы с интерфейсами. Модель умеет анализировать скриншоты, генерировать команды для мыши и клавиатуры, предсказывая точные пиксельные координаты.
В бенчмарках Fara-7B обошла существующие решения и выполняет задачи в разы дешевле крупных моделей - средняя стоимость сессии составляет меньше 3-х центов. Веса модели опубликованы на Hugging Face под лицензией MIT.
microsoft.com
Гарвардская медшкола представила popEVE - нейросеть, способную с высокой точностью выявлять патогенные мутации в геноме для решения проблем диагностики редких наследственных болезней, причины которых врачи зачастую не могут найти годами.
PopEVE объединяет генеративный ИИ с языковой моделью для белков и статистикой человеческих популяций. Система умеет корректно сравнивать опасность мутаций, расположенных в абсолютно разных генах, и выдавать унифицированный клинический рейтинг риска. Предыдущие модели не справлялись с такой кросс-генной калибровкой.
Эффективность системы подтвердили на выборке из 30 000 пациентов. Модель успешно определила причину болезни в трети случаев и попутно обнаружила 123 гена, ранее не связывавшихся с развитием патологий.
harvard.edu
Илон Маск анонсировал амбициозный эксперимент: в 2026 году следующая версия модели xAI бросит вызов сильнейшим киберспортивным командам мира. Матч планируется не просто как шоу, а как критический тест на пути к AGI.
Для чистоты эксперимента инженеры введут жесткие технические ограничения, уравнивающие шансы. Модель не будет подключаться к API игры — она должна «смотреть» на монитор через камеру с имитацией обычного человеческого зрения. Скорость реакции и частоту кликов также лимитируют до физических возможностей человека. Предполагается, что Grok 5 освоит сложные механики MOBA-стратегии с нуля, опираясь только на чтение документации и самостоятельные эксперименты в ходе игры.
Elon Musk в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥3