Тем, кто интересуется искусственным интеллектом, избежать одиночества в сети очень просто: нужно подписаться на наш канал и найти AI-сообщество под свои задачи и интересы.
Если важен дружелюбный вайб – попробуйте Hugging Face. Это не милый клуб любителей эмодзи 🤗 (hugging face), но большой и коммерчески успешный проект для разработчиков, исследователей и энтузиастов AI.
🔵 В чем профит? Hugging Face — открытая платформа, которая предоставляет инструменты, библиотеки и модели для работы с NLP, компьютерным зрением и другими ИИ-задачами.
Возможность пообщаться с разработчиками, побеседовать с новыми нейросетями в их собственных чатах, получить доступ к предобученным моделям, посёрфить в море курсов и видео, заглянуть в GitHub-репозиторий, почувствовать себя в теме.
🔷 Мы посмотрели и выяснили, что на этой неделе в трендеFLUX.1, Stable Fast 3D, Llama3.1 и Live Portrait . Все можно потестить.
По сути, это Github для Deep Learning моделей, и Github недавно запустил свой аналог.
#AI #LLM #HuggingFace
🏷 Artificial Intelion
Если важен дружелюбный вайб – попробуйте Hugging Face. Это не милый клуб любителей эмодзи 🤗 (hugging face), но большой и коммерчески успешный проект для разработчиков, исследователей и энтузиастов AI.
🔵 В чем профит? Hugging Face — открытая платформа, которая предоставляет инструменты, библиотеки и модели для работы с NLP, компьютерным зрением и другими ИИ-задачами.
Возможность пообщаться с разработчиками, побеседовать с новыми нейросетями в их собственных чатах, получить доступ к предобученным моделям, посёрфить в море курсов и видео, заглянуть в GitHub-репозиторий, почувствовать себя в теме.
🔷 Мы посмотрели и выяснили, что на этой неделе в тренде
По сути, это Github для Deep Learning моделей, и Github недавно запустил свой аналог.
#AI #LLM #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👏1💯1
🔵 На Huggingface запустили лидерборд для оценки возможностей разных LLMs в финансовой сфере.
🔷 OpenFinLLM Leaderboard – рейтинг LLM-моделей, способных решать финансовые вопросы. Выдает оценку на основе 40 задач в 7 категориях: поиск информации, анализ текста на естественном языке, генерация текста, восприятие вопросов и полнота ответов на них, советы по управлению рисками, прогнозирование и принятие решений. Смотрят точность, F-меру, ROUGE и коэффициент корреляции Мэтьюза.
🔹Лидируют (кто бы сомневался) GPT-4 и Llama 3.1, показавшие высокую точность в задачах по анализу финансовых ожиданий. В задачах по прогнозам компактные модели Llama-3.1-7b и аналоги превосходят крупные модели.
Не прячьте ваши денежки. Инвестируйте с ИИ!
#AI #FinLLM #Huggingface
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1👏1
🔹 Скажем на Hugging Face открыли новый бесплатный обучающий (все слова хорошие!) курс по тюнингу языковых моделей под ваши конкретные задачи.
🔹 Пишут, что курс сугубо практический, требования к GPU минимальные,
🔹 Для участия переходите по ссылке, отправляете запрос - и приступаете. Репозиторий, упражнения, быстрые отклики рецензентов, обсуждение всех процессов в отдельной ветке – все как мы любим.
🔹Курс охватывает все этапы от начального обучения модели до релиза.
🔹 Речь именно о малых моделях, так как LLM, по мнению создателей курса, конечно, впечатляют, но часто требуют значительных вычислительных ресурсов и могут быть избыточными для специализированных приложений.
В целом, звучит логично.
#AI #HuggingFace #SmolLM2
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1👏1
Чем он хорош:
А если ваша модель требует дополнительной мощности – вы знаете, что делать. Нужно продолжать качаться!
#ии #huggingface #LLMs
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥2👍1
Представлена новая русскоязычная модель T-pro 2.0 — быстрее, точнее и мощнее аналогов
Выпущена свежая версия нейросети T-pro 2.0 — русскоязычной модели нового поколения, которая значительно превосходит по качеству и скорости другие открытые LLM.
Почему T-pro 2.0 так хороша?
Доступные варианты модели:
Подробнее:
Хотите убедиться сами?
Запустите и протестируйте T-pro 2.0 на серверах «Интелион Облако» — получите доступ к мощным GPU и изучите новую модель.
#ии #нейросети #huggingface
🙂 Artificial Intelion
Выпущена свежая версия нейросети T-pro 2.0 — русскоязычной модели нового поколения, которая значительно превосходит по качеству и скорости другие открытые LLM.
Почему T-pro 2.0 так хороша?
☹️ Модель обучена на большом русскоязычном датасете и оптимизирована для задач, связанных с русским языком и контекстом.☹️ Скорость генерации ответов существенно выше аналогов благодаря улучшенным алгоритмам оптимизации.☹️ В тестах T-pro 2.0 показывает более точные и релевантные ответы по сравнению с другими открытыми русскоязычными LLM.
Доступные варианты модели:
T-pro 2.0 — стандартная версия для общего использования.
T-pro 2.0 Eagle — оптимизированная версия с ускоренной генерацией ответов.
Подробнее:
Обзор модели на РБК
Коллекция моделей T-pro 2.0 на HuggingFace
Хотите убедиться сами?
Запустите и протестируйте T-pro 2.0 на серверах «Интелион Облако» — получите доступ к мощным GPU и изучите новую модель.
#ии #нейросети #huggingface
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3 3🔥1
Lucy 1.7B — новая RL-модель, рвущая DeepSeek-v3 в поиске
Появилась новая легковесная LLM для мобильных и edge-задач — Lucy 1.7B.
Её обучили специально под веб-поиск с помощью обратного обучения с подкреплением (RLHF), и результаты уже впечатляют: в своих задачах Lucy обходит DeepSeek-v3, оставаясь при этом компактной и быстрой.
Чем хороша Lucy?
HuggingFace: Lucy 1.7B Collection
Хотите протестировать Lucy в своём поисковом стекe или embed-боте?
☹️ Разверните её в Интелион Облако. Компактная модель, большие выводы.
#ии #нейросети #huggingface #Lucy
🙂 Artificial Intelion
Появилась новая легковесная LLM для мобильных и edge-задач — Lucy 1.7B.
Её обучили специально под веб-поиск с помощью обратного обучения с подкреплением (RLHF), и результаты уже впечатляют: в своих задачах Lucy обходит DeepSeek-v3, оставаясь при этом компактной и быстрой.
Чем хороша Lucy?
☹️ Размер: всего 1.7B параметров — легко запускается на CPU.☹️ RLHF-обучение: модель натренирована в цикле с обратной связью, что повышает релевантность и точность ответов.☹️ Ориентирована на поиск: обучена на задачах ранжирования, генерации и сжатия поисковых ответов.☹️ Локальный запуск: идеальна для мобильных, edge-сценариев и частных развертываний.
HuggingFace: Lucy 1.7B Collection
Хотите протестировать Lucy в своём поисковом стекe или embed-боте?
#ии #нейросети #huggingface #Lucy
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 3👍2🔥1
MegaScience — новый датасет для обучения моделей научному мышлению
На HuggingFace появился свежий open-source датасет MegaScience, который создавался с прицелом на глубокое понимание научных текстов. Он уже показывает результат выше, чем многие официальные Instruct-бейзлайны.
Что делает MegaScience особенным?
Ссылки:
Хотите протестировать MegaScience?
Запустите её на сервере в Интелион Облако — с GPU, который справится с тяжёлыми датасетами. С почасовой оплатой: запустил — потестировал — остановил — заплатил только за фактическое время.
#ии #нейросети #huggingface
🙂 Artificial Intelion
На HuggingFace появился свежий open-source датасет MegaScience, который создавался с прицелом на глубокое понимание научных текстов. Он уже показывает результат выше, чем многие официальные Instruct-бейзлайны.
Что делает MegaScience особенным?
⚡️ Состоит из реальных научных публикаций и экспертных аннотаций (более 1,2 миллиона примеров).⚡️ Использует строгие критерии отбора — на вход идут только те тексты, что можно использовать для рассуждений, аргументации и интерпретации данных.⚡️ Участвует в новом научном бенчмарке LM-Open-Science, который выходит за рамки обычного QA или summarization.
Ссылки:
Оригинал на HuggingFace
GitHub проекта
Хотите протестировать MegaScience?
Запустите её на сервере в Интелион Облако — с GPU, который справится с тяжёлыми датасетами. С почасовой оплатой: запустил — потестировал — остановил — заплатил только за фактическое время.
#ии #нейросети #huggingface
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2 2
LoRA-инференс на максималках
Если вы используете LoRA-модули для кастомизации моделей генерации изображений, то вы точно сталкивались с проблемой: как запустить LoRA в проде — быстро и без боли?
Команда HuggingFace поделилась новым рецептом оптимизации LoRA-инференса на моделях Flux, и он выглядит... мощно.
Что они предлагают:
Подход актуален для продакшена, когда вам нужно быстро адаптировать генерацию без пересборки всей модели.
☹️ Читать статью и смотреть код
Если вы хотите протестировать Flux с быстрым LoRA-инференсом — берите сервер с A100 или RTX 3090 в Интелион Облако. Моментальный запуск, без тикетов и задержек.
#LoRA #Flux #HuggingFace #ии #нейросети
🙂 Artificial Intelion
Если вы используете LoRA-модули для кастомизации моделей генерации изображений, то вы точно сталкивались с проблемой: как запустить LoRA в проде — быстро и без боли?
Команда HuggingFace поделилась новым рецептом оптимизации LoRA-инференса на моделях Flux, и он выглядит... мощно.
Что они предлагают:
☹️ torch.compile() — ускоряем инференс прямо на уровне графа☹️ Flash Attention 3 — если модель это умеет, будет быстрее☹️ FP8-квантизация — динамическая, для подходящих GPU☹️ Hotswapping LoRA — да, теперь можно менять адаптеры на лету, без перекомпиляции.
Подход актуален для продакшена, когда вам нужно быстро адаптировать генерацию без пересборки всей модели.
Если вы хотите протестировать Flux с быстрым LoRA-инференсом — берите сервер с A100 или RTX 3090 в Интелион Облако. Моментальный запуск, без тикетов и задержек.
#LoRA #Flux #HuggingFace #ии #нейросети
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3 2