Artificial Intelion | Новости ИИ
2.19K subscribers
217 photos
11 videos
1 file
276 links
Самое интересное про ИИ.
Новости AI и ML для бизнеса.
Изучаем, тестируем, рекомендуем

Аренда серверов: https://intelion.cloud/tg

Обратная связь: @IntelionCloud или по email ai@intelion.cloud
Download Telegram
Тем, кто интересуется искусственным интеллектом, избежать одиночества в сети очень просто: нужно подписаться на наш канал и найти AI-сообщество под свои задачи и интересы.

Если важен дружелюбный вайб – попробуйте Hugging Face. Это не милый клуб любителей эмодзи 🤗 (hugging face), но большой и коммерчески успешный проект для разработчиков, исследователей и энтузиастов AI.

🔵 В чем профит? Hugging Face — открытая платформа, которая предоставляет инструменты, библиотеки и модели для работы с NLP, компьютерным зрением и другими ИИ-задачами.

Возможность пообщаться с разработчиками, побеседовать с новыми нейросетями в их собственных чатах, получить доступ к предобученным моделям, посёрфить в море курсов и видео, заглянуть в GitHub-репозиторий, почувствовать себя в теме.

🔷 Мы посмотрели и выяснили, что на этой неделе в тренде FLUX.1, Stable Fast 3D, Llama3.1 и Live Portrait. Все можно потестить.

По сути, это Github для Deep Learning моделей, и Github недавно запустил свой аналог.
#AI #LLM #HuggingFace

🏷 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👏1💯1
🙂LLM-аренами сегодня особенно никого не удивишь, но специализированный отбор – это всегда хорошо: именно он позволяет понять, в какой именно сфере ИИ-помощник принесет наибольший профит.

🔵 На Huggingface запустили лидерборд для оценки возможностей разных LLMs в финансовой сфере.

🔷 OpenFinLLM Leaderboard – рейтинг LLM-моделей, способных решать финансовые вопросы. Выдает оценку на основе 40 задач в 7 категориях: поиск информации, анализ текста на естественном языке, генерация текста, восприятие вопросов и полнота ответов на них, советы по управлению рисками, прогнозирование и принятие решений. Смотрят точность, F-меру, ROUGE и коэффициент корреляции Мэтьюза.

🔹Лидируют (кто бы сомневался) GPT-4 и Llama 3.1, показавшие высокую точность в задачах по анализу финансовых ожиданий. В задачах по прогнозам компактные модели Llama-3.1-7b и аналоги превосходят крупные модели.
Не прячьте ваши денежки. Инвестируйте с ИИ!
#AI #FinLLM #Huggingface

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1👏1
🙂 А ведь помимо ожидания Нового года, на повестке дня еще много нового.

🔹 Скажем на Hugging Face открыли новый бесплатный обучающий (все слова хорошие!) курс по тюнингу языковых моделей под ваши конкретные задачи.

🔹 Пишут, что курс сугубо практический, требования к GPU минимальные, встроенных покупок нет, база на SmolLM2, но все навыки масштабируются на другие модели. В содержании – тонкие настройки, шаблоны чатов, эффективные методы адаптации, автоматические тесты, наборы данных для обучения.

🔹 Для участия переходите по ссылке, отправляете запрос - и приступаете. Репозиторий, упражнения, быстрые отклики рецензентов, обсуждение всех процессов в отдельной ветке – все как мы любим.

🔹Курс охватывает все этапы от начального обучения модели до релиза.

🔹 Речь именно о малых моделях, так как LLM, по мнению создателей курса, конечно, впечатляют, но часто требуют значительных вычислительных ресурсов и могут быть избыточными для специализированных приложений.
В целом, звучит логично.
#AI #HuggingFace #SmolLM2

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1👏1
🤓 Если вы умеете рассуждать, а ваша LLM еще нет, то специально для преодоления подобных ситуаций энтузиасты Hugging Face обновили курс по обучению моделей и добавили целый раздел, посвященный тому, как научить модель рассуждать и избежать распространенных ошибок.

👩‍💻 Курс содержит не только теорию, но практические кейсы – «тетрадки» людей, которые пишут о своих успехах (и провалах) в обучении капризного ИИ различным фокусам.

Чем он хорош:
*️⃣все сложные проблемы разбиты на части, можно сосредоточиться на своем отрезке и понять, что не получается;

*️⃣генеративные задачи и задачи, требующие рассуждений, разбираются по отдельности. Можно научить модель решать головоломки – или наоборот, создавать их;

*️⃣много примеров обучения с подкреплением, побуждающих LLM думать и рассуждать, складывать яблоки с апельсинами и доказывать правильность ответов.

А если ваша модель требует дополнительной мощности – вы знаете, что делать. Нужно продолжать качаться! 💪
#ии #huggingface #LLMs

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥2👍1
Представлена новая русскоязычная модель T-pro 2.0 — быстрее, точнее и мощнее аналогов

Выпущена свежая версия нейросети T-pro 2.0 — русскоязычной модели нового поколения, которая значительно превосходит по качеству и скорости другие открытые LLM.

Почему T-pro 2.0 так хороша?
☹️Модель обучена на большом русскоязычном датасете и оптимизирована для задач, связанных с русским языком и контекстом.
☹️Скорость генерации ответов существенно выше аналогов благодаря улучшенным алгоритмам оптимизации.
☹️В тестах T-pro 2.0 показывает более точные и релевантные ответы по сравнению с другими открытыми русскоязычными LLM.


Доступные варианты модели:

T-pro 2.0 — стандартная версия для общего использования.
T-pro 2.0 Eagle — оптимизированная версия с ускоренной генерацией ответов.


Подробнее:
Обзор модели на РБК
Коллекция моделей T-pro 2.0 на HuggingFace


Хотите убедиться сами?
Запустите и протестируйте T-pro 2.0 на серверах «Интелион Облако» — получите доступ к мощным GPU и изучите новую модель.
#ии #нейросети #huggingface

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍33🔥1
Lucy 1.7B — новая RL-модель, рвущая DeepSeek-v3 в поиске

Появилась новая легковесная LLM для мобильных и edge-задач — Lucy 1.7B.

Её обучили специально под веб-поиск с помощью обратного обучения с подкреплением (RLHF), и результаты уже впечатляют: в своих задачах Lucy обходит DeepSeek-v3, оставаясь при этом компактной и быстрой.

Чем хороша Lucy?
☹️Размер: всего 1.7B параметров — легко запускается на CPU.
☹️RLHF-обучение: модель натренирована в цикле с обратной связью, что повышает релевантность и точность ответов.
☹️Ориентирована на поиск: обучена на задачах ранжирования, генерации и сжатия поисковых ответов.
☹️Локальный запуск: идеальна для мобильных, edge-сценариев и частных развертываний.


HuggingFace: Lucy 1.7B Collection

Хотите протестировать Lucy в своём поисковом стекe или embed-боте?
☹️ Разверните её в Интелион Облако. Компактная модель, большие выводы.
#ии #нейросети #huggingface #Lucy

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
33👍2🔥1
MegaScience — новый датасет для обучения моделей научному мышлению

На HuggingFace появился свежий open-source датасет MegaScience, который создавался с прицелом на глубокое понимание научных текстов. Он уже показывает результат выше, чем многие официальные Instruct-бейзлайны.

Что делает MegaScience особенным?
⚡️ Состоит из реальных научных публикаций и экспертных аннотаций (более 1,2 миллиона примеров).
⚡️ Использует строгие критерии отбора — на вход идут только те тексты, что можно использовать для рассуждений, аргументации и интерпретации данных.
⚡️ Участвует в новом научном бенчмарке LM-Open-Science, который выходит за рамки обычного QA или summarization.


Ссылки:
Оригинал на HuggingFace
GitHub проекта


Хотите протестировать MegaScience?
Запустите её на сервере в Интелион Облако — с GPU, который справится с тяжёлыми датасетами. С почасовой оплатой: запустил — потестировал — остановил — заплатил только за фактическое время.
#ии #нейросети #huggingface

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍22
LoRA-инференс на максималках

Если вы используете LoRA-модули для кастомизации моделей генерации изображений, то вы точно сталкивались с проблемой: как запустить LoRA в проде — быстро и без боли?

Команда HuggingFace поделилась новым рецептом оптимизации LoRA-инференса на моделях Flux, и он выглядит... мощно.

Что они предлагают:
☹️ torch.compile() — ускоряем инференс прямо на уровне графа
☹️ Flash Attention 3 — если модель это умеет, будет быстрее
☹️ FP8-квантизация — динамическая, для подходящих GPU
☹️ Hotswapping LoRA — да, теперь можно менять адаптеры на лету, без перекомпиляции.


Подход актуален для продакшена, когда вам нужно быстро адаптировать генерацию без пересборки всей модели.

☹️ Читать статью и смотреть код

Если вы хотите протестировать Flux с быстрым LoRA-инференсом — берите сервер с A100 или RTX 3090 в Интелион Облако. Моментальный запуск, без тикетов и задержек.
#LoRA #Flux #HuggingFace #ии #нейросети

🙂 Artificial Intelion
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍32