281K subscribers
3.95K photos
675 videos
17 files
4.54K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔥 FlowMap: High-Quality Camera Poses, Intrinsics, and Depth via Gradient Descent

Массачусетский технологический университет представил FlowMap.

Это новый комплексный дифференцируемый метод для реконструкции 3D сцены, который позволяет точно задать ракурсы камеры, характеристики движения и глубину видеоряда для каждого кадра.

FlowMap позволяет создавать реалистичные ракурсы на 360°.

Github: https://github.com/dcharatan/flowmap
Paper: https://arxiv.org/abs/2404.15259
Dataset: https://drive.google.com/drive/folders/1PqByQSfzyLjfdZZDwn6RXIECso7WB9IY

@ai_machinelearning_big_data
👍26🔥84
⚡️ UniMERNet: A Universal Network for Real-World Mathematical Expression Recognition

Модель распознавания математических выражений (MER).

git clone https://github.com/opendatalab/UniMERNet.git

Github: https://github.com/opendatalab/unimernet
Paper: https://arxiv.org/abs/2404.15254
HF: https://huggingface.co/wanderkid/unimernet

@ai_machinelearning_big_data
👍26🔥73
OpenBioLLM-Llama3-70B и 8B: Open-source Large Language Models in Medical Domain

OpenBioLLM-Llama3-70B и 8B: самые эффективные и доступные на сегодняшний день Lms в области медицины! 🩺 💊 🧬

Превосходит таких гигантов индустрии, как GPT-4, Gemini, Meditron-70B, Med-PaLM-1 и Med-PaLM-2, в области биомедицины. 🏥 📈 🌟

OpenBioLLM-70B достигает SOTA и является новым достижением для моделей такого размера.
Модель OpenBioLLM-8B превосходит даже GPT-3.5, Gemini и Meditron-70B! 🚀

- 70B : https://huggingface.co/aaditya/OpenBioLLM-Llama3-70B
- 8B : https://huggingface.co/aaditya/OpenBioLLM-Llama3-8B
- Таблица лидеров в области медицины: https://huggingface.co/spaces/openlifescienceai/open_medical_llm_leaderboard

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥74
🔥 Готовится к запуску ИИ-платформа Augment, конкурент GitHub Copilot, с бюджетом в $252 млн

К запуску готовится новая ИИ-платформа Augment. Проект с бюджетом в $252 млн позиционируется как конкурент ИИ-помощника для программистов GitHub Copilot.

В недавнем опросе StackOverflow 44% инженеров-программистов заявили, что они в настоящее время используют инструменты искусственного интеллекта как часть своих процессов разработки, а 26% планируют сделать это в ближайшее время. По оценкам Gartner, более половины организаций тестируют или уже внедрили помощников по кодированию на базе искусственного интеллекта, и что к 2028 году 75% разработчиков будут использовать ИИ для написания кода в той или иной форме.

Экс-разработчик Microsoft Игорь Островский считает, что скоро не останется программиста, который не использует ИИ в своих рабочих процессах. «Разработка программного обеспечения остаётся сложной, зачастую утомительной и разочаровывающей работой, особенно в масштабе больших проектов. ИИ может улучшить качество программного обеспечения, производительность команды и помочь вернуть радость от программирования», — рассказал Островский TechCrunch.

Островский решил создать удобную ИИ-платформа Augment, которую он сам хотел бы использовать. Это платформа Augment, которая ранее получила финансирование в размере $252 млн. Благодаря инвестициям бывшего генерального директора Google Эрика Шмидта и венчурных капиталистов, включая Index Ventures, Sutter Hill Ventures, Lightspeed Venture Partners, Innovation Endeavors и Meritech Capital, Augment стремится встряхнуть все ещё зарождающийся рынок технологий генеративного ИИ-кодинга.

▶️ Записаться в white-лист для тестирования Augment

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥97
⚡️ Команда PyTorch разрабатывает библиотеку для обучения LLM под названием torch titan.

Сегодня библиотека стала общедоступной на GitHub, но она все еще находится в предрелизном состоянии и активно разрабатывается.

- Ссылка на библиотеку: https://github.com/pytorch/torchtitan

- Туториал по работе с torch titan: https://www.youtube.com/watch?v=ee5DOEqD35I

Библиотека создана для предварительного обучения моделей, а для файнтюнига у PyTorch есть еще одна библиотека torchtune:
https://github.com/pytorch/torchtune

@ai_machinelearning_big_data
👍41🔥264
☁️ Stable Diffusion запуск в облаке.

Видео

@ai_machinelearning_big_data
👍125🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
🔥🪄 Awesome-LLM: a curated list of Large Language Model

Кураторский список статей, моделей, api, примеров с кодом, курсов, датасетов, посвященный большим языковым моделям.

Это хорошо структурированная академическая подборка.

Github

Другие узкоспециализированные awesome репозиторий, посвященные LLM:
Awesome-LLM-hallucination
Awesome-hallucination-detection
Awesome ChatGPT Prompts
Awesome ChatGPT
Awesome Deliberative Prompting
Instruction-Tuning-Papers
LLM Reading List
Reasoning using Language Models
Chain-of-Thought Hub
Awesome GPT
Awesome GPT-3
Awesome LLM Human Preference Datasets
RWKV-howto
ModelEditingPapers
Awesome LLM Securityrge
Awesome-Code-LLM
Awesome-LLM-Compression
Awesome-LLM-Systems
Awesome-LLM-Healthcare
Awesome-LLM-Inference
Awesome-LLM-3D
LLMDatahub
Language models for Russian language

@ai_machinelearning_big_data
👍286🥰4
🌐 The Powerful Multi-modal LLM Family
for OCR-free Document Understanding


Мощное мультимодальное семейство больших языковых моделей от Alibaba Group для понимания документов и работы с ними.

mPLUG-DocOwl1.5 - модель для извлечения единой структуры из документов без распознавания текста.

TinyChart - SOTA в различных тестах понимания диаграмм, в том числе Chart-to-Text, Chart-to-Table, OpenCQA, and ChartX. TinyChart превосходит несколько MLLM для понимания диаграмм по параметрам до 13B, таких как ChartLlama и ChartAst (код на подходе).

mPLUG-PaperOwl - научный анализ диаграмм, с помощью мультимодальной LLM.

UReader - разбор документов с помощью мультимодальной модели большого языка без OCR.

🖥 Github

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥74👏3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🏠💻💌 AI Town : AI Town is a virtual town where AI characters live, chat and socialize.

Запустите свой ИИ-город в 1 клик.

Очень интересный проект с использованием искусственного интеллекта, где множество ИИ- агентов взаимодействуют друг с другом .

Агенты введут социальную жизнь, коммуницируют между собой и запоминают свои действия.

Вы можете запустить свой город на базе llama3🎉 или поиграть оналйн.

Github
Demo

@ai_machinelearning_big_data
🔥28👍94
🛂 ConsistentID : Portrait Generation with Multimodal Fine-Grained Identity Preserving

Consistent ID - новая модель, которая позволяет создавать различные персонализированные изображения для документов на основе текстовых промптов и исходного фото 🤌

Github: https://github.com/JackAILab/ConsistentID
Paper: https://arxiv.org/abs/2404.16771
Project: https://ssugarwh.github.io/consistentid.github.io/
Demo: http://consistentid.natapp1.cc/

@ai_machinelearning_big_data
👍16🔥84👏3
🔥 Репозиторий: awesome-algorithms

В этом репозитории собрано всё, что вам может пригодиться по алгоритмам: от общей теории для начинающих до специфичных алгоритмов поиска кратчайшего пути. Есть сайты, есть подборки визуализаций алгоритмов сортировки, практичные видосы, шпаргалки и полезные курсы.

📌 Всё это в одном местев этом репозитории.

📌 А здесь полная шпаргалка по Python


💾 А здесь большая коллекция качественных датасетов, советов и инструментов для файнтюнинга LLM и для создания ваших собственных датасетов.

GitHub: https://github.com/mlabonne/llm-datasets

@ai_machinelearning_big_data

#шпаргалка
👍18🔥65🎃1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Open AI только что добавили новую функцию памяти в Chatgpt.

Память теперь доступна всем пользователям ChatGPT Plus.

Пользоваться памятью очень просто: просто запустите новый чат и напишите ChatGPT все, что вы хотели бы, чтобы он запомнил.

Функция памяти ChatGPT позволяет запоминать нужные вам детали, чтобы в будущем сделать общение актуальным и персонализированны.

ChatGPT автоматически сохраняет такие детали, как ваши личные предпочтения, но вы также можете попросить ChatGPT запомнить конкретную информацию, сказав:
"Запомнить это" или "Сохрани это в своей памяти".

Примечание:
1. Эта функция доступна только в GPT-4, но не в версии 3.5.
2. Если вы хотите удалить что-либо из памяти, вы можете сделать это через настройки управления памятью
3.Похоже, что это замедляет работу GPT-4, потому что он пытается получить доступ к памяти, а затем отвечает.

Память можно включить или отключить в настройках.

@ai_machinelearning_big_data
👍25🔥93
🖥 Gpt2-chatbot = Gpt-5 ?

Появился новый загадочный LLM под названием “gpt2-chatbot”, который невероятно хорошо справляется с широком спектром задач.

Пользователи reddit уверены, что создатели модели - OpenAI и таким образом они тестируют GPT-5 или GPT-4.5.

Модель выдает рабочий код высочайшего качества на всех популярных языках, решает олимпиадные задачи по математике, физике, на недоступном ранее уровне и демонстрирует высокое качество рассуждений и логики.

GPT-4 тоже тестили подобным образом внутри Bing Chat, так что это вполне может быть новая модель OpenAI.

Вот как вы можете попробовать ее бесплатно и оценить модель сами:

- перейдите по ссылке: http://chat.lmsys.org

- перейдите во вкладку “Direct Chat”.

- введите свой промпт.

На видео сравниваем GPT-4 Turbo и Gpt2-chatbot. Отправляем запрос на создание игры на JS в одном HTML-документе.

Первое видео результат работы - GPT-4 Turbo, Второе - Gpt2-chatbot.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍94👌1