OpenBioLLM-Llama3-70B и 8B: самые эффективные и доступные на сегодняшний день Lms в области медицины! 🩺 💊 🧬
Превосходит таких гигантов индустрии, как GPT-4, Gemini, Meditron-70B, Med-PaLM-1 и Med-PaLM-2, в области биомедицины. 🏥 📈 🌟
OpenBioLLM-70B достигает SOTA и является новым достижением для моделей такого размера.
Модель OpenBioLLM-8B превосходит даже GPT-3.5, Gemini и Meditron-70B! 🚀
- 70B : https://huggingface.co/aaditya/OpenBioLLM-Llama3-70B
- 8B : https://huggingface.co/aaditya/OpenBioLLM-Llama3-8B
- Таблица лидеров в области медицины: https://huggingface.co/spaces/openlifescienceai/open_medical_llm_leaderboard
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥7❤4
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥9❤7
⚡️ Команда PyTorch разрабатывает библиотеку для обучения LLM под названием torch titan.
Сегодня библиотека стала общедоступной на GitHub, но она все еще находится в предрелизном состоянии и активно разрабатывается.
- Ссылка на библиотеку: https://github.com/pytorch/torchtitan
- Туториал по работе с torch titan: https://www.youtube.com/watch?v=ee5DOEqD35I
Библиотека создана для предварительного обучения моделей, а для файнтюнига у PyTorch есть еще одна библиотека torchtune:
https://github.com/pytorch/torchtune
@ai_machinelearning_big_data
Сегодня библиотека стала общедоступной на GitHub, но она все еще находится в предрелизном состоянии и активно разрабатывается.
- Ссылка на библиотеку: https://github.com/pytorch/torchtitan
- Туториал по работе с torch titan: https://www.youtube.com/watch?v=ee5DOEqD35I
Библиотека создана для предварительного обучения моделей, а для файнтюнига у PyTorch есть еще одна библиотека torchtune:
https://github.com/pytorch/torchtune
@ai_machinelearning_big_data
👍41🔥26❤4
This media is not supported in your browser
VIEW IN TELEGRAM
🔥🪄 Awesome-LLM: a curated list of Large Language Model
Кураторский список статей, моделей, api, примеров с кодом, курсов, датасетов, посвященный большим языковым моделям.
Это хорошо структурированная академическая подборка.
• Github
Другие узкоспециализированные awesome репозиторий, посвященные LLM:
• Awesome-LLM-hallucination
• Awesome-hallucination-detection
• Awesome ChatGPT Prompts
• Awesome ChatGPT
• Awesome Deliberative Prompting
• Instruction-Tuning-Papers
• LLM Reading List
• Reasoning using Language Models
• Chain-of-Thought Hub
• Awesome GPT
• Awesome GPT-3
• Awesome LLM Human Preference Datasets
• RWKV-howto
• ModelEditingPapers
• Awesome LLM Securityrge
• Awesome-Code-LLM
• Awesome-LLM-Compression
• Awesome-LLM-Systems
• Awesome-LLM-Healthcare
• Awesome-LLM-Inference
• Awesome-LLM-3D
• LLMDatahub
• Language models for Russian language
@ai_machinelearning_big_data
Кураторский список статей, моделей, api, примеров с кодом, курсов, датасетов, посвященный большим языковым моделям.
Это хорошо структурированная академическая подборка.
• Github
Другие узкоспециализированные awesome репозиторий, посвященные LLM:
• Awesome-LLM-hallucination
• Awesome-hallucination-detection
• Awesome ChatGPT Prompts
• Awesome ChatGPT
• Awesome Deliberative Prompting
• Instruction-Tuning-Papers
• LLM Reading List
• Reasoning using Language Models
• Chain-of-Thought Hub
• Awesome GPT
• Awesome GPT-3
• Awesome LLM Human Preference Datasets
• RWKV-howto
• ModelEditingPapers
• Awesome LLM Securityrge
• Awesome-Code-LLM
• Awesome-LLM-Compression
• Awesome-LLM-Systems
• Awesome-LLM-Healthcare
• Awesome-LLM-Inference
• Awesome-LLM-3D
• LLMDatahub
• Language models for Russian language
@ai_machinelearning_big_data
👍28❤6🥰4
for OCR-free Document Understanding
Мощное мультимодальное семейство больших языковых моделей от Alibaba Group для понимания документов и работы с ними.
• mPLUG-DocOwl1.5 - модель для извлечения единой структуры из документов без распознавания текста.
• TinyChart - SOTA в различных тестах понимания диаграмм, в том числе Chart-to-Text, Chart-to-Table, OpenCQA, and ChartX. TinyChart превосходит несколько MLLM для понимания диаграмм по параметрам до 13B, таких как ChartLlama и ChartAst (код на подходе).
• mPLUG-PaperOwl - научный анализ диаграмм, с помощью мультимодальной LLM.
• UReader - разбор документов с помощью мультимодальной модели большого языка без OCR.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥7❤4👏3🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🏠💻💌 AI Town : AI Town is a virtual town where AI characters live, chat and socialize.
Запустите свой ИИ-город в 1 клик.
Очень интересный проект с использованием искусственного интеллекта, где множество ИИ- агентов взаимодействуют друг с другом .
Агенты введут социальную жизнь, коммуницируют между собой и запоминают свои действия.
Вы можете запустить свой город на базе llama3🎉 или поиграть оналйн.
• Github
• Demo
@ai_machinelearning_big_data
Запустите свой ИИ-город в 1 клик.
Очень интересный проект с использованием искусственного интеллекта, где множество ИИ- агентов взаимодействуют друг с другом .
Агенты введут социальную жизнь, коммуницируют между собой и запоминают свои действия.
Вы можете запустить свой город на базе llama3🎉 или поиграть оналйн.
• Github
• Demo
@ai_machinelearning_big_data
🔥28👍9❤4
🛂 ConsistentID : Portrait Generation with Multimodal Fine-Grained Identity Preserving
Consistent ID - новая модель, которая позволяет создавать различные персонализированные изображения для документов на основе текстовых промптов и исходного фото 🤌
• Github: https://github.com/JackAILab/ConsistentID
• Paper: https://arxiv.org/abs/2404.16771
• Project: https://ssugarwh.github.io/consistentid.github.io/
• Demo: http://consistentid.natapp1.cc/
@ai_machinelearning_big_data
Consistent ID - новая модель, которая позволяет создавать различные персонализированные изображения для документов на основе текстовых промптов и исходного фото 🤌
• Github: https://github.com/JackAILab/ConsistentID
• Paper: https://arxiv.org/abs/2404.16771
• Project: https://ssugarwh.github.io/consistentid.github.io/
• Demo: http://consistentid.natapp1.cc/
@ai_machinelearning_big_data
👍16🔥8❤4👏3
🔥 Репозиторий: awesome-algorithms
В этом репозитории собрано всё, что вам может пригодиться по алгоритмам: от общей теории для начинающих до специфичных алгоритмов поиска кратчайшего пути. Есть сайты, есть подборки визуализаций алгоритмов сортировки, практичные видосы, шпаргалки и полезные курсы.
📌 Всё это в одном месте — в этом репозитории.
📌 А здесь полная шпаргалка по Python
💾 А здесь большая коллекция качественных датасетов, советов и инструментов для файнтюнинга LLM и для создания ваших собственных датасетов.
• GitHub: https://github.com/mlabonne/llm-datasets
@ai_machinelearning_big_data
#шпаргалка
В этом репозитории собрано всё, что вам может пригодиться по алгоритмам: от общей теории для начинающих до специфичных алгоритмов поиска кратчайшего пути. Есть сайты, есть подборки визуализаций алгоритмов сортировки, практичные видосы, шпаргалки и полезные курсы.
📌 Всё это в одном месте — в этом репозитории.
📌 А здесь полная шпаргалка по Python
💾 А здесь большая коллекция качественных датасетов, советов и инструментов для файнтюнинга LLM и для создания ваших собственных датасетов.
• GitHub: https://github.com/mlabonne/llm-datasets
@ai_machinelearning_big_data
#шпаргалка
👍18🔥6❤5🎃1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Open AI только что добавили новую функцию памяти в Chatgpt.
Память теперь доступна всем пользователям ChatGPT Plus.
Пользоваться памятью очень просто: просто запустите новый чат и напишите ChatGPT все, что вы хотели бы, чтобы он запомнил.
Функция памяти ChatGPT позволяет запоминать нужные вам детали, чтобы в будущем сделать общение актуальным и персонализированны.
ChatGPT автоматически сохраняет такие детали, как ваши личные предпочтения, но вы также можете попросить ChatGPT запомнить конкретную информацию, сказав:
"Запомнить это" или "Сохрани это в своей памяти".
Примечание:
1. Эта функция доступна только в GPT-4, но не в версии 3.5.
2. Если вы хотите удалить что-либо из памяти, вы можете сделать это через настройки управления памятью
3.Похоже, что это замедляет работу GPT-4, потому что он пытается получить доступ к памяти, а затем отвечает.
Память можно включить или отключить в настройках.
@ai_machinelearning_big_data
Память теперь доступна всем пользователям ChatGPT Plus.
Пользоваться памятью очень просто: просто запустите новый чат и напишите ChatGPT все, что вы хотели бы, чтобы он запомнил.
Функция памяти ChatGPT позволяет запоминать нужные вам детали, чтобы в будущем сделать общение актуальным и персонализированны.
ChatGPT автоматически сохраняет такие детали, как ваши личные предпочтения, но вы также можете попросить ChatGPT запомнить конкретную информацию, сказав:
"Запомнить это" или "Сохрани это в своей памяти".
Примечание:
1. Эта функция доступна только в GPT-4, но не в версии 3.5.
2. Если вы хотите удалить что-либо из памяти, вы можете сделать это через настройки управления памятью
3.Похоже, что это замедляет работу GPT-4, потому что он пытается получить доступ к памяти, а затем отвечает.
Память можно включить или отключить в настройках.
@ai_machinelearning_big_data
👍25🔥9❤3
Появился новый загадочный LLM под названием “gpt2-chatbot”, который невероятно хорошо справляется с широком спектром задач.
Пользователи reddit уверены, что создатели модели - OpenAI и таким образом они тестируют GPT-5 или GPT-4.5.
Модель выдает рабочий код высочайшего качества на всех популярных языках, решает олимпиадные задачи по математике, физике, на недоступном ранее уровне и демонстрирует высокое качество рассуждений и логики.
GPT-4 тоже тестили подобным образом внутри Bing Chat, так что это вполне может быть новая модель OpenAI.
Вот как вы можете попробовать ее бесплатно и оценить модель сами:
- перейдите по ссылке: http://chat.lmsys.org
- перейдите во вкладку “Direct Chat”.
- введите свой промпт.
На видео сравниваем GPT-4 Turbo и Gpt2-chatbot. Отправляем запрос на создание игры на JS в одном HTML-документе.
Первое видео результат работы - GPT-4 Turbo, Второе - Gpt2-chatbot.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍9❤4👌1
Arena-Hard — создание высококачественных тестов для оценки LLM
Arena-Hard позволяет оценивать ответы LLM по 7 конкретным показателям; критерии на изображении
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤3🔥2⚡1😁1🎉1