ML || DL
1.06K subscribers
506 photos
32 videos
21 files
391 links
Код, нотатки, цікаві статті на тему машинного та глибокого навчання.
---
З приводу питань звертатися до:
@MagnumGrizzly
Download Telegram
Вийшов Grok-3 з ризонінгом

Модель виходить у двох варіантах: Grok-3 mini і повномасштабний Grok-3. За бенчмарками Grok-3 mini приблизно відповідає DeepSeek 3, GPT-4o і Gemini Pro.

А повноцінний Grok відлітає кудись угору: на LMSYS це перша модель, яка перетнула позначку 1400. Зараз вона виграє за всіма лідербордами, включно з кодінгом, математикою і хард промптингом.

Сама модель не ризонінг, але режим міркувань можна активувати (для повноцінного Grok-3 поки що в беті). Видно майже весь процес міркування, «ми додали тільки невелику обфускацію». Будуть доступні два режими, просто Thinking і Thinking Hard.

На Math24 hard режим Grok-3 крутіший за R1, o1 і навіть o3-mini high. На щойно випущеному Math25 - теж саме.
😱3
👀Perplexity AI релізнули DeepSeek R1 без китайської цензури

У блозі вони написали:
R1 1776 - це DeepSeek-R1, яку ми донавчили, щоб прибрати з неї цензуру китайської комуністичної партії. Модель зберігає свої потужні здібності ризонінгу, але при цьому тепер надає неупереджену і фактично точну інформацію.
Донавчали на фреймворку NeMo 2.0 від Nvidia. Про збір даних деталей небагато: кажуть, що спочатку вручну відібрали 300 цензурованих тем, а потім за допомогою класифікатора насемпліли з реальних діалогів користувачів промпти на ці теми. Обробили, зібрали фактично точні відповіді й дофайнтюнили.

Як показують тести, в R1 1776 тепер навіть менше китайської цензури, ніж в o3-mini і Claude 3.5. При цьому за загальними бенчами просідання майже немає (тільки подекуди на малі частки відсотків). А на AIME 2024 метрика навіть чарівним чином підросла на 1 процентний пункт.

Це, до речі, перша опенсорсна модель Perplexity. Посилання на ваги
5
This media is not supported in your browser
VIEW IN TELEGRAM
🤗 Hugging Face тепер можна користуватися як SQL-студією

Хлопці вбудували у свій багатомільйонний розділ із датасетами Data Studio. Тепер з потрібної таблиці можна прямо на платформі витягти те, що потрібно, не завантажуючи її повністю. Результат повернеться у вигляді CSV, або ним можна поділитися посиланням.

Ну і найприємніше: писати SQL-запит самому не обов'язково. Досить описати все природною мовою, а код за вас напише DeepSeek V3.
8
Перший день опенсорсу від DeepSeek

Наприкінці минулого тижня хлопці пообіцяли, що з 24 по 28 лютого викладуть у відкритий доступ п'ять репозиторіїв з їхньої внутрішньої екосистеми.

Сьогодні показали проєкт FlashMLA - оптимізовані GPU-ядра, які крутяться в проде систем DeepSeek.

MLA - це multi latent attention, метод, що дає змогу скорочувати споживання пам'яті за рахунок стиснення матриць ключів і значень у трансформерах. Метод активно використовується в моделях DeepSeek і загалом дуже перспективний, але готових оптимізацій для нього поки не так багато. Тож FlashMLA це готове рішення для бадьорого інференсу.

Проєкт підтримує bfloat16, тому тут і швидкість, і точність. Код годиться для всієї серії Hopper, тобто для H100, H800 і тд.
🔥3
🚀 Anthropic випустили Claude Sonnet 3.7 з ризонінгом

Бенчмарки говорять самі за себе: модель дійсно дуже гарна у всілякій розробці. На SWE Bench вона на добрих 12-13 процентних пунктів перевершує o1, R1 і навіть o3-mini high.

При цьому:
У чаті модель доступна навіть фрі юзерам
В API ціна не змінилася щодо попередньої версії. До речі, ризонінг можна контролювати дуже чітко, вказуючи точну кількість токенів, яку можна "витратити" на роздуми.

P.S дочекались🥹
4🔥1
Також анонсували Claude Code: кастомного Cursor від Anthropic

Це агент, який зможе працювати прямо всередині вашої кодової бази: читати файли, змінювати їх, писати і запускати тести, коммітити і пушити, використовувати командний рядок та інше.

Поки що він у превью. Пресети та інструкція тут, встановити собі можна ось так:

npm install -g @anthropic-ai/claude-code
cd your-project-directory
$ claude
🔥5
⚡️ Microsoft випустили нове покоління сімейства Phi

Phi-4-Multimodal і Phi-4-Mini вже лежать в опенсорсі під ліцензією MIT та інтегровані в Transformers.

Мультимодальність включає текст, аудіо та відео. Ну купі мультимодальних бенчмарків модель перевершує GPT-4o, Gemini-2.0 Flash і 1.5 Pro. Це перша відкрита модель такого рівня піднімання мови та OCR.

У звичних математичних і кодінгових завданнях теж непогано: mini з ризонінгом відповідає o1-mini і дистиляціям R1.

Усередині 2 адаптери для відео та аудіо + лори для модальностей в основній моделі, щоб не змінювати її власні ваги. Навчали в три значних етапи:

1. Претрейн на тексті + файнтюн на тексті
2. Мультимодальний трейн на vision, audio і vision-speech
3. Різонінг трейн на CoT + навчання з підкріпленням з DPO
🔥21👍1
У твіттер уже витекла системна карта GPT-4.5

«Це наша найбільша модель, яка продовжує парадигму масштабування претрейну і ризонінгу» - пишуть у ній

Також у доці є бенчмарки: багато оцінок безпеки і трохи якості. За відчуттями гірше, ніж o3-mini і навіть o1, але відстає не сильно.
🔥3
Нове відео від Андрія Карпати: "Як я використовую LLM"

Це великий гайд щодо того, як підібрати оптимальний інструмент для ваших завдань і при цьому заощадити час і гроші. У програмі:

- Як працюють екосистеми LLM
- ChatGPT під капотом
- Ціноутворення: як не переплачувати
- Ризонери: коли і як їх використовувати
- Пошук в інтернеті, deep research, tool use
- Що таке advanced voice mode
- Claude і його артефакти
- Cursor
- NotebookLM
- Генератори відео та картинок
- Пам'ять у ChatGPT
- І навіть кастомні GPTs

Усі таймкоди на відео позначені, загальна тривалість 2 години. Те що потрібно на вихідні👌.
😁72
Media is too big
VIEW IN TELEGRAM
⚡️ У Google Colab завезли Data Science агента!

Він створений спеціально для роботи з DS/ML і може створювати не просто фрагменти коду, а цілі ноутбуки. Усе просто:

1. Потрібно довантажити свої дані

2. описати цілі (наприклад, «візуалізуй», «проведи EDA», «напиши й оптимізуй модель передбачення таргета»)

3. Сидіти і насолоджуватися тим, як агент сам пише і запускає комірки, імпортує потрібні бібліотеки і вдосконалює свій код

До речі, на бенчмарку DABStep (він якраз оцінює здібності аналізувати дату) агент посів четверте місце, одразу після o1, o3-mini і Claude, а це досить потужний рівень.
🔥4