DataWorkshop - AI & ML
1.92K subscribers
204 photos
22 videos
13 files
150 links
Онлайн-обучение от европейской компании DataWorkshop.

Курсы по: Статистике, SQL, Python, Data Science, Нейронным сетям, Time Series, NLP.

Корпоративное обучение.

Помогаем внедрять машинное обучение в бизнес.

Сайт:
https://dataworkshop.ru
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Напишу еще текстом, больше конкретики
🔥9
Вернулся на океан 👆


Практическому курсу по LLM быть, но перед этим стоит прояснить несколько важных моментов. На этой неделе завершил один проект по LLM для компании, которую, думаю, их знаешь — они раньше выпускали телефоны, а сейчас больше занимаются оборудованием (больше, к сожалению, рассказать не могу). В их случае задача заключалась в создании решения, которое помогало бы находить ответы, когда что-то не работает. Интересно то, что у них в компании есть специализированные команды по Data Science, которые пошли по популярному, но неверному пути, используя модные библиотеки. Конечно, так можно сделать — ведь это упрощает работу и позволяет быстро создать прототип, но на продуктив это решение не подходит, так как оно слишком непредсказуемое и не поддается улучшению (когда информация делится на маленькие кусочки — chunks, и потом ищется похожие кусочки). Я же помогал их команде, больше со стороны IT (не DS/ML), но по факту у них получилось наибольшее приближение к production-ready решению. Кстати, моя помощь — это секрет, поэтому тихо 🤫, так как между командами идет негласное соревнование за лидерство.

Что же они сделали? С одной стороны — простые вещи, логичные и основанные на здравом смысле. С точки зрения бизнеса, инструменты — это всегда лишь инструменты, и важно сосредоточиться на том, что действительно нужно бизнесу, на процессе. Сначала постараться сделать всё вручную, чтобы понять суть происходящего, а затем частично передавать ответственность на LLM, но хитрым образом — не ожидать от LLM слишком многого. Нужно продумать за нее возможные пути и сценарии. Да-да, думать всё ещё нужно — так называемый ИИ плохо умеет это делать. Но если правильно спланировать систему, LLM, как поезд, будет четко двигаться по рельсам и станет более предсказуемым. Чтобы это реализовать, есть много нюансов, но саму идею я постарался описать простым языком. Звучит просто и разумно, правда? Вопрос в том, как это сделать.

В принципе, когда "увидишь" как, все станет понятно. Конечно, сейчас большая часть информации ведет не в ту сторону, так как практиков мало, и каждый копирует за другим. Поэтому столько шума.

Напишу еще... раз так хорошо идет 🙂

#llm #course #usecase
🔥15
7 ключевых моментов, которые наглядно и практично показывают ценность курса:


Этот курс точно подойдет Тебе если хотя бы пару пунктов отзываются:

1️⃣Хочешь создавать продукционные решения на основе LLM, которые реально влияют на бизнес — не теоретические эксперименты, а работающие внедрения, приносящие ценность.

2️⃣Для Тебя важна простота и эффективность — на практике изучишь принцип "бритвы Оккама" и научишься упрощать сложные задачи до работающих решений.

3️⃣Нужны проверенные проектные шаблоны — получишь готовые схемы, чек-листы и карты знаний, которые помогут избежать типичных ловушек в проектах LLM.

4️⃣Ищешь практические знания, а не тренды — фокусируемся на том, что действительно работает в продакшене, игнорируя краткосрочные моды и маркетинг.

5️⃣Хочешь объединить LLM с классическим ML — научишься эффективно сочетать эти технологии и поймешь, когда использовать каждую из них.

6️⃣Нужны крепкие основы — познакомишься с универсальными принципами и методологиями, которые будут актуальны независимо от изменений в библиотеках и инструментах.

7️⃣Ценишь практический подход — получишь конкретные примеры из "поля боя", код с подробным разбором и возможность самостоятельных упражнений.

Как оцениваешь такое представление ключевых ценностей курса? Резонирует? 🔥🔥🔥

На данный момент в моей программе созрело 5 модулей и еще множество дополнительных, но после долгих раздумий и улучшений я решил не делать курс слишком большим, а просто разделить его на два. Например, локальный AI, то есть запуск собственной модели, будет отдельным курсом, чтобы сразу сосредоточиться именно на том, что важно — научиться использовать модели и проектировать системы. Кстати, над чем я сейчас работаю: хочу подключить тебя к нашей внутренней системе, благодаря чему ты сможешь легко тестировать множество моделей (как закрытых, например OpenAI и Anthropic, так и открытых, таких как Llama, Mistral и другие). Думаю, будет доступно пару десятков моделей — это значит, что для тебя будет легко проводить качественные эксперименты.

#llm #course
🔥18
Вчера выступал на встрече Google Developer Group.

Рассказывал про LLM: где мы сейчас находимся и чего ожидать в будущем. Делился своим опытом.

Удалось пообщаться с интересными людьми, которые раньше знали меня только виртуально. Такие встречи немного смущают, особенно когда возникает атмосфера возвышения. Все мы люди, ходим по одной земле.

Кстати лайфак - заранее пиши и договаривайся о встречах, чтобы успеть пообщаться. Идешь на конференцию, заранее посмотри, с кем хочешь поговорить. Это заметно увеличивает шансы на полезные контакты.

А сейчас — снова в поезд и на консультацию. На этот раз для компании из сферы HR, одного из лидеров индустрии. Будем помогать совершенствовать их лидерские качества.

#conf #llm
9👍4
Время подводить итоги года.

Но я не буду делать это как обычно. Этот год, особенно его вторая половина, был более интенсивным — я создавал практический курс по LLM.
Здесь нужно пояснить. Когда мы в DataWorkshop ведем проекты с компаниями, с разной степенью вовлеченности — от консалтинга до непосредственной реализации, — это, конечно, непросто, но более понятно.

При создании курса у меня включается механизм: выжать максимум из того, что я уже знаю, чтобы передать как можно больше практического опыта. А это сложно. Гораздо проще научиться самому, чем научить кого-то. Кстати, существует большая корреляция: когда обучаешь других, еще лучше оттачиваешь свои навыки. (К слову, я активно рекомендую такой подход. Правда, мало кто им пользуется, потому что учить других действительно сложно — это понятно.)

LLM сейчас очень горячая тема. У меня большая часть материалов на польском языке (в том числе подкасты). В этом году я активно рассказывал, почему «модный AI» — это тупиковая ветвь, но при этом есть решения, которые работают.
Есть ощущение, что все больше людей это замечают, хотя, скорее всего, должно пройти время. Это нормальный цикл: сейчас все «плывет с хайпа» в сторону «разочарования».

С ML я работаю уже более 10 лет. Поэтому привык, что иногда тема становится популярной, возникает много шума, а потом интерес падает. Тогда можно спокойно двигаться вперед, не нужно «кричать».

Что такое практический LLM?
Что реально можно делать? Как правильно реализовать RAG? Есть ли будущее у AI-агентов? И если да, то как это сделать?
И, в целом, на какого «коня» поставить?

Пишу это сообщение и понимаю, что текстом сложно передать смысл. Отсюда появилась идея — показать на практике.

Давай соберемся перед Новым годом, посмотрим на реальные возможности LLM, и вы поймете, что возможно, и куда стоит развиваться.

Как идея? Поддержите! Если соберем 50 «огоньков» 🔥, я проведу практическое мероприятие еще в этом году!

#llm #rag #data #production
🔥36
This media is not supported in your browser
VIEW IN TELEGRAM
С (наступающим) Новым Годом!🎉


50 🔥нет, но у меня родилась еще лучшая идея 💡. Проведу тренинг который делал в Польше за ок. 200 евро, где объясню возможности и ограничения LLM, главные заблуждения массы и в чем преувеличивают возможности свежие эксперты, а где упускают главные возможности. Да, такой парадокс.


Формат - закрытая рабочая группа (трансляции онлайн не будет!), где после моей презентации можно задать вопросы и пообщаться о том что важно!


Не пропусти запись, завтра утром ее открою. Вот и проверим для кого важен ML 🥳

С Новым Годом!

Новые возможности ждут, действуй!

P.S. Для первых семи запись будет моим подарком ❤️.

P.P.S. Елку украсила жена, сын сделал поезд 🥳 Красиво
13
Новый год — отличный момент для старта, ведь это время, когда появляется новый стимул делать то, что давно хотелось, но не хватало времени. Так что давай начнем с малого, постепенно двигаясь вперед.

Для этого я организую закрытый тренинг, который пройдет онлайн, но без открытой трансляции. Мы сосредоточимся на практических аспектах работы с LLM и управлении их результатами, что даст тебе уверенность в работе с моделями LLM и поможет избежать распространенных ошибок.

🗓 Когда?
3 января с 12:00 до 14:00 (Минск, Москва) или 11:00 до 13:00 (Варшава, Киев, Берлин).

Это твой шанс начать новый год с полезных знаний, которые помогут тебе двигаться вперед с уверенностью!

Что будет?
1️⃣ Что такое "галлюцинации" LLM? Узнай, как управлять ошибками, которые могут возникать в процессе работы с большими языковыми моделями.
2️⃣ Как отличить ошибки от полезных "мечт" модели? Важно понимать, как LLM генерирует текст и как это может повлиять на результат.
3️⃣ Как избежать ошибок при внедрении LLM в продакшн? Получи знания о том, как управлять неопределенностью модели и исправлять ошибки без поломки системы.
4️⃣ Как подготовиться к реальным вызовам (а не только играться)? Понимание механизма "галлюцинаций" критично для внедрения LLM в бизнес-процессы.
5️⃣ Не только теория, но и практика! Я покажу тебе код, а также концептуальные подходы к работе с LLM и управлению их результатами.
6️⃣ Будущее за LLM, но нужен контроль! Научись планировать и проектировать решения с использованием LLM, понимая их ограничения.
7️⃣ Это начало чего-то большего! Присоединяйся, чтобы узнать, как создавать ассистентов и агентов с использованием LLM.

Не упусти шанс! 3 января с 12:00 до 14:00 — закрытый онлайн-тренинг, который откроет тебе новые горизонты в применении LLM.

Присоединяйся к тренингу и начни контролировать свои LLM-проекты уже сегодня!

Сейчас опубликую временую ссылку. Внимание!
🔥 Для первых 7 тренинг достается в подарок.
🔥11
🔥Закрытый тренинг = Введение в практический LLM

Группа сформирована — отлично!


Если ещё не успел записаться, не переживай — тренинг, возможно, повторится. Те, кто уже зарегистрировались, первыми получат доступ к новым анонсам и материалам.

Ключевые даты:

2 января: Утром на email придёт инструкция с деталями.
3 января: Встречаемся на двухчасовой сессии.



Что будет:
За 2 часа — всё самое главное о LLM.

Разберём основы, которые кажутся простыми, но...
Тот, кто пытался разобраться самостоятельно, знает, как легко запутаться в хаосе информации. Помогу увидеть главное и начать думать о LLM просто и системно.

Практика:
Реальные примеры, ключевые принципы и типичные ошибки, которые легко избежать.

Дискуссия и ответы на вопросы:
В конце тренинга — время для вопросов и дополнительных инсайтов, чтобы закрепить знания.


Почему это важно?
В 2023-2024 году удалось собрать разный опыт работы с LLM, выделить главное и понять, что действительно работает. Всё это — без лишних сложностей и "граблей". Уже часть проектов реализованы, еще часть в процессе, поэтому делюсь самыми свежими идеями которые работают! Кстати, большинство идей не рабоатет (поэтому если что-то кажется логично это одно, а логично и работает это совсем друга ценность).


Начинай 2025 с DataWorkshop и увереным прокачиванием себя с DataWorkshop. Практический подход, дает практический результат.

Успел записаться и стать частью закрытого тренинга? Поздравляю и давай уверенно двигаться вперёд!
🔥8
Завтра стартует закрытый тренинг. Пока поделюсь важным направлением (прям как компас), которое имеет значение в мире ML.
👆 Неважно, 2024, 2025 или 2030 год – в машинном обучении одно правило остаётся неизменным. Какое? 🤔
Качество данных. Казалось бы, очевидно, но, парадоксально, ситуация лучше не становится. 😅

Из моего опыта: если в компании нет выделенного человека (или команды), отвечающего за качество данных для ML, готовьтесь к трудностям. С этим можно жить, но это технический долг, который всё равно придётся погасить. Причём это тот тип долга, который не приносит мгновенной выгоды. Результаты появятся позже, когда данные начнут использоваться.

Да, картинка получается жёсткая, но… в мире модных лозунгов об ИИ легко забыть про фундамент – данные. Не поймите неправильно, AI-агенты и RAG – это важно. Но что толку, если данные, на которых они работают, низкого качества?

Примеры:

1️⃣ Шум в данных
Ошибочные данные могут поступать из разных источников. Например, система мониторинга загрязнения воздуха в Кракове несколько дней показывала уровень PM2.5 в 5000 µg/m³ вместо 50 µg/m³ из-за сбоя датчика. Это приводило к ложным тревогам и неверным прогнозам модели.

2️⃣ Неактуальные данные
Модели на старых данных не учитывают изменения. Например, модель прогнозирования запросов в клиентскую поддержку может не заметить роста запросов после запуска нового продукта.

3️⃣ Смещение в данных
Данные, собранные в одном контексте, могут быть нерелевантны в другом. Например, AI-модель для найма в IT может отдавать предпочтение мужчинам, если исторические данные содержат преимущественно их.

4️⃣ Недостаток данных
Отсутствие части данных приводит к неполным анализам. Например, модель прогнозирования сбоев в энергосети не имела данных с некоторых старых подстанций, что снижало точность.

5️⃣ Понимание контекста
В марте 2020 года число транзакций картами в продуктовых магазинах резко выросло (контекст – пандемия). Контекст всегда сложно учитывать!

6️⃣ Изменение характеристик данных во времени
Данные меняются, и модели устаревают. Например, модель прогнозирования предпочтений потребителей становится менее точной, если меняются рыночные тренды.

7️⃣ Неправильное представление данных
Данные должны быть преобразованы для корректного анализа. Например, если данные о продажах записаны в разных валютах (доллары и евро), это может запутать модель.

... этот список можно продолжать!

Резонирует? 🔥
🔥11👍1😍1
Шлифую презентацию на завтра, уже почти 100 слайдов (97 штук!) 🙈 Время еще есть, может, что-то добавлю, так много хочется сказать и показать!

Цель, которую ставлю перед собой — объяснить на пальцах, что с одной стороны AI/ML — это не магия, с другой стороны, на самом деле много шума, и очень сложно уловить, что самое важное, и с третьей стороны, по-человечески объяснить, что с этим делать.

Кроме презентации, есть еще блок с кодом, настоящими примерами — будем анализировать реальные финансовые документы.

Видимся уже завтра! Будет очень интенсивно, приготовься к тому, что мы будем много практических знаний давать, тем более если только начинаешь. Но даже если ты по уши в теме, думаю, тоже будешь удивлен!
😍9👍3
Жду завтра и рестартую мозг, а то закипел немного 🙂
👍7
Праздники закончились? Пора возвращаться к AI/LLM!

Закрытый тренинг уже провел, где постарался объяснить важные вещи, которые происходят сейчас, а также поделился ключевыми выводами. Отзывы были отличные!

А сегодня поделюсь с тобой свежим кейсом.

🔥 История из практики:
Вчера ко мне обратился опытный системный аналитик с вопросом: "Можно ли использовать LLM для работы с документацией?" В голосе слышался скепсис, но чувствовалась надежда.

Моя реакция? Ну конечно же! Это уже глупо не использовать...

Что сделали:
1️⃣ Четко сформулировали задачу (здесь аналитик — молодец, ну я подсказывал 😇)
2️⃣ Взяли конкретные примеры документов
3️⃣ Применили LLM (5 секунд ожидания — и вот результат)

Результат?
То, что обычно занимало 6–8 часов, мы сделали за 15 минут. Даже если добавить еще 15 минут на проверку, всё равно это невероятно круто!

💡 Ключевой момент:
Роль специалиста меняется (не только системного аналитика, вообще - роли в ИТ и других отраслях). Сегодня важно научиться использовать LLM профессионально:

- Уметь правильно ставить задачи, чтобы получать нужный результат.
- Разбираться в сильных и слабых сторонах разных моделей (на курсе будет доступ к 70+ моделям).


По большему счету выбор за Тобой что сделать с этой информацией:
Можно переживать, что рынок меняется (а он действительно меняется и это происходит быстро), и рисковать остаться за бортом. А можно возглавить изменения, добавив технологии к своему опыту.

Моя роль (и миссия DataWorkshop) — быть проводником в мир практического ML/AI. В DataWorkshop уже обучили более 3000 человек в разных странах, включая компании из списка Fortune 500. Важно, мы сразу учимся на практике, через свои внутрение проекты, потом сотрудничаем с Партнерами и потом передаю опыт того что работает. Это выжимка умноженная на мой более 10 летний практический опыт работы с ML.

🔥 Интересны такие истории?
Могу делиться кейсами подробнее (есть более сложные проекты, на прошлой неделе закончили проект для логистики - учили сдавать экзамен на специалиста - спойлер: экзамен сдан). Поставь 🔥, если хочешь больше примеров или даже вебинар на эту тему.

#llm #dataworkshop
@data_work
🔥23
ИИ – это уже не только OpenAI! (Р)Эволюция LLM за последние 6 месяцев в кратком изложении.

Помнишь ажиотаж вокруг ChatGPT? На какое-то время фактом (судя по трендам) стало то, что OpenAI = ИИ. Маркетинг и эффект "вау" сделали ChatGPT временами популярнее самого понятия "искусственный интеллект"! Это был прорыв. Google Trends это прекрасно показывает.

Как измерить качество LLM?
Тема рейтингов для LLM сложна. Сейчас самым универсальным является Arena Leaderboard.

Чтобы показать динамику изменений, я поделюсь с тобой заметками, которые мы регулярно фиксируем в DataWorkshop. Посмотри на разницу за последние 6 месяцев. Она колоссальна!

Конечно, сама Arena также развивается динамично. Сравнивая июнь 2024 года с январем 2025-го, видно, что количество голосов выросло с 1,3 миллиона до 2,5 миллиона – почти вдвое всего за 6 месяцев! Это показывает огромный интерес к рынку LLM и важность открытости и сообщества в его развитии. Количество моделей на платформе за это время увеличилось со 109 до 189

@data_work

👇
👍7
Ключевые наблюдения:

1️⃣ Падение (временной?) гегемонии OpenAI:
OpenAI долгое время доминировала, а Google, что удивительно, казалось, проспала революцию LLM.

2️⃣ Пробуждение гиганта:
Google наконец наверстала упущенное и в январе 2025 года ярко заявила о себе в числе лидеров (по крайней мере, согласно Arena).

3️⃣ GPT-4o (май 2024), лидер июня с ELO 1287, упал на 13-е место в январе!
Новый лидер (Gemini 2) имеет ELO 1374 – почти на 100 пунктов больше. В мире LLM, где несколько пунктов создают преимущество, это настоящая пропасть.

4️⃣ Открытые модели поймали волну:
Например, Yi и DeepSeek v3 не только сравнялись с лучшими моделями июня, но и превзошли их. Это революция!

5️⃣ DeepSeek v3 – это не только высокое качество, но и доказательство того, что мощные модели можно тренировать дешево и эффективно.
Миф о бюджетах в сотни миллионов долларов разрушен! Эта модель также дешева и быстра в использовании. Определенно заслуживает отдельного поста.

6️⃣ xAI и Grok:
На сцену вышел новый игрок – Grok от xAI Илона Маска. Сейчас это версия 2, ждем v3 (уже завершена тренировка).

7️⃣ Arena – это не всё!
Помни, что Arena – это общий рейтинг. В наших внутренних тестах, основанных на реальных бизнес-задачах, рейтинги часто выглядят (немного) иначе. Например, Claude 3.5 Sonnet, который отлично справляется на практике (часто в ТОП-3) и хорошо понимает русский, польский и другие языки, в Arena занимает более низкие позиции.

Рынок LLM развивается с головокружительной скоростью.

Что ты думаешь? Ставь реакцию, если хочешь больше 🔥

P.S. Практический курс по LLM!
Хочешь научиться у меня практическому применению LLM, контролировать входные и выходные данные и строить надежные системы? Следи, скоро сообщу как можно будет записаться.

#llm
@data_work
🔥17
Продукты LLM: чтобы работало + и еще вызывало доверие. Как это соединить? Работа с LLM — это не просто выполнение простых команд.

Я уже набил много шишек с LLM и хочу поделиться тем, что мы разработали в лаборатории DataWorkshop, а не тем, что можно найти в интернете. Это практические знания из первых рук. Хотя, на свои грабли всё равно придётся наступить.

Это первый из серии постов. Следи за новыми постами, комментируй (кстати добавил такую возможность), делись, чтобы не пропустить то, что действительно важно! Твоя энергия важна, чтобы поддерживать  у меня мотивацию делиться этим дальше. Если это важно для Тебя я буду еще больше стараться 😊

Начинаем!

Разговор с LLM начинается с простых инструкций:
--> Напиши стихотворение
--> Посоветуй 5 лучших книг о...

После простых промптов? Шаблоны. Давайте рассмотрим 5 самых популярных:

👉 R-I-S-E
Role: Ты создатель контента.
Input: Я собрал данные о нашей целевой аудитории, включая их интересы.
Steps: Предложи стратегию создания контента шаг за шагом.
Expectation: Увеличение трафика на 40% и укрепление бренда.

👉 R-T-F
Role: Маркетолог рекламы на Facebook.
Task: Разработай кампанию на Facebook для продвижения новой линии спортивной одежды.
Format: Создай сториборд с описанием последовательности рекламных креативов, включая тексты, визуализации и стратегию таргетинга.

👉 T-A-G
Task: Оценка эффективности членов команды.
Action: Выступи как непосредственный менеджер и проанализируй сильные и слабые стороны команды.
Goal: Повысить производительность команды, чтобы средний показатель удовлетворенности пользователей вырос с 6 до 7,5 в следующем квартале.

👉 B-A-B
Before: Наш сайт не отображается в результатах SEO.
After: Мы хотим попасть в топ-10 SEO в нашей нише за 90 дней.
Bridge: Разработай подробный план мониторинга действий и список из 20 ключевых слов.

👉 C-A-R-E
Context: Мы запускаем новую линию экологичной одежды.
Action: Создай целевую рекламную кампанию, подчеркивающую наше влияние на окружающую среду.
Result: Увеличение узнаваемости бренда и продаж.
Example: Кампания Patagonia "Don’t Buy This Jacket".

Да, эти шаблоны имеют свое место, особенно для быстрого мозгового штурма. Но достаточно ли этого для реального проекта?

Конечно, нет!

Компании часто начинают с наивных промптов и фреймворков (LangChain?). Этого недостаточно (или это антипаттерн). В DataWorkshop мы знаем, что важна точная структура + внедрение CoT и других, казалось бы, мелких, но критически важных нюансов.

P.S. Вчера DeepSeek R1 произвел впечатление! Тесты в нашей лаборатории на нашем leaderboard запущены. Подробнее об этом скоро...

@data_work
#llm #dataworkshop
🔥101👍1
DeepSeek - модель LLM, заслуживающая внимания. Правда! Потрать 30 секунд и убедись 🙂

Контекст

Под ёлочку 🎄 появился "подарок" DeepSeek v3, который произвел большое впечатление.

Почему? Потому что...
--> обучение прошло значительно дешевле, чем у моделей LLM подобного качества (всего $5-6 млн, а не $50 млн или даже более $100 млн, как принято в отрасли), добавлю, что эта модель имеет 600B параметров (для сравнения, самая большая Llama имеет 400B)
--> использование (инференция) дешевле, чем у аналогичных моделей LLM
--> много других интересных особенностей, например, умеет прогнозировать два токена вперед (не только один)

Но это оказалось только началом... Китайцы создали новую модель DeepSeek r1, вдохновленную "размышляющими" моделями OpenAI (o1/o3). Механизм размышления - тема для отдельного обсуждения.

Правда, в этом случае стоимость "использования" тоже выросла.

Поясню.

В наших тестах в Lab DataWorkshop проверяются десятки моделей LLM, и модели DeepSeek v3/r1 показывают результаты лучше большинства моделей LLM (включая коммерческие). Они стабильно входят в TOP 3 среди открытых моделей.

При выборе модели "AI" ключевыми факторами являются как качество результатов, так и затраты. Иногда для бизнеса лучше выбрать более дешевую модель с немного более низким качеством, если она соответствует базовым требованиям. А с ценами бывает по-разному:
--> Claude Opus 3: $1000
--> Claude Sonnet 3.5: $90
--> Deep Seek v3: $10
--> Deep Seek r1: $300

Интересно, что например Opus 3, несмотря на самую высокую цену, дает самые слабые результаты (из моделей выше). Важно! Эта цена учитывает не только стоимость токена, но и необходимость многократного повторения запросов для получения удовлетворительного ответа, то есть это финальная (реальная) цена.

Модель r1 заняла в одном из рейтингов первое место! Wow 😱. Так бывает не всегда! Этот рейтинг был связан с "логическими" задачами (назовем их так) в определенной отрасли на польском языке, поэтому можно сказать, что знания были довольно "специфическими" для всех моделей LLM. Модель r1 обошла все (да-да - все) модели, включая коммерческие модели OpenAI, Gemini, Anthropic, Grok... 😱😱😱. Конечно, это зависит от задачи, не всегда r1 будет на первом месте, но в этом случае так получилось. Замечено (что, кстати, логично, но в мире LLM нельзя верить на слово, поэтому в DataWorkshop проверяем на практике), что действительно r1 очень хорошо справляется там, где нужно "подумать", например, найти какие-то логические зависимости прямо в тексте или в знаниях, которыми обладает модель.

Стоит отметить, что обе модели DeepSeek v3 и r1 довольно хорошо справляются не только с английским (например польским).

Интересный факт (на фото): модель r1 якобы научилась "останавливаться" и ловить "момент озарения" как человек, хотя этому её не учили. Хотя тема вызывает дискуссии, это имеет смысл с логической точки зрения. LLM все лучше справляются с логикой.

Что думаешь об этом?

P.S. Хочешь быть в курсе новостей LLM? Следи за моими постами 🙂
P.P.S. Open AI лежит, но наши тесты уже выключены, должно скоро встать 😉

---
Хочешь освоить LLM с практической стороны? Есть решение! В курсе "Практический LLM" раскрываются секреты построения надежных, достоверных систем AI. Познакомишься с эффективными методами валидации данных, стабилизации RAG, Агентами AI и объединением классического ML с LLM. Записывайся.

#llm #deepseek
@data_work
🔥8👍3