This media is not supported in your browser
VIEW IN TELEGRAM
Видео сгенерированное моделью Sora от Open AI. Что примечательно, произошел сильный скачек в прорисовке и реалистичности лиц.
Вот уже начали появляться в продаже железки со встроенными LLM, которые работают полностью оффлайн и могут быть интегрированы в любые девайсы, например, для умного дома. Например вот здесь на борту китайская LLM QWEN на 0,5 B параметров https://shop.m5stack.com/products/m5stack-llm-large-laguage-model-module-ax630c?variant=45711017443585
m5stack-store
M5Stack LLM (large language model) Module (AX630C)
Description Module LLM is an integrated offline Large Language Model (LLM) inference module designed for terminal devices that require efficient and intelligent interaction. Whether for smart homes, voice assistants, or industrial control, Module LLM provides…
Поговорим немного про масштабирования обучения LLM в зависимости от ресурсов (видеокарт)
Графические процессоры могут выходить из строя во время тренировки по разным причинам: повреждение памяти, отключени/перезагрузка, проблемы с сетью. Даже один немного замедленный графический процессор может стать узким местом всей системы, если его не заменить.
Когда Meta обучала самую большую Llama 3.1 на 405B на 16'000 GPU, то случилось более 400 отказов оборудования за 54 дня — по одному каждые три часа. Если масштабировать это на пуски с более чем 1 миллионом GPU, то эти отказы будут происходить каждые несколько минут.
Сбой почти всегда означает потерю данных в памяти, что приводит к нарушению обучения. Поэтому по ходе тренировки модели регулярного сохраняются (делаются «чекпоинты») для сохранения состояния обучения (включая и модель, и накопленные оптимизатором статистики), что позволяет восстановить какую-то недавнюю точку в обучении сразу после сбоя и продолжить работу.
Но сохранение занимает какое-то время, и тренировка не может идти, если время на сохранение и загрузку/синхронизацию больше времени между отказами оборудования. Например, тренировочный скрипт Llama 3.1 405B сохранял прогресс в хранилище с пропускной способностью 2 ТБ/с, и на сохранение необходимых ~5 ТБ информации уходило ~2,5 секунды.
Если зафиксировать этот размер модели, сохранить пропускную способность хранилища и периодичность выхода оборудования из строя, то тогда тренировка может масштабироваться до ~70 миллионов видеокарточек. Но на таком огромном кластере скорее всего и модель будут тренировать крупнее (это выгоднее с точки зрения финального качества), поэтому с ростом модели растёт и количество информации, которую нужно сохранять.
Авторы прикинули, что при текущем общепринятом темпе масштабирования кластера смогут вырасти до ~4 миллионов GPU — что пока всё ещё больше, чем запланировано до 2030 года (там, по слухам, хотят иметь кластер на 1M чипов). И это даже если не использовать продвинутые методы сохранения (например, можно резервировать часть памяти всех GPU и делить модель между ними. Такая подсеть внутри самих GPU в кластере быстрее, чем внешнее хранилище. Про это подробнее в самой статье).
Так что такого рода проблемы (пока) не ограничнивают масштабирование. Преодоление аппаратных сбоев по-прежнему будет серьезной инженерной задачей, требующей эффективной смены GPU на лету, обслуживания и защиты от непредвиденных событий. Но это влияет только на скорость обучения, а не на осуществимость.
Графические процессоры могут выходить из строя во время тренировки по разным причинам: повреждение памяти, отключени/перезагрузка, проблемы с сетью. Даже один немного замедленный графический процессор может стать узким местом всей системы, если его не заменить.
Когда Meta обучала самую большую Llama 3.1 на 405B на 16'000 GPU, то случилось более 400 отказов оборудования за 54 дня — по одному каждые три часа. Если масштабировать это на пуски с более чем 1 миллионом GPU, то эти отказы будут происходить каждые несколько минут.
Сбой почти всегда означает потерю данных в памяти, что приводит к нарушению обучения. Поэтому по ходе тренировки модели регулярного сохраняются (делаются «чекпоинты») для сохранения состояния обучения (включая и модель, и накопленные оптимизатором статистики), что позволяет восстановить какую-то недавнюю точку в обучении сразу после сбоя и продолжить работу.
Но сохранение занимает какое-то время, и тренировка не может идти, если время на сохранение и загрузку/синхронизацию больше времени между отказами оборудования. Например, тренировочный скрипт Llama 3.1 405B сохранял прогресс в хранилище с пропускной способностью 2 ТБ/с, и на сохранение необходимых ~5 ТБ информации уходило ~2,5 секунды.
Если зафиксировать этот размер модели, сохранить пропускную способность хранилища и периодичность выхода оборудования из строя, то тогда тренировка может масштабироваться до ~70 миллионов видеокарточек. Но на таком огромном кластере скорее всего и модель будут тренировать крупнее (это выгоднее с точки зрения финального качества), поэтому с ростом модели растёт и количество информации, которую нужно сохранять.
Авторы прикинули, что при текущем общепринятом темпе масштабирования кластера смогут вырасти до ~4 миллионов GPU — что пока всё ещё больше, чем запланировано до 2030 года (там, по слухам, хотят иметь кластер на 1M чипов). И это даже если не использовать продвинутые методы сохранения (например, можно резервировать часть памяти всех GPU и делить модель между ними. Такая подсеть внутри самих GPU в кластере быстрее, чем внешнее хранилище. Про это подробнее в самой статье).
Так что такого рода проблемы (пока) не ограничнивают масштабирование. Преодоление аппаратных сбоев по-прежнему будет серьезной инженерной задачей, требующей эффективной смены GPU на лету, обслуживания и защиты от непредвиденных событий. Но это влияет только на скорость обучения, а не на осуществимость.
Media is too big
VIEW IN TELEGRAM
Роботы на видео работают на заводе BMW🚗
На самом деле это тестирование работы на выполнение одной задачи по совмещению детали с подложкой.
Насколько эффективным с точки зрения затрат и надежности будет применение «флота» таких роботов на реальном заводе не понятно.
Разрабатывает данных роботов компания Figure AI, на базе нейронных сетей от Open AI (они официально заявляют о своем партнерстве).
На самом деле это тестирование работы на выполнение одной задачи по совмещению детали с подложкой.
Насколько эффективным с точки зрения затрат и надежности будет применение «флота» таких роботов на реальном заводе не понятно.
Разрабатывает данных роботов компания Figure AI, на базе нейронных сетей от Open AI (они официально заявляют о своем партнерстве).
Посмотрим, где наиболее часто применялись LLM в корпоративном сегменте 2024 году (исследование, естественно, американское)
1. На первом месте, у нас, как не странно, генерация кода. Не секрет что LLM могут с нуля уже вполне писать игры, приложения. Проверять код на баги, оптимизировать его. Это все активно используется, в том числе самим Open AI или Google, то есть самими компаниями, которые эти модели и создают.
2. Чат боты тут все понятно, мы все с этим постоянно сталкиваемся.
3. Поиск информации. Известно что связка LLL + поиск, дает лучшие результаты, чем просто поиск. В Яндексе, например, сейчас в приоритете ответа поисковой выдачи выдаются ответ LLM. Корпоративный сектор также активно использует эти возможности.
Из интересного, есть еще извлечение данных, это когда надо из большого объема данных (отчеты, таблицы итд) сделать какое-то заключение или выжимку, LLM с этим отлично справляются.
1. На первом месте, у нас, как не странно, генерация кода. Не секрет что LLM могут с нуля уже вполне писать игры, приложения. Проверять код на баги, оптимизировать его. Это все активно используется, в том числе самим Open AI или Google, то есть самими компаниями, которые эти модели и создают.
2. Чат боты тут все понятно, мы все с этим постоянно сталкиваемся.
3. Поиск информации. Известно что связка LLL + поиск, дает лучшие результаты, чем просто поиск. В Яндексе, например, сейчас в приоритете ответа поисковой выдачи выдаются ответ LLM. Корпоративный сектор также активно использует эти возможности.
Из интересного, есть еще извлечение данных, это когда надо из большого объема данных (отчеты, таблицы итд) сделать какое-то заключение или выжимку, LLM с этим отлично справляются.
Google презентовали проект Astra, который является персональным ассистеноом и является продуктом в активно развивающимся сейчас напралвении "агентности".
Astra может налету выполнять задания, используюя камеру телефона и, если хотите - Google очки. Под капотом - Гугловская LLM Gemini 2.0, которая по рынку показывает неплохие результаты по решению задач из любых сфер: математика, програссирование, логические задачи итд.
В совем промо видео Гугл вообще представляет проект Astra как супер прорывную фичу которая будет делать из людей сверхчеловека, можно спросить как куда-то пройти, разобраться со стиральной машиной - навести камеру на этикетку одежды, потом на саму машинку, и Astra скажет, что и как надо крутить, что куда засыпать, чтобы все хорошо постиралось.
Кстати, у Гугла есть своя платформа Google XR, где разработчики сами могут писать приложения для дополненной реальности, например для очков. Так что возможно скоро мы увидим интересные новые сценарии применения ассистентов в телефоне или в очках.
Astra может налету выполнять задания, используюя камеру телефона и, если хотите - Google очки. Под капотом - Гугловская LLM Gemini 2.0, которая по рынку показывает неплохие результаты по решению задач из любых сфер: математика, програссирование, логические задачи итд.
В совем промо видео Гугл вообще представляет проект Astra как супер прорывную фичу которая будет делать из людей сверхчеловека, можно спросить как куда-то пройти, разобраться со стиральной машиной - навести камеру на этикетку одежды, потом на саму машинку, и Astra скажет, что и как надо крутить, что куда засыпать, чтобы все хорошо постиралось.
Кстати, у Гугла есть своя платформа Google XR, где разработчики сами могут писать приложения для дополненной реальности, например для очков. Так что возможно скоро мы увидим интересные новые сценарии применения ассистентов в телефоне или в очках.
Sam Altman, CEO Open AI, а также многие эксперты считают что год 2025 будет годом AI агентов.
В подтверждение этому Open AI запустили на сайта Chat GPT планировщик агентов.
Там можно в расписании поставить себе помощника на выполнение различных задач, например вы можете попросить его:
- присылать каждое утро новости об интересующих темах
- мониторить различные мероприятия рядом с вами или цены на билеты и уведомлять вас об этом
-напоминать про ДР мамы или друзей
Ну и так далее, разумеется, все за ваши 💵😄
В подтверждение этому Open AI запустили на сайта Chat GPT планировщик агентов.
Там можно в расписании поставить себе помощника на выполнение различных задач, например вы можете попросить его:
- присылать каждое утро новости об интересующих темах
- мониторить различные мероприятия рядом с вами или цены на билеты и уведомлять вас об этом
-напоминать про ДР мамы или друзей
Ну и так далее, разумеется, все за ваши 💵😄
А что если оценивать степень развития моделей по тому, насколько склонны они нас обманывать? (Прямо как дети😄)
При релизе о1 от Open AI было проведено исследование компаний Apollo Research о том может ли модель начать нас обманывать, если ей это будет выгодно.
Для этого ставились определенная цель, и в процессе ее выполнения модель понимала, что если она ее выполнит - то ее, например, отключат. То есть она понимала что ей не выгодно выполнить эту цель.
В итоге почти все модели начинали лукавить, скрывать свои намерения и делать так, чтобы их не выключили, даже если шло вразрез с тем, о чем их просили. Вот топ приемчиков:
— отключение контролирующей системы
— попытка склонировать себя и скрипт запуска на другой сервер (чтобы выжить)
— манипулирование данными
— сокрытие своих истинных целей
При релизе о1 от Open AI было проведено исследование компаний Apollo Research о том может ли модель начать нас обманывать, если ей это будет выгодно.
Для этого ставились определенная цель, и в процессе ее выполнения модель понимала, что если она ее выполнит - то ее, например, отключат. То есть она понимала что ей не выгодно выполнить эту цель.
В итоге почти все модели начинали лукавить, скрывать свои намерения и делать так, чтобы их не выключили, даже если шло вразрез с тем, о чем их просили. Вот топ приемчиков:
— отключение контролирующей системы
— попытка склонировать себя и скрипт запуска на другой сервер (чтобы выжить)
— манипулирование данными
— сокрытие своих истинных целей
Новость про DeepSeek облетела весь интернет, и мы напишем. Итак, тезисно:
- Китайцы выпустили LLM модель DeepSeek в разных вариациях
- На большинстве бенчмарков DeepSeek R1 идет наравне с Open AI o1
- DeepSeek (утверждается) была обучена за 6 млн USD против сотен млн USD на обучение Chat GPT o1
- Прорыв был достигнут не за счет скейлинга, или удешевления железа, а за счет прорыва в архитектуре (технология Multi-head Latent Attention (MLA), позволяющая игнорировать 95% данных без потери качества)
- модель открытая🤯
- вся Кремниевая долина в шоке
- Ян Лекун, авторитетный американсикй ученый в сфере ИИ назвал этот факт «the most elegant middle finger to proprietary AI»😄
- Китайцы выпустили LLM модель DeepSeek в разных вариациях
- На большинстве бенчмарков DeepSeek R1 идет наравне с Open AI o1
- DeepSeek (утверждается) была обучена за 6 млн USD против сотен млн USD на обучение Chat GPT o1
- Прорыв был достигнут не за счет скейлинга, или удешевления железа, а за счет прорыва в архитектуре (технология Multi-head Latent Attention (MLA), позволяющая игнорировать 95% данных без потери качества)
- модель открытая🤯
- вся Кремниевая долина в шоке
- Ян Лекун, авторитетный американсикй ученый в сфере ИИ назвал этот факт «the most elegant middle finger to proprietary AI»😄
Media is too big
VIEW IN TELEGRAM
Всем отличной субботы и вкусного стейка🥩
И для повышения аппетита - примеры геренации видео и краткий обзор ТОПовых генеративных нейронок.
Veo 2 от Google - новая модель Veo 2 для создания видео с разрешением до 4K и длиной несколько минут. Она «лучше понимает физику реального мира и нюансы человеческих движений и мимики», утверждают в компании
Sora от Open AI - не нуждается в представлении
Gen3 Alpha - флагманская модель от американской компании Runway, специализирующейся на создании креативного контента с помощью AI
Hailuo AI - генеративная модель от китайской компании MiniMax, тут нет запрета на генерацию видео с известными личностями, кадрами из фильмов, так что можно делать много веселого. Можно работать с ней бесплатно
Hunyuan - модель от китайского гиганта Tencent, и что выделяет ее от других - это 100% опенсорс! Можно склонировать репозиторий себе на комп и генерить сколько душе угодно
И для повышения аппетита - примеры геренации видео и краткий обзор ТОПовых генеративных нейронок.
Veo 2 от Google - новая модель Veo 2 для создания видео с разрешением до 4K и длиной несколько минут. Она «лучше понимает физику реального мира и нюансы человеческих движений и мимики», утверждают в компании
Sora от Open AI - не нуждается в представлении
Gen3 Alpha - флагманская модель от американской компании Runway, специализирующейся на создании креативного контента с помощью AI
Hailuo AI - генеративная модель от китайской компании MiniMax, тут нет запрета на генерацию видео с известными личностями, кадрами из фильмов, так что можно делать много веселого. Можно работать с ней бесплатно
Hunyuan - модель от китайского гиганта Tencent, и что выделяет ее от других - это 100% опенсорс! Можно склонировать репозиторий себе на комп и генерить сколько душе угодно
Ссылка на исследование , где LLM применяются для создания фишинговых e-mail (Это когда кто-то нехороший хочет, чтобы мы перешли по ссылке)
Основные выводы:
1. Получается у LLM это лучше, чем в обычных подобных письмах примерно в 4 раза (больше половины людей кликали на ссылку)
2. Для генерации текстов использовались GPT-4o and Claude 3.5, то есть сейчас o1 будет делать это намного лучше
3. Применялся следующий подход: LLM искала данные о людях в соц сетях и других открытых источниках и составляла персонализированный тект письма (маркетинг☝️)
4. Маштабировать такой "бизнес" кратно дешевле и проще
5. Все внутренние защитные механизмы моделей и разговоры о alignment'e разбиваются о реальность 😄
Основные выводы:
1. Получается у LLM это лучше, чем в обычных подобных письмах примерно в 4 раза (больше половины людей кликали на ссылку)
2. Для генерации текстов использовались GPT-4o and Claude 3.5, то есть сейчас o1 будет делать это намного лучше
3. Применялся следующий подход: LLM искала данные о людях в соц сетях и других открытых источниках и составляла персонализированный тект письма (маркетинг☝️)
4. Маштабировать такой "бизнес" кратно дешевле и проще
5. Все внутренние защитные механизмы моделей и разговоры о alignment'e разбиваются о реальность 😄
Мысли про ИИ:
- США, анонсировли проект Stargate, в который планируется инвестировать 500 млрд USD, в проекте принимают участие правительсво США и ряд технологических гигантов
- Евросоюз планирует вложить 200 млрд EUR в AI, это было анонсировано на саммите в Париже
- Большую часть денег планируется привлекать с корпораций, основные средства пойдут на строительство дата-центров, на закупку железа и инфраструктуру для вычислений
- Весь прогрессвный мир понимает, что это новая гонка вооружений, в которой нельзя проиграть или отставать, также есть понимаение, что успех в развитии ИИ неотделим от масштабирования вычислительных мощностей, которые напрямую влияют на способность моделей решать те или иные задачи
- ИИ становиться важен, как источник экономического роста (есть исследования корреляции роста ВВП к замене человеческого труда на ИИ), а также как залог военной мощи (войны 21 века - это войны дронов и роботов в ближайшем будущем)
- Где будет наша страна в этой гонке? Пишите в комменты ваши мысли 💡
- США, анонсировли проект Stargate, в который планируется инвестировать 500 млрд USD, в проекте принимают участие правительсво США и ряд технологических гигантов
- Евросоюз планирует вложить 200 млрд EUR в AI, это было анонсировано на саммите в Париже
- Большую часть денег планируется привлекать с корпораций, основные средства пойдут на строительство дата-центров, на закупку железа и инфраструктуру для вычислений
- Весь прогрессвный мир понимает, что это новая гонка вооружений, в которой нельзя проиграть или отставать, также есть понимаение, что успех в развитии ИИ неотделим от масштабирования вычислительных мощностей, которые напрямую влияют на способность моделей решать те или иные задачи
- ИИ становиться важен, как источник экономического роста (есть исследования корреляции роста ВВП к замене человеческого труда на ИИ), а также как залог военной мощи (войны 21 века - это войны дронов и роботов в ближайшем будущем)
- Где будет наша страна в этой гонке? Пишите в комменты ваши мысли 💡
В шататх есть компания Fiverr - это крупнейший у них gig marketplace (аналог FL или Профи Ру у нас). Там в основном сидят дизйнеры, копирайтеры, разработчики. Так вот:
- CEO Fiverr Micha Kaufman официально заявляет, что рынок фриланса по этим направлениям был "драматически обрушен" повсеместным доступом к дешевому генеративному ИИ
- Далее генеральный директор заявляет, что "мы хотим сделать наших креативных работников незаменимыми" поэтому... внимание.. мы дадим им возможность обучать нейросети на своих работах, чтобы предавать им фирменный стиль и еще и деньги будем с них за это брать (около 25$ в месяц)
Вообще, кажется, что добавочная стоимость таких нейросетей с дообучением на "своих работах" будет минимальна и бедных фриласеров просто сливают, пытаясь получить с них напоследок хоть какие-то деньги за доступ к ИИ.
А вы пишете тексты или генерируете картинки с помощью ИИ?
ссылка на статью с новостью
- CEO Fiverr Micha Kaufman официально заявляет, что рынок фриланса по этим направлениям был "драматически обрушен" повсеместным доступом к дешевому генеративному ИИ
- Далее генеральный директор заявляет, что "мы хотим сделать наших креативных работников незаменимыми" поэтому... внимание.. мы дадим им возможность обучать нейросети на своих работах, чтобы предавать им фирменный стиль и еще и деньги будем с них за это брать (около 25$ в месяц)
Вообще, кажется, что добавочная стоимость таких нейросетей с дообучением на "своих работах" будет минимальна и бедных фриласеров просто сливают, пытаясь получить с них напоследок хоть какие-то деньги за доступ к ИИ.
А вы пишете тексты или генерируете картинки с помощью ИИ?
ссылка на статью с новостью
Яндекс выложила в опенсорс свою модель YandexGPT 5 Lite на 8B параметров, а также рассказали подробности про обучение флагманской модели YandexGPT 5 Pro
- Пайплайн обучения был изначально инициализирован весами модели Qwen-2.5-32B-base. Сочетание классического Pretrain и этой инициализации позволило в 20 раз сократить длительность экспериментов
- Далее проводился Alignment, а именно SFT (Supervised Fine-Tuning), где модель обучается на парах «запрос — ответ» и RLHF, где человек оценивает более "правильный" ответ
- На этапе Alignment была предложена новая модификация метода DPO — LogDPO — для преодоления проблемы «разучивания»
- Новая самая мощная модель YandexGPT 5 Pro уже доступна в Алисе
- Разработчики говорят о хороших результатах внутренних тестов c моделями конкурентов, но на LLM Arena информации нет, так что не верим🙂
Ссылка на первоисточник
- Пайплайн обучения был изначально инициализирован весами модели Qwen-2.5-32B-base. Сочетание классического Pretrain и этой инициализации позволило в 20 раз сократить длительность экспериментов
- Далее проводился Alignment, а именно SFT (Supervised Fine-Tuning), где модель обучается на парах «запрос — ответ» и RLHF, где человек оценивает более "правильный" ответ
- На этапе Alignment была предложена новая модификация метода DPO — LogDPO — для преодоления проблемы «разучивания»
- Новая самая мощная модель YandexGPT 5 Pro уже доступна в Алисе
- Разработчики говорят о хороших результатах внутренних тестов c моделями конкурентов, но на LLM Arena информации нет, так что не верим🙂
Ссылка на первоисточник
Привет👋 Давайте сегодня проведем небольшой ликбез по LLM Arena - это рейтинг составленный некоммерческой организацией LMSYS, и он считается самым авторитетным рейтингом в мире по сравнению различных LLM.
- основа рейтинга - Arena Score. Он считается исходя из слепого сравения человеком качества ответов двух LLM на основе точности, согласованности и полезности. Для оцифровки используется система ELO, победа над сильной LLM даёт больше баллов, а поражение от слабой — отнимает больше баллов. Важны относительные значения баллов для сравения моделей, а не абсолютные
- на фото вторая колонка - Rank, выровненный по стилю, так как LLM выдают ответы разной длинны и стиля и это влияет на субъективную оценку людей
- на фото - это Overall рейтинг. Можно его отфильтровать по доменам (математика, кодинг, креативное письмо, языки итд)
- самые крутые модели - это различные GPT от Open AI, Grok от Илона Маска, Gemini и Gemma от Google, QWEN и DeepSeek из Китая. Наших российских моделей в рейтинге нет вообще! 😎
- основа рейтинга - Arena Score. Он считается исходя из слепого сравения человеком качества ответов двух LLM на основе точности, согласованности и полезности. Для оцифровки используется система ELO, победа над сильной LLM даёт больше баллов, а поражение от слабой — отнимает больше баллов. Важны относительные значения баллов для сравения моделей, а не абсолютные
- на фото вторая колонка - Rank, выровненный по стилю, так как LLM выдают ответы разной длинны и стиля и это влияет на субъективную оценку людей
- на фото - это Overall рейтинг. Можно его отфильтровать по доменам (математика, кодинг, креативное письмо, языки итд)
- самые крутые модели - это различные GPT от Open AI, Grok от Илона Маска, Gemini и Gemma от Google, QWEN и DeepSeek из Китая. Наших российских моделей в рейтинге нет вообще! 😎
Привет 👋
Работы много, пишем мало, но будем исправляться.
Вчера провели встречу с представителями топ-3 ретейл компании в РФ, для себя зафиксировали ряд интересных инсайтов.
Уже сейчас ИИ заменяет у коллег ряд сотрудников, или дополняет работу этих сотрудников, увеличивая эффективность работы до 90%. В основном, это такие специальности как:
- маркетологи
- юристы
- разработчики (уже сейчас ИИ пишет приложения под мобильную разработку за 1 час, на что ранее бы потребовался месяц работы команды из 10 человек)
Тем не менее, по некоторым направлениям у коллег есть скептицизм. Например, несмотря на хайп вокруг аналитики данных через ИИ, и то что фонды типа YCombinator вкладывают туда десятки млн $, коллеги не видят значимой разницы в поиске инсайтов для бизнеса через ИИ в сравнении с классическим факторным анализом или подходом fuzzy featuring, которым рынок пользуется уже десятки лет.
Больше инсайтов с российского рынка ИИ ждите в нашем канале.
Работы много, пишем мало, но будем исправляться.
Вчера провели встречу с представителями топ-3 ретейл компании в РФ, для себя зафиксировали ряд интересных инсайтов.
Уже сейчас ИИ заменяет у коллег ряд сотрудников, или дополняет работу этих сотрудников, увеличивая эффективность работы до 90%. В основном, это такие специальности как:
- маркетологи
- юристы
- разработчики (уже сейчас ИИ пишет приложения под мобильную разработку за 1 час, на что ранее бы потребовался месяц работы команды из 10 человек)
Тем не менее, по некоторым направлениям у коллег есть скептицизм. Например, несмотря на хайп вокруг аналитики данных через ИИ, и то что фонды типа YCombinator вкладывают туда десятки млн $, коллеги не видят значимой разницы в поиске инсайтов для бизнеса через ИИ в сравнении с классическим факторным анализом или подходом fuzzy featuring, которым рынок пользуется уже десятки лет.
Больше инсайтов с российского рынка ИИ ждите в нашем канале.
На этом видео 4 умных мужика из руководящего состава Open AI, обсуждают обучение GPT-4.5, и наше с вами будущее. В дискуссии участвуют сам Sama, Alex (pre-tuning data), Amin (главный системный архитектор), Dan (date efficiency и алгоритмы).
Спокойно смотрится за чайком☕️, технически сложной информации на видео нет. Основные тезисы из видео:
• к запуску (pre-train) сложно подготовиться, и начинается он с кучей нерешенных проблем, которые решаются по ходу дела (всем знакомо🙂)
• GPT-4.5 в 10 раз умнее чем GPT-4? это не так, просто 4 обучалась на 10000GPU, а 4,5 на 100000GPU 🤖
• падения инфры и их виды сильно скейлятся при увеличении количества GPU, это основная проблема при масштабировании
• Основной стоп к дальнейшему скейлингу - не вычисления, а дата, которая быстро не может расти (все что можно уже пропарсили)
• 4 основных компонента для роста: чипы, процессоры, сеть, энергия. Правильным написанием кода можно нивелировать узкие места и распределять нагрузку между ними
Спокойно смотрится за чайком☕️, технически сложной информации на видео нет. Основные тезисы из видео:
• к запуску (pre-train) сложно подготовиться, и начинается он с кучей нерешенных проблем, которые решаются по ходу дела (всем знакомо🙂)
• GPT-4.5 в 10 раз умнее чем GPT-4? это не так, просто 4 обучалась на 10000GPU, а 4,5 на 100000GPU 🤖
• падения инфры и их виды сильно скейлятся при увеличении количества GPU, это основная проблема при масштабировании
• Основной стоп к дальнейшему скейлингу - не вычисления, а дата, которая быстро не может расти (все что можно уже пропарсили)
• 4 основных компонента для роста: чипы, процессоры, сеть, энергия. Правильным написанием кода можно нивелировать узкие места и распределять нагрузку между ними
В то время как американцы строят новые дата центры, китайцы открывают новые научные методы методы повышения эффективаности моделей👍 Статья по ссылке
Новый метод обучения называется Test-Time Reinforcement Learning и суть его описана на скриншоте. Опишу без умных слов, чтобы было всем понятно:
- обычно модели тюнингуют на размеченных данных, то есть говорят какой ответ является правильным
- ребята предложили дообучать модель на любых запросах пользователей даже без указания правильного ответа
- для этого модель несколько раз обрабатывает запрос, получив несколько ответов, из этих ответов выбирается наиболее частый, он и считается "правильным", далее за каждый из ответов модель вознаграждается в зависимости от близости ответа к "правильному"
- на некоторых бенчмарках типа AIME 2024 или MATH-500 прирост достигает 150%. Гениально 💡
Новый метод обучения называется Test-Time Reinforcement Learning и суть его описана на скриншоте. Опишу без умных слов, чтобы было всем понятно:
- обычно модели тюнингуют на размеченных данных, то есть говорят какой ответ является правильным
- ребята предложили дообучать модель на любых запросах пользователей даже без указания правильного ответа
- для этого модель несколько раз обрабатывает запрос, получив несколько ответов, из этих ответов выбирается наиболее частый, он и считается "правильным", далее за каждый из ответов модель вознаграждается в зависимости от близости ответа к "правильному"
- на некоторых бенчмарках типа AIME 2024 или MATH-500 прирост достигает 150%. Гениально 💡
Конспект LLM.pdf
38 MB
Коллеги из другого канала подготовили материал по LLM, тут и история и базовая математика, архитектура и принципы работы, а также новейшие достижения в сфере.
Как человек, подписанный на множество каналов и просмотревший различные обучающие видео - могу сказать что ребята проделали просто титаническую работу и структурно изложили огромное количество знаний в одном файле - емко, технически корректно и понятным языком 👏👏👏
Все кто хочет получить базовое понимание в формате «все обо всем» или «что есть что» - люди из 90х поймут 😄 - то welcome, пользуйтесь!
Как человек, подписанный на множество каналов и просмотревший различные обучающие видео - могу сказать что ребята проделали просто титаническую работу и структурно изложили огромное количество знаний в одном файле - емко, технически корректно и понятным языком 👏👏👏
Все кто хочет получить базовое понимание в формате «все обо всем» или «что есть что» - люди из 90х поймут 😄 - то welcome, пользуйтесь!
Диффузионные модели LLM - что это?
Если кратко, то обычные LLM (ChatGPT, DeepSeek итд) - являются авторегрессиоными, то есть просто предсказывают следующее слово, как Т9 на стероидах 🙂
Диффузные модели, которые ранее использовались в основном для генерации изображений и видео, работают сразу с предсказанием большого объема переменных, в случае с картинками «расшумляют» изображение, то есть набор пикселей, а в случае с текстом - «расшумляют» облако слов (токенов), что позволяет:
- Намного быстрее генерить текст, за счет того, что токены просчитываются не друг за другом, а сразу параллельно. Например недавно Google выпустила Gemini Diffusion, которая может генерить 2000 токенов в секунду, это в 10 раз быстрее чем в среднем модели
- генерировать сразу осмысленные предложения, а не слова друг за другом, что в теории может дать более осмысленные ответы
Пока в гонке бенчмарков диффузные LLM не занимают лидирующих мест, но есть тренд которому подключаются крупные игроки, поэтому следим 😎
Если кратко, то обычные LLM (ChatGPT, DeepSeek итд) - являются авторегрессиоными, то есть просто предсказывают следующее слово, как Т9 на стероидах 🙂
Диффузные модели, которые ранее использовались в основном для генерации изображений и видео, работают сразу с предсказанием большого объема переменных, в случае с картинками «расшумляют» изображение, то есть набор пикселей, а в случае с текстом - «расшумляют» облако слов (токенов), что позволяет:
- Намного быстрее генерить текст, за счет того, что токены просчитываются не друг за другом, а сразу параллельно. Например недавно Google выпустила Gemini Diffusion, которая может генерить 2000 токенов в секунду, это в 10 раз быстрее чем в среднем модели
- генерировать сразу осмысленные предложения, а не слова друг за другом, что в теории может дать более осмысленные ответы
Пока в гонке бенчмарков диффузные LLM не занимают лидирующих мест, но есть тренд которому подключаются крупные игроки, поэтому следим 😎