Думающие модели o1-3: краткий обзор и чего программистам ждать дальше
Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать». Многие утверждали, что из-за этого у моделей нет настоящего интеллекта и что их необходимо дополнять либо человеческой помощью, либо каким-то внешним каркасом поверх самой LLM, например Chain of Thought.
Читать далее
#o1 #reasoning_models #llm_модели | @habr_ai
Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать». Многие утверждали, что из-за этого у моделей нет настоящего интеллекта и что их необходимо дополнять либо человеческой помощью, либо каким-то внешним каркасом поверх самой LLM, например Chain of Thought.
Читать далее
#o1 #reasoning_models #llm_модели | @habr_ai
Хабр
Думающие модели: краткий обзор и чего программистам ждать дальше
Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать»....
DeepSeek-R1 для чайников
В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить. Читать далее
#deepseek #chatgpt #llm #nlp #reasoning_models #rlhf | @habr_ai
В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить. Читать далее
#deepseek #chatgpt #llm #nlp #reasoning_models #rlhf | @habr_ai
Хабр
DeepSeek-R1 для чайников
В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые...
❤1
DeepSeek-R1 для чайников
В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить.
Читать далее
#deepseek #chatgpt #llm #nlp #reasoning_models #rlhf | @habr_ai
В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero, созданными поверх их собственной большой MoE-модели DeepSeek-V3. В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить.
Читать далее
#deepseek #chatgpt #llm #nlp #reasoning_models #rlhf | @habr_ai
Хабр
DeepSeek-R1 для чайников
В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые...
❤1
Важность времени на размышления: как работают вычисления во время инференса
Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график был путеводной звездой для исследователей ИИ, влияя на всё — от архитектуры моделей до разработки железа. C выпуском o1 OpenAI пришел с новым графиком. На этот раз речь не только о размере — а о том, чтобы дать моделям время думать.
Читать далее
#reasoning_models #llm_модели | @habr_ai
Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график был путеводной звездой для исследователей ИИ, влияя на всё — от архитектуры моделей до разработки железа. C выпуском o1 OpenAI пришел с новым графиком. На этот раз речь не только о размере — а о том, чтобы дать моделям время думать.
Читать далее
#reasoning_models #llm_модели | @habr_ai
Хабр
Важность времени на размышления: как работают вычисления во время инференса
Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график...
Универсальные подсказки по промптам (рассуждающие модели). Часть 4
Итак, продолжаем разбираться с промптами. Настало время познакомиться с рассуждающими моделями. Это те самые o3, o4-mini, o4-mini-hight, и GPT-5 thinking (вот угораздило меня растянуть резину аж до выхода GPT-5), DeepSeek R1 и т.д. которые вроде как думают перед ответом. Читать далее
#reasoning #reasoning_models #prompt #prompt_engineering #gpt #gpt_5 #gpt4 #deepseek | @habr_ai
Итак, продолжаем разбираться с промптами. Настало время познакомиться с рассуждающими моделями. Это те самые o3, o4-mini, o4-mini-hight, и GPT-5 thinking (вот угораздило меня растянуть резину аж до выхода GPT-5), DeepSeek R1 и т.д. которые вроде как думают перед ответом. Читать далее
#reasoning #reasoning_models #prompt #prompt_engineering #gpt #gpt_5 #gpt4 #deepseek | @habr_ai
Хабр
Универсальные подсказки по промптам (Рассуждающие модели). (Часть 4)
Итак, продолжаем разбираться с промптами. Настало время познакомиться с рассуждающими моделями. Это те самые o3, o4-mini, o4-mini-hight, и GPT-5 thinking (вот угораздило меня растянуть резину аж до...