ADSM: границы возможностей Моделей
Мое понимание LLM с точки зрения пользователя очень простое: есть сетка с весами (обученные параметры), токенизатор и декодер (преобразователи текста во входные и выходные токены), и трансформер (слои внимания), который перерабатывает входные токены и шаг за шагом предсказывает новые.
Я пробовал разные Модели (GPT, Gemini, Deepseek, Grok) - все они, на мой взгляд, работают примерно одинаково. На один и тот же запрос они дают очень похожие, а иногда и идентичные ответы. Это ожидаемо, ведь все современные LLM построены на одной и той же архитектуре - трансформерах.
Это значит, что у всех реализаций есть общий шаблон поведения, отражающий их природу. В этой публикации я опишу наиболее важные, с моей точки зрения, характеристики Моделей, на которых я строю своё с ними общение. Читать далее
#adsm #искусственный_интеллект #llm #персональный_опыт | @habr_ai
Мое понимание LLM с точки зрения пользователя очень простое: есть сетка с весами (обученные параметры), токенизатор и декодер (преобразователи текста во входные и выходные токены), и трансформер (слои внимания), который перерабатывает входные токены и шаг за шагом предсказывает новые.
Я пробовал разные Модели (GPT, Gemini, Deepseek, Grok) - все они, на мой взгляд, работают примерно одинаково. На один и тот же запрос они дают очень похожие, а иногда и идентичные ответы. Это ожидаемо, ведь все современные LLM построены на одной и той же архитектуре - трансформерах.
Это значит, что у всех реализаций есть общий шаблон поведения, отражающий их природу. В этой публикации я опишу наиболее важные, с моей точки зрения, характеристики Моделей, на которых я строю своё с ними общение. Читать далее
#adsm #искусственный_интеллект #llm #персональный_опыт | @habr_ai
Хабр
ADSM: границы возможностей Моделей
Мое понимание LLM с точки зрения пользователя очень простое: есть сетка с весами (обученные параметры), токенизатор и декодер (преобразователи текста во входные и выходные токены), и...
Autumn vibes. Как я с кодингом с помощью LLM знакомился
👋 Привет, Хабр!
Сегодня хочу поделиться своим опытом работы с локальными LLM (Large Language Models). Это что-то вроде GitHub Copilot, только без подписки, оффлайн и с контролем над своими данными. Читать далее
#llm_модели #локальный_запуск_нейросетей #ollama #idea | @habr_ai
👋 Привет, Хабр!
Сегодня хочу поделиться своим опытом работы с локальными LLM (Large Language Models). Это что-то вроде GitHub Copilot, только без подписки, оффлайн и с контролем над своими данными. Читать далее
#llm_модели #локальный_запуск_нейросетей #ollama #idea | @habr_ai
Хабр
Autumn vibes. Как я с кодингом с помощью LLM знакомился
👋 Привет, Хабр! Сегодня хочу поделиться своим опытом работы с локальными LLM (Large Language Models). Это что-то вроде GitHub Copilot, только без подписки, оффлайн и с контролем над своими...
А вы точно умеете внедрять AI в бизнес?
Короткий гуглинг по теме показывает, что все рекомендации по внедрению ИИ в бизнесе сводятся к общим фразам. «Выделите одно приоритетное направление», «найдите рутинные операции», «проанализируйте доступные данные». Спасибо, кэп. А делать-то что? Читать далее
#ai #ии #llm #автоматизация #автоматизация_бизнеса #внедрение #ml #бизнес_процессы | @habr_ai
Короткий гуглинг по теме показывает, что все рекомендации по внедрению ИИ в бизнесе сводятся к общим фразам. «Выделите одно приоритетное направление», «найдите рутинные операции», «проанализируйте доступные данные». Спасибо, кэп. А делать-то что? Читать далее
#ai #ии #llm #автоматизация #автоматизация_бизнеса #внедрение #ml #бизнес_процессы | @habr_ai
Хабр
А вы точно умеете внедрять AI в бизнес?
Короткий гуглинг по теме показывает, что все рекомендации по внедрению ИИ в бизнесе сводятся к общим фразам. «Выделите одно приоритетное направление», «найдите рутинные операции», «проанализируйте...
Опыт вайбкодинга: как заставить нейросеть работать эффективно
Данная статья написана и отредактирована мной вручную, специально, чтобы подчеркнуть ценность ручного труда в эпоху нейросетей.
Сегодня, в начале XXI века, искусственный интеллект уже стал частью нашей повседневности. Мы спокойно спрашиваем у Алисы прогноз погоды, видим тексты и советы от ИИ в поиске, а изображения или даже видеоролики, созданные нейросетью, никого не удивляют.
Параллельно все чаще обсуждают, что крупные языковые модели (LLM), умеющие писать код, якобы скоро заменят программистов и будут сами решать их задачи. По моему опыту — до этого еще далеко. Но при этом нейросети постепенно превращаются в удобный и полезный инструмент для разработчиков.
Ниже я расскажу про собственный опыт работы с такими технологиями, который мы ежедневно применяем в реальных проектах ★5УГЛОВ для наших клиентов. Читать далее
#нейросети #llm #искусственный_интеллект #cursor #chatgpt #deepseek #автоматизация_разработки #дебаг #разработка_с_ии | @habr_ai
Данная статья написана и отредактирована мной вручную, специально, чтобы подчеркнуть ценность ручного труда в эпоху нейросетей.
Сегодня, в начале XXI века, искусственный интеллект уже стал частью нашей повседневности. Мы спокойно спрашиваем у Алисы прогноз погоды, видим тексты и советы от ИИ в поиске, а изображения или даже видеоролики, созданные нейросетью, никого не удивляют.
Параллельно все чаще обсуждают, что крупные языковые модели (LLM), умеющие писать код, якобы скоро заменят программистов и будут сами решать их задачи. По моему опыту — до этого еще далеко. Но при этом нейросети постепенно превращаются в удобный и полезный инструмент для разработчиков.
Ниже я расскажу про собственный опыт работы с такими технологиями, который мы ежедневно применяем в реальных проектах ★5УГЛОВ для наших клиентов. Читать далее
#нейросети #llm #искусственный_интеллект #cursor #chatgpt #deepseek #автоматизация_разработки #дебаг #разработка_с_ии | @habr_ai
Хабр
Опыт вайбкодинга: как заставить нейросеть работать эффективно
Данная статья написана и отредактирована мной вручную, специально, чтобы подчеркнуть ценность ручного труда в эпоху нейросетей. Сегодня, в начале XXI века, искусственный интеллект уже стал частью...
Современные генеративные модели и приложения на их основе
Привет, Хабр! Меня зовут Айбек Аланов. Я руковожу группой Controllable Generative AI в FusionBrain Lab Института AIRI и Центром глубинного обучения на байесовских методах в Институте искусственного интеллекта и цифровых наук НИУ ВШЭ и занимаюсь GenAI: работаю с cutting-edge-моделями и помогаю им стать частью прикладных решений.
В последние годы это одно из самых горячих направлений в машинном обучении. Нейросети не просто понимают данные, но и создают что-то новое: от картинок и видео до сложных 3D-объектов или дизайна молекул.
В этом материале по мотивам моего доклада с True Tech Day я расскажу, что происходит в этой области прямо сейчас. Какие архитектуры используются? На что способны современные модели? И самое главное, как все это применить в реальных задачах. Читать далее
#генеративные_модели #диффузионные_модели #искусственный_интеллект #ии #llm #gan #vae #генерация_видео #нейросети #veo_3 | @habr_ai
Привет, Хабр! Меня зовут Айбек Аланов. Я руковожу группой Controllable Generative AI в FusionBrain Lab Института AIRI и Центром глубинного обучения на байесовских методах в Институте искусственного интеллекта и цифровых наук НИУ ВШЭ и занимаюсь GenAI: работаю с cutting-edge-моделями и помогаю им стать частью прикладных решений.
В последние годы это одно из самых горячих направлений в машинном обучении. Нейросети не просто понимают данные, но и создают что-то новое: от картинок и видео до сложных 3D-объектов или дизайна молекул.
В этом материале по мотивам моего доклада с True Tech Day я расскажу, что происходит в этой области прямо сейчас. Какие архитектуры используются? На что способны современные модели? И самое главное, как все это применить в реальных задачах. Читать далее
#генеративные_модели #диффузионные_модели #искусственный_интеллект #ии #llm #gan #vae #генерация_видео #нейросети #veo_3 | @habr_ai
Хабр
Современные генеративные модели и приложения на их основе
Привет, Хабр! Меня зовут Айбек Аланов. Я руковожу группой Controllable Generative AI в FusionBrain Lab Института AIRI и Центром глубинного обучения на байесовских методах в Институте искусственного...
Как ИИ начинает понимать чёрный юмор
Уловить тонкую грань между остроумной шуткой и чем-то оскорбительным — часто задача не из простых даже для человека. В мемах всё ещё сложнее: идея прячется на стыке картинки, подписи и культурного бэкграунда. Как объяснить искусственному интеллекту, что вызывает улыбку, а что — горький смех? Оказывается, учить нейросети разбирать чёрный юмор — занятие не только любопытное, но и полезное для понимания того, как машины читают человеческие смыслы между строк. Исследователи решили подойти к теме с новой стороны: они собрали датасет мемов, где шутки далеко не всегда безобидные, и научили ИИ не просто распознавать юмор, но ещё и объяснять, из-за чего тот становится чёрным. Разбираемся, как у них это получилось. Читать далее
#ии #llm #юмор | @habr_ai
Уловить тонкую грань между остроумной шуткой и чем-то оскорбительным — часто задача не из простых даже для человека. В мемах всё ещё сложнее: идея прячется на стыке картинки, подписи и культурного бэкграунда. Как объяснить искусственному интеллекту, что вызывает улыбку, а что — горький смех? Оказывается, учить нейросети разбирать чёрный юмор — занятие не только любопытное, но и полезное для понимания того, как машины читают человеческие смыслы между строк. Исследователи решили подойти к теме с новой стороны: они собрали датасет мемов, где шутки далеко не всегда безобидные, и научили ИИ не просто распознавать юмор, но ещё и объяснять, из-за чего тот становится чёрным. Разбираемся, как у них это получилось. Читать далее
#ии #llm #юмор | @habr_ai
Хабр
Как ИИ начинает понимать чёрный юмор
Шутка шутке рознь. Чистый юмор держится на игре слов и безобидных несоответствиях, чёрный — на болезненных темах, культурных намёках и тонких контрастах между картинкой и подписью. В мемах это...
Тестируем пять моделей DeepSeek R1 и Qwen3 на серверах YADRO
Привет, Хабр. Меня зовут Дмитрий Крюков, я инженер по разработке ПО искусственного интеллекта в YADRO. Мы продолжаем рассказывать о возможностях GPU-серверов YADRO G4208P и YADRO VEGMAN R220 G2 в работе с локальными (on-premise) LLM-моделями. Сегодня делимся результатами тестирования популярных LLM из семейства DeepSeek R1 и Qwen3 размерами от 14B до 685B параметров. Тесты проводились в условиях, максимально близких к решению реальных кейсов: чат-бот, саммаризация и автоматизация аналитических задач. Узнать результаты
#tmp #бенчмарки #deepseek #ai #qwen #llm #vegman | @habr_ai
Привет, Хабр. Меня зовут Дмитрий Крюков, я инженер по разработке ПО искусственного интеллекта в YADRO. Мы продолжаем рассказывать о возможностях GPU-серверов YADRO G4208P и YADRO VEGMAN R220 G2 в работе с локальными (on-premise) LLM-моделями. Сегодня делимся результатами тестирования популярных LLM из семейства DeepSeek R1 и Qwen3 размерами от 14B до 685B параметров. Тесты проводились в условиях, максимально близких к решению реальных кейсов: чат-бот, саммаризация и автоматизация аналитических задач. Узнать результаты
#tmp #бенчмарки #deepseek #ai #qwen #llm #vegman | @habr_ai
Хабр
Тестируем пять моделей DeepSeek R1 и Qwen3 на серверах YADRO
Привет, Хабр. Меня зовут Дмитрий Крюков, я инженер по разработке ПО искусственного интеллекта в YADRO. Мы продолжаем рассказывать о возможностях GPU-серверов YADRO G4208P и YADRO VEGMAN R220 G2 в...
[Перевод] GEPA вместо RL: как рефлексивная эволюция промптов обгоняет обучение с подкреплением
Большие языковые модели (LLM) всё чаще адаптируются к downstream-задачам с помощью методов RL, таких как Group Relative Policy Optimization (GRPO), которые нередко требуют тысячи прогонов для освоения новых задач. Мы утверждаем, что интерпретируемая природа языка может предоставлять LLM куда более богатую обучающую среду по сравнению с policy gradient’ами, основанными на разреженных скалярных наградах.
Чтобы проверить эту гипотезу, мы представляем GEPA (Genetic-Pareto) — оптимизатор промптов, который системно использует natural language reflection для извлечения высокоуровневых правил из trial-and-error процесса. Для любой AI-системы, содержащей один или несколько промптов LLM, GEPA сэмплирует траектории на уровне системы (например, рассуждения, вызовы инструментов и их выводы) и анализирует их на естественном языке, чтобы диагностировать проблемы, предлагать и тестировать обновления промптов, а также объединять комплементарные инсайты с границы Парето собственных попыток.
Благодаря такому дизайну GEPA нередко превращает даже несколько прогонов в существенный прирост качества. На четырёх задачах GEPA в среднем превосходит GRPO на 10% и до 20% максимум, при этом используя до 35× меньше прогонов. GEPA также опережает ведущий оптимизатор промптов MIPROv2 более чем на 10% на двух LLM и демонстрирует обнадёживающие результаты как стратегия поиска на этапе инференса для задач оптимизации кода. Читать далее
#llm #ai #prompt #grpo #prompt_engineering #reinforcement_learning #парето #sample_efficiency #ии | @habr_ai
Большие языковые модели (LLM) всё чаще адаптируются к downstream-задачам с помощью методов RL, таких как Group Relative Policy Optimization (GRPO), которые нередко требуют тысячи прогонов для освоения новых задач. Мы утверждаем, что интерпретируемая природа языка может предоставлять LLM куда более богатую обучающую среду по сравнению с policy gradient’ами, основанными на разреженных скалярных наградах.
Чтобы проверить эту гипотезу, мы представляем GEPA (Genetic-Pareto) — оптимизатор промптов, который системно использует natural language reflection для извлечения высокоуровневых правил из trial-and-error процесса. Для любой AI-системы, содержащей один или несколько промптов LLM, GEPA сэмплирует траектории на уровне системы (например, рассуждения, вызовы инструментов и их выводы) и анализирует их на естественном языке, чтобы диагностировать проблемы, предлагать и тестировать обновления промптов, а также объединять комплементарные инсайты с границы Парето собственных попыток.
Благодаря такому дизайну GEPA нередко превращает даже несколько прогонов в существенный прирост качества. На четырёх задачах GEPA в среднем превосходит GRPO на 10% и до 20% максимум, при этом используя до 35× меньше прогонов. GEPA также опережает ведущий оптимизатор промптов MIPROv2 более чем на 10% на двух LLM и демонстрирует обнадёживающие результаты как стратегия поиска на этапе инференса для задач оптимизации кода. Читать далее
#llm #ai #prompt #grpo #prompt_engineering #reinforcement_learning #парето #sample_efficiency #ии | @habr_ai
Хабр
GEPA вместо RL: как рефлексивная эволюция промптов обгоняет обучение с подкреплением
Аннотация Большие языковые модели (LLMs) всё чаще адаптируются к downstream-задачам с помощью методов RL, таких как Group Relative Policy Optimization (GRPO), которые нередко требуют тысячи прогонов...
Какая LLM лучше распознает чертежи? Мы сравнили 6 LLM и узнали ответ
Инженерные чертежи содержат десятки типов размеров и допусков: линейные и угловые, радиальные и диаметральные, справочные и базовые, а также геометрические характеристики вроде плоскостности или перпендикулярности. Для инженера это привычный язык, но для автоматической обработки такие документы представляют серьёзную задачу.
С появлением мультимодальных LLM возник вопрос: способны ли они заменить классические OCR-решения и специализированные пайплайны постобработки? Насколько хорошо современные модели справляются с извлечением размеров и допусков из коробки, без дообучения? Какие модели дают максимальную точность, какие быстрее, а какие дешевле? И можно ли комбинировать разные подходы, чтобы повысить результат?
Чтобы ответить на эти вопросы, мы протестировали шесть актуальных vision-LLM на одном наборе реальных механических чертежей и сравнили их точность, скорость и стоимость обработки. Читать далее
#llm_модели #chatgpt_4 #chatgpt_5 #claude_opus_4 #gemini_flash #gemini_pro #qwen #языковые_модели #чертежи #обработка_изображений | @habr_ai
Инженерные чертежи содержат десятки типов размеров и допусков: линейные и угловые, радиальные и диаметральные, справочные и базовые, а также геометрические характеристики вроде плоскостности или перпендикулярности. Для инженера это привычный язык, но для автоматической обработки такие документы представляют серьёзную задачу.
С появлением мультимодальных LLM возник вопрос: способны ли они заменить классические OCR-решения и специализированные пайплайны постобработки? Насколько хорошо современные модели справляются с извлечением размеров и допусков из коробки, без дообучения? Какие модели дают максимальную точность, какие быстрее, а какие дешевле? И можно ли комбинировать разные подходы, чтобы повысить результат?
Чтобы ответить на эти вопросы, мы протестировали шесть актуальных vision-LLM на одном наборе реальных механических чертежей и сравнили их точность, скорость и стоимость обработки. Читать далее
#llm_модели #chatgpt_4 #chatgpt_5 #claude_opus_4 #gemini_flash #gemini_pro #qwen #языковые_модели #чертежи #обработка_изображений | @habr_ai
Хабр
Какая LLM лучше распознает чертежи? Мы сравнили 6 LLM и узнали ответ
Инженерные чертежи содержат десятки типов размеров и допусков: линейные и угловые, радиальные и диаметральные, справочные и базовые, а также геометрические характеристики вроде плоскостности или...
Law & Practice Ensemble RAG. Как создать ассистента, помогающего решать многоаспектные юридические задачи
Большие языковые модели (LLM) в последние несколько лет являются ключевым направлением искусственного интеллекта. Дальнейшее развитие LLM, очевидно, меняет сам способ взаимодействия с технологиями, снижая порог входа для представителей всех профессий, в том числе исконно гуманитарных. Читать далее
#rag #retrieval_augmented_generation #llm #large_language_models #языковые_модели #трансформеры #fine_tuning #эмбеддинги #dense_retrieval | @habr_ai
Большие языковые модели (LLM) в последние несколько лет являются ключевым направлением искусственного интеллекта. Дальнейшее развитие LLM, очевидно, меняет сам способ взаимодействия с технологиями, снижая порог входа для представителей всех профессий, в том числе исконно гуманитарных. Читать далее
#rag #retrieval_augmented_generation #llm #large_language_models #языковые_модели #трансформеры #fine_tuning #эмбеддинги #dense_retrieval | @habr_ai
Хабр
Law & Practice Ensemble RAG. Как создать ассистента, помогающего решать многоаспектные юридические задачи
Автор статьи: Сергей Слепухин ( @Sergey_Slepukhin_1988 ) Большие языковые модели ( LLM ) в последние несколько лет являются ключевым направлением искусственного интеллекта (ИИ). Дальнейшее...