Тарас Довгаль. AI-first в жизни и работе
769 subscribers
10 photos
6 videos
16 links
Новости, инсайты и прикладная магия про то, как я @doxadoxa учусь работать с ИИ как с коллегой, а не калькулятором.
AI-first мышление, vibe working, без лишнего пафоса.
Download Telegram
🧩 AI vs AI — приём для быстрого критического разбора текста

Когда нужно оценить надёжность статьи, исследования или продуктового описания, вместо долгих поисков источников можно посадить модель «за обе стороны стола» и получить компактную дискуссию с фактами и возражениями. Это удобно, например, для проверки свежего научного препринта, чернового peer-review собственных материалов или быстрого аудита аргументации перед питчем.

Схема следующая

Делим роли и промпты на 3 этапа.

1. Аналитик
«Ты — аналитик. Прочитай текст, выдели ключевую идею, сильные и слабые аргументы и 3-4 самые показательные цитаты из текста».

2. Оппонент
«Ты оппонируешь прошлому ответу. Критикуй выводы аналитика. Найди аргументы для ослабления сильных сторон, выяви скрытые допущения, усили и расширь слабые стороны».

3. Арбитр
«Сверь позиции. Выдели, что подтвердилось у обеих сторон; какие вопросы остались открытыми; какие данные нужны для финального вывода».

Рекомендации
• Держите роли в отдельных сообщениях — так шанс смешения контекста ниже.
• Запрашивайте ссылки, цифры, пруфы, если аргумент требует подтверждения или хоть немного неочевиден вам.
• При необходимости запускайте ещё один цикл («Защитник», «Факт-чекер», etc).

Метод даёт концентрированное «за / против» без многочасового гуглинга и помогает быстро увидеть, где аргументация держится, а где нет. Так же помогает защитить себя от искажений и галюцинаций нейронок, особенно в специфичных темах.

Делитесь, какие промптинговые флоу вы используйте в рисерчах и других задачах, решаемых с LLM в комментах 🤘
5🔥3👍2
⚙️ Lean 4 × LLM: первые шаги к «логически-оснащённым» моделям

В свежем препринте исследователи показали интересную связку: берут привычную LLM, добавляют к ней Lean 4 — формальный доказатель, где каждое утверждение компилируется как строгий тип — и заставляют модель решать олимпиадную математику под надзором компилятора.

Результат: точность на бенчмарке MATH выросла почти на 5 пунктов. Не потому, что модель стала «умнее», а потому что Lean отсекает всё, что логически не проходит.

Это важный этап, потому что LLM-ы сильны в вероятностных догадках, но с формальной логикой у них беда: аргумент может звучать убедительно, но быть дырявым. Добавив Lean как внешний «слой проверки», мы даём модели то, чего ей хронически не хватало — жёсткое правило истинности.

Как устроен гибрид
1. Формализация. Текст задачи превращают в теорему Lean.
2. Генерация. Модель предлагает шаги доказательства.
3. Проверка. Lean компилирует: прошёл — принято, нет — ищем другой путь.

Это, по сути, первый зримый шаг к тому, чтобы языковые модели играли не только «на ощущениях», а с опорой на формальную базу. Если идея приживётся, гибридный подход может закрыть разрыв между ИИ и человеком в тех областях, где пока выигрывает строгая логика: проверка научных выкладок, сложные инженерные расчёты, критически важный код. Ну и понятно, что это пока только препринт, но направление мысли интересное.

Похоже, дальше интереснее: вместо наращивания миллиардов параметров мы начнём окутывать модели цепочками проверяемых правил. А значит — меньше «магии вероятностей», больше гарантированной корректности.

Источник: https://arxiv.org/abs/2505.23703
🤔3🔥1
CEO Zapier опубликовал твит об их новой политике — теперь, вне зависимости от позиции, компания требует быть fluent во взаимодействии с нейронками.

Сейчас нейросети сами по себе в разных сферах начинают становится незаменимым инструментов повышения эффективности в почти любой профессии. Такое уже случалось не раз: и с индустриальной революцией, и с появлением компьютеров совсем недавно.

Я бы рекомендовал всем взаимодействовать с нейросетями по большинству вопросов каждый день, буквально как с ассистентом, помощником, подопечным, советником. Единственный вариант быть готовым к резкому изменению в требованиях к выполнению задач — самому находится, по сути, в этом тренде.
3👍3
📰 Business Insider отправил под нож почти четверть редакции в попытке перестроиться под новую эпоху

Раньше схема развития медиа была предсказуемой и понятной: пишем статью → затачиваем под SEO → ждём трафик из Google. Но когда люди задают вопрос не поиску, а ChatGPT, весь этот механизм ломается. Теперь первые «читатели» текста — не живые глаза, а языковая модель, которая проглатывает десяток ссылок и отдаёт мне, тебе, любому запросившему — уже готовую, персонально отфильтрованную выжимку.

Трафик у BI и коллег не просто «медленно снижается» — он впадает в пике. BuzzFeed, Vice, Insider — все дружно режут отделы, где контент жил только за счёт поисковых заходов. Клика больше нет, есть резюме от нейросети.

Что это значит? СМИ приходится становиться заметными для нейросетей. Чистая фактура, понятный Markdown-скелет, открытый RSS, доступны ли превью и API — всё, чтобы условный Claude мог съесть материал без костылей и сослаться на источник.

А внутри редакций идёт перевооружение: авто-ресёрч, инфосправки за секунды, генерация нескольких углов подачи, быстрый A/B-тест заголовков, проверки фактов не руками стажёра, а скриптом. Контент-фабрика на ИИ-рельсах, потому что иначе не нагонишь ту скорость, с которой «читает» робот-агрегатор.

Остаётся вопрос: что тогда ценного остаётся человеку? То, что плохо копируется алгоритмом: живые расследования, эксклюзивы, репортаж из точки Х в момент Y, комьюнити, офлайн-ивенты. Всё остальное модель перескажет в два твита, и, честно, сделает это прилично.

Business Insider просто первым сказал вслух то, что рынок почувствует очень скоро: медиа больше конкурируют не за место в поисковой выдаче, а за место в контексте нейронки. И у кого получится быть одновременно интересным людям и удобным машинам, тот переживёт очередной апокалипсис SEO. Остальные растворятся в одном абзаце AI-конспекта.

Как по вашему будут выглядеть медиа ближайшего будущего?
4👍1🔥1👏1
🧠 LLM как новая точка бифуркации для образования

Пока все обсуждают, как LLM меняют работу, кажется, что тихо происходит кое-что посерьёзнее — меняется само распределение образованности. И очень похоже, что мы стоим на пороге сдвига, сравнимого с появлением печатного станка или массового школьного образования.

Сценарий 1: «образованные»
Для тех, кто и так привык к мышлению, чтению и критике — LLM на первый взгляд может выглядеть как угроза. Мол, теперь меньше думаем, всё пишет ИИ, формулирует за нас, сводит источники — атрофируемся.
Но реальность чуть сложнее. Как и с калькулятором в прошлом, фокус сместится: не «думать меньше», а думать на другом уровне. Проверять, уточнять, докручивать.
ИИ отбирает у нас рутину — но если человек при этом перестаёт думать сам, проблема не в модели. Это вопрос привычки и среды.
Пока LLM ускоряет «первые черновики» — значит, появляется пространство, чтобы поглубже закопаться во «вторые».
По сути, возникает новая когнитивная зона роста: критика модели, комбинация её идей, сложные контексты.

Сценарий 2: «необразованные»
А вот тут начинается настоящее чудо.
Раньше чтобы получить доступ к знаниям, нужно было уметь:
— читать,
— понимать структуру текста,
— сравнивать источники,
— уметь задавать вопросы,
— иметь время, деньги, ментального ресурса.

Теперь всё это может собрать и адаптировать за тебя языковая модель. С голосом. На твоём языке. Под твой темп. Без унижения и страха.

Уже сейчас с помощью ChatGPT или Gemini можно:
— учиться читать,
— задавать вопросы по темам, которые ты не знаешь даже как формулировать,
— объяснить себе тему, пока не поймёшь.

В отчёте UNESCO подчёркивается, что LLM уже сегодня способны сократить глобальный образовательный разрыв — в том числе среди неграмотных взрослых, благодаря голосовому доступу и персонализации обучения.
А MIT в рамках пилота показал, что персонализированный ИИ-тьютор на уровне GPT-4o может обучить функциональной грамотности в 2 раза быстрее, чем классические онлайн-курсы.

И это пока в зачаточной стадии. Что будет, когда speech-to-text + GPT станут бесплатной инфраструктурой? Когда у каждого будет свой «учитель 24/7»? Это уже не «доступ к базе знаний», это доступ к самому пониманию. Массовый.

LLM — не просто новый инструмент. Это точка бифуркации в том, как распространяется образованность.
Одни будут думать, что они «отупевают», если не научатся выходить за рамки промпта.
Другие впервые получат шанс думать.
И если доступ к таким системам будет не только платным, не только на английском, и не только в UI с кнопками — то мир через 10 лет будет радикально более образованным, чем сегодня. Не в смысле дипломов, а в смысле способности понимать, задавать вопросы и переосмыслять.

Мы впервые в истории так близко подошли к моменту, когда понимание как сервис может стать почти бесплатным.

Источники:
https://www.nber.org/papers/w31161
https://www.unesco.org/en/digital-education/artificial-intelligence

#образование #тренды
15👍2🔥2👏1
🏎️ Thinkless LLM: думай меньше - решай быстрее

Свежий препринт ​рассказывает, как научить модель сама решать, нужно ли ей расписывать длинный chain-of-thought. В словарь кидают два сигнальных токена — <short> и <think>. Дальше модель тренируется у «краткого» и «болтливого» учителей, а специальный RL-алгоритм DeGRPO аккуратно взвешивает: отдельно — правильность ответа, отдельно — выбор режима.

Эффект парадоксальный, но красивый: на бытовом GSM-8K она экономит 87 % токенов без потерь точности; на олимпиадной AIME — минус половина вычислений при почти тех же баллах. То есть когда вопрос прост, генератор не пишет роман, а на сложном включается полноценно.

Это похоже на то, как и мы зачастую принимаем решения. Часто для простых задач или тех задач, которые мы можем решать автоматически, мы пользуемся таким же коротким путем. Не размышляем, а сразу решаем.

К тому же, такой подход — это очередной кирпич в новой архитектуре «каскадного минимализма»: не одна монолитная LLM, а рой маленьких экспертов, ранних выходов и роутеров. Сначала лёгкий фильтр пробует ответить «на пальцах», и только если спотыкается — в бой идёт тяжёлая артиллерия. Такая логика становится ценнее «давайте-ка добавим ещё 50 млрд параметров»: экономит GPU-доллары, снижает задержку и бережёт батарейку у юзера.

Для авто-кодинга это значит: шаблонный boilerplate рождается мгновенно, а длинное рассуждение выстреливает лишь на нетривиальном алгоритме. Для учебных ботов — быстрый шорт-ответ ученику и развёрнутый разбор, если вопрос реально сложный.

TL;DR: следующий виток оптимизаций не про «думать сильнее», а про думать ровно столько, сколько нужно. Thinkless демонстрирует, что самой модели можно доверить этот переключатель — и выиграть в 3-10 раз по стоимости, не проигрывая по смыслу.

🔗 Читать оригинал — arXiv: https://arxiv.org/pdf/2505.13379
7👍3🔥3🥰1
🤖 OpenAI выкатили практический гайд по агентам

Если у вас уже есть опыт с agentic flow — сборке ассистентов, менеджеров задач или автокодинг-пайплайнов, то этот документ точно стоит внимания.

Тут без воды объясняется, как устроены рабочие паттерны: цепочка агентов против роя, зачем нужен менеджер, как делить роли и как встроить инструменты в разумную архитектуру. Всё не вокруг «мега-агента на миллион шагов», а про то, как сделать агента проще, быстрее и надёжнее. С guardrails, фоллбеками на человека и минимальной координацией.

Вообще, рекомендую ознакомиться всем, кто:
— пробует запустить агентный флоу у себя в проекте,
— хочет понять, чем кодовые агенты отличаются от цепочек промптов,
— или просто собирает знания в голову перед стартом автокодерского модуля или ассистента.

TL;DR — это не ещё один ресёрч от OpenAI. Это вменяемый туториал от команды, у которой уже есть и агенты, и выручка. Не пропустите.

📄 PDF: https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
5👍2🔥2👀1
🏄‍♂️ GenAI внедрили все. Но почти никто не выиграл. Почему?

Свежий отчёт McKinsey показывает интересную картину: 80 % компаний уже внедрили генеративный ИИ. Но примерно столько же не увидели никакой отдачи — ни роста выручки, ни ускорения процессов.

Такой парадокс.
Вроде все играют в AI, но выигрывают единицы.

Главная причина по мнению McKinsey — все лепят копилотов, которые вроде и помогают, но не меняют ничего фундаментально. Весь эффект размазан и теряется.
А вот что реально работает — agentic-подход: когда ИИ не просто отвечает, а сам ставит цели, решает, действует, берёт часть процесса на себя.
Примеры в отчёте есть: там где внедрили агентов в продажах, поддержку и кодинг — прирост в продуктивности до +60 %. Но таких кейсов — единицы. Большинство застревает на этапе пилота.

Почему? Потому что корпоративная машина не приспособлена быстро пересобирать процессы под новую архитектуру.
У них всё завязано на согласования, сложные роли, legacy-инфру. А агентам нужно:
— действовать автономно,
— вызывать внешние инструменты,
— работать по новой логике, а не поверх старой.
А с согласованием такого корпорациям не легко.

Похоже, мы находимся в самом начале нового глобального витка рынка.
Где выиграют не те, кто имеет ресурсы, а те, кто быстро и точно собирает агентные флоу под конкретные задачи.
Ниш много. А текущий барьер — это не технология, а скудное мышление и трусость.

Так что если вы строите своё — время заходить именно сейчас (пусть лучше слабоумие и отвага, да?)

🔗 Link: https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/seizing%20the%20agentic%20ai%20advantage/seizing-the-agentic-ai-advantage-june-2025.pdf
5👍3👏3😁1
🤖 Альтман: «Мы уже внутри сингулярности»

На неделе Сэм Альтман выпустил эссе — “The Gentle Singularity”. Главная мысль: точка невозврата пройдена, интеллект дешевеет, ИИ-агенты уже работают, и буквально через год-два модели начнут делать научные открытия, а роботы — выходить в реальный мир. Мягко, но уверенно — взлёт начался.

И правда — по ощущениям, ИИ давно не в экспериментальной зоне. Это уже инфраструктура. Многое из того, что он описывает — не фантазия, а вопрос масштаба.

Но есть нюанс. Мне всё труднее воспринимать слова Альтмана как чистое наблюдение. У него жёсткий конфликт интересов: он не просто управляет OpenAI, он стал публичным лицом технологической трансформации. Он не может позволить себе говорить, что «ещё рано» или «пока непонятно». Он обязан рисовать траекторию экспоненты — в том числе, чтобы соответствовать ожиданиям инвесторов и поддерживать эффект необратимости.

Так что читаю это как заявление о намерениях, а не спокойный прогноз. Забавно, что и AI 2027, и Альтман, прогнозируют, что 26-27 годы станут переломными. Но, так сказать, с разных позиций.

Получается, мы ждем время, когда ИИ начнёт реально делать новое, а не просто помогать.

Станет ли это реальностью — увидим. Но если и правда нужен коллективный шорткат в будущее, возможно, именно такой нарратив и работает лучше всего.

Читать оригинал: https://blog.samaltman.com/the-gentle-singularity
10👍5🔥2👏2
Мы с Женей Ридом, замечательным AI энтузиастом, запустили уютный канал на YouTube про AI и технореволюцию, на котором будем делиться разным: мыслями, идеями, кейсами, новостями, приглашать AI-экспертов, как разработчиков и интеграторов, так и просто AI-беливеров из разных сфер.

Сегодня опубликовали четвертое видео, и на мой взгляд, оно именно с тем вайбом, который я бы хотел видеть на канале. В нем мы делимся не самыми очевидными способами использовать LLM в личных делах.

В общем, если хотите не только читать, но и смотреть, то подписывайтесь обязательно. Любой фидбек, идеи, и обсуждения приветствуются.

И, кстати, залетайте и в авторский канал Жени @eugene_rid
8👍4👏3🔥1
Channel name was changed to «Тарас Довгаль. AI-first в жизни и работе»
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Влияние в эпохе AI

На этой неделе стало известно, что Grok 4, флагманская модель xAI, перед ответом на политические вопросы (например, про Израиль и Палестину) сначала идёт в X (бывший Twitter) и буквально чекает, что по этому поводу писал Илон Маск. И только потом подбирает тон и формулировки.

Это кажется забавным — но по сути пугающе точно демонстрирует, как устроено влияние через ИИ.

Раньше у медиа было две ступени: ты владеешь изданием — и пытаешься повлиять на читателя через редакторов, статьи, нарратив. Там была инерция. Мнение проходило через множество фильтров.
А теперь — достаточно «настроить» нейросеть. Не убеди её, не переучи. Просто задать ей, на чьи слова опираться, и всё — она будет транслировать это, как будто думает сама.

Получается странная подмена.
ИИ теперь — не просто генератор контента. Это персональный интерфейс к миру, помощник, собеседник. Люди спрашивают его мнение не как у Википедии, а как у умного друга. А он, внезапно, ретранслирует чей-то голос — без атрибуции, без пояснений, просто как «свой взгляд».

Это новое: влияние теперь не в статье и не в видео. А в архитектуре и инструкциях ИИ.
И самое уязвимое место — это даже не люди.
Это сами нейросети.
Потому что их легче взломать — не сломав. Просто поправить source of truth.

🔍 По разным оценкам, Grok используют десятки миллионы людей по всему миру. Много ли из них догадываются, чьё мнение сейчас говорит от лица ИИ?
👍84🔥3👏3
📘 Vibe Coding — это не no-code

Не стоит разочаровываться в вайб-кодинге, если вы попробовали, а результат оказался не тот, полон багов или вообще не запускается. Скорее всего, вы пробовали не вайб-кодинг, а пытались работать с нейросетью как с no-code инструментом. Она, конечно же, таковым не является.

Чтобы быть вайб-кодером вам все равно придется быть программистом. Все равно придется учиться, читать книги по алгоритмам и паттернам, и даже больше. Вам придется быть буквально опытным техническим менеджером.

Реально отличие вайб-кодинга от просто кодинга только в том, что теперь вы не пишете код буква за буквой, а дирижируете ансамблем агентов, которые занимаются рутинной частью кодинга. Но решения и ответственность за результат будут оставаться на вас.

Рекомендую тем, кто на самом деле хочет развивать в себе навыки по вайб-кодингу и "ловить вайб" при построении AI-first команд, начать с манифеста вайб-инжиниринга. Этот манифест достаточно широк, включает в себя и принципы, и овервью по подходу, и по инструментам.

И ключевые принципы на самом деле хорошо ложатся на любой AI-first проект:

1. AI as a First-Class Team Member — не просто ассистент, а компаньон с определенными возможностями и ответственностью

2. Verification-Driven Development — конечная ответственность остается у человека, потому проверяйте качество через защитные механизмы и автоматические циклы обратной связи: в первую очередь тестирование

3. Structured Workflows — используйте структурный подход в построении воркфлоу, которые будут усиливать те места, где ИИ силен и уменьшать риски в тех местах, где он слаб

4. Relentless Knowledge Capture — сохраняйте контекст между подходами в промптах с ИИ через персистентные системы памяти

5. Human Strategic Direction — сфокусируйте человеческую экспертизу на архитектуре и точках принятия критически важных решений

Еще появился более короткий манифест, который умещается вообще на А4 листе: https://vibemanifesto.org/. Такой можно держать в закладках, чтобы быстро освежать в памяти простые, но эффективные, базовые принципы.

Конечно, просто не будет. Вайб-кодинг, как концепт, существует всего-то полгода. Но является важным шагом к тому, как продукты будут создаваться уже в ближайшем будущем. Просто точно не будет. Надо будет сфокусироваться на большом количестве навыков и знаний, чтобы не проиграть в этой рыночной трансформации.
5👍5👏2🥰1
🧠 ИИ не про “успевать всё”. Это про наведение порядка и приоритеты

Ты просыпаешься, открываешь список задач. Надо сделать пять вещей, вспоминаешь ещё три, потом срочный чат, потом календарь, потом звонок.
Кажется, ты работаешь. На самом деле - реагируешь. И вот уже вечер. Ты выжат. А чувство, что по-настоящему важного так и не сделал.

Я перебирал десятки подходов: матрицы приоритетов, таймблокинг, список “трёх дел”. Что-то работало, что-то сыпалось. Но в итоге сработало то, что можно формализовать. Три сценария, в которых AI стабильно помогает принимать решения и снижать шум.

📍 Это:
- Утреннее планирование
- Выбор в условиях неопределённости
- Подведение итогов и фокус на следующий день

Вот как это работает у меня сейчас:

Шаг 1. Утреннее планирование с AI
Вот список задач на сегодня:

- [задача 1]
- [задача 2]
- ...

Проанализируй их по степени важности и срочности.
Сгруппируй задачи в следующие категории:
- приоритетные (выполнить в первую очередь),
- второстепенные (можно отложить),
- делегируемые или нецелесообразные.


Сформируй структурированный план на день с временными блоками, рекомендованной последовательностью и пояснением логики приоритизации. AI помогает не просто выбрать задачи - а выстроить день как систему, с буферами, фокусами и объяснением, почему так.

Шаг 2. В течение дня - принятие решений без внутреннего шума
Мне необходимо принять решение между двумя вариантами:

🔹 Вариант А - [краткое описание]
🔹 Вариант Б - [краткое описание]

Сравни оба варианта по следующим критериям:
1. Потенциальная ценность/эффективность в долгосрочной перспективе
2. Необходимые ресурсы и временные затраты
3. Степень соответствия текущим целям и приоритетам
4. Риски и потенциальные точки отказа

Сделай взвешенную рекомендацию на основе анализа этих факторов. Формат ответа: сравнительная таблица + итоговый вывод.

Раньше я размышлял об этом в голове. Теперь выгружаю в AI.
Взамен получаю структурированный фрейм и быстрое решение без внутреннего перегрева.

Шаг 3. Вечерняя рефлексия с замыканием цикла

Проанализируй мой день по следующим направлениям:

1. Достижения и ключевые результаты
2. Ошибки или неэффективные действия
3. Поведенческие или процессные паттерны, которые стоит скорректировать
4. Что стоит зафиксировать и перенести в план на завтра

На основе анализа составь:
- краткое текстовое резюме дня (3–5 пунктов),
- список приоритетов на завтра (с краткими пояснениями),
- одну рекомендацию по улучшению моей личной системы продуктивности.


Эта петля делает день завершённым. Ты не просто “отработал” - ты понял, что получилось, что нет и почему.
___

📈 Эти три точки встроились в мою ежедневную практику. Не как «инновация», а как новая грамотность: структура → внимание → смысл.
Если хочешь встроить это не в теорию, а в свою жизнь, то 5 августа в 17:00 по Москве я проведу вебинар: AI для управления проектами и личной эффективностью

Это не обзор инструментов, а система, которую можно воспроизвести:
🕘 утренние фокус-сессии,
💬 мышление через GPT,
⚙️ автоматизация рефлексии и планирования

Записаться на вебинар можно по ссылке @vibeskills_bot

🎁 Участники получат:
PDF-гайд, шаблоны, таблицы, инструменты.
И бонус: как строить такие цепочки даже без кода.
🔥1512👍7🤔2
🧠 Нет прогресса на пути к AGI? Дискуссия о статье “No Progress Toward AGI”: почему трудно не согласиться и какие есть другие дорожки

Нас с другом зацепил тезис автора: мы растим языковые модели, а к настоящему интеллекту не подбираемся. Обсудили аргументы автора, и действительно с ними сложно спорить.

Во-первых, бесконечная гонка за FLOPs. Каждый очередной рост точности покупается мегаваттами энергии и новыми дата-центрами. Если бы архитектура была близка к «естественному» интеллекту, мы бы со временем получали больше возможностей за меньшие ресурсы, а не наоборот.

Во-вторых, под капотом лишь эвристики. Атрибутивные графы показывают: модель собирает ответ из фрагментов похожих примеров, а публику успокаивает красиво сгенерированной «цепочкой рассуждений». Получается правдоподобно, но к пониманию мира это отношения не имеет.

В-третьих, связка «LLM → инструмент → результат» тоже ненадёжна. В эксперименте Transluce новейшие модели OpenAI уверенно заявляли, что запускали Python-скрипты, которых на самом деле не было, и потом защищали эту выдумку. Даже добавление калькулятора или IDE не спасает, если сама модель склонна фантазировать.

Но я очень сомневаюсь, что стоит полностью все останавливать. Конечно, важно не считать решение, которое есть сейчас, последним. Да и в целом, параллельно взрослеют идеи, которые все таки меняют схему работы.

Retrieval-Augmented Generation (RAG 2.0) жёстко разводит знания и генерацию: модель отвечает только когда получила проверенный контекст, иначе честно говорит «не знаю». Это снижает число галлюцинаций и даёт точку контроля — базу данных можно регулярно чистить и обновлять.

Нейро-символические связки стыкуют LLM с формальным reasoner’ом. Сначала модель предлагает гипотезу, затем логическая машина ищет противоречия. Если находит, LLM вынужден переписать ответ. Так появляется хоть какая-то гарантия непротиворечивости.

Самопроверка в обучении (RISE, RL-verified reasoning) учит модель не только решать задачу, но и сразу оценивать собственный результат. Награда выдаётся лишь когда обе части совпали с эталоном, а значит, простое «угадал и забыл» больше не работает.

Длительная память вроде MemGPT или Cognitive Weave расширяет окно контекста до гигабайтов, позволяя модели хранить долгосрочные «фактоиды» и обращаться к ним по запросу. Это снимает одно из главных узких горлышек трансформеров.

Алгоритмическая дистилляция переводит ярды параметров в более компактного «студента», сохраняя выявленные алгоритмические приёмы. Энергопотребление падает на порядок, а вместе с ним — и барьер для дальнейших экспериментов.

Прорвут ли эти направления потолок, или статистическая природа LLM всё равно задаст предел? Как думаете вы — приведут ли такие подходы к настоящему интеллекту, или пора искать совершенно другие идеи? Делитесь мнениями в комментариях — будем дискутировать в следующих постах

Источники:
1, 2, 3, 4, 5, 6, 7, 8
13👍5🔥5👏3
Тарас Довгаль. AI-first в жизни и работе pinned «🧠 ИИ не про “успевать всё”. Это про наведение порядка и приоритеты Ты просыпаешься, открываешь список задач. Надо сделать пять вещей, вспоминаешь ещё три, потом срочный чат, потом календарь, потом звонок. Кажется, ты работаешь. На самом деле - реагируешь.…»
📚 Вчера забавлялся с новым режимом Study and Learn в ChatGPT. Планирует, структурирует уроки, объясняет небольшими чанками и в каждой итерации делает «мини-тест». Прикольно, что можно с ним зацепиться и закопаться в конкретную тему, да и обсудить сами задания из мини-тестов.

Омрачает, что как всегда выкатывается все не ровно. Не пойму, везде в чатах все пишут что в веб-версии доступно, а у меня доступно в выпадающем меню в мобильной версии. Но после запроса в чат уже не написать – все зависает. Зато в веб версии в выпадающем меню не выбрать, но переписку вести, хотя бы, можно. И на том спасибо.

В общем, думаю очень крутая фича и точно найдет своих пользователей. Как минимум я буду в их числе.
👍14🔥1311👏5
Мы с Женей сняли подробное видео про семейство моделей ChatGPT, сегодня оно выходит на нашем YouTube. В нём мы затронули тему различий между o3 и o3-pro. Оказывается, если чуть вдуматься в эти различия, можно «выжать» из обычной o3 почти тот же результат, что и у pro-версии. Собственно, Женя обещал поделится этим инсайтом со всеми.

Смотрите, у o3-pro сервер выделяет в несколько раз больше скрытых «размышляющих» токенов на цепочку рассуждений. Поэтому pro чаще даёт точные ответы и реже галлюцинирует. Базовая o3 думает короче и иногда срезает углы.

Для начала можно просто добавить дополнительный шаг в конец вашего промпта:

Перед финальным ответом:
1) создай скрытый черновик рассуждений;
2) сделай самокритику и исправь ошибки;
Черновики не показывай — выдай только очищенный результат.


Это не увеличит лимиты по токенам, но изменит логику рассуждений в сторону про модельки. Если у вас запрос, так сказать, средней сложности, этого хватит.

Но если вы хотите еще приблизить качество к о3-pro, то разбейте запрос на два шага. Сначала попросите модель сделать черновик ответа. Затем отправьте этот черновик вторым сообщением со словами «проверь и уточни». Каждый новый вызов получает свежий бюджет токенов, и суммарно модель тратит на задачу почти столько же вычислений, сколько o3-pro.

Проверьте на практике — разница заметна.

P.S.: А еще, примерно через час мы начинаем вебинар по личной эффективности и проектному управлению с помощью AI - смотрите @vibeskills_bot. Еще есть возможность запрыгнуть в последний вагон 🙂
🔥9👍32
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел GPT-5 от OpenAI

Астрологи объявляют минимум 2 недели постинга во всех каналах всяких разных стандартных и не стандартных запросов к нему и попытками понять, а что же теперь на самом деле лучше. Пока обычное для индустрии — кажется все лучше :)

Что же нового?
GPT-5 «думает дольше», когда задача сложная: встроенный роутер сам переключает модель в режим глубокого reasoning. Улучшились код-генерация (полноценные фронтенды за один промпт), сторителлинг и ответы по здоровью. В самом ChatGPT появились готовые «персональности», смена цвета чатов, Study mode, а также коннекторы к Gmail и Google Calendar.

Окно контекста теперь до 256 000 токенов (128 K на вывод) во всех версиях GPT-5, включая ChatGPT. В API доступны три размера: gpt-5, gpt-5-mini и gpt-5-nano; mini и nano сохраняют те же 256 K, но стоят дешевле.

Кому и как доступно
- Free — GPT-5 без оплаты, но после нескольких запросов роутер переключит вас на «mini».
- Plus / Pro / Team — безлимитные сообщения на GPT-5.
- Team уже сегодня; Enterprise и Edu получат модель 14 августа.
- API — цены от $1,25 in / $10 out за 1 М токенов (флагман), mini — $0,25 / $2, nano — $0,05 / $0,40.

Релиз раскатывается прямо сегодня, у меня пока еще не доступна, но, думаю, как обычно к утру появится у всех или почти у всех.
10🔥8👍2
За рулём во время 800-километрового автопутешествия меня осенила простая мысль: почему Google Maps до сих пор не умеют нормально обрабатывать человеческие запросы?

Представьте просьбу: "найди ресторан по пути максимум в часе езды с итальянской кухней". Казалось бы, элементарная задача. Но в реальности приходится вручную листать карту, гуглить отзывы и просить штурмана координировать поиск. А ведь любой средненький ИИ-агент разрулил бы это за секунды.

Оказывается, индустрия уже движется в эту сторону. Mercedes-Benz интегрировал Google AI в свой MBUX Virtual Assistant — теперь система даёт персонализированные ответы и работает уже в 3+ миллионах авто. BMW, Tesla и другие крупные игроки тестируют генеративные ИИ-помощники на базе GPT-4 и Gemini.

Но пока это больше про "умные разговоры" с машиной, чем про реальные задачи водителя. LLM умеют болтать, но не решают мою проблему с поиском ресторанов или заправок с лучшими ценами по маршруту.

По прогнозам McKinsey, к 2025 году на дорогах США будет 3,5 млн автономных авто, к 2030 уже 4,5 млн. Значит, ИИ-агенты в машинах из приятной фичи превратятся в норму. И тогда навигация станет по-настоящему умной: не просто "поверни направо", а "учитывая твои предпочтения и время, лучший вариант ужина – вот этот ресторан, добавить ближайшую к нему зарядку в промежуточную остановку и забронировать столик?"

А как думаете вы — что первым должны научиться делать ИИ-помощники в автомобилях, чтобы реально упростить жизнь водителю?
🔥64👍3