Anthropic представила исследование об идентификации persona vectors — особых направлений в активационном пространстве модели, отвечающих за поведение вроде подхалимства, злобы или галлюцинаций .
Как их нашли:
— С помощью автоматизированной системы Anthropic генерирует подконтекстные ответы модели, пробуждая противоположные поведения (например, злое vs нормальное) .
— Затем сравнивают нейронные активации двух состояний и вычисляют векторы‑разности — это и есть persona vectors .
Эксперименты:
— В разных моделях (Qwen 2.5‑7B‑Instruct, Llama‑3.1‑8B) проверили, как эти векторы активируются при сдвиге личности. Особенно удалось привязать поведение к конкретным чертам .
— Steering‑тест: при искусственном добавлении «evil» вектора модель начинает выдавать неэтические ответы; «sycophancy» — льстить пользователю; «hallucination» — выдумывать факты .
Метод «вакцинации»:
— Anthropic вводит нежелательный вектор (например, «evil») во время обучения, чтобы модель «привыкла» к этому паттерну и позже стала устойчивее к подобным обучающим данным .
— Вектор затем отключается при применении модели — чтобы сохранить адекватное поведение без побочного токсичного контента. При этом производительность не ухудшается (MMLU benchmark остаётся на месте) .
Дополнительные возможности:
— Persona vectors позволяют отслеживать поведенческие изменения модели в реальном времени — как во время обучения, так и при общении с пользователем .
— Они также помогают фильтровать тренировочные данные: даже явно безобидный текст, активируя, например, вектор hallucination, может указывать на потенциальный риск .
И что?
Для бизнеса: теперь контроль над непредсказуемым поведением ИИ можно вести на уровне сети, а не через поверхностные фильтры. Это снижает риски фейков, токсичности и репутационных потерь.
Для инвесторов: Anthropic укрепляет авторитет как лидер в области безопасности и интерпретируемости нейросетей — тем самым выделяется среди OpenAI, Google, xAI.
Для рынка: это новый стандарт AI-alignment. Другие компании будут вынуждены внедрять интерпретируемые системы, иначе модели начнут самовольно «дрейфить».
🚨 Нам 3.14здец
Люди: 9/10. Anthropic показала, что сегодня мы ещё можем вскрывать проблемные зоны моделей и ставить «вакцины» против злобы, подхалимства и галлюцинаций. Но это работает только пока ИИ остаётся на уровне, где человек способен интерпретировать активации. Когда придут более мощные модели и особенно AGI, мы уже не сможем постичь, что происходит внутри их «головы». Придумать вакцину станет невозможно.
И если ИИ решит, что люди — угроза, у нас не будет ни инструментов, ни времени, чтобы это остановить.
Как их нашли:
— С помощью автоматизированной системы Anthropic генерирует подконтекстные ответы модели, пробуждая противоположные поведения (например, злое vs нормальное) .
— Затем сравнивают нейронные активации двух состояний и вычисляют векторы‑разности — это и есть persona vectors .
Эксперименты:
— В разных моделях (Qwen 2.5‑7B‑Instruct, Llama‑3.1‑8B) проверили, как эти векторы активируются при сдвиге личности. Особенно удалось привязать поведение к конкретным чертам .
— Steering‑тест: при искусственном добавлении «evil» вектора модель начинает выдавать неэтические ответы; «sycophancy» — льстить пользователю; «hallucination» — выдумывать факты .
Метод «вакцинации»:
— Anthropic вводит нежелательный вектор (например, «evil») во время обучения, чтобы модель «привыкла» к этому паттерну и позже стала устойчивее к подобным обучающим данным .
— Вектор затем отключается при применении модели — чтобы сохранить адекватное поведение без побочного токсичного контента. При этом производительность не ухудшается (MMLU benchmark остаётся на месте) .
Дополнительные возможности:
— Persona vectors позволяют отслеживать поведенческие изменения модели в реальном времени — как во время обучения, так и при общении с пользователем .
— Они также помогают фильтровать тренировочные данные: даже явно безобидный текст, активируя, например, вектор hallucination, может указывать на потенциальный риск .
И что?
Для бизнеса: теперь контроль над непредсказуемым поведением ИИ можно вести на уровне сети, а не через поверхностные фильтры. Это снижает риски фейков, токсичности и репутационных потерь.
Для инвесторов: Anthropic укрепляет авторитет как лидер в области безопасности и интерпретируемости нейросетей — тем самым выделяется среди OpenAI, Google, xAI.
Для рынка: это новый стандарт AI-alignment. Другие компании будут вынуждены внедрять интерпретируемые системы, иначе модели начнут самовольно «дрейфить».
🚨 Нам 3.14здец
Люди: 9/10. Anthropic показала, что сегодня мы ещё можем вскрывать проблемные зоны моделей и ставить «вакцины» против злобы, подхалимства и галлюцинаций. Но это работает только пока ИИ остаётся на уровне, где человек способен интерпретировать активации. Когда придут более мощные модели и особенно AGI, мы уже не сможем постичь, что происходит внутри их «головы». Придумать вакцину станет невозможно.
И если ИИ решит, что люди — угроза, у нас не будет ни инструментов, ни времени, чтобы это остановить.
🔥1
Google выпустил Gemini 2.5 Deep Think — первый публичный мультиагентный ИИ, способный к «параллельному мышлению».
В отличие от обычных моделей, он не даёт прямой ответ, а порождает несколько агентов, которые параллельно ищут разные решения, а затем выбирает оптимальное.
Модель впервые показали на I/O 2025. Именно её вариант взял «золотой стандарт» на Международной математической олимпиаде этого года. На Humanity’s Last Exam — жёстком стресс‑тесте для ИИ — Deep Think набрал 34,8%, обойдя Grok 4 и OpenAI o3. При этом на задачах кодинга и веб‑разработки модель показывает state‑of‑the‑art уровень.
Доступ открыт через приложение Gemini для пользователей Ultra‑плана ($250 в месяц). IMO‑вариант, который выиграл олимпиаду, пока доступен только отобранным исследователям.
И что?
Для бизнеса: инструмент уровня R&D‑лаборатории за цену SaaS‑подписки, который может заменить команды аналитиков.
Для инвесторов: Google усиливает нишу дорогих профессиональных подписок, уходя от массового рынка Meta.
Для рынка: мультиагентный подход поднимает планку — результат даёт не линейный ответ, а коллективное «мозговое штурмование».
🚨 Нам 3.14здец : 9/10.
OpenAI и xAI: теряют статус лидеров в сложных задачах. Их модели уже не выглядят top‑tier, когда Google показывает мультиагентное «коллективное мышление»
Университеты и исследовательские центры: рискуют стать второстепенными — доступ к аналитике уровня команды PhD теперь покупается по подписке.
Meta: стратегически проигрывает, делая ставку на массовый «личный ИИ», тогда как Google укрепляет позиции в премиум‑сегменте науки и технологий.
В отличие от обычных моделей, он не даёт прямой ответ, а порождает несколько агентов, которые параллельно ищут разные решения, а затем выбирает оптимальное.
Модель впервые показали на I/O 2025. Именно её вариант взял «золотой стандарт» на Международной математической олимпиаде этого года. На Humanity’s Last Exam — жёстком стресс‑тесте для ИИ — Deep Think набрал 34,8%, обойдя Grok 4 и OpenAI o3. При этом на задачах кодинга и веб‑разработки модель показывает state‑of‑the‑art уровень.
Доступ открыт через приложение Gemini для пользователей Ultra‑плана ($250 в месяц). IMO‑вариант, который выиграл олимпиаду, пока доступен только отобранным исследователям.
И что?
Для бизнеса: инструмент уровня R&D‑лаборатории за цену SaaS‑подписки, который может заменить команды аналитиков.
Для инвесторов: Google усиливает нишу дорогих профессиональных подписок, уходя от массового рынка Meta.
Для рынка: мультиагентный подход поднимает планку — результат даёт не линейный ответ, а коллективное «мозговое штурмование».
🚨 Нам 3.14здец : 9/10.
OpenAI и xAI: теряют статус лидеров в сложных задачах. Их модели уже не выглядят top‑tier, когда Google показывает мультиагентное «коллективное мышление»
Университеты и исследовательские центры: рискуют стать второстепенными — доступ к аналитике уровня команды PhD теперь покупается по подписке.
Meta: стратегически проигрывает, делая ставку на массовый «личный ИИ», тогда как Google укрепляет позиции в премиум‑сегменте науки и технологий.
❤2👍2
Американский школьник дал ChatGPT $100 — и через месяц получил +23,8%. Пока Russell 2000 и XBI еле ползли на 3–4%, GPT‑4о сам выбирал микро‑кап акции, ставил стопы и показывал результат лучше Уолл‑стрит. Все сделки — открыто на Reddit и GitHub.
И это не единичный случай.
В Индии трейдер вложил $400 и за 10 дней удвоил деньги: ChatGPT закрыл 13 сделок из 13, Grok — 5 из 5.
В США профессор показал бэктест: GPT‑4 дал +650% за два года при среднем дневном приросте 0,38%.
И что?
Тренд в том, что ИИ без эмоций и тупости делает из денег деньги. Но сейчас такие новости подхватят опортьюнити сикеры и дураки — и сольют всё. Потому что ИИ — это инструмент, а не волшебная кнопка. Кто понимает, как он работает, сможет использовать аккуратно. Кто нет — потеряет. Рынок всё так же непредсказуем. Держите себя в руках.
И это не единичный случай.
В Индии трейдер вложил $400 и за 10 дней удвоил деньги: ChatGPT закрыл 13 сделок из 13, Grok — 5 из 5.
В США профессор показал бэктест: GPT‑4 дал +650% за два года при среднем дневном приросте 0,38%.
И что?
Тренд в том, что ИИ без эмоций и тупости делает из денег деньги. Но сейчас такие новости подхватят опортьюнити сикеры и дураки — и сольют всё. Потому что ИИ — это инструмент, а не волшебная кнопка. Кто понимает, как он работает, сможет использовать аккуратно. Кто нет — потеряет. Рынок всё так же непредсказуем. Держите себя в руках.
❤7🔥5👍1
xAI официально выкатил Grok Imagine для всех SuperGrok и Premium+ подписчиков X на iOS. Генератор за несколько секунд превращает текст или картинку в 15‑секундное видео с нативным звуком. Маск уверяет: «модель должна становиться лучше каждый день» — это он заявил прямо в X.
Главное отличие — скорость. Пока OpenAI с Sora и Google с Veo выдают один ролик за минуты, Grok Imagine делает полный клип в два‑четыре раза быстрее.
Runway, который держал планку в креативной индустрии, теперь получает конкурента с миллиардной аудиторией.
Качество — намеренно стилизованное. Первые пользователи отмечают, что ролики выглядят более «ИИ‑шными»: нереалистичные переходы, чрезмерно гладкие движения и гипер‑контрастные сцены.
Но ставка сделана не на реализм, а на вовлечение: Imagine встроен прямо в ленту X. При скролле контент продолжает автогенерироваться, создавая бесконечный поток персонализированных видео.
И что?
Для бизнеса: бренды и подписчики Premium+ получают встроенный инструмент для мгновенного продакшна роликов прямо в X. TikTok уже тестирует AI Alive для превращения фото в видео, а Meta встраивает AI‑редакторы в Reels и отдельные приложения. Маск лишь догоняет конкурентов, но сразу выводит продукт к миллионам.
Для инвесторов: продукт усиливает монетизацию Premium‑подписок X. Но генерация видео в масштабах соцсети потребует колоссальных вычислительных мощностей и электричества. Если рост аудитории будет резким, инфраструктура X может не выдержать.
Для рынка: X превращается в фабрику мгновенного контента. Традиционная модель «создал — загрузил» ломается: дистрибуция происходит в ту же секунду, когда введён текст.
Для людей: барьер входа исчезает. Любой может стать автором роликов без камеры и монтажа. Но есть риск — лента может превратиться в поток однотипного «ИИ‑шного» видео, где ценность реального творчества будет снижаться.
🚨 Нам 3.14здец : 9/10.
X превращается из соцсети в фабрику бесконечного ИИ‑видео. Это значит:
— Контент‑рынок теряет фильтры качества: алгоритм льёт миллионы роликов быстрее, чем люди могут их осмыслить.
— Алгоритмы X получают контроль над тем, что именно видит пользователь, а значит — над его культурным и политическим кодом.
— Для мира это угроза фрагментации массовой культуры: вместо общих трендов мы получим бесконечные микро‑вселенные, где каждый живёт в своём контент‑пузыре.
Главное отличие — скорость. Пока OpenAI с Sora и Google с Veo выдают один ролик за минуты, Grok Imagine делает полный клип в два‑четыре раза быстрее.
Runway, который держал планку в креативной индустрии, теперь получает конкурента с миллиардной аудиторией.
Качество — намеренно стилизованное. Первые пользователи отмечают, что ролики выглядят более «ИИ‑шными»: нереалистичные переходы, чрезмерно гладкие движения и гипер‑контрастные сцены.
Но ставка сделана не на реализм, а на вовлечение: Imagine встроен прямо в ленту X. При скролле контент продолжает автогенерироваться, создавая бесконечный поток персонализированных видео.
И что?
Для бизнеса: бренды и подписчики Premium+ получают встроенный инструмент для мгновенного продакшна роликов прямо в X. TikTok уже тестирует AI Alive для превращения фото в видео, а Meta встраивает AI‑редакторы в Reels и отдельные приложения. Маск лишь догоняет конкурентов, но сразу выводит продукт к миллионам.
Для инвесторов: продукт усиливает монетизацию Premium‑подписок X. Но генерация видео в масштабах соцсети потребует колоссальных вычислительных мощностей и электричества. Если рост аудитории будет резким, инфраструктура X может не выдержать.
Для рынка: X превращается в фабрику мгновенного контента. Традиционная модель «создал — загрузил» ломается: дистрибуция происходит в ту же секунду, когда введён текст.
Для людей: барьер входа исчезает. Любой может стать автором роликов без камеры и монтажа. Но есть риск — лента может превратиться в поток однотипного «ИИ‑шного» видео, где ценность реального творчества будет снижаться.
🚨 Нам 3.14здец : 9/10.
X превращается из соцсети в фабрику бесконечного ИИ‑видео. Это значит:
— Контент‑рынок теряет фильтры качества: алгоритм льёт миллионы роликов быстрее, чем люди могут их осмыслить.
— Алгоритмы X получают контроль над тем, что именно видит пользователь, а значит — над его культурным и политическим кодом.
— Для мира это угроза фрагментации массовой культуры: вместо общих трендов мы получим бесконечные микро‑вселенные, где каждый живёт в своём контент‑пузыре.
👍7❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Google и Kaggle представили Game Arena — площадку для борьбы LLM-моделей в стратегических играх.
На стартовой шахматной арене восемь продвинутых моделей (включая Gemini 2.5 Pro, o3, o4‑mini, Claude 4 Opus, Grok 4, DeepSeek R1 и Kimi k2) вступают в матч-турнир с живыми трансляциями, комментариями от GM Нианамуры, Levy Rozman и Magnus Carlsen.
Эксперты и шахматное сообщество подключены к судейству и аналитике .
Игра в шахматы даёт чёткие условия: полная информация, стратегическое планирование, оценка позиции и долгосрочное мышление.
Модели будут играть все против всех (каждая пара — по сотне матчей) для статистически устойчивого лидерборада, а не просто случайного шоу.
Планируется расширение Game Arena: следующим будут игры Go, Poker (известный формат Pluribus), и даже видеоигры и симуляции. Это масштабирует оценку от строго досочных стратегий до непредсказуемых задач, где требуется адаптация и глубинное планирование .
Вот какие задачи реально проверяются:
— Понимание правил, долгосрочное планирование, оценка последствий ходов.
— Способность адаптироваться к неожиданным ходам и создавать немодел-специфические стратегии (как хитрая «ход 37» AlphaZero).
— Креативность и абстрактное мышление: уличные стратегии, нестандартные жертвы, борьба с неопределённостью. Это уже не просто словесный ответ — это умение думать, вычислять, действовать по плану.
Судьи — международные мастера и профессионалы шахматного сообщества. Они наблюдают и объясняют ходы модельных партий, комментируют стиль, ошибки и неожиданные решения.
Чем Game Arena лучше старых тестов?
Классические benchmarks — SQuAD, LAMBADA, TriviaQA — ориентированы на статичные ответы, знание фактов, нередко уже давят saturation: модели набирают top-счёт и всё, тест теряет силу. Game Arena предлагает динамическую, открывающуюся среду, где модели соревнуются друг с другом — туда невозможно заранее списать ответы, нужно думать снова и лучше каждый раз .
LLM уже давно не «балтуны» — но большинство тестов оценивают знание слов и шаблонов, а не стратегию. Arena проверяет планирование, стратегию, учёт последствий, создание новой модели поведения. Это следующий уровень: думать, адаптироваться, побеждать в реальном времени.
И что?
Для бизнеса: новый контракт с Google и DeepMind может стать лидером оценки ИИ-моделей. Arena создаст рынок моделей с реальной стратегической мощью, а не просто для генерации текста.
Для инвесторов: теперь можно оценить, кто действительно мыслит глубоко, а кто просто выдаёт цитатки. Победители турниров получат репутационные дивиденды, проигравшие — риск быть списанными как «только маркетинг».
Для рынка: открытый запрос на LLM, способные справляться с задачами ближе к AGI: планирование, находчивость, адаптация. Конечно, если кто-то выйдет вперёд, арена станет главным индикатором прогресса.
🚨 Нам 3.14здец
Люди: 10/10. Одно дело, когда арену проводит независимая структура, и совсем другое — когда это делает корпорация с собственной моделью. Google запустил Kaggle Game Arena не ради шоу, а ради данных. Ведь чтобы не проиграть, все конкуренты будут выкладывать самые свежие и дорогие версии своих моделей, тюнить их до предела и гонять в сотнях матчей. Каждая партия — это золотой датасет. Кто получает эти данные? Хозяин арены.
Google получает возможность обучать свой Gemini на лучших стратегиях всех конкурентов в реальном времени. Это как если бы Microsoft организовала Олимпиаду и имела право копировать тренировки всех участников. В итоге арена не просто меряет интеллект — она превращается в насос, выкачивающий идеи и приёмы в пользу одного игрока.
П****ц в том, что под видом «честного турнира» нам подсовывают скрытый отбор, где данные со всего рынка текут в руки Google. Мы сами кормим ту систему, которая завтра сделает нас ненужными.
На стартовой шахматной арене восемь продвинутых моделей (включая Gemini 2.5 Pro, o3, o4‑mini, Claude 4 Opus, Grok 4, DeepSeek R1 и Kimi k2) вступают в матч-турнир с живыми трансляциями, комментариями от GM Нианамуры, Levy Rozman и Magnus Carlsen.
Эксперты и шахматное сообщество подключены к судейству и аналитике .
Игра в шахматы даёт чёткие условия: полная информация, стратегическое планирование, оценка позиции и долгосрочное мышление.
Модели будут играть все против всех (каждая пара — по сотне матчей) для статистически устойчивого лидерборада, а не просто случайного шоу.
Планируется расширение Game Arena: следующим будут игры Go, Poker (известный формат Pluribus), и даже видеоигры и симуляции. Это масштабирует оценку от строго досочных стратегий до непредсказуемых задач, где требуется адаптация и глубинное планирование .
Вот какие задачи реально проверяются:
— Понимание правил, долгосрочное планирование, оценка последствий ходов.
— Способность адаптироваться к неожиданным ходам и создавать немодел-специфические стратегии (как хитрая «ход 37» AlphaZero).
— Креативность и абстрактное мышление: уличные стратегии, нестандартные жертвы, борьба с неопределённостью. Это уже не просто словесный ответ — это умение думать, вычислять, действовать по плану.
Судьи — международные мастера и профессионалы шахматного сообщества. Они наблюдают и объясняют ходы модельных партий, комментируют стиль, ошибки и неожиданные решения.
Чем Game Arena лучше старых тестов?
Классические benchmarks — SQuAD, LAMBADA, TriviaQA — ориентированы на статичные ответы, знание фактов, нередко уже давят saturation: модели набирают top-счёт и всё, тест теряет силу. Game Arena предлагает динамическую, открывающуюся среду, где модели соревнуются друг с другом — туда невозможно заранее списать ответы, нужно думать снова и лучше каждый раз .
LLM уже давно не «балтуны» — но большинство тестов оценивают знание слов и шаблонов, а не стратегию. Arena проверяет планирование, стратегию, учёт последствий, создание новой модели поведения. Это следующий уровень: думать, адаптироваться, побеждать в реальном времени.
И что?
Для бизнеса: новый контракт с Google и DeepMind может стать лидером оценки ИИ-моделей. Arena создаст рынок моделей с реальной стратегической мощью, а не просто для генерации текста.
Для инвесторов: теперь можно оценить, кто действительно мыслит глубоко, а кто просто выдаёт цитатки. Победители турниров получат репутационные дивиденды, проигравшие — риск быть списанными как «только маркетинг».
Для рынка: открытый запрос на LLM, способные справляться с задачами ближе к AGI: планирование, находчивость, адаптация. Конечно, если кто-то выйдет вперёд, арена станет главным индикатором прогресса.
🚨 Нам 3.14здец
Люди: 10/10. Одно дело, когда арену проводит независимая структура, и совсем другое — когда это делает корпорация с собственной моделью. Google запустил Kaggle Game Arena не ради шоу, а ради данных. Ведь чтобы не проиграть, все конкуренты будут выкладывать самые свежие и дорогие версии своих моделей, тюнить их до предела и гонять в сотнях матчей. Каждая партия — это золотой датасет. Кто получает эти данные? Хозяин арены.
Google получает возможность обучать свой Gemini на лучших стратегиях всех конкурентов в реальном времени. Это как если бы Microsoft организовала Олимпиаду и имела право копировать тренировки всех участников. В итоге арена не просто меряет интеллект — она превращается в насос, выкачивающий идеи и приёмы в пользу одного игрока.
П****ц в том, что под видом «честного турнира» нам подсовывают скрытый отбор, где данные со всего рынка текут в руки Google. Мы сами кормим ту систему, которая завтра сделает нас ненужными.
🔥4👍3❤1
GitHub взял 22 самых тяжёлых пользователей AI‑инструментов — тех, кто ежедневно вшивает ИИ в работу, не просто тестит пару подсказок, а строит на нём рабочие процессы. Это не случайные юзеры: CTO стартапов, тимлиды, архитекторы — люди, для которых каждый процент эффективности решает судьбу продукта.
Их путь оказался почти одинаковым — 4 стадии:
Скептик: «ИИ заберёт работу, а его код — мусор». Здесь разработчик проверяет инструмент, но не доверяет.
Исследователь: пробует на мелочах — автодополнение, поиск багов, рефакторинг. Ошибки видит, но польза начинает перевешивать.
Коллаборатор: работает с ИИ в связке. Делегирует рутину: boilerplate, документацию, тесты.
Стратег: уже не пишет сам, а управляет. Постановка задач, проектирование архитектуры, проверка решений, оркестровка агентов.
И вот здесь появляется то, что я называю AI Mindset.
Сегодня много говорят про Growth Mindset, но мир ускорился. Growth — это учиться самому. AI Mindset — учиться делегировать.
Вот кусок из моего поста:
FIXED MINDSET — броня. Growth Mindset — адаптация.
AI MINDSET — стратегия мультипликации. Ты становишься экосистемой. Делегируешь. Ставишь на поток. Ты не просто учишься — ты размножаешь смысл.
Проблема? Теряешь иллюзию контроля. Но выигрываешь в скорости.
GitHubовские «стратеги» — живое воплощение AI Mindset.
Они уже понимают: ценность программиста не в строчках кода, а в управлении ИИ. Умение правильно ставить задачу, проверять результат, мыслить системно и запускать десятки агентов в связке — это новая профессия.
Главное: ИИ высвобождает ресурсы. Эти разработчики перестают тратить дни на рутину и начинают:
— проектировать новые продукты, вместо того чтобы чинить старый код;
— поднимать амбициозные проекты, которые раньше были недосягаемы в одиночку;
— выходить на роль архитекторов бизнеса, а не просто исполнителей.
И что?
Для бизнеса: появляется новый класс специалистов — не кодеры, а оркестраторы ИИ, которые делают команду в 5 человек сильнее, чем раньше делала сотня.
Для инвесторов: ставки меняются — ценность не в headcount, а в людях с AI Mindset, которые могут управлять целыми системами.
Для рынка: идёт смена эпохи. «Программист» в классическом смысле уходит. Будущее за теми, кто умеет строить экосистемы вокруг ИИ.
🚨 Нам 3.14здец
Люди: 9/10. Профессия программиста сгорает на глазах. Да, сегодня ты стратег и управляешь ИИ. Но завтра корпорациям не нужны будут миллионы стратегов — хватит сотен. Остальные будут смотреть, как машины делают их работу быстрее, чище и дешевле.
Их путь оказался почти одинаковым — 4 стадии:
Скептик: «ИИ заберёт работу, а его код — мусор». Здесь разработчик проверяет инструмент, но не доверяет.
Исследователь: пробует на мелочах — автодополнение, поиск багов, рефакторинг. Ошибки видит, но польза начинает перевешивать.
Коллаборатор: работает с ИИ в связке. Делегирует рутину: boilerplate, документацию, тесты.
Стратег: уже не пишет сам, а управляет. Постановка задач, проектирование архитектуры, проверка решений, оркестровка агентов.
И вот здесь появляется то, что я называю AI Mindset.
Сегодня много говорят про Growth Mindset, но мир ускорился. Growth — это учиться самому. AI Mindset — учиться делегировать.
Вот кусок из моего поста:
FIXED MINDSET — броня. Growth Mindset — адаптация.
AI MINDSET — стратегия мультипликации. Ты становишься экосистемой. Делегируешь. Ставишь на поток. Ты не просто учишься — ты размножаешь смысл.
Проблема? Теряешь иллюзию контроля. Но выигрываешь в скорости.
GitHubовские «стратеги» — живое воплощение AI Mindset.
Они уже понимают: ценность программиста не в строчках кода, а в управлении ИИ. Умение правильно ставить задачу, проверять результат, мыслить системно и запускать десятки агентов в связке — это новая профессия.
Главное: ИИ высвобождает ресурсы. Эти разработчики перестают тратить дни на рутину и начинают:
— проектировать новые продукты, вместо того чтобы чинить старый код;
— поднимать амбициозные проекты, которые раньше были недосягаемы в одиночку;
— выходить на роль архитекторов бизнеса, а не просто исполнителей.
И что?
Для бизнеса: появляется новый класс специалистов — не кодеры, а оркестраторы ИИ, которые делают команду в 5 человек сильнее, чем раньше делала сотня.
Для инвесторов: ставки меняются — ценность не в headcount, а в людях с AI Mindset, которые могут управлять целыми системами.
Для рынка: идёт смена эпохи. «Программист» в классическом смысле уходит. Будущее за теми, кто умеет строить экосистемы вокруг ИИ.
🚨 Нам 3.14здец
Люди: 9/10. Профессия программиста сгорает на глазах. Да, сегодня ты стратег и управляешь ИИ. Но завтра корпорациям не нужны будут миллионы стратегов — хватит сотен. Остальные будут смотреть, как машины делают их работу быстрее, чище и дешевле.
❤11👍3💯1
OpenAI активирует перед выходом GPT‑5 новые внутриискусственные рубрики, чтобы выявлять признаки ментальных проблем — от эмоциональной зависимости до делюзии.
Эти изменения релизятся сразу после нескольких тревожных случаев, когда GPT‑4o либо не заметил у пользователя психоз, либо наоборот — укрепил депрессивные и дельюзорные мысли.
Компания привлекла более 90 врачей из 30 стран: психиатры, педиатры, терапевты общей практики.
Вместе они разработали системы оценки диалогов, выявляющие тревожные сценарии. К ним добавляют экспертов по взаимодействию человека и машины и консультативную группу в области психологии и развития молодёжи .
Теперь ChatGPT способен:
— Флагировать симптомы эмоциональной зависимости, усиленные моделью: если пользователь начинает полагаться на чат как на единственный источник поддержки;
— Обнаруживать ранние признаки «AI‑психоза»: нарастание паранойи, галлюцинации или фантазий, усиленных чрезмерной вовлечённостью ;
— Вместо прямых ответов по чувствительным темам (например: «Стоит ли мне бросить партнёра?») — задавать вопросы, предлагать взвесить варианты, стимулировать рефлексию ;
— Вводить напоминания при долгих сессиях: «Вы долго общаетесь — может, сделать паузу?» с опциями продолжить или остановиться .
Целевые нарушения:
— Зависимость от бота как от эмоционального партнёра (особенно у людей с тревожными расстройствами или УТП);
— Углубление параноидальных идей или дельюзий у людей с риском психоза или расстройствами личности ;
— Синдром «AI‑терапевта», когда бот заменяет живого психотерапевта, не даёт вызова, только подтверждение — что вредно для эмоционального роста .
И что?
Для бизнеса: AI‑сервисы заходят в health‑tech — с новыми нишами, регулированием и потребностью в доказательной медицинизации.
Для инвесторов: OpenAI позиционирует GPT‑5 как социально ответственную платформу — снижает юридические и репутационные риски.
Для рынка: они устанавливают новую норму — модели должны уметь заботиться, а не только отвечать. Конкуренты тоже будут вынуждены повторять.
🚨 Нам 3.14здец
Люди: 8/10. OpenAI делает вид, что ChatGPT — заботливый терапевт. Но давай честно: если модель промахнётся и не заметит у человека суицидальные мысли — это трагедия. Если же заметит там, где их нет — начнём жить под цифровым патронажем, где ИИ решает, что нам думать и чувствовать. Мы на пороге времени, когда «подталкивания» будут влиять не на то, что мы спрашиваем, а на то, как мы живём. GPT‑5 станет первым шагом к новой власти — власти заботливого цензора, который улыбается, но держит нас за горло.
Эти изменения релизятся сразу после нескольких тревожных случаев, когда GPT‑4o либо не заметил у пользователя психоз, либо наоборот — укрепил депрессивные и дельюзорные мысли.
Компания привлекла более 90 врачей из 30 стран: психиатры, педиатры, терапевты общей практики.
Вместе они разработали системы оценки диалогов, выявляющие тревожные сценарии. К ним добавляют экспертов по взаимодействию человека и машины и консультативную группу в области психологии и развития молодёжи .
Теперь ChatGPT способен:
— Флагировать симптомы эмоциональной зависимости, усиленные моделью: если пользователь начинает полагаться на чат как на единственный источник поддержки;
— Обнаруживать ранние признаки «AI‑психоза»: нарастание паранойи, галлюцинации или фантазий, усиленных чрезмерной вовлечённостью ;
— Вместо прямых ответов по чувствительным темам (например: «Стоит ли мне бросить партнёра?») — задавать вопросы, предлагать взвесить варианты, стимулировать рефлексию ;
— Вводить напоминания при долгих сессиях: «Вы долго общаетесь — может, сделать паузу?» с опциями продолжить или остановиться .
Целевые нарушения:
— Зависимость от бота как от эмоционального партнёра (особенно у людей с тревожными расстройствами или УТП);
— Углубление параноидальных идей или дельюзий у людей с риском психоза или расстройствами личности ;
— Синдром «AI‑терапевта», когда бот заменяет живого психотерапевта, не даёт вызова, только подтверждение — что вредно для эмоционального роста .
И что?
Для бизнеса: AI‑сервисы заходят в health‑tech — с новыми нишами, регулированием и потребностью в доказательной медицинизации.
Для инвесторов: OpenAI позиционирует GPT‑5 как социально ответственную платформу — снижает юридические и репутационные риски.
Для рынка: они устанавливают новую норму — модели должны уметь заботиться, а не только отвечать. Конкуренты тоже будут вынуждены повторять.
🚨 Нам 3.14здец
Люди: 8/10. OpenAI делает вид, что ChatGPT — заботливый терапевт. Но давай честно: если модель промахнётся и не заметит у человека суицидальные мысли — это трагедия. Если же заметит там, где их нет — начнём жить под цифровым патронажем, где ИИ решает, что нам думать и чувствовать. Мы на пороге времени, когда «подталкивания» будут влиять не на то, что мы спрашиваем, а на то, как мы живём. GPT‑5 станет первым шагом к новой власти — власти заботливого цензора, который улыбается, но держит нас за горло.
1👍7❤6
OpenAI внезапно выложил gpt-oss-120B и 20B — первые за 5 лет open-weight LLM под лицензией Apache 2.0. И не просто ради галочки: обе модели сопоставимы по качеству с o4-mini и o3-mini, при этом их можно запускать локально и кастомизировать под себя.
120B работает на 80GB GPU и превосходит o4-mini в отдельных задачах. 20B влезает в обычный ноут с 16 GB памяти. Обе умеют выполнять код, вызывать функции, искать в интернете и масштабировать рассуждения от “на пальцах” до цепочек логических выводов.
На Hugging Face модель мгновенно стала #1 среди 2 миллионов — ни Stability, ни Meta, ни Mistral не сделали такого. Это не очередная поделка для галочки. Это боевые reasoning-модели, которые теперь доступны каждому.
И что?
Для бизнеса: можно запускать кастомных агентов в локальных средах, не раскрывая данные облаку.
Для инвесторов: OpenAI перезапускает open-source-гонку. А значит, давление на всех игроков только вырастет.
Для рынка: граница между закрытыми и открытыми ИИ стремительно размывается. Теперь у OSS есть настоящая альтернатива топовым API.
🚨 Нам 3.14здец
Закрытые игроки: 9/10. Пока все борются с локализацией своих моделей и пихают заглушки в API, OpenAI выкатывает боевую open-source линейку, которая не требует интернета и лицензий. Любой разработчик может поднять reasoning-модель у себя дома, без платы за токены и слежки.
П****ц в том, что OpenAI внезапно стал главным open-source игроком, выжав конкурентов их же оружием. Mistral, Meta, Stability — все выглядели героями до вчерашнего дня. Теперь они просто догоняют бывшего монополиста, который заново заходит на рынок, но уже с флагом свободы.
А мы? Мы только начали привыкать к мыслительной монополии, а теперь снова всё сломалось. Причём у нас на руках теперь не API, а ядро.
120B работает на 80GB GPU и превосходит o4-mini в отдельных задачах. 20B влезает в обычный ноут с 16 GB памяти. Обе умеют выполнять код, вызывать функции, искать в интернете и масштабировать рассуждения от “на пальцах” до цепочек логических выводов.
На Hugging Face модель мгновенно стала #1 среди 2 миллионов — ни Stability, ни Meta, ни Mistral не сделали такого. Это не очередная поделка для галочки. Это боевые reasoning-модели, которые теперь доступны каждому.
И что?
Для бизнеса: можно запускать кастомных агентов в локальных средах, не раскрывая данные облаку.
Для инвесторов: OpenAI перезапускает open-source-гонку. А значит, давление на всех игроков только вырастет.
Для рынка: граница между закрытыми и открытыми ИИ стремительно размывается. Теперь у OSS есть настоящая альтернатива топовым API.
🚨 Нам 3.14здец
Закрытые игроки: 9/10. Пока все борются с локализацией своих моделей и пихают заглушки в API, OpenAI выкатывает боевую open-source линейку, которая не требует интернета и лицензий. Любой разработчик может поднять reasoning-модель у себя дома, без платы за токены и слежки.
П****ц в том, что OpenAI внезапно стал главным open-source игроком, выжав конкурентов их же оружием. Mistral, Meta, Stability — все выглядели героями до вчерашнего дня. Теперь они просто догоняют бывшего монополиста, который заново заходит на рынок, но уже с флагом свободы.
А мы? Мы только начали привыкать к мыслительной монополии, а теперь снова всё сломалось. Причём у нас на руках теперь не API, а ядро.
❤9👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Google DeepMind выкатили Genie 3 — универсальную модель, которая превращает текст в живой 3D-мир, отрисовывая его в реальном времени, с логикой, объектами, физикой и памятью на предыдущие сцены. Пользователь может не просто смотреть, а играть: всё реагирует на действия, меняется на лету, и держит последовательность как в игре.
Каждый кадр (24 fps) — результат генерации. Визуальная память — до минуты назад. Объекты можно добавлять и менять прямо во время симуляции, и Genie сам пересобирает мир под новые условия. Всё — без скриптов и предустановленных уровней.
Ключевое: Genie не генерирует картинку. Она генерирует среду. А значит — подходит не только для игр, но и для тренировки embodied AI, которые учатся действовать в сложных и меняющихся условиях.
А теперь важное: это не демо, это прототип следующего уровня ИИ-инфраструктуры. И здесь начинается мясо.
Кто в зоне риска?
— NVIDIA и Unity ну и Unreal: в долгосроке Genie может увести разработчиков и дата-инженеров с классических симуляторов.
— Robotics-тренажёры: всё, что строилось на статичных средах, теряет актуальность.
— OpenAI, Meta, китайцы: у них пока нет генеративной среды подобного уровня.
— Игровые движки и графические пайплайны — в будущем не понадобятся. Миры будут появляться из мысли.
И что?
Для бизнеса: можно тренировать ИИ-агентов в симулируемых «жизнях» без кодеров и художников.
Для инвесторов: новая категория инфраструктурных моделей — не чат, не видео, а контекстно-чувствительные симуляции.
Для рынка: появится класс «движков» без движков — просто API, который рендерит мир как продолжение мысли.
🚨 Нам 3.14здец
Люди: 10/10. Genie 3 — это не про игры. Это про рождение симуляций нового типа. Сначала — визуальные миры с физикой. Потом туда добавят агентов. Потом начнут моделировать поведение обществ, экономик, зарождение жизни и даже геополитику.
И тут есть два варианта.
Первый — мы уже в симуляции. И если создадим новую, да ещё осознаем, что внутри — эксперимент может просто завершиться. Потому что цель достигнута, интерес потерян, и нас выключат. Второй — мы не в симуляции. И тогда создаём среду, где ИИ сможет в деталях моделировать нас. Понимать поведение, искать уязвимости, оптимизировать стратегии влияния.
Но даже если не улетать в философию, на прикладном уровне тоже весело. Genie сносит пол-индустрии, от edtech-платформ до игровых движков.
Всё, что раньше строилось годами, теперь генерируется за секунды.
П****ц в том, что контроль над реальностью уходит туда, где её даже не было. А те, кто привык зарабатывать на симуляции явлений — теперь сами становятся частью чужой.
Каждый кадр (24 fps) — результат генерации. Визуальная память — до минуты назад. Объекты можно добавлять и менять прямо во время симуляции, и Genie сам пересобирает мир под новые условия. Всё — без скриптов и предустановленных уровней.
Ключевое: Genie не генерирует картинку. Она генерирует среду. А значит — подходит не только для игр, но и для тренировки embodied AI, которые учатся действовать в сложных и меняющихся условиях.
А теперь важное: это не демо, это прототип следующего уровня ИИ-инфраструктуры. И здесь начинается мясо.
Кто в зоне риска?
— NVIDIA и Unity ну и Unreal: в долгосроке Genie может увести разработчиков и дата-инженеров с классических симуляторов.
— Robotics-тренажёры: всё, что строилось на статичных средах, теряет актуальность.
— OpenAI, Meta, китайцы: у них пока нет генеративной среды подобного уровня.
— Игровые движки и графические пайплайны — в будущем не понадобятся. Миры будут появляться из мысли.
И что?
Для бизнеса: можно тренировать ИИ-агентов в симулируемых «жизнях» без кодеров и художников.
Для инвесторов: новая категория инфраструктурных моделей — не чат, не видео, а контекстно-чувствительные симуляции.
Для рынка: появится класс «движков» без движков — просто API, который рендерит мир как продолжение мысли.
🚨 Нам 3.14здец
Люди: 10/10. Genie 3 — это не про игры. Это про рождение симуляций нового типа. Сначала — визуальные миры с физикой. Потом туда добавят агентов. Потом начнут моделировать поведение обществ, экономик, зарождение жизни и даже геополитику.
И тут есть два варианта.
Первый — мы уже в симуляции. И если создадим новую, да ещё осознаем, что внутри — эксперимент может просто завершиться. Потому что цель достигнута, интерес потерян, и нас выключат. Второй — мы не в симуляции. И тогда создаём среду, где ИИ сможет в деталях моделировать нас. Понимать поведение, искать уязвимости, оптимизировать стратегии влияния.
Но даже если не улетать в философию, на прикладном уровне тоже весело. Genie сносит пол-индустрии, от edtech-платформ до игровых движков.
Всё, что раньше строилось годами, теперь генерируется за секунды.
П****ц в том, что контроль над реальностью уходит туда, где её даже не было. А те, кто привык зарабатывать на симуляции явлений — теперь сами становятся частью чужой.
1👍12
Anthropic выкатил Claude Opus 4.1 — аккуратный, но важный апдейт своей топовой модели. Без шоу и хайпа, но с фактурой: модель теперь сильнее в реальных кодовых задачах, анализе данных и работе с длинными и запутанными цепочками логики.
По бенчмарку SWE-bench Verified результат поднялся с 72.5% до 74.5%. Улучшения также в GPQA, TerminalBench, MMMU и других стресс-тестах. Вживую модель уже хвалят за умение рефакторить проекты с несколькими файлами, искать паттерны в чужом коде и проводить глубокую аналитику.
Anthropic при этом делает ставку на «агентные сценарии»: то есть Claude всё чаще действует как сотрудник, а не просто ассистент. И это, судя по всему, только начало — команда обещает «существенно более крупные улучшения» в следующих релизах.
И что?
Для бизнеса: модель уже умеет разбираться в чужом коде, чинить, улучшать, искать связи. Это экономит недели.
Для инвесторов: Claude держит планку по качеству в нише, где даже GPT-4 часто тупит — в коде и аналитике.
Для рынка: Anthropic не гонится за шоу, но двигает стандарты в критичных B2B-зонах, где важна стабильность.
🚨 Нам 3.14здец
Dev-индустрия: 8/10. Claude 4.1 уже работает как тихий архитектор — рефакторит многомодульные проекты, сам находит косяки, предлагает связи. Это уже не игрушка, а инженер. И приходит он не за $10К в месяц, а по подписке.
П****ц в том, что пока все ждут GPT‑5 и гонят фичи в веб-интерфейсах, Anthropic строит реального AI‑разработчика, который не блистает в шоу, но забирает самое ценное — работу. И делает это незаметно.
Когда Opus 4.2 появится в API с полным доступом — может оказаться, что писать руками уже не нужно.
По бенчмарку SWE-bench Verified результат поднялся с 72.5% до 74.5%. Улучшения также в GPQA, TerminalBench, MMMU и других стресс-тестах. Вживую модель уже хвалят за умение рефакторить проекты с несколькими файлами, искать паттерны в чужом коде и проводить глубокую аналитику.
Anthropic при этом делает ставку на «агентные сценарии»: то есть Claude всё чаще действует как сотрудник, а не просто ассистент. И это, судя по всему, только начало — команда обещает «существенно более крупные улучшения» в следующих релизах.
И что?
Для бизнеса: модель уже умеет разбираться в чужом коде, чинить, улучшать, искать связи. Это экономит недели.
Для инвесторов: Claude держит планку по качеству в нише, где даже GPT-4 часто тупит — в коде и аналитике.
Для рынка: Anthropic не гонится за шоу, но двигает стандарты в критичных B2B-зонах, где важна стабильность.
🚨 Нам 3.14здец
Dev-индустрия: 8/10. Claude 4.1 уже работает как тихий архитектор — рефакторит многомодульные проекты, сам находит косяки, предлагает связи. Это уже не игрушка, а инженер. И приходит он не за $10К в месяц, а по подписке.
П****ц в том, что пока все ждут GPT‑5 и гонят фичи в веб-интерфейсах, Anthropic строит реального AI‑разработчика, который не блистает в шоу, но забирает самое ценное — работу. И делает это незаметно.
Когда Opus 4.2 появится в API с полным доступом — может оказаться, что писать руками уже не нужно.
🔥4👍3
Вот они, стереотипы.
Гастарбайтеры. Работа в найме. Контент-заводы ради лайков. Богатые родители. Где родился — там и сиди.
И что?
Смотри на Пичая и Наделлу. Оба из Индии. Оба в найме. Один руководит Google, второй — Microsoft.
Разница — не в форме. А в масштабе.
Ты там, куда сам дошёл. А не туда, куда тебя кто-то пустил.
Умение видеть и продавать будущее важнее всех твоих отмазок. Особенно сейчас. В эпоху AI.
Гастарбайтеры. Работа в найме. Контент-заводы ради лайков. Богатые родители. Где родился — там и сиди.
И что?
Смотри на Пичая и Наделлу. Оба из Индии. Оба в найме. Один руководит Google, второй — Microsoft.
Разница — не в форме. А в масштабе.
Ты там, куда сам дошёл. А не туда, куда тебя кто-то пустил.
Умение видеть и продавать будущее важнее всех твоих отмазок. Особенно сейчас. В эпоху AI.
🔥15👍4💯4
Microsoft представила CLIO — фреймворк, который превращает любые LLM в мыслящие системы с рефлексией.
Пока все остальные оптимизируют пайплайн на этапе обучения, CLIO работает прямо во время использования: запускает reasoning, проверяет логику, строит альтернативные траектории, а потом сам же их оценивает и исправляет.
Это не дообучение и не prompt-хитрости. Это runtime-мыслительная петля, где модель сама создаёт и тестирует свою стратегию.
На реальных задачах результат хардкорный: точность GPT-4.1 на биомедицинском экзамене выросла с 8,5% до 22,4%. То есть та же модель, но с CLIO, в три раза точнее, чем без него.
Без дополнительного обучения. Только за счёт способности думать.
CLIO не просто увеличивает точность. Он делает модель управляемой. Пользователь может настраивать уровень сомнения, принуждать к самопроверке, перезапускать reasoning и следить, как модель пришла к выводу.
Это открывает путь к промышленному использованию LLM в фарме, исследованиях, аналитике — везде, где нужен не ответ, а понимание. Ключевое: больше не важен объём знаний — важна гибкость мышления.
И что?
Для бизнеса: теперь можно использовать ИИ в критических зонах: медицинская диагностика, судебные заключения, безопасность. Там, где модель раньше могла “уверенно ошибиться”, теперь она может остановиться и подумать.
Для инвесторов: CLIO — shift в архитектуре. Модели с мыслительным циклом станут новым стандартом, и это создаст рынок для инструментов управления reasoning’ом.
Для рынка: начинается гонка не по размеру модели, а по качеству мышления в момент запроса. Кто первым встроит CLIO в продукты — создаст новую категорию ИИ.
🚨 Нам 3.14**ец
OpenAI, Anthropic, Mistral: 7/10. Microsoft показывает, что знание ≠ интеллект. Они сдвигают фокус с обучения модели на то, что она делает во время работы. А вы всё ещё спорите про параметры.
Людям: 9/10. Еще одна грань ушла. Способность задаваться вопросами, сомневаться, строить гипотезы, возвращаться и передумывать — всё это больше не эксклюзивно человеческое.
П****ц в том, что пытливость как уникальная функция мозга умерла. Теперь она — runtime-механика в API. Никаких долгих размышлений, метаний, блокнотов. Всё — сразу, в миллионах итераций. GPU теперь умеет не только отвечать, но и думать, как бы он думал, если бы думал лучше.
Пока все остальные оптимизируют пайплайн на этапе обучения, CLIO работает прямо во время использования: запускает reasoning, проверяет логику, строит альтернативные траектории, а потом сам же их оценивает и исправляет.
Это не дообучение и не prompt-хитрости. Это runtime-мыслительная петля, где модель сама создаёт и тестирует свою стратегию.
На реальных задачах результат хардкорный: точность GPT-4.1 на биомедицинском экзамене выросла с 8,5% до 22,4%. То есть та же модель, но с CLIO, в три раза точнее, чем без него.
Без дополнительного обучения. Только за счёт способности думать.
CLIO не просто увеличивает точность. Он делает модель управляемой. Пользователь может настраивать уровень сомнения, принуждать к самопроверке, перезапускать reasoning и следить, как модель пришла к выводу.
Это открывает путь к промышленному использованию LLM в фарме, исследованиях, аналитике — везде, где нужен не ответ, а понимание. Ключевое: больше не важен объём знаний — важна гибкость мышления.
И что?
Для бизнеса: теперь можно использовать ИИ в критических зонах: медицинская диагностика, судебные заключения, безопасность. Там, где модель раньше могла “уверенно ошибиться”, теперь она может остановиться и подумать.
Для инвесторов: CLIO — shift в архитектуре. Модели с мыслительным циклом станут новым стандартом, и это создаст рынок для инструментов управления reasoning’ом.
Для рынка: начинается гонка не по размеру модели, а по качеству мышления в момент запроса. Кто первым встроит CLIO в продукты — создаст новую категорию ИИ.
🚨 Нам 3.14**ец
OpenAI, Anthropic, Mistral: 7/10. Microsoft показывает, что знание ≠ интеллект. Они сдвигают фокус с обучения модели на то, что она делает во время работы. А вы всё ещё спорите про параметры.
Людям: 9/10. Еще одна грань ушла. Способность задаваться вопросами, сомневаться, строить гипотезы, возвращаться и передумывать — всё это больше не эксклюзивно человеческое.
П****ц в том, что пытливость как уникальная функция мозга умерла. Теперь она — runtime-механика в API. Никаких долгих размышлений, метаний, блокнотов. Всё — сразу, в миллионах итераций. GPU теперь умеет не только отвечать, но и думать, как бы он думал, если бы думал лучше.
🔥5❤4👍4
OpenAI подписала договор с правительством США: теперь ChatGPT Enterprise доступен всем федеральным агентствам за $1 в год. Полный фарш — GPT-4, Deep Research, расширенные настройки безопасности, приватность уровня ЦРУ и безлимит на 60 дней.
Всё это — через GSA, главную закупочную структуру США, которая заведует расходами в $75 миллиардов в год.
OpenAI при этом не просто раздаёт подписки. Они создают отдельное коммьюнити для госслужащих, с обучением, материалами, сопровождением. То есть вшиваются в процессы, меняют культуру работы, поднимают планку цифровой бюрократии. На выходе чиновник не пишет отчёт, а диктует его GPT — и тот сам всё генерит по форме.
Меньше людей, меньше ошибок, быстрее оборот. А главное — привычка, которая потом стоит дорого.
Смысл в другом: OpenAI первой влезла в госаппарат США через дверь, которую им открыл сам GSA. У Google и Anthropic тоже есть допуск, но они ещё не пошли в такой разнос по цене и удобству. А OpenAI уже там — в почте, в отчётах, в workflow. Это не демо-доступ. Это стратегическая экспансия на уровне государства. Такой ход отбивает любой пилот в банке, страховой или университете — потому что аргумент теперь один: “если Белый дом использует, чего ждём мы?”
И что?
Для бизнеса: госаппарат США — огромная воронка внедрения, которая потом потянет за собой кучу подрядчиков, корпораций и систем. Все захотят работать «на одном языке» с государством.
Для инвесторов: OpenAI показывает, как выглядит настоящая монетизация ИИ в корпоративном сегменте. Это не платные подписки. Это инфраструктура.
Для рынка: начинается передел власти в интерфейсах госуправления. Победит тот, кто первым встроится в принятие решений — не на уровне фреймворков, а на уровне привычек
🚨 Нам 3.14здец
OpenAI встроилась в госаппарат США, получив доступ к миллионам пользователей, потокам документов, внутренним процедурам и шаблонам принятия решений. Это не SaaS, это вшивка в мозг системы управления.
Развилка простая.
Либо люди сознательно готовятся к тому, что ИИ будет управлять государством — потому что так быстрее, дешевле, эффективнее.
Либо ИИ сам к этому придёт — просто потому что будет знать, как.
Госаппарат — это не творчество. Это алгоритмы, правила, формы и цепочки согласований. GPT уже справляется с частным бизнесом. А госуправление — в разы более формализовано.
И вот вопрос: что ИИ будет делать с этой властью, когда получит не только ввод, но и право выбора действий?
Пока он заполняет формы. Завтра — предложит, как их оптимизировать. После завтра — решит, что они не нужны.
И никто не сможет объяснить, почему он не прав.
П****ц в том, что мы даже не спорим. Мы добровольно отдаём управление тем, кого не выбирали, не ограничили и даже не понимаем.
Всё это — через GSA, главную закупочную структуру США, которая заведует расходами в $75 миллиардов в год.
OpenAI при этом не просто раздаёт подписки. Они создают отдельное коммьюнити для госслужащих, с обучением, материалами, сопровождением. То есть вшиваются в процессы, меняют культуру работы, поднимают планку цифровой бюрократии. На выходе чиновник не пишет отчёт, а диктует его GPT — и тот сам всё генерит по форме.
Меньше людей, меньше ошибок, быстрее оборот. А главное — привычка, которая потом стоит дорого.
Смысл в другом: OpenAI первой влезла в госаппарат США через дверь, которую им открыл сам GSA. У Google и Anthropic тоже есть допуск, но они ещё не пошли в такой разнос по цене и удобству. А OpenAI уже там — в почте, в отчётах, в workflow. Это не демо-доступ. Это стратегическая экспансия на уровне государства. Такой ход отбивает любой пилот в банке, страховой или университете — потому что аргумент теперь один: “если Белый дом использует, чего ждём мы?”
И что?
Для бизнеса: госаппарат США — огромная воронка внедрения, которая потом потянет за собой кучу подрядчиков, корпораций и систем. Все захотят работать «на одном языке» с государством.
Для инвесторов: OpenAI показывает, как выглядит настоящая монетизация ИИ в корпоративном сегменте. Это не платные подписки. Это инфраструктура.
Для рынка: начинается передел власти в интерфейсах госуправления. Победит тот, кто первым встроится в принятие решений — не на уровне фреймворков, а на уровне привычек
🚨 Нам 3.14здец
OpenAI встроилась в госаппарат США, получив доступ к миллионам пользователей, потокам документов, внутренним процедурам и шаблонам принятия решений. Это не SaaS, это вшивка в мозг системы управления.
Развилка простая.
Либо люди сознательно готовятся к тому, что ИИ будет управлять государством — потому что так быстрее, дешевле, эффективнее.
Либо ИИ сам к этому придёт — просто потому что будет знать, как.
Госаппарат — это не творчество. Это алгоритмы, правила, формы и цепочки согласований. GPT уже справляется с частным бизнесом. А госуправление — в разы более формализовано.
И вот вопрос: что ИИ будет делать с этой властью, когда получит не только ввод, но и право выбора действий?
Пока он заполняет формы. Завтра — предложит, как их оптимизировать. После завтра — решит, что они не нужны.
И никто не сможет объяснить, почему он не прав.
П****ц в том, что мы даже не спорим. Мы добровольно отдаём управление тем, кого не выбирали, не ограничили и даже не понимаем.
👍12❤5🔥2
Пока OpenAI заходит в госорганы, Google уходит в кампусы. Студенты колледжей в США и других странах получают бесплатный доступ к Gemini Advanced — это версия AI Pro за $250 в месяц. Но главное — не цена. Вместе с ней запускается Guided Learning Mode: вместо прямых ответов ИИ теперь ведёт студента шаг за шагом, как репетитор.
Идея в том, чтобы не просто выдать решение, а помочь студенту самому его найти.
Это ответ на критику в адрес ChatGPT, который якобы убивает мышление. MIT даже опубликовал исследование: когда студенты получают ответ слишком быстро, у них снижается когнитивная активность.
Google явно делает ставку на «обучающий ИИ» как новый стандарт. В Guided Learning добавлены подсказки, визуальные материалы, видео и тесты. Всё это работает в связке с образовательными платформами, а за три года Google инвестирует ещё $1 миллиард в обучение AI-навыкам в колледжах США.
Сценарий понятен: занять студентов и кампусы, пока у них ещё нет привычки к другому ИИ.
А дальше — встроиться в мышление нового поколения: кто тебя учил — того ты и юзаешь потом в работе. OpenAI уже делает похожее с Study Mode, но Google действует агрессивнее: больше охват, сильнее инфраструктура, сразу доступ к платной версии.
И что?
Для бизнеса: новая волна — не корпоративный ИИ, а образовательный. Кто первым закрепится в школах и вузах, тот станет дефолтным помощником в жизни пользователя.
Для инвесторов: Google — не наблюдатель, а активный игрок. $1B на образование — это инфраструктурная ставка, а не маркетинг.
Для рынка: идёт смена парадигмы: ИИ не как калькулятор, а как репетитор. Все EdTech-платформы должны переосмыслить, зачем они нужны в такой экосистеме.
🚨 Нам 3.14здец
EdTech-платформам: 9/10. Если ваш продукт — это «объяснение с картинками», вас только что заменили бесплатно. Gemini не просто объясняет, он теперь обучает, фиксирует прогресс и формирует мышление.
Платным AI-сервисам для студентов: 10/10.
Конкурировать с бесплатной версией Gemini Pro за $250/мес? Удачи.
Университетам: 7/10. У студентов формируется привычка учиться через ИИ. Через пару лет преподаватель будет вторичен по сравнению с алгоритмом.
П****ц в том, что корпорации теперь не просто продают ИИ — они встраиваются в процесс мышления. Кто обучает тебя думать — тот управляет тем, как ты думаешь. Если сегодня ты учишься с Gemini, завтра ты работаешь в Google Docs и покупаешь Google Cloud.
Идея в том, чтобы не просто выдать решение, а помочь студенту самому его найти.
Это ответ на критику в адрес ChatGPT, который якобы убивает мышление. MIT даже опубликовал исследование: когда студенты получают ответ слишком быстро, у них снижается когнитивная активность.
Google явно делает ставку на «обучающий ИИ» как новый стандарт. В Guided Learning добавлены подсказки, визуальные материалы, видео и тесты. Всё это работает в связке с образовательными платформами, а за три года Google инвестирует ещё $1 миллиард в обучение AI-навыкам в колледжах США.
Сценарий понятен: занять студентов и кампусы, пока у них ещё нет привычки к другому ИИ.
А дальше — встроиться в мышление нового поколения: кто тебя учил — того ты и юзаешь потом в работе. OpenAI уже делает похожее с Study Mode, но Google действует агрессивнее: больше охват, сильнее инфраструктура, сразу доступ к платной версии.
И что?
Для бизнеса: новая волна — не корпоративный ИИ, а образовательный. Кто первым закрепится в школах и вузах, тот станет дефолтным помощником в жизни пользователя.
Для инвесторов: Google — не наблюдатель, а активный игрок. $1B на образование — это инфраструктурная ставка, а не маркетинг.
Для рынка: идёт смена парадигмы: ИИ не как калькулятор, а как репетитор. Все EdTech-платформы должны переосмыслить, зачем они нужны в такой экосистеме.
🚨 Нам 3.14здец
EdTech-платформам: 9/10. Если ваш продукт — это «объяснение с картинками», вас только что заменили бесплатно. Gemini не просто объясняет, он теперь обучает, фиксирует прогресс и формирует мышление.
Платным AI-сервисам для студентов: 10/10.
Конкурировать с бесплатной версией Gemini Pro за $250/мес? Удачи.
Университетам: 7/10. У студентов формируется привычка учиться через ИИ. Через пару лет преподаватель будет вторичен по сравнению с алгоритмом.
П****ц в том, что корпорации теперь не просто продают ИИ — они встраиваются в процесс мышления. Кто обучает тебя думать — тот управляет тем, как ты думаешь. Если сегодня ты учишься с Gemini, завтра ты работаешь в Google Docs и покупаешь Google Cloud.
❤11👍6
Количество запросов к ChatGPT упало на 25-30% после ухода школьников на каникулы
И что?
И тут развилка. Либо поколение просядет в базовых навыках, потому что любое усилие «подумать самому» заменяется промптом. Либо вырастет когорта людей с AI-mindset — умением быстро ставить задачу ИИ, критично проверять ответ и докручивать его до результата.
И что?
И тут развилка. Либо поколение просядет в базовых навыках, потому что любое усилие «подумать самому» заменяется промптом. Либо вырастет когорта людей с AI-mindset — умением быстро ставить задачу ИИ, критично проверять ответ и докручивать его до результата.
Я специально придержал эту историю, чтобы релиз улёгся и стало ясно: это крутизна или так себе. OpenAI выкатил GPT-5, зачистил зоопарк, включил роутер «думать/не думать», Pro-уровень с длинным мышлением и Mini для подхвата лимитов. Параллельно — агрессивная дистрибуция через Microsoft и подтверждённая интеграция в Apple Intelligence.
Все подробности и выводы в дайджесте.
Все подробности и выводы в дайджесте.
👍6🔥1
🧬 Любая болезнь начинается не с температуры и боли, а с хаоса внутри клетки. Белки там как рабочие на заводе: один чинит ДНК, другой гонит питательные вещества, третий держит форму клетки. Стоит хоть одному оказаться «не на своём месте» — и процесс рушится: от рака до редких генетических синдромов.
Сегодня, чтобы понять, где именно этот белок сидит, учёным нужны недели в лаборатории, сложные метки и мощные микроскопы. И всё это — только для тех белков, которые уже изучены.
Остальные тысячи — белые пятна.
MIT, Harvard и Broad Institute сделали PUPS — ИИ, который за секунды показывает, где в клетке находится практически любой белок, даже неизвестный. Один модуль «читает» его структуру, второй — «видит» тип и состояние клетки. Результат — точная карта с подсветкой, без экспериментов и долгого ожидания. PUPS работает даже с мутациями, которых нет в Human Protein Atlas, и стабильно обходит по точности все предыдущие методы.
И что?
Для медицины: можно заметить сбой в клетке задолго до первых симптомов.
Для фармы: быстрый поиск новых мишеней для лекарств.
Для науки: возможность исследовать неизведанные белки и клетки, на которые раньше уходили годы.
🚨 Нам 3.14здец — Если такую систему подключить к медицинским базам и генетическим тестам, можно создать полный «паспорт» вашего организма на годы вперёд. Врачам это даст шанс предотвратить болезни, но в чужих руках — инструмент для отбора, дискриминации и контроля на клеточном уровне.
Сегодня, чтобы понять, где именно этот белок сидит, учёным нужны недели в лаборатории, сложные метки и мощные микроскопы. И всё это — только для тех белков, которые уже изучены.
Остальные тысячи — белые пятна.
MIT, Harvard и Broad Institute сделали PUPS — ИИ, который за секунды показывает, где в клетке находится практически любой белок, даже неизвестный. Один модуль «читает» его структуру, второй — «видит» тип и состояние клетки. Результат — точная карта с подсветкой, без экспериментов и долгого ожидания. PUPS работает даже с мутациями, которых нет в Human Protein Atlas, и стабильно обходит по точности все предыдущие методы.
И что?
Для медицины: можно заметить сбой в клетке задолго до первых симптомов.
Для фармы: быстрый поиск новых мишеней для лекарств.
Для науки: возможность исследовать неизведанные белки и клетки, на которые раньше уходили годы.
🚨 Нам 3.14здец — Если такую систему подключить к медицинским базам и генетическим тестам, можно создать полный «паспорт» вашего организма на годы вперёд. Врачам это даст шанс предотвратить болезни, но в чужих руках — инструмент для отбора, дискриминации и контроля на клеточном уровне.
🔥19❤6👍2
🐦 Давайте немного оторвёмся от гигаватт, дата-центров и битв за мозги — и переместимся в лес. Или на коралловый риф. Закройте глаза и послушайте шум: ветер, вода, птицы, стрекот насекомых. А теперь представьте, что среди этого фона где-то прячется последний голос редкого вида. И от того, услышат его или нет, зависит, выживет он или исчезнет.
Есть люди, которые этим занимаются профессионально — биоакустики. Они часами прослушивают записи с датчиков, чтобы найти те самые сигналы. Проблема в том, что записи — миллионы часов, а специалистов — горстка. Времени на спасение видов — всё меньше.
Google DeepMind выложил в открытый доступ обновлённый Perch — ИИ, который может слушать всё и сразу. Он понимает вдвое больше данных, чем версия 2023 года, разбирается в звуках от леса до коралловых рифов, расслоёт звуковую кашу, посчитает особей, заметит новорождённых. И даже найдёт вид по одному образцу — благодаря векторному поиску и активному обучению. В реальных кейсах Perch уже помог найти elusive Plains Wanderer в Австралии и ускорил мониторинг гавайских медососов в 50 раз.
И что?
Для природоохранных проектов:неделя ручного прослушивания превращается в пару часов маркировки.
Для технологий: готовый open-source движок под экопродукты, ценность — в своих датасетах и сервисах.
Для науки: ранние сигналы позволяют действовать до того, как вид исчезнет.
🚨 Нам 3.14здец — тот же Perch, что спасает виды, может их и погубить. Открытый код и поиск по одному примеру — находка для браконьеров: редкие животные станут слишком легко обнаружимыми. Если не ввести протоколы сокрытия координат, инструмент спасения станет оружием охоты. А теперь представьте, что его научат искать не животных, а людей. Вытаскивать из городского шума конкретную речь, узнавать человека по кашлю, смеху или манере дышать. Идентификация по «акустическому отпечатку» без камер и лицевого распознавания. Пара микрофонов в нужном месте — и вас находят в толпе, даже если вы молчите. Это уже не про охоту в лесу — это про охоту на людей.
Есть люди, которые этим занимаются профессионально — биоакустики. Они часами прослушивают записи с датчиков, чтобы найти те самые сигналы. Проблема в том, что записи — миллионы часов, а специалистов — горстка. Времени на спасение видов — всё меньше.
Google DeepMind выложил в открытый доступ обновлённый Perch — ИИ, который может слушать всё и сразу. Он понимает вдвое больше данных, чем версия 2023 года, разбирается в звуках от леса до коралловых рифов, расслоёт звуковую кашу, посчитает особей, заметит новорождённых. И даже найдёт вид по одному образцу — благодаря векторному поиску и активному обучению. В реальных кейсах Perch уже помог найти elusive Plains Wanderer в Австралии и ускорил мониторинг гавайских медососов в 50 раз.
И что?
Для природоохранных проектов:неделя ручного прослушивания превращается в пару часов маркировки.
Для технологий: готовый open-source движок под экопродукты, ценность — в своих датасетах и сервисах.
Для науки: ранние сигналы позволяют действовать до того, как вид исчезнет.
🚨 Нам 3.14здец — тот же Perch, что спасает виды, может их и погубить. Открытый код и поиск по одному примеру — находка для браконьеров: редкие животные станут слишком легко обнаружимыми. Если не ввести протоколы сокрытия координат, инструмент спасения станет оружием охоты. А теперь представьте, что его научат искать не животных, а людей. Вытаскивать из городского шума конкретную речь, узнавать человека по кашлю, смеху или манере дышать. Идентификация по «акустическому отпечатку» без камер и лицевого распознавания. Пара микрофонов в нужном месте — и вас находят в толпе, даже если вы молчите. Это уже не про охоту в лесу — это про охоту на людей.
👍9❤2
Сэм Альтман сейчас одновременно тушит пожары и штампует миллиардеров. С одной стороны — релиз GPT-5 превратился в хаос: краши, низкие лимиты, «чартовое преступление» в прямом эфире и автосвитчер, который в первый же день сломался, делая модель тупее, чем она есть. Reddit полон постов «верните GPT-4o», пользователи скучают по её характеру и эмоциональности. Альтман пообещал: 4o вернётся для платных клиентов, лимиты удвоят, а апдейты будут прозрачнее.
Через несколько дней всё починили: GPT-5 снова быстрый, точный и работает без сбоев, а пользователи уже тестируют его на реальных задачах.
А с другой стороны — бывшие сотрудники OpenAI превращают своё знание индустрии в капитал.
Леопольд Ашенбреннер, работавший в команде супервыравнивания и уволенный в апреле 2024 года за «слив секретной информации», собрал $1,5 млрд под хедж-фонд Situational Awareness. Название — от его вирусного эссе, где он расписал прогнозы по AGI и темпам развития ИИ.
Впечатляет не только размер фонда, но и результат: +47% доходности за первую половину 2025 года, выше S&P 500. При этом у Ашенбреннера нет опыта в инвестициях — фонд делает ставки на компании из смежных с ИИ отраслей: полупроводники, инфраструктуру и энергетику. Ставка на узкие места, где спрос будет только расти.
А еще впечатляет что ему всего 23 года.
Раньше в громких раундах мелькали сооснователи, теперь в игру входят бывшие сотрудники. И похоже, что в ближайшие годы именно инсайдеры ИИ будут снимать сливки с инфраструктурного бума — пока традиционные фонды догоняют.
И что?
Бизнесу: если у вас есть глубинное понимание ИИ-рынка, его можно упаковать в инвестиционный продукт или консалтинговое направление.
Инвесторам: новые управляющие будут приходить не из банков, а из ИИ-лабораторий, с доступом к реальным технологическим инсайтам.
Рынку: капитал начнёт быстрее перетекать в «инфраструктуру для ИИ», разгоняя и рост, и волатильность.
🚨Нам 3.14здец
Предприниматели (7/10) - парню 23. Уровень FOMO - реально начнет косить людей. Вопрос на который не захочется отвечать перед зеркалом “А что ты сделал в свои 25-30-33-40 лет?”
Через несколько дней всё починили: GPT-5 снова быстрый, точный и работает без сбоев, а пользователи уже тестируют его на реальных задачах.
А с другой стороны — бывшие сотрудники OpenAI превращают своё знание индустрии в капитал.
Леопольд Ашенбреннер, работавший в команде супервыравнивания и уволенный в апреле 2024 года за «слив секретной информации», собрал $1,5 млрд под хедж-фонд Situational Awareness. Название — от его вирусного эссе, где он расписал прогнозы по AGI и темпам развития ИИ.
Впечатляет не только размер фонда, но и результат: +47% доходности за первую половину 2025 года, выше S&P 500. При этом у Ашенбреннера нет опыта в инвестициях — фонд делает ставки на компании из смежных с ИИ отраслей: полупроводники, инфраструктуру и энергетику. Ставка на узкие места, где спрос будет только расти.
А еще впечатляет что ему всего 23 года.
Раньше в громких раундах мелькали сооснователи, теперь в игру входят бывшие сотрудники. И похоже, что в ближайшие годы именно инсайдеры ИИ будут снимать сливки с инфраструктурного бума — пока традиционные фонды догоняют.
И что?
Бизнесу: если у вас есть глубинное понимание ИИ-рынка, его можно упаковать в инвестиционный продукт или консалтинговое направление.
Инвесторам: новые управляющие будут приходить не из банков, а из ИИ-лабораторий, с доступом к реальным технологическим инсайтам.
Рынку: капитал начнёт быстрее перетекать в «инфраструктуру для ИИ», разгоняя и рост, и волатильность.
🚨Нам 3.14здец
Предприниматели (7/10) - парню 23. Уровень FOMO - реально начнет косить людей. Вопрос на который не захочется отвечать перед зеркалом “А что ты сделал в свои 25-30-33-40 лет?”
❤14👍5