Попросите самую умную нейросеть сложить в столбик два случайных 30-значных числа, и она почти наверняка выдаст уверенный, но совершенно неправильный ответ
Потому что современные AML не умеют думать «пошагово» Они смотрят на весь пример целиком и пытаются статистически «угадать» ответ
Из-за этого в машинном обучении есть нерушимое правило: чем длиннее математический пример, тем глупее становится нейросеть
С каждой новой цифрой вероятность ошибки растёт
Корпорации пытаются решить это грубой силой, скармливая AML терабайты данных, но архитектурная проблема остаётся
Он пошёл совершенно другим, изящным путём
Вместо создания очередного неповоротливого монстра он собрал микроскопическую нейросеть всего на 3.851 параметр
Для понимания: в ChatGPT их сотни миллиардов, а программа автора «весит» буквально пару десятков килобайт — меньше, чем одна фотография на вашем телефоне!
Свою архитектуру он назвал «Бикамеральный разум» (двухкамерный мозг)
Суть гениально проста: сеть жёстко разделена на две части
Первая часть («Голос») только читает пример
А вторая («Автомат») работает как слепой рабочий
Она не пытается угадать ответ, а просто шаг за шагом складывает цифры, честно держа «единицу в уме», как обычный калькулятор
Обучив свою микросеть, автор обнаружил математическую аномалию, аналогов которой просто нет в мировой открытой науке
На коротких простых примерах (сложение двузначных чисел) сеть иногда ошибалась — её точность составила 97.8 %
Но когда ей дали складывать огромные 30-значные числа — её точность внезапно выросла до идеальных 100 %!
Задача усложнилась в 15 раз, а крошечная нейросеть поумнела и перестала ошибаться вообще
Этот парадокс автор назвал «Инверсией сложности»
То, что сделал автор, — это элегантное доказательство того, что для создания умного, абсолютно логичного AML нам не обязательно строить монструозные дата-центры, сжигающие электричество целых городов
Иногда правильная, математически выверенная архитектура размером с простой текстовый документ способна решать строгие алгоритмические задачи лучше, чем корпоративные гиганты за миллиарды долларов
Потому что современные AML не умеют думать «пошагово» Они смотрят на весь пример целиком и пытаются статистически «угадать» ответ
Из-за этого в машинном обучении есть нерушимое правило: чем длиннее математический пример, тем глупее становится нейросеть
С каждой новой цифрой вероятность ошибки растёт
Корпорации пытаются решить это грубой силой, скармливая AML терабайты данных, но архитектурная проблема остаётся
Он пошёл совершенно другим, изящным путём
Вместо создания очередного неповоротливого монстра он собрал микроскопическую нейросеть всего на 3.851 параметр
Для понимания: в ChatGPT их сотни миллиардов, а программа автора «весит» буквально пару десятков килобайт — меньше, чем одна фотография на вашем телефоне!
Свою архитектуру он назвал «Бикамеральный разум» (двухкамерный мозг)
Суть гениально проста: сеть жёстко разделена на две части
Первая часть («Голос») только читает пример
А вторая («Автомат») работает как слепой рабочий
Она не пытается угадать ответ, а просто шаг за шагом складывает цифры, честно держа «единицу в уме», как обычный калькулятор
Обучив свою микросеть, автор обнаружил математическую аномалию, аналогов которой просто нет в мировой открытой науке
На коротких простых примерах (сложение двузначных чисел) сеть иногда ошибалась — её точность составила 97.8 %
Но когда ей дали складывать огромные 30-значные числа — её точность внезапно выросла до идеальных 100 %!
Задача усложнилась в 15 раз, а крошечная нейросеть поумнела и перестала ошибаться вообще
Этот парадокс автор назвал «Инверсией сложности»
То, что сделал автор, — это элегантное доказательство того, что для создания умного, абсолютно логичного AML нам не обязательно строить монструозные дата-центры, сжигающие электричество целых городов
Иногда правильная, математически выверенная архитектура размером с простой текстовый документ способна решать строгие алгоритмические задачи лучше, чем корпоративные гиганты за миллиарды долларов
Telegram
Техножнец
Mixed Precision: Метод Поповича на FP16
Почти закончил ( ещё надо саму скорость поднять) полный бенчмарк mixed precision для Попович-ядра замены SGEMM
🎯 Точность
Чистый FP16 — не работает ( пока что, т.к. делал из аэропорта). ~5% ошибки, 16 бит мантиссы…
Почти закончил ( ещё надо саму скорость поднять) полный бенчмарк mixed precision для Попович-ядра замены SGEMM
🎯 Точность
Чистый FP16 — не работает ( пока что, т.к. делал из аэропорта). ~5% ошибки, 16 бит мантиссы…
Классическая точка зрения на математику, которая для многих представляет собой фундаментальную мотивацию философского исследования, состоит в том, что она представляет собой знание, имеющее характер необходимости и неизбежности
Такой характер математики, видимо, «не от мира сего», порождает определенную проблему согласования его с безусловным и признанным аспектом ее применимости к самому этому миру, которому она не принадлежит
Отмечается в этой связи удивительный успех ее приложений или ее непостижимая эффективность
Оба взгляда восходят к Платону, который рассуждал как о божественной натуре математики (кто ей не владеет, не может быть богом или героем, способным служить человечеству), так и о ее универсальном присутствии во всех искусствах и во всех видах интеллектуальной деятельности
Габриэле Лолли, "Философия математики"
Neural Thickets: Diverse Task Experts Are Dense Around Pretrained Weights
Yulu Gan, Phillip Isola
Paper: https://arxiv.org/abs/2603.12228
Code: https://github.com/sunrainyg/RandOpt
Review: https://arxiviq.substack.com/p/neural-thickets-diverse-task-experts
Авторы предложили полностью параллельный безградиентный алгоритм RandOpt для post-training
Он улучшает предобученные большие языковые модели (LLM) путём простого сэмплирования случайного гауссовского шума поверх весов, оценки этих зашумлённых моделей и ансамблирования предсказаний лучших из них
Работа ставит под сомнение устоявшееся мнение, что выравнивание (alignment) языковых моделей строго требует сложной последовательной оптимизации вроде обучения с подкреплением
Исследование раскрывает структурный феномен «нейронных дебрей» (neural thickets)
Оказывается, при достаточном масштабе предобученная модель работает как распределение, в непосредственной окрестности весов которого плотно упакованы разнообразные эксперты под конкретные задачи
Yulu Gan, Phillip Isola
Paper: https://arxiv.org/abs/2603.12228
Code: https://github.com/sunrainyg/RandOpt
Review: https://arxiviq.substack.com/p/neural-thickets-diverse-task-experts
Авторы предложили полностью параллельный безградиентный алгоритм RandOpt для post-training
Он улучшает предобученные большие языковые модели (LLM) путём простого сэмплирования случайного гауссовского шума поверх весов, оценки этих зашумлённых моделей и ансамблирования предсказаний лучших из них
Работа ставит под сомнение устоявшееся мнение, что выравнивание (alignment) языковых моделей строго требует сложной последовательной оптимизации вроде обучения с подкреплением
Исследование раскрывает структурный феномен «нейронных дебрей» (neural thickets)
Оказывается, при достаточном масштабе предобученная модель работает как распределение, в непосредственной окрестности весов которого плотно упакованы разнообразные эксперты под конкретные задачи
arXiv.org
Neural Thickets: Diverse Task Experts Are Dense Around Pretrained Weights
Pretraining produces a learned parameter vector that is typically treated as a starting point for further iterative adaptation. In this work, we instead view the outcome of pretraining as a...
Anthropic показал, как Opus 4.6 может несколько дней подряд автономно работать над сложными задачами почти без человека.
Исследователь из Anthropic взял задачу из области, в которой сам не является специалистом, и попросил Opus 4.6 написать сложный численный код для космологии, который обычно делают годами
Агент сам писал код, сам тестировал, находил ошибки, фиксировал в журнале, что сработало, а что нет
Главное открытие этого кейса не в том, что агент умный, а в том, что ему нужна правильная инфраструктура, как любому сотруднику нужны инструменты и регламенты
Ключевые элементы:
• файл с заданием, который агент держит в голове всё время работы и может сам обновлять
• журнал прогресса, где фиксируются не только успехи, но и тупики, чтобы не повторять их
• эталон, с которым агент сверяет результат на каждом шаге
Без эталона агент не знает, движется ли он вперёд
Ещё одна проблема, которую решили отдельно - агент склонен останавливаться раньше времени
Ранее такие инструменты использовали в режиме диалога, а теперь появился другой режим - ставишь задачу, настраиваешь процесс и агент работает сам, пока ты занимаешься другой хуйнёй
Исследователь из Anthropic взял задачу из области, в которой сам не является специалистом, и попросил Opus 4.6 написать сложный численный код для космологии, который обычно делают годами
Агент сам писал код, сам тестировал, находил ошибки, фиксировал в журнале, что сработало, а что нет
Главное открытие этого кейса не в том, что агент умный, а в том, что ему нужна правильная инфраструктура, как любому сотруднику нужны инструменты и регламенты
Ключевые элементы:
• файл с заданием, который агент держит в голове всё время работы и может сам обновлять
• журнал прогресса, где фиксируются не только успехи, но и тупики, чтобы не повторять их
• эталон, с которым агент сверяет результат на каждом шаге
Без эталона агент не знает, движется ли он вперёд
Ещё одна проблема, которую решили отдельно - агент склонен останавливаться раньше времени
Ранее такие инструменты использовали в режиме диалога, а теперь появился другой режим - ставишь задачу, настраиваешь процесс и агент работает сам, пока ты занимаешься другой хуйнёй
Anthropic
Long-running Claude for scientific computing
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
Команда из UBC и нескольких других институтов сделала следующий шаг после Darwin Gödel Machine (GDM)- системы, которая умела переписывать собственный код и становиться лучше в программировании
В программировании GDM работало отлично, потому что и решение задачи и процесс улучшения находятся в одной и той же области
Но как только выходишь за пределы кода, эта гармония ломается
Процесс самоулучшения оставался жёстко запрограммированным человеком и не эволюционировал сам
Гиперагенты решают эту проблему и делают систему самореферентной
Исследователи объединили агента-исполнителя и мета-агента в единую, полностью редактируемую программу
Система теперь не просто учится решать задачи лучше, она учится лучше учиться
Теперь улучшения происходят на двух уровнях одновременно:
1. Лучше решаю задачу
2. Лучше улучшаю то, как я улучшаюсь
Это снимает зависимость от доменной специфичности
Это одна из самых интересных свежих идей в направлении рекурсивного самоулучшения алгоритмов на 2026 год
GitHub
В программировании GDM работало отлично, потому что и решение задачи и процесс улучшения находятся в одной и той же области
Но как только выходишь за пределы кода, эта гармония ломается
Процесс самоулучшения оставался жёстко запрограммированным человеком и не эволюционировал сам
Гиперагенты решают эту проблему и делают систему самореферентной
Исследователи объединили агента-исполнителя и мета-агента в единую, полностью редактируемую программу
Система теперь не просто учится решать задачи лучше, она учится лучше учиться
Теперь улучшения происходят на двух уровнях одновременно:
1. Лучше решаю задачу
2. Лучше улучшаю то, как я улучшаюсь
Это снимает зависимость от доменной специфичности
Это одна из самых интересных свежих идей в направлении рекурсивного самоулучшения алгоритмов на 2026 год
GitHub
arXiv.org
Hyperagents
Self-improving AI systems aim to reduce reliance on human engineering by learning to improve their own learning and problem-solving processes. Existing approaches to self-improvement rely on...
AML
Video
Та самая модель, которую Дженсен Хуанг назвал AGI
https://huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-GGUF
https://huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-GGUF
huggingface.co
Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled-GGUF · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Anthropic выкатили auto mode: в нем Claude сам будет принимать решения о правах доступа и о том, какие действия одобрять, а какие нет
Это тот же skip permissions, только над ним еще работает классификатор, который проверяет каждый шаг на предмет потенциально деструктивных действий
Безопасные действия выполняются автоматически
Рискованные блокируются, и Claude применяет другой подход
Выглядит очень удобно, и доброе утро, у нас тут новая серия Черного Зеркала
Это тот же skip permissions, только над ним еще работает классификатор, который проверяет каждый шаг на предмет потенциально деструктивных действий
Безопасные действия выполняются автоматически
Рискованные блокируются, и Claude применяет другой подход
Выглядит очень удобно, и доброе утро, у нас тут новая серия Черного Зеркала
Интервью Forbes гендиректора MWS
«Первая — эра мультиагентных систем: агенты взаимодействуют друг с другом без участия человека
Так, агент на «Госуслугах» будет договариваться с агентом банка о рефинансировании, а тот — с агентом налоговой о вычете
Вторая — физический: роботы начнут действовать в реальном мире
В 2025 году установлено 553.000 промышленных роботов, рост в год составил 14 %, в 2026-м показатель может вырасти до 20 %
Такие роботы уже работают на заводах, в логистике и множестве других сфер
На днях объявили о запуске трека Physical AI в R&D, нацеленного на развитие технологий и программного обеспечения для создания и поддержки когнитивных навыков роботов на основе возможностей AML
Третья волна — новая форма интеллекта, превосходящей человеческий по скорости и масштабу
Маск считает, что к 2029–2030 годам AML будет умнее всех людей, вместе взятых
Уже сейчас модели решают задачи PhD-уровня быстрее ученых
Но задачи им ставят люди
AML-модели не заменят человека, а многократно усилят его», рассказал гендиректор MWS
Минцифры РФ планирует увеличить пропускную способность технических средств противодействия угрозам и финансирование соответствующего федерального проекта — на ₽14.900.000.000, чтобы анализировать весь трафик российского сегмента интернета с запасом, а также для расширения блокировок и с учетом появления новых методов их обхода
К 2030 году пропускная способность АСБИ вырастет
В 2026 году весь трафик рунета должен обрабатываться АСБИ
Ранее планировалось, что мощность системы к 2030 году составит 752.6 Тбит/сек., а теперь — 954 Тбит/сек.
(при нехватке мощности ТСПУ включается режим bypass и трафик идет напрямую — именно это произошло несколько дней назад, когда у россиян начали открываться все заблокированные сервисы)
К 2030 году пропускная способность АСБИ вырастет
В 2026 году весь трафик рунета должен обрабатываться АСБИ
Ранее планировалось, что мощность системы к 2030 году составит 752.6 Тбит/сек., а теперь — 954 Тбит/сек.
(при нехватке мощности ТСПУ включается режим bypass и трафик идет напрямую — именно это произошло несколько дней назад, когда у россиян начали открываться все заблокированные сервисы)
Законопроект «Антифрод 2.0» обяжет клиентов российских банков подтверждать переводы одновременно через СМС и национальный мессенджер
Его введение повлечет многомиллиардные расходы и удорожание услуг
Также банки указывают на технические и инфраструктурные риски зависимости всей системы от одного канала, при этом они считают, что норма существенно не повысит уровень защиты — ведь мошенничество сегодня чаще связано с социальной инженерией, а не с недостатком способов подтверждения операций
СМС-коды считаются уязвимым каналом, а безопасными являются push, TOTP и биометрия
Его введение повлечет многомиллиардные расходы и удорожание услуг
Также банки указывают на технические и инфраструктурные риски зависимости всей системы от одного канала, при этом они считают, что норма существенно не повысит уровень защиты — ведь мошенничество сегодня чаще связано с социальной инженерией, а не с недостатком способов подтверждения операций
СМС-коды считаются уязвимым каналом, а безопасными являются push, TOTP и биометрия
В современных моделях проблема памяти не только в числе параметров, но и в том, что модель постоянно таскает за собой огромное количество векторов – в KV-cache для длинного контекста и в индексах vector search для RAG
Именно они тормозят модель и делают инференс дорогим
Можно квантовать векторы (то есть уменьшать битность вычислений), но тогда модель теряет в качестве
Google придумали, как сжимать умнее: не просто округлить числа погрубее, а сделать это так, чтобы модель почти не замечала потери точности
Для практики это означает три вещи:
• длинный контекст становится дешевле
• инференс на том же железе ускоряется
•Vector search по огромным базам становится компактнее и быстрее
Технически метод TurboQuant состоит из двух слоев
PolarQuant сначала преобразует вектор через случайное вращение так, чтобы его можно было эффективно сжать с минимальными служебными затратами – именно за счет этого происходит основное сжатие без потери смысла
Затем QJL (Quantized Johnson-Lindenstrauss) добавляет сверхдешевую коррекцию ошибки, кодируя остаток всего одним дополнительным битом на компоненту
Это помогает еще точнее восстановить attention score с минимальной нагрузкой на вычисления
В экспериментах TurboQuant показывает лучший баланс между искажением скалярного произведения, recall и размером KV-cache – его удалось квантануть аж до 3 бит без дообучения и без компромисса по точности
Значения близки к теоретическим нижним границам, то есть это почти оптимум
Именно они тормозят модель и делают инференс дорогим
Можно квантовать векторы (то есть уменьшать битность вычислений), но тогда модель теряет в качестве
Google придумали, как сжимать умнее: не просто округлить числа погрубее, а сделать это так, чтобы модель почти не замечала потери точности
Для практики это означает три вещи:
• длинный контекст становится дешевле
• инференс на том же железе ускоряется
•Vector search по огромным базам становится компактнее и быстрее
Технически метод TurboQuant состоит из двух слоев
PolarQuant сначала преобразует вектор через случайное вращение так, чтобы его можно было эффективно сжать с минимальными служебными затратами – именно за счет этого происходит основное сжатие без потери смысла
Затем QJL (Quantized Johnson-Lindenstrauss) добавляет сверхдешевую коррекцию ошибки, кодируя остаток всего одним дополнительным битом на компоненту
Это помогает еще точнее восстановить attention score с минимальной нагрузкой на вычисления
В экспериментах TurboQuant показывает лучший баланс между искажением скалярного произведения, recall и размером KV-cache – его удалось квантануть аж до 3 бит без дообучения и без компромисса по точности
Значения близки к теоретическим нижним границам, то есть это почти оптимум
AML
Video
Миллион обезьян с пишущим машинками не напишут «Войну и Мир», а миллион ИИ ботов не создадут NVlDIA
В этом я согласен с Хуангом:
Вообще, AML пока и еще очень долго - это не отдельное «царство природы», и система человеческой техносферы
Она позволяет людям управляться с растущей сложностью, и очень многое «человеческое» становится «роботово»
Но самое главное в человеке - управление неопределенностью и движение в неизведанное, познание и предпринимательство - думаю, наше надолго, если не навсегда
Бороться и искать, найти и перепрятать!
В этом я согласен с Хуангом:
современные агенты уже умеют планировать проекты, создавать субагентов для разных задач, искать клиентов и заниматься продажами — делать всё необходимое для управления бизнесом
Однако они пока не способны принимать решения в условиях неопределённости
Вообще, AML пока и еще очень долго - это не отдельное «царство природы», и система человеческой техносферы
Она позволяет людям управляться с растущей сложностью, и очень многое «человеческое» становится «роботово»
Но самое главное в человеке - управление неопределенностью и движение в неизведанное, познание и предпринимательство - думаю, наше надолго, если не навсегда
Бороться и искать, найти и перепрятать!
vc.ru
Дженсен Хуанг: человечество уже достигло «общего ИИ», но построить компанию масштаба Nvidia такие системы не способны
Мнением он поделился на подкасте Лекса Фриндмана.
Цитата дня:
Алекс Карп, генеральный директор компании Palantir (Palantir Technologies), понятно, по какому поводу
https://news.bloomberglaw.com/artificial-intelligence/palantir-cto-sees-iran-war-as-first-major-conflict-driven-by-ai
people will reflect back and say this is the first large-scale combat operation that was really driven, enhanced and made substantially more productive with technology, with AI
Алекс Карп, генеральный директор компании Palantir (Palantir Technologies), понятно, по какому поводу
https://news.bloomberglaw.com/artificial-intelligence/palantir-cto-sees-iran-war-as-first-major-conflict-driven-by-ai
Bloomberglaw
Palantir CTO Sees Iran War as First Major AI-Driven Conflict (1)
Palantir Technologies Inc. Chief Technology Officer Shyam Sankar said that the war in Iran will likely be remembered as the first major conflict where artificial intelligence played a central role, representing a turning point in modern warfare.
Google объявили, что инвестируют сразу в 2 направления по квантам
Речь идёт о:
1. Сверхпроводящих кубитах - их основное и самое зрелое направление уже более 10 лет
Здесь у них чип Willow и предыдущие достижения
2. Нейтральных атомах - новая большая ставка
Они видят эти 2 платформы как дополняющие друг друга
В итоге это должно позволить быстрее дойти до крупномасштабного квантового компьютера, который сможет решать реальные практические задачи
Речь идёт о:
1. Сверхпроводящих кубитах - их основное и самое зрелое направление уже более 10 лет
Здесь у них чип Willow и предыдущие достижения
2. Нейтральных атомах - новая большая ставка
Они видят эти 2 платформы как дополняющие друг друга
В итоге это должно позволить быстрее дойти до крупномасштабного квантового компьютера, который сможет решать реальные практические задачи
Google
Building superconducting and neutral atom quantum computers
An overview of Google Quantum AI’s work on superconducting and neutral atom quantum computers.
Отрывок из новой статьи Теренса Тао
А вот отрывок из сопутствующего блога:
Такая вот новая реальность: ChatGPT доказывает утверждения для математика
Фактически, это соавторство
А вот отрывок из сопутствующего блога:
Один из аргументов для теоремы 1.4 был предложен мне ChatGPT, так как я ранее не знал о теореме двух констант Неванлинны
<>
Затем ChatGPT доказал первое из двух утверждений, лежащих в основе теоремы
Также для нахождения доказательства теоремы 1.4 через лемму 1.1 использовались AlphaEvolve и ChatGPT Pro
Такая вот новая реальность: ChatGPT доказывает утверждения для математика
Фактически, это соавторство
arXiv.org
Local Bernstein theory, and lower bounds for Lebesgue constants
Classical (or ``global'') Bernstein theory establishes sharp control on entire functions of exponential type that are bounded and real-valued on the real axis. We localize some of this theory to...
ARC-AGI-3 от Франсуа Шоле: люди проходят все мини-игры без правил с результатом 100 %, лучший AML-агент набирает 2.78 %, большинство — 0 %
Тест не объясняет правил: нужно самому понять цель, освоить управление и пройти уровень
Методологию критикуют: эталон — не средний человек, а один из лучших; эффективность считается по квадрату (прошёл за 100 ходов вместо 10 = 1 % балла); Агенту не сообщают, что управление нужно найти самостоятельно
Но именно так и должно работать измерение интеллекта
Тест не объясняет правил: нужно самому понять цель, освоить управление и пройти уровень
Методологию критикуют: эталон — не средний человек, а один из лучших; эффективность считается по квадрату (прошёл за 100 ходов вместо 10 = 1 % балла); Агенту не сообщают, что управление нужно найти самостоятельно
Но именно так и должно работать измерение интеллекта
Пентагон запускает новый проект по созданию AML-инструментов для ведения когнитивной войны
Управление стратегических возможностей Министерства обороны разрабатывает новый проект по совершенствованию возможностей когнитивной войны в вооруженных силах США
Цель нового проекта управления по обеспечению базовой осведомленности об информации (BIAO) - создать инструменты для изменения образа мышления определенных групп населения противника
В число технологических областей, на которых будет сосредоточен проект, входят системы обнаружения для идентификации материалов, созданных злоумышленниками, модели для воспроизведения мультимодальных эффектов в информационном пространстве, таких как текст, видео и аудио, а также среда моделирования, способная выполнять крупномасштабное моделирование населения и получать количественные показатели
Для эффективного ведения когнитивной войны Министерству обороны США необходимы специально разработанные модели искусственного интеллекта, «настроенные на конкретные задачи»
https://www.nationaldefensemagazine.org/articles/2026/3/26/strategic-capabilities-office-launching-cognitive-warfare-project
Управление стратегических возможностей Министерства обороны разрабатывает новый проект по совершенствованию возможностей когнитивной войны в вооруженных силах США
Цель нового проекта управления по обеспечению базовой осведомленности об информации (BIAO) - создать инструменты для изменения образа мышления определенных групп населения противника
В число технологических областей, на которых будет сосредоточен проект, входят системы обнаружения для идентификации материалов, созданных злоумышленниками, модели для воспроизведения мультимодальных эффектов в информационном пространстве, таких как текст, видео и аудио, а также среда моделирования, способная выполнять крупномасштабное моделирование населения и получать количественные показатели
Для эффективного ведения когнитивной войны Министерству обороны США необходимы специально разработанные модели искусственного интеллекта, «настроенные на конкретные задачи»
«Такие системы, как ChatGPT и Google Gemini, не являются «хорошим отражением того, как думают русские или китайцы
Поэтому нам нужно понять, о чем они думают, и создать модель, которая будет имитировать поведение нашего противника»
сказал Сэм Грей, главный технический директор и руководитель направления автономных систем и AML в Управлении стратегических возможностей МО США
https://www.nationaldefensemagazine.org/articles/2026/3/26/strategic-capabilities-office-launching-cognitive-warfare-project
Питер Штайнбергер, создатель OpenClaw написал сегодня в Х, что поговорил с Павлом Дуровым, который предложил помощь
Первым делом они хотят разобраться, почему включение bot streaming API иногда дублирует сообщения
А ещё они хотят сделать качественную поддержку Telegram в OpenClaw
Telegram хочет, чтобы агенты жили в мессенджере
Штайнбергер также сказал, что Microsoft Teams уже сделали улучшения под OpenClaw. Slack на подходе
Стратегия вырисовывается четко - платформы не ждут, пока агенты как-нибудь к ним приспособятся
Они сами идут навстречу, потому что агентский трафик - это следующая большая волна, и никто не хочет её пропустить
Прочитайте об этом в отчете где есть ниши для бизнеса в агентной экономике
Telegram здесь особенно интересен
Это платформа, где уже живут миллионы ботов, где аудитория технически грамотная и привыкла к автоматизации
Если агенты где-то и приживутся органично, то именно здесь
Дуров это понимает
Первым делом они хотят разобраться, почему включение bot streaming API иногда дублирует сообщения
А ещё они хотят сделать качественную поддержку Telegram в OpenClaw
Telegram хочет, чтобы агенты жили в мессенджере
Штайнбергер также сказал, что Microsoft Teams уже сделали улучшения под OpenClaw. Slack на подходе
Стратегия вырисовывается четко - платформы не ждут, пока агенты как-нибудь к ним приспособятся
Они сами идут навстречу, потому что агентский трафик - это следующая большая волна, и никто не хочет её пропустить
Прочитайте об этом в отчете где есть ниши для бизнеса в агентной экономике
Telegram здесь особенно интересен
Это платформа, где уже живут миллионы ботов, где аудитория технически грамотная и привыкла к автоматизации
Если агенты где-то и приживутся органично, то именно здесь
Дуров это понимает
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Конкуренция за агентный, а не людской трафик началась - новая экономика строится
Криптобиржа Kraken, которая единственная имеет доступ к платежной системе ФРС выпустила открытый CLI (о том, что это будет в топе, мы писали ещё здесь) - инструмент, созданный…
Криптобиржа Kraken, которая единственная имеет доступ к платежной системе ФРС выпустила открытый CLI (о том, что это будет в топе, мы писали ещё здесь) - инструмент, созданный…
FG201527.pdf
79.7 KB
«Some Theorems on Polygons with One-line Spectral Proof» (Gregoire Nicollier в Forum Geometricorum)
про простые доказательство обобщенной теоремы Наполеона и т.п. фактов
ниже — пара иллюстраций полезности метода
про простые доказательство обобщенной теоремы Наполеона и т.п. фактов
ниже — пара иллюстраций полезности метода
Google описывает NotebookLM как «ИИ-помощник в исследованиях»
Как начать им пользоваться? Для каждого нового проекта нужно создать блокнот, в который загружаются статьи, отчеты, заметки, видео
Теперь вы можете задавать вопросы к этим материалам, и все ответы будут генерироваться на их основе
Основное взаимодействие происходит через чат, как и в других AML-ассистентах
NotebookLM работает на языковых моделях Google — Gemini Pro и Gemini Pro Flash
В основе лежит RAG-архитектура (Retrieval-Augmented Generation) — технология, которая сначала извлекает релевантные фрагменты из ваших документов, а затем генерирует ответ на их основе
Подробнее о RAG в глоссарии
Дополнительные функции NotebookLM
• генерация подкастов по вашим материалам
• создание mind maps (интеллект-карт)
• формирование карточек для запоминания
• сохранение важных ответов в виде заметок, которые можно объединять
Поддерживаемые форматы
NotebookLM работает с PDF, Google Docs, презентациями, аудио-, видео- и текстовыми файлами, веб-ссылками (включая транскрипты видео с YouTube)
Кому это будет полезно
NotebookLM пригодится всем, кто работает с большими объёмами информации:
• исследователям и аспирантам
для анализа научной литературы
• преподавателям
для подготовки учебных материалов и курсов
• студентам
для работы с лекциями и подготовки к экзаменам
• журналистам
для обработки интервью, документов и справочных материалов
• информационным работникам
• аналитикам, консультантам, всем, кто ежедневно работает с документами
В гайде пошаговая инструкция для эффективной работы NotebookLM и разбираем задачу поиска информации в исследовательской литературе
Как начать им пользоваться? Для каждого нового проекта нужно создать блокнот, в который загружаются статьи, отчеты, заметки, видео
Теперь вы можете задавать вопросы к этим материалам, и все ответы будут генерироваться на их основе
Основное взаимодействие происходит через чат, как и в других AML-ассистентах
NotebookLM работает на языковых моделях Google — Gemini Pro и Gemini Pro Flash
В основе лежит RAG-архитектура (Retrieval-Augmented Generation) — технология, которая сначала извлекает релевантные фрагменты из ваших документов, а затем генерирует ответ на их основе
Подробнее о RAG в глоссарии
Дополнительные функции NotebookLM
• генерация подкастов по вашим материалам
• создание mind maps (интеллект-карт)
• формирование карточек для запоминания
• сохранение важных ответов в виде заметок, которые можно объединять
Поддерживаемые форматы
NotebookLM работает с PDF, Google Docs, презентациями, аудио-, видео- и текстовыми файлами, веб-ссылками (включая транскрипты видео с YouTube)
Кому это будет полезно
NotebookLM пригодится всем, кто работает с большими объёмами информации:
• исследователям и аспирантам
для анализа научной литературы
• преподавателям
для подготовки учебных материалов и курсов
• студентам
для работы с лекциями и подготовки к экзаменам
• журналистам
для обработки интервью, документов и справочных материалов
• информационным работникам
• аналитикам, консультантам, всем, кто ежедневно работает с документами
В гайде пошаговая инструкция для эффективной работы NotebookLM и разбираем задачу поиска информации в исследовательской литературе
Google NotebookLM
Google NotebookLM | ИИ-помощник в анализе данных и исследованиях
NotebookLM – это инструмент на основе ИИ, который может анализировать ваши источники, упрощать даже самые сложные темы и преобразовывать контент.