ИИ подсадил нас на «гипсовые яйца»: почему алгоритмы работают как сверхстимулы Тинбергена
Почему птицы бросали собственные яйца ради гипсовых подделок?
В 1950-х годах голландский биолог Нико Тинберген обнаружил нечто тревожное: птицы бросали собственные яйца ради гипсовых подделок, если те были крупнее и ярче настоящих. Мать-кулик игнорировала своих птенцов и садилась высиживать раскрашенный муляж. Тинберген назвал это «сверхнормальными стимулами» и получил за свои исследования Нобелевскую премию. Прошло 70 лет, и мы сами стали теми птицами. Только вместо гипсовых яиц у нас - алгоритмические ленты, генеративные модели и рекомендательные системы.
Идея простая, но бьет точно: каждое уведомление, каждая курируемая лента, каждый отфильтрованный снимок - это реальность с выкрученной на максимум насыщенностью. Наша нервная система просто не рассчитана на такой уровень стимуляции. И мозговые центры вознаграждения реагируют на цифровые раздражители сильнее, чем на живой сенсорный опыт.
Рекомендательные алгоритмы - это, по сути, машины по производству сверхстимулов. Они обучены на метриках вовлеченности: кликах, времени просмотра, паттернах скроллинга. Их задача не показать тебе что-то полезное, а удержать внимание любой ценой. TikTok, YouTube Shorts, лента X - все это оптимизировано командами нейросайентистов и ML-инженеров, чтобы триггерить дофаминовый отклик сильнее, чем реальный мир.
С генеративными моделями ситуация еще интереснее. GPT, Claude, Midjourney - они генерируют контент, который по определению «ярче» среднего. Модель обучена на лучших текстах и изображениях человечества, и ее выход - это всегда чуть более отполированная, чуть более идеальная версия реальности. Когда ты привыкаешь читать тексты, написанные LLM, обычная человеческая речь начинает казаться корявой и скучной. Когда насматриваешься на картинки из Midjourney, реальные фотографии теряют свою привлекательность. Мы буквально строим генераторы сверхстимулов на промышленном уровне.
Тинберген описывал, как система распознавания паттернов у животных ломается при столкновении со сверхстимулом. У нас происходит то же самое, только масштаб другой. Наши предки развивали распознавание паттернов, наблюдая за облаками, читая следы животных, замечая сезонные изменения. Сейчас та же нейронная механика работает на мемы, тренды и алгоритмические рекомендации. Та самая система, которая когда-то помогала ориентироваться в реальности, теперь помогает ориентироваться в фидах.
Есть и практическая сторона. Когда ты ешь, уставившись в экран, мозг учится связывать питание с пассивным потреблением, а не с осознанным опытом. Когда гуляешь с подкастом в ушах, пространственная навигация начинает опираться на чужие мысли вместо собственных наблюдений. Это не метафора - это нейропластичность в действии. Мы в буквальном смысле переучиваем собственные нейронные контуры.
Когда исследователи убирали гипсовые яйца, птицы тут же возвращались к настоящим. Инстинкт никуда не делся, просто был перегружен искусственным сигналом. Физический мир по-прежнему здесь. Потрогай что-нибудь с текстурой. Поешь без экрана перед глазами. Пройдись без наушников. Твоя настоящая жизнь ждет под тем гипсовым яйцом, на котором ты сидишь.
Почему птицы бросали собственные яйца ради гипсовых подделок?
В 1950-х годах голландский биолог Нико Тинберген обнаружил нечто тревожное: птицы бросали собственные яйца ради гипсовых подделок, если те были крупнее и ярче настоящих. Мать-кулик игнорировала своих птенцов и садилась высиживать раскрашенный муляж. Тинберген назвал это «сверхнормальными стимулами» и получил за свои исследования Нобелевскую премию. Прошло 70 лет, и мы сами стали теми птицами. Только вместо гипсовых яиц у нас - алгоритмические ленты, генеративные модели и рекомендательные системы.
Идея простая, но бьет точно: каждое уведомление, каждая курируемая лента, каждый отфильтрованный снимок - это реальность с выкрученной на максимум насыщенностью. Наша нервная система просто не рассчитана на такой уровень стимуляции. И мозговые центры вознаграждения реагируют на цифровые раздражители сильнее, чем на живой сенсорный опыт.
Рекомендательные алгоритмы - это, по сути, машины по производству сверхстимулов. Они обучены на метриках вовлеченности: кликах, времени просмотра, паттернах скроллинга. Их задача не показать тебе что-то полезное, а удержать внимание любой ценой. TikTok, YouTube Shorts, лента X - все это оптимизировано командами нейросайентистов и ML-инженеров, чтобы триггерить дофаминовый отклик сильнее, чем реальный мир.
С генеративными моделями ситуация еще интереснее. GPT, Claude, Midjourney - они генерируют контент, который по определению «ярче» среднего. Модель обучена на лучших текстах и изображениях человечества, и ее выход - это всегда чуть более отполированная, чуть более идеальная версия реальности. Когда ты привыкаешь читать тексты, написанные LLM, обычная человеческая речь начинает казаться корявой и скучной. Когда насматриваешься на картинки из Midjourney, реальные фотографии теряют свою привлекательность. Мы буквально строим генераторы сверхстимулов на промышленном уровне.
Тинберген описывал, как система распознавания паттернов у животных ломается при столкновении со сверхстимулом. У нас происходит то же самое, только масштаб другой. Наши предки развивали распознавание паттернов, наблюдая за облаками, читая следы животных, замечая сезонные изменения. Сейчас та же нейронная механика работает на мемы, тренды и алгоритмические рекомендации. Та самая система, которая когда-то помогала ориентироваться в реальности, теперь помогает ориентироваться в фидах.
Есть и практическая сторона. Когда ты ешь, уставившись в экран, мозг учится связывать питание с пассивным потреблением, а не с осознанным опытом. Когда гуляешь с подкастом в ушах, пространственная навигация начинает опираться на чужие мысли вместо собственных наблюдений. Это не метафора - это нейропластичность в действии. Мы в буквальном смысле переучиваем собственные нейронные контуры.
Когда исследователи убирали гипсовые яйца, птицы тут же возвращались к настоящим. Инстинкт никуда не делся, просто был перегружен искусственным сигналом. Физический мир по-прежнему здесь. Потрогай что-нибудь с текстурой. Поешь без экрана перед глазами. Пройдись без наушников. Твоя настоящая жизнь ждет под тем гипсовым яйцом, на котором ты сидишь.
🔥21❤8👍8🤔4💩2👎1🥴1
Media is too big
VIEW IN TELEGRAM
NVIDIA Ising: ИИ-модели, которые приближают эру настоящих квантовых компьютеров
14 апреля NVIDIA представила семейство открытых ИИ-моделей NVIDIA Ising. Это первые в мире open source модели, заточенные под ускорение разработки квантовых компьютеров. Название отсылает к модели Изинга из статистической физики, которая когда-то радикально упростила понимание сложных физических систем.
Зачем вообще ИИ в квантовых вычислениях?
Две главные головные боли квантовой индустрии - калибровка процессоров и коррекция ошибок. Без решения этих задач квантовые компьютеры остаются лабораторными игрушками. NVIDIA считает, что именно ИИ станет тем самым "control plane", который превратит хрупкие кубиты в надежные масштабируемые системы. Дженсен Хуанг прямо назвал Ising "операционной системой квантовых машин".
Что внутри Ising?
Семейство состоит из двух основных компонентов. Первый - Ising Calibration, vision-language модель, которая умеет интерпретировать измерения с квантовых процессоров и автоматизировать непрерывную калибровку. То, что раньше занимало дни, теперь делается за часы. Второй - Ising Decoding, две вариации 3D-сверточной нейросети для real-time декодирования при коррекции квантовых ошибок. По бенчмаркам модели работают в 2.5 раза быстрее и в 3 раза точнее, чем pyMatching (текущий open source стандарт).
Модели уже используются серьезными игроками: Fermi National Accelerator Laboratory, Harvard, IQM Quantum Computers, Lawrence Berkeley National Laboratory, Infleqtion и другими. Среди тех, кто внедряет Ising Decoding - Cornell University, Sandia National Laboratories, University of Chicago, UC Santa Barbara и Yonsei University.
NVIDIA выкладывает не только модели, но и cookbook с воркфлоу для квантовых вычислений, тренировочные данные и интеграцию с NVIDIA NIM микросервисами. Это позволяет дотюнить модели под конкретное железо с минимальным сетапом. Плюс все можно запускать локально, что критично для тех, кто работает с проприетарными данными.
В экосистеме NVIDIA Ising дополняет платформу CUDA-Q для гибридных квантово-классических вычислений и аппаратный интерконнект NVQLink для связки QPU-GPU в реальном времени. Ising также пополняет портфель открытых моделей NVIDIA наряду с Nemotron (агентные системы), Cosmos (physical AI), Alpamayo (автономное вождение), Isaac GR00T (робототехника) и BioNeMo (биомедицина).
По оценкам аналитиков Resonance, рынок квантовых вычислений превысит $11 млрд к 2030 году, но только если удастся решить проблемы коррекции ошибок и масштабируемости. Ising - это попытка NVIDIA закрыть этот гэп средствами ИИ.
Модели и данные доступны на GitHub, Hugging Face и build.nvidia.com.
Ссылки:
Пост в X: https://x.com/nvidianewsroom/status/2044058999029473407
Пресс-релиз NVIDIA: https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
NVIDIA Ising: https://www.nvidia.com/en-us/solutions/quantum-computing/ising/
NVIDIA CUDA-Q: https://developer.nvidia.com/cuda-q
NVIDIA NVQLink: https://www.nvidia.com/en-us/solutions/quantum-computing/nvqlink/
NVIDIA NIM: https://www.nvidia.com/en-us/ai-data-science/products/nim-microservices/
NVIDIA Quantum Day: https://www.nvidia.com/en-us/events/quantum-day/
14 апреля NVIDIA представила семейство открытых ИИ-моделей NVIDIA Ising. Это первые в мире open source модели, заточенные под ускорение разработки квантовых компьютеров. Название отсылает к модели Изинга из статистической физики, которая когда-то радикально упростила понимание сложных физических систем.
Зачем вообще ИИ в квантовых вычислениях?
Две главные головные боли квантовой индустрии - калибровка процессоров и коррекция ошибок. Без решения этих задач квантовые компьютеры остаются лабораторными игрушками. NVIDIA считает, что именно ИИ станет тем самым "control plane", который превратит хрупкие кубиты в надежные масштабируемые системы. Дженсен Хуанг прямо назвал Ising "операционной системой квантовых машин".
Что внутри Ising?
Семейство состоит из двух основных компонентов. Первый - Ising Calibration, vision-language модель, которая умеет интерпретировать измерения с квантовых процессоров и автоматизировать непрерывную калибровку. То, что раньше занимало дни, теперь делается за часы. Второй - Ising Decoding, две вариации 3D-сверточной нейросети для real-time декодирования при коррекции квантовых ошибок. По бенчмаркам модели работают в 2.5 раза быстрее и в 3 раза точнее, чем pyMatching (текущий open source стандарт).
Модели уже используются серьезными игроками: Fermi National Accelerator Laboratory, Harvard, IQM Quantum Computers, Lawrence Berkeley National Laboratory, Infleqtion и другими. Среди тех, кто внедряет Ising Decoding - Cornell University, Sandia National Laboratories, University of Chicago, UC Santa Barbara и Yonsei University.
NVIDIA выкладывает не только модели, но и cookbook с воркфлоу для квантовых вычислений, тренировочные данные и интеграцию с NVIDIA NIM микросервисами. Это позволяет дотюнить модели под конкретное железо с минимальным сетапом. Плюс все можно запускать локально, что критично для тех, кто работает с проприетарными данными.
В экосистеме NVIDIA Ising дополняет платформу CUDA-Q для гибридных квантово-классических вычислений и аппаратный интерконнект NVQLink для связки QPU-GPU в реальном времени. Ising также пополняет портфель открытых моделей NVIDIA наряду с Nemotron (агентные системы), Cosmos (physical AI), Alpamayo (автономное вождение), Isaac GR00T (робототехника) и BioNeMo (биомедицина).
По оценкам аналитиков Resonance, рынок квантовых вычислений превысит $11 млрд к 2030 году, но только если удастся решить проблемы коррекции ошибок и масштабируемости. Ising - это попытка NVIDIA закрыть этот гэп средствами ИИ.
Модели и данные доступны на GitHub, Hugging Face и build.nvidia.com.
Ссылки:
Пост в X: https://x.com/nvidianewsroom/status/2044058999029473407
Пресс-релиз NVIDIA: https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
NVIDIA Ising: https://www.nvidia.com/en-us/solutions/quantum-computing/ising/
NVIDIA CUDA-Q: https://developer.nvidia.com/cuda-q
NVIDIA NVQLink: https://www.nvidia.com/en-us/solutions/quantum-computing/nvqlink/
NVIDIA NIM: https://www.nvidia.com/en-us/ai-data-science/products/nim-microservices/
NVIDIA Quantum Day: https://www.nvidia.com/en-us/events/quantum-day/
❤5🔥5👍2
Невероятное открытие: Математики тихо провернули безумную вещь: нашли «универсальную операцию» для всей математики
Польский физик показал, что любую функцию вообще можно собрать из одного примитива. Да, буквально всё: exp, π, i, sin, cos, сложение, умножение и дальше по списку. Раньше нужно было много разных операций, а теперь теоретически всё можно выразить через одну формулу.
Если знаком с NAND, ты уже понял вайб. В булевой логике это одна операция, через которую выражается вообще всё. Из-за этого реальные процессоры по сути собираются из NAND-гейтов.
Так вот здесь сделали то же самое, только для непрерывной математики.
Вместо кучи операций вводится одна:
eml(x, y) = e^x - ln(y)
И дальше начинается магия. Любую функцию можно развернуть в композицию таких выражений. Иногда это выглядит как монстр из вложенных вызовов, но формально всё сводится к одному строительному блоку.
Например, даже логарифм можно собрать через такие вложенности. Для более сложных вещей выражения становятся длинными, но они существуют и это доказано.
И вот тут начинается самое интересное.
Обычно symbolic regression это ад. Нужно перебирать формулы из кучи операций: плюс, умножение, синусы, логарифмы. Огромное дискретное пространство, почти не оптимизируется.
С EML всё упрощается. У тебя один тип узла. Всё пространство формул становится однородным деревом.
А значит можно делать то, что раньше было болью: оптимизировать формулы градиентами, как нейросети.
То есть модель не просто фитит данные. Она может реально схлопнуться в точную формулу.
Если это масштабируется, это прям мост между ML и классической наукой. Не просто предсказания, а извлечение законов из данных.
www.alphaxiv.org/abs/2603.21852v2
Польский физик показал, что любую функцию вообще можно собрать из одного примитива. Да, буквально всё: exp, π, i, sin, cos, сложение, умножение и дальше по списку. Раньше нужно было много разных операций, а теперь теоретически всё можно выразить через одну формулу.
Если знаком с NAND, ты уже понял вайб. В булевой логике это одна операция, через которую выражается вообще всё. Из-за этого реальные процессоры по сути собираются из NAND-гейтов.
Так вот здесь сделали то же самое, только для непрерывной математики.
Вместо кучи операций вводится одна:
eml(x, y) = e^x - ln(y)
И дальше начинается магия. Любую функцию можно развернуть в композицию таких выражений. Иногда это выглядит как монстр из вложенных вызовов, но формально всё сводится к одному строительному блоку.
Например, даже логарифм можно собрать через такие вложенности. Для более сложных вещей выражения становятся длинными, но они существуют и это доказано.
И вот тут начинается самое интересное.
Обычно symbolic regression это ад. Нужно перебирать формулы из кучи операций: плюс, умножение, синусы, логарифмы. Огромное дискретное пространство, почти не оптимизируется.
С EML всё упрощается. У тебя один тип узла. Всё пространство формул становится однородным деревом.
А значит можно делать то, что раньше было болью: оптимизировать формулы градиентами, как нейросети.
То есть модель не просто фитит данные. Она может реально схлопнуться в точную формулу.
Если это масштабируется, это прям мост между ML и классической наукой. Не просто предсказания, а извлечение законов из данных.
www.alphaxiv.org/abs/2603.21852v2
🔥28💩9🤔7❤3👍2
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!
Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?
Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.
И 90% таких систем ломаются между ноутбуком и продом.
AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.
На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.
👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?
Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.
И 90% таких систем ломаются между ноутбуком и продом.
AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.
На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.
👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
❤3👍2🔥1
Пенсионер с калькулятором обчистил лотерею на 26 миллионов долларов и остался чист перед законом
В 2003 году Джерри Селби продал магазинчик, в котором проторговал семнадцать лет, и готовился к спокойной пенсии. Однажды утром он заглянул в свой бывший магазин и увидел брошюру с рекламой новой лотереи штата Мичиган под названием Winfall. Трёх минут чтения хватило, чтобы шестидесятичетырёхлетний старик с почти забытым математическим дипломом понял: лотерею можно легально обыграть.
Вся фишка была в механизме rolldown. Когда джекпот достигал пяти миллионов и никто не угадывал шесть цифр, призовой фонд не копился дальше, а «скатывался» на тех, кто угадал пять, четыре или три числа. И главное, о таких розыгрышах объявляли заранее.
Джерри достал ручку прямо на парковке и посчитал. Если вложить 1100 долларов в билеты во время rolldown, теория вероятностей обещала одно совпадение на четыре цифры примерно за тысячу долларов и около восемнадцати совпадений на три цифры ещё на девятьсот. Итого 1900 на вложенную 1100. Чистая прибыль 800 долларов, причём почти гарантированная.
Он решил проверить. Купил билетов на 3600 и вернул 6300. Поставил 8000 и почти удвоил сумму. Жене сказать не успел, и только у костра признался супруге Мардж в своих экспериментах. Та не упала в обморок. Она посмотрела на цифры и сказала, что всё логично.
Дальше начался настоящий семейный бизнес. Они создали компанию GS Investment Strategies и продали паи по 500 долларов друзьям и родственникам. К весне 2005 года в клубе было 25 человек, включая троих полицейских из дорожной полиции, директора завода и вице-президента банка. За двенадцать розыгрышей Winfall в Мичигане клуб заработал больше 2,6 миллиона долларов. Когда штат прикрыл игру, кто-то из инвесторов написал Джерри: в Массачусетсе есть почти идентичная лотерея Cash Winfall. Десяти минут хватило, чтобы убедиться, математика работает точно так же.
С этого момента пенсионеры начали регулярно преодолевать 1400 километров до Массачусетса. Каждый заезд они тратили больше 600 тысяч долларов на билеты по два бакса, скупали сотни тысяч штук и вручную сортировали их в номере мотеля, перебирая триста тысяч бумажек за раз.
Оказалось, они не одни. Студенты MIT нашли ту же лазейку на занятии по математике, сколотили собственную фирму и тоже скупали билеты пачками. За семь лет они подняли минимум 3,5 миллиона. Обе команды годами не подозревали друг о друге, хотя возвращались к одинаковой доходности почти до копейки.
В 2011 году Boston Globe получил наводку об аномально крупных покупках билетов в определённых магазинах. Посыпались подозрения в коррупции, мафии и подкупе. Началось расследование генерального инспектора. Допросили десятки людей, запросили документы, подняли финансовые отчёты. И не нашли ничего. Ни инсайдеров, ни взломов, ни взяток. Только арифметика.
Супруги Селби в сумме прокрутили через лотерею больше 26 миллионов. Чистая прибыль до налогов составила около 7,75 миллиона. В сарае у них хранилось 60 пластиковых ящиков с проигрышными билетами на 18 миллионов, на случай налоговой проверки.
Они не купили спорткар. Не поставили джакузи. Не поехали на курорт. Деньги пошли на ремонт дома и на колледж для внуков. Мардж продолжала печь свои фирменные пироги с ирисками.
Лотерея создана, чтобы забирать деньги у тех, кто не умеет считать. Джерри Селби считать умел.
В 2003 году Джерри Селби продал магазинчик, в котором проторговал семнадцать лет, и готовился к спокойной пенсии. Однажды утром он заглянул в свой бывший магазин и увидел брошюру с рекламой новой лотереи штата Мичиган под названием Winfall. Трёх минут чтения хватило, чтобы шестидесятичетырёхлетний старик с почти забытым математическим дипломом понял: лотерею можно легально обыграть.
Вся фишка была в механизме rolldown. Когда джекпот достигал пяти миллионов и никто не угадывал шесть цифр, призовой фонд не копился дальше, а «скатывался» на тех, кто угадал пять, четыре или три числа. И главное, о таких розыгрышах объявляли заранее.
Джерри достал ручку прямо на парковке и посчитал. Если вложить 1100 долларов в билеты во время rolldown, теория вероятностей обещала одно совпадение на четыре цифры примерно за тысячу долларов и около восемнадцати совпадений на три цифры ещё на девятьсот. Итого 1900 на вложенную 1100. Чистая прибыль 800 долларов, причём почти гарантированная.
Он решил проверить. Купил билетов на 3600 и вернул 6300. Поставил 8000 и почти удвоил сумму. Жене сказать не успел, и только у костра признался супруге Мардж в своих экспериментах. Та не упала в обморок. Она посмотрела на цифры и сказала, что всё логично.
Дальше начался настоящий семейный бизнес. Они создали компанию GS Investment Strategies и продали паи по 500 долларов друзьям и родственникам. К весне 2005 года в клубе было 25 человек, включая троих полицейских из дорожной полиции, директора завода и вице-президента банка. За двенадцать розыгрышей Winfall в Мичигане клуб заработал больше 2,6 миллиона долларов. Когда штат прикрыл игру, кто-то из инвесторов написал Джерри: в Массачусетсе есть почти идентичная лотерея Cash Winfall. Десяти минут хватило, чтобы убедиться, математика работает точно так же.
С этого момента пенсионеры начали регулярно преодолевать 1400 километров до Массачусетса. Каждый заезд они тратили больше 600 тысяч долларов на билеты по два бакса, скупали сотни тысяч штук и вручную сортировали их в номере мотеля, перебирая триста тысяч бумажек за раз.
Оказалось, они не одни. Студенты MIT нашли ту же лазейку на занятии по математике, сколотили собственную фирму и тоже скупали билеты пачками. За семь лет они подняли минимум 3,5 миллиона. Обе команды годами не подозревали друг о друге, хотя возвращались к одинаковой доходности почти до копейки.
В 2011 году Boston Globe получил наводку об аномально крупных покупках билетов в определённых магазинах. Посыпались подозрения в коррупции, мафии и подкупе. Началось расследование генерального инспектора. Допросили десятки людей, запросили документы, подняли финансовые отчёты. И не нашли ничего. Ни инсайдеров, ни взломов, ни взяток. Только арифметика.
Супруги Селби в сумме прокрутили через лотерею больше 26 миллионов. Чистая прибыль до налогов составила около 7,75 миллиона. В сарае у них хранилось 60 пластиковых ящиков с проигрышными билетами на 18 миллионов, на случай налоговой проверки.
Они не купили спорткар. Не поставили джакузи. Не поехали на курорт. Деньги пошли на ремонт дома и на колледж для внуков. Мардж продолжала печь свои фирменные пироги с ирисками.
Лотерея создана, чтобы забирать деньги у тех, кто не умеет считать. Джерри Селби считать умел.
🔥44❤17👍12❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Аппроксимация функции sin(x)
❤28🔥10👍8🤝1
Да ещё и с одного захода.
Время, которое ChatGPT потратил на решение вопроса, - 1 час 20 минут.
Самое интересное, что ИИ решил проблему, применив формулу, которую все знают, но никто не использовал для этой задачи.
Вот переписка с ChatGPT;
https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
А вот сама проблема;
Please open Telegram to view this post
VIEW IN TELEGRAM
❤25👍13🔥6👎3
Курт Гёдель сделал для математики XX века то, что Эйнштейн сделал для физики. Его теоремы о неполноте показали неприятную вещь: в любой достаточно мощной логической системе есть истинные утверждения, которые невозможно доказать внутри самой этой системы.
Проще говоря, не существует идеального набора правил, из которого можно вывести абсолютно всю истину. Любая система, способная описывать арифметику, либо неполна, либо рано или поздно приходит к противоречию.
Гёдель видел такие трещины везде. В 1948 году, перед получением гражданства США, он внимательно изучил Конституцию и решил, что нашёл в ней логическую дыру, которая теоретически могла бы привести к диктатуре. На церемонию он пришёл с Эйнштейном и Моргенштерном. Когда судья сказал, что в США диктатура невозможна из-за Конституции, Гёдель уже начал возражать, но друзья быстро перевели разговор.
Этот эпизод идеально показывает его мышление: там, где другие видели обычную процедуру, он видел формальную систему и потенциальную уязвимость.
Позже идеи Гёделя повлияли на Алана Тьюринга и теорию вычислимости. Через неё они дошли до современного AI: языковых моделей, систем автоматического доказательства, формальной верификации и AI safety.
Главный вывод до сих пор неудобен: никакой достаточно мощный интеллект не может быть одновременно полностью непротиворечивым и способным доказать про себя все истинные утверждения. У любой системы есть граница.
Поэтому разговоры о галлюцинациях LLM, проверяемом AI и невозможности создать идеальную самопроверяющуюся машину неизбежно возвращаются к Гёделю. Он не видел нейросетей, но заранее показал предел, в который они тоже упираются.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26❤9👍9😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Physics Simulations
Набор симуляций физических явлений, написанных на Python с использованием Pygame. Эти симуляции создавались в образовательных целях и охватывают различные концепции, включая:
- Законы Ньютона
- Гравитацию
- Силы и трение
- Простую гармоническую модуляцию
- И многое другое
Для запуска симуляций необходимо установить зависимости:
Затем можно запустить нужный скрипт напрямую, например:
Каждый файл представляет отдельную симуляцию, сопровождаемую визуализацией с помощью Pygame.
https://github.com/gemsjohn/physics-sims
Набор симуляций физических явлений, написанных на Python с использованием Pygame. Эти симуляции создавались в образовательных целях и охватывают различные концепции, включая:
- Законы Ньютона
- Гравитацию
- Силы и трение
- Простую гармоническую модуляцию
- И многое другое
Для запуска симуляций необходимо установить зависимости:
pip install -r requirements.txt
Затем можно запустить нужный скрипт напрямую, например:
python gravity_sim.py
Каждый файл представляет отдельную симуляцию, сопровождаемую визуализацией с помощью Pygame.
https://github.com/gemsjohn/physics-sims
🔥13👍6❤5
⚡️ Математическая ловушка, которую не могут закрыть почти 90 лет
Есть задача, которая выглядит как упражнение для школьника, но до сих пор ломает математиков.
Она называется гипотеза Коллатца.
Правило смешное простое: берете любое положительное число. Если оно нечетное - умножаете на 3 и прибавляете 1. Если четное - делите на 2. Потом повторяете снова и снова.
Например, начнем с 7:
7 → 22 → 11 → 34 → 17 → 52 → 26 → 13 → 40 → 20 → 10 → 5 → 16 → 8 → 4 → 2 → 1
И вот в чем безумие: какое бы число вы ни взяли, по гипотезе вы все равно рано или поздно придете к 1.
Звучит почти очевидно. Но проблема в том, что никто не смог доказать это для всех чисел.
Можно проверить миллиарды примеров. Можно написать код. Можно увидеть, что все работает. Но в математике этого мало. Нужно доказательство, что не существует ни одного числа, которое уйдет в бесконечность или попадет в другой цикл.
Именно поэтому гипотеза Коллатца так бесит математиков: правило занимает две строки, а доказательство не нашли до сих пор.
Иногда самая страшная задача выглядит не как монстр, а как детская игра с числами.
Компьютеры уже проверили гипотезу для гигантского количества чисел, но это все равно не доказательство.
В математике нельзя сказать: "Мы проверили очень много, значит это правда». Нужно доказать, что исключений нет вообще."
Есть задача, которая выглядит как упражнение для школьника, но до сих пор ломает математиков.
Она называется гипотеза Коллатца.
Правило смешное простое: берете любое положительное число. Если оно нечетное - умножаете на 3 и прибавляете 1. Если четное - делите на 2. Потом повторяете снова и снова.
Например, начнем с 7:
7 → 22 → 11 → 34 → 17 → 52 → 26 → 13 → 40 → 20 → 10 → 5 → 16 → 8 → 4 → 2 → 1
И вот в чем безумие: какое бы число вы ни взяли, по гипотезе вы все равно рано или поздно придете к 1.
Звучит почти очевидно. Но проблема в том, что никто не смог доказать это для всех чисел.
Можно проверить миллиарды примеров. Можно написать код. Можно увидеть, что все работает. Но в математике этого мало. Нужно доказательство, что не существует ни одного числа, которое уйдет в бесконечность или попадет в другой цикл.
Именно поэтому гипотеза Коллатца так бесит математиков: правило занимает две строки, а доказательство не нашли до сих пор.
Иногда самая страшная задача выглядит не как монстр, а как детская игра с числами.
Компьютеры уже проверили гипотезу для гигантского количества чисел, но это все равно не доказательство.
В математике нельзя сказать: "Мы проверили очень много, значит это правда». Нужно доказать, что исключений нет вообще."
👍23🔥12❤9
GPT-5.4 Pro взломала 60-летнюю задачу Эрдеша. Теперь этот метод решает другие проблемы
GPT-5.4 Pro взломала 60-летнюю задачу Эрдеша. Теперь этот метод решает другие проблемы
GPT-5.4 Pro решила задачу Эрдеша - и это оказалось не разовым трюком
В середине апреля появилась громкая история: GPT-5.4 Pro под руководством математика Джареда Лихтмана за полтора часа нашла доказательство задачи Эрдеша №1196, открытой с 1968 года.
Но самое интересное началось после.
Лихтман анонсировал новую статью, где показал: это доказательство, уже доработанное человеком, стало ключом к еще нескольким задачам Эрдеша. Среди них есть проблема, которая тоже оставалась открытой около 60 лет.
Почему это важно?
Потому что модель не просто перебрала известные приемы. Она предложила необычный ход: рассматривать элементы примитивного множества через цепи Маркова. До этого в литературе в основном шли другим путем - через жесткие аналитические оценки и комбинаторные разбиения.
То есть AI не просто «угадал ответ». Он подсветил метод, который начал работать шире одной конкретной задачи.
Лихтман сформулировал это очень точно:
«Это, пожалуй, один из первых примеров доказательства, созданного искусственным интеллектом, которое дало последующий эффект, и мы все еще изучаем его последствия».
Вот здесь и начинается настоящая история про AI в науке.
Не когда модель решает одну задачу ради заголовка. А когда ее идея начинает переноситься на соседние проблемы.
x.com/jdlichtman/status/2050460077904285789?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
GPT-5.4 Pro взломала 60-летнюю задачу Эрдеша. Теперь этот метод решает другие проблемы
GPT-5.4 Pro решила задачу Эрдеша - и это оказалось не разовым трюком
В середине апреля появилась громкая история: GPT-5.4 Pro под руководством математика Джареда Лихтмана за полтора часа нашла доказательство задачи Эрдеша №1196, открытой с 1968 года.
Но самое интересное началось после.
Лихтман анонсировал новую статью, где показал: это доказательство, уже доработанное человеком, стало ключом к еще нескольким задачам Эрдеша. Среди них есть проблема, которая тоже оставалась открытой около 60 лет.
Почему это важно?
Потому что модель не просто перебрала известные приемы. Она предложила необычный ход: рассматривать элементы примитивного множества через цепи Маркова. До этого в литературе в основном шли другим путем - через жесткие аналитические оценки и комбинаторные разбиения.
То есть AI не просто «угадал ответ». Он подсветил метод, который начал работать шире одной конкретной задачи.
Лихтман сформулировал это очень точно:
«Это, пожалуй, один из первых примеров доказательства, созданного искусственным интеллектом, которое дало последующий эффект, и мы все еще изучаем его последствия».
Вот здесь и начинается настоящая история про AI в науке.
Не когда модель решает одну задачу ради заголовка. А когда ее идея начинает переноситься на соседние проблемы.
x.com/jdlichtman/status/2050460077904285789?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
👍7😁5🔥1
Yandex ML Challenge — новое соревнование с задачами по ИИ и финалом на Young Con 2026
Кого ждем:
Студентов, выпускников и учеников 11-х классов — тех, кто любит решать соревнования по машинному обучению
Что нужно знать:
На длинном онлайн-туре вас ждут 3 задачи: CV (компьютерное зрение), LLM (большие языковые модели) и RL (обучение с подкреплением).
Регистрируйтесь сейчас и приступайте к задачам 21 мая в 16:00 мск
Таймлайн:
С 21 по 31 мая — длинный онлайн-тур, где определим топ-100 финалистов с самым высоким суммарным рейтингом
25 июня состоится очный финал на Young Con 2026: масштабном фестивале о технологиях и старте карьеры в IT
Победителю соревнования достанется приз в размере 1 млн рублей.
А топ-15 финалистов получат набор умных устройств от Яндекса.
Регистрация открыта
Кого ждем:
Студентов, выпускников и учеников 11-х классов — тех, кто любит решать соревнования по машинному обучению
Что нужно знать:
На длинном онлайн-туре вас ждут 3 задачи: CV (компьютерное зрение), LLM (большие языковые модели) и RL (обучение с подкреплением).
Регистрируйтесь сейчас и приступайте к задачам 21 мая в 16:00 мск
Таймлайн:
С 21 по 31 мая — длинный онлайн-тур, где определим топ-100 финалистов с самым высоким суммарным рейтингом
25 июня состоится очный финал на Young Con 2026: масштабном фестивале о технологиях и старте карьеры в IT
Победителю соревнования достанется приз в размере 1 млн рублей.
А топ-15 финалистов получат набор умных устройств от Яндекса.
Регистрация открыта
❤6👍2
Загадка числа 6174: почему любое 4-значное число превращается именно в него
Возьмите любое четырёхзначное число, в котором есть хотя бы две разные цифры. Через пару простых шагов вы получите 6174. И снова 6174. И ещё раз. Это не фокус и не баг, а одна из самых странных закономерностей в десятичной системе счисления, о которой большинство разработчиков и математиков вспоминают только тогда, когда хочется удивить коллегу за обедом.
Алгоритм настолько прост, что его можно набросать за пару минут на любом языке. Берёте число, например 3618. Записываете его цифры в порядке убывания: 8631. Затем в порядке возрастания: 1368. Вычитаете меньшее из большего: 8631 минус 1368 равно 7263. Теперь повторяете тот же шаг с результатом. И так далее, пока не упрётесь в фиксированную точку.
Эта точка всегда одна и та же. Её зовут постоянной Капрекара, в честь индийского математика-самоучки Даттатреи Рамачандры Капрекара, который описал эту особенность ещё в 1949 году. Он работал школьным учителем и в свободное время копался в теории чисел, находя удивительные связи там, где никто не ожидал их увидеть.
Что особенно цепляет инженерный мозг, так это гарантированная сходимость. Любое допустимое число (запрещены только повторы вроде 1111) приходит к 6174 максимум за семь итераций. Это полноценный аттрактор в дискретной динамической системе, и его можно проверить полным перебором: всего 8991 валидное число, и каждое из них рано или поздно попадает в одну и ту же точку.
Если переписать это на Python, выходит буквально несколько строк. Сортируете цифры через sorted, склеиваете обратно через join, считаете разницу и проверяете условие выхода из цикла. Идеальная задачка для собеседования джуна или для разминки перед сложным алгоритмическим раундом.
Любопытно, что для трёхзначных чисел существует похожая постоянная: 495. А вот для пяти и более цифр процесс уже не сходится в одну точку, а зацикливается в нескольких разных циклах. То есть 6174 и 495 это редкие исключения, а не общее правило, и именно поэтому они так интригуют.
С практической точки зрения это чистая математическая курьёзность, без прямого применения в проде. Но такие вещи отлично работают как тестовая задача, как пример детерминированной сходимости и как напоминание о том, что даже в школьной арифметике остаются вопросы, на которые нет красивого аналитического ответа. Почему именно 6174, а не любое другое число? Никто до сих пор не знает.
Возьмите любое четырёхзначное число, в котором есть хотя бы две разные цифры. Через пару простых шагов вы получите 6174. И снова 6174. И ещё раз. Это не фокус и не баг, а одна из самых странных закономерностей в десятичной системе счисления, о которой большинство разработчиков и математиков вспоминают только тогда, когда хочется удивить коллегу за обедом.
Алгоритм настолько прост, что его можно набросать за пару минут на любом языке. Берёте число, например 3618. Записываете его цифры в порядке убывания: 8631. Затем в порядке возрастания: 1368. Вычитаете меньшее из большего: 8631 минус 1368 равно 7263. Теперь повторяете тот же шаг с результатом. И так далее, пока не упрётесь в фиксированную точку.
Эта точка всегда одна и та же. Её зовут постоянной Капрекара, в честь индийского математика-самоучки Даттатреи Рамачандры Капрекара, который описал эту особенность ещё в 1949 году. Он работал школьным учителем и в свободное время копался в теории чисел, находя удивительные связи там, где никто не ожидал их увидеть.
Что особенно цепляет инженерный мозг, так это гарантированная сходимость. Любое допустимое число (запрещены только повторы вроде 1111) приходит к 6174 максимум за семь итераций. Это полноценный аттрактор в дискретной динамической системе, и его можно проверить полным перебором: всего 8991 валидное число, и каждое из них рано или поздно попадает в одну и ту же точку.
Если переписать это на Python, выходит буквально несколько строк. Сортируете цифры через sorted, склеиваете обратно через join, считаете разницу и проверяете условие выхода из цикла. Идеальная задачка для собеседования джуна или для разминки перед сложным алгоритмическим раундом.
Любопытно, что для трёхзначных чисел существует похожая постоянная: 495. А вот для пяти и более цифр процесс уже не сходится в одну точку, а зацикливается в нескольких разных циклах. То есть 6174 и 495 это редкие исключения, а не общее правило, и именно поэтому они так интригуют.
С практической точки зрения это чистая математическая курьёзность, без прямого применения в проде. Но такие вещи отлично работают как тестовая задача, как пример детерминированной сходимости и как напоминание о том, что даже в школьной арифметике остаются вопросы, на которые нет красивого аналитического ответа. Почему именно 6174, а не любое другое число? Никто до сих пор не знает.
❤14🔥10👍8
Команда Уорикского университета валидировала 118 экзопланет (включая 31 ранее неизвестную) в данных TESS с помощью модели RAVEN. Результаты опубликованы в двух статьях MNRAS.
RAVEN обучали на сотнях тысяч симуляций транзитов и астрофизических ложных сигналов. Анализ охватил 2,2 млн звёзд за первые 4 года миссии TESS. Помимо 118 подтверждённых, RAVEN отметил более 2000 кандидатов высокого качества, около 1000 из них - новые.
Среди находок - планеты с орбитой меньше 24 часов и объекты в "нептунианской пустыне", области у звезды, где планеты считались редкими. Каталоги выложены в открытый доступ и пойдут в целеуказание для наземных телескопов и миссии ESA PLATO.
sciencedaily.com
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🤔1
ИИ уже давно добрался до математики. Но не так, как все думали
Nature поговорил с Теренсом Тао, одним из самых сильных математиков современности, о том, как AI меняет работу исследователей.
Главная мысль простая: математики не исчезают, но описание профессии уже меняется.
Еще недавно AI в математике воспринимали как игрушку для школьных задач. Сейчас модели уже начинают помогать в реальной исследовательской работе: проверять идеи, искать связи, подсказывать подходы, ускорять рутину и помогать разбирать сложные доказательства.
Но это не магическая кнопка «решить теорему».
Сильные математики пока не отдают AI мышление целиком. Они используют его как очень быстрого ассистента, которому можно дать направление, проверить гипотезу, попросить альтернативный путь или разложить сложную конструкцию на части.
И это, возможно, самый честный взгляд на будущее ИИ.
Не «AI заменит всех».
Не «AI ничего не умеет».
А третий вариант: профессии остаются, но меняется уровень работы.
Тот, кто умеет думать и правильно использовать AI, получает усилитель. Тот, кто ждет, что модель будет думать вместо него, получает красивую галлюцинацию.
https://www.nature.com/articles/d41586-026-01246-9
Nature поговорил с Теренсом Тао, одним из самых сильных математиков современности, о том, как AI меняет работу исследователей.
Главная мысль простая: математики не исчезают, но описание профессии уже меняется.
Еще недавно AI в математике воспринимали как игрушку для школьных задач. Сейчас модели уже начинают помогать в реальной исследовательской работе: проверять идеи, искать связи, подсказывать подходы, ускорять рутину и помогать разбирать сложные доказательства.
Но это не магическая кнопка «решить теорему».
Сильные математики пока не отдают AI мышление целиком. Они используют его как очень быстрого ассистента, которому можно дать направление, проверить гипотезу, попросить альтернативный путь или разложить сложную конструкцию на части.
И это, возможно, самый честный взгляд на будущее ИИ.
Не «AI заменит всех».
Не «AI ничего не умеет».
А третий вариант: профессии остаются, но меняется уровень работы.
Тот, кто умеет думать и правильно использовать AI, получает усилитель. Тот, кто ждет, что модель будет думать вместо него, получает красивую галлюцинацию.
https://www.nature.com/articles/d41586-026-01246-9
👍9❤8🔥3