Media is too big
VIEW IN TELEGRAM
Unitree выпустили первого пилотируемого изнутри робота
Их новая модель GD01 – это что-то из Аватара: огромный робот с кабиной для человека. Он умеет ходить на двух и четырех ногах, сносит стены и стоит в районе 42 миллионов рублей.
Unitree позиционирует аппарат как гражданский персональный транспорт. Вместе с пилотом система будет весить около 500кг.
Интересно, водительские права на такого будут нужны?
Их новая модель GD01 – это что-то из Аватара: огромный робот с кабиной для человека. Он умеет ходить на двух и четырех ногах, сносит стены и стоит в районе 42 миллионов рублей.
Unitree позиционирует аппарат как гражданский персональный транспорт. Вместе с пилотом система будет весить около 500кг.
Интересно, водительские права на такого будут нужны?
🔥82😁25❤14🤯9👍1
Около 15 CEO крупных компаний полетели с Трампом в Китай, чтобы обсуждать торговые отношения
Среди них оказались Тим Кук, Илон Маск, Ларри Финк и другие. Дженсена Хуанга тоже позвали (Трамп в своем посте назвал его Великим), но, судя по новостям, он присоединился к экспедиции чуть ли не в последний момент.
Не так давно вся группа приземлилась в Китае. На официальной встрече с Си Цзиньпином они будут обсуждать снижение торговой напряженности и тарифы, которые могли бы сделать отношения более «сбалансированными».
Без Хуанга, конечно, было бы немного нелепо, потому что именно экспортные ограничения на чипы последнее время прилично подпортили отношения стран. Да, ИИ – это уже геополитика.
Интересно, к чему они придут, и получит ли Китай больший доступ к американскому рынку железа. Напоминаем, что сам Хуанг резко против ограничений на ввоз его чипов в Китай.
Среди них оказались Тим Кук, Илон Маск, Ларри Финк и другие. Дженсена Хуанга тоже позвали (Трамп в своем посте назвал его Великим), но, судя по новостям, он присоединился к экспедиции чуть ли не в последний момент.
Не так давно вся группа приземлилась в Китае. На официальной встрече с Си Цзиньпином они будут обсуждать снижение торговой напряженности и тарифы, которые могли бы сделать отношения более «сбалансированными».
Без Хуанга, конечно, было бы немного нелепо, потому что именно экспортные ограничения на чипы последнее время прилично подпортили отношения стран. Да, ИИ – это уже геополитика.
Интересно, к чему они придут, и получит ли Китай больший доступ к американскому рынку железа. Напоминаем, что сам Хуанг резко против ограничений на ввоз его чипов в Китай.
2🔥82 52👍11😁9❤8🍾1
В одной из школ США родители ученика подали на учреждение в суд из-за того, что ИИ-детектор признал его сочинение сгенерированным
Учитель использовала для проверки его эссе детектор от Turnitin, и он определил сочинение как «на 76% сгенерированное ИИ». Дальше педагог разбираться не стала (несмотря на то, что парень предоставил историю правок из Google Docs и свои черновики), просто понизила оценку и влепила в личное дело пометку об академической нечестности.
Мы погуглили: Turnitin утверждают, что их false positive rate составляет менее 1%. НО это только для документов, которые более чем на 20% сгенерированы. На уровне предложений false positive rate крутится в районе 4%. Все равно немного, но сервис сам обращает внимание на то, что их результаты не стоит использовать в качестве последней инстанции.
Короче, 5 мая родители парня подали иск в Северный окружной суд Калифорнии: требуют восстановить оценку, удалить пометки о нарушении из школьного досье и получить компенсацию.
Иронично, что сочинение было по пьесе Артура Миллера «Суровое испытание». Это произведение буквально посвящено тому, как общество разрушает судьбы людей на основе ненадежных свидетельств.
Учитель использовала для проверки его эссе детектор от Turnitin, и он определил сочинение как «на 76% сгенерированное ИИ». Дальше педагог разбираться не стала (несмотря на то, что парень предоставил историю правок из Google Docs и свои черновики), просто понизила оценку и влепила в личное дело пометку об академической нечестности.
Мы погуглили: Turnitin утверждают, что их false positive rate составляет менее 1%. НО это только для документов, которые более чем на 20% сгенерированы. На уровне предложений false positive rate крутится в районе 4%. Все равно немного, но сервис сам обращает внимание на то, что их результаты не стоит использовать в качестве последней инстанции.
Короче, 5 мая родители парня подали иск в Северный окружной суд Калифорнии: требуют восстановить оценку, удалить пометки о нарушении из школьного досье и получить компенсацию.
Иронично, что сочинение было по пьесе Артура Миллера «Суровое испытание». Это произведение буквально посвящено тому, как общество разрушает судьбы людей на основе ненадежных свидетельств.
Если вы думаете, что ИИ уже повсюду, то вот вам график на подумать
Красное – те, кто используют агентов;
Желтое – платят за чат-ботов;
Зеленое – когда-либо пользовались бесплатными тарифами.
Остальное – люди, ни разу не использовавшие ИИ.
Выглядит, как довольно ранняя стадия распространения технологии. И даже сейчас у нас уже не хватает компьюта на инференс.
Красное – те, кто используют агентов;
Желтое – платят за чат-ботов;
Зеленое – когда-либо пользовались бесплатными тарифами.
Остальное – люди, ни разу не использовавшие ИИ.
Выглядит, как довольно ранняя стадия распространения технологии. И даже сейчас у нас уже не хватает компьюта на инференс.
😁259👍67🤯48❤15🔥8🫡3💯2🗿2
Магистратура, после которой не нужно заново учиться работать
Одна из частых проблем обучения в ИТ в том, что между учебными задачами и реальной индустрией часто лежит пропасть. Вроде бы знания есть, но на первой работе все равно приходится заново привыкать к настоящим бизнес-задачам.
В магистратуре Центрального университета этот разрыв стараются закрыть сразу. Обучение строится вокруг практики и кейсов от Т-Банка, Сбера, Ozon, Avito, Х5 Tech, Lamoda и других крупных ИТ-компаний. То есть студенты разбирают не абстрактные упражнения, а задачи, близкие к тем, с которыми действительно работают продуктовые и инженерные команды.
В ЦУ можно прокачаться в машинном обучении, продуктовом менеджменте, продуктовой аналитике и бэкенд-разработке. Преподаватели – эксперты отрасли.
Занятия идут по вечерам и выходным, так что магистратуру можно совмещать с работой. Интересный факт: зарплата студентов увеличивается в среднем на 63% за время обучения.
А еще у каждого абитуриента есть возможность получить грант до 75% на все обучение. Подавайте заявку на вторую волну грантового конкурса прямо сейчас!
Одна из частых проблем обучения в ИТ в том, что между учебными задачами и реальной индустрией часто лежит пропасть. Вроде бы знания есть, но на первой работе все равно приходится заново привыкать к настоящим бизнес-задачам.
В магистратуре Центрального университета этот разрыв стараются закрыть сразу. Обучение строится вокруг практики и кейсов от Т-Банка, Сбера, Ozon, Avito, Х5 Tech, Lamoda и других крупных ИТ-компаний. То есть студенты разбирают не абстрактные упражнения, а задачи, близкие к тем, с которыми действительно работают продуктовые и инженерные команды.
В ЦУ можно прокачаться в машинном обучении, продуктовом менеджменте, продуктовой аналитике и бэкенд-разработке. Преподаватели – эксперты отрасли.
Занятия идут по вечерам и выходным, так что магистратуру можно совмещать с работой. Интересный факт: зарплата студентов увеличивается в среднем на 63% за время обучения.
А еще у каждого абитуриента есть возможность получить грант до 75% на все обучение. Подавайте заявку на вторую волну грантового конкурса прямо сейчас!
🤨46❤15😁12 7⚡4🗿4 4☃1👏1🤯1😎1
США разрешили примерно 10 китайским компаниям закупать H200, но все не так просто
В ходе переговоров в Китае США расщедрились и разрешили нескольким китайским гигантам, в том числе Alibaba, Tencent и ByteDance, закупку H200 у Nvidia.
Теперь каждая из них может купить до 75 000 чипов по правилам лицензирования США.
Но Китай не то чтобы прыгает от радости. Наоборот, они еще в январе ввели ограничения на закупку иностранного железа, и отступать от этого не планируют.
Во-первых, у них только-только начало развиваться собственное производство, и, конечно, власти будут поддерживать в первую очередь его.
Во-вторых, Китай абсолютно точно осознает, что для США это способ оставить главного конкурента на коротком поводке: продавать достаточно, чтобы сохранять влияние и доходы Nvidia, но не настолько много, чтобы полностью отдать технологическое преимущество. Понятно, что Китай не хочет попадаться на крючок и зависеть от американских экспортных правил.
ИИ гонка окончательно перестала быть гонкой моделей, и стала гонкой цепочек поставок
В ходе переговоров в Китае США расщедрились и разрешили нескольким китайским гигантам, в том числе Alibaba, Tencent и ByteDance, закупку H200 у Nvidia.
Теперь каждая из них может купить до 75 000 чипов по правилам лицензирования США.
Но Китай не то чтобы прыгает от радости. Наоборот, они еще в январе ввели ограничения на закупку иностранного железа, и отступать от этого не планируют.
Во-первых, у них только-только начало развиваться собственное производство, и, конечно, власти будут поддерживать в первую очередь его.
Во-вторых, Китай абсолютно точно осознает, что для США это способ оставить главного конкурента на коротком поводке: продавать достаточно, чтобы сохранять влияние и доходы Nvidia, но не настолько много, чтобы полностью отдать технологическое преимущество. Понятно, что Китай не хочет попадаться на крючок и зависеть от американских экспортных правил.
ИИ гонка окончательно перестала быть гонкой моделей, и стала гонкой цепочек поставок
❤122👍46🔥22 19🤯6😁3
В Твиттере раскритиковали известнейшую картину Клода Моне, потому что поверили, что она сгенерирована
Один гениальный юзер запостил две картины из серии «Кувшинки», заявив, что первую он сгенерировал, а вторая – настоящая. Он попросил других пользователей детально рассказать, чем «фейк» отличается от подлинника.
https://x.com/shl0ms/status/2054280631807316329?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
На самом деле обе картины оказались настоящими творениями Моне, но пользователи буквально заполонили комментарии критикой первого полотна.
Они писали, что «совершенно очевидно», что это генерация, называли «типичные ошибки» в цвете, свете и деталях. Кто-то назвал картину «мазней» и «грязью».
После того как автор объяснил, что обе картины – это настоящий Моне, часть комментариев сразу же оказались удалены🤷♂️
Один гениальный юзер запостил две картины из серии «Кувшинки», заявив, что первую он сгенерировал, а вторая – настоящая. Он попросил других пользователей детально рассказать, чем «фейк» отличается от подлинника.
https://x.com/shl0ms/status/2054280631807316329?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
На самом деле обе картины оказались настоящими творениями Моне, но пользователи буквально заполонили комментарии критикой первого полотна.
Они писали, что «совершенно очевидно», что это генерация, называли «типичные ошибки» в цвете, свете и деталях. Кто-то назвал картину «мазней» и «грязью».
После того как автор объяснил, что обе картины – это настоящий Моне, часть комментариев сразу же оказались удалены
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁433❤28👍10 8🤓5🔥1
Claude помог пользователю восстановить доступ к кошельку с 5 биткоинами, который был недоступен 3 года
Сумма на счете оценивается примерно в 400 тысяч долларов. Когда-то давно владелец потерял к нему доступ из-за ошибки в хранении файла с паролем.
Агент нашел в недрах старого компьютера юзера нужный файл, обнаружил ошибку в btcrecover, исправил ее и расшифровал пароль.
История разлетелась на миллионы просмотров, а парень теперь обещает назвать своих детей в честь Дарио Амодеи
Сумма на счете оценивается примерно в 400 тысяч долларов. Когда-то давно владелец потерял к нему доступ из-за ошибки в хранении файла с паролем.
Агент нашел в недрах старого компьютера юзера нужный файл, обнаружил ошибку в btcrecover, исправил ее и расшифровал пароль.
История разлетелась на миллионы просмотров, а парень теперь обещает назвать своих детей в честь Дарио Амодеи
🔥254😁84👍25❤13⚡1🤓1
LLM-инженерия – новый карьерный лифт в IT
Если вы работаете в Backend, ML, DevOps или смежной инженерной роли, LLM становится для вас одним из самых быстрых способов вырасти в задачах, грейде и деньгах. Это уже не новая профессия, а апгрейд к текущей специализации, и компаниям на всех уровнях нужны люди, которые умеют собирать сложные AI-системы и доводить их до продакшена.
Но научиться этому непросто. Индустрия летит слишком быстро, и если еще недавно хватало базового RAG, то сейчас уже нужно понимание трансформеров, знание экономики и безопасности агентов и LLMOps.
Именно поэтому мы обратили внимание на обновленный курс "LLM-инженер" от наших коллег из AI Talent Hub и GIGASCHOOL. Они сохранили фундаментальную базу, но усилили программу тем, что нужно здесь и сейчас:
– Стек LLM-инженера: трансформеры, RAG, retrieval, reranking, eval, агенты, LLMOps, vLLM/SGLang и observability;
– Полный цикл создания LLM-продукта: от дообучения через QLoRA/PEFT до production-сервиса с нагрузкой, мониторингом и оценкой качества;
– Инженерный взгляд на продакшен: latency, cost, scaling, инференс, надежность и поддержка сложных AI-систем;
– Редкие, но все более важные навыки: AI Red Teaming и безопасность агентных систем.
На выходе у вас останется добротный инженерный портфель на GitHub. Вы сделаете RAG над корпоративной базой, мультиагентную систему, дообучите LLM или энкодер под домен, напишете production-сервис в Docker и сделаете типовой отчет по безопасности.
Старт потока – 4 июня, формат – онлайн-семинары, длительность – 6 месяцев. До четверга действует самая низкая цена, потом стоимость повысится, так что – успевайте.
Посмотреть программу и попасть в поток можно по ссылке
Если вы работаете в Backend, ML, DevOps или смежной инженерной роли, LLM становится для вас одним из самых быстрых способов вырасти в задачах, грейде и деньгах. Это уже не новая профессия, а апгрейд к текущей специализации, и компаниям на всех уровнях нужны люди, которые умеют собирать сложные AI-системы и доводить их до продакшена.
Но научиться этому непросто. Индустрия летит слишком быстро, и если еще недавно хватало базового RAG, то сейчас уже нужно понимание трансформеров, знание экономики и безопасности агентов и LLMOps.
Именно поэтому мы обратили внимание на обновленный курс "LLM-инженер" от наших коллег из AI Talent Hub и GIGASCHOOL. Они сохранили фундаментальную базу, но усилили программу тем, что нужно здесь и сейчас:
– Стек LLM-инженера: трансформеры, RAG, retrieval, reranking, eval, агенты, LLMOps, vLLM/SGLang и observability;
– Полный цикл создания LLM-продукта: от дообучения через QLoRA/PEFT до production-сервиса с нагрузкой, мониторингом и оценкой качества;
– Инженерный взгляд на продакшен: latency, cost, scaling, инференс, надежность и поддержка сложных AI-систем;
– Редкие, но все более важные навыки: AI Red Teaming и безопасность агентных систем.
На выходе у вас останется добротный инженерный портфель на GitHub. Вы сделаете RAG над корпоративной базой, мультиагентную систему, дообучите LLM или энкодер под домен, напишете production-сервис в Docker и сделаете типовой отчет по безопасности.
Старт потока – 4 июня, формат – онлайн-семинары, длительность – 6 месяцев. До четверга действует самая низкая цена, потом стоимость повысится, так что – успевайте.
Посмотреть программу и попасть в поток можно по ссылке
😁39❤17👍4 4🔥3🤯1🕊1👨💻1🗿1
Масштабы вайбкодинга выходят на новый уровень
Вот это – merge PR на миллион строк в крупном проекте Bun. Все миллион строк написаны агентами, и при этом чуть больше, чем за неделю.
Bun с конца прошлого года принадлежит Anthropic. Это runtime среда для JavaScript и TypeScript, которая изначально была написала на Zig.
Недавно (10 дней назад) создатель Джарред Самнер написал, что начал экспериментально переписывать Bun на Rust с помощью Claude (возможно, Claude Mythos). Он отдельно отметил, что это лишь исследование на начальной стадии.
Но прошло 10 дней, и вот полностью обновленный код уже на пути в основную сборку. Еще раз: агентам понадобилось 10 дней, чтобы полностью портировать огромный проект с одного языка на другой.
Пока попробовать новый код можно в canary, но в публикациях говорится, что Rust-ветка Bun уже достаточно продвинута и проходит около 99.8% тестов, так что в stable она попадет уже очень скоро.
Вот это – merge PR на миллион строк в крупном проекте Bun. Все миллион строк написаны агентами, и при этом чуть больше, чем за неделю.
Bun с конца прошлого года принадлежит Anthropic. Это runtime среда для JavaScript и TypeScript, которая изначально была написала на Zig.
Недавно (10 дней назад) создатель Джарред Самнер написал, что начал экспериментально переписывать Bun на Rust с помощью Claude (возможно, Claude Mythos). Он отдельно отметил, что это лишь исследование на начальной стадии.
Но прошло 10 дней, и вот полностью обновленный код уже на пути в основную сборку. Еще раз: агентам понадобилось 10 дней, чтобы полностью портировать огромный проект с одного языка на другой.
Пока попробовать новый код можно в canary, но в публикациях говорится, что Rust-ветка Bun уже достаточно продвинута и проходит около 99.8% тестов, так что в stable она попадет уже очень скоро.
🤯146🔥53👍22❤16🤔6😁5👾1
Anthropic выпустили прогноз о гонке США и Китая в ИИ к 2028 году
Главный тезис: лидерство в AI теперь определяется не только качеством моделей, но и доступом к compute, чипам и инфраструктуре. По мнению Anthropic, США пока сохраняют преимущество, но Китай остается очень близко к фронтиру.
В статье описывают два сценария. В первом США удерживают отрыв за счет экспортных ограничений и быстрого масштабирования инфраструктуры. Во втором Китай догоняет frontier-модели, а глобальные стандарты AI начинают формироваться уже не западными компаниями.
Отдельно Anthropic несколько раз подчеркивают, что frontier AI для них уже выглядит как технология двойного назначения. То есть речь идет не только про чат-ботов и productivity, но и про кибербезопасность, военные системы и ускорение научных разработок.
https://www.anthropic.com/research/2028-ai-leadership
Главный тезис: лидерство в AI теперь определяется не только качеством моделей, но и доступом к compute, чипам и инфраструктуре. По мнению Anthropic, США пока сохраняют преимущество, но Китай остается очень близко к фронтиру.
В статье описывают два сценария. В первом США удерживают отрыв за счет экспортных ограничений и быстрого масштабирования инфраструктуры. Во втором Китай догоняет frontier-модели, а глобальные стандарты AI начинают формироваться уже не западными компаниями.
Отдельно Anthropic несколько раз подчеркивают, что frontier AI для них уже выглядит как технология двойного назначения. То есть речь идет не только про чат-ботов и productivity, но и про кибербезопасность, военные системы и ускорение научных разработок.
https://www.anthropic.com/research/2028-ai-leadership
❤55👍25 13🔥7🗿3✍2😁2👌1
Увидимся на Дне открытых дверей магистерской программы «Исследования и предпринимательство в ИИ» ФКН НИУ ВШЭ и МТС? 👀
22 мая расскажут, как учат создавать и внедрять инновационные продукты, используя передовые методы: от больших языковых моделей и генеративных нейросетей до инструментов компьютерного зрения и NLP. Будет актуально для тех, кто задумывается о поступлении в магистратуру в 2026
Самое важное:
✅ 100% стоимости обучения (30 мест) финансирует МТС
✅ проекты реализуются на виртуальной инфраструктуре компании
✅ преподаватели — команда преподавателей ФКН НИУ ВШЭ и действующие эксперты из МТС и MWS AI
✅ карьера после выпуска? Роль ML/AI-разработчика или специалиста по Data Science, собственный стартап в сфере ИИ или исследования в R&D-центрах коммерческих компаний
На встрече команда магистратуры:
— поделится деталями о программе, учебном плане и фокусах развития: исследовательском и предпринимательском
— обсудит особенности поступления в 2026 году и формат отбора
— расскажет о процессе обучения и результатах — в этом помогут сами студенты и выпускники
📍 Когда: 22 мая, 18:30
📍 Формат: онлайн
📍 Запись встречи: разместят в канале магистратуры
Чтобы не пропустить трансляцию и задать все вопросы, зарегистрируйтесь на сайте!
22 мая расскажут, как учат создавать и внедрять инновационные продукты, используя передовые методы: от больших языковых моделей и генеративных нейросетей до инструментов компьютерного зрения и NLP. Будет актуально для тех, кто задумывается о поступлении в магистратуру в 2026
Самое важное:
✅ 100% стоимости обучения (30 мест) финансирует МТС
✅ проекты реализуются на виртуальной инфраструктуре компании
✅ преподаватели — команда преподавателей ФКН НИУ ВШЭ и действующие эксперты из МТС и MWS AI
✅ карьера после выпуска? Роль ML/AI-разработчика или специалиста по Data Science, собственный стартап в сфере ИИ или исследования в R&D-центрах коммерческих компаний
На встрече команда магистратуры:
— поделится деталями о программе, учебном плане и фокусах развития: исследовательском и предпринимательском
— обсудит особенности поступления в 2026 году и формат отбора
— расскажет о процессе обучения и результатах — в этом помогут сами студенты и выпускники
📍 Когда: 22 мая, 18:30
📍 Формат: онлайн
📍 Запись встречи: разместят в канале магистратуры
Чтобы не пропустить трансляцию и задать все вопросы, зарегистрируйтесь на сайте!
🤨10😁5🗿3🤯2❤1👍1
Data Secrets
Нейросети думают сложными геометрическими структурами – новое исследование от Goodfire Эта статья вызвала в последние дни очень много интереса в сообществе. Исследователи из Goodfire впервые показали занятную вещь: внутреннее пространство активаций моделей…
Goodfire показали, как геометрически выглядит математика внутри LLM
Недавно у них вышло очень занятное исследование, в котором они ввели термин neural geometry и доказали, что нейросети "думают" сложными геометрическими структурами. Мы делали разбор этой статьи вот тут: t.me/data_secrets/9194.
Если кратко, суть в том, что внутреннее пространство моделей организовано в виде многомерных форм, поверхностей и траекторий. Эти многообразия вполне интерпретируемы. Например, дни недели лежат как бы на круге, в циклической структуре.
Сегодня лаба выпустила продолжение исследования: они разобрали, как модель "представляет" числа и совершает над ними операции.
Можно было бы ожидать, что в геометрии модели числа будут лежать на абстрактной числовой прямой или будут закодированы двоично, НО НЕТ: каждое число – это окружности. Каждая окружность соответствует числу по модулю некоторого основания, то есть остатку от деления. Например, число 17 было бы представлено как 1 на окружности по модулю 2, как 2 на окружности по модулю 5 и как 7 на окружности по модулю 10.
И это не что иное, как разложение Фурье! Кто бы мог подумать, что оно обнаружится внутри трансформера.
А когда модели нужно что-то посчитать, активируется целый геометрический калькулятор. Например, нужно сложить два числа. Для этого, на самом деле, решается сразу несколько параллельных задач на разных окружностях. Возмем 6 + 8. Модель отдельно считает: (6 mod 2) + (8 mod 2) = 0, (6 mod 5) + (8 mod 5) = 4, (6 mod 10) + (8 mod 10) = 4, и так далее. Все эти результаты вместе декодируются в число 14.
Это напоминает китайскую теорему об остатках. Древнейший математический трюк, который оказался встроен в нейросети совершенно автономно. Кстати, точно так же модели вычисляют разницу в датах, годах и днях недели.
Красивое😍
Недавно у них вышло очень занятное исследование, в котором они ввели термин neural geometry и доказали, что нейросети "думают" сложными геометрическими структурами. Мы делали разбор этой статьи вот тут: t.me/data_secrets/9194.
Если кратко, суть в том, что внутреннее пространство моделей организовано в виде многомерных форм, поверхностей и траекторий. Эти многообразия вполне интерпретируемы. Например, дни недели лежат как бы на круге, в циклической структуре.
Сегодня лаба выпустила продолжение исследования: они разобрали, как модель "представляет" числа и совершает над ними операции.
Можно было бы ожидать, что в геометрии модели числа будут лежать на абстрактной числовой прямой или будут закодированы двоично, НО НЕТ: каждое число – это окружности. Каждая окружность соответствует числу по модулю некоторого основания, то есть остатку от деления. Например, число 17 было бы представлено как 1 на окружности по модулю 2, как 2 на окружности по модулю 5 и как 7 на окружности по модулю 10.
И это не что иное, как разложение Фурье! Кто бы мог подумать, что оно обнаружится внутри трансформера.
А когда модели нужно что-то посчитать, активируется целый геометрический калькулятор. Например, нужно сложить два числа. Для этого, на самом деле, решается сразу несколько параллельных задач на разных окружностях. Возмем 6 + 8. Модель отдельно считает: (6 mod 2) + (8 mod 2) = 0, (6 mod 5) + (8 mod 5) = 4, (6 mod 10) + (8 mod 10) = 4, и так далее. Все эти результаты вместе декодируются в число 14.
Это напоминает китайскую теорему об остатках. Древнейший математический трюк, который оказался встроен в нейросети совершенно автономно. Кстати, точно так же модели вычисляют разницу в датах, годах и днях недели.
Красивое
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯76🔥29❤19👍6👌4🗿2