140 subscribers
97 photos
21 videos
62 files
540 links
ALGORITHMS MACHINE LEARNING
Download Telegram
В 1703 году Магницкий составил первую в России учебную энциклопедию по математике под заглавием «Арифметика, сиречь наука числительная с разных диалектов на славенский язык переведеная и во едино собрана, и на две книги разделена» тираж 2.400 экземпляров

Как учебник эта книга более полувека употреблялась в школах благодаря научно-методическим и литературным достоинствам...
Когда в Европе появилась вилка, она считалась признаком тщеславия. Церковь сравнивала ее с дьявольскими вилами, придворные смеялись, а королева Елизавета предпочитала есть руками

В 2022 году ChatGPT считали забавой
Сейчас считают халтурой

Во-первых, человеческий контент и до ChatGPT не всегда был образчиком качества
Соцсети всегда поощряли не глубину, а клики, хейты и срачи

Шеф-повар не режет каждый огурец сам, он отвечает за вкус всего блюда
Так и автор будет ценен тем, какой результат умеет получить

Сгенерированный контент будет становиться лучше
Модели быстро учатся, текст можно подстроить под конкретного читателя, узкие темы теперь делать дешевле, а факты и источники проверять сильно проще

Поэтому фраза «AI-контент — это хлам» скоро будет казаться такой же устаревшей, как сегодня звучит фраза: «в интернете никто не будет знакомиться и общаться всерьез»
Квантовых миров не существует и всё там придумали
А ещё это математика ради математики

Можно согласиться с философской интерпретацией этого подхода
Но и измерения реальности присутствуют
И вот ещё одно интересное

То есть мы имеем экспериментально тот результат, который предсказан математикой
Наверное что-то это да значит

На иллюстрации реальные экспериментальные данные, полученные с помощью аттосекундной спектроскопии, представляющие собой внешнее электронное облако атома неона

Такие данные можно предсказать с помощью решений уравнения Шрёдингера для конкретного случая
Увидеть их в действии, созданные на основе экспериментальных данных - это потрясающе и никак не меньше

Учёные тыкают измерителем и в конкретной точке вполне видят то, что предсказывают странные коты Шрёдингера

Результат очевиден - визуализация электронного облако по данным измерения для Неона очень даже похожа на ожидаемое
Квантовый компьютер впервые взломал 15-битный ключ ECC

Взлом подтверждает, что квантовые атаки на ECC стали реальностью и приближают возможность взлома 256-битных ключей, используемых в биткоине. Project Eleven подчеркивает необходимость срочного перехода к постквантовой криптографии

ХЛЕБ
Сооснователь Anthropic Джек Кларк утверждает, что само-развивающийся AML с бОльшей вероятностью появится уже к концу 2028 года

Другими словами, по его мнению, AI-системы совсем скоро смогут рекурсивно создавать и улучшать самих себя

Статья:
importai.substack.com/p/import-ai-455-automating-ai-research

Это не просто догадка: его оценка основана в большей степени на анализе прогресса на бенчмарках

Например, на CORE-bench, где нужно имплементировать научные статьи (а из подобной работы и рождается основной прогресс в AI рисерче), агенты уже выбивают >95 %
Или MLE-bench, где нужно решать ML-задачи с Kaggle и обучать модели для конкретных задач, – решен на 65 %

Параллельно растет продолжительность задач, которые модели могут выполнять автономно + количество индустриальных проектов, где AML уже неплохо выполняет какие-то крупные задачи AI-инжиниринга, типа проектирования чипов

Учитывая темпы развития, совсем скоро есть шанс перейти к тому, что автор называет «end-to-end автоматизацией»

AML перестанет быть инструментов для отдельных задач, и будет сам ставить цели, ставить эксперименты и действовать
Короче говоря, возьмет на себя R&D полностью

Мне трудно осознать масштаб происходящего
Я делюсь этим, потому что, трезво проанализировав данные, пришел к выводу: то, что десятилетиями казалось научной фантастикой, становится реальностью
Вероятно, мы на пороге фундаментальных перемен, к которым общество может быть попросту не готово
Anthropic предлагает решение под названием Model Spec Midtraining (MSM) - дополнительная фаза обучения, которая вставляется между преобучением и файнтюнингом

Во время MSM модель обучается на синтетических документах, которые обсуждают содержание Model Spec, то есть её ценности, логику, философию
Не на примерах поведения, а именно на объяснениях: что модель должна делать и почему

MSM описывается не просто как техника обучения, но как инструмент Model Spec science - эмпирического изучения того, какие спецификации лучше работают

Тем самым Anthropic показывает, что надо задаться вопросом: насколько хорошо сформулировано то, чему мы учим модель?
Команда из Математического института им. В.А. Стеклова РАН под руководством заместителя директора по научной работе члена-корреспондента РАН Сергея Олеговича Горчинского с сентября 2026 года открывает новую группу бакалавриата воспитания будущих математиков в стиле эпохи возрождения
https://www.hse.ru/ba/ami/mplusplus

Несмотря на то, что «территориально» поток М++ открывается на базе Факультета компьютерных наук ВШЭ, он рассчитан на студентов, желающих трудиться и заниматься настоящей математикой – серьёзной, абстрактной, теоретической, …, а не её приложениями

Первый набор на первый курс – этим летом
Как всё сложится – конечно, никто не знает
Но квалификация коллег, участвующих в задумке, и как математиков, и как преподавателей, не подлежит сомнениям
Записи их лекций можно найти на многих сайтах, в частности, среди записей школы
«Современная математика» в Дубне

А желание коллег сделать действительно хорошее университетское разностороннее математическое образование, их взаимодействие друг с другом при обсуждении будущих курсов, поддержка команды руководством факультета, а также многолетняя человеческая забота Сергея Олеговича о подрастающем поколении дают уверенность, что студенты заведомо не будут брошены и всё получится наилучшим образом!
1-й оператор мобильной связи для AML-агентов, а не для людей

Saperly только что это сделали
Теперь агенту дают свой собственный номер телефона, а там уже голос, SMS, маршрутизация
AML
1-й оператор мобильной связи для AML-агентов, а не для людей Saperly только что это сделали Теперь агенту дают свой собственный номер телефона, а там уже голос, SMS, маршрутизация
Вчера ИИ-агентам дали мобильную связь, а сегодня OpenClaw подключил их ко всей цифровой жизни человека

Питер Штайнбергер, создатель OpenClaw, собрал вместе с Codex набор CLI-инструментов для управления: WhatsApp, архивом X, GitHub, Discord, Spotify, iMessage, голос через ElevenLabs и тд.

Каждый инструмент - отдельный скилл, который агент может установить и использовать

А пока Питер строил агентам руки, Saperly пошли дальше и дали
любому агенту настоящий телефонный номер

Тут та же логика, что у Питера, только теперь не скилл поверх чужого мессенджера, а собственная телеком-инфраструктура, построенная специально для агентов

Агент больше не арендует чужой канал связи, у него есть свой
Экономика AI-агентов собирается не сверху вниз и не одной платформой
В продолжение темы:

ML способен выполнять рутинные и сложные задачи быстрее и точнее человека, снижая затраты и повышая эффективность

ML анализирует огромные объёмы информации, выявляя закономерности и помогая в принятии решений (например, в медицине, финансах, маркетинге)

ML не устаёт и может работать 24/7 без потери качества (пока есть энергия)

Алгоритмы ML адаптируются под предпочтения пользователей

ML помогает моделировать сложные процессы (например, климатические изменения, разработку лекарств), сокращая время на эксперименты и открытия

Научные статьи ближайшего будущего - это исключительно сгенерированные тексты, которые, к сожалению, не способен опознать и идентифицировать ни один механизм!

Учёные, как вид паразитирования, перестанут существовать
Разбираем TLS по байтам

В материале описан протокол TLS и его роль в вебе
Статья состоит из двух частей

В первой говорим о защите соединения: от чего и как защищаемся, почему именно так, а не иначе, сколько и каких ключей для этого нужно, и разберём систему сертификатов; а в конце создадим свой сертификат и посмотрим, как его использовать для разработки

Во второй части обсудим, как это дело реализуется в протоколе TLS и разберём формат TLS-пакетов по байтам

Предполагается, что вы что-то знаете о симметричном, асимметричном шифровании и электронной подписи:

➡️ Читать статью [1], [2]
Please open Telegram to view this post
VIEW IN TELEGRAM
All elementary functions from a single operator

https://arxiv.org/html/2603.21852v2
AML pinned «All elementary functions from a single operator https://arxiv.org/html/2603.21852v2»
Forwarded from COLUMNA
Карел Чапек в 1920 году работал над пьесой "R.U.R."
Она про то, как в большой державе создают искусственных людей: они компонуются из выращенных тканей и органов, они умеют думать и всегда рады служить человечеству

Возникает вопрос: этично ли их эксплуатировать существа, которые так похожи на людей
И на самом деле, тема была поднята впервые: сначала предполагал использовать латинское "labori" (от лат. labor — труд, работа), но его брат Йозеф предложил назвать их "роботами" от чешского "robota" — барщина, каторга, тяжёлая работа

Так в название уже "зашили" неравенство
И при этом весь мир знает славянскую "работу" в чешской её версии
Вырожденное_сложение_листик_Бельский.pdf
1.1 MB
В последнее время много спрашивают в чате, да и в личке несколько раз спрашивали, а где же прочитать про кубики, чтобы хоть как-то подразобраться

Во-первых, есть статья Алексея Заславского и Павла Кожевникова в матпросе (без картинок)

Во-вторых, есть проект ЛКТГ
Но там скорее фокус на изогональном сопряжении, хотя сознание он, конечно, расширяет

В-третьих, есть статья Кирилла Бельского, в матпросе
Она пока не доступна бесплатно, но есть листик, который Кирилл подготовил по ее мотивам

А, в-четвертых, есть материал подготовленный Александрой Мустафиной в качестве проекта в лицее ФТШ

Вряд ли вы его видели до этого, но вот, можете посмотреть!
Материал по безопасности веб-приложений

Сам материал разделен на 3 части: для абсолютных новичков, для опытных специалистов и для экспертов

Для абсолютных новичков рекомендуется начать изучение с серверных тем
Эти уязвимости, как правило, легче освоить, поскольку вам нужно понимать только то, что происходит на сервере

Данный материал и лабораторные работы помогут развить основные знания и навыки, которые будут полезны снова и снова

SQL-инъекции
Уязвимости аутентификации
Обход пути (path traversal)
Инъекция команд ОС
Уязвимости бизнес-логики
Уязвимости, связанные с раскрытием информации
Уязвимости контроля доступа и эскалация привилегий
Уязвимости загрузки файлов
Состояния гонки (race conditions)
Подделка запросов на стороне сервера (SSRF)
Внедрение внешних сущностей XML (XXE)
Инъекция NoSQL
Тестирование API
Обман веб-кэша (web cache deception)

Уязвимости на стороне клиента вносят дополнительный уровень сложности, что делает их немного более сложными для понимания
Этот материал и лабораторные работы помогут вам развить навыки, которые вы уже освоили ранее, и научат вас выявлять и эксплуатировать также некоторые сложные клиентские векторы атак

Межсайтовый скриптинг (XSS)
Межсайтовая подделка запросов (CSRF)
Совместное использование ресурсов между источниками (CORS)
Кликджекинг (UI redressing)
Уязвимости на основе DOM (DOM-based vulnerabilities)
Тестирование уязвимостей безопасности WebSockets

Темы, которые перечислены ниже, как правило, требуют более глубокого понимания
и более широких знаний

Рекомендуется сначала разобраться с основами, прежде чем приступать к этим лабораторным работам

Некоторые из них основаны на новаторских методиках, разработанных исследовательской командой мирового уровня

Небезопасная десериализация;
Атаки на веб-LLM
Уязвимости GraphQL API
(SSTI) Инъекция шаблона на стороне сервера
Отравление веб-кэша (web cache poisoning)
Атаки через HTTP заголовок Host
Контрабанда HTTP-запросов (HTTP request smuggling)
Уязвимости аутентификации OAuth 2.0
Атаки на JWT
Что такое загрязнение прототипов (prototype pollution)
Ключевые навыки
Please open Telegram to view this post
VIEW IN TELEGRAM
Learning Is Forgetting: LLM Training as Lossy Compression

https://arxiv.org/abs/2604.07569v1
https://github.com/hcoxec/soft_h
https://arxiviq.substack.com/p/learning-is-forgetting-llm-training

Исследователи из Принстона и Cohere успешно применили теорию информационного бутылочного горлышка (Information Bottleneck, IB) к большим языковым моделям (LLM) размером до 32 миллиардов параметров

Внедрив дифференцируемую оценку "мягкой энтропии", они спроецировали траектории предобучения больших трансформеров на информационную плоскость
Оказалось, что обучение состоит из двух чётких фаз: сначала репрезентации расширяются для подгонки под целевые метки, а затем наступает длительная фаза сжатия, во время которой нерелевантные входные данные "забываются"

Работа предлагает целостный подход на уровне всей модели, выступающий альтернативой механистической интерпретируемости

Авторы показали, что то, насколько близко модель подходит к оптимальному пределу сжатия с потерями, строго предсказывает её перформанс на сложных бенчмарках (r = 0.52) и согласованность с человеческими предпочтениями (r = 0.76)

Появляется рабочий способ использовать unsupervised метрики из теории информации для ранней остановки и выбора моделей
Это существенно снижает зависимость от тяжёлых и вычислительно затратных доменных эвалюаций

https://www.youtube.com/watch?v=utvIaZ6wYuw