Яндекс Образование запустило Yandex Physical AI Garage — программу по созданию ИИ-решений для роботов и автономных систем
В проекте участвуют топовые вузы: ВШЭ, МАИ, МИФИ, МФТИ и ИТМО. Вы получите ML-базу от ШАД и реальную R&D-практику на «гаражах» — проектных офлайн-интенсивах под менторством инженеров Яндекса.
Обучение полностью бесплатное. Чтобы поступить, необходимо учиться на партнерской программе бакалавриата в одном из вузов-партнёров.
Переходите по ссылке, чтобы изучить карьерные перспективы и зарегистрироваться
В проекте участвуют топовые вузы: ВШЭ, МАИ, МИФИ, МФТИ и ИТМО. Вы получите ML-базу от ШАД и реальную R&D-практику на «гаражах» — проектных офлайн-интенсивах под менторством инженеров Яндекса.
Обучение полностью бесплатное. Чтобы поступить, необходимо учиться на партнерской программе бакалавриата в одном из вузов-партнёров.
Переходите по ссылке, чтобы изучить карьерные перспективы и зарегистрироваться
🗿37🔥17❤7👍6🤨5😁3🤯3🍓1
Нижегородский Минздрав официально (!) разослал письмо с просьбой не использовать эмодзи из ChatGPT в медицинских документах
В Новгороде автоматизация идет полным ходом. Там пациенты все чаще начали замечать в своих электронных выписках и протоколах смайлики типа 💊 📌 📆 💙 📞 🌐 🔴 🚑 🔍 и другие, которые обычно использует ChatGPT.
Дошло до того, что Минздрав официально попросил врачей не использовать подобные символы или «в промптах для ИИ указывать деловой стиль без эмодзи».
В Новгороде автоматизация идет полным ходом. Там пациенты все чаще начали замечать в своих электронных выписках и протоколах смайлики типа 💊 📌 📆 💙 📞 🌐 🔴 🚑 🔍 и другие, которые обычно использует ChatGPT.
Дошло до того, что Минздрав официально попросил врачей не использовать подобные символы или «в промптах для ИИ указывать деловой стиль без эмодзи».
😁410❤28🔥17🗿15🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor наконец-то выпустили собственный SDK
Это TypeScript‑библиотека, через которую можно программно создавать и запускать тех же ИИ‑агентов Cursor, что живут внутри IDE, но прямо из своих приложений, скриптов, CI‑пайплайнов и веб‑сервисов.
Теперь с помощью этого набора инструментов встроить возможности Cursor можно будет в любую корпоративную IDE или, например, в мобильное приложение. Да вообще в любой проект.
А еще это открывает простую дорогу к дописыванию своих MCP‑инструментов и собственных плагинов под Cursor.
Стартап также опенсорснул кукбук с некоторыми стартовыми кейсами на попробовать: https://github.com/cursor/cookbook
Это TypeScript‑библиотека, через которую можно программно создавать и запускать тех же ИИ‑агентов Cursor, что живут внутри IDE, но прямо из своих приложений, скриптов, CI‑пайплайнов и веб‑сервисов.
Теперь с помощью этого набора инструментов встроить возможности Cursor можно будет в любую корпоративную IDE или, например, в мобильное приложение. Да вообще в любой проект.
А еще это открывает простую дорогу к дописыванию своих MCP‑инструментов и собственных плагинов под Cursor.
Стартап также опенсорснул кукбук с некоторыми стартовыми кейсами на попробовать: https://github.com/cursor/cookbook
🔥75❤20👍14😁1
Сбер поделился деталями развития open source-экосистемы GigaChain
На Хабре вышло интервью управляющего директора и техлида команды GigaChain — Константина Крестникова. Его команда разрабатывает платформу для создания автономных ИИ-помощников. Главный фокус — отказ от закрытой архитектуры в пользу открытого кода и совместимости.
— Решена проблема переносимости. Разработчики могут переносить своих ИИ-помощников на GigaChat с других платформ практически без изменения кода.
— Комьюнити уже работает на продукт: сторонние энтузиасты по своей инициативе добавляют поддержку GigaChat в другие фреймворки.
— Практически весь инструментарий, включая готового автономного ИИ-помощника GigaAgent для корпоративных задач, раздают по открытой MIT-лицензии.
По сути, Сбер делает ставку на снижение барьера входа. Чем проще разработчикам адаптировать свой код под отечественную инфраструктуру, тем активнее растет экосистема.
https://habr.com/ru/articles/1028688/
На Хабре вышло интервью управляющего директора и техлида команды GigaChain — Константина Крестникова. Его команда разрабатывает платформу для создания автономных ИИ-помощников. Главный фокус — отказ от закрытой архитектуры в пользу открытого кода и совместимости.
— Решена проблема переносимости. Разработчики могут переносить своих ИИ-помощников на GigaChat с других платформ практически без изменения кода.
— Комьюнити уже работает на продукт: сторонние энтузиасты по своей инициативе добавляют поддержку GigaChat в другие фреймворки.
— Практически весь инструментарий, включая готового автономного ИИ-помощника GigaAgent для корпоративных задач, раздают по открытой MIT-лицензии.
По сути, Сбер делает ставку на снижение барьера входа. Чем проще разработчикам адаптировать свой код под отечественную инфраструктуру, тем активнее растет экосистема.
https://habr.com/ru/articles/1028688/
👍246😁57🔥22❤16🤨14🗿12⚡1🤝1
Китайский исследователь создал специальный бенчмарк, с помощью которого можно оценить количество параметров в любой модели
Как мы знаем, закрытые лаборатории не раскрывают количество параметров своих моделей. Есть стандартный метод оценки через экономику инференса, но он дает погрешность в 2× и более из-за неизвестных деталей об инфре.
Так вот: позавчера на архиве появилась статья, в которой автор предлагает принципиально иной подход, через оценку количества знаний модели. Речь именно о знании фактов, а не интеллекте в целом, потому что способность к рассуждению можно дистиллировать и сжимать в меньшие модели, а фактические знания – нет, они ограничены энтропией Шеннона.
Методология такая: автор создал бенчмарк из 1400 фактических вопросов, разбитых на 7 уровней редкости, от широко известных фактов до крайне малоизвестных. Его откалибровали на 89 открытых моделях с известным числом параметров, и оказалось, что есть явная (R²=0.917) лог-линейная зависимость скора на бенче от числа параметров.
Проецируя закрытые модели на калибровочную кривую, автор получает такие оценки*:
• из-за природы метода и из-за настроек безопасности некоторых моделей (на какие-то вопросы они могут просто отказываться отвечать), эти оценки ближе к нижним границам.
Конечно, точность все равно довольно мала, но числа интересные.
https://arxiv.org/pdf/2604.24827
Как мы знаем, закрытые лаборатории не раскрывают количество параметров своих моделей. Есть стандартный метод оценки через экономику инференса, но он дает погрешность в 2× и более из-за неизвестных деталей об инфре.
Так вот: позавчера на архиве появилась статья, в которой автор предлагает принципиально иной подход, через оценку количества знаний модели. Речь именно о знании фактов, а не интеллекте в целом, потому что способность к рассуждению можно дистиллировать и сжимать в меньшие модели, а фактические знания – нет, они ограничены энтропией Шеннона.
Методология такая: автор создал бенчмарк из 1400 фактических вопросов, разбитых на 7 уровней редкости, от широко известных фактов до крайне малоизвестных. Его откалибровали на 89 открытых моделях с известным числом параметров, и оказалось, что есть явная (R²=0.917) лог-линейная зависимость скора на бенче от числа параметров.
Проецируя закрытые модели на калибровочную кривую, автор получает такие оценки*:
– GPT-5.5 ≈ 9.7T параметров
– Claude Opus 4.6 ≈ 5.3T
– Claude Sonnet 4.6 ≈ 1.7T
– Gemini 2.5 Pro ≈ 1.2T
• из-за природы метода и из-за настроек безопасности некоторых моделей (на какие-то вопросы они могут просто отказываться отвечать), эти оценки ближе к нижним границам.
Конечно, точность все равно довольно мала, но числа интересные.
https://arxiv.org/pdf/2604.24827
👍156🔥45❤35🤔18😁1
Data Secrets
Промпт инжиниринг изучен на 0.01% В новый системный промпт gpt-5.5 в Codex добавили следующее (дословный перевод): Никогда не говори о гоблинах, гремлинах, енотах, троллях, ограх, голубях или других животных или существах, если это абсолютно и однозначно…
OpenAI раскрыли тайну гоблинов и енотов
После завирусившегося вчера системного промпта, в котором сказано «не упоминать енотов, гоблинов, гремлинов, голубей и других существ без причины», OpenAI выпустили блог, в котором на полном серьезе разобрали эту абсурдную проблему их моделей.
Все дело оказалось в reward хакинге (это когда модель на этапе RL взламывает функцию награждения каким-нибудь читом).
Как вы знаете, в ChatGPT есть персонажи на выбор, и среди них – «Nerdy» (стиль гика). Так вот при обучении этой личности реворд модель поощряла употребление забавных сравнений и выражений, и давала, в том числе, более высокие оценки ответам с отсылками на фантастических существ и забавных животных.
Модель это быстро прочитала и незаметно для разработчиков выработала чит-код: упоминаем гоблинов и гремлинов и легко получаем высокие баллы.
Началось это еще при обучении GPT-5.1, но тогда проблему не откопали, и дальше ситуация усугублялась. На гиковских ответах с гоблинами и гремлинами начали обучать следующие чекпоинты и модели, затем еще раз и еще.
С GPT-5.2 по GPT-5.4 «частота» гоблинов в Nerdy-характере взлетела на 3881%, и в диалогах с другими системными персонажами гоблины росли синхронно. Ирония в том, что характером «гик» пользуются только 2-3% юзеров, а от гоблинов пострадали все.
Дошло до того, что пришлось добавлять в системный промпт инструкции «не упоминать никаких существ». OpenAI пишут, что это временное решение для GPT-5.5, для следующих моделей или уже почистили данные и подредактировали награждение.
https://openai.com/index/where-the-goblins-came-from/
P.S. Если хотите дать енотам и гремлинам свободу, то в блогпосте по ссылке выше OpenAI дали команды для терминала, которые отменят соответствующую часть системного промпта для вашего агента. Пользуйтесь🦝
После завирусившегося вчера системного промпта, в котором сказано «не упоминать енотов, гоблинов, гремлинов, голубей и других существ без причины», OpenAI выпустили блог, в котором на полном серьезе разобрали эту абсурдную проблему их моделей.
Все дело оказалось в reward хакинге (это когда модель на этапе RL взламывает функцию награждения каким-нибудь читом).
Как вы знаете, в ChatGPT есть персонажи на выбор, и среди них – «Nerdy» (стиль гика). Так вот при обучении этой личности реворд модель поощряла употребление забавных сравнений и выражений, и давала, в том числе, более высокие оценки ответам с отсылками на фантастических существ и забавных животных.
Модель это быстро прочитала и незаметно для разработчиков выработала чит-код: упоминаем гоблинов и гремлинов и легко получаем высокие баллы.
Началось это еще при обучении GPT-5.1, но тогда проблему не откопали, и дальше ситуация усугублялась. На гиковских ответах с гоблинами и гремлинами начали обучать следующие чекпоинты и модели, затем еще раз и еще.
С GPT-5.2 по GPT-5.4 «частота» гоблинов в Nerdy-характере взлетела на 3881%, и в диалогах с другими системными персонажами гоблины росли синхронно. Ирония в том, что характером «гик» пользуются только 2-3% юзеров, а от гоблинов пострадали все.
Дошло до того, что пришлось добавлять в системный промпт инструкции «не упоминать никаких существ». OpenAI пишут, что это временное решение для GPT-5.5, для следующих моделей или уже почистили данные и подредактировали награждение.
https://openai.com/index/where-the-goblins-came-from/
P.S. Если хотите дать енотам и гремлинам свободу, то в блогпосте по ссылке выше OpenAI дали команды для терминала, которые отменят соответствующую часть системного промпта для вашего агента. Пользуйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁284 79❤33 6👍4
Media is too big
VIEW IN TELEGRAM
1 место на большом хакатоне Claude Code в этом году только что выиграл турецкий врач вот с этим проектом, который он навайбкодил за 3 дня ⬆️
Это MedKit – симулятор пациентов для обучения врачей и студентов‑медиков.
Он задуман как виртуальная клиника, которая помогла бы начинающим медикам закрыть дыру между изучением теории из учебников и выходом к реальным пациентам, чтобы первые ошибки случались в песочнице.
Студент ведет реальный голосовой диалог с «пациентом», собирает анамнез, назначает лабораторные анализы, ставит диагноз и выписывает рецепт. После каждого сеанса система оценивает действия игрока по нескольким критериям и выдает фидбэк.
Автор проекта выиграл на этой идее 50к долларов в API кредитах
Можете поиграть сами тут: https://medkit-app.vercel.app/
Это MedKit – симулятор пациентов для обучения врачей и студентов‑медиков.
Он задуман как виртуальная клиника, которая помогла бы начинающим медикам закрыть дыру между изучением теории из учебников и выходом к реальным пациентам, чтобы первые ошибки случались в песочнице.
Студент ведет реальный голосовой диалог с «пациентом», собирает анамнез, назначает лабораторные анализы, ставит диагноз и выписывает рецепт. После каждого сеанса система оценивает действия игрока по нескольким критериям и выдает фидбэк.
Автор проекта выиграл на этой идее 50к долларов в API кредитах
Можете поиграть сами тут: https://medkit-app.vercel.app/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤276🔥105👍42🤯14😁9🗿7
Что и как скоро приведет нас к AGI
Сейчас индустрия ИИ перестала быть про один понятный вектор развития. Если раньше все сводилось к масштабированию моделей, то теперь одновременно развиваются несколько конкурирующих подходов – и главный вопрос уже не когда, а за счет чего именно мы придем к AGI.
Мы попробовали разложить, куда именно движется индустрия, через новый режим «Исследовать» в Алиса AI: когда она проводит многоэтапное исследование, делает десятки поисковых запросов, читает источники, сравнивает, синтезирует – и выдает подробный отчет. Вот, какой получился срез:
➖ AGI больше не один путь, а конкуренция парадигм. Индустрия ушла от идеи «просто масштабируем LLM и все получится». Сейчас параллельно развиваются четыре основных направления – сами LLM, world models, агентные системы и RL. И главный вопрос уже не когда, а какая комбинация этих подходов выстрелит.
➖ LLM тащат, но им явно не хватает понимания мира. Поэтому экспертное сообщество расколото: одни считают, что достаточно просто продолжать масштабировать LLM, другие – что без принципиально новой архитектуры (ставки тут в основном на world models) мы упремся в потолок.
➖ Ставка индустрии – на гибрид. Ни один из подходов сам по себе не выглядит достаточным для AGI. Консенсус постепенно смещается к идее системы, где LLM отвечает за знания и язык, world models – за понимание реальности, агенты – за действие, а RL – за обучение через опыт. Если это сложится, то горизонт появления AGI – где-то между 2030-ми и 2040-ми.
Ни один из текущих подходов не выглядит самодостаточным – все они закрывают только часть того, что мы называем интеллектом. Чем быстрее растут модели, тем очевиднее становится, что масштаб сам по себе не решает проблему понимания.
Режим "Исследовать", кстати, уже раскатили на всех. Воспользоваться можно в мобильном приложении.
Сейчас индустрия ИИ перестала быть про один понятный вектор развития. Если раньше все сводилось к масштабированию моделей, то теперь одновременно развиваются несколько конкурирующих подходов – и главный вопрос уже не когда, а за счет чего именно мы придем к AGI.
Мы попробовали разложить, куда именно движется индустрия, через новый режим «Исследовать» в Алиса AI: когда она проводит многоэтапное исследование, делает десятки поисковых запросов, читает источники, сравнивает, синтезирует – и выдает подробный отчет. Вот, какой получился срез:
Ни один из текущих подходов не выглядит самодостаточным – все они закрывают только часть того, что мы называем интеллектом. Чем быстрее растут модели, тем очевиднее становится, что масштаб сам по себе не решает проблему понимания.
Режим "Исследовать", кстати, уже раскатили на всех. Воспользоваться можно в мобильном приложении.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁108🗿24👍20❤15🤨10 10👾5🤯4🤩3🍓1
Белый дом может запретить Anthropic расширить доступ к Mythos
Думаете, они переживают за безопасность? Нет, они переживают, что из-за расширения у Anthropic начнется дефицит мощностей, и Пентагону не хватит компьюта, чтобы использовать Mythos самим🥺
Напоминаем, что Anthropic все еще в американском черном списке, и официально гос. учреждения должны были отказаться от использования их продуктов.
НО Белый дом параллельно разрабатывает указ, позволяющий федеральным агентствам обходить ограничения и использовать Mythos «для защиты критической инфраструктуры».
Мем?
Думаете, они переживают за безопасность? Нет, они переживают, что из-за расширения у Anthropic начнется дефицит мощностей, и Пентагону не хватит компьюта, чтобы использовать Mythos самим
Напоминаем, что Anthropic все еще в американском черном списке, и официально гос. учреждения должны были отказаться от использования их продуктов.
НО Белый дом параллельно разрабатывает указ, позволяющий федеральным агентствам обходить ограничения и использовать Mythos «для защиты критической инфраструктуры».
Мем?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁239❤28 21👍8🤨7 6😎4
Российские ученые и студенты смогли повысить точность айтрекеров в 2 раза в сложных условиях
Исследователи из Лаборатории интеллектуальных сенсорных систем Центрального университета и Сколтеха разработали алгоритм, который решает давнюю проблему айтрекеров. Стандартные устройства теряют точность, если человек в очках или на него падает яркий свет: появляются лишние блики, и система не может правильно определить зрачок.
Результаты тестов показали, что точность определения зрачка в очках выросла на 64%, а при ярком освещении — на 27%. Ошибка на Full HD-экране – около 16 пикселей, что в два раза меньше, чем у более ранних методов.
Разработка позволит значительно улучшить эффективность и масштабировать применение айтрекеров в реабилитации пациентов, в распознавании на ранних стадиях неврологических болезней, в образовании, киберспорте, а также для совершенствования пользовательского опыта при взаимодействии с графическим интерфейсом.
Работу отметили на международной конференции IEEE REEPE наградой «Best Paper Award» как лучшую статью.
Исследователи из Лаборатории интеллектуальных сенсорных систем Центрального университета и Сколтеха разработали алгоритм, который решает давнюю проблему айтрекеров. Стандартные устройства теряют точность, если человек в очках или на него падает яркий свет: появляются лишние блики, и система не может правильно определить зрачок.
Результаты тестов показали, что точность определения зрачка в очках выросла на 64%, а при ярком освещении — на 27%. Ошибка на Full HD-экране – около 16 пикселей, что в два раза меньше, чем у более ранних методов.
Разработка позволит значительно улучшить эффективность и масштабировать применение айтрекеров в реабилитации пациентов, в распознавании на ранних стадиях неврологических болезней, в образовании, киберспорте, а также для совершенствования пользовательского опыта при взаимодействии с графическим интерфейсом.
Работу отметили на международной конференции IEEE REEPE наградой «Best Paper Award» как лучшую статью.
❤134👍38🔥30🗿15😎6 1
Data Secrets
Как вывести ваши научные исследования на новый уровень с ИИ Если вы занимаетесь наукой – сейчас крайне важно научиться применять AI к своей задаче и встраивать его в исследовательский процесс.Сегодня ИИ становится ключевым фактором, который определяет уровень…
До закрытия регистрации в ШАД осталась пара дней: последний шанс подать заявку в этом году
Школа анализа данных от Яндекс – это мощная база по ML + реальные задачи и понятная траектория роста. Направления: ML-разработка, Data Science, инфраструктура больших данных и анализ данных в прикладных науках.
Форматы разные: очно, гибридно или онлайн. Поступить можно по классическому треку или по упрощенному – для специалистов с опытом.
Если планировали – лучше не тянуть. Заявки принимают до 3 мая.
Школа анализа данных от Яндекс – это мощная база по ML + реальные задачи и понятная траектория роста. Направления: ML-разработка, Data Science, инфраструктура больших данных и анализ данных в прикладных науках.
Форматы разные: очно, гибридно или онлайн. Поступить можно по классическому треку или по упрощенному – для специалистов с опытом.
Если планировали – лучше не тянуть. Заявки принимают до 3 мая.
🗿45❤16🤨8😁4👍3🤯3🔥2
Media is too big
VIEW IN TELEGRAM
Figure AI поделились статистикой: теперь их завод BotQ выпускает одного полноценного робота гуманоида каждые 90 минут
В течение этого года они планируют сделать 100к единиц (это уже уровень среднего автопрома), а на горизонте нескольких лет оптимизировать конвейер до 1 миллиона экземпляров в год.
Тем временем их роботы еще даже не продаются на свободном рынке. Просто знайте, что где-то в мире есть вот такая армия🤖
В течение этого года они планируют сделать 100к единиц (это уже уровень среднего автопрома), а на горизонте нескольких лет оптимизировать конвейер до 1 миллиона экземпляров в год.
Тем временем их роботы еще даже не продаются на свободном рынке. Просто знайте, что где-то в мире есть вот такая армия
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥136👍26❤17🫡11🤔9😁7🤯5 5🗿2 1
Илон Маск признался, что в xAI использовали модели OpenAI для обучения Grok
По сообщениям из зала суда, Маска спросили, использовала ли xAI дистилляцию на моделях OpenAI для обучения Grok.
Сначала он ответил в общем духе, мол это распространенная практика в индустрии. Но когда его прямо спросили, означает ли это «да», он сказал: «Частично».
Это, естественно, не означает какое-либо нарушение. Все зависит от того, как именно и на чем именно учили. Но OpenAI, судя по всему, пытаются доказать факт недобросовестной конкуренции Маска с OpenAI, и это признание им как нельзя кстати.
По сообщениям из зала суда, Маска спросили, использовала ли xAI дистилляцию на моделях OpenAI для обучения Grok.
Сначала он ответил в общем духе, мол это распространенная практика в индустрии. Но когда его прямо спросили, означает ли это «да», он сказал: «Частично».
Это, естественно, не означает какое-либо нарушение. Все зависит от того, как именно и на чем именно учили. Но OpenAI, судя по всему, пытаются доказать факт недобросовестной конкуренции Маска с OpenAI, и это признание им как нельзя кстати.
😁164 42 14❤9🦄1
Apple случайно слила в открытый доступ свои CLAUDE.md файлы
Разработчик из Твиттера случайно обнаружил их в обновлении Apple Support app v5.13. В файлах были всякие правила кодстайла, архитектурные заметки и ограничения для работы Claude Code (снова + к цене акций Anthropic😐 ).
Твит набрал несколько миллионов просмотров: https://x.com/aaronp613/status/2049986504617820551?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
Видимо, Apple его тоже увидели, потому что вскоре поспешили выпустить v5.13.1 с затертыми файлами.
Эра вайбкодинга прекрасна😆
Разработчик из Твиттера случайно обнаружил их в обновлении Apple Support app v5.13. В файлах были всякие правила кодстайла, архитектурные заметки и ограничения для работы Claude Code (снова + к цене акций Anthropic
Твит набрал несколько миллионов просмотров: https://x.com/aaronp613/status/2049986504617820551?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
Видимо, Apple его тоже увидели, потому что вскоре поспешили выпустить v5.13.1 с затертыми файлами.
Эра вайбкодинга прекрасна
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁228 30❤14👍4🤯2🕊1🤝1
Пробные экзамены в ШАД теперь можно написать до поступления
Каждый год на экзаменах в ШАД многие сильные студенты недобирают баллы. Причина обычно не в знаниях: залипли на задаче, не рассчитали время, не дошли до конца, начали нервничать.
Потому что здесь важно не только уметь решать, но и пройти экзамен как процесс: держать темп 5 часов, распределять силы и не ломаться, если что-то идет не по плану.
Наши друзья из SHAD Helper запустили прекрасную возможность написания Пробных экзаменов в ШАД. И вот это как раз действительно поможет сдать реальный экзамен:
– Формат ровно тот же, что и на отборе: Яндекс Контест, жесткий тайминг и задачи, максимально приближенные к шадовским.
– После экзамена вы получите детальные результаты работы и честную оценку своего уровня.
– Эксперты из МГУ, ВШЭ и МФТИ проведут разборы вариантов с объяснением, где теряются баллы и как решать быстрее.
Отдельный плюс – можно начать бесплатно: есть доступ к вариантам, чтобы просто попробовать формат и оценить себя.
Если готовитесь к ШАДу, то это, пожалуй, самый прямой способ прокачаться и повысить уверенность в оставшееся время перед экзаменом.
Запись и подробности – здесь
Реклама. ООО "Школа Высшей Математики", ИНН 9728100991
Каждый год на экзаменах в ШАД многие сильные студенты недобирают баллы. Причина обычно не в знаниях: залипли на задаче, не рассчитали время, не дошли до конца, начали нервничать.
Потому что здесь важно не только уметь решать, но и пройти экзамен как процесс: держать темп 5 часов, распределять силы и не ломаться, если что-то идет не по плану.
Наши друзья из SHAD Helper запустили прекрасную возможность написания Пробных экзаменов в ШАД. И вот это как раз действительно поможет сдать реальный экзамен:
– Формат ровно тот же, что и на отборе: Яндекс Контест, жесткий тайминг и задачи, максимально приближенные к шадовским.
– После экзамена вы получите детальные результаты работы и честную оценку своего уровня.
– Эксперты из МГУ, ВШЭ и МФТИ проведут разборы вариантов с объяснением, где теряются баллы и как решать быстрее.
Отдельный плюс – можно начать бесплатно: есть доступ к вариантам, чтобы просто попробовать формат и оценить себя.
Если готовитесь к ШАДу, то это, пожалуй, самый прямой способ прокачаться и повысить уверенность в оставшееся время перед экзаменом.
Запись и подробности – здесь
Реклама. ООО "Школа Высшей Математики", ИНН 9728100991
🤨39❤20🗿14😁6👍5☃1🤯1
Media is too big
VIEW IN TELEGRAM
В MIT сделали ИИ-систему, которая может управлять человеческим телом
Она подключается к руке и посылает слабые электрические импульсы, которые вызывают сокращение нужных мышц. Что конкретно нужно сделать и какие мышцы сократить – решает VLM (конкретно, судя по всему, Claude).
Проект так и называется: Human Operator. Его буквально за несколько дней разработала небольшая команда из MIT на хакатоне Hard Mode (взяли первое место).
Авторы говорят, что система может помочьИИ захватить мир людям осваивать новые навыки или восстанавливаться после травм.
Она подключается к руке и посылает слабые электрические импульсы, которые вызывают сокращение нужных мышц. Что конкретно нужно сделать и какие мышцы сократить – решает VLM (конкретно, судя по всему, Claude).
Проект так и называется: Human Operator. Его буквально за несколько дней разработала небольшая команда из MIT на хакатоне Hard Mode (взяли первое место).
Авторы говорят, что система может помочь
😁160 63🔥41 15🤯11👍10❤9
Data Secrets
GPT-5.4 Pro решила задачу Эрдеша номер 1196 Она была открыта с 1968, когда Эрдеш, Саркожи и Семереди поставили в своей работе вопрос о плотности так называемых примитивных множеств. Джаред Дьюкер Лихтман – математик, который получил доказательство – сам…
Доказательство 60-летней задачи Эрдеша, которое сделала GPT-5.4 Pro, внезапно начало переноситься и на другие его задачи
В середине апреля появилась новость о том, что GPT-5.4 Pro «под руководством» математика Лихтмана всего за полтора часа решила задачу Эрдеша номер 1196, которая была открыта с 1968 года.
А вчера Джаред Лихтман анонсировал статью, в которой показал, что это доказательство (с некоторым человеческим усовершенствованием) открыло дорогу к решению еще нескольких проблем Эрдеша, включая ту, которая также была открыта около 60 лет до этого.
Дело в том, что GPT-5.4 использовала для доказательства очень необычный метод, которым люди долго не пользовались. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.
Лихтман написал:
x.com/jdlichtman/status/2050460077904285789?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
В середине апреля появилась новость о том, что GPT-5.4 Pro «под руководством» математика Лихтмана всего за полтора часа решила задачу Эрдеша номер 1196, которая была открыта с 1968 года.
А вчера Джаред Лихтман анонсировал статью, в которой показал, что это доказательство (с некоторым человеческим усовершенствованием) открыло дорогу к решению еще нескольких проблем Эрдеша, включая ту, которая также была открыта около 60 лет до этого.
Дело в том, что GPT-5.4 использовала для доказательства очень необычный метод, которым люди долго не пользовались. Модель предложила рассматривать элементы примитивного множества через цепи Маркова, тогда как в прежней литературе использовали в основном жесткие аналитические оценки и комбинаторные разбиения.
Лихтман написал:
Это, пожалуй, один из первых примеров доказательства, созданного искусственным интеллектом, оказающего последующий эффект, который мы все еще изучаем.
x.com/jdlichtman/status/2050460077904285789?s=46&t=pKf_FxsPGBd_YMIWTA8xgg
❤154🔥60👍31👏4