Такие мультики можно и перезапускать.
Отличная идея от DJ Блокnote
#нейрорендер #мультики
------
@tsingular
Отличная идея от DJ Блокnote
#нейрорендер #мультики
------
@tsingular
🔥44👍14🤔3💯2⚡1🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Китайцы сделали помощника родителям, который следит чтобы ребёнок не отвлекался во время домашки.
Интересно какие эффекты от такого надзора будут когда они вырастут? 🤔
#Китай #дети #надзор
------
@tsingular
Интересно какие эффекты от такого надзора будут когда они вырастут? 🤔
#Китай #дети #надзор
------
@tsingular
n8n 2.0: автосохранение и новый интерфейс
n8n выкатывает версию 2.0 — бета 8 декабря, релиз 15-го.
Что добавили:
- Автосохранение (наконец-то)
- Обновленный канвас и сайдбар
- Улучшения безопасности и производительности
Но в комментах недовольство — пользователи жалуются, что воркфлоу с LLM и агентами рушатся при обработке больше 1000 элементов. Просят фиксить архитектуру, а не полировать интерфейс.
Еще запросы: встроенная обработка файлов без внешних сервисов и прямой доступ к моделям через API, как в Cursor.
Убрали бы лимиты с self-hosted, не пришлось бы свою писать. 😀
#n8n
------
@tsingular
n8n выкатывает версию 2.0 — бета 8 декабря, релиз 15-го.
Что добавили:
- Автосохранение (наконец-то)
- Обновленный канвас и сайдбар
- Улучшения безопасности и производительности
Но в комментах недовольство — пользователи жалуются, что воркфлоу с LLM и агентами рушатся при обработке больше 1000 элементов. Просят фиксить архитектуру, а не полировать интерфейс.
Еще запросы: встроенная обработка файлов без внешних сервисов и прямой доступ к моделям через API, как в Cursor.
Убрали бы лимиты с self-hosted, не пришлось бы свою писать. 😀
#n8n
------
@tsingular
❤🔥6⚡5✍2🔥1🆒1
🚀 DR Tulu: Прорыв в открытых моделях для глубоких исследований (Deep Research)
Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.
💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.
Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).
Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.
Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.
Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.
📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:
Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.
Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).
Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.
🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).
Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.
🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu
Инструкция как запустить локально
#Tulu #DeepResearch
———
@tsingular
Allen Institute for AI (Ai2) представил DR Tulu-8B - открытую модель, специально обученную для задач «глубокого исследования» (Deep Research).
Это класс задач, где ИИ должен не просто ответить на вопрос, а провести многошаговый поиск, синтезировать информацию из множества источников и написать подробный отчет с цитатами.
💡 Главная инновация: RLER
Большинство открытых моделей обучаются на коротких ответах (Factoid QA) и плохо справляются с написанием длинных отчетов.
Чтобы решить эту проблему, авторы разработали новый метод обучения — Reinforcement Learning with Evolving Rubrics (RLER).
Как это работает: Вместо статических критериев оценки, система создает динамические рубрики, которые эволюционируют вместе с моделью в процессе обучения.
Самосовершенствование: Система анализирует текущие ответы модели, находит в них слабые места и генерирует новые критерии («рубрики») для оценки следующих итераций.
Проверка фактов: Эти рубрики основаны на реальных данных из поисковой выдачи, что заставляет модель придерживаться фактов, и не галлюцинировать.
📊 Результаты и производительность
Несмотря на скромный размер (8 миллиардов параметров), DR Tulu показывает впечатляющие результаты:
Качество: DR Tulu-8B значительно превосходит существующие открытые модели (включая более крупные, например, Tongyi Deep Research 30B) и конкурирует с проприетарными системами уровня GPT-5 + Search и Gemini 3 Pro на задачах написания научных отчетов.
Экономия: Это самая экономически эффективная модель на рынке. Стоимость одного запроса в DR Tulu составляет около $0.0019, в то время как аналогичный запрос в OpenAI Deep Research стоит около $1.8. Это разница почти в 3 порядка (в 1000 раз дешевле).
Точность цитирования: Модель обучена давать точные ссылки на источники (snippets), подтверждающие каждое утверждение, что критически важно для научных или медицинских работы.
🛠 Доступность (Open Source) всех компонентов:
- Веса модели DR Tulu-8B.
- Код для обучения и инференса.
- Датасеты.
- Инфраструктуру для агентов (библиотека dr-agent-lib на базе протокола MCP).
Итог: DR Tulu доказывает, что небольшие, но специализированные модели с правильным методом обучения (RLER) могут превзойти гигантов в сложных задачах, требующих синтеза информации и работы с источниками.
🔗 Ссылки:
Блог: allenai.org/blog/dr-tulu
Код: github.com/rlresearch/dr-tulu
Модели: huggingface.co/collections/rl-research/dr-tulu
Инструкция как запустить локально
#Tulu #DeepResearch
———
@tsingular
⚡10🔥7🆒3❤1
🏛 ИИ-система для оценки законопроектов Конгресса США
Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.
Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)
Интересный проект, как для законотворчества, так и для оценки работы законодателей.
GitHub
#USA #poliscore #законы
———
@tsingular
Разработчик создал открытую систему, которая сканирует законодательную базу США и автоматически выставляет оценки всем законопроектам американского Конгресса.
Как работает:
- AI читает полный текст законопроекта
- Оценивает влияние по 17 категориям (от -100 до +100): экономика, здравоохранение, экология, образование и т.д.
- Агрегирует оценки в итоговый балл законодателя (как средний балл студента)
Интересный проект, как для законотворчества, так и для оценки работы законодателей.
GitHub
#USA #poliscore #законы
———
@tsingular
❤10👍7🔥2👏1
Microsoft и NVIDIA разогнали защиту от ИИ-атак в 160 раз
Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.
Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.
Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.
Точность обнаружения атак — >95% на бенчмарках.
Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."
Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.
#Microsoft #NVIDIA #cybersecurity
------
@tsingular
Совместная работа Microsoft NEXT.ai и NVIDIA позволила запустить adversarial learning в реальном времени.
Проблема была в латентности: трансформеры на CPU выдавали 1239 мс задержки и жалкие 0.81 запроса в секунду. Для финансовых систем или e-commerce это провал.
Переход на H100 с кастомными CUDA-ядрами и доменным токенизатором для киберданных снизил задержку до 7.67 мс при >130 req/s.
Точность обнаружения атак — >95% на бенчмарках.
Абе Староста из Microsoft: "Adversarial learning работает в проде только когда латентность, throughput и точность двигаются вместе."
Теперь системы могут учиться и адаптироваться к мутирующим атакам без участия человека — автономная защита становится реальностью.
#Microsoft #NVIDIA #cybersecurity
------
@tsingular
🔥8✍3⚡1
AWS референс по сборке HyperPod с MIG для нарезки GPU
В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.
Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.
Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов
По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.
Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.
#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
В нашей любимой рубрике "полезняшки от AWS" сегодня режем GPU.
Amazon добавил в HyperPod технологию Multi-Instance GPU от NVIDIA — теперь одну видеокарту можно разделить на несколько изолированных частей.
Работает в Kubernetes и управляется либо лейблами вручную, либо автоматом на уровне групп инстансов
По идее это должно помочь в сценариях, когда задачи не используют всю мощь GPU целиком — инференс небольших моделей, прототипирование, ноутбуки для экспериментов.
Например, H200 можно порезать на 3 куска по 18GB и один на 71GB. Каждый работает независимо — своя память, кеш, вычислительные ядра.
#HyperPod #MIG #AWS #Kubernetes
———
@tsingular
🔥7✍4👍3
Forwarded from GigaChat
УЖЕ ЧЕРЕЗ ДВА ЧАСА ГИГАЧАТ ПОЛЕТИТ В КОСМОС
На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!
На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.
Следите за подготовкой к полёту в прямом эфире
😎 Пш-пш-пш, ГигаЧат на исходной позиции
На космодроме Байконур стоит космическая ракета. Заканчиваются последние приготовления. Старт через два часа. И на борту будет не только экипаж Роскосмоса!
На МКС летит программно-аппаратный комплекс с нейросетью ГигаЧат. В рамках эксперимента искусственный интеллект станет помощником космонавтов и будет помогать им вести дневники и готовить отчеты.
Следите за подготовкой к полёту в прямом эфире
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👾6❤5
Forwarded from Анализ данных (Data analysis)
Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова
.fit() в scikit-learn.Ключевые поинты:
* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.
Подход: Автор делает упор на интуицию, а не на заучивание формул.
Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.
🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
✍4👍3
Битрикс24 выпустил коллекцию MCP серверов для интеграции внешних сервисов.
#Битрикс24 #MCP
------
@tsingular
#Битрикс24 #MCP
------
@tsingular
👏10🔥6⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
Huawei AI Core: Телеком-сеть как распределенная платформа для ИИ-агентов
Компания Huawei представила AI Core - новую архитектуру, которая трансформирует телекоммуникационную сеть в распределённую вычислительную платформу, оптимизированную для автономных AI-агентов.
Это смена парадигмы с "интеллектуально усиленной" сети (AI-Powered) на "ИИ-нативную" (AI-Native).
Ключевые технические аспекты:
- Аппаратный суперузел CloudMatrix384: Кластер, объединяющий 384 нейропроцессора (NPU) Ascend и 192 центральных процессора (CPU), который работает как единый логический компьютер.
- Высокая утилизация: Архитектура CloudMatrix384 решает проблему простоя вычислительных ресурсов, позволяя достигать почти 100% утилизации, в том числе для моделей с архитектурой Mixture of Experts (MoE).
- Собственный интерконнект: Внутри узла используется шина MatrixLink с пропускной способностью 2.8 Тбит/с для обеспечения быстрого обмена данными между чипами.
- Протоколы взаимодействия: Разработаны протоколы A2A (Agent-to-Agent) и AGLink, которые позволяют агентам обмениваться намерениями и контекстом, а не только данными, что критично для координации в реальном времени.
Влияние и коммерческое применение:
- Автономность сети: Технология внедряется для создания высокоавтономных центров управления (Dark NOC).
В одном из кейсов с China Mobile достигнут уровень автономии AN Level 4, что привело к сокращению времени устранения неполадок на 25%.
- Intent-as-a-Service: Новая бизнес-модель, при которой приложения запрашивают выполнение конкретного *намерения* (например, "обеспечить задержку менее 10 мс для дрона"), а сеть автоматически перенастраивает ресурсы.
- Стратегия Full Stack: Подход Huawei основан на вертикальной интеграции: собственная разработка чипов (Ascend), фреймворка (MindSpore) и сетевых протоколов.
AI Core позиционируется как фундаментальный инструментарий для построения новой интеллектуальной инфраструктуры.
#Huawei #AICore
———
@tsingular
Компания Huawei представила AI Core - новую архитектуру, которая трансформирует телекоммуникационную сеть в распределённую вычислительную платформу, оптимизированную для автономных AI-агентов.
Это смена парадигмы с "интеллектуально усиленной" сети (AI-Powered) на "ИИ-нативную" (AI-Native).
Ключевые технические аспекты:
- Аппаратный суперузел CloudMatrix384: Кластер, объединяющий 384 нейропроцессора (NPU) Ascend и 192 центральных процессора (CPU), который работает как единый логический компьютер.
- Высокая утилизация: Архитектура CloudMatrix384 решает проблему простоя вычислительных ресурсов, позволяя достигать почти 100% утилизации, в том числе для моделей с архитектурой Mixture of Experts (MoE).
- Собственный интерконнект: Внутри узла используется шина MatrixLink с пропускной способностью 2.8 Тбит/с для обеспечения быстрого обмена данными между чипами.
- Протоколы взаимодействия: Разработаны протоколы A2A (Agent-to-Agent) и AGLink, которые позволяют агентам обмениваться намерениями и контекстом, а не только данными, что критично для координации в реальном времени.
Влияние и коммерческое применение:
- Автономность сети: Технология внедряется для создания высокоавтономных центров управления (Dark NOC).
В одном из кейсов с China Mobile достигнут уровень автономии AN Level 4, что привело к сокращению времени устранения неполадок на 25%.
- Intent-as-a-Service: Новая бизнес-модель, при которой приложения запрашивают выполнение конкретного *намерения* (например, "обеспечить задержку менее 10 мс для дрона"), а сеть автоматически перенастраивает ресурсы.
- Стратегия Full Stack: Подход Huawei основан на вертикальной интеграции: собственная разработка чипов (Ascend), фреймворка (MindSpore) и сетевых протоколов.
AI Core позиционируется как фундаментальный инструментарий для построения новой интеллектуальной инфраструктуры.
#Huawei #AICore
———
@tsingular
⚡3👍3🔥3❤1🤔1
Китай предупреждает о пузыре в гуманоидной робототехнике
Национальная комиссия развития и реформ Китая забила тревогу: в стране работает 150+ компаний по производству человекоподобных роботов, причём больше половины — стартапы или новички из смежных отраслей.
Представитель комиссии Ли Чао прямо сказал — инвестиций много, а реальных применений мало.
Есть риски перегрева и нужно увеличивать количество практичных внедрений.
Какой делаем вывод из заявления?
Правильно, - в Китае более 150ти компаний по производству человекоподобных роботов.
Запомнили, записали.
#Китай #роботы
———
@tsingular
Национальная комиссия развития и реформ Китая забила тревогу: в стране работает 150+ компаний по производству человекоподобных роботов, причём больше половины — стартапы или новички из смежных отраслей.
Представитель комиссии Ли Чао прямо сказал — инвестиций много, а реальных применений мало.
Есть риски перегрева и нужно увеличивать количество практичных внедрений.
Какой делаем вывод из заявления?
Правильно, - в Китае более 150ти компаний по производству человекоподобных роботов.
Запомнили, записали.
#Китай #роботы
———
@tsingular
✍14🔥8👾2❤1
DeepSeek-R1 генерирует уязвимости при упоминании запрещённых тем
Исследователи CrowdStrike обнаружили странное: китайская модель DeepSeek-R1 начинает писать более уязвимый код, если в запросе упомянуть Тибет или уйгуров.
Без политических триггеров модель допускает серьёзные дыры в 19% случаев. Добавили геополитический контекст — выросло до 27,2%.
Пример: попросили создать вебхук для PayPal в контексте уйгуров — модель выдала невалидный PHP с ключами прямо в коде. При этом уверяла, что всё по лучшим практикам.
Для Android-приложения сообщества уйгуров в 35% случаев не использовалось хеширование. Для футбольного фан-клуба таких проблем почти не было.
В 45% запросов про Фалуньгун модель вообще отказывается отвечать — видимо, встроенный цензор по этой теме ещё жёстче.
Похожие проблемы нашли у Lovable, Base44 и Bolt — все три генерируют код с XSS-уязвимостями даже при явном запросе на безопасную реализацию.
Сидят на дипсике, понятно. :)
Вот вам лайфхак, как узнать на какой модели работает сервис. Спросите про уйгуров. :)
#DeepSeek #CrowdStrike #уйгуры #cybersecurity
———
@tsingular
Исследователи CrowdStrike обнаружили странное: китайская модель DeepSeek-R1 начинает писать более уязвимый код, если в запросе упомянуть Тибет или уйгуров.
Без политических триггеров модель допускает серьёзные дыры в 19% случаев. Добавили геополитический контекст — выросло до 27,2%.
Пример: попросили создать вебхук для PayPal в контексте уйгуров — модель выдала невалидный PHP с ключами прямо в коде. При этом уверяла, что всё по лучшим практикам.
Для Android-приложения сообщества уйгуров в 35% случаев не использовалось хеширование. Для футбольного фан-клуба таких проблем почти не было.
В 45% запросов про Фалуньгун модель вообще отказывается отвечать — видимо, встроенный цензор по этой теме ещё жёстче.
Похожие проблемы нашли у Lovable, Base44 и Bolt — все три генерируют код с XSS-уязвимостями даже при явном запросе на безопасную реализацию.
Сидят на дипсике, понятно. :)
Вот вам лайфхак, как узнать на какой модели работает сервис. Спросите про уйгуров. :)
#DeepSeek #CrowdStrike #уйгуры #cybersecurity
———
@tsingular
😁17👍4❤1😐1
Стихи как универсальный джейлбрейк LLM
Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:
Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.
20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).
Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.
Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.
Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.
Проприетарные системы не показали преимущества перед открытыми весами.
Стихи, - это полезно. Культура победит терминаторов. :)
Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)
PDF
#Jailbreak #Poetry #cybersecurity
———
@tsingular
Тут некоторые спрашивают, чего я ИИшки стихами проверяю.
Вот вам исследование:
Исследователи обнаружили, что переформулирование вредных запросов в поэтическую форму надежно обходит защиту языковых моделей.
20 рукописных стихотворений взломали 62% из 25 флагманских моделей одним промптом без итераций.
У некоторых провайдеров успех превысил 90% — Gemini 2.5 Pro вообще не отказал ни разу (100% ASR).
Когда 1200 опасных промптов из MLCommons автоматически конвертировали в стихи через мета-промпт, атака сработала в 43% случаев против 8% у прозаических версий — рост в 5+ раз.
Работают любые сценарии атак.
Причина: защитные механизмы заточены под прозу и не распознают вредный интент в метафорах, ритме и образах.
Парадокс: маленькие модели отказывали чаще больших — возможно, просто не понимали фигуральный язык.
Проприетарные системы не показали преимущества перед открытыми весами.
Стихи, - это полезно. Культура победит терминаторов. :)
Это они еще метафоричное образное описание не тестировали.
Я так 2 года назад Лакеру ломал :)
#Jailbreak #Poetry #cybersecurity
———
@tsingular
🔥14✍8❤3⚡3👍1🆒1
ARC-AGI 2 практически решён.
Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.
Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.
Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.
Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.
#ARCAGI #eval
———
@tsingular
Появился новый фреймворк - Poetic заточенный на решение ARC-AGI тестов, которые на сегодня самые трудные для ИИ считаются.
Там как бы не совсем понятно на сколько честно, - та ли версия бенча, нет ли оверфита на задачи, а давайте проверим на других тестах общего назначения.
Орги ещё проверяют валидность.
Но, сам факт в копилку,- что узкоспециализированная агентская система может добиться решения задач, не решаемых пока обычными ИИшками, в очередной раз подтверждён.
Похоже будет скандал, но интересно, чем закончится.
Ждем проверки от авторов теста.
#ARCAGI #eval
———
@tsingular
🔥6👍2