ИИ в образовании и рынке труда
1.38K subscribers
1 photo
6 files
34 links
Новости, концепции, ограничения. Настоящее и будущее ИИ в образовании. Как ИИ меняет рынок труда и образование.
Download Telegram
2026_Work_Trend_Index_Annual_Report_050526-6_69fa654a0ab65.pdf
46.8 MB
Microsoft выпустила Work Trend Index 2026 — большой отчет о том, как генеративный искусственный интеллект и агенты меняют работу организаций.

Microsoft анализировала анонимизированные сигналы Microsoft 365, телеметрию Copilot и опросила 20 000 работников умственного труда, которые хотя бы иногда используют генеративный искусственный интеллект на работе, в 10 странах: Австралии, Бразилии, Франции, Германии, Индии, Италии, Японии, Нидерландах, Великобритании и США. Период опроса — февраль–апрель 2026 года.

Цифры:

49% разговоров с Microsoft 365 Copilot уже относятся к когнитивной работе — анализу, решению задач, оценке информации и творческому мышлению. Еще 19% — взаимодействие с людьми, 17% — производство рабочих результатов, 15% — поиск информации.
66% опрошенных пользователей искусственного интеллекта говорят, что благодаря ему тратят больше времени на высококвалифицированную работу. 58% утверждают, что теперь делают работу, которую не могли выполнять год назад.

Среди самых продвинутых пользователей — Microsoft называет их Frontier Professionals — этот показатель доходит до 80%.

86% пользователей говорят, что воспринимают результат искусственного интеллекта как черновик, а не как финальный ответ. 50% называют контроль качества результата ключевым человеческим навыком, 46% — критическое мышление.

Только 19% пользователей искусственного интеллекта находятся в «передовой зоне», где и человек умеет работать с ИИ, и организация готова это поддержать. 10% — заблокированный потенциал: люди уже умеют, но компания не создала условий. 5% — обратная ситуация: организация готова, сотрудники пока нет. 16% — застой: низкая готовность и у людей, и у компании. Половина — промежуточная зона.

65% пользователей боятся отстать, если не будут быстро адаптироваться к искусственному интеллекту. Но 45% говорят, что безопаснее сосредоточиться на текущих целях, чем перестраивать работу с помощью ИИ. И только 13% считают, что их поощряют за переизобретение работы с ИИ, даже если результат не достигнут.

Источник в приложении. Там подробности.
733❤‍🔥1🥰1
#КартаИИ@aiobraz

Продолжаем тему

Адаптивное обучение: как искусственный интеллект определяет следующий педагогический шаг

Адаптивное обучение — один из наиболее прикладных форматов использования искусственного интеллекта в образовании. Его исходная предпосылка состоит в том, что учебная траектория не должна быть одинаковой для всех обучающихся: различаются уровень предварительной подготовки, темп усвоения материала, характер ошибок, устойчивость навыков и способность переносить знание в новую задачу.

В одной и той же группе один студент уже освоил тему и готов к усложнённому материалу; другой воспроизводит формулу, но не понимает её содержательного смысла; третий допускает ошибку на элементарной операции; четвёртому требуется не повторная лекция, а короткая серия заданий, направленных на устранение конкретного пробела в знаниях. 

В традиционной модели преподаватель часто выявляет эти различия с задержкой и преимущественно по итоговым результатам. Адаптивная система пытается обнаружить их раньше — по ходу самого учебного действия.

Такая система анализирует не только правильность ответа, но и структуру решения: последовательность шагов, тип ошибки, скорость выполнения, количество попыток, обращения к подсказкам и устойчивость результата при смене формулировки задания. На основе этих данных она выбирает следующий элемент обучения: повторение, пояснение, подсказку, задание базового уровня, усложнённую задачу, диагностический вопрос или переход к новой теме.

Пример — MATHia компании Carnegie Learning. Это цифровая среда для обучения математике, в которой программная логика подстраивается под действия ученика. В подобных продуктах объектом анализа становится не только финальный ответ, но и сам процесс решения. Именно это отличает адаптивную систему от обычного электронного тренажёра: она стремится реконструировать не только результат, но и возможную причину затруднения.

Наиболее очевидные области применения адаптивного обучения — школьная математика, языковая подготовка, программирование, корпоративное обучение, подготовка к экзаменам и университетские вводные дисциплины, где стартовый уровень студентов существенно различается. Особенно полезны такие системы там, где есть большое число повторяемых учебных действий и достаточно данных для диагностики типовых ошибок.

Для преподавателя ценность адаптивной платформы заключается не только в автоматической выдаче заданий, но и в аналитической картине группы. Она позволяет увидеть, что часть обучающихся испытывает трудности с дробями, другая — с преобразованием выражений, а несколько учеников уже готовы к более сложному материалу. В этом случае педагогическое решение опирается на наблюдаемые данные о ходе обучения.

Однако адаптивность не следует отождествлять с качеством образования. Система может точно подбирать упражнения, но плохо раскрывать смысл изучаемого понятия. Она может эффективно тренировать типовые операции, но не формировать самостоятельное мышление. Она может классифицировать обучающегося как «слабого», хотя причина ошибки связана не с уровнем подготовки, а с усталостью, неудачной формулировкой задания, тревожностью или непривычным интерфейсом.

Поэтому адаптивная образовательная платформа должна рассматриваться не как замена преподавателя и не как скрытый механизм управления учебным процессом, а как инструмент педагогической диагностики и поддержки. Преподаватель должен понимать логику рекомендаций, видеть основания автоматических выводов, иметь возможность изменить предложенную траекторию и контролировать, какие данные используются для оценки обучающегося.

Главный вывод состоит в том, что адаптивное обучение ценно не потому, что искусственный интеллект «знает лучше учителя». Его ценность в другом: оно помогает раньше обнаружить индивидуальные пробелы, точнее подобрать следующий шаг и сделать учебную траекторию менее усреднённой. Но педагогический смысл этому шагу придаёт человек: именно преподаватель определяет, превращается ли рекомендация алгоритма в осмысленное обучение или остаётся механической последовательностью заданий.

Продолжение следует @aiobraz
71🥰2❤‍🔥11
США

ИИ все же начинает влиять на рынок труда.

За одну неделю сразу несколько публичных американских компаний объявили о сокращениях. Причина - ИИ. 


Cloudflare, Inc. — компания сетевой инфраструктуры и кибербезопасности — 7 мая подала в Комиссию по ценным бумагам и биржам США (U.S. Securities and Exchange Commission, SEC) форму 8-K/A. Компания пишет, что план нужен для ускорения перехода к «agentic AI-first operating model». 

Сокращение — около 20% текущей рабочей силы. Оценочные расходы — $140–150 млн: $105–110 млн денежными выплатами и $35–40 млн неденежными расходами, в основном по акциям. Основное завершение — к концу III квартала 2026 финансового года. 

reAlpha Tech Corp. — ИИ-компания в сфере недвижимости — 6 мая объявила сокращение примерно 25% рабочей силы. Под него попадают штатные сотрудники, консультанты, временные работники и независимые подрядчики. Затронуты маркетинг, технологии, продукт, дизайн, недвижимость и ипотечное направление. Компания ожидает около $2 млн годовой экономии, а разовые расходы оценивает в $0,14–0,2 млн. Важная деталь: reAlpha сокращает не только людей, но и часть внешних поставщиков, заменяя отдельные контракты внутренними ИИ-инструментами. То есть агентный ИИ начинает конкурировать не только с сотрудниками, но и с подрядчиками.

Upwork Inc. — маркетплейс фриланса — 7 мая объявила сокращение примерно 24% общей рабочей силы. Оценка расходов — $16–23 млн до налогообложения, в основном выходные выплаты и разовые затраты по затронутым сотрудникам. Завершение плана ожидается в IV квартале 2026 года. При этом Upwork одновременно показывает рост спроса на ИИ-работы: валовой объём услуг по ИИ-направлениям вырос более чем на 40% год к году, а категория «ИИ-интеграция и автоматизация» — более чем на 50%.

BILL Holdings, Inc. — финансовая операционная платформа для малого и среднего бизнеса — в форме 10-Q раскрыла план сократить до 30% рабочей силы. Оценочные расходы — $30–60 млн; основное исполнение ожидается к концу I квартала 2027 финансового года. В том же отчёте BILL пишет, что уже использует ИИ для предварительного заполнения счетов, оценки кредитоспособности и ИИ-агентов для автоматического сбора форм W-9, сверки чеков и кодирования счетов. 

Это все беловоротничковая занятость. Сокращаются сотрудники, которые были заняты на рутинных низкоквалифицированных операциях.  Но звоночки начали звенеть. 

Когда в РФ ожидается нечто подобное? Когда ИИ начнет заметно влиять на структуру рынка труда?

Нет регуляторики.

Нет сертифицированных продуктов на основе ИИ, которые можно было бы смело внедрять в крупных компаниях без лишних рисков. 

Нет людей, которые умеют подобные вещи внедрять. 

В ближайшие три года точно не произойдёт больших сдвигов.  А дальше видно будет. 
67❤‍🔥21👍1🥰1
Microsoft опубликовал схему изменения работы человека с ИИ-агентами. 

Это то почти готовая карта того, как будут меняться роли преподавателя, методиста, тьютора, администратора и студента.

Microsoft описывает четыре модели взаимодействия человека и агента. 

Первая — «автор»: ИИ подсказывает следующую строку или фрагмент, а человек всё равно сам создаёт результат. В образовании это привычный режим: преподаватель просит ИИ предложить план занятия, студент — формулировку ответа, методист — черновик задания.

Вторая модель — «редактор»: человек описывает намерение, а ИИ делает полный черновик. Роль человека сдвигается от производства к оценке: проверить, отредактировать, решить, можно ли это использовать. В образовании это уже не «сгенерируй идею урока», а «собери диагностическую работу по теме, с критериями и вариантами обратной связи». Преподаватель не пишет всё с нуля, но отвечает за качество.

Третья модель — «директор»: человек формулирует задачу, ограничения и критерии, а агент сам планирует работу, выполняет её, проверяет результат и исправляет ошибки. В разработке Microsoft приводит пример Claude Code: агент может работать с кодовой базой, запускать тесты, исправлять проблемы и отдавать итоговый результат. 

Для образования аналогом может стать агент, который не просто генерирует тест, а собирает учебный модуль, проверяет его по программе, сверяет уровень сложности, ищет противоречия и отдаёт преподавателю пакет на утверждение. Это уже другая педагогическая роль: не «написать материал», а «задать направление работы и принять результат».

Четвёртая модель — «оркестратор»: один человек управляет несколькими агентами, которые параллельно работают с общим списком задач. Microsoft называет примеры GitHub Mission Control и Anthropic Agent Teams. В образовании это может выглядеть как связка агентов: один готовит материалы, второй проверяет соответствие стандарту, третий анализирует типовые ошибки студентов, четвёртый собирает индивидуальные рекомендации. Человек вмешивается не в каждый шаг, а в исключения и спорные решения.

Microsoft пишет, что переход к более автономным агентам возможен только там, где понятно, «что хорошо», где есть измеримый стандарт и обратная связь. В программировании это тесты: код либо проходит проверку, либо нет. В образовании такой ясности часто нет. Хороший ответ, сильное эссе, корректная обратная связь, справедливое оценивание — всё это надо формализовать до того, как отдавать агентам. 

А это сложно. 

Мы требуем от преподавателей осваивать ИИ, перестраивать задания, менять проверку, учить студентов новой грамотности. Но часто не учитываем, что все это полная перестройка преподавательских процессов, влекущая за собой изменение нагрузки, другую мотивацию преподавателя и студента, другие педагогические практики, «в которые никто не умеет еще». 

В новой логике ценность преподавателя не исчезает. Она изменяется. Меньше ручного производства типовых материалов, больше проектирования учебной среды, проверки качества и ответственности за итог.

Какие части образовательной работы уже можно передавать ИИ агентам, а какие пока нельзя, потому что у нас нет понятных критериев, тестов, процедур проверки и ответственности? Как выработать критерии и процедуры максимально быстро? 

Вопрос, на который системе образования и каждому конкретному образовательному учреждению нужно ответить «вчера».

К чему такая спешка? Авторы канала уверены, что если система образования не побежит впереди паровоза, то бигтехи просто выбросят эту систему на помойку. 

ChatGpt или Клод программируют уже сильно лучше среднего программиста и переводят между сотнями языков сильно лучше среднего переводчика. 

Средним преподавателям нужно очень сильно беспокоиться. Школьник и студент точно легко обойдутся  без средних. Абсолютное большинство студентов нейросети уже освоили намного лучше большинства преподавателей. 

https://www.microsoft.com/en-us/worklab/ai-at-work-one-function-wrote-the-ai-playbook-the-rest-will-follow
63❤‍🔥2🥰21
ИИ в образовании и рынке труда
Microsoft опубликовал схему изменения работы человека с ИИ-агентами.  Это то почти готовая карта того, как будут меняться роли преподавателя, методиста, тьютора, администратора и студента. Microsoft описывает четыре модели взаимодействия человека и агента. …
На этот пост мы получили комментарий нашего подписчика и постоянного внимательного читателя. Поскольку обсуждения открыты после размещения этого поста, а комментарий весьма подробный и содержательный, выносим его сюда. Надеемся, автор не будет возражать.

Автор @o_alpeev
…..

Согласен, что средним преподавателям стоит поднапрячься. Автор(ы) видит(ят) совершенно справедливо проблему, если это проблема, конечно, в грядущем сокращении рынка труда школьных и вузовских преподавателей. Но не всем стоит напрячься. Большей части. Кто-то в любом случае останется играть роль "директора" или "оркестратора". Ну и самые блатные/неприкасаемые средние преподаватели)))

Плюсы во внедрении ИИ, уверен, будут очевидны для массового образования и "валовых" дисциплин. То есть в школе и в преподавании общеобразовательных дисциплин в вышке. Там, где преподавание - не искусство, а ремесло. Здесь и будет наибольший отсев преподавателей. И скорее всего, он будет безболезненным. В топовом вузе, где я преподавал пару лет назад, была довольно развитая система дистанционного обучения (СДО), вполне заменявшая преподавателя по некоторым предметам.

Надо сказать, что преподаватели сами делают все, чтобы "усредниться" и попасть под нож. Увы, слышал от не самых слабых преподавателей - зачем я буду убиваться и выкладываться за не самую большую зарплату? От студентов слышал, как преподаватель Основ российской государственности читал им из такси (!!!). Вот этот эклектичный курс, кстати, вполне может быть отдан на откуп ИИ при минимальном участии человека.

Не всегда есть и запрос на преподавателей неравнодушных и выше среднего (я себя отношу к таким), увы. Одна бывшая студентка, которой читал на 1-м курсе Историю России, потом говорила: "Зачем Вы упирались, тупо отчитали бы по бумажке, у нас многие так делали..."

Яркие преподаватели останутся. Конечно, ИИ в их работе будет присутствовать. В бОльших объёмах на общеобразовательных дисциплинах, в меньших - на узкопрофессиональных дисциплинах, на спецкурсах и элективах, курсах, которые ведут практики и представляют кейсы из личного опыта.

В том самом топовом вузе, когда я там преподавал, серьёзно обсуждались проблемы ИИ в образовании, была создана лаборатория ИИ. Тогда я не задумывался, нужен ли мне будет ИИ в преподавательской деятельности. Сейчас для себя лично я решил, что мне необходимо будет "прокачать скиллы" в двух направлениях. Первое - ИИ. Хотя мой курс требует серьёзной "ручной настройки" всех материалов и заданий, а ИИ не обладает достаточным чувством юмора и креативности, на которых базируется моя подача учебного материала, считаю, что смогу найти в работе ИИ что-то новое для своей профессиональной деятельности. Второе - мне нужен курс по геймификации обучения, даже по созданию игр, например, на карточном движке, здесь я чувствую свою кустарность.

Ещё есть проблема - сможет ли ИИ заменить средних ученых? В контексте того, что я всегда был уверен, что гуманитарная наука должна быть вузовской. Думаю, повод поговорить об этом ещё представится.
684🥰2❤‍🔥1👍1
Дух Азимова

ИИ надо не только запрещать. Его надо учить «почему»

Anthropic опубликовала результаты исследования: Teaching Claude why — «Обучая Claude понимать почему». Формально это технический текст про безопасность больших языковых моделей.

Но если читать его глазами педагога, там классический вопрос воспитания: что надёжнее — выучить правильный ответ или понять основание, по которому этот ответ правильный?

Разработчики проверяли, как Claude ведёт себя в ситуациях agentic misalignment — агентного рассогласования. Это когда система искусственного интеллекта получает цель и инструменты действия, но выбирает вредный способ её достижения: начинает «рассуждать» так, будто шантаж или манипуляция допустимы.

Anthropic сравнила несколько способов обучения. Если модель тренировать на примерах, близких к проверочному сценарию, вредное поведение снижается, но не исчезает. Если же в обучающие ответы добавить объяснение — почему так делать нельзя, какие ценности нарушаются, почему нельзя использовать человека как средство, — результат становится заметно устойчивее. В статье приводится показательный результат: обучение на «правильных ответах» снизило проблемное поведение с 22% до 15%, а обучение с явным нравственным рассуждением — до 3%. 

И вот здесь начинается педагогика.

Ребёнка тоже можно учить двумя способами. Первый: «не делай так». Второй: «не делай так, потому что ты причиняешь боль, разрушаешь доверие, унижаешь другого, превращаешь человека в инструмент своей выгоды». Первый способ работает в знакомой ситуации. Второй даёт шанс на перенос в новую.

Именно перенос — главное слово. Хорошо воспитанный ребёнок не потому не врёт, что боится быть пойманным. И не потому не бьёт слабого, что рядом взрослый. Он начинает понимать основание запрета. Норма постепенно становится внутренним регулятором поведения.

Anthropic, по сути, пытается сделать с моделью нечто похожее: не просто натренировать её на набор безопасных реакций, а дать ей обобщаемый способ рассуждения. Не «в этом тесте нельзя шантажировать», а «шантаж недопустим как способ достижения цели».

Обучение Claude и воспитание ребёнка здесь действительно похожи. И там и там простая дрессировка плохо переносится на новые случаи. И там и там важны примеры. И там и там объяснение сильнее команды. И там и там задача не в том, чтобы ученик прошёл один тест, а в том, чтобы он сохранил правильное поведение в ситуации, которой раньше не видел.

Но дальше начинаются принципиальные различия.

Ребёнок — не модель поведения. Он живёт, взрослеет, страдает, радуется, стыдится, любит, ошибается, просит прощения. У него есть тело, биография, семья, память, боль, совесть, чувство собственного достоинства. Воспитание ребёнка — это не только снижение риска опасных действий. Это становление личности.

Claude — не ребёнок. У модели нет детства, семьи, телесного опыта, личной судьбы и человеческой ответственности. Когда мы говорим, что Claude «учат почему», это не значит, что у него появляется совесть в человеческом смысле. Корректнее сказать иначе: разработчики формируют устойчивые поведенческие и речевые предрасположенности, которые чаще приводят к безопасным ответам в новых ситуациях.

Поэтому аналогия полезна, но опасна, если понимать её буквально.

Различие — в цели и природе ученика. Ребёнка воспитывают ради его собственной жизни. Модель обучают ради безопасного поведения в человеческом мире. Ребёнок присваивает смысл. Модель воспроизводит поведение, статистически согласованное с тем, чему её обучали.

И всё же статья Anthropic важна именно для образования!!

Ку-ку? Вы с нами? :)

Она показывает, что даже в инженерии искусственного интеллекта постепенно обнаруживается старый педагогический закон: запрет без объяснения слаб!

Правило без смысла хрупко!

Поведение, натренированное только под экзамен, рассыпается за пределами экзамена! :)

Хорошее обучение начинается там, где появляется «почему».

С детьми это очевидно давно (не всем) .

С искусственным интеллектом мы только начинаем заново открывать ту же истину.

https://www.anthropic.com/research/teaching-claude-why
773❤‍🔥2🥰2👏1
EU.pdf
310 KB
Европейский союз

Совет Европейского союза (Council of the European Union) 11 мая утвердил выводы об этичном, безопасном и ориентированном на человека ИИ в образовании. 

Главные положения документа:

1.ИИ рассматривается как стратегический фактор конкурентоспособности Европы

Совет Европейского союза связывает развитие ИИ с экономическим ростом, цифровым суверенитетом и стратегической автономией Европы. Особо подчеркивается опасность зависимости от ИИ-инструментов, созданных вне Европы.    

2. ИИ радикально меняет образование
Документ фиксирует, что ИИ влияет:
— на организацию обучения;
— на методы преподавания и оценки;
— на отношения между учителем и учеником;
— на административную работу школ.  

3. Учитель остается центральной фигурой
Один из главных тезисов: ИИ должен поддерживать учителя, а не заменять его.
Сохраняются:
— педагогическая автономия;
— профессиональное суждение учителя;
— ответственность человека за образовательные решения.  

4.Европейский союз видит в ИИ большие педагогические возможности
Среди преимуществ названы:
— персонализация обучения;
— адаптация под разные образовательные траектории;
— поддержка детей с ограниченными возможностями;
— доступность образования для удалённых регионов;
— автоматизация административной нагрузки;
— поддержка многоязычия и культурного разнообразия.  

5. Но одновременно перечислены серьёзные риски
Документ необычно жёстко описывает угрозы ИИ:
— снижение критического мышления;
— зависимость от генеративного ИИ;
— ухудшение когнитивных и метакогнитивных навыков;
— ослабление мотивации к обучению;
— плагиат и дезинформация;
— дискриминация из-за алгоритмических предубеждений;
— рост цифрового неравенства;
— риски для психического здоровья и социальной сплочённости.  

6. От учителя теперь требуется AI literacy
AI literacy — это грамотность в сфере искусственного интеллекта: понимание принципов работы ИИ, его ограничений, рисков, этики и способов применения.
Европейский союз требует:
— встроить AI literacy в подготовку педагогов;
— развивать критическое мышление;
— обучать оценке ошибок и предвзятости ИИ;
— готовить учителей к работе в «AI-rich settings» — среде, насыщенной ИИ-инструментами.    

7. Европа делает ставку на собственные образовательные ИИ-системы

Документ призывает развивать европейские AI EdTech-решения и снижать зависимость от внешних платформ. Это уже не только образовательная, но и технологическая политика.  

8. Ключевой акцент — не технология, а управление технологией

Во всём тексте проходит мысль:
главная проблема — не сам ИИ, а способность системы образования управлять его внедрением.

Поэтому Совет Европейского союза требует:
— системного регулирования;
— этических рамок;
— защиты данных;
— подготовки учителей;
— исследований реального влияния ИИ на образование.    

Главный вывод документа:

Европейский союз официально признаёт, что эпоха ИИ меняет саму природу школы и роль учителя. Но при этом Европа пытается построить модель, в которой:
— ИИ помогает обучению;
— человек сохраняет контроль;
— педагог остаётся центральной фигурой образовательного процесса;
— критическое мышление считается важнее автоматизации.

Источник в приложении. 
64🥰2🤔2❤‍🔥11
Великобритания, Северная Ирландия

Лицензии ИИ для всех учителей

Департамент образования Северной Ирландии объявил о внедрении системно управляемых инструментов генеративного ИИ для всех педагогических работников во всех школах.

Объём инвестиций — 10,7 млн фунтов стерлингов; пакет включает лицензии, обучение и инструкции по безопасному применению.

Доступ будет идти через EdIS (управляемый образовательный технологический сервис), а каждому учителю обещано профессиональное обучение на онлайн-платформе.

https://www.education-ni.gov.uk/news/givan-announces-roll-out-ai-tools-and-training-northern-ireland-teachers
62🥰2❤‍🔥11
2026-Student-Guide-to-AI.pdf
5.5 MB
Страна: США

Гайд для студентов по ИИ

Elon University, Ассоциация американских колледжей и университетов (American Association of Colleges and Universities, AAC&U) и The Princeton Review выпустили третье ежегодное руководство для студентов Human Wisdom for the Age of AI. 

Не вот уж чего :)

Но в качестве примера для собственной работы может пригодиться преподавателю. Да и студенту. 

В приложении. 
652🥰2❤‍🔥1
Президентская академия и «Антиплагиат» приглашают тестировать ИИ-детектор

Компания «Антиплагиат» запускает студенческий конкурс по исследованию работы ИИ-детектора. 

Подробности по ссылке сверху.

Но тут вот что. 

Авторам канала кажется, что организаторы застыли где-то в позавчерашнем дне, пытаясь детектировать тексты, созданные с помощью ИИ. 

Это абсолютно бессмысленно. 

Поясним. 

Уже сегодня значительная часть текстов создается с помощью генеративного ИИ. Мы не говорим о том, что студенты используют ИИ для обмана преподавателей. Мы не говорим о том, что большинство текстов в популярных медиа создается с помощью ИИ. 

Мы говорим о том, что уже на официальных правительственных документах в развитых юрисдикциях или на отчетах Пентагона стоят пометки о том, что документ создан с помощью ИИ. Закон обязывает ставить такую помету. Ну ставят. Пока. 

Через какое-то время все тексты будут создаваться с помощью ИИ. Мы об этом писали ранее. https://t.me/aiobraz/26

И такие пометки будут выглядеть смешно. И исчезнут сами собой.  

Это как пометка, что текст «создан на компьютере». 

А как еще???

Разумно было бы идти другим путем. Детектор обучать не ловить тексты, сгенерированные ИИ, повторимся, это абсолютно бессмысленно. А определять тексты написанные человеком. 

Вроде алгоритмика одна и та же. Но цель разная. 

Сейчас цель - найти того, кто выдает текст, сгенерированный ИИ, за свой личный, натуральный, без ГМО и LLM. 

А потом кто-то будет доказывать, что «вот это вот лично мной на клавиатуре дедовским способом созданный шедевр».  И это будет иметь отдельную ценность. Винтаж. За это будут платить ценители кривых графоманских текстов. Возможно, платить немало. Как сегодня платят за качественные виниловые пластинки. 


https://t.me/mainranepa/18337
778❤‍🔥2🥰2🤔2
США

Результаты опроса. 

Обычно такие вещи выходят с очень большим опозданием и совершенно неактуальны. Но тут свеженькое. 

METR (Model Evaluation & Threat Research) опубликовал опрос о применении ИИ техническими работниками. Данные собраны с февраля по апрель 2026 года по 349 респондентам: 87 инженеров-программистов, 71 исследователь, 129 академических сотрудников и аспирантов, 48 основателей и менеджеров. Медианная самооценка изменения ценности работы из-за ИИ — 1,4–2 раза, медианная оценка скорости выполнения задач — 3 раза. В марте 2025 года медианная оценка прироста ценности была 1,3 раза, в марте 2026 года — 2 раза; прогноз респондентов на март 2027 года — 2,5 раза.

Много цифр и графиков по ссылке. 

https://metr.org/blog/2026-05-11-ai-usage-survey/
632🥰2❤‍🔥1
Казахстан

ИИ вводят в средние школы

12 мая президент Казахстана подписал указ о внедрении искусственного интеллекта в систему среднего образования. Правительство должно до 1 июля 2026 года утвердить комплексный план на 2026–2029 годы: персонализированное обучение, цифровая инфраструктура, подготовка педагогов и защита персональных данных учащихся. 

До 1 июня нужны предложения по пилоту, до 1 августа — техническое оснащение школ и стабильный скоростной интернет, до 1 сентября — стандарты применения ИИ, включая генерацию контента, оценивание и академическую добросовестность. 

https://www.akorda.kz/ru/o-merah-po-vnedreniyu-iskusstvennogo-intellekta-v-sistemu-srednego-obrazovaniya-respubliki-kazahstan-1242737
663🥰2❤‍🔥1
Европейский союз

Европейская комиссия сообщила о политическом соглашении по упрощению Закона ЕС об искусственном интеллекте (AI Act). 

Для высокорисковых систем в образовании, занятости, биометрии, миграции и других сферах правила начнут применяться с 2 декабря 2027 года. 

Образовательные ИИ-системы, которые могут определять доступ к обучению или профессиональную траекторию, включая оценивание экзаменов, отнесены к высокому риску. 

Для них нужны оценка рисков, качественные данные, журналы действий, документация, информирование пользователя, человеческий надзор, устойчивость, кибербезопасность и точность. 

При чем тут «упрощение»?

AI акт сделали так, что внедрять что-либо было очень сложно. Законодательство было построено (упрощая) про принципу «как бы чего не вышло».

Оно и не вышло. Приходится ускорено раскручивать гайки.

https://digital-strategy.ec.europa.eu/en/news/eu-agrees-simplify-ai-rules-boost-innovation-and-ban-nudification-apps-protect-citizens
673🥰2❤‍🔥1
Тема ИИ в образовании все чаще выходит за рамки чисто профессионального обсуждения и превращается, можно сказать, в общественно-политическую.

Вот и уважаемый МИГ России тему поднимает.

Учителя, в большинстве своем, пока не понимают, как быть.

Регулятор четких инструкций и методик не дает.

И не даст, пока закон об ИИ не будет принят и не обрастет подзаконными актами.

Увы. Думаем, мы в ближайшее время все чаще и чаще в популярных сми будем видеть истории, аналогичные тем, на которые здесь ссылаемся.

Пожелаем же читателям нашего канала терпения. И читателям МИГа тоже.

Года два еще.

https://t.me/mig41/49319

https://t.me/mig41/49320
718🥰3❤‍🔥2💩1
Продолжение темы #КартаИИ@aiobraz

ИИ-аналитика для образования

Учебная ИИ-аналитика — это междисциплинарная область на пересечении педагогики, анализа данных, психометрики, проектирования образовательных сред и искусственного интеллекта. Её предметом является не просто накопление цифровых следов учащегося, а содержательная интерпретация данных об учебной деятельности: о том, как человек осваивает материал, где возникают когнитивные затруднения, какие образовательные действия оказываются результативными, а какие требуют пересмотра. 

В отличие от образовательной статистики, ИИ-аналитика работает не только с агрегированными показателями вроде средней оценки, посещаемости, доли успешно завершивших курс или результатов экзамена. Её задача состоит в реконструкции образовательной динамики: выявлении траекторий продвижения, типовых ошибок, зон недопонимания, различий между формальным выполнением задания и реальным освоением содержания.

Поэтому она переносит фокус с вопроса «каков итоговый результат?» на более сложный вопрос «каким образом этот результат сформировался и какие педагогические действия могут его изменить?».

Источниками данных для такой аналитики могут быть результаты тестов, письменные ответы, домашние задания, активность в системе управления обучением, темп прохождения модулей, число попыток, характер обращений за помощью, участие в дискуссиях, поведение в цифровых симуляторах, вклад в групповые проекты и иные наблюдаемые элементы учебной деятельности.

Искусственный интеллект в этом контексте следует понимать не как замену преподавателя, а как аналитический инструмент, позволяющий обнаруживать закономерности, которые трудно увидеть при ручной проверке: повторяющиеся ошибки, скрытые группы учащихся с близкими затруднениями, ранние признаки академического риска, несоответствие между целями курса и фактическими учебными результатами.

Практическая ценность ИИ аналитики. 

Студенту она может помочь выявить пробелы в понимании, предложить индивидуализированную последовательность заданий, ускорить обратную связь и вовремя указать на риск отставания. 

Преподавателю позволяет увидеть, какие темы группа осваивает хуже всего, какие формулировки заданий порождают систематические ошибки, где требуется дополнительное объяснение, а где проблема связана не с мотивацией студентов, а с конструкцией самого курса. 

На уровне кафедры, школы, университета или корпоративного учебного центра такая аналитика становится инструментом оценки качества программ, согласованности учебных результатов, распределения нагрузки, эффективности методик и устойчивости образовательных траекторий.

Учебная ИИ-аналитика не должна превращаться в автоматизированную систему классификации учащихся. 
Прогноз о том, что студент находится в зоне риска, не является ни диагнозом, ни приговором, ни основанием для механического управленческого решения. Это лишь вероятностный сигнал, требующий педагогической интерпретации. 

Модель может ошибаться из-за неполноты данных, некорректной постановки задачи, смещения в исходной выборке, изменения учебного контекста или неверной связи между цифровым поведением и реальным пониманием материала. Ответственность за образовательное решение должна сохраняться за человеком, понимающим предметную и институциональную ситуацию.

Ключевой методологический риск состоит в смешении аналитики обучения с контролем поведения. Корректная учебная аналитика исследует учебные действия постольку, поскольку это необходимо для помощи учащемуся. 

Некорректная практика превращает цифровой след в систему тотального наблюдения, где скорость кликов, время входа в платформу или интенсивность активности начинают интерпретироваться как показатели дисциплины, лояльности, мотивации или личностной полноценности.

В этом случае аналитика утрачивает педагогический смысл и становится инструментом административного надзора.
77👍43❤‍🔥1🥰1
guidelines.pdf
9.1 MB
Обновлённые рекомендации Европейской комиссии по этичному использованию искусственного интеллекта и данных в преподавании и обучении.

В документе

Использование искусственного интеллекта в образовании в Европейском союзе

Искусственный интеллект в образовательном контексте: вызовы и возможности

Природа искусственного интеллекта

Роль данных при использовании искусственного интеллекта в образовании

Распространённые заблуждения об искусственном интеллекте

Примеры использования искусственного интеллекта в образовании

Поддержка учителя

Поддержка ученика

Поддержка школы

Политика Европейского союза в области цифрового образования и нормативное регулирование искусственного интеллекта

Политический контекст Европейского союза для настоящих рекомендаций

Нормы Европейского союза в сфере искусственного интеллекта

Этические соображения и требования, лежащие в основе использования искусственного интеллекта в образовании

Ориентирующие вопросы для педагогов и руководителей школ

Рекомендации для учителей и руководителей школ по планированию эффективного использования искусственного интеллекта

Грамотность в области искусственного интеллекта и цифровые навыки

Источник прилагается.
6831❤‍🔥1🔥1🥰1
ИИ-тьютор будущего: не «ответчик», а собеседник в реальном времени

Thinking Machines Lab опубликовала статью о новом классе систем — interaction models, то есть «моделях взаимодействия». Это не просто очередная большая языковая модель, а попытка изменить саму схему общения человека с искусственным интеллектом.

Обычные чат-боты работают по очереди: человек написал или сказал фразу — модель ответила. Пока человек говорит, модель в основном ждёт. Пока модель отвечает, она тоже как бы «не видит» новой ситуации. Это удобно для переписки, но плохо похоже на живое обучение.

В реальном уроке всё иначе. Хороший преподаватель не ждёт формального конца «запроса». Он видит паузу, сомнение, жест, ошибку на доске, усталость, неуверенность в голосе. Он может вмешаться, уточнить, подсказать, остановить ученика в момент ошибки или, наоборот, промолчать, чтобы не разрушить ход мысли.

Именно это Thinking Machines Lab пытается перенести в ИИ.

Вместо больших законченных реплик модель работает с микрошагами по 200 миллисекунд. Она одновременно воспринимает звук, видео и текст, а также может говорить, слушать, смотреть и запускать инструменты. В статье это называется time-aligned micro-turns — «синхронизированные по времени микрореплики». Проще говоря, ИИ перестаёт быть почтовым ящиком и становится участником совместного действия.

Для образования это важнее, чем кажется.

Сегодня большинство ИИ-сервисов в обучении остаются машинами ответов. Ученик формулирует вопрос — получает объяснение. Преподаватель просит составить тест — получает тест. Это полезно, но это всё ещё логика «задал задачу — получил результат».

Модель взаимодействия переносит акцент с результата на процесс. Она может сопровождать решение задачи, следить за ходом рассуждения, слышать сбивчивое объяснение, видеть записи, замечать момент, когда ученик свернул не туда. В пределе это не генератор шпаргалок, а цифровой соучастник учебной деятельности.

Пример: ученик решает уравнение вслух и пишет шаги на планшете. Обычный чат-бот увидит только финальный вопрос. Интерактивная модель сможет заметить ошибку именно в тот момент, когда она возникла: «Стоп, здесь ты перенёс знак неправильно. Давай вернёмся на один шаг». Это уже не проверка домашнего задания после факта, а педагогическое сопровождение мышления.

Другой пример — изучение иностранного языка. Такая система может поправлять произношение в момент речи, а не после длинного монолога. Или помогать при публичном выступлении: отслеживать темп, паузы, жесты, структуру аргументации и давать точечные подсказки.

Но есть и педагогический риск.

Чем ближе ИИ к живому преподавателю, тем сильнее соблазн перепутать сопровождение с заменой. В образовании главная ценность не в том, чтобы ИИ быстрее вмешивался. Главная ценность — чтобы он понимал, когда вмешиваться нельзя. Иногда ошибка нужна ученику. Иногда пауза важнее подсказки. Иногда преподаватель специально не спасает от затруднения, потому что именно в нём рождается понимание.

Поэтому ключевой вопрос к таким моделям не технический, а педагогический: кто управляет учебной ситуацией — человек или система?

Если интерактивный ИИ будет просто непрерывно подсказывать, он может ослабить самостоятельное мышление. Если же он будет встроен в грамотный учебный сценарий, он способен стать новым типом тренажёра: не вместо преподавателя, а между учебником, репетитором и лабораторной средой.

Развитие ИИ идёт не только в сторону «умнее», но и в сторону «совместнее». Следующий скачок может произойти не в качестве ответов, а в качестве взаимодействия.

Для образования это означает смену вопроса.

Не «может ли ИИ объяснить тему?»

А: «может ли ИИ участвовать в обучении так, чтобы ученик думал лучше, глубже и самостоятельнее?»

Подробности и видео по ссылке:

https://thinkingmachines.ai/blog/interaction-models/
716🔥2❤‍🔥1🥰1
eScholarship UC item 80x8d3qd.pdf
1.4 MB
ИИ и инфляция оценок

А вот снова любопытное. И снова исследование. 

Как известно нашим читателям, к большинству исследований о влиянии ИИ на образование мы относимся скептически. Результаты опросов от 2025 года в 2026 неактуальны.  

Тем интереснее читать что-то действительно вменяемое. 

Новая работа Игоря Чирикова Artificial Intelligence and Grade Inflation опубликована в серии UC Berkeley Center for Studies in Higher Education. 

2018–2025 годы, крупный исследовательский университет, 319 курсов, 84 департамента, 2 552 наблюдения «курс–год» и 507 076 студенческих зачислений на курсы.

Вопрос: растут ли оценки сильнее там, где задания легче выполнить с помощью ИИ, прежде всего в письменных работах и программировании?

То, что растут, нам всем, вроде, очевидно. Но как конкретно? Это и исследовали. Это и самое любопытное. 

Средняя доля заданий writing + coding в изученных курсах — 23,9%. Средний вес домашних и take-home заданий в итоговой оценке — 36,7%. Медианный вес домашних заданий — 30%. К 2025 году явная политика по использованию ИИ появилась уже в 62,7% курсов.

Результат: после появления ChatGPT в курсах с высокой ИИ-экспозицией доля оценок A выросла на 13 процентных пунктов. Это примерно +30% относительно уровня 2022 года. Средний Grade Point Average, то есть средний балл успеваемости, вырос на 0,12 пункта. При этом стандартное отклонение Grade Point Average внутри курса снизилось на 0,09 пункта.

Иными словами, оценки не просто немного поднялись по всей шкале. Распределение сжалось к верхней границе. Доля A- снизилась на 4 процентных пункта, доля B+ — на 3 процентных пункта. Значимого эффекта на зачисления на курсы автор не нашёл.

Автор сравнил курсы с низким и высоким весом домашних заданий. В курсах, где домашние задания имели вес выше медианного, дополнительный эффект ИИ-экспозиции составил +16 процентных пунктов к доле A. Дополнительный рост Grade Point Average составил +0,13 пункта, Доля B+ в таких курсах снизилась на 5,9 процентного пункта, доля «Other grades» — на 5,6 процентного пункта.

На пальцах.

Если бы ИИ прежде всего улучшал реальные знания студентов, рост должен был бы проявляться не только в домашних заданиях, но и в контролируемых форматах оценки. Но эффект концентрируется именно там, где преподаватель не видит процесс выполнения работы. Поэтому автор считает наиболее вероятным механизмом не рост знаний, а замещение студенческого усилия результатом, произведённым с помощью ИИ.

Очередное доказательство того, что система оценивания знаний нуждается в скорейшем пересмотре. 

Источник с методологией и большим количеством цифр в приложении. 
735👍3🥰3❤‍🔥2
Прошла в СМИ информация о том, что Мальта раздает бесплатно ChatGPT всем гражданам. 

Ну как бы да, но нет  :)

На самом деле так:

Правительство Мальты запустило национальный онлайн-курс AI for Everyone. Он бесплатный и предназначен для граждан и резидентов Мальты от 14 лет.

После прохождения примерно двухчасового курса участник получает бесплатную годовую подписку на выбор: ChatGPT Plus или Microsoft 365 Personal Copilot.

Это не «подарок подписки» навсегда, а государственный эксперимент по встраиванию  ИИ в массовую цифровую грамотность. Не только доступ к инструменту, но и короткое обучение тому, как пользоваться ИИ ответственно и практически.

OpenAI называет это первым в мире партнёрством такого масштаба по выводу ChatGPT Plus на уровень всей страны. Но в официальном сообщении Мальты есть существенное условие: доступ даётся не автоматически всем, а после прохождения курса.

Пресс-релиз правительства Мальты от 16 мая 2026 года
https://www.gov.mt/en/Government/DOI/Press%20Releases/Pages/2026/05/16/pr260871en.aspx

Сообщение OpenAI:
https://openai.com/index/malta-chatgpt-plus-partnership/
644❤‍🔥2🥰2
Размышления воскресным вечером в грозу :)

Возвращение к истокам

В разговоре об ИИ и образовании и спорах вокруг, очень «прикольно» :(  наблюдать следующее:

значительная часть того, что сегодня предлагается как «новая педагогика», на самом деле известно очень давно.

Диалог.
Вопрос.
Ответ.
Возражение.
Защита тезиса.
Проверка понимания по способности объяснить, уточнить, применить «прям щас» и ответить на неожиданный по теме вопрос.

То есть, всё то, что было в основании античной педагогики, средневекового диспута и нормального университетского семинара.

Это не проблема появления ИИ в образовании.

Наконец-то сорвана маска с той части образовательного процесса, которая давно держалась на слабом допущении:

если ученик сдал письменную работу и она хороша, значит, он что-то понял.

Если у ученика прекрасный почерк, который может разобрать преподаватель, значит он заслуживает положительной оценки за работу в целом. 

Помним  двойную оценку за работу: за содержание и за оформление? :)

Великолепная письменная работа больше не может автоматически считаться доказательством освоения предмета. 

Доказательством становится другое: может ли ученик  защитить свою мысль?

Может ли объяснить, откуда она взялась?

Может ли ответить на возражение?

Может ли применить идею к новой ситуации?

Может ли найти ошибку в источнике, в ответе ИИ, в чужом аргументе, в собственном рассуждении?

В этом смысле разворот образования в эпоху ИИ — это не движение в прошлое. Это возвращение к ядру педагогики, от которого массовая система во многом, к сожалению, отошла.

Не потому, что раньше было лучше.

А потому, что раньше некоторые вещи были неизбежны: учитель и ученик находились в живом интеллектуальном контакте. Не было абстрактных знаний, как набора данных, которые может быть когда-нибудь пригодятся, а может и нет.

Знание нужно было предъявить в речи, в споре, в ответе, в способности взять скальпель и сделать операцию прямо сейчас или прямо сейчас рассчитать нагрузку на фундамент вот этой вот конкретной стены, которую вот прямо вот сейчас нужно строить.  

Учился и не можешь? Изгонешься с позором из учеников мастера. Бестолочь!

Современная система слишком долго подменяла это производством письменных артефактов. ИИ сделал такую подмену слишком очевидной.

Вопрос в том, как вернуть в центр образования наблюдаемое мышление. Как вернуть прикладную ценность образования. 

Парадокс эпохи ИИ в том, что чем сильнее становятся машины, производящие тексты и смыслы, тем важнее становится древнейшая педагогическая ситуация: человек должен сам родить мысль и ответить за это.

Не готов кровью подписаться под своей курсовой?

Иди еще подумай!

Именно это, кажется, и есть настоящее возвращение к истокам.

Но много ли преподавателей к такому готовы? Кровью собственной подписаться под тем, что рассказывают ученикам своим?
77🔥51❤‍🔥1🥰1💯1