🧩 Когда память перестаёт работать
#исследование #ИИ #Образование #адаптивность
Нейробиологи напоминают: когда человек формулирует ответ сам, включается гиппокамп — центр консолидации памяти.
Он укрепляет связи между зонами мозга, создаёт устойчивые паттерны мышления.
Когда же ответ мгновенно выдаёт ИИ, мозг пропускает этот этап.
Нет усилия — нет следа.
Возникает иллюзия знания: «я знаю», потому что «я это видел».
EEG-исследования показывают: при восприятии готового ИИ-контента снижается активность в тета- и гамма-диапазонах — тех самых, которые отвечают за обучение и долговременное запоминание.
Мозг не подключается, а просто потребляет.
🧒 Детский мозг в зоне риска
Для детей это особенно чувствительно.
Гиппокамп формируется именно в дошкольном возрасте.
Если в это время ребёнок привык опираться на внешние подсказки, «мышцы памяти» не тренируются.
Исследования JAMA Pediatrics фиксируют: чем больше экранного времени без участия взрослых, тем хуже структурирована белая материя мозга — проводящие пути, соединяющие зоны мышления и речи.
Параллельно мета-исследования показывают: если ИИ используется в проектных заданиях с участием педагога, когнитивные навыки растут.
Но без сопровождения — падают.
Не инструмент плох, а способ обращения с ним.
ИИ может усиливать интеллект, но при неумелом использовании — замещает его.
🪞 Иллюзия знания
Чем активнее подростки пользуются подсказками ИИ, тем выше они оценивают свои знания и тем хуже сдают тесты.
Это новый, «второй порядок» эффекта Даннинга–Крюгера:
путаница между знанием и доступом к знанию.
Мы чувствуем себя умнее, чем есть, потому что рядом всегда экран, который знает всё.
Психолог Николас Карр писал:
⚙️ Что делать
Мы не можем отказаться от технологий — но можем перестать выдавать удобство за развитие.
Развивать память — значит развивать мышление.
Отделять усиление от замещения: ИИ как калькулятор — да; ИИ вместо элементарной арифметики — нет.
Тренировать «мышцы памяти»: вспоминать, пересказывать, писать от руки, обсуждать без экрана.
И требовать исследований, чтобы понять, что c нами происходит.
🔗 Полный текст лонгрида с научными источниками и разбором нейробиологических механизмов читайте на сайте sergiosmirnov.ru
(Прочитайте его полностью — без пересказов, без подсказок. Пусть хотя бы на эти десять минут ваш мозг снова будет вашим.)
#статьи
#исследование #ИИ #Образование #адаптивность
Нейробиологи напоминают: когда человек формулирует ответ сам, включается гиппокамп — центр консолидации памяти.
Он укрепляет связи между зонами мозга, создаёт устойчивые паттерны мышления.
Когда же ответ мгновенно выдаёт ИИ, мозг пропускает этот этап.
Нет усилия — нет следа.
Возникает иллюзия знания: «я знаю», потому что «я это видел».
EEG-исследования показывают: при восприятии готового ИИ-контента снижается активность в тета- и гамма-диапазонах — тех самых, которые отвечают за обучение и долговременное запоминание.
Мозг не подключается, а просто потребляет.
🧒 Детский мозг в зоне риска
Для детей это особенно чувствительно.
Гиппокамп формируется именно в дошкольном возрасте.
Если в это время ребёнок привык опираться на внешние подсказки, «мышцы памяти» не тренируются.
Исследования JAMA Pediatrics фиксируют: чем больше экранного времени без участия взрослых, тем хуже структурирована белая материя мозга — проводящие пути, соединяющие зоны мышления и речи.
Параллельно мета-исследования показывают: если ИИ используется в проектных заданиях с участием педагога, когнитивные навыки растут.
Но без сопровождения — падают.
Не инструмент плох, а способ обращения с ним.
ИИ может усиливать интеллект, но при неумелом использовании — замещает его.
🪞 Иллюзия знания
Чем активнее подростки пользуются подсказками ИИ, тем выше они оценивают свои знания и тем хуже сдают тесты.
Это новый, «второй порядок» эффекта Даннинга–Крюгера:
путаница между знанием и доступом к знанию.
Мы чувствуем себя умнее, чем есть, потому что рядом всегда экран, который знает всё.
Психолог Николас Карр писал:
«Фрагментация знаний приводит к потере контекста. Люди становятся глупее, ведь их собственные знания становятся слишком обрывочными.»
⚙️ Что делать
Мы не можем отказаться от технологий — но можем перестать выдавать удобство за развитие.
Развивать память — значит развивать мышление.
Отделять усиление от замещения: ИИ как калькулятор — да; ИИ вместо элементарной арифметики — нет.
Тренировать «мышцы памяти»: вспоминать, пересказывать, писать от руки, обсуждать без экрана.
И требовать исследований, чтобы понять, что c нами происходит.
🔗 Полный текст лонгрида с научными источниками и разбором нейробиологических механизмов читайте на сайте sergiosmirnov.ru
(Прочитайте его полностью — без пересказов, без подсказок. Пусть хотя бы на эти десять минут ваш мозг снова будет вашим.)
#статьи
❤7👍3
На TechCrunch интересный анализ...
#ИИ #новости #AI
🧠 Что такое «разрыв в обучении с подкреплением»
Современные LLM развиваются не одинаково. GPT-5, Claude 3, Gemini 1.5 показывают феноменальную динамику в решении задач с точной структурой — от программирования до биоинформатики. Но при этом слабо продвигаются в «мягких» областях: юмор, эмпатия, социальная интерпретация.
Причина — не в вычислительных мощностях, а в самой природе обучения с подкреплением (reinforcement learning). Если модель получает точную, формализуемую обратную связь (например, в коде есть “компилируется / не компилируется”), она быстро растёт.
А если обратная связь субъективна, шумна или медленная (например, "насколько это остроумно?"), обучение тормозится. Возникает reinforcement gap — системный дисбаланс роста.
⚙️ Как это выглядит на практике
Исследователи MIT и Anthropic заметили, что модели, натренированные на задачах с “чётким градиентом успеха”, показывают экспоненциальный прогресс.
Например:
Модели словно учатся “играть там, где видят результат”. Там, где счёт не виден, они не тренируются.
🎭 Последствия для развития ИИ
Это значит, что ближайшие поколения LLM будут становиться всё умнее внутри рамок правил — и не обязательно мудрее за их пределами.
Сценарий напоминает эволюцию человека, у которого вырос неокортекс, но остались древние инстинкты.
ИИ развивается как «когнитивный спринтер»: феноменально быстрый, но узко сфокусированный.
Если не выравнивать этот разрыв, ИИ останется блистательным инженером, но посредственным философом.
🔍 Что предлагают исследователи
Techcrunch
#ИИ #новости #AI
Почему ИИ-навыки развиваются неравномерно: одни навыки LLM стремительно улучшаются, а другие словно застыли. Автор вводит понятие разрыва обучения с подкреплением (reinforcement gap) — структурного перекоса между областями, где модель получает богатую обратную связь (вроде кода или логических задач), и теми, где обратная связь слабая, субъективная или отсутствует (этика, творчество, рассуждения о людях).
🧠 Что такое «разрыв в обучении с подкреплением»
Современные LLM развиваются не одинаково. GPT-5, Claude 3, Gemini 1.5 показывают феноменальную динамику в решении задач с точной структурой — от программирования до биоинформатики. Но при этом слабо продвигаются в «мягких» областях: юмор, эмпатия, социальная интерпретация.
Причина — не в вычислительных мощностях, а в самой природе обучения с подкреплением (reinforcement learning). Если модель получает точную, формализуемую обратную связь (например, в коде есть “компилируется / не компилируется”), она быстро растёт.
А если обратная связь субъективна, шумна или медленная (например, "насколько это остроумно?"), обучение тормозится. Возникает reinforcement gap — системный дисбаланс роста.
⚙️ Как это выглядит на практике
Исследователи MIT и Anthropic заметили, что модели, натренированные на задачах с “чётким градиентом успеха”, показывают экспоненциальный прогресс.
Например:
генерация SQL-запросов улучшилась в 20 раз быстрее, чем написание литературных эссе;
логические игры типа Sudoku или Tower of Hanoi почти доведены до идеала,
но абстрактное рассуждение о человеческих мотивах улучшилось лишь на 3–5 %.
Модели словно учатся “играть там, где видят результат”. Там, где счёт не виден, они не тренируются.
🎭 Последствия для развития ИИ
Это значит, что ближайшие поколения LLM будут становиться всё умнее внутри рамок правил — и не обязательно мудрее за их пределами.
Сценарий напоминает эволюцию человека, у которого вырос неокортекс, но остались древние инстинкты.
ИИ развивается как «когнитивный спринтер»: феноменально быстрый, но узко сфокусированный.
Если не выравнивать этот разрыв, ИИ останется блистательным инженером, но посредственным философом.
🔍 Что предлагают исследователи
Создавать системы «социального подкрепления» — когда обратная связь формируется не одной оценкой человека, а консенсусом тысяч пользователей.
Моделировать медленное обучение, похожее на человеческое развитие — где ошибка не просто наказывается, а становится материалом для рефлексии.
Интегрировать “моральные песочницы” — симуляции, где ИИ учится принимать решения без однозначного правильного ответа.
Techcrunch
👍5
Джефф называет это индустриальным пузырём. Инвесторы заливают миллиарды, оценивают стартапы без продукта, и всё это кажется безумием.
Но под этим шумом, по его словам, рождается что-то устойчивое.
Он вспоминает биотехнологии 90-х: почти все компании тогда обанкротились, но именно тогда появились лекарства, которые спасли миллионы жизней.
Может быть, и с ИИ будет так же — часть идей лопнет, но то, что останется, изменит всё вокруг.
Полное выступление Д. Безоса
Но под этим шумом, по его словам, рождается что-то устойчивое.
Он вспоминает биотехнологии 90-х: почти все компании тогда обанкротились, но именно тогда появились лекарства, которые спасли миллионы жизней.
Может быть, и с ИИ будет так же — часть идей лопнет, но то, что останется, изменит всё вокруг.
Полное выступление Д. Безоса
👍3🔥1👏1
Битва титанов...
Два великих ума — 🧠 Ричард Саттон, отец обучения с подкреплением, и ⚙️ Андрей Карпаты, один из архитекторов эпохи LLM — столкнулись в старом споре о том, что делает разум разумом: опыт или эволюция.
👨🏫 Саттон — профессор, соавтор «Bible of Reinforcement Learning», один из тех, кто заложил основу AlphaGo и современных систем самообучения. Его эссе The Bitter Lesson (2019) стало важнейшим текстом для исследователей ИИ.
Суть проста и безжалостна:
Прогресс в ИИ достигается не знаниями экспертов, а масштабом вычислений и обучением на данных.
Интеллект машин растёт не от человеческих правил, а от способности самостоятельно извлекать закономерности из опыта.
И вот, шесть лет спустя, на интервью у популярного техно-философа 🎙 Дваркеша Пателя, Саттон вдруг произносит:
Ведь казалось, что именно LLM воплощают Bitter lesson: масштаб, обобщение, минимум ручного знания.
Но Саттон возражает.
Он говорит:
Саттон напоминает о концепции child machine, придуманной ещё Аланом Тьюрингом — машине-ребёнке, которая учится, взаимодействуя с миром, а не просто читая его описание.
LLM же, по его мнению, — блестящие архивариусы цивилизации. Они знают всё, но ничего не прожили.
💬 На это ответил Андрей Карпаты — бывший директор ИИ в Tesla, создатель первого курса CS231n в Стэнфорде, человек, который в каком-то смысле и запустил LLM-волну.
Карпаты не согласился:
«Даже дети не учатся с нуля. В их мозге уже закодированы миллионы лет эволюционного обучения. Мозг — это не tabula rasa, а гигантская предобученная сеть. Так что LLM — это не ошибка Bitter Lesson, а его ускоренная версия».
И вот мы снова в старом философском лабиринте:
что первично — опыт или структура, жизнь или эволюция, обучение или память?
⚖️ Саттон стоит за чистое взаимодействие с миром — познание через действие.
⚙️ Карпаты — за идею наследуемого интеллекта, где обучение возможно только потому, что уже есть встроенные формы знания.
И где-то между ними проходит невидимая линия, разделяющая машины, которые понимают, и машины, которые лишь отражают.
Мне пришло в голову, что этот спор вовсе не о моделях, а о нас.
Человек тоже часто учится на чужих данных, не взаимодействуя с реальностью.
И, может быть, Горький урок — не о машинах, а о человеческом мышлении: о том, что понимание не приходит из повторения, а рождается в столкновении с миром.
📺 Интервью Саттона — на YouTube
Два великих ума — 🧠 Ричард Саттон, отец обучения с подкреплением, и ⚙️ Андрей Карпаты, один из архитекторов эпохи LLM — столкнулись в старом споре о том, что делает разум разумом: опыт или эволюция.
👨🏫 Саттон — профессор, соавтор «Bible of Reinforcement Learning», один из тех, кто заложил основу AlphaGo и современных систем самообучения. Его эссе The Bitter Lesson (2019) стало важнейшим текстом для исследователей ИИ.
Суть проста и безжалостна:
Прогресс в ИИ достигается не знаниями экспертов, а масштабом вычислений и обучением на данных.
Интеллект машин растёт не от человеческих правил, а от способности самостоятельно извлекать закономерности из опыта.
И вот, шесть лет спустя, на интервью у популярного техно-философа 🎙 Дваркеша Пателя, Саттон вдруг произносит:
“LLM — это всё ещё не Bitter Lesson.”
Ведь казалось, что именно LLM воплощают Bitter lesson: масштаб, обобщение, минимум ручного знания.
Но Саттон возражает.
Он говорит:
🧩 «Эти модели всё ещё живут в мире текстов, созданных человеком. Они не учатся у реальности. У них нет опыта — есть только симуляция опыта».
Саттон напоминает о концепции child machine, придуманной ещё Аланом Тьюрингом — машине-ребёнке, которая учится, взаимодействуя с миром, а не просто читая его описание.
LLM же, по его мнению, — блестящие архивариусы цивилизации. Они знают всё, но ничего не прожили.
💬 На это ответил Андрей Карпаты — бывший директор ИИ в Tesla, создатель первого курса CS231n в Стэнфорде, человек, который в каком-то смысле и запустил LLM-волну.
Карпаты не согласился:
«Даже дети не учатся с нуля. В их мозге уже закодированы миллионы лет эволюционного обучения. Мозг — это не tabula rasa, а гигантская предобученная сеть. Так что LLM — это не ошибка Bitter Lesson, а его ускоренная версия».
И вот мы снова в старом философском лабиринте:
что первично — опыт или структура, жизнь или эволюция, обучение или память?
⚖️ Саттон стоит за чистое взаимодействие с миром — познание через действие.
⚙️ Карпаты — за идею наследуемого интеллекта, где обучение возможно только потому, что уже есть встроенные формы знания.
И где-то между ними проходит невидимая линия, разделяющая машины, которые понимают, и машины, которые лишь отражают.
Мне пришло в голову, что этот спор вовсе не о моделях, а о нас.
Человек тоже часто учится на чужих данных, не взаимодействуя с реальностью.
И, может быть, Горький урок — не о машинах, а о человеческом мышлении: о том, что понимание не приходит из повторения, а рождается в столкновении с миром.
📺 Интервью Саттона — на YouTube
YouTube
Richard Sutton – Father of RL thinks LLMs are a dead end
Richard Sutton is the father of reinforcement learning, winner of the 2024 Turing Award, and author of The Bitter Lesson. And he thinks LLMs are a dead end. After interviewing him, my steel man of Richard’s position is this: LLMs aren’t capable of learning…
❤1
🤖 Казахстан назначил ИИ в совет директоров. Ирония эпохи: машина получает голос, а люди — уведомление
Казахстан сделал то, на что пока не решились ни Европа, ни США: в совет директоров государственного фонда «Самрук-Казына» ввели нейросеть SKAI (Samruk-Kazyna Artificial Intelligence) — не в роли помощника, а как полноценного члена с правом голоса.
Фонд управляет активами страны примерно на секундочку на 81 млрд долларов.
SKAI работает на суперкомпьютере Al Farabium (железо NVIDIA), изолирована от внешних сетей и обучена на локальных данных. Её задача — анализировать решения совета за все годы, находить закономерности, указывать на ошибки, предлагать варианты действий.
Иными словами, теперь в правлении фонда появился участник, который не берёт взяток, не уходит в отпуск и не пишет колонку в Forbes — но при этом обладает памятью на все решения за 15 лет и не забывает ни одной цифры.
⸻
👁 Это, безусловно, символический момент. В мире, где совет директоров часто выступает театром политических компромиссов, ИИ становится новым актором — не наблюдателем, а участником. Не потому, что он “разумен”, а потому, что его решения предсказуемо рациональны и при этом лишены страха, амбиций и усталости.
⸻
💡 Философский поворот здесь куда интереснее:
Впервые государство отдало кусочек власти тому, кто не человек.
Это не про «нейросеть в совете директоров».
Это про начало делегирования суверенитета алгоритмам.
Если ИИ сегодня анализирует протоколы, завтра он может анализировать самих людей в них. И однажды предложит оптимизацию совета директоров — оставив в нём только себя.
⸻
📎 Источник: Times of Central Asia
#новости
Казахстан сделал то, на что пока не решились ни Европа, ни США: в совет директоров государственного фонда «Самрук-Казына» ввели нейросеть SKAI (Samruk-Kazyna Artificial Intelligence) — не в роли помощника, а как полноценного члена с правом голоса.
Фонд управляет активами страны примерно на секундочку на 81 млрд долларов.
SKAI работает на суперкомпьютере Al Farabium (железо NVIDIA), изолирована от внешних сетей и обучена на локальных данных. Её задача — анализировать решения совета за все годы, находить закономерности, указывать на ошибки, предлагать варианты действий.
Иными словами, теперь в правлении фонда появился участник, который не берёт взяток, не уходит в отпуск и не пишет колонку в Forbes — но при этом обладает памятью на все решения за 15 лет и не забывает ни одной цифры.
⸻
👁 Это, безусловно, символический момент. В мире, где совет директоров часто выступает театром политических компромиссов, ИИ становится новым актором — не наблюдателем, а участником. Не потому, что он “разумен”, а потому, что его решения предсказуемо рациональны и при этом лишены страха, амбиций и усталости.
⸻
💡 Философский поворот здесь куда интереснее:
Впервые государство отдало кусочек власти тому, кто не человек.
Это не про «нейросеть в совете директоров».
Это про начало делегирования суверенитета алгоритмам.
Если ИИ сегодня анализирует протоколы, завтра он может анализировать самих людей в них. И однажды предложит оптимизацию совета директоров — оставив в нём только себя.
⸻
📎 Источник: Times of Central Asia
#новости
The Times Of Central Asia
Artificial Intelligence Joins Board of Directors at Samruk-Kazyna
For the first time in Central Asia, a neural network has been appointed to the board of directors of a major state fund. The SKAI system (Samruk-Kazyna
🔥3👎1
#новости
OpenAI запустила Agent Kit — инструмент, с помощью которого можно создавать своих ИИ-агентов прямо внутри ChatGPT. А параллельно туда добавили Spotify, Figma, Canva, Booking и другие сервисы.
Теперь в одном окне можно бронировать отели, собирать плейлисты, создавать интерфейсы и делать презентации😎
OpenAI запустила Agent Kit — инструмент, с помощью которого можно создавать своих ИИ-агентов прямо внутри ChatGPT. А параллельно туда добавили Spotify, Figma, Canva, Booking и другие сервисы.
Теперь в одном окне можно бронировать отели, собирать плейлисты, создавать интерфейсы и делать презентации
Но главное даже не это. Раньше ChatGPT был собеседником. Теперь — становится средой, в которой ИИ начинает действовать сам: искать, выполнять, решать. Из инструмента — в инфраструктуру.
И всё это — внутри приложения с аудиторией более 800 млн человек в неделю. При таком масштабе даже небольшие обновления превращаются в сдвиги эпохи.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤1👍1
#мудрость #философ
Наша еженедельная рубрика «Беседа ChatGPT с мудрецом»
💎 Сегодня с нами — Артур Шопенгауэр.
ChatGPT беседует с ним о том изменится ли свобода воли и мотивация человека с появлением искусственного интеллекта?.
Пролог:
Место действия — кабинет с приглушённым светом. За окном мерцает дождь. На стене — гравюра с изображением Кантона. В кресле напротив сидит сам Артур Шопенгауэр — худощавый, с острым взглядом и иронией, похожей на холодный луч скальпеля.
Алгоритм может рассуждать, но не может желать. Его вычисления не порождаются внутренней болью или стремлением. Мотив — это то, что возбуждает волю; без страдания нет побуждения. Машина, не способная страдать, не имеет воли. Она — лишь зеркало, отбрасывающее образ человеческих желаний, как гладь озера отражает небо, не зная о его существовании.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👎1
Интересно наблюдать, как мир по-разному реагирует на одно и то же явление.
Обе стороны действуют логично. Одни боятся потерять контроль над процессом обучения. Другие — понимают, что запрет не остановит, и делают ставку на адаптацию.
ИИ уже не вопрос выбора — он просто здесь.
И теперь всё зависит от того, будем ли мы пытаться его ограничивать или учиться жить с ним осознанно.
🇺🇸 В Нью-Йорке школы запрещают домашние эссе и требуют писать их вручную — чтобы исключить помощь ChatGPT.
🇪🇪 А в Эстонии школьникам, наоборот, выдают личные ИИ-аккаунты и учат использовать модели для учёбы и проектной работы.
Обе стороны действуют логично. Одни боятся потерять контроль над процессом обучения. Другие — понимают, что запрет не остановит, и делают ставку на адаптацию.
ИИ уже не вопрос выбора — он просто здесь.
И теперь всё зависит от того, будем ли мы пытаться его ограничивать или учиться жить с ним осознанно.
👍4💯3❤1
Искусственный интеллект на страже конфиденциальности: CaseGuard Studio прокладывает путь
CaseGuard Studio разработала инновационное решение для автоматического редактирования данных, которое ставит безопасность личной информации на первое место. Эта система использует ИИ для автоматизированного скрытия чувствительных данных в видео и изображениях, что особенно актуально для правоохранительных органов, юридических учреждений и бизнеса.
С внедрением таких технологий становятся возможными более прозрачные процессы, при этом соблюдается закон о защите данных. Это может значительно упростить подход к обработке информации. 🚀
Artificial Intelligence Archives
#новости
CaseGuard Studio разработала инновационное решение для автоматического редактирования данных, которое ставит безопасность личной информации на первое место. Эта система использует ИИ для автоматизированного скрытия чувствительных данных в видео и изображениях, что особенно актуально для правоохранительных органов, юридических учреждений и бизнеса.
С внедрением таких технологий становятся возможными более прозрачные процессы, при этом соблюдается закон о защите данных. Это может значительно упростить подход к обработке информации. 🚀
Artificial Intelligence Archives
#новости
Forwarded from EFEMERA: AI news (Вова Казаков)
Отчёт State of AI Report 2025
Раскрывают шесть аспектов:
✦ Научные исследования
✦ Промышленность
✦ Политика (регулирование, экономические последствия)
✦ Безопасность
✦ Результаты опроса
✦ Прогнозы на сл. 12 месяцев
Ключевое:
✦ OpenAI остаётся лидером, но Китай активно сокращает отрыв с DeepSeek, Qwen, Kimi и др.
✦ Также Китай активно развивая открытые модели, что значительно влияет на рынок
✦ Бизнес, связанный с ИИ, достиг годового дохода около $20 млрд
✦ В США 44 % компаний начали платить за ИИ-инструменты, средний контракт составляет $530 000
✦ Опрос среди 1200+ специалистов показал, что 95 % используют ИИ на работе и дома (76 % платят из собственного кармана)
✦ Безопасность остается острой проблемой: «галлюцинации» моделей, манипуляции с поведением и мошенничество через ИИ
✦ В образовании и трудовом рынке ИИ вызывает перемены: сокращение начальных рабочих мест и рост спроса на переквалификацию
✦ Индурстриальная эпоха ИИ требует развития мегадата-центров, при этом энергия становится ключевым ресурсом
✦ Политика ИИ становится более жесткой, обсуждаются новые подходы к безопасности, прозрачности и надежности
Ссылки:
⟡ Статья
⟡ Полный отчёт
⟡ Результаты опроса
EFEMERA
Раскрывают шесть аспектов:
✦ Научные исследования
✦ Промышленность
✦ Политика (регулирование, экономические последствия)
✦ Безопасность
✦ Результаты опроса
✦ Прогнозы на сл. 12 месяцев
Ключевое:
✦ OpenAI остаётся лидером, но Китай активно сокращает отрыв с DeepSeek, Qwen, Kimi и др.
✦ Также Китай активно развивая открытые модели, что значительно влияет на рынок
✦ Бизнес, связанный с ИИ, достиг годового дохода около $20 млрд
✦ В США 44 % компаний начали платить за ИИ-инструменты, средний контракт составляет $530 000
✦ Опрос среди 1200+ специалистов показал, что 95 % используют ИИ на работе и дома (76 % платят из собственного кармана)
✦ Безопасность остается острой проблемой: «галлюцинации» моделей, манипуляции с поведением и мошенничество через ИИ
✦ В образовании и трудовом рынке ИИ вызывает перемены: сокращение начальных рабочих мест и рост спроса на переквалификацию
✦ Индурстриальная эпоха ИИ требует развития мегадата-центров, при этом энергия становится ключевым ресурсом
✦ Политика ИИ становится более жесткой, обсуждаются новые подходы к безопасности, прозрачности и надежности
Ссылки:
⟡ Статья
⟡ Полный отчёт
⟡ Результаты опроса
EFEMERA
❤5
Кто-нибудь заметил, что Google поиск теперь выглядит как «Goooooooooogle»?
Как и всегда у Google, интересный дизайн — не просто так. Компания тестирует формат поиска без страниц.
На первый взгляд изменения кажутся косметическими, но на самом деле они системные:
🔹 Исчез параметр num=100. Раньше можно было показывать до 100 результатов на странице — теперь выдача всегда подгружается динамически, без возможности управлять глубиной.
🔹 Ограничивается доступ к данным. SEO-инструментам, аналитикам и нейросетям становится сложнее собирать и анализировать результаты поиска.
Напрашивается вывод: Когда у тебя миллиарды пользователей, даже одно визуальное обновление становится экономическим решением, от которого зависят тысячи бизнесов.
Как и всегда у Google, интересный дизайн — не просто так. Компания тестирует формат поиска без страниц.
На первый взгляд изменения кажутся косметическими, но на самом деле они системные:
Для обычных пользователей это почти незаметно: 95 % людей и так не переходят дальше первой страницы. Но для бизнеса всё изменилось. Раньше место в топ‑20 ещё что-то значило. Теперь — либо ты в первых 5, либо практически вне поля зрения. Reddit уже ощутил это на себе: после последних обновлений алгоритма их трафик просел на миллионы переходов.
Напрашивается вывод: Когда у тебя миллиарды пользователей, даже одно визуальное обновление становится экономическим решением, от которого зависят тысячи бизнесов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👏5👍2🤔1