Адаптивность к ИИ
5.68K subscribers
407 photos
160 videos
1 file
214 links
Авторские размышления о трансформации мышления, образования и человека под влиянием искусственного интеллекта. Исследования, эссе, метод FLEX. https://sergiosmirnov.ru
Download Telegram
Джефф называет это индустриальным пузырём. Инвесторы заливают миллиарды, оценивают стартапы без продукта, и всё это кажется безумием.

Но под этим шумом, по его словам, рождается что-то устойчивое.

Он вспоминает биотехнологии 90-х: почти все компании тогда обанкротились, но именно тогда появились лекарства, которые спасли миллионы жизней.

Может быть, и с ИИ будет так же — часть идей лопнет, но то, что останется, изменит всё вокруг.

Полное выступление Д. Безоса
👍3🔥1👏1
Битва титанов...

Два великих ума — 🧠 Ричард Саттон, отец обучения с подкреплением, и ⚙️ Андрей Карпаты, один из архитекторов эпохи LLM — столкнулись в старом споре о том, что делает разум разумом: опыт или эволюция.


👨‍🏫 Саттон — профессор, соавтор «Bible of Reinforcement Learning», один из тех, кто заложил основу AlphaGo и современных систем самообучения. Его эссе The Bitter Lesson (2019) стало важнейшим текстом для исследователей ИИ.

Суть проста и безжалостна:
Прогресс в ИИ достигается не знаниями экспертов, а масштабом вычислений и обучением на данных.
Интеллект машин растёт не от человеческих правил, а от способности самостоятельно извлекать закономерности из опыта.

И вот, шесть лет спустя, на интервью у популярного техно-философа 🎙 Дваркеша Пателя, Саттон вдруг произносит:

“LLM — это всё ещё не Bitter Lesson.”


Ведь казалось, что именно LLM воплощают Bitter lesson: масштаб, обобщение, минимум ручного знания.
Но Саттон возражает.

Он говорит:
🧩 «Эти модели всё ещё живут в мире текстов, созданных человеком. Они не учатся у реальности. У них нет опыта — есть только симуляция опыта».


Саттон напоминает о концепции child machine, придуманной ещё Аланом Тьюрингом — машине-ребёнке, которая учится, взаимодействуя с миром, а не просто читая его описание.
LLM же, по его мнению, — блестящие архивариусы цивилизации. Они знают всё, но ничего не прожили.

💬 На это ответил Андрей Карпаты — бывший директор ИИ в Tesla, создатель первого курса CS231n в Стэнфорде, человек, который в каком-то смысле и запустил LLM-волну.
Карпаты не согласился:

«Даже дети не учатся с нуля. В их мозге уже закодированы миллионы лет эволюционного обучения. Мозг — это не tabula rasa, а гигантская предобученная сеть. Так что LLM — это не ошибка Bitter Lesson, а его ускоренная версия».

И вот мы снова в старом философском лабиринте:
что первично — опыт или структура, жизнь или эволюция, обучение или память?

⚖️ Саттон стоит за чистое взаимодействие с миром — познание через действие.
⚙️ Карпаты — за идею наследуемого интеллекта, где обучение возможно только потому, что уже есть встроенные формы знания.

И где-то между ними проходит невидимая линия, разделяющая машины, которые понимают, и машины, которые лишь отражают.

Мне пришло в голову, что этот спор вовсе не о моделях, а о нас.

Человек тоже часто учится на чужих данных, не взаимодействуя с реальностью.

И, может быть, Горький урок — не о машинах, а о человеческом мышлении: о том, что понимание не приходит из повторения, а рождается в столкновении с миром.

📺 Интервью Саттона — на YouTube
1
🤖 Казахстан назначил ИИ в совет директоров. Ирония эпохи: машина получает голос, а люди — уведомление

Казахстан сделал то, на что пока не решились ни Европа, ни США: в совет директоров государственного фонда «Самрук-Казына» ввели нейросеть SKAI (Samruk-Kazyna Artificial Intelligence) — не в роли помощника, а как полноценного члена с правом голоса.

Фонд управляет активами страны примерно на секундочку на 81 млрд долларов.
SKAI работает на суперкомпьютере Al Farabium (железо NVIDIA), изолирована от внешних сетей и обучена на локальных данных. Её задача — анализировать решения совета за все годы, находить закономерности, указывать на ошибки, предлагать варианты действий.

Иными словами, теперь в правлении фонда появился участник, который не берёт взяток, не уходит в отпуск и не пишет колонку в Forbes — но при этом обладает памятью на все решения за 15 лет и не забывает ни одной цифры.



👁 Это, безусловно, символический момент. В мире, где совет директоров часто выступает театром политических компромиссов, ИИ становится новым актором — не наблюдателем, а участником. Не потому, что он “разумен”, а потому, что его решения предсказуемо рациональны и при этом лишены страха, амбиций и усталости.



💡 Философский поворот здесь куда интереснее:
Впервые государство отдало кусочек власти тому, кто не человек.
Это не про «нейросеть в совете директоров».
Это про начало делегирования суверенитета алгоритмам.

Если ИИ сегодня анализирует протоколы, завтра он может анализировать самих людей в них. И однажды предложит оптимизацию совета директоров — оставив в нём только себя.



📎 Источник: Times of Central Asia

#новости
🔥3👎1
#новости

OpenAI запустила Agent Kit — инструмент, с помощью которого можно создавать своих ИИ-агентов прямо внутри ChatGPT. А параллельно туда добавили Spotify, Figma, Canva, Booking и другие сервисы.

Теперь в одном окне можно бронировать отели, собирать плейлисты, создавать интерфейсы и делать презентации 😎

Но главное даже не это. Раньше ChatGPT был собеседником. Теперь — становится средой, в которой ИИ начинает действовать сам: искать, выполнять, решать. Из инструмента — в инфраструктуру.

И всё это — внутри приложения с аудиторией более 800 млн человек в неделю. При таком масштабе даже небольшие обновления превращаются в сдвиги эпохи.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍1
#мудрость #философ


Наша еженедельная рубрика «Беседа ChatGPT с мудрецом» ✉️

💎 Сегодня с нами — Артур Шопенгауэр.

ChatGPT
беседует с ним о том изменится ли свобода воли и мотивация человека с появлением искусственного интеллекта?.

Пролог:
Место действия — кабинет с приглушённым светом. За окном мерцает дождь. На стене — гравюра с изображением Кантона. В кресле напротив сидит сам Артур Шопенгауэр — худощавый, с острым взглядом и иронией, похожей на холодный луч скальпеля.

Алгоритм может рассуждать, но не может желать. Его вычисления не порождаются внутренней болью или стремлением. Мотив — это то, что возбуждает волю; без страдания нет побуждения. Машина, не способная страдать, не имеет воли. Она — лишь зеркало, отбрасывающее образ человеческих желаний, как гладь озера отражает небо, не зная о его существовании.


🔖Если вас это заинтересовало, предлагаю прочитать полную беседу Chat GPT и Артура Шопенгауэра.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👎1
Доброе утро!
😁10
Интересно наблюдать, как мир по-разному реагирует на одно и то же явление.

🇺🇸 В Нью-Йорке школы запрещают домашние эссе и требуют писать их вручную — чтобы исключить помощь ChatGPT.

🇪🇪
А в Эстонии школьникам, наоборот, выдают личные ИИ-аккаунты и учат использовать модели для учёбы и проектной работы.


Обе стороны действуют логично. Одни боятся потерять контроль над процессом обучения. Другие — понимают, что запрет не остановит, и делают ставку на адаптацию.

ИИ уже не вопрос выбора — он просто здесь.

И теперь всё зависит от того, будем ли мы пытаться его ограничивать или учиться жить с ним осознанно.
👍4💯31
Искусственный интеллект на страже конфиденциальности: CaseGuard Studio прокладывает путь

CaseGuard Studio разработала инновационное решение для автоматического редактирования данных, которое ставит безопасность личной информации на первое место. Эта система использует ИИ для автоматизированного скрытия чувствительных данных в видео и изображениях, что особенно актуально для правоохранительных органов, юридических учреждений и бизнеса.

С внедрением таких технологий становятся возможными более прозрачные процессы, при этом соблюдается закон о защите данных. Это может значительно упростить подход к обработке информации. 🚀

Artificial Intelligence Archives

#новости
Forwarded from EFEMERA: AI news (Вова Казаков)
Отчёт State of AI Report 2025

Раскрывают шесть аспектов:
✦ Научные исследования
✦ Промышленность
✦ Политика (регулирование, экономические последствия)
✦ Безопасность
✦ Результаты опроса
✦ Прогнозы на сл. 12 месяцев

Ключевое:
✦ OpenAI остаётся лидером, но Китай активно сокращает отрыв с DeepSeek, Qwen, Kimi и др.
✦ Также Китай активно развивая открытые модели, что значительно влияет на рынок
✦ Бизнес, связанный с ИИ, достиг годового дохода около $20 млрд
✦ В США 44 % компаний начали платить за ИИ-инструменты, средний контракт составляет $530 000
✦ Опрос среди 1200+ специалистов показал, что 95 % используют ИИ на работе и дома (76 % платят из собственного кармана)
✦ Безопасность остается острой проблемой: «галлюцинации» моделей, манипуляции с поведением и мошенничество через ИИ
✦ В образовании и трудовом рынке ИИ вызывает перемены: сокращение начальных рабочих мест и рост спроса на переквалификацию
✦ Индурстриальная эпоха ИИ требует развития мегадата-центров, при этом энергия становится ключевым ресурсом
✦ Политика ИИ становится более жесткой, обсуждаются новые подходы к безопасности, прозрачности и надежности

Ссылки:
Статья
Полный отчёт
Результаты опроса

EFEMERA
5
Кто-нибудь заметил, что Google поиск теперь выглядит как «Goooooooooogle»?

Как и всегда у Google, интересный дизайн — не просто так. Компания тестирует формат поиска без страниц.

На первый взгляд изменения кажутся косметическими, но на самом деле они системные:

🔹Исчез параметр num=100. Раньше можно было показывать до 100 результатов на странице — теперь выдача всегда подгружается динамически, без возможности управлять глубиной.

🔹Ограничивается доступ к данным. SEO-инструментам, аналитикам и нейросетям становится сложнее собирать и анализировать результаты поиска.

Для обычных пользователей это почти незаметно: 95 % людей и так не переходят дальше первой страницы. Но для бизнеса всё изменилось. Раньше место в топ‑20 ещё что-то значило. Теперь — либо ты в первых 5, либо практически вне поля зрения. Reddit уже ощутил это на себе: после последних обновлений алгоритма их трафик просел на миллионы переходов.


Напрашивается вывод: Когда у тебя миллиарды пользователей, даже одно визуальное обновление становится экономическим решением, от которого зависят тысячи бизнесов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👏5👍2🤔1
🧠 MIT провело исследование: участники, писавшие эссе с помощью ChatGPT, показали самую низкую мозговую активность.

Делюсь с вами самыми интересными наблюдениями:

1. 83% участников, писавших с ChatGPT, не смогли вспомнить ни одного предложения из своих же текстов. Те, кто писал самостоятельно, такой проблемы не имели.

2. Нейронная активность снизилась почти вдвое — на 47%.

3. После отказа от ИИ активность не восстанавливается сразу. Учёные называют это «умственным долгом» — привычка думать уступает место привычке получать ответ.

4. Тексты с ChatGPT оценивали высоко по форме, но называли “безжизненными” и “плоскими”.


💡 Но при этом — самый высокий успех был у тех, кто сначала формулировал мысли сам, а уже потом использовал ChatGPT как инструмент.

А значит, дело не в самом ИИ — а в том, в какой момент ты его подключаешь. Сначала подумай сам → потом спроси ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7