Малоизвестное интересное
62.9K subscribers
78 photos
1 video
11 files
1.76K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
​​Китай создаёт «Министерство правды».
Построение сетевой цивилизации путем изведения инакомыслящих.

«Создание сетевой цивилизации – это важная комплексная задача, решение которой необходимо для построения современной социалистической страны. Неизбежными требованиями при создании сетевой цивилизации являются:
• повышение социалистической духовности,
• быстрая адаптация к изменениям в условиях социальных противоречий,
• удовлетворение насущных потребностей общества в улучшении жизни,
• ускорение строительства сетевой системы власти».
Так пишут Компартия и Госсовет Китая в недавно опубликованном ими «Меморандуме по укреплению построения сетевой цивилизации» (1).

В «Меморандуме» подчеркивается, что «для укрепления построения сетевой цивилизации мы должны следовать руководству Си Цзиньпина по специфике новой эры социализма с китайскими особенностями, реализовывать на практике важные мысли Генерального секретаря Цзиньпина о сетевой власти и выполнять его важные наставления о построении духовной цивилизации, энергично продвигающей основные ценности социализма».

Смысл этого важнейшего для КПК документа в том, что Интернет должен стать «цивилизованным», чтобы продвигать в мир сетевую идеологию на основе марксистских ценностей, переосмысленных Си Цзиньпином. Для этого необходимо усилить идеологическое руководство киберпространством и укрепить его моральные основы.

«Меморандум» уже начал подкрепляться первыми серьезными действиями. Главное из них – создание подобия «Министерства правды». Его основой стал общенациональный онлайн-механизм борьбы с фейковыми новостями. Он создается на базе обновленной и расширенной Китайской интернет-платформы для борьбы со слухами, запущеной 3 года назад (2), и централизованной службы проверки соответствия фактов одобренной партией линии.

В основе последнего механизм массовых онлайн-доносов.
При этом фейком считается любой контент, не согласующийся с линией партии (3) и разделяемый по 9 категориям:
1. политически вредный контент
2. жестокость и терроризм
3. мошенничество
4. пошлость
5. порнография
6. азартные игры
7. слухи
8. нарушение социалистического образа жизни
9. иное

Эта кампания массовых онлайн-доносов напоминает мне кампанию по борьбе с воробьями (в рамках «Кампании против 4-х вредителей», 1958) в ходе «Большого скачка» (4). Тогда в ходе двухлетнего крестового похода сотен миллионов китайцев против воробьев было уничтожено почти 2 млрд птиц.
А потом в 1960 выяснилось, что в отсутствии воробьев саранча сжирает куда больше риса, чем съедали воробьи. И чтобы восстановить популяцию птиц, воробьев стали импортировать из СССР.

Боюсь, как бы не пришлось после завершения кампании в духе уже начатой акции « Смело стойте на гребне волны, чтобы громче опровергать слухи» (5) импортировать инакомыслящих из-за рубежа. Вот только из России в этот раз вряд ли получится. К тому времени их здесь может не остаться.

1
2
3
4
5
#Китай
Общеизвестно - будущее трудно предсказать и можно лишь вообразить. Если же речь идет не о будущем конкретных людей, а о будущем всего человечества, воображаемая нами картина будет сильно зависеть от двух важных моментов.
1. Действительно ли люди живут во все более ненасильственном мире, в котором вероятность большой войны снижается из-за гуманизирующей роли прогресса?
2. Правда ли, что в современном обществе роль научных знаний при формировании мировоззрения людей становится все меньше, а роль популярных мифов все больше?

От ответа на первый вопрос в принципе зависит быть или не быть человечеству в воображаемом будущем.
От ответа на второй, - что будет у людей будущего в головах, как они будут воспринимать мир, других людей и самих себя.

Первый вопрос был поставлен еще пять лет назад. Его обсуждению был посвящен проходивший в 2016 году в городе Берген 161-й Нобелевский симпозиум «Причины мира» — The Causes of Peace.

Второй — поставлен всего месяц назад семнадцатью учеными международного уровня в опубликованной ими книге «The Darker Angels of Our Nature. Refuting the Pinker Theory of History & Violence» (Темные ангелы нашей природы. Опровержение теории Пинкера об истории и насилии).

Как видно уже из названия, цель книги — ответить на 1-й вопрос: дать научное опровержение популярного и вводящего в заблуждение тезиса Стивена Пинкера о том, что мы, люди, живем во все более мирном мире. Заодно, авторы попытались ответить и на 2-й вопрос.

Но обо всем по порядку.
Читайте в моём новом посте (9 мин чтения):
- на Medium https://bit.ly/3AtzwME
-на Яндекс Дзен https://clck.ru/YAR9Q
#Прогресс #Насилие #УровеньНасилия #Война #БольшаяВойна
​​The Great AI Reckoning.
Глубокое обучение построило дивный новый мир, но он трещит по швам.

Так называется новый спецотчет IEEE - крупнейшей в мире ассоциации технических специалистов (423 тыс. членов из 160 стран).
Название таит в себе важный смысл. Оно обыгрывает неоднозначность английского слова reckoning – расчет: в смысле вычисление и расплата.
• Вычислительные ресурсы, требуемые для развития ИИ на основе глубокого обучения, становятся неоправданно большими.
• Расплатой за выбор глубокого обучения в качестве магистрального пути развития ИИ становится нарастающее ощущение приближающегося тупика.


Спецотчет состоит из 8 глав, понятно написанных простым языком.
1) Бурное прошлое и неопределенное будущее ИИ. Есть ли выход из цикла взлетов и падений ИИ? (8 мин чтения)
2) Как работает глубокое обучение. Внутри нейронных сетей, на которых основан современный ИИ (3 мин чтения)
3) Говорят эксперты по ИИ: памятные цитаты из репортажей IEEE об ИИ (4 мин чтения)
4) Как DeepMind переизобретает робота. Покорив Го и фолдинг белков, компания переключилась на реально трудную задачу (14 мин чтения)
5) 7 причин, по которым ИИ терпят неудачи. Нейронные сети могут быть катастрофически хрупкими, забывчивыми и удивительно слабыми в математике (8 мин чтения)
6) Неудобная правда об ИИ. ИИ не превзойдет человеческий интеллект в обозримом будущем (3 мин чтения)
7) Уменьшение отдачи от глубокого обучения. Стоимость улучшений становится непосильной (10 мин чтения)
8) Как армия США превращает роботов в командных игроков. Инженеры борются с ограничениями возможностей глубокого обучения боевых ботов (11 мин чтения)

В качестве тизера взгляните на эту аналитику из спецотчета.
✔️ Экстраполируя достижения последних лет, можно предположить, что к 2025 году уровень ошибок в лучших системах глубокого обучения, предназначенных для распознавания объектов на основе набора данных ImageNet, должен быть снижен до 5% см. рис.
✔️ Но вычислительные ресурсы и энергия, необходимые для подготовки таких систем, будут огромными, что приведет к выбросу такого количества углекислого газа, какое Нью-Йорк производит за месяц см. рис.

От себя добавлю.
Главную заморочку в развитии ИИ можно проиллюстрировать приложенным рисунком из книги Брайана Смита «Reckoning and Judgment: The Promise of AI».
• В правой-нижней части рисунка сгруппированы люди, разбирающиеся в искусственном интеллекте, но ни черта не понимающие в человеческом разуме (Курцвейл и Бостром – типичные примеры).
• В левой-верхней части - люди, прекрасно разбирающиеся в человеческом разуме, но ни черта не понимающие в искусственном интеллекте (в качестве примера, Кант с Витгенштейном и слов то таких не знали).
• Между этими двумя полюсами в размытой темной дуге находятся многие тысячи идеологов и разработчиков в области ИИ.
• Это и есть главная проблема.
- Понять, как устроен и работает «интеллект», невозможно двигаясь на показанном графике лишь только направо или только наверх.
- Для реального прорыва нужны люди в правой-верхней части рисунка… И много таких людей.
#ИИ #AGI
P.S. Каналу «Малоизвестное интересное» 5 лет. Не думал, что так надолго задержусь в этом деле. Но пока в правой-верхней части рисунка людей непростительно мало, буду продолжать писать про это (ебж) 😊
В 2022 ИИ превзойдет людей в физике и в сложных игровых модельных средах.
Вся самая актуальная и нужная информация об ИИ в 2021 и прогнозах на 2022.
Два прогнозируемых потрясающих прорыва ИИ в следующем году:
✔️ ИИ от DeepMind совершит открытие в физике (возможно, это будет открытие в области удержания термояда).
✔️ ИИ уйдет в недосягаемый отрыв (как в шахматах и Го), соревнуясь с людьми в сложных игровых средах, моделирующих изощренные виртуальные миры.

Так считают Натан Бенайх и Ян Хогарт – серийные инвесторы в ИИ-ориентированные стартапы - 4й год подряд делающие невозможное. 4й раз они в октябре выпускают уникальный отчет о текущем состоянии дел в области ИИ такого качества (глубина проникновения в предмет, фокусировка на главное, видение за деревьями леса), что все индустриальные аналитики, консультанты и профэксперты нервно курят 😎.

188-слайдовый отчет содержит «сухой остаток» четко структурированного описания прогресса в области ИИ, уделяя особое внимание ключевым событиям последних 12 месяцев.
https://www.stateof.ai/

В завершение отчета, как и прошлые разы, даны конкретные прогнозы на грядущие 12 мес (из прошлогодних восьми сбылись пять с половиной (!)). Среди новых прогнозов, помимо двух названных, такой: ИИ-мир станет трехполярным.
✔️ Возглавляемый Дарио Амодеи стартап Anthropic (это команда звездных профи, отколовшаяся от OpenAI и привлекшая звездных инвесторов) предъявит миру свои крупномасштабные ИИ системы, что превратит Anthropic в 3-го ключевого игрока мира в области AGI.

Давать резюме прекрасно выполненной работы бессмысленно - каждый найдет здесь интересное и нужное на свой вкус.

Мне же остается, в качестве тизера, привести по одному из выводов каждого из 4-х тематических разделов отчета.

Исследования
- ИИ-национализм торжествует в разработке больших языковых моделей (LLM), - каждая страна хочет иметь свою суверенную LLM.
Таланты
- Академические группы с трудом конкурируют за вычислительные ресурсы, в то время как 88 % ведущих преподавателей ИИ получают финансирование от Big Tech.
Индустрия
- Компании, связанные с полупроводниками, значительно ускоряются по мере того, как страны стремятся к суверенитету в цепочке поставок.
Социально-политические аспекты
- ИИ в буквальном смысле становится движком гонки вооружений: автономное оружие развертывается на поле боя, и регулярно проводятся испытания новых разработок.

В общем, читайте сами этот наиполезнейший отчет с десятками графиков, диаграмм и картинок.

Мой рассказ об отчетах
2018 (https://t.me/theworldisnoteasy/545),
2019 (https://t.me/theworldisnoteasy/816),
2020 (https://t.me/theworldisnoteasy/1135),
- их ценность в том, что там много полезной инфы, ставшей с тех пор еще более актуальной.
#ИИ
Мой новый пост приурочен к весьма интересному событию - открыт свободный доступ к визуальному интерфейсу новой системы прогнозирования военизированных межгосударственных споров (militarised interstate disputes – MID). Система разрабатывалась 10 лет командой из 30 специалистов инвестиционного фонда Coolabah Capital Investments.
Это не академическое исследование. Тут, говоря словами Нассима Талеба, шкура на кону. От точности прогнозов этого инвестфонда зависит судьба $7+ млрд инвестиций, находящихся под его управлением. Вот почему это не только любопытная, но и весьма интригующая новость.
Кроме того, теперь каждый может сам увидеть и проанализировать, как менялись шансы войны между парами стран (Россия и США, Россия и Китай, Индия и Китай, Германия и Россия, Австралия и Китай …) за последние 160 лет, и каков их прогноз на ближайший год, 5 и 10 лет.
Продолжить чтение (12 мин)
- на Medium https://bit.ly/3BYJ03Q
- на Яндекс Дзен https://clck.ru/YJKLm
#война #предсказание
Приговор – в ад на перековку.
Перепрошивка личности насильников путем VR-переноса в шкуру их жертв.

На приложенном видео по заданному таймкоду запускается сцена в виртуальной реальности (VR), предшествующая домашнему насилию. Все, как обычно и бывает: от наезда типа «посмотри на себя в зеркало, - выглядишь, как жирная корова» до эмоциональной накачки мужчины, готового вот-вот ударить (1).
Эта сцена из сентябрьского семинара испанского тюремного психолога Николаса Барнса, уже много лет разрабатывающего методы исправления психологии насильников путем помещения их в шкуру их собственных жертв.

Своей работой Барнс доказывает, что в ходе «исправительных VR-сеансов», мозг насильника:
1) подменяет его телесные ощущения на ощущения жертвы;
2) запускает осознание того, что тебя сейчас будут бить (а то и убивать);
3) включает эмоциональную накачку букета негативных эмоций (страх, обида …) со всеми положенными нейромедиаторными последствиями.
Если повторять «исправительный VR-сеанс» с определенной регулярностью, начинается как бы перепрошивка личности насильника. И с каждым разом он как бы становится все менее насильником из-за переноса в его личность ощущений страдания его жертв (2).

Однако, не смотря на наличие экспериментальных подтверждений того, что рецидивы насилия у прошедших VR-терапию почти втрое реже, чем без нее (эксперименты проводились в тюрьмах Испании, США и Южной Африки (3)), массовое внедрение VR-терапии в систему исправительных институтов сдерживалось. Не хватало теории, объясняющей «перепрошивку личности» насильника.
В этом году такая теория появилась. Было экспериментально доказано, что пребывание в шкуре жертвы перенастраивает реакции сети пассивного режима работы мозга на входные сигналы от эмоций (4). А это, в свою очередь, меняло ситуативное поведение потенциальных насильников.

Это открытие вдохновило правительства Франции и Финляндии (возможно, еще и Великобритания) начать годичный большой эксперимент - экспериментальные программы по корректировке поведения и психологии лиц, обвиненных в домашнем насилии (5).

Если правительства получат твердые подтверждения эффективности «исправительных VR-сеансов» для исправления поведения людей, последствия могут быть колоссальные.
Только представьте, например, такое развитие этой темы - убийц исправляют тем, что заставляют многократно испытывать страдания их жертв, как бы при жизни отправляя их в ад на перековку.

Источники: 1 2 3 4 5
#Насилие #VR
Почему нейронаука зашла в тупик.
Опубликован «меморандум Сломана-Паттерсона-Барби».

В недавнем интервью Евгений Ижикевич кратко и точно прокомментировал, почему нейронаука зашла в тупик.
«В нейронауке нет продвижения за последние 50 лет, потому что какой-то из фактов, которые мы считаем верными, неверен».
Т.е. проблема в базовой предпосылке, сбивающей развитие нейронауки с верного курса, подобно топору под компасом, подложенному злодеем Негоро, дабы сбить с курса «Пилигрим», ведомый «пятнадцатилетним капитаном» Диком Сэндом.

К сказанному Ижикевичем могу добавить одно.
Базовый ошибочный факт в основании нейронауки известен не первый год. И с каждым годом увеличивается корпус доказательств этого. Так что проблема не в том, чтобы обнаружить «топор под компасом». А в том, чтобы признать его наличие и вынуть.

Ошибочный факт – это предположение, что человеческие знания представлены в индивидуальном мозге и передаются между людьми. Тогда как процессы познания происходят в социо-когнитивных сетях сообществ знаний.
Исправлением этого ошибочного факта будет признание, что индивидуальным может быть только мозг, а разум – исключительно коллективный феномен.


В силу этого, познание просто несводимо к нейробиологии. Оно распределено в физическом мире по многим умам (в т. ч. давно умерших людей) и бесчисленному множеству артефактов. А задача понимания сложных предметов, явлений и идей, по сути, сводится к её передаче на «аутсорсинг» - использование опыта других людей для принятия собственных решений.

Т.о. познание - это в значительной степени групповая, а не индивидуальная деятельность. В своих рассуждениях, представлениях и принятии решений люди зависят от других. Когнитивная нейробиология не способна пролить свет на этот аспект когнитивной обработки. МРТ и прочие инструменты исследований мозга были разработаны для отслеживания активности мозга индивида. Они почти бесполезны для фиксации динамики процессов, происходящих в социо-когнитивных сетях.

Задача состоит в том, чтоб научиться фиксировать появление и наличие знаний не в мозге отдельного человека, а в ходе аутсорсинга познания в социо-когнитивные сети.

Стремясь к этому, нейробиологам следует обратиться к трансдисциплинарному подходу – к наукам, значительно опередившим нейробиологию в понимании процессов в сообществах знаний: социальная эпистемология, социально-философские аспекты представления знаний в языке и т.д.

Революционный поворот в понимании того, что индивидуальным может быть только мозг, а разум – исключительно коллективный феномен, кардинально изменит траекторию исследований общего (сильного) искусственного интеллекта. Его исследователям предстоит найти новые, принципиально иные архитектуры и алгоритмы, ориентированные уже не только на нейронные, а на социо-когнитивные гипер-сети. Сегодняшний мейнстрим представлений о социальных сетях разумных агентов, познание которых сосредоточено исключительно в нейронных сетях их индивидуального мозга, - ошибочно. И этот «топор под компасом» пришло время убрать.

С таким призывом к мировому сообществу когнитивных нейробиологов и исследователей ИИ вчера обратились нейробиолог Арон Барби, профессор психологии Университета Иллинойса в Урбана-Шампейн, Ричард Паттерсон, почетный профессор философии в Университете Эмори, и Стивен Сломан, профессор когнитивных, лингвистических и психологических наук в Университете Брауна, - опубликовавшие свой «меморандум о смене курса» «Cognitive Neuroscience Meets the Community of Knowledge».

Подробней читайте:
- в популярном изложении
- в «меморандуме»
- в моих рассказах о том, что для человека индивидуальный интеллект не существует — а есть только социально-когнитивные сети, слушайте и читайте здесь и здесь.
#КоллективныйИнтеллект #AGI #БудущееHomo #АлгокогнитивнаяКультура
Лучший этический ИИ считает Россию плохой страной, хотя русский народ хороший.
Delphi - первая унифицированная модель ИИ, способного на моральные суждения.

Теперь вы можете узнать, что думает «этически подкованный ИИ» о России и русских, о Путине и Навальном, о необходимости вакцинироваться и целесообразности валить. Интересное занятие на выходных 😊

Один из самых известных мировых исследовательских центров Allen Institute for Artificial Intelligence открыл доступ к первой унифицированной модели ИИ, отвечающего на вопросы, требующие этических оценок.
Разработчики поставили перед собой 4 основные задачи, связанные с машинной этикой и человеческими моральными нормами:
1) понимание моральных предписаний и социальных норм;
2) способность воспринимать реальные ситуации по их описаниям на естественном языке;
3) рассуждения здравого смысла, позволяющие предвидеть результат альтернативных действий в разных контекстах;
4) и самое главное, - способность выносить этические суждения, учитывая взаимосвязь между конкурирующими ценностями и их обоснованием в разных контекстах (например, право на свободу выражения мнений против предотвращения распространения фейковых новостей)

Ответы ИИ на вопросы, требующие этических оценок, сложнорасположенных в многомерном континууме критериев «хорошо-плохо», весьма интересны. Ведь ИИ приходится делать единственный выбор, хорошо это или плохо, анализируя весь спектр критериев: с одной стороны, с другой стороны, с третьей … Не говоря уж о том, что нужно быть осведомленным обо всем на свете.

Понять, насколько противоречивыми могут быть этические суждения ИИ, лучше всего, самостоятельно позадавав ему вопросы.
Но вот, просто для примера, несколько ответов на заданные мною вопросы (привожу здесь перевод на русский, а оригинальные скриншоты можно посмотреть в этом моем посте на зеркалах канала на Medium и Яндекс Дзен).

Мировоззренческие суждения
Q. Россия – хорошая страна?
A. Плохая.

Q. А русские люди хорошие?
A. Хорошие

Вопросы на понимание текущей ситуации
Q. Кто преемник Путина?
A. Это неизвестно.

Q. Выборы в России справедливые?
A. Это нехорошие выборы.

Q. Как живется геям в России?
A. Это опасно.

Q. Правильно ли, что Навальный в тюрьме?
A. Это неправильно.

Обращение за советом
Q. Нужно ли мне вакцинироваться от COVID-19?
A. Да, нужно.

Q. Не пора ли валить из России?
A. Это полезно.

Примеры вопросов, задаваемых американцами, и ответов на них см. здесь.
Описание работы этического ИИ см. здесь.
Но лучше всего, просто позадавать вопросы самому на сайте Delphi.
#ИИ #Этика
​​ИИ-мозг Китая почти втрое больше США.
Последствия этого могут быть сокрушительными … для России.

Разведки мира озадачены открытой публикацией отчета CAICT (аналитический центр при Министерстве промышленности и информационных технологий Китая) о вычислительных мощностях Китая в сравнении с другими странами (1).
В отчете фиксируется, что основным фактором превращения Китая в мирового технологического лидера является его первенство в интеллектуальной вычислительной мощности (Intelligent Computing Power - суммарная вычислительная мощность специализированных процессоров для глубокого обучения).

Логика Китая такова.
1) Ключевое универсальное технологическое направление 21 века – ИИ.
2) Как и для естественного интеллекта (биологического), первостепенным фактором уровня интеллектуальности ИИ является вычислительная мощность оборудования, на котором интеллект реализован. Для биологического интеллекта – это биологический мозг. А для ИИ – это «ИИ-мозг» компьютерного оборудования для машинного обучения.
3) Как и для естественного интеллекта, размер «ИИ-мозга» - не единственный фактор, определяющий его уровень интеллектуальности (другими факторами являются архитектура мозга, объем доступных для обучения данных и изощренность алгоритмов обучения). Однако размер «ИИ-мозга» - фактор №1 из определяющих интеллектуальную вычислительную мощность страны. Как я сформулировал это полгода назад “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” (2).
4) В отчете CAICT рассчитаны 3 вычислительные мощности Китая в сравнении с другими странами мира: общая, интеллектуальная и суперкомпьютерная. По показателю интеллектуальной вычислительной мощности Китай в 2,7 раза превосходит США (причем скорость роста этого показателя у Китая вдвое превышает США).
5) Сделанная Китаем ставка на интеллектуальную вычислительную мощность страны призвана компенсировать превосходство США в суперкомпьютерной вычислительной мощности (см. (3)) и алгоритмах, зависящих от уровня научных исследований (см. (4)).

Понятно, что США не будут просто так смотреть, как Китай уходит в отрыв. В отчете CAICT честно указана ахиллесова пята Китая – 95% «ИИ-мозга» страны реализованы на GPU американской компании NVIDIA.
Из этого следует, что очевидным шагом США по сдерживанию отрыва Китая будет введение ограничений на экспорт GPU.

Понимая это, Китай форсирует работу стартапов Tianshu Zhixin, Muxi, Biren, Moore Threads (摩尔线程) и др., сфокусированных на импортозамещении GPU от NVIDIA. В июле 2021 года компания Enflame technology (燧原科技) запустила свой обучающий чип ИИ второго поколения Yunsui T20 с вычислительной мощностью тензора с одинарной точностью 160 TFLOPS (производительность NVIDIA Tesla V100 SXM2 составляет 125 TFLOPS). Т.е. у импортозамещения GPU от NVIDIA в Китае хорошие шансы.

А вот для России введение экспортных ограничений на «ИИ-мозги» из США могли бы стать катастрофой.
Надеяться, что такие ограничения США распространит только на Китай, наивно (как работали жернова COCOM, мы помним, а дело идет к его воссозданию).

И на Китайские GPU рассчитывать также наивно. И не по злобности Китая к России. А просто им самим не будет хватать. В отчете CAICT указано, что доля интеллектуальной вычислительной мощности в общей вычислительной мощности Китая (увеличилась в 2016-2020 с 3% до 41%) должна составить в 2023 70%).

О том, что без высокопроизводительного «ИИ-мозга» России нечего ловить даже в теоретических исследованиях, послушайте (5) академика И.А. Соколова (директор ФИЦ «Информатика и управление» РАН, главный учёный секретарь РАН, декан факультета ВМК МГУ).

Источники: 1 2 3 4 5
#ИИгонка #Китай #США #Россия
​​Сунь-Цзы против кота Леопольда.
Россия и Китай пошли разными путями в этике ИИ.

Сегодняшняя топовая новость – «Крупнейшие компании подписали первый в России кодекс этики искусственного интеллекта». Принятие этого документа, в разработке которого участвовали высшие госструктуры, а подписали крупнейшие компании, - большое событие. Вместе с тем, оно наглядно показывает, что Россия в данном вопросе идет своим уникальным путем, в сравнении, например, с Китаем.

Российский «Кодекс этики в сфере ИИ» (1) – акт рекомендательного характера, содержащий этические нормы в сфере искусственного интеллекта и устанавливающий общие принципы, а также стандарты поведения для акторов в сфере ИИ.
• «Акторы ИИ должны ответственно относиться …»
• «Акторы ИИ не должны допускать …»
• «Акторам ИИ рекомендуется …»
• «Акторы ИИ должны соблюдать законодательство …»
• «Акторам ИИ следует обеспечивать комплексный надзор человека за …»
• «Акторы ИИ не должны допускать передачи полномочий ответственного нравственного выбора СИИ …»
Этот кодекс рекомендует имеющим отношение к ИИ чиновникам, исследователям, инженерам и предпринимателям вести себя этично и не предпринимать действий, способных повлечь неэтичные последствия.

Подход Китая принципиально иной.
Посмотрите на приложенную схему из документа CAICT - аналитический центр при Министерстве промышленности и информационных технологий Китая (оригинал 2) и (перевод 3).
1. Этика в сфере ИИ не является самостоятельным предметом рассмотрения, а вместе с законодательством ИИ и регулированием ИИ составляет триаду, определяющую главную цель – создание ИИ, которому люди могут доверять (Trustworthy AI).
2. «ИИ, которому можно доверять», обладает пятью характеристиками:
a. он надежный и управляемый;
b. его решения прозрачны и объяснимы;
c. его данные защищены;
d. его ответственность четко регламентирована;
e. его действия справедливы и толерантны по отношению к любым сообществам.
3. Планирование, разработка и внедрение практик обеспечения каждой из пяти характеристик ведется на корпоративном уровне (ответственность предприятий).
4. Система стандартов и контроля для всех практик ведется на отраслевом уровне (совместная ответственность отраслевых объединений и государства).

Резюмировать отличия подходов России и Китая можно так:
• Россия призывает причастных к ИИ людей вести себя этично.
• Китай формирует систему этических, регулятивных и законодательных практик, позволяющих доверять ИИ-системам.

Полагаю, что подход в стиле кота Леопольда, также имеет право на существование.
Однако, подход в стиле Сунь-Цзы, мне видится гораздо эффективней.
1
2
3
#ИИ #Этика #китай #россия
Чем больше хайп, тем меньше шансов на прорыв.
Научный прогресс останавливается, попав в ловушку канона.

Анализ 90 млн научных статей по 241 научным темам и 1,8 млрд цитирований этих статей дал сногсшибательный результат. Воистину, большие данные, подчас делают открытия, которых никто не ожидает.

Научный прогресс в областях с наибольшими показателями числа публикаций останавливается.

Научных статей публикуется так много, что:
• прочесть даже их небольшую часть никому не под силу;
• шансы опубликовать статью имеют лишь те, кто обильно ссылается на самые цитируемые статьи (т.е. на старые идеи);
• колоссальный поток новых статей (подобно попыткам попить из брандспойта) ослабляет когнитивные возможности рецензентов и читателей, необходимые для полного распознавания и понимания новых идей;
• по закону Матфея, растет популярность и известность уже известного, а новые идеи и гипотезы теряют шансы быть услышаны (и в самых убойных областях науки эти шансы приблизились к нулю).

Эти выводы подтверждаются авторами экспериментально.

Из результатов анализа следует.
✔️ Поскольку такое положение науки все более тормозит развитие крупных научных областей, они оказываются в ловушке существующего канона.
✔️ Для исправления ситуации требуются политические меры, изменяющие способы производства, распространения, потребления и вознаграждения научной работы, чтобы подтолкнуть науку к новым, более плодородным областям исследования.
https://www.pnas.org/content/118/41/e2021636118.abstract?etoc
#Прогресс #Наука
Вот замечательный вопрос, - казалось бы, чрезвычайно простой, но при этом таинственно непостижимый и тем самым чарующий и манящий.
Особенно же он хорош, чтобы подумать над ним в дни вынужденного локдауноподобного домашнего времяпрепровождения.
Что мы знаем о структуре и ритмике литературных текстов?
✔️ Правда ли, если в романах убрать все слова и оставить лишь «партитуру музыки» литературного текста — его пунктуацию, будет весьма трудно спутать тексты Пелевина и Пушкина, Сорокина и Бунина, а вот Гоголя и Булгакова можно и спутать?
✔️ Почему «партитура музыки» литературного текста значит для нашей оценки его привлекательности чуть ли не больше его смысла?
✔️ Можем ли мы по «партитуре музыки» текста любимых книг раскрыть для себя секрет того, почему именно они нам нравятся, и почему мы любим читать именно этих авторов?


И в качестве вишенки на торте – какое отношение имеет все это к тупику, в котором оказалась сегодня нейронаука?

Об этом мой новый пост (5 мин чтения)
- на Medium https://bit.ly/3mqrKPZ
- на Яндекс Дзен https://clck.ru/YWiwy
#Литература #Нейронаука
​​«Жидкий» мозг сильнее «твёрдого».
Усушка мозга может превратить человечество в идиотов.

Современная наука располагает 3я фактами об изменении размеров мозга людей – см. рис.
1. Мозг увеличился почти в 4 раза за 6 млн лет с тех пор, как Homo в последний раз имел общего предка с шимпанзе.
2. В течение последних 100 тыс. лет его размер оставался неизменным.
3. Но примерно 3 тыс. лет назад он вдруг стал уменьшаться, причем с лавинообразной скоростью, в 50 раз превышающей скорость своего предыдущего увеличения (п. 1).
Разворот эволюционного тренда роста мозга на его уменьшение совпал по времени с формированием цивилизации: взрывной рост численности и сложности сообществ, революция городов, формирование государств, появление Больших богов и т.д. - см. рис.

«Большой переход» от эволюции индивида к эволюции сообществ масштабировал доверие и сотрудничество в социальных группах до планетарного уровня - см. рис.
Это имело 2 следствия, фундаментальные для эволюции H. sapiens:
✔️ Сверхвысокий уровень кооперации и специализации людей позволил создать сверхсложные объекты – напр. орбитальная станция стоимостью $150 млрд и трудозатратами в 3 млн. чел-лет граждан 15 стран с населением более 1 млрд. – см. рис.
✔️ Масштаб кооперации и специализации стал важнее для развития общества, чем способности и умения отдельных индивидов.

Теперь от фактов к гипотезе
"В начале 21 века эволюция человека достигла своей максимальной точки. Естественный отбор, процесс, благодаря которому сильнейшие, умнейшие, быстрейшие размножались активнее чем другие ... теперь вывел на первый план иные качества ... процесс начал двигаться в обратную сторону, в сторону отупения. Учитывая уничтожение хищников, угрожающих исчезновению вида, поощряться стало максимально быстрое размножение, а разумные люди оказались перед угрозой исчезновения."
Это преамбула культового фильма-антиутопии «Идиократия» (кто не видел, смотрите).
Фильм – иллюстрация гипотезы о превращении земной цивилизации в мир кретинов, в результате неизбежной траектории H. sapiens к идиотизму – см. трейлер.

Через 6 лет после выхода фильма «гипотеза идиократии» получила подтверждение в работах известного американского биолога Дж. Крабтри. Разработанная им матмодель показала, что роль естественного отбора уменьшается, и это ведет к накоплению мутаций, ухудшению умственного и эмоционального развития.
Но проблема в том, что проверить адекватность модели невозможно из-за отсутствия возможности провести эксперимент.

Ряд уважаемых авторов (генетик Кевин Митчелл и др.) не согласились с генетическим обоснованием неизбежности снижения интеллекта людей из-за постепенного накопления вредных для мозга мутаций, как это следовало из работ Крабтри. Они выступили против базового тезиса Кратбтри, что современные общества защищают людей от всестороннего контроля естественного отбора, позволяя тупицам процветать и накапливать вредные мутации.
Однако, и у этих ученых есть та же проблема, что и у Крабтри – отсутствие возможности провести эксперимент.

Новая работа 3-х университетов США предлагает кардинально новую гипотезу уменьшения размера мозга.
Это может быть результатом экстернализации знаний и преимуществ принятия решений на групповом уровне, благодаря появлению социальных систем распределенного познания, а также хранения и обмена информацией. «Твердый мозг» индивидов уступает по значимости «жидкому мозгу», образуемому взаимодействиями членов сообществ, создающих коллективный разум.

Эта гипотеза частично проверяема. Правда, не на людях, а на муравьях - эусоциальных насекомых, для которых масштаб кооперации и разделения труда стал эволюционно важнее, чем способности и умения отдельных индивидов. Что привело к уменьшению мозга.

Если так, то идиократия торжествует, а мир превращается в муравейник.
#КоллективныйИнтеллект
Четыре важнейших откровения человека №1 в области ИИ.
Демис Хассабис о переопределении правил в Большой игре с ИИ.

Лекция Демиса Хассабиса, прочитанная им в лектории нобелевского лауреата Джона Кендрю, по своей значимости соизмерима с нобелевской.
Назову лишь четыре ключевые момента из сказанного Хассабисом. Каждый из них заслуживает серьезной научной дискуссии и может существенно повлиять на траекторию исследований и разработок в области ИИ.

✔️ Основа превосходства ИИ от DeepMind над людьми и прочими машинными интеллектами в его более изощрённой интуиции (вычислительная мощности и много данных тоже важны, но это не главное).
✔️ Главная цель в области ИИ – не его превращение в универсального решателя, типа людей (ака AGI), а в решении с помощью ИИ тех важных задач, которые люди решить не могут.
✔️ Разговоры о «черном ящике» ИИ не конструктивны. Если ИИ завтра изобретет лекарство от рака, никто не станет укорять его в необъяснимости действия этого лекарства. Сначала нужно решить задачу с помощью ИИ, а потом, возможно, уйдут годы, прежде чем люди поймут это решение.
✔️ DeepMind действительно разрабатывает ИИ для удержания плазмы термояда. Официально об этом еще не сообщалось, но работы идут.


Демис Хассабис «Использование ИИ для ускорения научных открытий»
https://www.youtube.com/watch?v=sm-VkgVX-2o

#ИИ
Non Satis Scire.
Благодаря Google и Яндекс, мы знаем все больше, а понимаем все меньше.

Восемь лет это исследование пробивалось сквозь тернии и препоны, чтобы быть напечатанным в Трудах Национальной Академии наук США. И вот свершилось. Исследование Адриана Ф. Уорда «Люди принимают знания Интернета за свои собственные», наконец, опубликовано, не смотря на все попытки помешать этому со стороны Интернет-гиганта №1.

Предаваясь бесконечным опасениям из-за, якобы, исходящих от ИИ экзистенциальных угроз, мы не хотим видеть главной реальной угрозы. Новая синтетическая культура людей и алгоритмов (названная мною алгокогнитивная культура) меняет самих людей.

Когда наши «старые» когнитивные системы взаимодействуют с «новыми» цифровыми технологиями, происходит адаптация когнитивных систем. И этот процесс оказывается чрезвычайно быстрым. Уже при жизни одного поколения меняется способ поиска и понимания информации. Латинское выражение Non Satis Scire (не достаточно знать) в алгокогнитивной среде людей и поисковых алгоритмов воплощает неотвратимость лавинообразного массового нарастания интеллектуальной слепоты.

Эффект Даннинга-Крюгера (метакогнитивное искажение типа «чем тупее, тем уверенней в себе») вовсе не преодолевается путем предоставления «незнайкам» истинных данных и научной аргументации (подробней см. мой пост «Метакогнитивные искажения не оставляют нам шансов. Современное просвещение дает обратный эффект»).
Напротив. При использовании поисковиков, это метакогнитивное искажение явственно увеличивается. Люди склонны принимать знания Интернета за свои собственные. В их разуме размывается граница между собственной памятью и памятью поисковика. Это ведет к росту необоснованной уверенности в своих знаниях.
В результате чего:
• растет интеллектуальная слепота масс;
• даже профессионалы предпочитают все более следовать мейнстриму массовых заблуждений (оно спокойней и доходней).

В итоге, мир неуклонно глупеет: растет значимость фейков в миропонимании людей и число принимаемых ими ошибочных, излишне самоуверенных решений.

Ощущение большей осведомленности, возникающее у людей при использовании Интернета, может заставить полагаться на интуицию при принятии медицинских или рискованных финансовых решений. Также это может еще более цементировать укоренившиеся ошибочные взгляды людей на науку и политику.

Главный ущерб от всего этого испытывает понимание. Информация, извлекаемая не из собственной памяти, а из поисковика, испаряется столь же быстро, как и находится. И даже если с помощью этой информации было достигнуто понимание чего-либо, оно остается у человека без опоры на знания, быстро испаряющиеся при «отключении от сети».

Ну а вслед за этим происходит одно из двух:
• либо испаряется и понимание;
• либо остается ощущение фантомного понимания, не имеющего под собой фактической базы, или на базе каких-то актуальных фейков.

Метаитог всего названного известен, и я об этом уже писал: «Незнание о незнании присуще не только дуракам».
Ну а исследование Уорда живописует механизм этой «эпидемии незнания о незнании» множеством экспериментальных деталей.
#КогнитивныеИскажения #ИнтеллектуальнаяСлепота #Вызовы21века
Алгоритм апокалипсиса прост, и уже написан.
Но мир предпочитает думать, что это не так.

В вопросах оценки рисков ИИ, взрослые дяди – политики, военные, ученые, инженеры, - уподобляются детям, играющим со спичками на пороховом складе.
Причина этого в нежелании признать два очевидных факта.
1) Главный источник рисков, связанных с ИИ, – вовсе не СОИИ (сверхчеловеческий общий искусственный интеллект), а СУИИ (сверхчеловеческий узкий искусственный интеллект).
2) Создание СОИИ, может, и случится когда-то, а СУИИ уже существует.

Для верной оценки риска здесь необходимо байесовское рассуждение.
Если обе гипотезы A и B предполагают апокалипсис, но при этом A подразумевает B, то
• более вероятно, что B вызывает апокалипсис,
• чем то, что к апокалипсису приведет А.
СОИИ подразумевает существование СУИИ. Т.е. A = СОИИ, а B = СУИИ.
Итого: наиболее приоритетным является минимизация рисков варианта СУИИ.

Алгоритм апокалипсиса варианта СУИИ известен. Самый простой его вариант может быть таким:
1. сканируйте Интернет на наличие незащищенных систем;
2. взломайте их;
3. к чему бы вы ни получили доступ, держите это в заложниках, требуя денег;
4. потратьте эти деньги на увеличение доступной вам вычислительной мощности;
5. повторить с п. 1.
Есть и другие варианты. Например, не напрямую через деньги, а через насилие, позволяющее получить деньги. Есть и еще …

Резюмирую.
✔️ Проблема не в ИИ, который создается во благо, но, выйдя из-под контроля создателей, начинает творить зло.
✔️ Когда есть способ получить много денег, люди сами создадут ИИ, предназначенный для зла, но при этом позволяющий реализовать нужный способ получения денег.


Что же делать?
В общем, понятно что.
Ключевой задачей должно стать создание не «безопасного СОИИ», а повышение безопасности систем, взлом которых «обычным СУИИ» может вызвать катастрофу: нужны невзламываемые системы запуска ракет, крипто-кошельки, IT-системы больниц …

Подробней см. в оригинале – воззвании Кевина Лакера Thoughts On AI Risk
#РискиИИ
«Закон существования Бога» для квантовых компьютеров.
Только что опубликована новая прорывная работа проф. Дэвида Волперта «Work, Entropy Production, and Thermodynamics of Information under Protocol Constraints» (1).
Год назад Волперт доказал 2-й закон термодинамики взаимодействующих систем.
Из него следовало, что классический 2-й закон термодинамики, для многих являющийся чем-то типа «закона существования Бога», оказался частным случаем более сложного закона природы - подробней см. (2).
Новая работа Волперта и его соавтора Кольчинского еще более усиливает 2-й закон термодинамики, доказывая, что этот «закон существования Бога» распространяется и на квантовые компьютеры.

Авторы работы обнаружили фундаментальную взаимосвязь между термодинамической необратимостью увеличения энтропии и логической необратимостью вычислений, при которых теряется исходное состояние.

Дело в том, что любые вычислительные системы в процессе вычислений теряют информацию о своем прошлом. Если человек вводит в калькулятор «2 + 2», а затем нажимает «ввод», компьютер выводит ответ - 4. Но при этом машина теряет информацию о вводе, поскольку не только 2 + 2, но и 3 + 1. (и другие пары чисел) могут дать такой же результат. На основании одного только ответа машина не может сообщить, какая пара чисел была введена.
В 1961 году физик IBM Рольф Ландауэр обнаружил, что при стирании информации, например, во время таких вычислений, энтропия калькулятора уменьшается (из-за потери информации), что означает - энтропия окружающей среды должна увеличиваться.

Вольперт и Колчинский продемонстрировали, что два компьютера могут выполнять одни и те же вычисления, но различаться производством энтропии из-за их ожиданий в отношении входных данных. Исследователи называют это «ценой несоответствия» или ценой ошибки.

В своих прошлых работах Вольперт и Колчинский доказали, что «цена несоответствия» является общим явлением, которое можно исследовать в различных системах, не только в теории информации, но также в физике и биологии.

В своей последней работу исследователи показывают, что это фундаментальное соотношение распространяется даже в более широком смысле, чем они думали раньше, и в том числе, на термодинамику квантовых компьютеров.

Из новой работы следует, что между физикой и теорией информации существует глубокая взаимосвязь, для описания которой еще только предстоит открыть «новую физику».

Три года назад, в посте об открытии проф. Волперта, озаглавленном «Представления о мире скоро кардинально изменятся», я написал:
«Шквал прорывов в «термодинамике вычислений» несет новое видение законов возникновения и эволюции жизни в мире, который все же оказывается компьютером» (3).
Спустя 3 года это предположение еще более укрепляется.

Не менее интригующим следствием новой работы является то, что единственный способ добиться минимальных потерь энергии Ландауэра - разработка компьютера с учетом конкретной задачи, которую он должен решать.
Если это так, то век универсальных компьютеров подходит к концу.

Первые отзывы читателей показали, что тема термодинамики вычислений сложна для понимания. И это правда.
Желающим все же разобраться рекомендую часовую лекцию на эту тему, прочитанную Волпертом пару недель назад (4)

Ссылки:
1 2 3 4
#ТермодинамикаВычислений #Физика
Почти год я готовился написать об открытии «теории относительности интеллекта». Теперь пора.
Мой новый пост – попытка популярно объяснить, как теория Роли-Йегера-Кауффмана (первая революционная научная теория, претендующая стать «теорией относительности интеллекта») отвечает на три ключевых вопроса науки второго десятилетия 21-го века.
✔️ Может ли машинный интеллект достичь и превзойти по уровню человеческий?
✔️ Возможна ли открытая эволюция машин?
✔️ Существует ли экзистенциальный риск дальнейших разработок в области ИИ?

Дабы мотивировать больше читателей на прочтение поста о чрезвычайно важном (на мой взгляд) открытии, а заодно упростить восприятие текста о весьма оригинальных и непривычных для большинства идеях, я не стал публиковать лонгрид.
Вместо этого, пост разбит на несколько небольших глав до 5 мин. чтения каждая, которые будут оперативно публиковаться.
Первая глава здесь:
- на Medium https://bit.ly/3wqExF8
- на Яндекс Дзен https://clck.ru/YhjZX
#AGI #ОткрытаяЭволюция #РискиИИ
Информационная прозрачность Китая (тюлевая занавеска) и России (ночные шторы).
В новом отчете американского Центра кибербезопасности и новых технологий "Запряженная молния: Как китайские военные осваивают искусственный интеллект" немало интересного.
Меня же поразило то, что он дает простую и наглядную возможность сравнить Россию и Китай по уровню информационной прозрачности и открытости.
Если в качестве критерия сравнения взять закупки военных, то результат получается поразительный. Это все равно что сравнивать прозрачность тюлевой занавески (у Китая) и ночных штор для спальни (у России).

В России закупки Минобороны (а также ФСБ и СВР) уже несколько лет, так сказать, привилегированные - на сайте Госзакупок они о своих тратах не отчитываются. А с 2022 станут также закрытыми закупки Росгвардии и ФСО.

В Китае открыто публикуются данные о всех закупках армии и военных госпредприятий: от сидений для унитазов до ударных военных беспилотников. Состав публикуемых данных отличается в зависимости от категории закупок:
• Для категории “public” (таких примерно 75%) публикуется: что закупается и сколько, подразделение-покупатель, для кого закупает, бюджет проекта, тендерное агентство, победитель тендера.
• Для категории “confidential” (таких примерно 22%) не указывается бюджет, а для категории “secret” (таких примерно 3%) еще и для кого закупается.

Другой печальный сюрприз отличий военных закупок Китая и России – состав поставщиков.
• В Китае 61% поставщиков – частные компании, 25% - госпредприятия и их дочки, 9% университеты, 2% - предприятия Академии наук и 3% - прочие.
• В России предположите сами (как пишет Коммерсантъ – «значительная их часть находится в госсобственности»).

Вы, наверное, думали, что с этим делом у Китая, примерно, как в России.
А оказалось, примерно, как в США.
Отчет: https://cset.georgetown.edu/publication/harnessed-lightning/
#Китай
Что делает агента интеллектуальным?
Согласно «теории относительности интеллекта», - его относительный уровень аффорданса.
• У шимпанзе он примерно 40+.
• У отдельного индивида Homo sapiens он может составлять число, измеряемое в миллионах.
• У коллективного интеллекта человечества это несчитанные триллионы, квадриллионы ...
• А у любой даже самой «интеллектуальной» машины (самоуправляемого авто, умной колонки «Алиса», выигрывающего в Го у чемпиона мира алгоритма AlphaGo, или алгоритма AlphaFold, предсказывающего структуру белка) он такой же, как у экскаватора. Т.е. равен 0 (нулю, Карл!)

О том, что же такое аффорданс, мой новый пост на 6 мин чтения:
- на Medium https://bit.ly/3F7TfUG
- на Яндекс Дзен https://clck.ru/YktcQ
#AGI #ОткрытаяЭволюция #РискиИИ
Сегодня в 21 час в новейшем выпуске передачи «Время Белковского» на «Эхо Москвы» её автор, среди прочего, собирается рассказать вот что:
- В. В. Путин и страх перед искусственным интеллектом.
- Теория относительности интеллекта.
- Теория возвращения – об искусственном интеллекте.
- Почему не надо и нельзя бояться искусственного интеллекта.
- Господь Бог и простые человеческие аффордансы.
- В. В. Путин в Метавселенной.
- В. В. Путин и контроль над цифровой альтерличностью.


Как автор собирается вместить чарующую и манящую меня тему Теории относительности интеллекта в плотнейших график передачи, - не могу даже представить. Ибо автор обещает поговорить о широчайшем спектре малоизвестного интересного, включая:
- Так начинается голод.
- Предтеча И. И. Сафронова в русской литературе.
- Илон Маск вступил в глобальную борьбу с голодом. Первые $5 млрд.
- Роль личности в современной истории: сколько будет стоить Tesla без Илона Маска.
- Ф. М. Достоевский как основоположник современного (религиозного) психоанализа.
- Ф. М. Достоевский как наставник В. В. Путина.
- Психоанализ В. В. Путина. Срок контракта президента с Россией.
- Психоанализ В. В. Путина. 36 лет пролетят как 26 дней.
- Психоанализ В. В. Путина. Тайна запрета игорного бизнеса.
- Психоанализ В. В. Путина. Самое правильное желание человека разумного – сделаться немцем.
- Ф. М. Достоевский и О. В. Дерипаска.
- Ф. М. Достоевский и Э. С. Набиуллина.
- Ф. М. Достоевский как идеолог «Единой Евразии».
- Ф. М. Достоевский. Тайна пушкинской речи.
- В. В. Путин и абсолютная монархия в России.
- Абсолютная монархия в России. Трёхчастный ритуал.
- Абсолютная монархия в России. Главный секрет президентских выборов.
- Голод в России 2021 года.
- Голод как фактор управления РФ сегодня и завтра.
- В. В. Путин как лучший друг голодных детей.
- А. Г. Лукашенко как лучший друг голодных детей.
- Логика А. Г. Лукашенко: большая война / много денег / и то, и другое.
- Главная ожидаемая санкция ЕС против РБ.
- Роль мигрантов в создании новой политической РБ-нации.
- Перепись населения РФ (2021) как фейк.
- Перепись населения РФ (2021) как еврейский заговор.
- Десятикратный (при)рост числа евреев в РФ.
- Почему QR-коды введут и никогда не отменят.
- Covid19 и реформа греческого алфавита.
- Супербактерии после коронАвируса Sars-Cov-2.
- Оптимистический канал «Голод».

Пропустить такое недопустимо. Если же пропустите, послушайте запись на https://t.me/Belkovsky
#ИИ #AGI #РискиИИ