4CIO
1.1K subscribers
1.06K photos
131 videos
49 files
2.78K links
https://t.me/+-xskTsyRBWI5NGU0. Независимая редакция с самостоятельной политикой подбора новостей Владельцами канала не является УО 4CIO (на канал распространяется только законодательство свободного мира, “законы” тираний тут не действуют).
Download Telegram
Возможно, придется отказаться от ИИ на основе машинного обучения, честно признают в Google. Конечно, не сейчас, когда вокруг ИИ так много шумихи и денег. Но со временем.
Некоторые из моих читателей (даже весьма продвинутых в ИИ) убеждены, что проблема черного ящика ИИ - это вчерашний день. Мол, задача объяснимости решений, принимаемых ИИ, говоря по Маяковскому, - «будет сделана и делается уже».
А ведь это совсем не так.

Проект DAPRA Explainable Artificial Intelligence (XAI) - Объяснимый ИИ (о котором я пишу в своем канале с 2016) - пока буксует. Только что закончившаяся 1я фаза проекта не принесла желаемого результата. 2я фаза продлится до мая 2021. Но как говорят участники проекта, хороших идей пока нет.
Компания Google (которая в вопросах ИИ точно не слабее DARPA), подобно Ленину, пошла другим путем. И путь этот окольный:
- вместо общего решения задачи построения объяснимого ИИ, способного в принципе устранить проблему черного ящика,
- Google решил построить инструментарий, позволяющий хотя бы исследовать, на какие факторы ИИ обращает внимание при решении задачи, а на какие нет, и насколько высокие веса при решении задачи ИИ присваивает тем или иным факторам.
Как и всякий окольный путь, подход Google - долгий и без гарантий не опоздать. Но зато можно было бы долго вешать лапшу на уши рынку.

Вот почему так поразительно откровенно смелое интервью Бин Ким (Been Kim), целенаправленно исследующей в Google Brain вопрос интерпретируемости ИИ.

Вот ответы Бин Ким на 2 ключевых вопроса.
1) Насколько важно сейчас решение проблемы интерпретируемости ИИ?
БК: «Сейчас для ИИ настал критический момент: человечество пытается решить, хороша эта технология для нас или нет. Если мы не решим проблему интерпретируемости, вряд ли мы возьмём эту технологию с собой в будущее. Может быть, человечество просто забудет про неё».
2) Если в принципе может случиться отказ от ставки на машинное обучение, как технологической базы ИИ разработок, когда это могло бы произойти?
БК: «Не думаю, что это произойдёт прямо сейчас, когда вокруг ИИ много шумихи и денег. Но я думаю, что в долгосрочной перспективе человечество может решить — возможно, из-за страха, возможно, из-за отсутствия доказательств [безопасности] — что эта технология не для нас. Может так случиться».

Это честное и смелое интервью Бин Ким https://www.quantamagazine.org/been-kim-is-building-a-translator-for-artificial-intelligence-20190110/ уже перевели и на русский https://22century.ru/popular-science-publications/understanding-machines.

В заключение отмечу.
Google – весьма серьезная мегокорпорация. И просто так её ведущие сотрудники в прессе не болтают. Тем более, о стратегических для компании вопросах.
Тогда что же стоит за столь откровенным интервью Бин Ким?
Возможно, это значит, что Google уже работает над альтернативным направлением и начала готовить для него почву в медиа.
Так что есть над чем задуматься убежденным технооптимистам, считающим, что задача устранения черного ящика ИИ «будет сделана и делается уже».

#ИИ
Главный вызов ИИ – сменить траекторию развития.
Страна, что 1ой сделает это, выиграет
ИИ гонку.
Перепрыгнув через долгий, медленный процесс когнитивного развития и вместо этого сосредоточившись на решении конкретных задач с высокой коммерческой или маркетинговой ценностью, мы лишили ИИ любой способности интеллектуально обрабатывать информацию.

Это происходит из-за того, что глубокое обучение искусственных нейронных сетей лишь выявляет пустоту за фасадом интеллекта. Данный класс алгоритмов не обладает способностью учиться по аналогии, являющейся основой основ интеллекта.

Кроме того, глубокая нейронная сеть избирательно отбрасывает ненужную информацию на каждом из своих уровней. Полностью обученная глубокая нейронная сеть отбрасывает так много информации, что становится абсолютно зависимой только от нескольких ключевых поверхностных особенностей, теряя даже видимость интеллекта.

В итоге, алгоритмическую основную современного ИИ - глубокое обучение – было бы куда правильнее называть глубоким забвением

Чтобы продвигаться вперед, мы должны сначала вернуться назад и предоставить нашим машинам период младенчества, в течение которого они будут постигать структуру мира и открывать для себя интуитивную физику, от которой зависит истинно разумный вывод.

Главный вызов современного ИИ – сменить траекторию развития. И страна, что 1ой сделает это, выиграет ИИ гонку.

Пишу об этом уже который раз. На прошлой неделе, рекомендуя эссе Элисон Гопник. После чего некоторые замшелые зубры ИИ сквозь зубы ворчали, - что, мол, еще ожидать от профессора психологии.

Но вот вам процитированное выше мнение прожженного практика - Гаррета Кеньона из Лос-Аламосской национальной лаборатории, где он ведет несколько проектов по заказу военных из DARPA.
Кеньон куда хлестче и категоричней, чем Гопник. На конкретных примерах он показывает, что даже в ключевой сегодняшней области ИИ – распознавании образов – риски использования глубокого обучения в ответственных приложениях обесценивают в ноль все преимущества этого метода решения задач распознавания.

За такой позицией Кеньона стоит опыт проектов DARPA. И не случайно статья начинается с недавно подписанного распоряжения президента США об учреждении американской «Инициативы по искусственному интеллекту».
Кеньон пишет открытым текстом - чтобы сохранить превосходство США в области ИИ, лучшим способом продвижения вперед является принятие стратегии, более тесно связанной с тем, как учатся дети.
И еще цитата.
Когда действительно интеллектуальные машины, наконец, появятся - и, вероятно, таки появятся - они не будут похожи на глубокие нейронные сети или другие современные алгоритмы ИИ. Путь вперед пролегает через системы, которые имитируют биологию.
__
Статья Кеньона https://blogs.scientificamerican.com/observations/ais-big-challenge1/
Кстати, он – довольно засекреченный ученый, и потому много про него вы не найдете.
Но рекомендую:
- о его работе на DARPA, а также о других самых секретных и потенциально прорывных проектах этого агентства, читайте в книге – финалисте Пулитцеровской премии – «The Pentagon's Brain: An Uncensored History of DARPA, America's Top-Secret Military Research Agency» https://www.pulitzer.org/finalists/annie-jacobsen;
- почти 2х часовая лекция Кеньона «Взлом нейронного кода: раскрытие языка мозга» https://www.youtube.com/watch?v=DvhUJZNM4FA
#ИИ
​​Математика для ИИ: линейная алгебра

У людей, которые пытаются прошариться в ИИ и машин лёнинг, часто возникает вопрос: «Что нужно знать из математики?»

Начинаем отвечать на него этой статьёй, в которой разберём основы линейной алгебры для ИИ: https://tproger.ru/translations/math-for-ai-linear-algebra/

А тут эксперты делятся мнениями, как лучше обучаться в сфере машинного обучения (ой): https://tproger.ru/experts/how-to-learn-machine-learning/

#ml #ии
This media is not supported in your browser
VIEW IN TELEGRAM
Дипфейки для онлайн-конференций

Энтузиаст разработал ИИ-алгоритм, который позволяет заменять себя дипфейком во время онлайн-конференции в Skype или Zoom. Например, на видео показано, как фейковый Илон Маск подключается к случайной конференции и вводит в заблуждение её участников.

Запустить алгоритм можно на Linux и Mac OS. Вот код:

https://tprg.ru/8Wtz

#дипфейк #ии
This media is not supported in your browser
VIEW IN TELEGRAM
Мемная авария на гонке беспилотников Roborace

Roborace — это что-то типа Формулы-1 для беспилотников, только соревнуются в ней электроболиды DevBot 2.0. DevBot 2.0 разгоняется до 100 км/ч за 3 секунды. В нём установлен мощный компьютер, 2 радара, 5 лидаров, и куча ультразвуковых датчиков и видеокамер. А вот алгоритмы для них разрабатывают команды-участники.

Болид одной из команд на недавних соревнованиях начал гонку неудачно и впилился в стену, даже не успев начать заезд. Что произошло с их алгоритмом, пока неясно. Ясно, что с гонками кожаные мешки всё-таки пока справляются лучше.

#ии #кек