Малоизвестное интересное
62.9K subscribers
78 photos
1 video
11 files
1.76K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
​​В моем комментарии для Briefly о новом законопроекте, требующем раскрывать информацию о контенте, созданном искусственным интеллектом в политической рекламе, я сказал следующее.

Цель этого и ряда подобных законопроектов – защитить американский народ от вредного использования революционной технологии. Но я полагаю, что эффективность таких законопроектов для защиты американского (равно как и любого другого) народа от последствий тотального проникновения ИИ в жизнь людей будет минимальной. Примерно, как эффективность защиты от ядерного апокалипсиса путем маркировки объектов и предметов желто-черным знаком «радиация».

В этой связи весьма характерен важный символический акт - объявленный на этой неделе уход из Google Джеффри Хинтона - одного из первых разработчиков и своего рода «крестного отца» ИИ-систем.

Еще 7 лет назад Хинтон предупреждал о грядущем катастрофическом влиянии развития машинного обучения. В частности, - о вытеснении людей из многих профессий. Говоря про обреченную для людей профессию рентгенологов, Хинтон использовал метафору Хитрого койота из популярного в США мультсериала «Хитрый койот и Дорожный бегун» – предшественника нашего «Ну погоди!».
«Если вы рентгенолог, то вы подобны койоту, уже прыгнувшему в пропасть, но еще этого не осознавшего» – сказал Хинтон.

В одной из своих попыток спастись, хитрый койот, падая в пропасть, использовал «парашютную пилюлю» – на первый взгляд, спасительную, а на практике, - лишь приумножившую страдания Хитрого койота при падении.

На мой взгляд, принимаемые в спешке и без тщательного анализа законопроекты «по борьбе с ИИ» будут иметь тот же результат, что и «парашютные пилюли».
Только спустя 7 лет после предсказания Хинтона, в положении Хитрого койота оказались не только рентгенологи, но и все человечество.
#ИИзаконодательство
​​Генеративный ИИ не получит статус творца на Земле.
Япония отказала генеративному ИИ в праве нарушать копирайт.

Генеративный ИИ представляет собой колоссальную угрозу для творческих профессий. Насколько это серьезно, каждый из вас может проверить на этом очень увлекательном тесте, предлагающем вам определить, кто автор картины (литературной фразы): великий художник (великий писатель) или ИИ, работающий в стиле этого художника (писателя).
И естественно, здесь все упирается в правила копирайта, ограничивающие произвол в обучении ИИ. Об этом, собственно, и новость.

Поставлена точка в скандальной истории о том, станет ли Япония «островом свободы» для генеративного ИИ – т.е. местом, где:
• обучающим ИИ людям разрешено, без согласия на то авторов, обучать на их произведениях (тексты, картины, музыка) модели генеративного ИИ;
• а потом свободно распоряжаться созданными таким образом творениями ИИ для любых целей
.

Скандал начался после публикации 24 апреля членом Палаты представителей Конституционно-демократической партии Японии Такаши Кии ответов Министра образования, культуры, спорта, науки и технологий Японии Кейко Нагоака на вопросы о применимости законов об авторских правах к генеративному ИИ и его творениям.
Из ответов министра следовало, что Япония планирует оставаться «островом свободы», где генеративный ИИ будет свободно учиться на любых данных, а его творения будут свободно использоваться для любых целей (в том числе, коммерческих).

Такая позиция министра была расценена экспертами, как:
«Япония пошла ва-банк», не распространяя на ИИ законы о копирайте;
• Таким образом Япония попытается нагнать и перегнать США в области ИИ, где законы о копирайте будут ограничивать возможности обучения ИИ (см. иск на $1.8 трлн, который Getty Images подает на Stability AI за кражу 12 млн фотографий, защищенных авторским правом

Однако, спустя месяц подковерной борьбы в правительстве Японии, сторонники «острова свободы» от копирайта для ИИ проиграли. Вчера Японское агентство по делам культуры при Министерстве образования, культуры, спорта, науки и технологий, во время семинара по искусству ИИ и применительному к нему авторскому праву, опубликовало заявление, в котором изложены новые принципы использования искусственного интеллекта и его целей.

Резюме заявления – «острова свободы» для генеративного ИИ в Японии не будет.
• ИИ может свободно использоваться в образовательных, исследовательских и некоммерческих целях. Но не при наличии экономической выгоды или коммерческой цели, где творение ИИ, которое использует работу другого художника может считаться нарушением авторских прав, и правообладатель может подать в суд.
• Это также относится к ИИ, который изучает/копирует стиль художника, без разрешения его самого или правообладателя, который может требовать возмещения убытков или судебного запрета как нарушение авторских прав, вплоть до уголовного наказания.

Особая важность этой истории в том, что Япония была единственной страной в G7, где бизнес на основе генеративного ИИ имел шансы получить свободу от копирайта.

Но история показала – ИИ силен, но люди с их законами, похоже, сильнее.
#ИИзаконодательство