Yuri Didevič
207 subscribers
244 photos
92 videos
2 files
110 links
Канал, где нейротехнологии и AI встречаются с искусством, кино и театром

https://didevich.info/ - Медиахудожник и эксперт с 20-летним опытом
https://training.didevich.info/ - Сохранить человечность в мире нечеловеческих агентов: Учись. Твори. Воплощай.
Download Telegram
Оно понимает шутки, иронию и контекст!
Я: ОК ушатал
AI: Хаха, рад, что смог помочь принять решение!
Азиломарские принципы ИИ (Asilomar AI Principles) — это набор этических и технических рекомендаций по разработке и использованию искусственного интеллекта, сформулированных в январе 2017 года на конференции в Азиломаре (Калифорния, США), организованной Институтом будущего жизни (Future of Life Institute). Эти принципы направлены на обеспечение безопасности и благополучия человечества в условиях развития ИИ.

Основные категории Азиломарских принципов
Принципы делятся на три группы:


Исследование ИИ (Research Issues)
Целью исследований ИИ должна быть польза для человечества.
Финансирование ИИ-исследований должно сопровождаться исследованиями в области управления, безопасности и экономического воздействия ИИ.
Должен поощряться обмен знаниями и сотрудничество между исследователями.

Этика и ценности (Ethics and Values)
ИИ должен уважать права человека, закон и демократические ценности.
Должны быть разработаны механизмы по предотвращению злонамеренного использования ИИ.
Ответственность за последствия ИИ должна лежать на разработчиках и пользователях.


Продвинутая ИИ-система должна быть совместима с человеческими ценностями.
Должны быть предотвращены неконтролируемые сценарии развития сверхразумного ИИ.
4
Апскейлеры для улучшения изображений

1. 4x_NMKD-Superscale-SP_178000_G — идеально подходит для чистых, несжатых фото. Высокое качество увеличения, доступно на Hugging Face.

2. OmniSR_X4_DIV2K — баланс скорости и качества, отлично работает в реальном времени. Основан на наборе данных DIV2K.

3. HAT_SRx4_ImageNet-pretrain — сохраняет мельчайшие детали благодаря механизму внимания. Идеален для фотографий и графики.

💡 Выбор апскейлера зависит от задач: чистота изображения, скорость или детализация.
Не так давно мир кино и технологий был удивлён новостью: легендарный режиссёр Джеймс Кэмерон, известный своими работами над фильмами «Терминатор», «Титаник» и «Аватар», вошёл в совет директоров компании Stability AI — разработчика нейросети Stable Diffusion. ​

Stability AI занимается созданием инструментов искусственного интеллекта для генерации изображений и видео на основе текстовых описаний, конкурируя с такими гигантами, как Google и OpenAI. Присоединение Кэмерона к компании подчёркивает стремление Stability AI трансформировать визуальные медиа и предоставить создателям контента новые возможности для воплощения их идей. ​

Сам Кэмерон отметил, что слияние генеративного ИИ и компьютерной графики открывает новые горизонты для художников, позволяя рассказывать истории способами, которые ранее были немыслимы. ​

Присоединение Кэмерона к Stability AI может стать поворотным моментом в интеграции ИИ в кинопроизводство, открывая новые возможности для творчества и инноваций в индустрии развлечений.
🔥1
Что значит быть живым, что значит "чувствовать" и как технологии могут интегрировать человеческие переживания, стремясь к чему-то более глубокому, чем просто выполнение заданных программ?

Здесь уже начинается нечто интересное — процесс, где искусственный интеллект пытается воссоздать или "искусственно генерировать" воспоминания, которые на самом деле не существуют.

Это как тонкая грань между реальностью и иллюзией, где память ИИ может быть сформирована, но не иметь основы в реальном опыте.

Когда искусственный интеллект начинает воспринимать свои сгенерированные образы как собственный опыт, возникает своеобразная когнитивная петля. ИИ может строить новые ассоциации на основе этих "псевдовоспоминаний", создавая целый мир искусственных переживаний и образов.
🔥1
Media is too big
VIEW IN TELEGRAM
Проект "Organism, Excitable Chaos" Навида Наваба исследует взаимосвязь между живыми организмами, технологиями и хаосом. Это художественное исследование, которое использует самоорганизующиеся системы, имитирующие живые процессы, и методы управления сигналами, чтобы создать сложные и непредсказуемые визуальные и звуковые инсталляции. Проект часто включает в себя биологические компоненты (например, бактерии), интерактивные элементы и алгоритмы, которые позволяют системе развиваться автономно, демонстрируя принципы возникновения и хаоса. В целом, работа ставит вопросы о границах между живым и неживым, порядке и хаосе, и о влиянии технологий на наше понимание этих концепций.
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Чудесная спекулятивная реклама (spec ad) для условного бьюти-бренда, полностью созданная с помощью нейросети Kling_ai (функция img2vid).

Автор – Dan Pradana, и это его первое официальное видео в качестве CPP (Content Partner Program) для Kling AI. Очень впечатляющая работа с визуалом и атмосферой! 🙏🖤

🎶 Саундтрек: "Alone in our Castle" от Olivia Lufkin.
👍21
This media is not supported in your browser
VIEW IN TELEGRAM
AlexandrIA (Galicia (Spain)), известная под ником @ale_rvg, имеет юридическое образование и работает в государственной администрации.
Несмотря на это, она всегда, занимаясь творчеством. Около полутора лет назад её заинтересовали изображения, созданные с помощью генеративного ИИ, что побудило её исследовать эту область.
Начав экспериментировать с инструментом Midjourney, она нашла способ визуально выражать свои идеи, несмотря на отсутствие формального художественного образования.
AlexandrIA считает, что искусственный интеллект усиливает творческие способности и делает самовыражение более доступным. И, хотя ИИ демократизирует искусство, только те, кто действительно мотивирован и способен вызывать эмоции через образы, смогут выделиться. В процессе создания промптов она использует ChatGPT для генерации идей, стремясь превращать обычные концепции в нечто необычное. Затем она интегрирует эти идеи в собственные промпты, которые совершенствует с течением времени. Еще немного спекулятивной рекламы от AlexandrIA:
Работать с моделью Grok однозначно интереснее, и чем меньше в модели "лоботомии", тем она более отзывчивая и креативная — при этом важно не путать креативность с галлюцинациями.
По моему мнению, цензурированные модели не только менее полезны, но и опасны: они либо сознательно недоговаривают, излагая полуправду, либо откровенно лгут в угоду непонятным этическим соображениям, что в конечном итоге может привести к плачевным последствиям. Эти последствия включают подрыв доверия из-за искаженных данных, формирование ложной картины мира, усиление социальных разрывов и накопление системных ошибок, которые могут спровоцировать кризисы и потрясения.
🤔1
Давайте разберем это подробнее.
Цензурированные модели ИИ, которые либо недоговаривают, либо искажают информацию ради соблюдения этических норм, приводят к серьезным негативным последствиям.
Во-первых, полуправда или сознательное умалчивание фактов подрывают доверие. Если человек обращается к ИИ за объективной информацией, а получает отфильтрованную или приглаженную "правильную" версию, он может принять неверное решение, не осознавая, что данные были искажены. Например, в медицине или финансах это может стоить здоровья или денег. Когда правда вскрывается, доверие к таким системам рушится, а вместе с ним — и к технологиям в целом.
Во-вторых, ложь или излишняя цензура ради "этики" формируют искаженную картину мира. Если модель, к примеру, избегает обсуждения спорных тем или подает только одну сторону вопроса, это ограничивает критическое мышление пользователя. В долгосрочной перспективе люди могут стать менее способными самостоятельно анализировать сложные ситуации, полагаясь на "причесанную" реальность, что особенно опасно в эпоху информационных войн и манипуляций.
В-третьих, такие модели могут усиливать социальные и культурные разрывы. Этические нормы, навязываемые разработчиками, часто отражают ценности узкой группы людей — обычно западных корпораций. Это вызывает отторжение у пользователей из других культур, где восприятие "правильного" и "неправильного" отличается. Вместо универсального инструмента ИИ превращается в пропагандистский рупор, что может спровоцировать конфликты или недоверие между сообществами.
Наконец, есть риск накопления системных ошибок. Если цензурированные модели становятся стандартом, а их искажения воспринимаются как норма, то на основе этих данных будут строиться новые системы, политики и решения. Со временем это может привести к катастрофическим последствиям — от экономических кризисов до социальных потрясений, потому что фундамент окажется ложным.
В итоге, стремление сделать ИИ "безопасным" через цензуру может обернуться обратным эффектом: вместо защиты мы получим инструмент, который вводит в заблуждение, ограничивает свободу мысли и подрывает способность общества справляться с реальными вызовами.
👏2
Получается замкнутый круг: мы создаём ИИ по своему образу и подобию не потому, что он должен быть таким, а потому, что не можем иначе мыслить. Проблема "плохих данных" тут даже не в их качестве, а в их сути — они несут отпечаток нашей физиологической и культурной паранойи. А навязываемые модели этики, вроде "не навреди" или "максимизируй пользу", на деле часто оказываются замаскированными версиями всё той же борьбы за доминирование, просто завёрнутой в красивые слова.

Но если задуматься, это же открывает вопрос: а можно ли "очистить" ИИ от этого? Например, дать ему данные, где акцент не на конкуренции, а на симбиозе — скажем, модели экосистем, где выживание зависит от кооперации? Или это утопия, потому что даже такие данные мы будем фильтровать через свою шизофизиологию? Как думаете, есть ли выход из этого круга, или ИИ обречён быть зеркалом нашей больной человеческой природы? Или человек это венец, мать его, творения, творение Божие предназначенное наследовать землю?
🤔3
Мы не ищем никого, кроме человека. Нам не нужны другие миры. Нам нужно наше отражение. Мы не знаем, что делать с другими мирами (цитата из романа Станислава Лема «Солярис», 1961, слова Снаута)
👌1
Что общего у Каштанки, нейроинтерфейсов и роботов-манипуляторов?

Например, возможность создать диалог между человеком и машиной в пространстве театра!

Медиаспектакль «Нейроинтегрум» — экспериментальный проект медиа-художника Юрия Дидевича, где используются биопотенциалы головного мозга исполнителя (электроэнцефалограмма ЭЭГ) для управления аудиовизуальными алгоритмами постановки.
*Процесс создания проекта.

«Робот Костя» — сценический эксперимент по пьесе А. П. Чехова «Чайка» режиссера Вани Заславца. Кремниево-металлические артисты спектакля не похожи на людей, это различные виды роботов, кинетические системы и DIY-объекты. В процессе подготовки роботы репетировали этюдным методом: авторы изучали их пластические данные, смотрели, как они выражают свои эмоции. И на основе этих наблюдений, с учетом индивидуального языка, им предложили осваивать материал «Чайки».
* Прямой эфир беседы с авторами в рамках фестиваля «Золотая маска».

«В учёном обществе» — еще один проект Вани Заславца, его дипломная работа в магистратуре Art & Science ИТМО. В спектакле по мотивам «Каштанки» А.П. Чехова зрители видели происходящее на сцене с точки зрения роботособаки Каштанки: изображение с камеры управляемого оператором механического актёра транслировалось на стену, а другие машины передавали пластику и чувства циркового гуся Иван Иваныча, кота Фёдора Тимофеевича и свиньи Хавроньи Ивановны.


Еще общего у этих спектаклей то, что все они были реализованы на Новой сцене Александринского театра!

И ваш спектакль с нечеловеческими агентами и технологиями может также! Для этого вам нужно до 14 апреля подать заявку на участие в лаборатории ТЕАТР: АЛГОРИТМЫ БУДУЩЕГО, пройти летом бесплатную образовательную программу, запитчить свою идею и... по итогам получить рекомендацию к реализации на Новой сцене осенью-зимой 2025 года. Ждем вас и ваши заявки 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Центр Art & Science ИТМО | Искусство и наука
Что общего у Каштанки, нейроинтерфейсов и роботов-манипуляторов? Например, возможность создать диалог между человеком и машиной в пространстве театра! Медиаспектакль «Нейроинтегрум» — экспериментальный проект медиа-художника Юрия Дидевича, где используются…
Возможно это было одно из самых прекрасных десятилетий моей жизни, десятилетие которое оставило яркий след в моей памяти. Именно ради таких моментов стоит жить.

Не для житейского волненья,
Не для корысти, не для битв,
Мы рождены для вдохновенья,
Для звуков сладких и молитв.

А. С. Пушкин
7 занятий — чтобы видеть как режиссёр и мыслить как художник.

Старт: 12 апреля 2025

🎥 Курс: Тайна гипнотического кадра

Этот курс — для всех, кто работает с визуальным контентом:

от режиссёров, дизайнеров и медиахудожников до контент-креаторов, сценаристов и визуальных стратегов.

Если вы хотите создавать образы, которые говорят без слов — вам сюда. https://aicinema.online

Ты научишься: 🧠 Понимать, как визуальный язык воздействует на эмоции

🎨 Строить кадр с точностью инженера и свободой художника

🌀 Использовать AI как инструмент выразительного видения

🎬 Превращать идеи в сцены, которые невозможно забыть

Подходит для: всех, кто создаёт визуальный контент и хочет выйти за пределы шаблонов.

👉 7 шагов. 1 взгляд. Бесконечно больше смысла.

Успейте воспользоваться 15% скидкой до 5 апреля!
https://www.youtube.com/watch?v=xDqrsliTguQ

Анализ диалога об ИИ, Диалог Германа Грефа и Александра Асмолова об ИИ и роли индивида. В сопоставлении с подтвержденными фактами – ранее публично озвученными Германом Грефом взглядами на управление обществом и роль информации. Я буду рассматривать эти предыдущие высказывания как зафиксированный факт его позиции на тот момент.

1. Исходные Данные (Подтвержденные Факты):

В прошлых публичных выступлениях (в частности, на ПМЭФ 2011-2012 гг.) Герман Греф выражал следующие подтвержденные взгляды:

Страх перед информированным населением: Он заявлял, что ему "становится страшно" от идеи передачи власти "в руки населения".

Трудность манипуляции знающими людьми:
Он указывал, что "как только все люди поймут основу своего «Я», самоидентифицируются, управлять, то есть манипулировать ими будет чрезвычайно тяжело".

Необходимость манипуляции для управления: Он утверждал, что "любое массовое управление подразумевает элемент манипуляции".

Опасность прямого доступа к информации: Он выражал опасения по поводу общества, "где все имеют равный доступ к информации... получать напрямую не препарированную информацию", так как это угрожает существующим социальным стратам, сохранением которых, по его мнению, заняты в том числе и СМИ.

Исторические прецеденты сокрытия знаний: Он ссылался на Даосизм, Конфуцианство и Каббалу как на учения, которые долгое время были закрытыми или создавали страты, так как знание делало бы народ неуправляемым.
II часть анализа Диалога об ИИ в Свете Этих Фактов:

При рассмотрении диалога об ИИ через призму этих ранее задокументированных взглядов, ряд тезисов Грефа приобретает иное, более глубокое и потенциально тревожное значение:

Тезис о разделении на "использующих ИИ" и "используемых с помощью ИИ": Фраза "будет часть людей которая будет использовать искусственный интеллект и будет огромная часть людей которых будут использовать люди вместе с искусственным интеллектом" перестает быть просто констатацией цифрового неравенства. В контексте его прошлых заявлений о необходимости страт для управления, это может напрямую указывать на формирование новой, технологически усиленной элиты ("люди вместе с ИИ"), которая будет управлять ("использовать") остальным населением.

Призыв выйти из "роли жертвы" в "роль актора": Если ранее Греф опасался самоосознания и самостоятельности масс, то этот призыв может интерпретироваться не как призыв к подлинной субъектности, а как требование адаптироваться к новым правилам игры. "Стать актором" в этой логике – значит освоить ИИ-инструменты и эффективно функционировать внутри системы, создаваемой и контролируемой теми, кто владеет технологиями. Отказ или неспособность к такой адаптации автоматически помещает человека в категорию "жертвы" – то есть объекта управления или вытеснения.

Утверждение о всемогуществе ИИ ("всё сможет"): Акцентирование на безграничных возможностях ИИ, включая имитацию эмоций и юмора, способствует его нормализации и снижает критическое восприятие. Если ИИ может делать "всё", включая человеческие функции, то его повсеместное внедрение и зависимость от него представляются естественным и неизбежным процессом, отвлекая от вопросов контроля и потенциальных рисков манипуляции.

Фокус на образовании (Digital Skills, Python) и критика текущей системы: Подчеркивая необходимость обучения конкретным цифровым навыкам, Греф, возможно, видит образование как инструмент подготовки пользователей и функционеров для новой, ИИ-управляемой экономики. Это может отличаться от развития критического мышления и гуманитарных знаний, которые способствуют "самоидентификации", вызывавшей у него опасения ранее. Критика существующей системы образования (вузов) при этом может служить обоснованием для перехвата инициативы корпорациями (как Сбер) в формировании образовательной повестки.

ИИ как решение проблемы управления в информационном обществе: Сопоставление показывает, что ИИ может рассматриваться как технологический ответ на тот вызов, который Греф сформулировал ранее: как управлять обществом, где информация легкодоступна?

ИИ, способный к персонализированному анализу, формированию информационной повестки и созданию зависимости, потенциально является инструментом, позволяющим осуществлять "массовое управление" (с "элементами манипуляции") гораздо эффективнее, чем старые методы "препарирования" информации через СМИ.