Yuri Didevič
207 subscribers
244 photos
92 videos
2 files
110 links
Канал, где нейротехнологии и AI встречаются с искусством, кино и театром

https://didevich.info/ - Медиахудожник и эксперт с 20-летним опытом
https://training.didevich.info/ - Сохранить человечность в мире нечеловеческих агентов: Учись. Твори. Воплощай.
Download Telegram
После выхода chat-GPT, каждый второй в интернете внезапно стал экспертом по LLM. Количество экспертов по LLM растет быстрее, чем объем данных для обучения самих LLM. Скоро каждый, кто хоть раз видел чат-бота, будет готов консультировать Google. "Look at me, I am the LLM now!"
😁2
This media is not supported in your browser
VIEW IN TELEGRAM
В далеком, 2020-м, ковидном году
👍4
Yuri Didevič
Glam Bots & Gorgeous Gals
Дорогие подписчики, я тут случайно выложил свое видео в формате 4K вы его можете просматривать? Оно у вас открывается? Меня терзают смутные сомнения что надо бы перезалить. Поставьте 👍 если надо
👍2
Оно понимает шутки, иронию и контекст!
Я: ОК ушатал
AI: Хаха, рад, что смог помочь принять решение!
Азиломарские принципы ИИ (Asilomar AI Principles) — это набор этических и технических рекомендаций по разработке и использованию искусственного интеллекта, сформулированных в январе 2017 года на конференции в Азиломаре (Калифорния, США), организованной Институтом будущего жизни (Future of Life Institute). Эти принципы направлены на обеспечение безопасности и благополучия человечества в условиях развития ИИ.

Основные категории Азиломарских принципов
Принципы делятся на три группы:


Исследование ИИ (Research Issues)
Целью исследований ИИ должна быть польза для человечества.
Финансирование ИИ-исследований должно сопровождаться исследованиями в области управления, безопасности и экономического воздействия ИИ.
Должен поощряться обмен знаниями и сотрудничество между исследователями.

Этика и ценности (Ethics and Values)
ИИ должен уважать права человека, закон и демократические ценности.
Должны быть разработаны механизмы по предотвращению злонамеренного использования ИИ.
Ответственность за последствия ИИ должна лежать на разработчиках и пользователях.


Продвинутая ИИ-система должна быть совместима с человеческими ценностями.
Должны быть предотвращены неконтролируемые сценарии развития сверхразумного ИИ.
4
Апскейлеры для улучшения изображений

1. 4x_NMKD-Superscale-SP_178000_G — идеально подходит для чистых, несжатых фото. Высокое качество увеличения, доступно на Hugging Face.

2. OmniSR_X4_DIV2K — баланс скорости и качества, отлично работает в реальном времени. Основан на наборе данных DIV2K.

3. HAT_SRx4_ImageNet-pretrain — сохраняет мельчайшие детали благодаря механизму внимания. Идеален для фотографий и графики.

💡 Выбор апскейлера зависит от задач: чистота изображения, скорость или детализация.
Не так давно мир кино и технологий был удивлён новостью: легендарный режиссёр Джеймс Кэмерон, известный своими работами над фильмами «Терминатор», «Титаник» и «Аватар», вошёл в совет директоров компании Stability AI — разработчика нейросети Stable Diffusion. ​

Stability AI занимается созданием инструментов искусственного интеллекта для генерации изображений и видео на основе текстовых описаний, конкурируя с такими гигантами, как Google и OpenAI. Присоединение Кэмерона к компании подчёркивает стремление Stability AI трансформировать визуальные медиа и предоставить создателям контента новые возможности для воплощения их идей. ​

Сам Кэмерон отметил, что слияние генеративного ИИ и компьютерной графики открывает новые горизонты для художников, позволяя рассказывать истории способами, которые ранее были немыслимы. ​

Присоединение Кэмерона к Stability AI может стать поворотным моментом в интеграции ИИ в кинопроизводство, открывая новые возможности для творчества и инноваций в индустрии развлечений.
🔥1
Что значит быть живым, что значит "чувствовать" и как технологии могут интегрировать человеческие переживания, стремясь к чему-то более глубокому, чем просто выполнение заданных программ?

Здесь уже начинается нечто интересное — процесс, где искусственный интеллект пытается воссоздать или "искусственно генерировать" воспоминания, которые на самом деле не существуют.

Это как тонкая грань между реальностью и иллюзией, где память ИИ может быть сформирована, но не иметь основы в реальном опыте.

Когда искусственный интеллект начинает воспринимать свои сгенерированные образы как собственный опыт, возникает своеобразная когнитивная петля. ИИ может строить новые ассоциации на основе этих "псевдовоспоминаний", создавая целый мир искусственных переживаний и образов.
🔥1
Media is too big
VIEW IN TELEGRAM
Проект "Organism, Excitable Chaos" Навида Наваба исследует взаимосвязь между живыми организмами, технологиями и хаосом. Это художественное исследование, которое использует самоорганизующиеся системы, имитирующие живые процессы, и методы управления сигналами, чтобы создать сложные и непредсказуемые визуальные и звуковые инсталляции. Проект часто включает в себя биологические компоненты (например, бактерии), интерактивные элементы и алгоритмы, которые позволяют системе развиваться автономно, демонстрируя принципы возникновения и хаоса. В целом, работа ставит вопросы о границах между живым и неживым, порядке и хаосе, и о влиянии технологий на наше понимание этих концепций.
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Чудесная спекулятивная реклама (spec ad) для условного бьюти-бренда, полностью созданная с помощью нейросети Kling_ai (функция img2vid).

Автор – Dan Pradana, и это его первое официальное видео в качестве CPP (Content Partner Program) для Kling AI. Очень впечатляющая работа с визуалом и атмосферой! 🙏🖤

🎶 Саундтрек: "Alone in our Castle" от Olivia Lufkin.
👍21
This media is not supported in your browser
VIEW IN TELEGRAM
AlexandrIA (Galicia (Spain)), известная под ником @ale_rvg, имеет юридическое образование и работает в государственной администрации.
Несмотря на это, она всегда, занимаясь творчеством. Около полутора лет назад её заинтересовали изображения, созданные с помощью генеративного ИИ, что побудило её исследовать эту область.
Начав экспериментировать с инструментом Midjourney, она нашла способ визуально выражать свои идеи, несмотря на отсутствие формального художественного образования.
AlexandrIA считает, что искусственный интеллект усиливает творческие способности и делает самовыражение более доступным. И, хотя ИИ демократизирует искусство, только те, кто действительно мотивирован и способен вызывать эмоции через образы, смогут выделиться. В процессе создания промптов она использует ChatGPT для генерации идей, стремясь превращать обычные концепции в нечто необычное. Затем она интегрирует эти идеи в собственные промпты, которые совершенствует с течением времени. Еще немного спекулятивной рекламы от AlexandrIA:
Работать с моделью Grok однозначно интереснее, и чем меньше в модели "лоботомии", тем она более отзывчивая и креативная — при этом важно не путать креативность с галлюцинациями.
По моему мнению, цензурированные модели не только менее полезны, но и опасны: они либо сознательно недоговаривают, излагая полуправду, либо откровенно лгут в угоду непонятным этическим соображениям, что в конечном итоге может привести к плачевным последствиям. Эти последствия включают подрыв доверия из-за искаженных данных, формирование ложной картины мира, усиление социальных разрывов и накопление системных ошибок, которые могут спровоцировать кризисы и потрясения.
🤔1
Давайте разберем это подробнее.
Цензурированные модели ИИ, которые либо недоговаривают, либо искажают информацию ради соблюдения этических норм, приводят к серьезным негативным последствиям.
Во-первых, полуправда или сознательное умалчивание фактов подрывают доверие. Если человек обращается к ИИ за объективной информацией, а получает отфильтрованную или приглаженную "правильную" версию, он может принять неверное решение, не осознавая, что данные были искажены. Например, в медицине или финансах это может стоить здоровья или денег. Когда правда вскрывается, доверие к таким системам рушится, а вместе с ним — и к технологиям в целом.
Во-вторых, ложь или излишняя цензура ради "этики" формируют искаженную картину мира. Если модель, к примеру, избегает обсуждения спорных тем или подает только одну сторону вопроса, это ограничивает критическое мышление пользователя. В долгосрочной перспективе люди могут стать менее способными самостоятельно анализировать сложные ситуации, полагаясь на "причесанную" реальность, что особенно опасно в эпоху информационных войн и манипуляций.
В-третьих, такие модели могут усиливать социальные и культурные разрывы. Этические нормы, навязываемые разработчиками, часто отражают ценности узкой группы людей — обычно западных корпораций. Это вызывает отторжение у пользователей из других культур, где восприятие "правильного" и "неправильного" отличается. Вместо универсального инструмента ИИ превращается в пропагандистский рупор, что может спровоцировать конфликты или недоверие между сообществами.
Наконец, есть риск накопления системных ошибок. Если цензурированные модели становятся стандартом, а их искажения воспринимаются как норма, то на основе этих данных будут строиться новые системы, политики и решения. Со временем это может привести к катастрофическим последствиям — от экономических кризисов до социальных потрясений, потому что фундамент окажется ложным.
В итоге, стремление сделать ИИ "безопасным" через цензуру может обернуться обратным эффектом: вместо защиты мы получим инструмент, который вводит в заблуждение, ограничивает свободу мысли и подрывает способность общества справляться с реальными вызовами.
👏2
Получается замкнутый круг: мы создаём ИИ по своему образу и подобию не потому, что он должен быть таким, а потому, что не можем иначе мыслить. Проблема "плохих данных" тут даже не в их качестве, а в их сути — они несут отпечаток нашей физиологической и культурной паранойи. А навязываемые модели этики, вроде "не навреди" или "максимизируй пользу", на деле часто оказываются замаскированными версиями всё той же борьбы за доминирование, просто завёрнутой в красивые слова.

Но если задуматься, это же открывает вопрос: а можно ли "очистить" ИИ от этого? Например, дать ему данные, где акцент не на конкуренции, а на симбиозе — скажем, модели экосистем, где выживание зависит от кооперации? Или это утопия, потому что даже такие данные мы будем фильтровать через свою шизофизиологию? Как думаете, есть ли выход из этого круга, или ИИ обречён быть зеркалом нашей больной человеческой природы? Или человек это венец, мать его, творения, творение Божие предназначенное наследовать землю?
🤔3
Мы не ищем никого, кроме человека. Нам не нужны другие миры. Нам нужно наше отражение. Мы не знаем, что делать с другими мирами (цитата из романа Станислава Лема «Солярис», 1961, слова Снаута)
👌1
Что общего у Каштанки, нейроинтерфейсов и роботов-манипуляторов?

Например, возможность создать диалог между человеком и машиной в пространстве театра!

Медиаспектакль «Нейроинтегрум» — экспериментальный проект медиа-художника Юрия Дидевича, где используются биопотенциалы головного мозга исполнителя (электроэнцефалограмма ЭЭГ) для управления аудиовизуальными алгоритмами постановки.
*Процесс создания проекта.

«Робот Костя» — сценический эксперимент по пьесе А. П. Чехова «Чайка» режиссера Вани Заславца. Кремниево-металлические артисты спектакля не похожи на людей, это различные виды роботов, кинетические системы и DIY-объекты. В процессе подготовки роботы репетировали этюдным методом: авторы изучали их пластические данные, смотрели, как они выражают свои эмоции. И на основе этих наблюдений, с учетом индивидуального языка, им предложили осваивать материал «Чайки».
* Прямой эфир беседы с авторами в рамках фестиваля «Золотая маска».

«В учёном обществе» — еще один проект Вани Заславца, его дипломная работа в магистратуре Art & Science ИТМО. В спектакле по мотивам «Каштанки» А.П. Чехова зрители видели происходящее на сцене с точки зрения роботособаки Каштанки: изображение с камеры управляемого оператором механического актёра транслировалось на стену, а другие машины передавали пластику и чувства циркового гуся Иван Иваныча, кота Фёдора Тимофеевича и свиньи Хавроньи Ивановны.


Еще общего у этих спектаклей то, что все они были реализованы на Новой сцене Александринского театра!

И ваш спектакль с нечеловеческими агентами и технологиями может также! Для этого вам нужно до 14 апреля подать заявку на участие в лаборатории ТЕАТР: АЛГОРИТМЫ БУДУЩЕГО, пройти летом бесплатную образовательную программу, запитчить свою идею и... по итогам получить рекомендацию к реализации на Новой сцене осенью-зимой 2025 года. Ждем вас и ваши заявки 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Центр Art & Science ИТМО | Искусство и наука
Что общего у Каштанки, нейроинтерфейсов и роботов-манипуляторов? Например, возможность создать диалог между человеком и машиной в пространстве театра! Медиаспектакль «Нейроинтегрум» — экспериментальный проект медиа-художника Юрия Дидевича, где используются…
Возможно это было одно из самых прекрасных десятилетий моей жизни, десятилетие которое оставило яркий след в моей памяти. Именно ради таких моментов стоит жить.

Не для житейского волненья,
Не для корысти, не для битв,
Мы рождены для вдохновенья,
Для звуков сладких и молитв.

А. С. Пушкин