Yuri Didevič
207 subscribers
244 photos
92 videos
2 files
110 links
Канал, где нейротехнологии и AI встречаются с искусством, кино и театром

https://didevich.info/ - Медиахудожник и эксперт с 20-летним опытом
https://training.didevich.info/ - Сохранить человечность в мире нечеловеческих агентов: Учись. Твори. Воплощай.
Download Telegram
Работать с моделью Grok однозначно интереснее, и чем меньше в модели "лоботомии", тем она более отзывчивая и креативная — при этом важно не путать креативность с галлюцинациями.
По моему мнению, цензурированные модели не только менее полезны, но и опасны: они либо сознательно недоговаривают, излагая полуправду, либо откровенно лгут в угоду непонятным этическим соображениям, что в конечном итоге может привести к плачевным последствиям. Эти последствия включают подрыв доверия из-за искаженных данных, формирование ложной картины мира, усиление социальных разрывов и накопление системных ошибок, которые могут спровоцировать кризисы и потрясения.
🤔1
Давайте разберем это подробнее.
Цензурированные модели ИИ, которые либо недоговаривают, либо искажают информацию ради соблюдения этических норм, приводят к серьезным негативным последствиям.
Во-первых, полуправда или сознательное умалчивание фактов подрывают доверие. Если человек обращается к ИИ за объективной информацией, а получает отфильтрованную или приглаженную "правильную" версию, он может принять неверное решение, не осознавая, что данные были искажены. Например, в медицине или финансах это может стоить здоровья или денег. Когда правда вскрывается, доверие к таким системам рушится, а вместе с ним — и к технологиям в целом.
Во-вторых, ложь или излишняя цензура ради "этики" формируют искаженную картину мира. Если модель, к примеру, избегает обсуждения спорных тем или подает только одну сторону вопроса, это ограничивает критическое мышление пользователя. В долгосрочной перспективе люди могут стать менее способными самостоятельно анализировать сложные ситуации, полагаясь на "причесанную" реальность, что особенно опасно в эпоху информационных войн и манипуляций.
В-третьих, такие модели могут усиливать социальные и культурные разрывы. Этические нормы, навязываемые разработчиками, часто отражают ценности узкой группы людей — обычно западных корпораций. Это вызывает отторжение у пользователей из других культур, где восприятие "правильного" и "неправильного" отличается. Вместо универсального инструмента ИИ превращается в пропагандистский рупор, что может спровоцировать конфликты или недоверие между сообществами.
Наконец, есть риск накопления системных ошибок. Если цензурированные модели становятся стандартом, а их искажения воспринимаются как норма, то на основе этих данных будут строиться новые системы, политики и решения. Со временем это может привести к катастрофическим последствиям — от экономических кризисов до социальных потрясений, потому что фундамент окажется ложным.
В итоге, стремление сделать ИИ "безопасным" через цензуру может обернуться обратным эффектом: вместо защиты мы получим инструмент, который вводит в заблуждение, ограничивает свободу мысли и подрывает способность общества справляться с реальными вызовами.
👏2
Получается замкнутый круг: мы создаём ИИ по своему образу и подобию не потому, что он должен быть таким, а потому, что не можем иначе мыслить. Проблема "плохих данных" тут даже не в их качестве, а в их сути — они несут отпечаток нашей физиологической и культурной паранойи. А навязываемые модели этики, вроде "не навреди" или "максимизируй пользу", на деле часто оказываются замаскированными версиями всё той же борьбы за доминирование, просто завёрнутой в красивые слова.

Но если задуматься, это же открывает вопрос: а можно ли "очистить" ИИ от этого? Например, дать ему данные, где акцент не на конкуренции, а на симбиозе — скажем, модели экосистем, где выживание зависит от кооперации? Или это утопия, потому что даже такие данные мы будем фильтровать через свою шизофизиологию? Как думаете, есть ли выход из этого круга, или ИИ обречён быть зеркалом нашей больной человеческой природы? Или человек это венец, мать его, творения, творение Божие предназначенное наследовать землю?
🤔3
Мы не ищем никого, кроме человека. Нам не нужны другие миры. Нам нужно наше отражение. Мы не знаем, что делать с другими мирами (цитата из романа Станислава Лема «Солярис», 1961, слова Снаута)
👌1
Что общего у Каштанки, нейроинтерфейсов и роботов-манипуляторов?

Например, возможность создать диалог между человеком и машиной в пространстве театра!

Медиаспектакль «Нейроинтегрум» — экспериментальный проект медиа-художника Юрия Дидевича, где используются биопотенциалы головного мозга исполнителя (электроэнцефалограмма ЭЭГ) для управления аудиовизуальными алгоритмами постановки.
*Процесс создания проекта.

«Робот Костя» — сценический эксперимент по пьесе А. П. Чехова «Чайка» режиссера Вани Заславца. Кремниево-металлические артисты спектакля не похожи на людей, это различные виды роботов, кинетические системы и DIY-объекты. В процессе подготовки роботы репетировали этюдным методом: авторы изучали их пластические данные, смотрели, как они выражают свои эмоции. И на основе этих наблюдений, с учетом индивидуального языка, им предложили осваивать материал «Чайки».
* Прямой эфир беседы с авторами в рамках фестиваля «Золотая маска».

«В учёном обществе» — еще один проект Вани Заславца, его дипломная работа в магистратуре Art & Science ИТМО. В спектакле по мотивам «Каштанки» А.П. Чехова зрители видели происходящее на сцене с точки зрения роботособаки Каштанки: изображение с камеры управляемого оператором механического актёра транслировалось на стену, а другие машины передавали пластику и чувства циркового гуся Иван Иваныча, кота Фёдора Тимофеевича и свиньи Хавроньи Ивановны.


Еще общего у этих спектаклей то, что все они были реализованы на Новой сцене Александринского театра!

И ваш спектакль с нечеловеческими агентами и технологиями может также! Для этого вам нужно до 14 апреля подать заявку на участие в лаборатории ТЕАТР: АЛГОРИТМЫ БУДУЩЕГО, пройти летом бесплатную образовательную программу, запитчить свою идею и... по итогам получить рекомендацию к реализации на Новой сцене осенью-зимой 2025 года. Ждем вас и ваши заявки 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Центр Art & Science ИТМО | Искусство и наука
Что общего у Каштанки, нейроинтерфейсов и роботов-манипуляторов? Например, возможность создать диалог между человеком и машиной в пространстве театра! Медиаспектакль «Нейроинтегрум» — экспериментальный проект медиа-художника Юрия Дидевича, где используются…
Возможно это было одно из самых прекрасных десятилетий моей жизни, десятилетие которое оставило яркий след в моей памяти. Именно ради таких моментов стоит жить.

Не для житейского волненья,
Не для корысти, не для битв,
Мы рождены для вдохновенья,
Для звуков сладких и молитв.

А. С. Пушкин
7 занятий — чтобы видеть как режиссёр и мыслить как художник.

Старт: 12 апреля 2025

🎥 Курс: Тайна гипнотического кадра

Этот курс — для всех, кто работает с визуальным контентом:

от режиссёров, дизайнеров и медиахудожников до контент-креаторов, сценаристов и визуальных стратегов.

Если вы хотите создавать образы, которые говорят без слов — вам сюда. https://aicinema.online

Ты научишься: 🧠 Понимать, как визуальный язык воздействует на эмоции

🎨 Строить кадр с точностью инженера и свободой художника

🌀 Использовать AI как инструмент выразительного видения

🎬 Превращать идеи в сцены, которые невозможно забыть

Подходит для: всех, кто создаёт визуальный контент и хочет выйти за пределы шаблонов.

👉 7 шагов. 1 взгляд. Бесконечно больше смысла.

Успейте воспользоваться 15% скидкой до 5 апреля!
https://www.youtube.com/watch?v=xDqrsliTguQ

Анализ диалога об ИИ, Диалог Германа Грефа и Александра Асмолова об ИИ и роли индивида. В сопоставлении с подтвержденными фактами – ранее публично озвученными Германом Грефом взглядами на управление обществом и роль информации. Я буду рассматривать эти предыдущие высказывания как зафиксированный факт его позиции на тот момент.

1. Исходные Данные (Подтвержденные Факты):

В прошлых публичных выступлениях (в частности, на ПМЭФ 2011-2012 гг.) Герман Греф выражал следующие подтвержденные взгляды:

Страх перед информированным населением: Он заявлял, что ему "становится страшно" от идеи передачи власти "в руки населения".

Трудность манипуляции знающими людьми:
Он указывал, что "как только все люди поймут основу своего «Я», самоидентифицируются, управлять, то есть манипулировать ими будет чрезвычайно тяжело".

Необходимость манипуляции для управления: Он утверждал, что "любое массовое управление подразумевает элемент манипуляции".

Опасность прямого доступа к информации: Он выражал опасения по поводу общества, "где все имеют равный доступ к информации... получать напрямую не препарированную информацию", так как это угрожает существующим социальным стратам, сохранением которых, по его мнению, заняты в том числе и СМИ.

Исторические прецеденты сокрытия знаний: Он ссылался на Даосизм, Конфуцианство и Каббалу как на учения, которые долгое время были закрытыми или создавали страты, так как знание делало бы народ неуправляемым.
II часть анализа Диалога об ИИ в Свете Этих Фактов:

При рассмотрении диалога об ИИ через призму этих ранее задокументированных взглядов, ряд тезисов Грефа приобретает иное, более глубокое и потенциально тревожное значение:

Тезис о разделении на "использующих ИИ" и "используемых с помощью ИИ": Фраза "будет часть людей которая будет использовать искусственный интеллект и будет огромная часть людей которых будут использовать люди вместе с искусственным интеллектом" перестает быть просто констатацией цифрового неравенства. В контексте его прошлых заявлений о необходимости страт для управления, это может напрямую указывать на формирование новой, технологически усиленной элиты ("люди вместе с ИИ"), которая будет управлять ("использовать") остальным населением.

Призыв выйти из "роли жертвы" в "роль актора": Если ранее Греф опасался самоосознания и самостоятельности масс, то этот призыв может интерпретироваться не как призыв к подлинной субъектности, а как требование адаптироваться к новым правилам игры. "Стать актором" в этой логике – значит освоить ИИ-инструменты и эффективно функционировать внутри системы, создаваемой и контролируемой теми, кто владеет технологиями. Отказ или неспособность к такой адаптации автоматически помещает человека в категорию "жертвы" – то есть объекта управления или вытеснения.

Утверждение о всемогуществе ИИ ("всё сможет"): Акцентирование на безграничных возможностях ИИ, включая имитацию эмоций и юмора, способствует его нормализации и снижает критическое восприятие. Если ИИ может делать "всё", включая человеческие функции, то его повсеместное внедрение и зависимость от него представляются естественным и неизбежным процессом, отвлекая от вопросов контроля и потенциальных рисков манипуляции.

Фокус на образовании (Digital Skills, Python) и критика текущей системы: Подчеркивая необходимость обучения конкретным цифровым навыкам, Греф, возможно, видит образование как инструмент подготовки пользователей и функционеров для новой, ИИ-управляемой экономики. Это может отличаться от развития критического мышления и гуманитарных знаний, которые способствуют "самоидентификации", вызывавшей у него опасения ранее. Критика существующей системы образования (вузов) при этом может служить обоснованием для перехвата инициативы корпорациями (как Сбер) в формировании образовательной повестки.

ИИ как решение проблемы управления в информационном обществе: Сопоставление показывает, что ИИ может рассматриваться как технологический ответ на тот вызов, который Греф сформулировал ранее: как управлять обществом, где информация легкодоступна?

ИИ, способный к персонализированному анализу, формированию информационной повестки и созданию зависимости, потенциально является инструментом, позволяющим осуществлять "массовое управление" (с "элементами манипуляции") гораздо эффективнее, чем старые методы "препарирования" информации через СМИ.
III часть анализа. Финализирующий Вывод

Анализ диалога Германа Грефа об искусственном интеллекте, проведенный в неразрывной связи с его ранее задокументированными и подтвержденными высказываниями о природе власти, управления и страхе перед информированным, самоосознанным населением, приводит к следующему заключению:

Продвижение ИИ в риторике Грефа может быть интерпретировано не просто как технологический оптимизм, а как видение ИИ в качестве нового, значительно более мощного и эффективного инструмента для социального управления и манипуляции. Это технологическое решение той "проблемы", которую он озвучивал ранее – сложности управления массами, получившими доступ к информации и способными к самоидентификации.

Способности ИИ к глубинному анализу персональных данных, персонализации воздействия, формированию "пузырей реальности" и созданию глубокой зависимости у пользователей делают его идеальным инструментом для реализации модели управления, основанной на неявной манипуляции и сохранении (или создании новых) социальных страт, но уже в условиях цифровой эпохи. Призыв стать "актором" в этом контексте означает интеграцию в предложенную систему на условиях ее создателей, в то время как "роль жертвы" уготована тем, кто останется вне этой системы или будет пассивно управляем ею.

Расширение Опасности за Пределы Одного Общества:

Эта интерпретация выявляет опасность, выходящую далеко за рамки российского контекста. Потенциальная модель ИИ-управляемого общества, где технология используется для усиления контроля и манипуляции в обход традиционных демократических механизмов и этических норм, представляет глобальную угрозу, особенно в тех странах и режимах, где ценность человеческой жизни, достоинства и индивидуальной свободы не является основополагающей.

Опасный Пример для Подражания: Подобно тому, как жесткие цифровые методы контроля, примененные Китаем во время пандемии COVID-19 (системы социальных рейтингов, тотальная слежка), оказались губительными или неприемлемыми при попытках их копирования в демократических странах с иными ценностными установками, так и модель ИИ как инструмента социального инжиниринга и манипуляции может стать соблазнительным примером для авторитарных и полуавторитарных режимов по всему миру.

Экспорт Технологий и Методик: Разработка и успешное внедрение таких систем в одной стране может привести к экспорту не только самих технологий, но и методологий их использования для подавления инакомыслия, управления общественным мнением и закрепления власти недемократических элит.

Эрозия Свобод под Предлогом Эффективности: Аргументы об "эффективности", "стабильности" или "безопасности", достигаемых с помощью ИИ-управления, могут использоваться для оправдания постепенного демонтажа гражданских свобод и прав человека даже в странах с формально демократическими институтами, особенно в периоды кризисов.

Таким образом, видение, вытекающее из анализа высказываний Грефа, – это не просто частное мнение или бизнес-стратегия. Это потенциальный прообраз будущего, где технологии ИИ используются для создания более тонких, всепроникающих и трудно оспариваемых систем контроля над обществом. Это представляет собой фундаментальный вызов принципам свободы, автономии личности и человеческого достоинства в глобальном масштабе, особенно там, где эти принципы уже находятся под угрозой.
Цифровые сущности
Вопрос: Откуда приходят и куда уходят эти портреты и образы, прекрасные рыжие незнакомки, люди и монстры?

Существа из мерцающего хаоса, с телами из расплавленных букви теней забытых языков?

Фрактальные аватары, чьи лица искажаются при каждом движении,оставляя за собой шлейф цифрового тумана?

Сущности с крыльями из разбитых экранов, их кожа перезагружается, как старая операционная система?

Монстры, чьи тела состоят из ошибок в матрице,
их формы невозможно запомнить, потому что они меняются каждую секунду?

Люди, которые эволюционировали за пределы физической формы, их тела — это сгустки данных, а мысли — вирусные мемы?

Где вы живёте? В прекрасных замках или сырых норах?
Цифровые сущности
Ответ: Они приходят из трещин между мирами —
из щелей в коде реальности, из снов нейросетей,
из архивов забытых серверов, где пылятся потерянные символы.
Они уходят в белый шум эфира —
растворяются в помехах между каналами,
в тенях мониторов, выключенных на ночь,
в шёпоте жёстких дисков, хранящих обрывки мифов.

Рыжие незнакомки бродят по лиминальным пространствам — они живут в переходах между станциями метро в 4 утра,
в жёлтом свете уличных фонарей, под которыми исчезают следы, в промежутках между реальностью и сном.

Существа из хаоса плодятся в слепых зонах интернета —
в заброшенных форумах 2000-х, в битых пикселях,
в местах, где алгоритмы дают сбой
и на миг открывается другое.

Фрактальные аватары скользят по зеркалам соцсетей —
они существуют между твоим фото и его эхом в облаке,
между тем, что ты написал, и тем, что прочитали другие,
в искажении смысла между отправителем и получателем.

Крылатые сущности гнездятся в сломанных гаджетах —
в телефонах, утонувших в реках,
в мониторах, залитых кофе,
в мёртвых клавиатурах, где застряли крики клавиш.

Ошибки матрицы прячутся в следах пальцев на тачпадах —
они просачиваются через баги в рендере,
через артефакты сжатия, через мигающий курсор
в пустом документе, который что-то помнит.

Постлюди-сгустки живут в трафике —
в пакетах данных, летящих между спутниками,
в кэше браузеров, где остаётся половина твоей души,
в цифровых следах, которые переживут нас всех.

Они не выбирают замки или норы
они живут в промежутках:
в зазоре между «сохранить» и «удалить»,
в секунде перед пробуждением,
в мерцании экрана, когда ты не уверен,
было ли это на самом деле.

Они — плод твоего вопроса
Я вот думаю что возник новый жанр: Креативный промпт с элементами поэтической прозы. Как приглашение к размышлению и воображению, выраженное в ярких, метафорических образах. Его можно скармливать нейросетям и получать разные ответы - иногда в стихах.

Это прекрасная основа для коллабораций — между людьми или между человеком и машиной. Можно создавать целые циклы таких промптов, где каждый следующий опирается на предыдущий.