Интеллектуальная собственница | IP Proprietess
1.19K subscribers
303 photos
28 videos
20 files
150 links
Про интеллектуальную собственность и право США

Канал ведет Наталья Спиридонова, к.ю.н. (МГУ), LL.M (McGeorge Law School), магистр права (РШЧП), адвокат штата Калифорния (#358057)

18+
Download Telegram
Феминистка ли интеллектуальная собственница, остается интригой, но за честь girls in law сегодня боролась до конца!🙂‍↔️

Огромное спасибо дорогой Насте за приглашение, крутую тему и организацию)

@vychislit_po_IP
12
Пошутив в начале про гендерное равенство, я не думала, что заряжу Наталью батлить за весь род. Так сказать, feminine urge быть лучшим спикером.
12
Возвращаюсь к вам в роль админа и с удовольствием смотрю, как все выглядело со стороны)

Вот так вот замечательно получается, когда доверяешь репортаж и шутки кандидату юридических наук - думаю, вы догадались кому (вне конкуренции)😏

@voronapublichnik
1❤‍🔥12👎52🥴2🥱1
Will practice slavic stare here for a bit (would you mind?😇)
14👍6🍌4👎3🥰2🐳1
Happy New Year, друзья!🥂

Сначала думала, что ничего не скажу, но села и все-таки кое-что вспомнила)

Это был очень необычный год, в котором надо было принимать сложные ответственные решения, довольно много перемещаться и совмещать очень разные контексты и задачи, а также несколько раз буквально переизобретать себя и знакомиться с собой новой. Этот год принес мне определенный опыт и возможность осмысления предыдущего опыта, которые неплохо добавили объема этому миру.

А сколько всего случилось, чего я не ожидала, ух! Я чувствую большую благодарность за очень многое, что принес 2025, - как будто мне надарили классных подарков, и я сижу под елкой и думаю: “Неужели это все мне?”🫣 О чем-то я и мечтать не могла, а о чем-то мечтала, но до конца не верила, что это сбудется.

Из минусов - я больше не знаю, кто я, и зарекаюсь когда-нибудь это точно узнать. Из плюсов - я точно знаю, что справлюсь с чем угодно и что нельзя ни при каких обстоятельствах менять себя так, как менять не хочется. Обязательно найдутся ваши места и ваши люди, где и с которыми вы будете полноценными собой, не предавая свой потенциал и сердце.

Я желаю, чтобы ни один год не был похож на предыдущий (в хорошем смысле), всегда двигаться вперед и не оглядываться, мечтать так смело и дерзко, как вы можете, и верить в то, что это все осуществится. Ну и много и с отдачей трудиться, стараться и становиться лучше.

Огромное спасибо всем, кто был и остается рядом, за вашу энергию, mindset и все-все-все)

Обняла и пошла праздновать, мур!🖤
41🎄9🔥5👎2
Выспалась, нагулялась, с братьями в снежки поиграла (меня обстреляли) и посмотрела очень интересное обсуждение на симпозиуме в Гарварде о деликтной ответственности за вред, причиненный ИИ технологиями (попозже напишу саммари и свои мысли)
31👍8😱5🍌1
International what
😁4210🔥7👎4💯4❤‍🔥1😱1
Media is too big
VIEW IN TELEGRAM
Делюсь вкусняшкой

Кого еще не подсадила на Джона Стюарта)
6😁4
Деликтное право и ИИ

Праздники - время наконец начитать теорию на предстоящие статьи и конференции. Я, правда, начала работать 2 января и удивила своих американских коллег новостью, что в России все отдыхают до 12 января (“you guys go wilddd”). Так вот сейчас меня интересует регулирование ИИ в его соприкосновении с (i) IP и (ii) деликтным правом. С первым вопросом мы в самом конце 2025 неплохо разобрались, поэтому время подойти ко второму.

Каждый раз, когда возникает новая технология, правовая система реагирует одинаково: во-первых, резко возрастает тревожность по поводу связанных с ней рисков, а во-вторых, появляется стремление либо придумать новые модели ответственности и специальные правовые институты, либо закрутить гайки и ввести максимально жёсткие условия ответственности. Так было в 19 веке с появлением железных дорог, затем в начале 20 века с автомобилями, а потом с интернетом.

Аналогично сейчас все происходит и с ИИ.

Основным источником беспокойства является принципиальная непредсказуемость механизма его функционирования (black box problem). Алгоритмы, особенно основанные на машинном обучении, принимают решения на основе сложных статистических корреляций и прокси, которые непрозрачны даже для разработчиков. Из этого нередко делается вывод, что классические концепции деликтного права неприменимы к вреду, причинённому с использованием ИИ, и что поэтому за любой такой вред ответственность всегда должна быть строгой (особенно много я такого вижу в ЕС и меньше - в доктрине США).

Мне это, если честно, интуитивно не очень нравится, и я бы теоретически поборолась за negligence. Основных проблем strict liability я вижу две:

(i) разрушение стимулирующей функции деликтного права: если ответственность наступает независимо от того, какие меры безопасности были приняты, исчезают стимулы к повышению надёжности ИИ.

(ii) монополизация рынка: риск безусловного возмещения всего потенциального вреда, причиняемого ИИ-продуктами, могут нести лишь крупнейшие игроки.

Поэтому я хочу проанализировать проблематичность применимости классических элементов negligence к вреду, причиняемому с привлечением ИИ, и понять, насколько критичны особенности этой технологии, чтобы предусмотреть для нее особый режим.

Сразу приведу релевантные примеры:

1️⃣ Автомобиль с функцией внезапного ускорения (acceleration assistance) активирует ее, игнорируя торможение водителя, в результате чего врезается в другой автомобиль (In re Toyota Motor Corp. Unintended Acceleration Mktg., Sales Practices, & Prods. Liab. Litig., MDL).

Судам удалось возложить ответственность на производителя несмотря на отсутствие дефектов в коде ПО по логике, близкой к доктрине res ipsa loquitur (она помогает истцам установить prima facie case в деликтах negligence, когда они не могут указать конкретные небрежные действия ответчтика). Это стало отходом от традиционной парадигмы ответственности за вред от ПО, требующей указания на конкретный технический изъян.


2️⃣ Автономный автомобиль сбивает велосипедиста, приняв его сначала за транспортное средство, а затем - за неопознанный объект (Herzberg v. Uber Technologies, Inc., settlement).

Формально в автомобиле находился оператор безопасности, однако архитектура системы и режим её функционирования фактически исключали возможность своевременного человеческого вмешательства.


Я выбрала эти примеры не случайно, а чтобы подчеркнуть различия ИИ-продуктов. Это могут быть полностью автономные системы (closed-loop), исключающие вмешательство человека, и более открытые (open-loop), когда такое вмешательство возможно. Это не качественное свойство, а количественное, и всего выделяют 5 уровней автономности (закрытости) ИИ-систем (sudden acceleration cases ~ 2 уровень, а Uber ~ 3/4).

Система может относиться к любому уровню и оставаться фактически замкнутой - например, 2й уровень, при котором водитель сам ведет, но не может преодолеть ускорение.


Но даже если система open-loop, истцы могут утверждать, что производитель не мог разумно ожидать оперативного вмешательства человека, учитывая хорошо задокументированный феномен automation bias.
13👎4🔥3👏1😱1
Как Шахерезада, продолжу завтра со слайдами и анализом по элементам🖤
8
Torts - AI - N.Spiridonova.pdf
482.1 KB
Как деликтное право может адаптироваться к ИИ

(если не идти простым путем замещения всех режимов “просто безвиновной ответственностью”)

🐆 Стандарт осмотрительности (duty of care)

В основном речь идет о неумышленном причинении вреда (negligence), где вина носит объективный характер и представляет собой отклонение от желаемого обществом объективного стандарта поведения разумного лица (standard of care). Этот стандарт является ключевым для установления вины. Его цель - заставить участников оборота интернализировать предотвращаемые разумными мерами риски их деятельности, и определяется он через сравнение (i) издержек по предотвращению вреда и (ii) типичным вредом соответствующей деятельности ответчика, помноженным на его вероятность.

Поскольку стандарт исторически сформировался применительно именно к человеческому поведению, есть мнение, что к ИИ он неприменим (отсюда, в частности, идея о сугубо строгой ответственности ИИ). Но есть выход: в доктрине всё чаще предлагается концепция reasonable AI как усреднённого стандарта между поведением (i) разумного лица и (ii) технически доступным уровнем развития ИИ на соответствующий момент времени.

Функционирование ИИ нельзя сравнивать только с человеческим стандартом поведения, поскольку стили “мышления” (decision-making) принципиально разные. С одной стороны, ИИ недостижим для людей, где мешают эмоции и нужны точность и беспристрастность (например, AI HR >> human HR с точки зрения учета стереотипов). С другой, его нельзя сравнивать и только с другими ИИ, так как в ряде сфер все машины хуже людей (например, вождение). При таком сравнении у разработчиков не будет стимулов улучшать свои сервисы и тянуться к человеку: например, если все self-driving cars рискованнее обычных и не всегда распознают пешеходов, если такая машина кого-то собьет, вина может отсутствовать из-за соответствия общему низкому стандарту. Соответственно, надо установить оба стандарта и найти среднее (есть специальные формулы).

🐆 Юридическая причинно-следственная (proximate cause) & foreseeability

На самом деле, и фактическая причинно-следственная связь вызывает проблемы в контексте вреда ИИ, но особенно проблематичной является proximate cause, выполняющая функцию отсечения несправедливой с учетом деятельности ответчика ответственности. Действующий тест proximate cause - соответствие характера наступившего вреда типичному вреду от типичных же рисков, создаваемых родом деятельности ответчика (The Restatement (Third) of Torts). Более ранним тестом была предвидимость (foresight test), которая сейчас учитывается на уровне установления обязанности воздерживаться от причинения вреда.

Опять же, проблема применения ИИ в том, что предвидение - человекоцентричная концепция, заточенная под мышление людей. ИИ “думает” иначе, неинтуитивным статистически выведенным способом, в каждом случае дающим непредсказуемый в человеческом смысле даже для разработчиков результат. В связи с этим встает проблема генерализации: на одном уровне обобщения очевидно и точно известно, что ИИ иногда дает сбой, но на более частном уровне никогда не ясно, произойдет ли сбой в конкретном случае. Если выбрать ориентиром второй уровень, за вред ИИ ответственности не будет никогда (по виновной модели). Соответственно, единственным выходом является оценивать предвидимость наиболее абстрактно.

Для большей точности можно выделить два типа сбоев:

(i) Несоответствие функционирования ИИ задуманному разработчиком способу (capabilities failures)

(ii) Отклонение целеполагания ИИ от человеческого из-за разного стиля мышления (alignment failures)

В первом случае установление предвидимости не является специфичным, так как речь об обычном производственном дефекте, тогда как во втором в полную силу встает как раз проблема генерализации (проблема не в отсутствии предсказуемости как таковой, а в невозможности предсказать конкретную форму, в которой риск реализуется).

Но в контексте ИИ различить эти два типа сбоев очень трудно. Отсюда - следующая особенность “ИИ-деликтов” -

🐆 Размывание границы между manufacturing defect и design defect (product liability)
6🔥3👎1😱1
Guilty pleasures

Включила 4ый сезон “Сплетницы”, чтобы было не очень ужасно делать скучнющие таблицы по работе, и теперь не знаю как оторваться🫣

Я понимаю, что есть более умное кино, но этот сериал все равно обожаю (осуждайте сколько хотите и говорите, что он детский, наивный и тупой). Всю школу и все университеты я училась 24/7, чтобы быть самой умной и получить все свои пятерки и не успела поэтому поучаствовать ни в каких интригах и вечеринках (очень обидно, но сейчас я бы сделала точно так же). А в Gossip girl столько жизни, столько каких-то человеческих отношений, дружб, ссор, красивых и некрасивых поступков (часто наигранных но зато понятно даже такой ботаничке как я!), что мне кажется, что я к этому становлюсь немножечко причастна и восполняю пробелы.

Ну и мои любимки это однозначно power couple Блэр и Чак. Я сначала думала, что надо отождествиться с Сереной по принципу “популярная блондинка”, но потом поняла, что она мне по-человечески не очень близка. Блэр более вдумчивая, глубокая и человечная, хотя ее постоянно пытаются представить едкой коварной злодейкой. “Зло,” которое она задумывает обычно справедливо и точечно, тогда как Серена направо и налево причиняет вред и боль без какого-то принципа и совершенно не бережет чувства людей и не раскаивается. А еще Блэр - человек дела и стремится состояться как личность и чего-то классного добиться.

Чак - тоже глубокий и дельный персонаж несмотря на его образ плохого парня, и вместе они очень круто замышляют и реализуют всякие бизнес-партнерства, сотрудничества, взаимовыгодные штуки и злодейства🔫

Но тут я должна быть с вами честной, что считаю признаком не очень большого ума отказываться признаваться себе в способности и желании нет-нет да и сделать что-то не очень доброе и этичное. Сила не в том, чтобы не хотеть, а в том, чтобы управлять этим и уметь себя убедить делать (преимущественно) хорошее.

P.S. А еще в сериале Манхэттен и красивые платья, каблуки и интерьеры!
16🔥2
Интеллектуальная собственница | IP Proprietess pinned «Деликтное право и ИИ Праздники - время наконец начитать теорию на предстоящие статьи и конференции. Я, правда, начала работать 2 января и удивила своих американских коллег новостью, что в России все отдыхают до 12 января (“you guys go wilddd”). Так вот сейчас…»