Forwarded from FOKINA.AI | СТУДИЯ ИИ
Что будет если собрать 8 авторов телеграм-каналов про ИИ и вкусно поесть?
Проверили сегодня на ИИ-бранче
А вот и наши супер классные участники (на фото слева направо):
✨ Алиса Курц – СЕО онлайн-школы IT Girl
Канал Girl Who Codes
✨ Сергей Карпенко – co-founder рекомендательного сервиса для поиска работы
Канал Будущее наступает
✨ Софья Фокина – юрист, эксперт по праву в искусственном интеллекте
Канал Нейронки и право
🙋🏻♀️Дарья Фокина – СЕО Студии Искусственного Интеллекта
Канал FOKINA.AI
✨ Иван Павлович, основатель IntoAi, компании по внедрению ИИ (у Вани пока нет канала, но это вопрос времени)
✨ Сергей Вольнов – Senior Data Scientist в AI-стартапе по подбору недвижимости Saola
Канал Sergak’s Blog
✨Влад Прошинский – СРО Деловые Линии
Канал Нейросети & AI
✨ Алерон Миленкин – ML team lead Dodo Brands, победитель Stepik Awards
Канал Data Feeling
✨ Александр Жадан – руководитель проекта по нейросетям Tenchat, известный написанием диплома и поиском невесты с ChatGPT
Канал InNeural Network
Вот такая супертим этой субботы. Я получила нереальный заряд мотивации, идеи для новых проектов по ИИ и подтверждение, какие классные люди двигают индустрию вперед
Кто хочет к нам на следующий ИИ-бранч? Следите за анонсами тут FOKINA.AI
Проверили сегодня на ИИ-бранче
А вот и наши супер классные участники (на фото слева направо):
✨ Алиса Курц – СЕО онлайн-школы IT Girl
Канал Girl Who Codes
✨ Сергей Карпенко – co-founder рекомендательного сервиса для поиска работы
Канал Будущее наступает
✨ Софья Фокина – юрист, эксперт по праву в искусственном интеллекте
Канал Нейронки и право
🙋🏻♀️Дарья Фокина – СЕО Студии Искусственного Интеллекта
Канал FOKINA.AI
✨ Иван Павлович, основатель IntoAi, компании по внедрению ИИ (у Вани пока нет канала, но это вопрос времени)
✨ Сергей Вольнов – Senior Data Scientist в AI-стартапе по подбору недвижимости Saola
Канал Sergak’s Blog
✨Влад Прошинский – СРО Деловые Линии
Канал Нейросети & AI
✨ Алерон Миленкин – ML team lead Dodo Brands, победитель Stepik Awards
Канал Data Feeling
✨ Александр Жадан – руководитель проекта по нейросетям Tenchat, известный написанием диплома и поиском невесты с ChatGPT
Канал InNeural Network
Вот такая супертим этой субботы. Я получила нереальный заряд мотивации, идеи для новых проектов по ИИ и подтверждение, какие классные люди двигают индустрию вперед
Кто хочет к нам на следующий ИИ-бранч? Следите за анонсами тут FOKINA.AI
#СводкаНовостей - что произошло за неделю?
⚡️ НИУ ВШЭ запустил программу "Интеллометрика", предлагающую добровольную сертификацию в сфере ИИ, чтобы улучшить межотраслевое взаимодействие.
⚡️ АЛРИИ выдвинула идею классификации деятельности ИИ-разработчиков по ОКВЭД для упрощения доступа к государственной поддержке.
⚡️ Создан новый научный совет по ИИ, включающий экспертов из ведущих университетов и научных центров, таких как Университета Иннополис, AIRI, «Сколтеха», НИУ ВШЭ, МГУ им. М.В. Ломоносова и других для содействия развитию отрасли.
⚡️ Правительство установило новый ЭПР для тестирования беспилотных авиационных систем в Ненецком автономном округе.
⚡️ Крупные компании, в том числе Lenovo, LG AI Research, Mastercard, Microsoft, Salesforce заключили соглашении о следовании рекомендациям ЮНЕСКО при разработке ИИ-систем.
⚡️ Google выпустила новую подписку для доступа к продвинутой ИИ-модели Gemini Ultra.
⚡️ Китайская компания iFlytek представила собственную ИИ-модель Xinghuo 3.5 AI, которая сравнима по возможностям с известной моделью GPT-4 от OpenAI.
⚡️ Первый МГМУ имени И.М. Сеченова и Яндекс объединились для совместных исследований в области медицины с использованием облачных технологий и данных.
⚡️ Компания Apple презентовала ИИ-модель MGIE с открытым исходным кодом, предназначенную для редактирования изображений согласно указаниям пользователя.
Please open Telegram to view this post
VIEW IN TELEGRAM
🏛️Московский арбитражный суд вынес прецедентное решение по иску, связанному с использованием технологии дипфейк✒️
В ходе разбирательства было установлено, что юридическое лицо Roistat превысило свои полномочия, осуществляя недопустимое использование изображения Киану Ривза в рекламном ролике, разработанном Agenda Media Group (AMG). Суд обязал ответчика Roistat выплатить истцу компенсацию в размере 500 000 рублей за нарушение имущественных прав.
Использование чужой внешности нейросетями в юридическом контексте затрагивает вопросы авторских прав и прав на изображение.
Создание и распространение изображений, сгенерированных ИИ, которые воспроизводят чьи-то черты лица или облик, может нарушать права личности. В некоторых юрисдикциях это может рассматриваться как нарушение права на конфиденциальность или незаконное использование изображения человека без его согласия. Право на изображение защищает от несанкционированного использования их облика, особенно в коммерческих целях. Однако, применение этих законов к ИИ представляет собой новую юридическую территорию, и многие аспекты ещё предстоит разработать в законодательстве.
Нарушение этих прав может привести к гражданским иска и требованиям к компенсации. Также существуют исключения для общественных фигур и использования в новостных или образовательных целях, где правила могут быть более гибкими.
Важно отметить, что в каждой юрисдикции существуют свои особенности защиты прав на изображение:
🇷🇺В России право на изображение охраняется статьей 152.1 Гражданского кодекса РФ, которая гарантирует защиту изображения человека. Публикация фотографии или видео без согласия человека допустима только в ограниченных случаях, например, при общественном интересе.
🇪🇺В Европейском Союзе охрана права на изображение регулируется на уровне национального законодательства стран-членов, а также общими положениями о защите данных GDPR. Публикация изображений без согласия в ЕС может рассматриваться как нарушение права на личную жизнь и защиту персональных данных.
В ходе разбирательства было установлено, что юридическое лицо Roistat превысило свои полномочия, осуществляя недопустимое использование изображения Киану Ривза в рекламном ролике, разработанном Agenda Media Group (AMG). Суд обязал ответчика Roistat выплатить истцу компенсацию в размере 500 000 рублей за нарушение имущественных прав.
Использование чужой внешности нейросетями в юридическом контексте затрагивает вопросы авторских прав и прав на изображение.
Создание и распространение изображений, сгенерированных ИИ, которые воспроизводят чьи-то черты лица или облик, может нарушать права личности. В некоторых юрисдикциях это может рассматриваться как нарушение права на конфиденциальность или незаконное использование изображения человека без его согласия. Право на изображение защищает от несанкционированного использования их облика, особенно в коммерческих целях. Однако, применение этих законов к ИИ представляет собой новую юридическую территорию, и многие аспекты ещё предстоит разработать в законодательстве.
Нарушение этих прав может привести к гражданским иска и требованиям к компенсации. Также существуют исключения для общественных фигур и использования в новостных или образовательных целях, где правила могут быть более гибкими.
Важно отметить, что в каждой юрисдикции существуют свои особенности защиты прав на изображение:
🇷🇺В России право на изображение охраняется статьей 152.1 Гражданского кодекса РФ, которая гарантирует защиту изображения человека. Публикация фотографии или видео без согласия человека допустима только в ограниченных случаях, например, при общественном интересе.
🇪🇺В Европейском Союзе охрана права на изображение регулируется на уровне национального законодательства стран-членов, а также общими положениями о защите данных GDPR. Публикация изображений без согласия в ЕС может рассматриваться как нарушение права на личную жизнь и защиту персональных данных.
🌏Skynet - на грани фантастики или реальности?😆
Последнее время часто слышу дискуссии о том, что реальность может приблизиться к сценарию Skynet из фильмов "Терминатор".
🤯 Однако эксперты утверждают, что, хотя ИИ продолжает развиваться, мы все еще далеки от создания самосознающего, сознательного и автономного ИИ, аналогичного Skynet.
😈 Основные обсуждения в научном сообществе сосредоточены на реальных проблемах, связанных с ИИ, например - "проблема контроля", где ИИ может выйти из-под контроля и угрожать человечеству. Это включает в себя опасения, что ИИ может быть равнодушен к человеческим ценностям и, в случае задания ему плохо определенной цели, действовать непредсказуемо.
😱 Другие риски и опасности, связанные с ИИ, включают социальное наблюдение, отсутствие конфиденциальности данных, искажения из-за предвзятости ИИ, социально-экономическое неравенство, ослабление этики и добросердечности из-за ИИ, а также автономное оружие, управляемое ИИ. Эти проблемы уже проявляются и обсуждаются экспертами индустрии.
🤩 Более 350 экспертов, известных ученых, профессоров, COO и многих других известных фигур, в том числе Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind, выражают беспокойство по поводу угрозы ИИ для выживания человечества и подписали заявление, в котором призывают считать угрозу ИИ глобальным приоритетом, наряду с такими рисками, как пандемии и ядерная война.
В комментарии Центра безопасности ИИ (CAIS) отмечается, что важно обсуждать эти риски и добиваться общественного согласия относительно ответственного использования ИИ.
Последнее время часто слышу дискуссии о том, что реальность может приблизиться к сценарию Skynet из фильмов "Терминатор".
В комментарии Центра безопасности ИИ (CAIS) отмечается, что важно обсуждать эти риски и добиваться общественного согласия относительно ответственного использования ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖Формирование прецедента - ИИ оклеветал радиоведущего😱
✒️В июне 2023 года радиоведущий Марк Уолтерс подал иск о клевете против OpenAI. Он обвинил ChatGPT в создании ответа, который неверно предполагал его причастность к хищению средств у Second Amendment Foundation (SAF). Уолтерс утверждал, что ChatGPT сгенерировал текст, который фактически был неверным и обвинял его в мошенничестве и растрате средств SAF. Уолтерс же не является стороной в деле SAF и никогда не занимал там должность. Это является примером "галлюцинации", когда ИИ создает ложные факты.
🏛️В январе этого года судья отклонил ходатайство OpenAI об отказе в иске, позволяя делу двигаться дальше.
В своем ходатайстве OpenAI утверждала, что она не несет ответственности за клевету, поскольку пользователь, инициировавший запрос в ChatGPT знал, что ответы были ложными. OpenAI также утверждала, что она не должна нести ответственность, так как условия использования чата предупреждают пользователей о том, что он может ошибаться.
💬 Профессор Юджин Волох предполагает, что иск против ИИ за клевету может быть юридически обоснованным. Однако он считает, что поддержание этого конкретного иска может быть сложным, поскольку для возникновения ответственности за диффамацию обычно требуется доказательство того, что ответчик знал о недостоверности заявления или действовал с пренебрежением к его правдивости, или что пострадавшая сторона понесла реальный ущерб (например, потерю дохода) из-за недостоверного заявления, сделанного ответчиком по неосторожности.
💬 Также в США действует раздел 230, который представляет собой положение закона 1996 года об этике в сфере коммуникаций. Он устанавливает, что интернет-платформы, такие как Facebook или Twitter, не являются издателями контента, размещаемого пользователями на их сайтах. Это означает, что эти компании не несут юридической ответственности за материалы, опубликованные пользователями, даже если такой контент может быть незаконным. Применительно к делу Уолтерса против OpenAI, этот закон ставит вопрос о том, распространяется ли его защита на случаи, когда контент генерируется ИИ, а не человеком.
📰Этот случай становится новым прецедентом в юриспруденции, поскольку вызывает вопросы о юридической ответственности ИИ за распространение ложной информации.
✒️В июне 2023 года радиоведущий Марк Уолтерс подал иск о клевете против OpenAI. Он обвинил ChatGPT в создании ответа, который неверно предполагал его причастность к хищению средств у Second Amendment Foundation (SAF). Уолтерс утверждал, что ChatGPT сгенерировал текст, который фактически был неверным и обвинял его в мошенничестве и растрате средств SAF. Уолтерс же не является стороной в деле SAF и никогда не занимал там должность. Это является примером "галлюцинации", когда ИИ создает ложные факты.
🏛️В январе этого года судья отклонил ходатайство OpenAI об отказе в иске, позволяя делу двигаться дальше.
В своем ходатайстве OpenAI утверждала, что она не несет ответственности за клевету, поскольку пользователь, инициировавший запрос в ChatGPT знал, что ответы были ложными. OpenAI также утверждала, что она не должна нести ответственность, так как условия использования чата предупреждают пользователей о том, что он может ошибаться.
📰Этот случай становится новым прецедентом в юриспруденции, поскольку вызывает вопросы о юридической ответственности ИИ за распространение ложной информации.
Please open Telegram to view this post
VIEW IN TELEGRAM
#СводкаНовостей - что произошло за неделю?
⚡️ Проект "Искусственный интеллект" будет продлен до 2030 года и интегрирован в национальный проект по развитию экономики данных согласно указу президента РФ.
⚡️ В "Тинькофф" создана ИИ-модель для выявления мошеннических заявок на кредит.
⚡️ Законопроект о том, что ИИ-разработчики, работающие в экспериментальном правовом режиме, могут быть обязаны страховать ответственность за возможный вред от использования технологии прошел первое чтение в Госдуме.
⚡️ Чат-бот Google Gemini теперь доступен на iOS.
⚡️ Американский регулятор отклонил заявку OpenAI на регистрацию GPT как товарного знака.
⚡️ OpenAI представила ИИ-модель Sora для создания реалистичных видео по текстовому описанию.
⚡️ OpenAI начала тестировать функцию памяти для ChatGPT, позволяющую запоминать факты о пользователе.
⚡️ Гендиректор OpenAI предложил создать международную организацию для контроля над ИИ.
⚡️ Google открыла в Париже исследовательский центр по ИИ.
⚡️ Минздрав утвердил методические рекомендации по приобретению и внедрению медицинских изделий на базе ИИ в сфере здравоохранения.
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ и интеллектуальная собственность🦾 Часть 1.
Самые обсуждаемые вопросы правового регулирования ИИ касаются интеллектуальной собственности. Юристам пока сложно точно отвечать на подобные вопросы, так как судебная практика находится в процессе формирования. Это вдохновило меня на серию тематических постов. Разберем кейсы разных стран и пофантазируем как подобные дела решались бы в России.
🏛️Верховный суд Великобритании (и не только) отказался признавать ИИ автором изобретения.
В Великобритании интересный случай, связанный с признанием ИИ как изобретателя, достиг Верховного Суда. Ключевым фигурантом этого дела является доктор Стивен Талер, который пытался зарегистрировать патенты на изобретения, созданные его системой ИИ, известной как DABUS. Талер утверждал, что DABUS, будучи машиной "творческого мышления", является автором двух изобретений: контейнера для пищевых продуктов с фрактальной геометрией и мигающего маячка для привлечения внимания в чрезвычайных ситуациях.
К слову, доктор подал заявки в различные страны, включая США, Австралию, Великобританию, ЕС, и ЮАР. Все страны, кроме ЮАР, отклонили эти заявки, поскольку ИИ не обладает правосубъектностью и не может иметь права
📰Верховный суд Великобритании единогласно отклонил апелляцию Талера, подтвердив, что согласно действующему патентному законодательству, изобретатель должен быть физическим лицом, а не машиной или ИИ.
✒️Суд указал, что закон не предусматривает машины, действующие самостоятельно, в качестве изобретателей. Далее суд пришел к выводу, что Талер, не будучи изобретателем и не имея связи с изобретателем (например, через отношения работодатель-работник или наследование прав), не имеет права на получение патента. Также суд отклонил довод Талера о том, что в качестве владельца DABUS он имеет право на патенты за изобретения, созданные этим ИИ.
Верховный суд подчеркнул, что не рассматривал фактическую достоверность утверждений Талера о том, что изобретения были созданы автономно DABUS.
💥Суд также заметил, что если бы Талер утверждал, что он является изобретателем, использовавшим DABUS как высокотехнологичный инструмент, результат мог быть другим.
Вывод:
На мой взгляд, у Талера все еще есть шансы. Если он внесет значительный творческий вклад в идею, созданную ИИ, разработает прототипы и и воспользуется подсказкой суда, что ИИ нужно указывать в качестве инструмента. В таком случае он может попробовать заново податься на получение патента.
Самые обсуждаемые вопросы правового регулирования ИИ касаются интеллектуальной собственности. Юристам пока сложно точно отвечать на подобные вопросы, так как судебная практика находится в процессе формирования. Это вдохновило меня на серию тематических постов. Разберем кейсы разных стран и пофантазируем как подобные дела решались бы в России.
🏛️Верховный суд Великобритании (и не только) отказался признавать ИИ автором изобретения.
В Великобритании интересный случай, связанный с признанием ИИ как изобретателя, достиг Верховного Суда. Ключевым фигурантом этого дела является доктор Стивен Талер, который пытался зарегистрировать патенты на изобретения, созданные его системой ИИ, известной как DABUS. Талер утверждал, что DABUS, будучи машиной "творческого мышления", является автором двух изобретений: контейнера для пищевых продуктов с фрактальной геометрией и мигающего маячка для привлечения внимания в чрезвычайных ситуациях.
К слову, доктор подал заявки в различные страны, включая США, Австралию, Великобританию, ЕС, и ЮАР. Все страны, кроме ЮАР, отклонили эти заявки, поскольку ИИ не обладает правосубъектностью и не может иметь права
📰Верховный суд Великобритании единогласно отклонил апелляцию Талера, подтвердив, что согласно действующему патентному законодательству, изобретатель должен быть физическим лицом, а не машиной или ИИ.
✒️Суд указал, что закон не предусматривает машины, действующие самостоятельно, в качестве изобретателей. Далее суд пришел к выводу, что Талер, не будучи изобретателем и не имея связи с изобретателем (например, через отношения работодатель-работник или наследование прав), не имеет права на получение патента. Также суд отклонил довод Талера о том, что в качестве владельца DABUS он имеет право на патенты за изобретения, созданные этим ИИ.
Верховный суд подчеркнул, что не рассматривал фактическую достоверность утверждений Талера о том, что изобретения были созданы автономно DABUS.
💥Суд также заметил, что если бы Талер утверждал, что он является изобретателем, использовавшим DABUS как высокотехнологичный инструмент, результат мог быть другим.
Вывод:
На мой взгляд, у Талера все еще есть шансы. Если он внесет значительный творческий вклад в идею, созданную ИИ, разработает прототипы и и воспользуется подсказкой суда, что ИИ нужно указывать в качестве инструмента. В таком случае он может попробовать заново податься на получение патента.
ИИ и интеллектуальная собственность🦾 Часть 2.
Давайте поговорим о том, как Управление по авторским правам США справилось с наболевшим вопросом об ИИ-искусстве и авторских правах. В марте 2023 года они представили новые руководящие принципы:
1. Зависимость от человеческого творчества- произведения, созданные с помощью ИИ, могут быть защищены авторским правом только в том случае, если в процессе создания произведения присутствует значительный человеческий творческий вклад;
2. Ограничения на защиту ИИ-созданных работ - если ИИ используется как инструмент без вклада человеческого творчества, произведения, созданные таким образом, не подпадают под защиту авторским правом;
3. Важность разграничения ролей - при определении авторства важно чётко разграничивать, что является результатом работы ИИ, а что — результатом человеческого творчества.
🎨🧑🎨Всё началось с комикса "Zarya of the Dawn", который был создан Крис Каштановой с помощью Midjourney. И вот тут-то и разгорелся дискурс: что же на самом деле можно считать объектом авторского права, когда дело касается ИИ?
🏛️Управление пошло по пути, который можно назвать "золотой серединой". Суть решения заключается в следующем - если ИИ просто выполняет инструкции и не добавляет собственного творческого начала – ну, извините, это не подпадает под авторское право. Но если человек вносит своё уникальное видение, свою искру – будь то текст комикса или его особенное оформление – тогда это уже другое дело, и такие элементы могут быть защищены авторским правом.
💬Это решение, по сути, подчеркивает значимость человеческого вклада в творческий процесс. Даже если вы используете ИИ как инструмент, ключевым остаётся ваш собственный творческий подход. И это довольно важный момент, потому что подчеркивает, что в эпоху высоких технологий авторство всё ещё принадлежит людям, а не машинам.
✒️Хотя на мой взгляд, стоит еще учитывать вклад человека в создания промта, так как сейчас это ценный и востребованный навык, которому в том числе нужно учиться.
Давайте поговорим о том, как Управление по авторским правам США справилось с наболевшим вопросом об ИИ-искусстве и авторских правах. В марте 2023 года они представили новые руководящие принципы:
1. Зависимость от человеческого творчества- произведения, созданные с помощью ИИ, могут быть защищены авторским правом только в том случае, если в процессе создания произведения присутствует значительный человеческий творческий вклад;
2. Ограничения на защиту ИИ-созданных работ - если ИИ используется как инструмент без вклада человеческого творчества, произведения, созданные таким образом, не подпадают под защиту авторским правом;
3. Важность разграничения ролей - при определении авторства важно чётко разграничивать, что является результатом работы ИИ, а что — результатом человеческого творчества.
🎨🧑🎨Всё началось с комикса "Zarya of the Dawn", который был создан Крис Каштановой с помощью Midjourney. И вот тут-то и разгорелся дискурс: что же на самом деле можно считать объектом авторского права, когда дело касается ИИ?
🏛️Управление пошло по пути, который можно назвать "золотой серединой". Суть решения заключается в следующем - если ИИ просто выполняет инструкции и не добавляет собственного творческого начала – ну, извините, это не подпадает под авторское право. Но если человек вносит своё уникальное видение, свою искру – будь то текст комикса или его особенное оформление – тогда это уже другое дело, и такие элементы могут быть защищены авторским правом.
💬Это решение, по сути, подчеркивает значимость человеческого вклада в творческий процесс. Даже если вы используете ИИ как инструмент, ключевым остаётся ваш собственный творческий подход. И это довольно важный момент, потому что подчеркивает, что в эпоху высоких технологий авторство всё ещё принадлежит людям, а не машинам.
✒️Хотя на мой взгляд, стоит еще учитывать вклад человека в создания промта, так как сейчас это ценный и востребованный навык, которому в том числе нужно учиться.
#СводкаНовостей - что произошло за неделю?
⚡️ В Институте математики им. С.Л. Соболева СО РАН запустили суперкомпьютер «Сергей Годунов» для исследований в различных областях.
⚡️ MTS AI представили языковую модель MTS AI Chat для корпоративных задач.
⚡️ В Университете Западного Сиднея создали суперкомпьютер DeepSouth для моделирования нейронных сетей.
⚡️ Разработчик Smart Engines обучил нейросеть распознаванию поддельных документов.
⚡️ Xiaomi открыла завод смартфонов с ИИ для оптимизации процессов.
⚡️ Американский регулятор отклонил заявку OpenAI на регистрацию GPT как товарного знака.
⚡️ Adobe (США) создал ИИ-помощника для работы с PDF-файлами.
⚡️ По прогнозу Google Cloud к 2025 году 90% корпоративных приложений будут с ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ и интеллектуальная собственность🦾 Часть 3.
Недавно мне задали интересный вопрос - может ли интернет-издание использовать изображение, созданное в нейросети и утверждать, что оно является автором этого рисунка?
🇷🇺На примере российской нейросети:
✏️ 👌 В соответствии с пользовательским соглашением FusionBrain, пользователь признается автором изображения, созданного с помощью этой технологии, и обладает исключительными правами на это изображение. То есть пользователь имеет право на использование, распространение, публичный показ, переработку и другие формы использования этого изображения, соответствующие авторскому праву.
✖️ Однако, соглашение также предусматривает, что пользователь предоставляет правообладателю FusionBrain неисключительную лицензию на использование этих изображений. Это включает право на воспроизведение, распространение, публичный показ, переработку и другие формы использования на всей территории мира и на весь срок охраны исключительных прав.
✔️ Также важно отметить, что пользователь принимает на себя полную ответственность за использование и распространения изображения.
👻 В контексте авторского права, пользователь фактически является создателем конечного изображения, однако технология и инструменты, использованные для его создания, принадлежат разработчикам нейросети. Это значит, что при распространении или публикации изображения, целесообразно указывать, что оно было создано с использованием определенной технологии или инструмента, например, указывая "создано при помощи нейросети Kandinsky".
🇺🇸А как у DALL-E от Open AI?
Сравнивая это с условиями DALL-E от OpenAI, где пользователям предоставляются более широкие права на использование изображений, можно заметить различия в лицензионных условиях. В случае с DALL-E, пользователям предоставляется возможность использовать изображения без необходимости предоставления лицензии компании на их использование, что предоставляет большую свободу в использовании и распространении своих изображений.
⛔️ Несмотря на условия лицензионных соглашений, предоставляющих пользователям права на изображения, судебная практика может иметь другое мнение относительно авторского права на такие изображения.
Примером этого является кейс с комиксом "Zarya of The Dawn". В этом случае, Управление по авторским правам США определило, что защита авторским правом зависит от степени человеческого творчества, вовлеченного в процесс создания.
Недавно мне задали интересный вопрос - может ли интернет-издание использовать изображение, созданное в нейросети и утверждать, что оно является автором этого рисунка?
🇷🇺На примере российской нейросети:
🇺🇸А как у DALL-E от Open AI?
Сравнивая это с условиями DALL-E от OpenAI, где пользователям предоставляются более широкие права на использование изображений, можно заметить различия в лицензионных условиях. В случае с DALL-E, пользователям предоставляется возможность использовать изображения без необходимости предоставления лицензии компании на их использование, что предоставляет большую свободу в использовании и распространении своих изображений.
Примером этого является кейс с комиксом "Zarya of The Dawn". В этом случае, Управление по авторским правам США определило, что защита авторским правом зависит от степени человеческого творчества, вовлеченного в процесс создания.
Please open Telegram to view this post
VIEW IN TELEGRAM
Ранее разбирала подробности кейса на канале.
Ситуация приобретает все более скандальный характер. Чем закончится эта история, покажет время.
Please open Telegram to view this post
VIEW IN TELEGRAM
#СводкаНовостей - что произошло за неделю?
⚡️ Минцифры в 2024 году планируют запустить сервис для дистанционного участия в судебных заседаниях с биометрической идентификацией.
⚡️ В МТУСИ используют нейросеть ResNet18 для анализа психологического портрета по фото.
⚡️ Владимир Путин заявил об необходимости увеличения совокупной мощности российских суперкомпьютеров в десять раз к 2030 году.
⚡️ В Новосибирском национальном исследовательском государственном университете откроется центр ИИ для разработки технологий умного города, цифровых двойников и не только.
⚡️ SambaNova представила ИИ-модель Samba-1 с 1 трлн параметров.
⚡️ Microsoft анонсировала чат-бота Copilot для финансовой отрасли.
⚡️ Microsoft, Ericsson, Nokia, T-Mobile, Samsung и другие ведущие компании учредили альянс искусственного интеллекта для сети радиодоступа сотовой связи (AI RAN)
⚡️ Totogi запустила ИИ-платформу BSS Magic для упрощения создания систем поддержки бизнеса.
⚡️ Французский ИИ-стартап Mistral AI представил новую ИИ-модель Mistral Large и объявил о начале партнерства с Microsoft.
Please open Telegram to view this post
VIEW IN TELEGRAM
Илон Маск обратился в Высший суд Калифорнии 29 февраля 2024 г. с иском против OpenAI. Его действия отражают беспокойство по поводу этических аспектов разработки искусственного интеллекта. В самом начале OpenAI была задумана как некоммерческая и открытая платформа для создания ИИ на благо всего человечества. Маск утверждает, что OpenAI отступила от этих принципов, особенно после лицензирования своих технологий компании Microsoft, что потенциально могло привести к использованию ИИ в коммерческих целях, а не для общественного блага.
Иск Илона Маска против OpenAI и Сэма Альтмана включает в себя ряд интересных моментов:
💬Обвинения
Маск обвиняет Альтмана, Брокмана и OpenAI в нескольких видах нарушений, включая нарушение контракта, несоблюдение обещаний, нарушение доверительных обязанностей, недобросовестную конкуренцию и недобросовестное обогащение.
🔍Контекст создания OpenAI
Иск выделяет предысторию создания OpenAI, основанную на опасениях Маска относительно ИИ, и его встречу с Демисом Хассабисом из DeepMind, где обсуждались потенциальные угрозы развития ИИ для общества.
📃Учредительное соглашение OpenAI
Описывается, как в 2015 году Маск, Альтман и Брокман договорились о создании некоммерческой лаборатории ИИ OpenAI, которая должна была разрабатывать ИИ во благо человечества, а не для максимизации прибыли частной компании.
📗Ранние исследования OpenAI
Указывается на открытый характер исходного исследования OpenAI, доступность проектов для публики и вклад сообщества в расширение и улучшение моделей.
📝Лицензирование GPT-3 Microsoft
В иске утверждается, что лицензирование модели GPT-3 компании Microsoft противоречило учредительному соглашению OpenAI, поскольку оно подразумевало использование технологии в коммерческих целях.
🪪Изменения в 2023 году
Упоминается, что в 2023 году OpenAI существенно отошла от своей первоначальной миссии и практики, особенно в связи с выпуском GPT-4, дизайн которого был сохранен в секрете и, по мнению Маска, доступен только Microsoft.
💸Маск требует:
1. Чтобы OpenAI придерживалась учредительного соглашения и вернулась к своей первоначальной миссии разработки ИИ на благо человечества.
2. Судебного разбирательства по вопросу о том, является ли GPT-4 искусственным общим интеллектом (AGI) и следовательно, находится ли за пределами лицензии OpenAI с Microsoft.
3. Судебного разбирательства с участием присяжных по всем вопросам и претензиям, подлежащим рассмотрению перед присяжными.
🏛️Если претензии окажутся справедливыми, то могут быть затронуты следующие аспекты американского законодательства:
1. Нарушение контракта
- это подразумевает, что OpenAI не выполнила условия договора или учредительного соглашения, которые были заключены между учредителями, в том числе Илоном Маском.
2. Промиссорный эстоппель (promissory estoppel)
- правовая норма, запрещающая отказ от обещания, на которое полагались и из-за которого другая сторона понесла убытки.
3. Нарушение доверительной обязанности (breach of fiduciary duty)
- если руководители OpenAI действовали не в интересах организации, а в своих или чужих интересах.
4. Недобросовестная конкуренция (unfair competition)
- относится к действиям, которые приводят к несправедливой конкуренции на рынке, например, если OpenAI использует свои ресурсы или информацию нечестным образом для получения преимуществ перед конкурентами.
5. Учет (accounting)
- предоставления отчета о финансовых операциях или активах компании, особенно в контексте отношений с Илоном Маском.
Please open Telegram to view this post
VIEW IN TELEGRAM
💸📰OpenAI опубликовала ответ на иск Илона Маска📝🔍
🚫 Open AI планируют отклонить все претензии Маска.
👌 В своём блоге Open AI подчеркнули свою приверженность миссии организации. Также OpenAI описывает свой путь, включая осознание того, что для создания AGI требуются большие ресурсы, чем предполагалось изначально. Они упоминают обсуждение о создании коммерческой структуры и разногласия с Маском по вопросам управления и финансирования.
😎 🏖 В посте OpenAI обнародовала ряд электронных писем, которые были отправлены Маском и подтверждают его поддержку превращения OpenAI в коммерческую организацию. В этих письмах Маск обсуждает перспективы и необходимость накопления больших ресурсов для развития AGI, а также высказывает идеи о более закрытой стратегии распространения научных данных по мере роста компании. В письмах также присутствует обсуждение слияния OpenAI с Tesla или возможности полного контроля Маска над OpenAI.
⁉️ Вывод прям напрашивается, но я оставлю пространство для ваших мыслей.
Please open Telegram to view this post
VIEW IN TELEGRAM
#СводкаНовостей - что произошло за неделю?
⚡️ Ученые ННГУ им. Н.И. Лобачевского и МГУ им. М.В. Ломоносова предложили сверхпроводящую логическую ячейку для квантовых компьютеров и нейросетей.
⚡️ Югорский НИИ информационных технологий планирует создать аналог ChatGPT для написания НПА.
⚡️ Skyeng представил ИИ-сервис для оценки уровня английского языка.
⚡️ Европейский Союз намерен использовать ИИ для защиты от кибератак критически важной инфраструктуры.
⚡️ OpenAI, Google, Microsoft и другие крупные компании подписали открытое письмо о создании ответственного ИИ.
⚡️ Waymo получила разрешение от Комиссии по коммунальным предприятиям Калифорнии на коммерческую на эксплуатацию беспилотных такси.
⚡️ Smart Engines научились с помощью ИИ распознавать поддельные паспорта всех стран.
⚡️ OpenAI обновил ChatGPT, добавив функцию озвучивания ответов на 37 языках.
Please open Telegram to view this post
VIEW IN TELEGRAM
Стартап Cognition взбудоражил мир технологий, представив свой последний проект - нейросеть, призванную полностью заменить программистов в разработке программного обеспечения.
Нейросеть представляет собой уникальный инструмент, способный автоматизировать каждый этап разработки ПО - от планирования до тестирования и отладки.
Одним из наиболее впечатляющих аспектов этого проекта является способность нейросети не только выполнять задачи, но и управлять проектами. Она обладает уникальной способностью оценивать объем работы, распределять ресурсы и оптимизировать процессы разработки. Ее гибкость и адаптивность позволяют ей эффективно адаптироваться к изменяющимся требованиям и условиям проекта.
Please open Telegram to view this post
VIEW IN TELEGRAM
#СводкаНовостей - что произошло за неделю?
⚡️ Microsoft интегрировала GPT-4 Turbo в бесплатную версию своего ИИ-помощника Copilot.
⚡️ Сбер, Яндекс, MTS AI, НИУ ВШЭ, "Сколтех", Университет Иннополис, МФТИ, а также другие компании и научные учреждения, подписали Декларацию об ответственной разработке и применении сервисов в области генеративного ИИ.
⚡️ Сбер разработал ИИ-помощника для работы с юридическими документами GigaLegal, основанного на GigaChat.
⚡️ В соответствии с рейтингом Global Generative AI Landscape 2024 Яндекс входит в список 11 мировых разработчиков, которые создают более одного вида генеративных ИИ-моделей.
⚡️ Европарламент одобрил Закон ЕС об искусственном интеллекте, задающий стандарты для ИИ в зависимости от его потенциальных рисков и уровня влияния.
⚡️ OpenAI заключила соглашение о сотрудничестве с Le Monde (Франция) и Prisa Media (Испания), позволяющее пользователям ChatGPT взаимодействовать с контентом этих компаний и обучать на нём ИИ-модели.
⚡️ Опрос "СберМаркетинга" показал, что 56% россиян используют ИИ в своей повседневной жизни, при этом в Москве уровень использования нейросетей достигает 62%.
⚡️ VK проводит тестирование новой технологии для обучения ИИ, позволяющей тренировать систему на данных из разных источников без необходимости их фактического обмена.
Please open Telegram to view this post
VIEW IN TELEGRAM
Европарламент одобрил закон ЕС об искусственном интеллекте
😎 Подробнее об основных положениях здесь.
🏛️Законопроект теперь ожидает официального утверждения Европейским советом и последующей публикации в официальном журнале ЕС, после чего он вступит в силу через 20 дней. Основные положения Закона начнут действовать через 24 месяца после его вступления в силу. Тем не менее, для отдельных аспектов установлены разные временные рамки: запрет на недопустимые практики использования ИИ будет введен через 6 месяцев, кодексы практики появятся через 9 месяцев, правила для ИИ общего назначения начнут действовать через 12 месяцев, а положения о системах ИИ высокого риска - через 36 месяцев.
📎 Основные аспекты AI Act включают:
📝Запрет на использование определенных систем ИИ, считающихся неприемлемыми по уровню риска. К таким системам относятся те, которые способны на манипуляцию, такие как подсознательное воздействие или эксплуатация уязвимостей, а также системы для социального оценивания.
📝Строгое регулирование систем ИИ высокого риска, которые должны соответствовать обширным требованиям управления рисками, управления данными, мониторинга и ведения записей. Эти системы также должны соответствовать стандартам точности, надежности и кибербезопасности и быть зарегистрированы в общеевропейской общественной базе данных.
📝Регулирование общего назначения ИИ, включая генеративные ИИ-системы и основные модели, остается сложной задачей из-за широкой применимости этих технологий.
📝AI Act также предусматривает создание Европейского офиса ИИ, который будет координировать соблюдение, внедрение и исполнение акта. Штрафы за несоблюдение могут быть значительными, варьируясь от 1,5% до 7% от глобального оборота компании.
😕 Критические мнения:
💬 Потенциал акта к непреднамеренному допуску использования ИИ для массового наблюдения, особенно учитывая исключения для правоохранительных органов и национальной безопасности.
💬 Опасения относительно скорости регуляторного ответа на быстро развивающуюся индустрию ИИ и возможности ЕС эффективно применять акт без препятствия для инноваций.
💬 Проблема баланса между регулированием использования ИИ правоохранительными органами и гражданскими свободами, достигнув компромисса между общественной безопасностью и личной конфиденциальностью.
💬 Риск устаревания положений оценки рисков базовых моделей ИИ в законе ЕС из-за динамичного технологического прогресса. Норматив, устанавливающий порог вычислительной мощности в 10^25 FLOPs для определения системного риска, может не учитывать другие риски, такие как предвзятость и дезинформация. Быстрое развитие технологий и стремление к снижению вычислительной нагрузки также могут изменить параметры оценки рисков.
В целом, хотя Закон ЕС об ИИ представляет собой пионерское усилие в регулировании ИИ, он также подчеркивает сложную и эволюционирующую природу законодательства в области новых технологий.
🏛️Законопроект теперь ожидает официального утверждения Европейским советом и последующей публикации в официальном журнале ЕС, после чего он вступит в силу через 20 дней. Основные положения Закона начнут действовать через 24 месяца после его вступления в силу. Тем не менее, для отдельных аспектов установлены разные временные рамки: запрет на недопустимые практики использования ИИ будет введен через 6 месяцев, кодексы практики появятся через 9 месяцев, правила для ИИ общего назначения начнут действовать через 12 месяцев, а положения о системах ИИ высокого риска - через 36 месяцев.
📝Запрет на использование определенных систем ИИ, считающихся неприемлемыми по уровню риска. К таким системам относятся те, которые способны на манипуляцию, такие как подсознательное воздействие или эксплуатация уязвимостей, а также системы для социального оценивания.
📝Строгое регулирование систем ИИ высокого риска, которые должны соответствовать обширным требованиям управления рисками, управления данными, мониторинга и ведения записей. Эти системы также должны соответствовать стандартам точности, надежности и кибербезопасности и быть зарегистрированы в общеевропейской общественной базе данных.
📝Регулирование общего назначения ИИ, включая генеративные ИИ-системы и основные модели, остается сложной задачей из-за широкой применимости этих технологий.
📝AI Act также предусматривает создание Европейского офиса ИИ, который будет координировать соблюдение, внедрение и исполнение акта. Штрафы за несоблюдение могут быть значительными, варьируясь от 1,5% до 7% от глобального оборота компании.
В целом, хотя Закон ЕС об ИИ представляет собой пионерское усилие в регулировании ИИ, он также подчеркивает сложную и эволюционирующую природу законодательства в области новых технологий.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from HCAI // Регулирование ИИ
7 февраля Управлением по информационному и медиа развитию совместно с Enterprise Singapore была запущена GenAI Sandbox, которая позволит максимально использовать преимущества генеративного искусственного интеллекта для повышения качества обслуживания клиентов.
Малый и средний бизнес получат доступ к 13 технологиям ГенИИ и смогут применять их для повышения своей производительности.
Среди этих технологий:
По 2 направлениям развития бизнеса
компания может получить и использовать любой понравившейся ей продукт на срок до 3 месяцев, начиная с конца мая: • Создание разнообразного и уникального контента
• Разработка креативных концепций развития бизнеса
• Оптимизация выстраивания маркетинговых стратегий
• Персонализированные рекомендации и предложения
• Улучшение пользовательского опыта при поиске информации
• Автоматизация пользовательских запросов (например, бронирование номера в отеле)
Ожидается, что данный режим охватит примерно 300 предприятий малого и среднего бизнеса. По итогам "песочницы" Управление по информационному и медиа развитию проанализирует отзывы участников, чтобы оценить целесообразность дальнейшего внедрения генеративного ИИ в местное бизнес-сообщество.
*** Enterprise Singapore – государственная структура, занимающаяся поддержкой предпринимательства и международного сотрудничества
#ГенеративныйИИ #РегуляторнаяПесочница #Сингапур
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from HCAI // Регулирование ИИ
🇺🇳 Ежегодный саммит ООН "AI for good" 2024
29-31 мая в Женеве прошел ежегодный глобальный саммит «Искусственный интеллект во благо» («AI for good»), организованный Международным союзом электросвязи. На саммите присутствовали представители государственного сектора, частного сектора и гражданского общества.
Много внимания было уделено следующим вопросам:
✏️
Для достижения прогресса в данной области несколько международных организаций и ассоциаций договорились о сотрудничестве. В частности: Международная организация по стандартизации (ISO), Международная электротехническая комиссия (IEC), Content Authenticity Initiative (CAI) и другие.
Цель данного сотрудничества - определить технические стандарты для создания водяных знаков и технологий обнаружения дипфейков.
🚨
В рамках этого направления правительствам было предложено выделять значительные ресурсы для обеспечения безопасности ИИ.
Кроме того, эксперты отметили необходимость создания отделов red teaming в компаниях-разработчиках ИИ для смягчения потенциальных рисков использования ГенИИ. Отдельный акцент был сделан на привлечении юристов к тестированию систем ИИ.
🌎
Ожидается, что Глобальный цифровой договор будет принят на Саммите будущего в сентябре 2024 года и обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех.
Подробнее о проекте данного документа мы расскажем в отдельном посте.
#ООН #Саммит
29-31 мая в Женеве прошел ежегодный глобальный саммит «Искусственный интеллект во благо» («AI for good»), организованный Международным союзом электросвязи. На саммите присутствовали представители государственного сектора, частного сектора и гражданского общества.
Много внимания было уделено следующим вопросам:
Маркировка контента
Для достижения прогресса в данной области несколько международных организаций и ассоциаций договорились о сотрудничестве. В частности: Международная организация по стандартизации (ISO), Международная электротехническая комиссия (IEC), Content Authenticity Initiative (CAI) и другие.
Цель данного сотрудничества - определить технические стандарты для создания водяных знаков и технологий обнаружения дипфейков.
Конфиденциальность и безопасность
В рамках этого направления правительствам было предложено выделять значительные ресурсы для обеспечения безопасности ИИ.
Кроме того, эксперты отметили необходимость создания отделов red teaming в компаниях-разработчиках ИИ для смягчения потенциальных рисков использования ГенИИ. Отдельный акцент был сделан на привлечении юристов к тестированию систем ИИ.
Разработка Глобального цифрового договора
Ожидается, что Глобальный цифровой договор будет принят на Саммите будущего в сентябре 2024 года и обозначит общие принципы открытого, свободного и безопасного цифрового будущего для всех.
Подробнее о проекте данного документа мы расскажем в отдельном посте.
#ООН #Саммит
Please open Telegram to view this post
VIEW IN TELEGRAM