Всем привет!
‼️В этом году я снова от лица программного комитета Practical ML приглашаю всех подавать заявку на участие в конференции 2024🔥
⚡️ Ищем спикеров на ML-конференцию Practical ML Conf! Принимаем заявки до 13 июля.
📝 Сама конференция пройдет 14 сентября. Приходите рассказывать про прикладные ML-решения, которые уже сейчас работают и приносят пользу. Ключевые темы: CV, RecSys, MLOps, NLP, Speech и Analytics.
ℹ️ Подробную информацию и доклады прошлого года ищите на сайте.
‼️В этом году я снова от лица программного комитета Practical ML приглашаю всех подавать заявку на участие в конференции 2024🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Practical ML 2024 (PML) конференция для экспертов — использование ИИ для бизнеса | ML-конференция 2024 от Яндекса
Practical ML конференция для экспертов по внедрению ИИ в бизнес. Информационные доклады от ключевых разработчиков по работе с ML. PML Conf 2024 от компании Яндекс.
Complete AI pinned «Многие меня спрашивали «Когда и где будет школа в 2024 году?» Итак… ⚡️Мы открываем приём заявок на Летнюю школу AIRI В этом году мы запускаем Школу для студентов и аспирантов совместно с Передовой Инженерной Школой ИТМО. Школа пройдет в Санкт-Петербурге…»
⚡️Мои друзья и коллеги из Сколтеха активно призывают подавать заявки на отбор в магистратуру и аспирантуру на направление Data Science
Заявки принимаются на конкурсный отбор:
☝️в аспирантуру — до 5 июля
☝️в магистратуру — до 15 июля
📍 Подать заявку можно тут
Заявки принимаются на конкурсный отбор:
☝️в аспирантуру — до 5 июля
☝️в магистратуру — до 15 июля
Please open Telegram to view this post
VIEW IN TELEGRAM
msc.skoltech.ru
Науки о данных
Больше не нужно искать тематические каналы и по отдельности на них подписываться — мы сделали это за вас 👍
Вам остается только перейти по ссылке, сохранить папку себе и регулярно получать полезные ресурсы и знания из сферы «Продакты / ИИ»
https://t.me/addlist/g88en4ZT-4ZkNjUy
Хочешь в подборку?
Вам остается только перейти по ссылке, сохранить папку себе и регулярно получать полезные ресурсы и знания из сферы «Продакты / ИИ»
https://t.me/addlist/g88en4ZT-4ZkNjUy
Хочешь в подборку?
Всем привет!
В этом году пройдёт первая международная конференция по вычислительной оптимизации
💻 ICOMP 2024 💻
Я, конечно же, буду там 👋, и призываю вас подавать свои доклады до 21 июля 2024 📝 Подробные темы: эффективные методы обучения и вывода, интернет вещей, периферийные вычисления, новые архитектуры и многое другое.
Среди докладчиков Университет Пердью, Университет Штата Аризона, AIRI, Сколтех, Huawei, Яндекс и ещё целый ряд знакомых вам университетов и компаний 🔥
❗ Дата конференции 10-12 октября, Иннополис, Россия ❗
Распространяйте, делитесь, подавайте доклады😉
В этом году пройдёт первая международная конференция по вычислительной оптимизации
💻 ICOMP 2024 💻
Я, конечно же, буду там 👋, и призываю вас подавать свои доклады до 21 июля 2024 📝 Подробные темы: эффективные методы обучения и вывода, интернет вещей, периферийные вычисления, новые архитектуры и многое другое.
Среди докладчиков Университет Пердью, Университет Штата Аризона, AIRI, Сколтех, Huawei, Яндекс и ещё целый ряд знакомых вам университетов и компаний 🔥
❗ Дата конференции 10-12 октября, Иннополис, Россия ❗
Распространяйте, делитесь, подавайте доклады😉
icomp.cc
International Conference on Computational Optimization
В языковых моделях есть различные типы нейронов, например, нейроны знаний. Такого рода исследования позволяют двигаться в сторону интерпретируемости LLM, что на мой взгляд является одним из интереснейших направлений в исследованиях в настоящее время.
Помимо нейронов знаний, ещё например, существуют нейроны «уверенности», которые не влияют на предсказание следующего токена, но отвечают исключительно за степень уверенности модели в своих ответах☝️
В посте Антона есть подробности
Помимо нейронов знаний, ещё например, существуют нейроны «уверенности», которые не влияют на предсказание следующего токена, но отвечают исключительно за степень уверенности модели в своих ответах☝️
В посте Антона есть подробности
Telegram
AbstractDL
Confidence Neurons: у каждой LLM есть нейрон, который регулирует «температуру» генерации
Авторы этой работы нашли несколько конкретных нейронов, которые вообще ничего не делают, кроме как меняют энтропию распределения логитов. При этом на предсказание следующего…
Авторы этой работы нашли несколько конкретных нейронов, которые вообще ничего не делают, кроме как меняют энтропию распределения логитов. При этом на предсказание следующего…
Всем привет!
⚡️ Сегодня стало известно, что 20 июля в Москве Центр искусственного интеллекта Т-Банка проведёт одну из крупнейших профессиональных конференций по машинному обучению 🖥
На ней соберутся топовые ML-специалисты сразу по семи направлениям:
📍рекомендательные системы
📍обработка естественного языка
📍компьютерное зрение
📍речевые технологии
📍временные ряды
📍операции с машинным обучением и языковыми моделями
📍фундаментальные и прикладные исследования
Эксперты Т-Банка, Яндекса, AIRI, VK, MTS AI и других ведущих компаний расскажут о последних достижениях и трендах отрасли.
🔎 Вас ждут 27 сессий и более 30 спикеров на четырёх площадках: Research & RnD, NLP & MLOps/LLMОps, RecSys & Time Series, Computer Vision & Speech.
💃🕺 И конечно, бонусом ещё и нетворкинг, интерактивные зоны и афтепати!
Событие, которое стоит посетить 🔥
➡️ Ссылка на конфу
⚡️ Сегодня стало известно, что 20 июля в Москве Центр искусственного интеллекта Т-Банка проведёт одну из крупнейших профессиональных конференций по машинному обучению 🖥
На ней соберутся топовые ML-специалисты сразу по семи направлениям:
📍рекомендательные системы
📍обработка естественного языка
📍компьютерное зрение
📍речевые технологии
📍временные ряды
📍операции с машинным обучением и языковыми моделями
📍фундаментальные и прикладные исследования
Эксперты Т-Банка, Яндекса, AIRI, VK, MTS AI и других ведущих компаний расскажут о последних достижениях и трендах отрасли.
🔎 Вас ждут 27 сессий и более 30 спикеров на четырёх площадках: Research & RnD, NLP & MLOps/LLMОps, RecSys & Time Series, Computer Vision & Speech.
💃🕺 И конечно, бонусом ещё и нетворкинг, интерактивные зоны и афтепати!
Событие, которое стоит посетить 🔥
➡️ Ссылка на конфу
Vision language models are blind
🟢 Project page 🟢 Paper 🟢 Dataset
На днях вышла интересная статья и датасет к ней про то, как современные мультимодальные модели, которые показывают высокие метрики на известных бенчмарках типа MMMU, MMBench, не справляются с тривиальными для человека задачами типа подсчёта числа пересечений геометрических объектов, подсчёта количества строк и столбцов в таблице и др.
Проблема понятная и идёт она от способа энкодинга изображений, принятого в большинстве решений (вряд ли архитектурно в проприетарных присутствует какая-то инновация в отличие от опенсурса). И это приводит к тому, что чем проще сцена/картинка, которую надо проанализировать, тем важнее не потерять информацию за счет, например, patch-based энкодеров (собственно, результаты в статье показывают как растут метрики при увеличении толщины линий для отдельных задач).
Так или иначе, наблюдение интересное, обращает внимание к проблеме представления картинки для VLM моделей.
На днях вышла интересная статья и датасет к ней про то, как современные мультимодальные модели, которые показывают высокие метрики на известных бенчмарках типа MMMU, MMBench, не справляются с тривиальными для человека задачами типа подсчёта числа пересечений геометрических объектов, подсчёта количества строк и столбцов в таблице и др.
Проблема понятная и идёт она от способа энкодинга изображений, принятого в большинстве решений (вряд ли архитектурно в проприетарных присутствует какая-то инновация в отличие от опенсурса). И это приводит к тому, что чем проще сцена/картинка, которую надо проанализировать, тем важнее не потерять информацию за счет, например, patch-based энкодеров (собственно, результаты в статье показывают как растут метрики при увеличении толщины линий для отдельных задач).
Так или иначе, наблюдение интересное, обращает внимание к проблеме представления картинки для VLM моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
One Day Offer для Центра робототехники 🤖
13 июля мои хорошие друзья и коллеги из Sber Robotics проводят мероприятие по поиску крутых спецов на вакансии Middle/Senior Robotics Software Engineer и Backend Developer.
Что круто, там можно и поработать руками над созданием самих роботов, и разрабатывать алгоритмы для управления роботами на базе ИИ в таких направлениях как:
📍 манипуляция
📍 роботизация логистики
📍 мобильные роботы
Несколько команд в AIRI тесно работают вместе с ребятами над созданием алгоритмов сильного искусственного интеллекта, способного наилучшим образом понимать происходящее вокруг робота, используя все доступные сенсоры и стримы визуальных данных
Вот еще ряд задач, которые решаются в Центре 👇
▪️ разработка алгоритмов и систем управления роботами (core, body, brain) и драйверов для различных устройств в виде ROS2 узлов
▪️ создание алгоритмов внутренней и внешней калибровки сенсоров (лидары, камеры, IMU), робототехнических сервисов на Behavior Trees / State Machines
▪️ работа с симуляторами на базе Isaac Sim / MuJoCo / PyBullet
▪️ проектирование архитектуры системы
Обязательно приходите, чтобы проверить свои силы!
Регистрируйтесь на One Day Offer 13 июля 😉
13 июля мои хорошие друзья и коллеги из Sber Robotics проводят мероприятие по поиску крутых спецов на вакансии Middle/Senior Robotics Software Engineer и Backend Developer.
Что круто, там можно и поработать руками над созданием самих роботов, и разрабатывать алгоритмы для управления роботами на базе ИИ в таких направлениях как:
📍 манипуляция
📍 роботизация логистики
📍 мобильные роботы
Несколько команд в AIRI тесно работают вместе с ребятами над созданием алгоритмов сильного искусственного интеллекта, способного наилучшим образом понимать происходящее вокруг робота, используя все доступные сенсоры и стримы визуальных данных
Вот еще ряд задач, которые решаются в Центре 👇
▪️ разработка алгоритмов и систем управления роботами (core, body, brain) и драйверов для различных устройств в виде ROS2 узлов
▪️ создание алгоритмов внутренней и внешней калибровки сенсоров (лидары, камеры, IMU), робототехнических сервисов на Behavior Trees / State Machines
▪️ работа с симуляторами на базе Isaac Sim / MuJoCo / PyBullet
▪️ проектирование архитектуры системы
Обязательно приходите, чтобы проверить свои силы!
Регистрируйтесь на One Day Offer 13 июля 😉
И снова здравствуйте!
Я продолжаю участвовать в каталогах интересных каналов по темам AI, науки и IT — сегодня предлагаю вашему вниманию топ подборку папку с каналами об искусственном интеллекте, виртуальной реальности, метавселенных, разработке, технологиях и кадрах
🔝 Папка подойдёт не только тем, кто работает в этой сфере, но и всем, кто хочет себя приблизить к современным трендам высоких технологий
🧠 Будьте в курсе самых свежих новостей и мнений от лидеров индустрии
Подпишитесь скорее на каналы👇уверен, что на ряд из них вы уже подписаны
Подписаться
Я продолжаю участвовать в каталогах интересных каналов по темам AI, науки и IT — сегодня предлагаю вашему вниманию топ подборку папку с каналами об искусственном интеллекте, виртуальной реальности, метавселенных, разработке, технологиях и кадрах
🔝 Папка подойдёт не только тем, кто работает в этой сфере, но и всем, кто хочет себя приблизить к современным трендам высоких технологий
🧠 Будьте в курсе самых свежих новостей и мнений от лидеров индустрии
Подпишитесь скорее на каналы👇
Подписаться
⚡️Свежий апдейт LLaVA-NeXT
LLaVA-NeXT-Interleave: Tackling Multi-image, Video, and 3D in Large Multimodal Models
LLaVA-NeXT — опенсурс мультимодальная диалоговая модель для работы с картинками и текстом.
Основной контрибьют — добавили разные режимы «перемешанных» (interleaved) изображений и текстов. Таким образом модель может решать задачи с одной картинкой, несколькими изображениями, несколькими кадрами видео и несколькими ракурсами одного объекта (полезно кстати для задач робототехники и анализа картины мира).
Все эти задачи заправлены в новый M4-Instruct сет на 1+M сэмплов. И также есть бенч на этот же спектр задач.
Архитектурно — ничего нового. Обучали с модели, которая до этого работала только с одной картинкой, то есть тюн с изменением структуры диалога хорошо ложится поверх VLM (совершенное открытие! ).
Но безусловно, очень ценны данные и бенч.
🟢 Статья
🟢 Код
🟢 M4-Instruct
@complete_ai
LLaVA-NeXT-Interleave: Tackling Multi-image, Video, and 3D in Large Multimodal Models
LLaVA-NeXT — опенсурс мультимодальная диалоговая модель для работы с картинками и текстом.
Основной контрибьют — добавили разные режимы «перемешанных» (interleaved) изображений и текстов. Таким образом модель может решать задачи с одной картинкой, несколькими изображениями, несколькими кадрами видео и несколькими ракурсами одного объекта (полезно кстати для задач робототехники и анализа картины мира).
Все эти задачи заправлены в новый M4-Instruct сет на 1+M сэмплов. И также есть бенч на этот же спектр задач.
Архитектурно — ничего нового. Обучали с модели, которая до этого работала только с одной картинкой, то есть тюн с изменением структуры диалога хорошо ложится поверх VLM (
Но безусловно, очень ценны данные и бенч.
@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️AuraFlow v0.1 — новый open-source text-to-image проект на базе диффузионных трансформеров (по сути имплементация ставшей уже закрытой StableDiffusion 3 с некоторыми архитектурными изменениями)
Из интересного:
📍заменили в большинстве случаев MMDiT блоки (как в SD3) на простые DiT, что сократило затраты на обучение
📍заменили параметризацию на maximal update parametrization, что позволило повысить предсказуемость поведения loss функции при скейлинге архитектуры (при стандартной параметризации можно учить маленькую модель, скажем с Adam’ом, вполне нормально, но при увеличении размеров модели можно получить взрыв градиентов)
📍Recaption everything — подчеркивает важность текстовых описаний в обучении, авторы пишут, что это дало серьёзный буст в качестве
📍Исследуя параметризацию, авторы пришли к оптимальному размеру модели при скейлинге — 6.8B параметров
👨💻Модель уже есть в diffusers, откуда её можно просто забрать и поиграться на выходных:
❗️Модель показывает SoTA на бенчмарке GenEval — 0.703 (с учётом prompt enhancement)
Пока это v0.1 и, судя по всему, скоро нас будут ждать новые версии модели, возможное даже с MoE подходом. А пока предлагаю поиграться с моделью (сам тоже хочу посмотреть степень понимания текстового описания — пишут, что модель очень хорошо ему следует) — черрипики в закрепе как всегда прекрасны😉
🟢 Блог
🟢 Веса модели
@complete_ai
Из интересного:
📍заменили в большинстве случаев MMDiT блоки (как в SD3) на простые DiT, что сократило затраты на обучение
📍заменили параметризацию на maximal update parametrization, что позволило повысить предсказуемость поведения loss функции при скейлинге архитектуры (при стандартной параметризации можно учить маленькую модель, скажем с Adam’ом, вполне нормально, но при увеличении размеров модели можно получить взрыв градиентов)
📍Recaption everything — подчеркивает важность текстовых описаний в обучении, авторы пишут, что это дало серьёзный буст в качестве
📍Исследуя параметризацию, авторы пришли к оптимальному размеру модели при скейлинге — 6.8B параметров
👨💻Модель уже есть в diffusers, откуда её можно просто забрать и поиграться на выходных:
from diffusers import AuraFlowPipeline
❗️Модель показывает SoTA на бенчмарке GenEval — 0.703 (с учётом prompt enhancement)
Пока это v0.1 и, судя по всему, скоро нас будут ждать новые версии модели, возможное даже с MoE подходом. А пока предлагаю поиграться с моделью (сам тоже хочу посмотреть степень понимания текстового описания — пишут, что модель очень хорошо ему следует) — черрипики в закрепе как всегда прекрасны😉
@complete_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
❗️До 15 июля коллеги из МФТИ продолжают набор в магистратуру и аспирантуру ФПМИ по искусственному интеллекту и робототехнике с повышенной стипендией!
Поступление проходит в:
📍Магистратуру по программе «Методы и технологии искусственного интеллекта» — 15 мест, со стипендией до 30 тыс. руб.
📍Аспирантуру по направлению «Информатика и вычислительная техника» — 5 мест, со стипендией до 80 тыс. руб.
Для поступления необходимо заполнить анкету по ссылке 👇
В Центре под руководством ведущих специалистов в своих областях вы сможет заниматься написанием статей на передовые конференции А* (NeurIPS, ICLR, ICML, IJCAI и др.), а также работать над прикладными проектами по различным актуальным тематикам, среди которых RL, беспилотный транспорт, компьютерное зрение и др.
📝 Заполнить анкету
Поступление проходит в:
📍Магистратуру по программе «Методы и технологии искусственного интеллекта» — 15 мест, со стипендией до 30 тыс. руб.
📍Аспирантуру по направлению «Информатика и вычислительная техника» — 5 мест, со стипендией до 80 тыс. руб.
Для поступления необходимо заполнить анкету по ссылке 👇
В Центре под руководством ведущих специалистов в своих областях вы сможет заниматься написанием статей на передовые конференции А* (NeurIPS, ICLR, ICML, IJCAI и др.), а также работать над прикладными проектами по различным актуальным тематикам, среди которых RL, беспилотный транспорт, компьютерное зрение и др.
📝 Заполнить анкету
Please open Telegram to view this post
VIEW IN TELEGRAM
Увидел тут в одном интересном канале пост про ИИ в фэшн индустрии. Возникли некоторые мысли, которыми захотелось поделиться.
Не секрет, что один из моих основных фокусов в исследованиях — генеративные модели, поэтому так или иначе про прикладные применения технологии читать всегда интересно. Персонализация в фэшн индустрии, на мой взгляд, ключ к сердцу покупателя. Море опросов можно найти, где респонденты уверено подчеркивают пользу влияния ИИ в части рекомендаций товаров, в части предложения новых услуг. На днях, например, один из пионеров индустрии моды в Европе объявил о старте AI-based рекламной кампании линейки молодёжной одежды. При этом они не просто сгенерировали картинки одежды, а прошли полный цикл: сначала была изготовлена коллекция одежды, потом все элементы коллекции были сфотографированы, а далее обучалась модель, которая далее правильно «одевала» в эту одежду моделей на сгенерированных картинках (пример из кампании как раз в закрепе) .
О чём это всё говорит: индустрия под влиянием ИИ меняется, даже такие чувствительные направления как мода не остаются в стороне. В недалеком будущем предполагаю, что будут и персональные коллекции одежды, сам стиль будет подбираться индивидуально под физиологию человека, а перенося это всё в «видео» модальность мы сможем «покрутить» себя и посмотреть со стороны как будем выглядеть в той или иной одежде и в разных окружениях. И одежда — это всего лишь одна из повседневных потребностей человека, но в формате персонализации такие «AI-стилисты» должны учитывать и твоё настроение (ммм, ИИ-эмпатия), и геолокацию, и погоду, и календарь встреч, и многие другие факторы, влияющие на выбор. Мода и одежда становится компонентом, как сейчас принято называть, модели мира, где каждый сможет «оцифровать» себя, сгенерировать любое окружение и смоделировать различные сценарии. Вот так от темы генерации и примерки одежды мы быстро приходим к AGI😉
А хочется ли этого вам? Надо ли такое или это уже перебор?
Не секрет, что один из моих основных фокусов в исследованиях — генеративные модели, поэтому так или иначе про прикладные применения технологии читать всегда интересно. Персонализация в фэшн индустрии, на мой взгляд, ключ к сердцу покупателя. Море опросов можно найти, где респонденты уверено подчеркивают пользу влияния ИИ в части рекомендаций товаров, в части предложения новых услуг. На днях, например, один из пионеров индустрии моды в Европе объявил о старте AI-based рекламной кампании линейки молодёжной одежды. При этом они не просто сгенерировали картинки одежды, а прошли полный цикл: сначала была изготовлена коллекция одежды, потом все элементы коллекции были сфотографированы, а далее обучалась модель, которая далее правильно «одевала» в эту одежду моделей на сгенерированных картинках (пример из кампании как раз в закрепе) .
О чём это всё говорит: индустрия под влиянием ИИ меняется, даже такие чувствительные направления как мода не остаются в стороне. В недалеком будущем предполагаю, что будут и персональные коллекции одежды, сам стиль будет подбираться индивидуально под физиологию человека, а перенося это всё в «видео» модальность мы сможем «покрутить» себя и посмотреть со стороны как будем выглядеть в той или иной одежде и в разных окружениях. И одежда — это всего лишь одна из повседневных потребностей человека, но в формате персонализации такие «AI-стилисты» должны учитывать и твоё настроение (ммм, ИИ-эмпатия), и геолокацию, и погоду, и календарь встреч, и многие другие факторы, влияющие на выбор. Мода и одежда становится компонентом, как сейчас принято называть, модели мира, где каждый сможет «оцифровать» себя, сгенерировать любое окружение и смоделировать различные сценарии. Вот так от темы генерации и примерки одежды мы быстро приходим к AGI😉
А хочется ли этого вам? Надо ли такое или это уже перебор?
В настоящее время задачи оптимизации моделей ИИ крайне необходимы и популярны, это позволяет сокращать расходы на GPU которые в современном мире на вес золота. Это касается как обучения нейросетей, так и последующего инференса, особенно, если сервис становится популярным и MAU/DAU растут как на дрожжах. Наша команда недавно опубликовала статью про способ оптимизации архитектур «Your Transformer Is Secretly Linear» 📝
Для "разгона" нейросетей приходите на лекцию от Deep School🗓 18 июля в 18:00 🗓 На ней вы узнаете, какие методы ускорения существуют и сможете задать свои вопросы специалисту в этой области 🗒
Саша Гончаренко, СТО стартапа enot.ai, за лекцию:
— применит прунинг, квантование и дистилляцию для ускорения нейросети😎
— подробно объяснит все методы♟
— рассмотрит возникающие тсложности и способы их решения💻
— объяснит, почему различается результат на разных вычислителях🤔
— расскажет о вызовах в ускорении💻
— и представит обновлённую программу курса «Ускорение нейросетей»
Регистрируйтесь на лекцию по ссылке!
🎁 После регистрации вы получите туториал по использованию TensorRT и OpenVino
Приходите на лекцию 18 июля в 18:00 МСК!⚡️
Для "разгона" нейросетей приходите на лекцию от Deep School
Саша Гончаренко, СТО стартапа enot.ai, за лекцию:
— применит прунинг, квантование и дистилляцию для ускорения нейросети
— подробно объяснит все методы
— рассмотрит возникающие тсложности и способы их решения
— объяснит, почему различается результат на разных вычислителях
— расскажет о вызовах в ускорении
— и представит обновлённую программу курса «Ускорение нейросетей»
Регистрируйтесь на лекцию по ссылке!
Приходите на лекцию 18 июля в 18:00 МСК!
Please open Telegram to view this post
VIEW IN TELEGRAM
Всем привет 🖐
Задумался на днях про маркировку ИИ-контента, ибо много обсуждений ведётся, а мнение публичное я не встретил, а очень хочется узнать разные позиции.
Моя личная позиция в том, что маркировка мультимедиа - важная задача, потому что позволяет понимать как распространяются генерации, как влияют на инфополе. Одна случайная картинка может стоить владельцу модели, бигтеху или стартапу репутации. Такие картинки можно успеть задетектить или доказать, что они сделаны не вашим ИИ при наличии встроенного механизма защиты.
Также маркировка поспособствует развитию генеративного искусства и защите авторского права. Хотя тема авторства ИИ-контента сложная, но почему не думать об этом на будущее?
Ну и, конечно, помимо маркировки нужно развивать инструменты для её анализа. Вот, например, кто-то взял картинку котика и дорисовал ему не совсем то, что надо; и вроде и контент промаркирован, а вроде уже не исходное изображение. Значит надо еще и за устойчивостью решений следить к разным локальным правкам контента.
А ещё: как именно маркировать контент? Предлагаю всем подумать в комментариях под этим постом 🔍
А ниже два коротких вопроса, буду признателен за участие 🙏
Задумался на днях про маркировку ИИ-контента, ибо много обсуждений ведётся, а мнение публичное я не встретил, а очень хочется узнать разные позиции.
Моя личная позиция в том, что маркировка мультимедиа - важная задача, потому что позволяет понимать как распространяются генерации, как влияют на инфополе. Одна случайная картинка может стоить владельцу модели, бигтеху или стартапу репутации. Такие картинки можно успеть задетектить или доказать, что они сделаны не вашим ИИ при наличии встроенного механизма защиты.
Также маркировка поспособствует развитию генеративного искусства и защите авторского права. Хотя тема авторства ИИ-контента сложная, но почему не думать об этом на будущее?
Ну и, конечно, помимо маркировки нужно развивать инструменты для её анализа. Вот, например, кто-то взял картинку котика и дорисовал ему не совсем то, что надо; и вроде и контент промаркирован, а вроде уже не исходное изображение. Значит надо еще и за устойчивостью решений следить к разным локальным правкам контента.
А ещё: как именно маркировать контент? Предлагаю всем подумать в комментариях под этим постом 🔍
А ниже два коротких вопроса, буду признателен за участие 🙏
Считаете ли вы, что внедрение механизмов невидимой маркировки позволит обезопасить ИИ-контент от внешних пользовательских изменений?
Anonymous Poll
25%
Да
46%
Да, но этого недостаточно для полноценной защиты
30%
Нет
Считаете ли Вы, что внедрение сервисов по идентификации ИИ-контента является лучшей практикой на рынке по обеспечению прозрачности для пользователя?
Anonymous Poll
53%
Да
10%
Да, но внедрять такие методы в России необходимости нет
37%
Нет