Ведущие вузы России (СПбГУ, МГУ, ННГУ) запустили программы по обучению журналистов работе с нейросетями, где студентов учат адаптировать технологии под задачи медиа.
Камилла Нигматуллина, ведущий аналитик Центра ИИ СПбГУ и научный руководитель образовательной программы магистратуры СПбГУ «Искусственный интеллект в журналистике и массовых коммуникациях» в интервью МЕДИА ТОК отметила: для глубокого понимания ИИ требуется больше, чем краткосрочные курсы.
«Мы готовим в основном управленцев, которые смогут грамотно внедрить ИИ в медиапроизводство, поэтому в их подготовке уделено внимание основам менеджмента, проектного управления, психологии работы в команде, отдельным аспектам медиапроизводства, и, конечно, исследованиям как самих нейросетей в медиа, так и исследованиям, подготовленным с помощью автоматизации обработки больших данных. Академический подход также предполагает анализ профессиональных стандартов работы, этических вопросов, глобальных изменений в медиасистеме».
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🤯3
Тема моего доклада о сложных структурированных объектах возникла еще в студенческие годы под руководством Адиля Васильевича Тимофеева – выдающегося ученого в области нейроинформатики. Впоследствии она получила развитие в моей дипломной работе, кандидатской диссертации и дальнейшей научной деятельности.
По словам спикера, квинтэссенция вчерашнего выступления заключается в том, что мир – это «небинарная строка». Он состоит из взаимосвязанных объектов, и этот принцип следует учитывать не только в исследованиях, но и в обычной жизни.
Присоединяйтесь к открытому диалогу и узнавайте больше о технологиях и искусственном интеллекте вместе с нами!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍5🔥4
28 февраля в 16:00 в Центре ИИ СПбГУ вместе с экспертами обсудим технологии для широкой аудитории
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
В центре ИИ
«Расскажи мне про ИИ» — первый митап в 2025🔥
🗓28 февраля | 🕘16:00 | Центр ИИ СПбГУ (Кадетская линия, 1-3, схема прохода)
Ученые и коммуникаторы объединятся, чтобы найти ответ на вопрос: ⠘⠸⠲ ⠔⠲⣁⠊⠒⠢⢐⠬⠘⠚⠊⡰⣈⢑⢢⡡ ⣐⡘⡘⠌⢅⢑⠨⠕⢒⠲ ⠣⢆⠢ ⠩⢠⡢⠬⡤⢃⡆ ⣀⠱⡅⢨⠜⡌⠡⢢⣂⠅
Свои секреты…
🗓28 февраля | 🕘16:00 | Центр ИИ СПбГУ (Кадетская линия, 1-3, схема прохода)
Ученые и коммуникаторы объединятся, чтобы найти ответ на вопрос: ⠘⠸⠲ ⠔⠲⣁⠊⠒⠢⢐⠬⠘⠚⠊⡰⣈⢑⢢⡡ ⣐⡘⡘⠌⢅⢑⠨⠕⢒⠲ ⠣⢆⠢ ⠩⢠⡢⠬⡤⢃⡆ ⣀⠱⡅⢨⠜⡌⠡⢢⣂⠅
Свои секреты…
❤3🔥2🎉2
Еще по реакциям мы поняли, что вам нравится, когда мы разбавляем ленту мемами
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4🎉4❤3
Март окажется не менее богатым на события, и вот что нас ждёт
4 научно-практических семинара:
Темы докладов будут уточнены позже, следите за новостями!
Также 20 марта планируется мероприятие совместно с бизнес-инкубатором «Ингрия» – питч-сессия для проектов, применяющих технологии ИИ и ML.
Завершим месяц митапом, а чему он будет посвящен –
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7🎉4👍2❤1👏1
Владислав Владимирович поделился, что предметом обсуждения стали аспекты, связанные с тем, что следует и не следует включать в законопроект в части регулирования игрового контента.
«Почти все участники заседания сошлись в том, что в игры играют, разумеется, не только дети, но и взрослые, и контроль должен касаться преимущественно информации, ориентированной на детей», – отметил он.
По словам Владислава Владимировича, хотя искусственный интеллект в ходе совещания напрямую не обсуждался, он все же имеет непосредственное отношение к проблематике игрового контента
Эксперт обозначил следующие основные риски в этой сфере, актуальные на данный момент:
ИИ все больше и больше используется в разработке игр. Соответственно, разработчики будут сталкиваться со спорными вопросами использования результатов генеративных нейросетей в игровом контенте с точки зрения авторского права. В ряде случаев риски нарушения условий договоров о разработке или прав третьих лиц могут быть существенны. Обращать внимание нужно и на содержание пользовательских соглашений сервисов ИИ. Некоторые из них предоставляют пользователю исключительное право, а некоторые — только неисключительную лицензию.
Достаточно новым риском является то, что генерируемый с помощью ИИ контент может непрогнозируемо породить «что-нибудь не то» с точки зрения закона. Поэтому даже процесс исправления багов должен разумно контролироваться.
Один из необычных рисков связан с тем, что, если ИИ интегрирован в игровой процесс и самообучается, в каких-то случаях он способен испортить игровой процесс пользователям, которые могут счесть это нарушением их прав. Такое уже случалось в
Elite Dangerous.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍6🔥4😢1
28 февраля в Центре ИИ СПбГУ эксперты в области искусственного интеллекта, психологии, медиакоммуникаций и PR обсудили популяризацию искусственного интеллекта среди широкой аудитории.
Начнем рассказывать о докладах спикеров
Сергей Николенко, эксперт Центра ИИ СПбГУ, доцент СПбГУ, заведующий лабораторией искусственного интеллекта ПОМИ РАН, рассказал, как НЕ надо рассказывать об ИИ.
«У нашей области очень неудачное название. Что такое искусственный интеллект? Основное значение этого словосочетания все-таки область компьютерных наук. Но одновременно искусственный интеллект и в общем сознании, и в массовой культуре еще означает и цели для науки. Еще означает продукт науки. И это приводит всегда к какой-то путанице»
«Используйте точные термины, говорите о конкретных технологиях, конкретных моделях. Избегайте антропоморфизации, подчеркивайте роль человека. Объясняйте ограничения. И последний пункт, который близок моему сердцу: при популяризации рассказывать об идеях, в чем новизна. И наша наука – она как раз отличается от многих других современных дисциплин тем, что мы можем это объяснить»
О чем хотите почитать в следующем посте? О доведении ИИ до депрессии или замене людей ИИ? Напишите в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍6🔥4😁1
В центре ИИ
Зарегистрироваться на семинар можно здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
На митапе «Расскажи мне про ИИ» спикер поделилась опытом создания контента о высоких технологиях с помощью нейросетевых авторов.
«Читать будут там, где у написанного есть смысл. Даже если этот смысл сгенерирован»
А теперь о замене людей…
Мыслим позитивно:
«У нас было два штатных новостника, теперь это два штатных редактора. Им повысили зарплату. Они рады»
Please open Telegram to view this post
VIEW IN TELEGRAM
👾7
В центре ИИ pinned «🥳 Встречаем весну с Центром ИИ СПбГУ! Март окажется не менее богатым на события, и вот что нас ждёт ⤵️ 4 научно-практических семинара: 🔵 05.03 – выступление Фрадкова Александра Львовича, доктора технических наук, на тему: «Краткая история кибернетики и искусственного…»
В заседании приняли участие ведущие учёные и эксперты, включая руководителя лаборатории Института органической химии имени Н.Д. Зелинского РАН Валентина Ананикова. Эксперт отметил, что искусственный интеллект уже сегодня позволяет ускорить процессы химического синтеза и масштабирования производства.
«С помощью искусственного интеллекта можно моделировать материал, катализатор для его синтеза. Что очень важно, можно создать цифровую копию реактора, где этот химический синтез можно осуществить. Для микротоннажной химии этот реактор небольшой, его можно полностью напечатать в камере 3D-принтера. Это революционная возможность. Традиционная сборка реакторов из множества компонентов – их надо заказывать, распределять эти заказы, потом ещё собирать все вместе. Здесь цифровая копия сразу превращается в химический реактор. Это очень важная роль искусственного интеллекта, он может ускорить внедрение результатов научных исследований на практике, причем для этого у нас есть сейчас все возможности»
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3👏3
Регистрация для проектов🔗
Регистрация для гостей и экспертов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤8👍5👏1
Разоблачаем скрытых майнеров💰
🗓 12 марта | 🕔 18:00 | Центр ИИ СПбГУ (Кадетская линия, 1-3, схема прохода)
На семинаре соберутся сразу несколько экспертов, чтобы рассказать, как обнаружить скрытых майнеров, с различных научных и прикладных точек зрения:
✅ математические методы анализа сетевого трафика и графов транзакций в блокчейне
✅ методы искусственного интеллекта для детекции аномальной активности
✅ физические аспекты майнинга с точки зрения энергопотребления и тепловых характеристик
💬 Семинар пройдет в формате «мозгового штурма», так что присоединяйтесь обсудить перспективы развития алгоритмов выявления скрытого майнинга и возможные способы противодействия подобным атакам.
Нужно только зарегистрироваться⛓
На семинаре соберутся сразу несколько экспертов, чтобы рассказать, как обнаружить скрытых майнеров, с различных научных и прикладных точек зрения:
Нужно только зарегистрироваться⛓
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3❤2
О том, когда возник искусственный интеллект и какие этапы своего развития он прошел, — рассказал Александр Львович Фрадков на научно-практическом семинаре в среду, 5 марта.
Однако, по словам Александра Львовича, значимым прорывом для науки в этой области послужил Дармутский семинар в 1956 году. Тогда один из отцов-основателей ИИ, Джон Маккарти, заявил, что «одна из причин изобретения термина «искусственный интеллект» — избежать ассоциации с "кибернетикой”».
«С развитием кибернетики как науки стало ясно, что она призвана воплотить вековые мечты человечества: об искусственном разуме, о машинах, заменяющих рабочих. Эта мечта до сих пор с нами и, быть может, надолго», — отметил Александр Львович.
Проанализировав применение ИИ сегодня, он пришел к следующим выводам:
А что же ждет нас в будущем?
В январе 2025 года на Всемирном экономическом форуме в Давосе пионер современного ИИ Ян Лекун заявил: «Ни один здравомыслящий человек не будет использовать генеративный искусственный интеллект и большие языковые модели через пять лет: в ближайшие три-пять лет мы вступим в десятилетие робототехники».
Как подчеркнул Александр Львович, это смелое утверждение связано с человеко-машинными системами. Когда мы общаемся с машинами, это и есть кибернетика — то, что называется гибридным интеллектом, способным существенно трансформировать различные сферы нашей жизни.
Делитесь своими предположениями в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍7🔥5👾2
Сегодня, в этот по-настоящему весенний день, поздравляем вас с 8 Марта и хотим выразить восхищение вашим умом, смелостью и талантом!
Вы не просто следите за трендами в AI, а создаёте их, мотивируете других и доказываете, что технологии — это не только мужская территория.
Пусть каждый ваш проект приносит радость и вдохновение, а баланс между работой и личной жизнью будет идеальным, как хорошо настроенный алгоритм!
Желаем неиссякаемой энергии, новых свершений и, конечно, крепкого здоровья!
С уважением,
Центр искусственного интеллекта и науки о данных СПбГУ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤12👍8
В центре ИИ
Разоблачаем скрытых майнеров💰 🗓 12 марта | 🕔 18:00 | Центр ИИ СПбГУ (Кадетская линия, 1-3, схема прохода) На семинаре соберутся сразу несколько экспертов, чтобы рассказать, как обнаружить скрытых майнеров, с различных научных и прикладных точек зрения: ✅ математические…
Уже завтра Волков Григорий Александрович, доктор физико-математических наук, доцент СПбГУ, старший научный сотрудник ИПМаш РАН, и Николенко Сергей Игоревич, эксперт Центра ИИ СПбГУ, доцент СПбГУ, заведующий лабораторией искусственного интеллекта ПОМИ РАН обсудят методы обнаружения скрытого майнинга💰
Семинар пройдет в формате брейншторма, всех желающих поучаствовать в обсуждении просим зарегистрироваться🔗
Семинар пройдет в формате брейншторма, всех желающих поучаствовать в обсуждении просим зарегистрироваться🔗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
В центре ИИ
Пост-релиз митапа «Расскажи мне про ИИ» опубликовали на сайте СПбГУ🖥
В материале содержится детальная информация о докладах, в том числе о тех, о которых мы здесь не рассказывали:
✔️ распознавание эмоций человека с помощью ИИ
✔️ высокая конкуренция на рынке технологий ИИ: как сохранить лидерство в медиаполе
Статья доступна по ссылке🔗
В материале содержится детальная информация о докладах, в том числе о тех, о которых мы здесь не рассказывали:
Статья доступна по ссылке🔗
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉7
Но как организовать эту сложную экосистему? Как заставить её работать без сбоев, эффективно и безопасно?
Владимир Владиславович раскроет секреты:
Чтобы посетить мероприятие и
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍3🔥2
Майнеров не обнаружили?💸
12 марта в Центре ИИ СПбГУ прошел семинар, посвященный борьбе с нелегальным майнингом криптовалют с помощью технологий ИИ.
🚨 Нарушителей, которые подключают свои установки к сети незаконно и не платят по коммерческим тарифам, эксперты семинара предложили выявлять с помощью анализа данных электросчетчиков и нейросетевых моделей, способных находить аномалии в энергопотреблении.
Волков Григорий Александрович, д.ф.-м.н., доцент СПбГУ, старший научный сотрудник ИПМаш РАН, рассказал, что майнеры потребляют энергию особым образом, оставляя «следы» в электросети. Их можно выявить, анализируя данные с электросчетчиков: мощность, напряжение и ток.
📌 Чтобы точно находить майнеров, нужно собрать большие датасеты о потреблении энергии, включая мощность и напряжение, и сравнить их с работой обычных бытовых приборов.
В этом и проблема…⬇️
Николенко Сергей Игоревич, эксперт Центра ИИ СПбГУ, доцент СПбГУ, заведующий лабораторией искусственного интеллекта ПОМИ РАН, отметил, что столько данных еще нет.
📌 Нужно знать: как меняется потребление энергии в разное время суток, сезоны, в зависимости от количества людей в доме, сравнить эти данные с соседями. Это поможет находить аномалии, указывающие на майнеров, но таких данных еще нет.
❓ А как понять, майнер это или просто духовку включили?
Никита Фёдоров, инженер-программист Центра ИИ СПбГУ объяснил, что майнеры потребляют энергию постоянно, в отличие от бытовых приборов. Нейросети могут анализировать данные о потреблении и выявлять устройства, которые работают круглосуточно. Чтобы избежать ошибок, необходимо разработать дополнительные фильтры.
Поле непаханное…
12 марта в Центре ИИ СПбГУ прошел семинар, посвященный борьбе с нелегальным майнингом криптовалют с помощью технологий ИИ.
Волков Григорий Александрович, д.ф.-м.н., доцент СПбГУ, старший научный сотрудник ИПМаш РАН, рассказал, что майнеры потребляют энергию особым образом, оставляя «следы» в электросети. Их можно выявить, анализируя данные с электросчетчиков: мощность, напряжение и ток.
В этом и проблема…
Николенко Сергей Игоревич, эксперт Центра ИИ СПбГУ, доцент СПбГУ, заведующий лабораторией искусственного интеллекта ПОМИ РАН, отметил, что столько данных еще нет.
Никита Фёдоров, инженер-программист Центра ИИ СПбГУ объяснил, что майнеры потребляют энергию постоянно, в отличие от бытовых приборов. Нейросети могут анализировать данные о потреблении и выявлять устройства, которые работают круглосуточно. Чтобы избежать ошибок, необходимо разработать дополнительные фильтры.
Поле непаханное…
«Эта тема актуальна, и по ней ничего не сделано. Может быть, ничего не сделано, потому что ничего нельзя сделать. Еще никто всерьез не брался. И тогда как раз это перспективное направление, которым надо заниматься», – Сергей Николенко.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥4🎉4😁1
GenAI: злоупотребление генеративным ИИ
Задумывались, что стоит за простыми генерациями изображений, аудио- и видеоконтента? В статье Privacy and Security Concerns in Generative AI: A Comprehensive Survey авторы раскрывают, как устроены системы ИИ и какие риски они несут.
⚠️ Уязвимости технологий ИИ
▶️ GAN (Generative Adversarial Networks) – генеративно-состязательная сеть:
🔘 генератор создаёт контент (например, фото)
🔘 дискриминатор проверяет его на реалистичность
🔘 в процессе обучения генератор учится обманывать дискриминатор, а дискриминатор — лучше распознавать подделки.
Чем лучше генератор обманывает дискриминатор, тем реалистичнее результат.
🙂 Вспомним про deepfake: злоумышленники могут использовать GAN для подделки биометрии (например, обхода FaceID).
▶️ Дифференциальная приватность — шум против утечек:
метод добавляет «математический шум» (случайные числа) так, чтобы статистика сохранялась, но отдельные записи нельзя было идентифицировать, по формуле:
☑️ Результат = Истинное значение + Случайный шум.
Например, медицинские исследования используют такой подход, чтобы делиться данными без риска для пациентов. Шум защищает личность, но сохраняет общие закономерности (например, связь курения и рака). Но слишком много шума снижает точность анализа — здесь идёт тонкий баланс.
▶️ Федеративное обучение — обучение на данных, которые остаются на устройствах пользователей (например, смартфонах).
👍 Плюс: снижается риск массовых утечек, так как нет единой базы данных для взлома.
👎 Минус: сложнее обнаружить локальные атаки на отдельные устройства.
▶️ Adversarial Training: как ИИ распознает обман.
Модели тренируются на «вредоносных примерах». Например: пиксельный шум на изображении знака «СТОП», чтобы ИИ в беспилотнике ошибся.
Зачем это делать?
✅ Чтобы после обучения система стала устойчивее к таким атакам.
❓ Какие есть научные методы защиты?
1️⃣ Homomorphic Encryption (гомоморфное шифрование) позволяет обрабатывать зашифрованные данные без расшифровки, то есть, вычисления проводятся прямо в зашифрованном виде.
✅ Пока технология медленная, но перспективная для медицины (например, анализ генома без раскрытия ДНК пациента) и финансов.
2️⃣ Блокчейн + ИИ: децентрализованное хранение данных снижает риск взлома.
✅ Технология позволит хранить цифровые сертификаты для ИИ-контента через NFT-метку с данными о создателе и времени, что исключает подделку контента.
3️⃣ Мультимодальные нейросети анализируют данные разных типов (текст, звук, изображение) для обнаружения аномалий.
✅ Deepfake-видео можно выявить по несоответствию мимики и голоса.
🌐 На уровне институциональных решений:
1️⃣ Data Privacy Officer – специалист, который следит за соблюдением GDPR (General Data Protection Regulation), общего регламента по защите данных и других норм.
🔘 Его задача — проверить, как ИИ обрабатывает данные, и предотвратить утечки.
2️⃣ Этические комитеты оценивают риски проектов. Например, компания DeepMind.
🔍 Они исследуют вопросы вроде: «Можно ли использовать этот алгоритм для военных целей?»
3️⃣ Стандарты для синтетических данных. Международная организация по стандартизации (англ. ISO, International Organization for Standardization) разрабатывает нормы для ИИ-генерации данных.
✅ Цель — маркировать контент (например, «создано ИИ») и отслеживать его происхождение.
Задумывались, что стоит за простыми генерациями изображений, аудио- и видеоконтента? В статье Privacy and Security Concerns in Generative AI: A Comprehensive Survey авторы раскрывают, как устроены системы ИИ и какие риски они несут.
Чем лучше генератор обманывает дискриминатор, тем реалистичнее результат.
метод добавляет «математический шум» (случайные числа) так, чтобы статистика сохранялась, но отдельные записи нельзя было идентифицировать, по формуле:
Например, медицинские исследования используют такой подход, чтобы делиться данными без риска для пациентов. Шум защищает личность, но сохраняет общие закономерности (например, связь курения и рака). Но слишком много шума снижает точность анализа — здесь идёт тонкий баланс.
Модели тренируются на «вредоносных примерах». Например: пиксельный шум на изображении знака «СТОП», чтобы ИИ в беспилотнике ошибся.
Зачем это делать?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3👏3👍1
Разберем на конкретном примере
❓ Кто помнит скандал с китайским приложением Zao?
Приложение использовало GAN для замены лиц в видео.
Технически это выглядело так:
🔘 энкодер выделял черты лица пользователя
🔘 декодер переносил их на актёра в фильме
А проблема была в том, что исходный код позволял извлекать биометрические данные. После скандала приложение добавило водяные знаки на видео и ограничило сбор данных.
❓ Куда сейчас движется наука в области технологий ИИ?
1️⃣ Explainable AI (XAI): ученые работают над «прозрачными» моделями, чтобы понять, как ИИ принимает решения.
2️⃣ Квантовое машинное обучение ориентировано на кибербезопасность. Квантовые компьютеры могут значительно ускорить обучение моделей и взлом шифров.
3️⃣ Нейросети-детективы: проекты вроде DeepTrust учат ИИ находить следы редактирования в фото и видео, анализируя метаданные и артефакты сжатия.
💬 А как вы думаете: какие решения помогут минимизировать риски? И где граница между инновацией и угрозой? Кстати, об этом будет наше следующее интервью.
⬇️ Свои вопросы задавайте в комментариях — лучшие мы передадим Архипову Владиславу Владимировичу, руководителю юридической группы Центра ИИ СПбГУ.
Приложение использовало GAN для замены лиц в видео.
Технически это выглядело так:
А проблема была в том, что исходный код позволял извлекать биометрические данные. После скандала приложение добавило водяные знаки на видео и ограничило сбор данных.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥5