Искусственный интеллект: помощь или контроль вашей жизни?
В рубрике #научпоп поднимем тему опасений, связанных с ИИ. Одни видят в нем угрозу, другие - незаменимого помощника. Как обстоят дела на самом деле?
🚨 Основные опасения связаны с идеями, что скоро ИИ начнет принимать решения без участия человека, нанося этим вред. Примером служат инциденты с беспилотными авто: машина вовремя распознала женщину с велосипедом в темноте, но сбила её, другой автомобиль перепутал автобус с рекламным щитом.
🤕 Обучение ИИ частично решает эти проблемы, но до полной автономности ещё далеко. Интересно, что действия ИИ зависят от страны, где его обучали: в странах Европы авто спасают молодых, в Азии — пожилых, на Юге — детей. В законопослушных странах ИИ чаще "жертвует" нарушителями ПДД.
☕️ «Кофейный тест» Стива Возняка
Сооснователь Apple предложил способ оценки автономности ИИ. Робот должен самостоятельно войти в незнакомую квартиру, найти все необходимые составляющие и приготовить кофе. Для человека это задание не кажется таким сложным, но ни одна система не смогла пройти этот тест, что показывает ограниченность возможностей ИИ в реальном мире.
💡 Сейчас ИИ выступает как помощник, способный освободить нас от рутины и решить ряд бытовых и бизнес-задач, а не ограничить нашу свободу.
Следите за новостями ИИ на нашем сайте и в Телеграм-канале.
В рубрике #научпоп поднимем тему опасений, связанных с ИИ. Одни видят в нем угрозу, другие - незаменимого помощника. Как обстоят дела на самом деле?
Сооснователь Apple предложил способ оценки автономности ИИ. Робот должен самостоятельно войти в незнакомую квартиру, найти все необходимые составляющие и приготовить кофе. Для человека это задание не кажется таким сложным, но ни одна система не смогла пройти этот тест, что показывает ограниченность возможностей ИИ в реальном мире.
Следите за новостями ИИ на нашем сайте и в Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🏆4🤝3😁1
11 сентября мы провели первый в новом сезоне научный семинар.
Нас посетило больше 40 человек!
• Константин Сергеевич Амелин, и. о. директора Центра ИИ СПбГУ
• Олег Николаевич Граничин, д. ф.-м. н., профессор, руководитель научного офиса Центра ИИ СПбГУ
• Деятельность и разработки Центра
• Предиктивная аналитика
• Интеллектуальные системы поддержки принятия решений
Подробный отчет с первого семинара читайте на нашем сайте.
Следите за анонсами будущих мероприятий на нашем сайте и в этом Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🔥1👏1🆒1
11 сентября в галерее «Белая радуга» прошла дискуссия «Нейроарт как феномен», организованная Центром ИИ СПбГУ в рамках форума «Культурный код – 2024».
• Ариадна Крылова, арт-директор Галереи «Белая радуга»
• Алексей Гусаров, нейро-художник
• Анна Никитина, дизайнер, преподаватель СПбГУ
• Павел Перегудов, основатель конкурса MyFilm48
• Лев Лейман, создатель AI University
• Человек — проводник природы в мире идей
• Нейросети меняют подход к созданию искусства
• ИИ влияет на киноиндустрию и права актеров
• Нейроискусство — отражение "общества спектакля"
• ИИ как "жесткий диск подсознания"
Дискуссия показала: нейроарт открывает новые горизонты творчества, но и ставит сложные вопросы о будущем искусства и роли художника.
Гости также посетили выставку нейроработ Андрея Кинли и Алексея Гусарова. Для иллюстрации использована работа Андрея Кинли, представленная в галерее.
Больше деталей о прошедшей встрече ищите на нашем сайте.
Присоединяйтесь к диалогу о будущем искусства в эпоху ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👀2❤1👍1
Центр ИИ СПбГУ на Международном технологическом конгрессе
🗓 17-19 сентября 2024 года
📍 КВЦ "Патриот" (Московская область)
Эксперты Центра ИИ СПбГУ выступят на одном из главных событий года в сфере технологий!
👥 Представители Центра ИИ СПбГУ:
• Владислав Архипов — профессор СПбГУ
• Кирилл Дорожкин — эксперт Центра ИИ СПбГУ
• Константин Амелин — и.о. директора Центра ИИ СПбГУ
Ключевые выступления наших экспертов:
▶️ Круглый стол по регулированию ИИ в БРИКС
▶️ Секция "Искусственный интеллект и Интернет вещей"
▶️ Дискуссия "Кадры для экономики данных"
🔗 Регистрация открыта на официальном сайте Конгресса.
Приглашаем всех, кто заинтересован в развитии отечественных технологий!
Эксперты Центра ИИ СПбГУ выступят на одном из главных событий года в сфере технологий!
• Владислав Архипов — профессор СПбГУ
• Кирилл Дорожкин — эксперт Центра ИИ СПбГУ
• Константин Амелин — и.о. директора Центра ИИ СПбГУ
Ключевые выступления наших экспертов:
Приглашаем всех, кто заинтересован в развитии отечественных технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3👍3
Культурный фонд «РД в Барселоне» и Представительство СПбГУ приглашают вас на онлайн-лекцию «Будущее цифровых медиа и рынок труда»
🗓 19.09.2024, 18:00
📍 Онлайн-трансляция
На лекции вы:
▶️ Узнаете о будущем цифровых медиа и рынке труда;
▶️ Познакомитесь с новыми профессиями в медиасфере;
▶️ Поймете, какие навыки потребуются в ближайшем будущем.
👤 Выступит Камилла Нигматуллина — профессор, заведующая кафедрой цифровых медиакоммуникаций СПбГУ, руководитель магистерской программы «Искусственный интеллект в журналистике и массовых коммуникациях».
🎁 Интерактив от спикера: найдите во время лекции 4 ключевые фразы и соберите "бинго".
Отправляйте лайк в комментарии, услышите все 4 цитаты!
1. «Неважно, когда наступит сингулярность, важно - когда вы перестанете понимать, за что работодатель должен платить вам деньги»
2. «Помимо самих профессионалов, рынок будет нуждаться (и уже нуждается) в тренерах и наставниках, которые будут передавать свой инновационный опыт буквально через месяц после его апробации в отрасли»
3. «Если мыслить на более длительную перспективу, чем 1-3 года, то образование в сфере ИИ может стать сквозным для всех специальностей и трансформироваться в отдельные факультеты или департаменты, если говорить о классических вузах»
4. «Нужно помнить, что будущее не приходит само собой, мы создаем его сегодня. Будущее цифровых медиа и рынка труда в них определяется характером современного образования, количеством текущих инвестиций в цифровые технологии и интересом людей к повышению эффективности своего труда в целом»
🔗 Регистрация обязательна по ссылке.
Приглашаем всех, кто интересуется будущим цифровых медиа и ИИ!
На лекции вы:
Отправляйте лайк в комментарии, услышите все 4 цитаты!
1. «Неважно, когда наступит сингулярность, важно - когда вы перестанете понимать, за что работодатель должен платить вам деньги»
2. «Помимо самих профессионалов, рынок будет нуждаться (и уже нуждается) в тренерах и наставниках, которые будут передавать свой инновационный опыт буквально через месяц после его апробации в отрасли»
3. «Если мыслить на более длительную перспективу, чем 1-3 года, то образование в сфере ИИ может стать сквозным для всех специальностей и трансформироваться в отдельные факультеты или департаменты, если говорить о классических вузах»
4. «Нужно помнить, что будущее не приходит само собой, мы создаем его сегодня. Будущее цифровых медиа и рынка труда в них определяется характером современного образования, количеством текущих инвестиций в цифровые технологии и интересом людей к повышению эффективности своего труда в целом»
Приглашаем всех, кто интересуется будущим цифровых медиа и ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2👌2
Цифровые кентавры: когда человек и ИИ — одна команда
🐴 Кто такие «цифровые кентавры» и почему они могут быть эффективнее чистого ИИ? Разбираемся в рубрике #научпоп.
«Цифровой кентавр» — это гибридная система, объединяющая возможности человеческого и искусственного интеллекта. Термин появился в шахматном мире после того, как компьютер Deep Blue обыграл чемпиона мира Гарри Каспарова в 1997 году.
Интересно, что именно Каспаров предложил идею «цифровых кентавров» для шахмат. В 1998 году прошло первое соревнование, где игроки использовали программы-подсказчики.
❓ Как это работает?
• Человек отвечает за стратегию и анализ
• ИИ выполняет расчеты и предлагает варианты ходов
• Финальное решение принимает человек
🏆 Самое интересное применение «кентавров» — в игре го. Долгое время считалось, что ИИ не сможет превзойти человека в этой древней игре. Однако в 2016 году программа AlphaGo победила чемпиона мира Ли Седоля. Но и здесь нашлось место для «кентавров»! В 2019 году в России прошел первый хакатон по созданию интерфейсов для игроков-«кентавров» в го. А в 2021 году на чемпионате мира во Владивостоке «кентавры» даже смогли победить ИИ на доске 13х13!
Сегодня «кентавров» вводят не только в игры:
✅ В медицине: врачи используют ИИ для анализа снимков и постановки диагнозов
✅ В финансах: аналитики работают с алгоритмами прогнозирования рынка
✅ В управлении: ИИ помогает принимать решения в сложных системах
💡 «Цифровые кентавры» — это интересный симбиоз машины и человека. Представьте мир, где каждый из нас имеет доступ к мощному ИИ-помощнику, усиливающему наши когнитивные способности. Мы сможем решать задачи, недоступные ни человеку, ни машине по отдельности!
Следите за обновлениями в нашем Телеграм-канале, чтобы больше разбираться в вопросах искусственного интеллекта и его реального применения!
«Цифровой кентавр» — это гибридная система, объединяющая возможности человеческого и искусственного интеллекта. Термин появился в шахматном мире после того, как компьютер Deep Blue обыграл чемпиона мира Гарри Каспарова в 1997 году.
Интересно, что именно Каспаров предложил идею «цифровых кентавров» для шахмат. В 1998 году прошло первое соревнование, где игроки использовали программы-подсказчики.
• Человек отвечает за стратегию и анализ
• ИИ выполняет расчеты и предлагает варианты ходов
• Финальное решение принимает человек
Сегодня «кентавров» вводят не только в игры:
Следите за обновлениями в нашем Телеграм-канале, чтобы больше разбираться в вопросах искусственного интеллекта и его реального применения!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🤝3😁1
Секция: «Данные в машинном обучении: право и экономика» (руководитель: В.В. Архипов, д.ю.н., профессор СПбГУ)
С докладами в рамках секции выступят представители нашего Центра:
теории и истории государства и права, руководитель юридической группы Центра ИИ СПбГУ
«Экономическое значение данных и их правовые режимы»
«Подходы к использованию данных в машинном обучении»
«Принцип прозрачности ИИ и машинное обучение»
Подробнее с программой конференции, другими секциями и докладчиками можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🆒2❤1
«Белое зеркало»: светлое будущее с ИИ в 2035 году
🥺 Как изменится наша жизнь с развитием ИИ через десять лет? Заглядываем в светлое будущее в рубрике #научпоп.
🤑 Банкинг будущего:
• Биометрия на входе в приложение: ваше лицо – ваш пароль
• ИИ-ассистент анализирует ваш цифровой след для персональных предложений
• Мгновенное оформление кредитов (но финальное "да" всё ещё говорит человек!)
• Ваши данные о здоровье помогут получить выгодные условия по кредиту
💻 Разработка 2.0:
• 80% кода генерирует ИИ, 20% пишут люди
• ИИ помогает с архитектурой, тестированием и проводит код-ревью
• Главное качество разработчика – креативность в решении нестандартных задач
• ИИ-ассистент напоминает о встречах и даже заказывает кофе!
👥 HR в новую эру:
• AI-анализ видеовизиток кандидатов
• Автоматические собеседования с распознаванием эмоций
• ИИ оценивает совместимость кандидата с командой
• Резюме без подтверждённых навыков уходят в конец очереди
🙂 Психическое здоровье на работе:
• Регулярные AI-опросы для отслеживания состояния сотрудников
• ИИ-коучи с основами когнитивно-поведенческой терапии
• Раннее выявление и предотвращение профессионального выгорания
🎓 Обучение и развитие:
• ИИ подсказывает эффективные решения и новые методы
• Постоянное повышение квалификации с помощью персонализированных AI-курсов
💡 «Белое зеркало» показывает нам мир, где ИИ не заменяет людей, а помогает им стать лучше, эффективнее и счастливее. Технологии служат нам, а не наоборот. Конечно, это лишь прогнозы. Возможно, через 10 лет мы посмеемся над нашими представлениями. Но одно можно сказать точно: ИИ меняет мир, и нам стоит быть готовыми к этим изменениям.
Присоединяйтесь к нашему Телеграм-каналу, чтобы вместе исследовать будущее технологий!
• Биометрия на входе в приложение: ваше лицо – ваш пароль
• ИИ-ассистент анализирует ваш цифровой след для персональных предложений
• Мгновенное оформление кредитов (но финальное "да" всё ещё говорит человек!)
• Ваши данные о здоровье помогут получить выгодные условия по кредиту
• 80% кода генерирует ИИ, 20% пишут люди
• ИИ помогает с архитектурой, тестированием и проводит код-ревью
• Главное качество разработчика – креативность в решении нестандартных задач
• ИИ-ассистент напоминает о встречах и даже заказывает кофе!
• AI-анализ видеовизиток кандидатов
• Автоматические собеседования с распознаванием эмоций
• ИИ оценивает совместимость кандидата с командой
• Резюме без подтверждённых навыков уходят в конец очереди
• Регулярные AI-опросы для отслеживания состояния сотрудников
• ИИ-коучи с основами когнитивно-поведенческой терапии
• Раннее выявление и предотвращение профессионального выгорания
• ИИ подсказывает эффективные решения и новые методы
• Постоянное повышение квалификации с помощью персонализированных AI-курсов
Присоединяйтесь к нашему Телеграм-каналу, чтобы вместе исследовать будущее технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1😁1🏆1🤝1🆒1
20-21 сентября СПбГУ отметил свое 300-летие масштабной конференцией об искусственном интеллекте. Ведущие ученые обсудили, как ИИ трансформирует все: от промышленности до философии сознания.
День 1| Главный штаб Эрмитажа
• Валентин Анаников, академик РАН: «ИИ в химии — это скорость. Точка невозврата пройдена, теперь без ИИ ни один химик работать не станет».
• Елена Загайнова, член-корреспондент РАН: сложности внедрения ИИ в медицину: от несовершенства алгоритмов до недоверия врачей.
• Арутюн Аветисян, академик РАН: вопрос доверия к ИИ с двух сторон: технической (риски атак) и социальной (проблемы честности ИИ).
• Сергей Люлин, член-корреспондент РАН: как ИИ помогает создавать новые полимеры, например, для разделения газов.
• Татьяна Черниговская, академик РАО: человеческий, искусственный и животный интеллект и важность правильной постановки вопросов в науке.
День 2 | Юридический факультет СПбГУ
• Владислав Архипов (модератор): главная проблема — как защитить права на данные и одновременно обеспечить их доступность для инноваций?
• Константин Амелин, и.о. директора Центра ИИ: опыт создания качественных датасетов для обучения нейросетей.
• Александр Медведев: 3 принципа прозрачности ИИ: доступность, объяснимость, предсказуемость.
ИИ уже изменил научный ландшафт. Теперь задача ученых, юристов и бизнеса — найти баланс между инновациями и этикой, между скоростью и надежностью.
Хотите узнать больше? Полный отчет о конференции читайте на нашем сайте. Подписывайтесь на наш Телеграм-канал, чтобы следить за актуальными новостями из сферы ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥3
Преступление, ИИ, наказание
🔎 Как искусственный интеллект может помочь в борьбе с преступностью? Разбираемся в рубрике #научпоп.
«ИИ-детектив» — это система, способная предсказывать преступления на основе анализа данных. Недавно ученые из Южной Кореи разработали модель Dejaview, достигшую точности прогнозов более 82%. Однако цена ошибок системы, как отмечают специалисты, может быть очень высокой.
❓ Как модель работает:
• Обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики
• Анализирует видеозаписи в реальном времени
• Оценивает риски совершения преступлений
• Сравнивает поведение людей с действиями преступников
Особенности Dejaview:
✅ Различает виды правонарушений
✅ Может отслеживать потенциальных рецидивистов
✅ Рассматривается как средство автоматизации рутинных действий сотрудника правопорядка
Сегодня подобные технологии, в том числе и в России, уже внедряются для обеспечения безопасности. В городах действуют системы распознавания лиц и опасных объектов, банки используют нейросети для выявления мошеннических операций, а в социальных службах становится возможным прогнозирование рисков для уязвимых групп.
🚨 Но вместе со всеми преимуществами у таких систем есть и риски:
• Нарушение права на неприкосновенность частной жизни, передача личных данных
• Возможная предвзятость ИИ из-за неравномерных данных (например, действия больного синдромом Туретта не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе)
• Риск ошибочных прогнозов и ложных обвинений
💡 «ИИ-детективы»— это попытка создать более безопасное общество. Но сегодня технологии прогнозирования преступлений на основе ИИ опережают организационные и юридические аспекты. Хотя такие системы уже существуют, остаются вопросы о том, кто и как будет интерпретировать их выводы. Это критично, поскольку от решений ИИ могут зависеть судьбы людей.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале и узнавайте о всех возможностях применения ИИ!
«ИИ-детектив» — это система, способная предсказывать преступления на основе анализа данных. Недавно ученые из Южной Кореи разработали модель Dejaview, достигшую точности прогнозов более 82%. Однако цена ошибок системы, как отмечают специалисты, может быть очень высокой.
• Обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики
• Анализирует видеозаписи в реальном времени
• Оценивает риски совершения преступлений
• Сравнивает поведение людей с действиями преступников
Особенности Dejaview:
Сегодня подобные технологии, в том числе и в России, уже внедряются для обеспечения безопасности. В городах действуют системы распознавания лиц и опасных объектов, банки используют нейросети для выявления мошеннических операций, а в социальных службах становится возможным прогнозирование рисков для уязвимых групп.
• Нарушение права на неприкосновенность частной жизни, передача личных данных
• Возможная предвзятость ИИ из-за неравномерных данных (например, действия больного синдромом Туретта не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе)
• Риск ошибочных прогнозов и ложных обвинений
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале и узнавайте о всех возможностях применения ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤2👨💻2👏1🆒1
Завтра, 26 сентября в 15:00, пройдет партнерский семинар Центра ИИ СПбГУ. Сотрудники Центра расскажут о достигнутых результатах и поделятся планами на будущее.
Очное участие ограничено из-за количества мест, но если вы заинтересованы в сотрудничестве с Центром, вы можете подключиться к онлайн-трансляции по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Zoom
Join our Cloud HD Video Meeting
Zoom is the leader in modern enterprise cloud communications.
🔥4👏3🏆3
Центр ИИ СПбГУ на AISUMMIT 2024
11-12 сентября | Москва | 50+ экспертов
Прошел третий ежегодный AISUMMIT — одна из крупнейших конференций по ИИ для бизнеса в России.
Секции, представленные в этот раз: «Финтех», «Медицина», «Строительство и ЖКХ», «Кибербезопасность», «Промышленность, логистика и транспорт», «Телеком», «Креативные индустрии», «Образование и кадры».
🗣 Кирилл Дорожкин, эксперт Центра ИИ, модерировал 2 секции:
1️⃣ Креативные индустрии
Спикеры поделились горячей статистикой:
• ИИ оптимизирует >50% звеньев производственной цепочки
• Генеративные нейросети — хит в маркетинге и рекламе
• Нейроарт набирает обороты, рождая новые профессии
🔔 Напоминаем, что с 8 августа 2024 действует закон о развитии креативных индустрий в РФ (№ 330-ФЗ).
2️⃣ Образование и кадры
Участники дискуссии определили 3 главных тренда:
• Персонализация обучения с ИИ
• Спрос на ИИ-специалистов во всех отраслях
• ИИ в рекрутинге: от анализа резюме до подбора вакансий
🗣 «СПбГУ готов создать образовательные программы по ИИ под запросы отрасли. Будущее за специалистами со знанием ИИ», — К. Дорожкин
💡 Мысль дня: «Человек из процессов полностью не исчезнет: вместо обычных специалистов придут специалисты со знанием ИИ»
Полную версию новости читайте на нашем сайте, подписывайтесь на наш Телеграм-канал и следите за новостями!
11-12 сентября | Москва | 50+ экспертов
Прошел третий ежегодный AISUMMIT — одна из крупнейших конференций по ИИ для бизнеса в России.
Секции, представленные в этот раз: «Финтех», «Медицина», «Строительство и ЖКХ», «Кибербезопасность», «Промышленность, логистика и транспорт», «Телеком», «Креативные индустрии», «Образование и кадры».
1️⃣ Креативные индустрии
Спикеры поделились горячей статистикой:
• ИИ оптимизирует >50% звеньев производственной цепочки
• Генеративные нейросети — хит в маркетинге и рекламе
• Нейроарт набирает обороты, рождая новые профессии
2️⃣ Образование и кадры
Участники дискуссии определили 3 главных тренда:
• Персонализация обучения с ИИ
• Спрос на ИИ-специалистов во всех отраслях
• ИИ в рекрутинге: от анализа резюме до подбора вакансий
Полную версию новости читайте на нашем сайте, подписывайтесь на наш Телеграм-канал и следите за новостями!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🏆3🤝3
ГаллюцинацИИ: когда ИИ видит то, чего нет
Почему искусственный интеллект иногда «сходит с ума» и как это влияет на нашу жизнь? Узнаем в рубрике #научпоп.
🤪 «Галлюцинации ИИ» — это ошибки и неточности в работе нейронных сетей, когда они выдают неверную или несуществующую информацию. Для обычного человека такие ошибки могут показаться смешными, но для бизнес-процессов и общества в целом они могут принести много негативных последствий.
Какие проблемы могут возникать?
💠 Непредсказуемые результаты
ИИ может неожиданно выдать абсурдный ответ. Процесс «мышления» остается непрозрачным даже для разработчиков, поэтому невозможно понять, почему система выбрала именно такой ответ.
• Пример: искусственный интеллект Facebook* в 2021 году удалил пост пользователя, в котором была размещена историческая фотография советских солдат и Знамени Победы, поднятого над Рейхстагом. Нейросеть решила, что такой контент нарушает правила сообщества.
💠 Дискриминация
ИИ может несправедливо оценивать людей. Зачастую причиной этому становится обучение на несбалансированных данных.
• Пример: в 2014 году Amazon использовал ИИ для оценки резюме и снизил оценки женщинам, что привело к отказам в приёме на работу.
💠 Ошибки из-за недостатка данных
ИИ требует огромных объемов информации для обучения. Сбор и хранение данных — не самая простая, дешевая и быстрая задача, однако их недостаток приводит к ошибкам в работе.
• Пример: в 2022 году ИИ не раз выписывал штрафы праворульным автомобилям за непристегнутый ремень водителя, потому что не видел достаточного количества праворульных машин.
💠 Отсутствие критического мышления
ИИ может быстро обучаться и обрабатывать большие объемы данных, но не умеет идеально воспроизводить критическое мышление человека. Нейронные сети могут сомневаться в информации и выявлять ошибки, но иногда они просто «верят» в неверные факты. Это особенно проявляется, когда исходный источник информации ненадежен.
💠 Уязвимость к «взлому»
Нейронные сети также уязвимы для взлома, как и любые другие системы. Их можно обмануть, если знать слабые места.
• Пример: израильские и японские ученые снизили точность распознавания лиц с помощью грима. Даже небольшие изменения в изображении могут сбить ИИ с толку.
💠 Проблемы с анатомией
Изображения людей, созданные нейросетями, часто бывают нереалистичными и странными. Это связано с тем, что нейросети не понимают строения человеческого тела.
• Пример: вместо пяти пальцев на руке человека нейросеть может изобразить шесть или четыре.
🤕 Как минимизировать галлюцинации при работе с нейросетью:
• Научитесь быть более конкретными в своих запросах.
• Давайте нейросети больше входной информации, контекста.
• Проверяйте факты. Если есть ошибки, укажите на них.
💡 Галлюцинации ИИ поднимают серьёзные вопросы о надёжности и этичности использования ИИ в критически важных областях. Поэтому ИИ нуждается в постоянном обучении и контроле со стороны человека, чтобы гарантировать более точные и надежные результаты.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Почему искусственный интеллект иногда «сходит с ума» и как это влияет на нашу жизнь? Узнаем в рубрике #научпоп.
Какие проблемы могут возникать?
ИИ может неожиданно выдать абсурдный ответ. Процесс «мышления» остается непрозрачным даже для разработчиков, поэтому невозможно понять, почему система выбрала именно такой ответ.
• Пример: искусственный интеллект Facebook* в 2021 году удалил пост пользователя, в котором была размещена историческая фотография советских солдат и Знамени Победы, поднятого над Рейхстагом. Нейросеть решила, что такой контент нарушает правила сообщества.
ИИ может несправедливо оценивать людей. Зачастую причиной этому становится обучение на несбалансированных данных.
• Пример: в 2014 году Amazon использовал ИИ для оценки резюме и снизил оценки женщинам, что привело к отказам в приёме на работу.
ИИ требует огромных объемов информации для обучения. Сбор и хранение данных — не самая простая, дешевая и быстрая задача, однако их недостаток приводит к ошибкам в работе.
• Пример: в 2022 году ИИ не раз выписывал штрафы праворульным автомобилям за непристегнутый ремень водителя, потому что не видел достаточного количества праворульных машин.
ИИ может быстро обучаться и обрабатывать большие объемы данных, но не умеет идеально воспроизводить критическое мышление человека. Нейронные сети могут сомневаться в информации и выявлять ошибки, но иногда они просто «верят» в неверные факты. Это особенно проявляется, когда исходный источник информации ненадежен.
Нейронные сети также уязвимы для взлома, как и любые другие системы. Их можно обмануть, если знать слабые места.
• Пример: израильские и японские ученые снизили точность распознавания лиц с помощью грима. Даже небольшие изменения в изображении могут сбить ИИ с толку.
Изображения людей, созданные нейросетями, часто бывают нереалистичными и странными. Это связано с тем, что нейросети не понимают строения человеческого тела.
• Пример: вместо пяти пальцев на руке человека нейросеть может изобразить шесть или четыре.
• Научитесь быть более конкретными в своих запросах.
• Давайте нейросети больше входной информации, контекста.
• Проверяйте факты. Если есть ошибки, укажите на них.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
ИИ-детектор лжи: правда или вымысел?
🤔 Может ли искусственный интеллект распознать ложь? Разбираемся в рубрике #научпоп.
Ученые из Германии провели исследование и разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь.
💠 768 участников написали по одной истинной и одной ложной, но похожей на правду истории.
💠 80% этих данных использовали для обучения алгоритма на базе языковой модели Google BERT.
💠 20% оставшихся ответов были использованы для тестирования.
💠 Результат: ИИ определил ложь в 67% случаев, а человек угадал верно только в 50% случаев.
💭 Чтобы изучить, как люди будут использовать этот ИИ, было проведено дополнительное исследование.
• 2040 добровольцев читали рассказы первой группы и пытались определить, где правда, а где ложь.
• Треть решила воспользоваться ИИ, который предлагался за небольшую плату.
• Причины отказа могли заключаться в скептицизме к технологии или чрезмерной уверенности в своих силах.
• Те, кто все же выбрал ИИ, почти всегда следовали его прогнозам.
💠 Результат: люди, даже зная, о соотношении правды и лжи, считали ложью только 19% историй. Те, кто использовал ИИ, видели ложь в 58% случаев.
💡 ИИ-детектор лжи хорошо себя показал в выявлении обмана, он может стать важным инструментом в борьбе с дезинформацией и выявления фейковых новостей. Но его применение вызывает вопросы о возможных негативных последствиях, таких как подрыв доверия и недостаточно высоких процентов точности для применения в ответственных сферах.
Читайте об интересных ИИ-технологиях и их применении на нашем сайте и в нашем Телеграм-канале.
Ученые из Германии провели исследование и разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь.
• 2040 добровольцев читали рассказы первой группы и пытались определить, где правда, а где ложь.
• Треть решила воспользоваться ИИ, который предлагался за небольшую плату.
• Причины отказа могли заключаться в скептицизме к технологии или чрезмерной уверенности в своих силах.
• Те, кто все же выбрал ИИ, почти всегда следовали его прогнозам.
Читайте об интересных ИИ-технологиях и их применении на нашем сайте и в нашем Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👏3❤2😁1
Как ИИ угрожает самому себе?
Сегодня интернет полон контента, созданным искусственным интеллектом — от текстов до изображений. Но что произойдет, если модели начнут обучаться на сгенерированных ими же данных? Ищем ответ в рубрике #научпоп.
💔 Исследователи из Великобритании и Канады пришли к тревожному выводу: обучение на синтетических данных вызывает коллапс модели — процесс, при котором модели ИИ начинают «забывать» реальное распределение вероятностей и все хуже воспринимают мир.
🐱 Представьте себе ИИ, генерирующий изображения кошек.
• В обучающем наборе есть 90 желтых и 10 голубых кошек.
• ИИ не просто запоминает статистику, но и «подкрашивает» голубых кошек в более желтый оттенок.
• Результат? Появляются зеленые кошки!
⏳ При повторном обучении голубой цвет зеленеет, а зеленый желтеет. И через несколько циклов все кошки становятся желтыми! Это и есть «коллапс модели» — постепенное исчезновение редких признаков.
🚨 Что это значит для ИИ?
Если модели будут продолжать обучаться на синтетическом контенте, качество генеративного ИИ ухудшится. Это уже называют цифровым «загрязнением», аналогичным загрязнению пластиком в океане.
⁉️ Как предотвратить коллапс?
• Создать чистый датасет, который будет состоять только из данных, созданных человеком.
• Использовать новый набор данных, свободных от синтетических материалов.
Но пока этот процесс осложнен отсутствием инструментов для массовой разметки и фильтрации синтетического контента.
💡 Важно понимать, что качество данных — ключ к развитию искусственного интеллекта.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Сегодня интернет полон контента, созданным искусственным интеллектом — от текстов до изображений. Но что произойдет, если модели начнут обучаться на сгенерированных ими же данных? Ищем ответ в рубрике #научпоп.
• В обучающем наборе есть 90 желтых и 10 голубых кошек.
• ИИ не просто запоминает статистику, но и «подкрашивает» голубых кошек в более желтый оттенок.
• Результат? Появляются зеленые кошки!
Если модели будут продолжать обучаться на синтетическом контенте, качество генеративного ИИ ухудшится. Это уже называют цифровым «загрязнением», аналогичным загрязнению пластиком в океане.
• Создать чистый датасет, который будет состоять только из данных, созданных человеком.
• Использовать новый набор данных, свободных от синтетических материалов.
Но пока этот процесс осложнен отсутствием инструментов для массовой разметки и фильтрации синтетического контента.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👏3😁2
9 октября | 18:00 | Центр ИИ СПбГУ (Кадетская линия, 1-2, схема прохода, продублировали в комментариях)
Мы живем в эпоху больших языковых моделей (LLM), и каждый день модели развиваются, преображаются, учатся чему-то новому и дают пользователям больше возможностей. Теперь многие исследователи считают, что создание настоящего сильного ИИ (AGI) уже не за горами.
На семинаре мы обсудим:
• Современные модели ИИ, появляющиеся в новостях
• Возможные сроки появления AGI, как мы об этом узнаем и готовы ли мы к этому
• Нужно ли нам бояться AGI, и если да, то чего именно
Остались вопросы? Задавайте их в комментариях. Ждем вас на семинаре!
О других мероприятиях в Центре ИИ в октябре можно узнать на нашем сайте.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤2
Нобелевка-2024: физика ИИ🎓
Нобелевскую премию по физике 2024 года получили Джон Хопфилд и Джеффри Хинтон за работы в области машинного обучения нейросетей. Их исследования, начатые более 40 лет назад, стали фундаментом современного ИИ.
🤔 Сеть Хопфилда – особый тип нейронной сети, запоминающей и восстанавливающей изображения. Каждый нейрон – пиксель, черный (0) или белый (1). Сеть «запоминает» изображение как состояние с минимальной «энергией». При получении нового изображения она пытается превратить его в запомненное, меняя пиксели по одному. Процесс продолжается до достижения минимальной энергии — так сеть распознает образы, словно собирая пазл.
🤔 Хинтон создал «машину Больцмана», улучшив сеть Хопфилда. Она самостоятельно учится распознавать элементы в данных, используя принципы статистической физики. Этот метод стал основой глубокого обучения в современных нейросетях. Хинтона называют «крестным отцом глубокого обучения». Он также участвовал в разработке алгоритма обратного распространения ошибки, что возродило интерес к нейросетям в 1980-х.
💡 Эти подходы позволили создать самообучающиеся нейросети. Поэтому современный ИИ способен решать сложные задачи вроде распознавания речи или генерации изображений.
⁉️ Хотя исследования по ИИ ближе к математике, Нобелевский комитет отметил эти достижения премией по физике, подчеркнув междисциплинарность науки и важность ИИ для будущего.
Самые интересные события из мира ИИ освещаем на сайте и в рубрике #научпоп в Телеграм-канале!
Нобелевскую премию по физике 2024 года получили Джон Хопфилд и Джеффри Хинтон за работы в области машинного обучения нейросетей. Их исследования, начатые более 40 лет назад, стали фундаментом современного ИИ.
Самые интересные события из мира ИИ освещаем на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥3👾2
Фантазия, ставшая реальностью: ИИ в 20-ом веке 🏪
В 21-ом веке ИИ стал частью нашей повседневной жизни, но задумывались ли вы когда-нибудь, как все начиналось? В 1956 году термин «искусственный интеллект» прозвучал впервые, а его история началась еще раньше.
🌱 Зарождение идеи (1950-е годы)
Научная фантастика познакомила мир с концепцией искусственно интеллектуальных роботов. Алан Тьюринг опубликовал статью «Вычислительные машины и разум» (1950), где обсуждал возможность создания интеллектуальных машин и методы проверки их возможностей. В 1955 году был создан «Логический Теоретик» - программа, имитирующая навыки решения проблем человеком. В 1956 году состоялась Дартмутская конференция, где Джон Маккарти ввел термин «искусственный интеллект».
🌟 «Золотой век» ИИ (1957-1974)
Улучшились алгоритмы машинного обучения, появилось государственное финансирование исследований. В 1957 году Фрэнк Розенблатт предложил модель перцептрона для распознавания образов. С 1960 года начали разрабатываться программы для автоматизации доказательства теорем.
☁️ «Зима» ИИ (1974-1980)
Из-за ограничений в вычислительной мощности компьютеров и сложности решаемых задач наступил период замедления развития ИИ. Финансирование сократилось, а исследования шли медленно.
🌀 Возрождение ИИ (1980-1987)
Появление новых алгоритмических инструментов и увеличение финансирования привели к возрождению интереса к ИИ. Джон Хопфилд и Дэвид Румельхарт популяризировали методы «глубокого обучения». Эдвард Фейгенбаум ввел понятие экспертных систем. Япония запустила амбициозный Компьютерный Проект Пятого Поколения (FGCP).
☁️ Вторая «зима» ИИ (1987-1993)
Несмотря на некоторые успехи, многие амбициозные цели не были достигнуты. Финансирование FGCP прекратилось, и ИИ снова отошел на второй план.
💥 Прорыв и практическое применение (1993-2000)
В 1997 году компьютер IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова. Также в 1997 году было реализовано программное обеспечение для распознавания речи на Windows. Появились роботы, способные распознавать и отображать эмоции (например, Kismet).
💡 ИИ продолжает удивлять нас новыми достижениями, и мы учимся использовать его в самых разных сферах жизни. В Центре ИИ мы проводим исследования, разрабатываем новые алгоритмы и готовим специалистов, которые смогут создавать ИИ будущего.
Следите за новостями из мира ИИ на сайте и в рубрике #научпоп в Телеграм-канале!
В 21-ом веке ИИ стал частью нашей повседневной жизни, но задумывались ли вы когда-нибудь, как все начиналось? В 1956 году термин «искусственный интеллект» прозвучал впервые, а его история началась еще раньше.
Научная фантастика познакомила мир с концепцией искусственно интеллектуальных роботов. Алан Тьюринг опубликовал статью «Вычислительные машины и разум» (1950), где обсуждал возможность создания интеллектуальных машин и методы проверки их возможностей. В 1955 году был создан «Логический Теоретик» - программа, имитирующая навыки решения проблем человеком. В 1956 году состоялась Дартмутская конференция, где Джон Маккарти ввел термин «искусственный интеллект».
Улучшились алгоритмы машинного обучения, появилось государственное финансирование исследований. В 1957 году Фрэнк Розенблатт предложил модель перцептрона для распознавания образов. С 1960 года начали разрабатываться программы для автоматизации доказательства теорем.
Из-за ограничений в вычислительной мощности компьютеров и сложности решаемых задач наступил период замедления развития ИИ. Финансирование сократилось, а исследования шли медленно.
Появление новых алгоритмических инструментов и увеличение финансирования привели к возрождению интереса к ИИ. Джон Хопфилд и Дэвид Румельхарт популяризировали методы «глубокого обучения». Эдвард Фейгенбаум ввел понятие экспертных систем. Япония запустила амбициозный Компьютерный Проект Пятого Поколения (FGCP).
Несмотря на некоторые успехи, многие амбициозные цели не были достигнуты. Финансирование FGCP прекратилось, и ИИ снова отошел на второй план.
В 1997 году компьютер IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова. Также в 1997 году было реализовано программное обеспечение для распознавания речи на Windows. Появились роботы, способные распознавать и отображать эмоции (например, Kismet).
Следите за новостями из мира ИИ на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3😁2