Прямо сейчас в Центре ИИ СПбГУ проходит дискуссия с участием профессора О.Н. Граничина.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
ИИ, который умеет «думать»? OpenAI представляет модель O1
🚀 OpenAI только что выпустила свою самую мощную модель O1, которая обещает изменить наше представление об ИИ!
Ключевые особенности O1:
🔵 Умеет «думать» и анализировать информацию
🔵 Способна к логическим выводам
🔵 Обладает функцией самокритики
🔵 Превосходит GPT-4 по многим параметрам
Версия уже открыта для разработчиков с API tier-5 и скоро появится в бесплатной версии GPT.
⏳ Полный отчет о новой модели можно найти здесь.
Не пропустите ничего важного в мире инноваций ИИ! Следите за обновлениями на нашем сайте и в нашем Телеграм-канале.
Ключевые особенности O1:
Версия уже открыта для разработчиков с API tier-5 и скоро появится в бесплатной версии GPT.
Не пропустите ничего важного в мире инноваций ИИ! Следите за обновлениями на нашем сайте и в нашем Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍4🔥4
Искусственный интеллект: помощь или контроль вашей жизни?
В рубрике #научпоп поднимем тему опасений, связанных с ИИ. Одни видят в нем угрозу, другие - незаменимого помощника. Как обстоят дела на самом деле?
🚨 Основные опасения связаны с идеями, что скоро ИИ начнет принимать решения без участия человека, нанося этим вред. Примером служат инциденты с беспилотными авто: машина вовремя распознала женщину с велосипедом в темноте, но сбила её, другой автомобиль перепутал автобус с рекламным щитом.
🤕 Обучение ИИ частично решает эти проблемы, но до полной автономности ещё далеко. Интересно, что действия ИИ зависят от страны, где его обучали: в странах Европы авто спасают молодых, в Азии — пожилых, на Юге — детей. В законопослушных странах ИИ чаще "жертвует" нарушителями ПДД.
☕️ «Кофейный тест» Стива Возняка
Сооснователь Apple предложил способ оценки автономности ИИ. Робот должен самостоятельно войти в незнакомую квартиру, найти все необходимые составляющие и приготовить кофе. Для человека это задание не кажется таким сложным, но ни одна система не смогла пройти этот тест, что показывает ограниченность возможностей ИИ в реальном мире.
💡 Сейчас ИИ выступает как помощник, способный освободить нас от рутины и решить ряд бытовых и бизнес-задач, а не ограничить нашу свободу.
Следите за новостями ИИ на нашем сайте и в Телеграм-канале.
В рубрике #научпоп поднимем тему опасений, связанных с ИИ. Одни видят в нем угрозу, другие - незаменимого помощника. Как обстоят дела на самом деле?
Сооснователь Apple предложил способ оценки автономности ИИ. Робот должен самостоятельно войти в незнакомую квартиру, найти все необходимые составляющие и приготовить кофе. Для человека это задание не кажется таким сложным, но ни одна система не смогла пройти этот тест, что показывает ограниченность возможностей ИИ в реальном мире.
Следите за новостями ИИ на нашем сайте и в Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🏆4🤝3😁1
11 сентября мы провели первый в новом сезоне научный семинар.
Нас посетило больше 40 человек!
• Константин Сергеевич Амелин, и. о. директора Центра ИИ СПбГУ
• Олег Николаевич Граничин, д. ф.-м. н., профессор, руководитель научного офиса Центра ИИ СПбГУ
• Деятельность и разработки Центра
• Предиктивная аналитика
• Интеллектуальные системы поддержки принятия решений
Подробный отчет с первого семинара читайте на нашем сайте.
Следите за анонсами будущих мероприятий на нашем сайте и в этом Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🔥1👏1🆒1
11 сентября в галерее «Белая радуга» прошла дискуссия «Нейроарт как феномен», организованная Центром ИИ СПбГУ в рамках форума «Культурный код – 2024».
• Ариадна Крылова, арт-директор Галереи «Белая радуга»
• Алексей Гусаров, нейро-художник
• Анна Никитина, дизайнер, преподаватель СПбГУ
• Павел Перегудов, основатель конкурса MyFilm48
• Лев Лейман, создатель AI University
• Человек — проводник природы в мире идей
• Нейросети меняют подход к созданию искусства
• ИИ влияет на киноиндустрию и права актеров
• Нейроискусство — отражение "общества спектакля"
• ИИ как "жесткий диск подсознания"
Дискуссия показала: нейроарт открывает новые горизонты творчества, но и ставит сложные вопросы о будущем искусства и роли художника.
Гости также посетили выставку нейроработ Андрея Кинли и Алексея Гусарова. Для иллюстрации использована работа Андрея Кинли, представленная в галерее.
Больше деталей о прошедшей встрече ищите на нашем сайте.
Присоединяйтесь к диалогу о будущем искусства в эпоху ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👀2❤1👍1
Центр ИИ СПбГУ на Международном технологическом конгрессе
🗓 17-19 сентября 2024 года
📍 КВЦ "Патриот" (Московская область)
Эксперты Центра ИИ СПбГУ выступят на одном из главных событий года в сфере технологий!
👥 Представители Центра ИИ СПбГУ:
• Владислав Архипов — профессор СПбГУ
• Кирилл Дорожкин — эксперт Центра ИИ СПбГУ
• Константин Амелин — и.о. директора Центра ИИ СПбГУ
Ключевые выступления наших экспертов:
▶️ Круглый стол по регулированию ИИ в БРИКС
▶️ Секция "Искусственный интеллект и Интернет вещей"
▶️ Дискуссия "Кадры для экономики данных"
🔗 Регистрация открыта на официальном сайте Конгресса.
Приглашаем всех, кто заинтересован в развитии отечественных технологий!
Эксперты Центра ИИ СПбГУ выступят на одном из главных событий года в сфере технологий!
• Владислав Архипов — профессор СПбГУ
• Кирилл Дорожкин — эксперт Центра ИИ СПбГУ
• Константин Амелин — и.о. директора Центра ИИ СПбГУ
Ключевые выступления наших экспертов:
Приглашаем всех, кто заинтересован в развитии отечественных технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3👍3
Культурный фонд «РД в Барселоне» и Представительство СПбГУ приглашают вас на онлайн-лекцию «Будущее цифровых медиа и рынок труда»
🗓 19.09.2024, 18:00
📍 Онлайн-трансляция
На лекции вы:
▶️ Узнаете о будущем цифровых медиа и рынке труда;
▶️ Познакомитесь с новыми профессиями в медиасфере;
▶️ Поймете, какие навыки потребуются в ближайшем будущем.
👤 Выступит Камилла Нигматуллина — профессор, заведующая кафедрой цифровых медиакоммуникаций СПбГУ, руководитель магистерской программы «Искусственный интеллект в журналистике и массовых коммуникациях».
🎁 Интерактив от спикера: найдите во время лекции 4 ключевые фразы и соберите "бинго".
Отправляйте лайк в комментарии, услышите все 4 цитаты!
1. «Неважно, когда наступит сингулярность, важно - когда вы перестанете понимать, за что работодатель должен платить вам деньги»
2. «Помимо самих профессионалов, рынок будет нуждаться (и уже нуждается) в тренерах и наставниках, которые будут передавать свой инновационный опыт буквально через месяц после его апробации в отрасли»
3. «Если мыслить на более длительную перспективу, чем 1-3 года, то образование в сфере ИИ может стать сквозным для всех специальностей и трансформироваться в отдельные факультеты или департаменты, если говорить о классических вузах»
4. «Нужно помнить, что будущее не приходит само собой, мы создаем его сегодня. Будущее цифровых медиа и рынка труда в них определяется характером современного образования, количеством текущих инвестиций в цифровые технологии и интересом людей к повышению эффективности своего труда в целом»
🔗 Регистрация обязательна по ссылке.
Приглашаем всех, кто интересуется будущим цифровых медиа и ИИ!
На лекции вы:
Отправляйте лайк в комментарии, услышите все 4 цитаты!
1. «Неважно, когда наступит сингулярность, важно - когда вы перестанете понимать, за что работодатель должен платить вам деньги»
2. «Помимо самих профессионалов, рынок будет нуждаться (и уже нуждается) в тренерах и наставниках, которые будут передавать свой инновационный опыт буквально через месяц после его апробации в отрасли»
3. «Если мыслить на более длительную перспективу, чем 1-3 года, то образование в сфере ИИ может стать сквозным для всех специальностей и трансформироваться в отдельные факультеты или департаменты, если говорить о классических вузах»
4. «Нужно помнить, что будущее не приходит само собой, мы создаем его сегодня. Будущее цифровых медиа и рынка труда в них определяется характером современного образования, количеством текущих инвестиций в цифровые технологии и интересом людей к повышению эффективности своего труда в целом»
Приглашаем всех, кто интересуется будущим цифровых медиа и ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2👌2
Цифровые кентавры: когда человек и ИИ — одна команда
🐴 Кто такие «цифровые кентавры» и почему они могут быть эффективнее чистого ИИ? Разбираемся в рубрике #научпоп.
«Цифровой кентавр» — это гибридная система, объединяющая возможности человеческого и искусственного интеллекта. Термин появился в шахматном мире после того, как компьютер Deep Blue обыграл чемпиона мира Гарри Каспарова в 1997 году.
Интересно, что именно Каспаров предложил идею «цифровых кентавров» для шахмат. В 1998 году прошло первое соревнование, где игроки использовали программы-подсказчики.
❓ Как это работает?
• Человек отвечает за стратегию и анализ
• ИИ выполняет расчеты и предлагает варианты ходов
• Финальное решение принимает человек
🏆 Самое интересное применение «кентавров» — в игре го. Долгое время считалось, что ИИ не сможет превзойти человека в этой древней игре. Однако в 2016 году программа AlphaGo победила чемпиона мира Ли Седоля. Но и здесь нашлось место для «кентавров»! В 2019 году в России прошел первый хакатон по созданию интерфейсов для игроков-«кентавров» в го. А в 2021 году на чемпионате мира во Владивостоке «кентавры» даже смогли победить ИИ на доске 13х13!
Сегодня «кентавров» вводят не только в игры:
✅ В медицине: врачи используют ИИ для анализа снимков и постановки диагнозов
✅ В финансах: аналитики работают с алгоритмами прогнозирования рынка
✅ В управлении: ИИ помогает принимать решения в сложных системах
💡 «Цифровые кентавры» — это интересный симбиоз машины и человека. Представьте мир, где каждый из нас имеет доступ к мощному ИИ-помощнику, усиливающему наши когнитивные способности. Мы сможем решать задачи, недоступные ни человеку, ни машине по отдельности!
Следите за обновлениями в нашем Телеграм-канале, чтобы больше разбираться в вопросах искусственного интеллекта и его реального применения!
«Цифровой кентавр» — это гибридная система, объединяющая возможности человеческого и искусственного интеллекта. Термин появился в шахматном мире после того, как компьютер Deep Blue обыграл чемпиона мира Гарри Каспарова в 1997 году.
Интересно, что именно Каспаров предложил идею «цифровых кентавров» для шахмат. В 1998 году прошло первое соревнование, где игроки использовали программы-подсказчики.
• Человек отвечает за стратегию и анализ
• ИИ выполняет расчеты и предлагает варианты ходов
• Финальное решение принимает человек
Сегодня «кентавров» вводят не только в игры:
Следите за обновлениями в нашем Телеграм-канале, чтобы больше разбираться в вопросах искусственного интеллекта и его реального применения!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🤝3😁1
Секция: «Данные в машинном обучении: право и экономика» (руководитель: В.В. Архипов, д.ю.н., профессор СПбГУ)
С докладами в рамках секции выступят представители нашего Центра:
теории и истории государства и права, руководитель юридической группы Центра ИИ СПбГУ
«Экономическое значение данных и их правовые режимы»
«Подходы к использованию данных в машинном обучении»
«Принцип прозрачности ИИ и машинное обучение»
Подробнее с программой конференции, другими секциями и докладчиками можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🆒2❤1
«Белое зеркало»: светлое будущее с ИИ в 2035 году
🥺 Как изменится наша жизнь с развитием ИИ через десять лет? Заглядываем в светлое будущее в рубрике #научпоп.
🤑 Банкинг будущего:
• Биометрия на входе в приложение: ваше лицо – ваш пароль
• ИИ-ассистент анализирует ваш цифровой след для персональных предложений
• Мгновенное оформление кредитов (но финальное "да" всё ещё говорит человек!)
• Ваши данные о здоровье помогут получить выгодные условия по кредиту
💻 Разработка 2.0:
• 80% кода генерирует ИИ, 20% пишут люди
• ИИ помогает с архитектурой, тестированием и проводит код-ревью
• Главное качество разработчика – креативность в решении нестандартных задач
• ИИ-ассистент напоминает о встречах и даже заказывает кофе!
👥 HR в новую эру:
• AI-анализ видеовизиток кандидатов
• Автоматические собеседования с распознаванием эмоций
• ИИ оценивает совместимость кандидата с командой
• Резюме без подтверждённых навыков уходят в конец очереди
🙂 Психическое здоровье на работе:
• Регулярные AI-опросы для отслеживания состояния сотрудников
• ИИ-коучи с основами когнитивно-поведенческой терапии
• Раннее выявление и предотвращение профессионального выгорания
🎓 Обучение и развитие:
• ИИ подсказывает эффективные решения и новые методы
• Постоянное повышение квалификации с помощью персонализированных AI-курсов
💡 «Белое зеркало» показывает нам мир, где ИИ не заменяет людей, а помогает им стать лучше, эффективнее и счастливее. Технологии служат нам, а не наоборот. Конечно, это лишь прогнозы. Возможно, через 10 лет мы посмеемся над нашими представлениями. Но одно можно сказать точно: ИИ меняет мир, и нам стоит быть готовыми к этим изменениям.
Присоединяйтесь к нашему Телеграм-каналу, чтобы вместе исследовать будущее технологий!
• Биометрия на входе в приложение: ваше лицо – ваш пароль
• ИИ-ассистент анализирует ваш цифровой след для персональных предложений
• Мгновенное оформление кредитов (но финальное "да" всё ещё говорит человек!)
• Ваши данные о здоровье помогут получить выгодные условия по кредиту
• 80% кода генерирует ИИ, 20% пишут люди
• ИИ помогает с архитектурой, тестированием и проводит код-ревью
• Главное качество разработчика – креативность в решении нестандартных задач
• ИИ-ассистент напоминает о встречах и даже заказывает кофе!
• AI-анализ видеовизиток кандидатов
• Автоматические собеседования с распознаванием эмоций
• ИИ оценивает совместимость кандидата с командой
• Резюме без подтверждённых навыков уходят в конец очереди
• Регулярные AI-опросы для отслеживания состояния сотрудников
• ИИ-коучи с основами когнитивно-поведенческой терапии
• Раннее выявление и предотвращение профессионального выгорания
• ИИ подсказывает эффективные решения и новые методы
• Постоянное повышение квалификации с помощью персонализированных AI-курсов
Присоединяйтесь к нашему Телеграм-каналу, чтобы вместе исследовать будущее технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1😁1🏆1🤝1🆒1
20-21 сентября СПбГУ отметил свое 300-летие масштабной конференцией об искусственном интеллекте. Ведущие ученые обсудили, как ИИ трансформирует все: от промышленности до философии сознания.
День 1| Главный штаб Эрмитажа
• Валентин Анаников, академик РАН: «ИИ в химии — это скорость. Точка невозврата пройдена, теперь без ИИ ни один химик работать не станет».
• Елена Загайнова, член-корреспондент РАН: сложности внедрения ИИ в медицину: от несовершенства алгоритмов до недоверия врачей.
• Арутюн Аветисян, академик РАН: вопрос доверия к ИИ с двух сторон: технической (риски атак) и социальной (проблемы честности ИИ).
• Сергей Люлин, член-корреспондент РАН: как ИИ помогает создавать новые полимеры, например, для разделения газов.
• Татьяна Черниговская, академик РАО: человеческий, искусственный и животный интеллект и важность правильной постановки вопросов в науке.
День 2 | Юридический факультет СПбГУ
• Владислав Архипов (модератор): главная проблема — как защитить права на данные и одновременно обеспечить их доступность для инноваций?
• Константин Амелин, и.о. директора Центра ИИ: опыт создания качественных датасетов для обучения нейросетей.
• Александр Медведев: 3 принципа прозрачности ИИ: доступность, объяснимость, предсказуемость.
ИИ уже изменил научный ландшафт. Теперь задача ученых, юристов и бизнеса — найти баланс между инновациями и этикой, между скоростью и надежностью.
Хотите узнать больше? Полный отчет о конференции читайте на нашем сайте. Подписывайтесь на наш Телеграм-канал, чтобы следить за актуальными новостями из сферы ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥3
Преступление, ИИ, наказание
🔎 Как искусственный интеллект может помочь в борьбе с преступностью? Разбираемся в рубрике #научпоп.
«ИИ-детектив» — это система, способная предсказывать преступления на основе анализа данных. Недавно ученые из Южной Кореи разработали модель Dejaview, достигшую точности прогнозов более 82%. Однако цена ошибок системы, как отмечают специалисты, может быть очень высокой.
❓ Как модель работает:
• Обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики
• Анализирует видеозаписи в реальном времени
• Оценивает риски совершения преступлений
• Сравнивает поведение людей с действиями преступников
Особенности Dejaview:
✅ Различает виды правонарушений
✅ Может отслеживать потенциальных рецидивистов
✅ Рассматривается как средство автоматизации рутинных действий сотрудника правопорядка
Сегодня подобные технологии, в том числе и в России, уже внедряются для обеспечения безопасности. В городах действуют системы распознавания лиц и опасных объектов, банки используют нейросети для выявления мошеннических операций, а в социальных службах становится возможным прогнозирование рисков для уязвимых групп.
🚨 Но вместе со всеми преимуществами у таких систем есть и риски:
• Нарушение права на неприкосновенность частной жизни, передача личных данных
• Возможная предвзятость ИИ из-за неравномерных данных (например, действия больного синдромом Туретта не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе)
• Риск ошибочных прогнозов и ложных обвинений
💡 «ИИ-детективы»— это попытка создать более безопасное общество. Но сегодня технологии прогнозирования преступлений на основе ИИ опережают организационные и юридические аспекты. Хотя такие системы уже существуют, остаются вопросы о том, кто и как будет интерпретировать их выводы. Это критично, поскольку от решений ИИ могут зависеть судьбы людей.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале и узнавайте о всех возможностях применения ИИ!
«ИИ-детектив» — это система, способная предсказывать преступления на основе анализа данных. Недавно ученые из Южной Кореи разработали модель Dejaview, достигшую точности прогнозов более 82%. Однако цена ошибок системы, как отмечают специалисты, может быть очень высокой.
• Обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики
• Анализирует видеозаписи в реальном времени
• Оценивает риски совершения преступлений
• Сравнивает поведение людей с действиями преступников
Особенности Dejaview:
Сегодня подобные технологии, в том числе и в России, уже внедряются для обеспечения безопасности. В городах действуют системы распознавания лиц и опасных объектов, банки используют нейросети для выявления мошеннических операций, а в социальных службах становится возможным прогнозирование рисков для уязвимых групп.
• Нарушение права на неприкосновенность частной жизни, передача личных данных
• Возможная предвзятость ИИ из-за неравномерных данных (например, действия больного синдромом Туретта не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе)
• Риск ошибочных прогнозов и ложных обвинений
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале и узнавайте о всех возможностях применения ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤2👨💻2👏1🆒1
Завтра, 26 сентября в 15:00, пройдет партнерский семинар Центра ИИ СПбГУ. Сотрудники Центра расскажут о достигнутых результатах и поделятся планами на будущее.
Очное участие ограничено из-за количества мест, но если вы заинтересованы в сотрудничестве с Центром, вы можете подключиться к онлайн-трансляции по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Zoom
Join our Cloud HD Video Meeting
Zoom is the leader in modern enterprise cloud communications.
🔥4👏3🏆3
Центр ИИ СПбГУ на AISUMMIT 2024
11-12 сентября | Москва | 50+ экспертов
Прошел третий ежегодный AISUMMIT — одна из крупнейших конференций по ИИ для бизнеса в России.
Секции, представленные в этот раз: «Финтех», «Медицина», «Строительство и ЖКХ», «Кибербезопасность», «Промышленность, логистика и транспорт», «Телеком», «Креативные индустрии», «Образование и кадры».
🗣 Кирилл Дорожкин, эксперт Центра ИИ, модерировал 2 секции:
1️⃣ Креативные индустрии
Спикеры поделились горячей статистикой:
• ИИ оптимизирует >50% звеньев производственной цепочки
• Генеративные нейросети — хит в маркетинге и рекламе
• Нейроарт набирает обороты, рождая новые профессии
🔔 Напоминаем, что с 8 августа 2024 действует закон о развитии креативных индустрий в РФ (№ 330-ФЗ).
2️⃣ Образование и кадры
Участники дискуссии определили 3 главных тренда:
• Персонализация обучения с ИИ
• Спрос на ИИ-специалистов во всех отраслях
• ИИ в рекрутинге: от анализа резюме до подбора вакансий
🗣 «СПбГУ готов создать образовательные программы по ИИ под запросы отрасли. Будущее за специалистами со знанием ИИ», — К. Дорожкин
💡 Мысль дня: «Человек из процессов полностью не исчезнет: вместо обычных специалистов придут специалисты со знанием ИИ»
Полную версию новости читайте на нашем сайте, подписывайтесь на наш Телеграм-канал и следите за новостями!
11-12 сентября | Москва | 50+ экспертов
Прошел третий ежегодный AISUMMIT — одна из крупнейших конференций по ИИ для бизнеса в России.
Секции, представленные в этот раз: «Финтех», «Медицина», «Строительство и ЖКХ», «Кибербезопасность», «Промышленность, логистика и транспорт», «Телеком», «Креативные индустрии», «Образование и кадры».
1️⃣ Креативные индустрии
Спикеры поделились горячей статистикой:
• ИИ оптимизирует >50% звеньев производственной цепочки
• Генеративные нейросети — хит в маркетинге и рекламе
• Нейроарт набирает обороты, рождая новые профессии
2️⃣ Образование и кадры
Участники дискуссии определили 3 главных тренда:
• Персонализация обучения с ИИ
• Спрос на ИИ-специалистов во всех отраслях
• ИИ в рекрутинге: от анализа резюме до подбора вакансий
Полную версию новости читайте на нашем сайте, подписывайтесь на наш Телеграм-канал и следите за новостями!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🏆3🤝3
ГаллюцинацИИ: когда ИИ видит то, чего нет
Почему искусственный интеллект иногда «сходит с ума» и как это влияет на нашу жизнь? Узнаем в рубрике #научпоп.
🤪 «Галлюцинации ИИ» — это ошибки и неточности в работе нейронных сетей, когда они выдают неверную или несуществующую информацию. Для обычного человека такие ошибки могут показаться смешными, но для бизнес-процессов и общества в целом они могут принести много негативных последствий.
Какие проблемы могут возникать?
💠 Непредсказуемые результаты
ИИ может неожиданно выдать абсурдный ответ. Процесс «мышления» остается непрозрачным даже для разработчиков, поэтому невозможно понять, почему система выбрала именно такой ответ.
• Пример: искусственный интеллект Facebook* в 2021 году удалил пост пользователя, в котором была размещена историческая фотография советских солдат и Знамени Победы, поднятого над Рейхстагом. Нейросеть решила, что такой контент нарушает правила сообщества.
💠 Дискриминация
ИИ может несправедливо оценивать людей. Зачастую причиной этому становится обучение на несбалансированных данных.
• Пример: в 2014 году Amazon использовал ИИ для оценки резюме и снизил оценки женщинам, что привело к отказам в приёме на работу.
💠 Ошибки из-за недостатка данных
ИИ требует огромных объемов информации для обучения. Сбор и хранение данных — не самая простая, дешевая и быстрая задача, однако их недостаток приводит к ошибкам в работе.
• Пример: в 2022 году ИИ не раз выписывал штрафы праворульным автомобилям за непристегнутый ремень водителя, потому что не видел достаточного количества праворульных машин.
💠 Отсутствие критического мышления
ИИ может быстро обучаться и обрабатывать большие объемы данных, но не умеет идеально воспроизводить критическое мышление человека. Нейронные сети могут сомневаться в информации и выявлять ошибки, но иногда они просто «верят» в неверные факты. Это особенно проявляется, когда исходный источник информации ненадежен.
💠 Уязвимость к «взлому»
Нейронные сети также уязвимы для взлома, как и любые другие системы. Их можно обмануть, если знать слабые места.
• Пример: израильские и японские ученые снизили точность распознавания лиц с помощью грима. Даже небольшие изменения в изображении могут сбить ИИ с толку.
💠 Проблемы с анатомией
Изображения людей, созданные нейросетями, часто бывают нереалистичными и странными. Это связано с тем, что нейросети не понимают строения человеческого тела.
• Пример: вместо пяти пальцев на руке человека нейросеть может изобразить шесть или четыре.
🤕 Как минимизировать галлюцинации при работе с нейросетью:
• Научитесь быть более конкретными в своих запросах.
• Давайте нейросети больше входной информации, контекста.
• Проверяйте факты. Если есть ошибки, укажите на них.
💡 Галлюцинации ИИ поднимают серьёзные вопросы о надёжности и этичности использования ИИ в критически важных областях. Поэтому ИИ нуждается в постоянном обучении и контроле со стороны человека, чтобы гарантировать более точные и надежные результаты.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Почему искусственный интеллект иногда «сходит с ума» и как это влияет на нашу жизнь? Узнаем в рубрике #научпоп.
Какие проблемы могут возникать?
ИИ может неожиданно выдать абсурдный ответ. Процесс «мышления» остается непрозрачным даже для разработчиков, поэтому невозможно понять, почему система выбрала именно такой ответ.
• Пример: искусственный интеллект Facebook* в 2021 году удалил пост пользователя, в котором была размещена историческая фотография советских солдат и Знамени Победы, поднятого над Рейхстагом. Нейросеть решила, что такой контент нарушает правила сообщества.
ИИ может несправедливо оценивать людей. Зачастую причиной этому становится обучение на несбалансированных данных.
• Пример: в 2014 году Amazon использовал ИИ для оценки резюме и снизил оценки женщинам, что привело к отказам в приёме на работу.
ИИ требует огромных объемов информации для обучения. Сбор и хранение данных — не самая простая, дешевая и быстрая задача, однако их недостаток приводит к ошибкам в работе.
• Пример: в 2022 году ИИ не раз выписывал штрафы праворульным автомобилям за непристегнутый ремень водителя, потому что не видел достаточного количества праворульных машин.
ИИ может быстро обучаться и обрабатывать большие объемы данных, но не умеет идеально воспроизводить критическое мышление человека. Нейронные сети могут сомневаться в информации и выявлять ошибки, но иногда они просто «верят» в неверные факты. Это особенно проявляется, когда исходный источник информации ненадежен.
Нейронные сети также уязвимы для взлома, как и любые другие системы. Их можно обмануть, если знать слабые места.
• Пример: израильские и японские ученые снизили точность распознавания лиц с помощью грима. Даже небольшие изменения в изображении могут сбить ИИ с толку.
Изображения людей, созданные нейросетями, часто бывают нереалистичными и странными. Это связано с тем, что нейросети не понимают строения человеческого тела.
• Пример: вместо пяти пальцев на руке человека нейросеть может изобразить шесть или четыре.
• Научитесь быть более конкретными в своих запросах.
• Давайте нейросети больше входной информации, контекста.
• Проверяйте факты. Если есть ошибки, укажите на них.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
ИИ-детектор лжи: правда или вымысел?
🤔 Может ли искусственный интеллект распознать ложь? Разбираемся в рубрике #научпоп.
Ученые из Германии провели исследование и разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь.
💠 768 участников написали по одной истинной и одной ложной, но похожей на правду истории.
💠 80% этих данных использовали для обучения алгоритма на базе языковой модели Google BERT.
💠 20% оставшихся ответов были использованы для тестирования.
💠 Результат: ИИ определил ложь в 67% случаев, а человек угадал верно только в 50% случаев.
💭 Чтобы изучить, как люди будут использовать этот ИИ, было проведено дополнительное исследование.
• 2040 добровольцев читали рассказы первой группы и пытались определить, где правда, а где ложь.
• Треть решила воспользоваться ИИ, который предлагался за небольшую плату.
• Причины отказа могли заключаться в скептицизме к технологии или чрезмерной уверенности в своих силах.
• Те, кто все же выбрал ИИ, почти всегда следовали его прогнозам.
💠 Результат: люди, даже зная, о соотношении правды и лжи, считали ложью только 19% историй. Те, кто использовал ИИ, видели ложь в 58% случаев.
💡 ИИ-детектор лжи хорошо себя показал в выявлении обмана, он может стать важным инструментом в борьбе с дезинформацией и выявления фейковых новостей. Но его применение вызывает вопросы о возможных негативных последствиях, таких как подрыв доверия и недостаточно высоких процентов точности для применения в ответственных сферах.
Читайте об интересных ИИ-технологиях и их применении на нашем сайте и в нашем Телеграм-канале.
Ученые из Германии провели исследование и разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь.
• 2040 добровольцев читали рассказы первой группы и пытались определить, где правда, а где ложь.
• Треть решила воспользоваться ИИ, который предлагался за небольшую плату.
• Причины отказа могли заключаться в скептицизме к технологии или чрезмерной уверенности в своих силах.
• Те, кто все же выбрал ИИ, почти всегда следовали его прогнозам.
Читайте об интересных ИИ-технологиях и их применении на нашем сайте и в нашем Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👏3❤2😁1
Как ИИ угрожает самому себе?
Сегодня интернет полон контента, созданным искусственным интеллектом — от текстов до изображений. Но что произойдет, если модели начнут обучаться на сгенерированных ими же данных? Ищем ответ в рубрике #научпоп.
💔 Исследователи из Великобритании и Канады пришли к тревожному выводу: обучение на синтетических данных вызывает коллапс модели — процесс, при котором модели ИИ начинают «забывать» реальное распределение вероятностей и все хуже воспринимают мир.
🐱 Представьте себе ИИ, генерирующий изображения кошек.
• В обучающем наборе есть 90 желтых и 10 голубых кошек.
• ИИ не просто запоминает статистику, но и «подкрашивает» голубых кошек в более желтый оттенок.
• Результат? Появляются зеленые кошки!
⏳ При повторном обучении голубой цвет зеленеет, а зеленый желтеет. И через несколько циклов все кошки становятся желтыми! Это и есть «коллапс модели» — постепенное исчезновение редких признаков.
🚨 Что это значит для ИИ?
Если модели будут продолжать обучаться на синтетическом контенте, качество генеративного ИИ ухудшится. Это уже называют цифровым «загрязнением», аналогичным загрязнению пластиком в океане.
⁉️ Как предотвратить коллапс?
• Создать чистый датасет, который будет состоять только из данных, созданных человеком.
• Использовать новый набор данных, свободных от синтетических материалов.
Но пока этот процесс осложнен отсутствием инструментов для массовой разметки и фильтрации синтетического контента.
💡 Важно понимать, что качество данных — ключ к развитию искусственного интеллекта.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Сегодня интернет полон контента, созданным искусственным интеллектом — от текстов до изображений. Но что произойдет, если модели начнут обучаться на сгенерированных ими же данных? Ищем ответ в рубрике #научпоп.
• В обучающем наборе есть 90 желтых и 10 голубых кошек.
• ИИ не просто запоминает статистику, но и «подкрашивает» голубых кошек в более желтый оттенок.
• Результат? Появляются зеленые кошки!
Если модели будут продолжать обучаться на синтетическом контенте, качество генеративного ИИ ухудшится. Это уже называют цифровым «загрязнением», аналогичным загрязнению пластиком в океане.
• Создать чистый датасет, который будет состоять только из данных, созданных человеком.
• Использовать новый набор данных, свободных от синтетических материалов.
Но пока этот процесс осложнен отсутствием инструментов для массовой разметки и фильтрации синтетического контента.
Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👏3😁2
9 октября | 18:00 | Центр ИИ СПбГУ (Кадетская линия, 1-2, схема прохода, продублировали в комментариях)
Мы живем в эпоху больших языковых моделей (LLM), и каждый день модели развиваются, преображаются, учатся чему-то новому и дают пользователям больше возможностей. Теперь многие исследователи считают, что создание настоящего сильного ИИ (AGI) уже не за горами.
На семинаре мы обсудим:
• Современные модели ИИ, появляющиеся в новостях
• Возможные сроки появления AGI, как мы об этом узнаем и готовы ли мы к этому
• Нужно ли нам бояться AGI, и если да, то чего именно
Остались вопросы? Задавайте их в комментариях. Ждем вас на семинаре!
О других мероприятиях в Центре ИИ в октябре можно узнать на нашем сайте.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤2
Нобелевка-2024: физика ИИ🎓
Нобелевскую премию по физике 2024 года получили Джон Хопфилд и Джеффри Хинтон за работы в области машинного обучения нейросетей. Их исследования, начатые более 40 лет назад, стали фундаментом современного ИИ.
🤔 Сеть Хопфилда – особый тип нейронной сети, запоминающей и восстанавливающей изображения. Каждый нейрон – пиксель, черный (0) или белый (1). Сеть «запоминает» изображение как состояние с минимальной «энергией». При получении нового изображения она пытается превратить его в запомненное, меняя пиксели по одному. Процесс продолжается до достижения минимальной энергии — так сеть распознает образы, словно собирая пазл.
🤔 Хинтон создал «машину Больцмана», улучшив сеть Хопфилда. Она самостоятельно учится распознавать элементы в данных, используя принципы статистической физики. Этот метод стал основой глубокого обучения в современных нейросетях. Хинтона называют «крестным отцом глубокого обучения». Он также участвовал в разработке алгоритма обратного распространения ошибки, что возродило интерес к нейросетям в 1980-х.
💡 Эти подходы позволили создать самообучающиеся нейросети. Поэтому современный ИИ способен решать сложные задачи вроде распознавания речи или генерации изображений.
⁉️ Хотя исследования по ИИ ближе к математике, Нобелевский комитет отметил эти достижения премией по физике, подчеркнув междисциплинарность науки и важность ИИ для будущего.
Самые интересные события из мира ИИ освещаем на сайте и в рубрике #научпоп в Телеграм-канале!
Нобелевскую премию по физике 2024 года получили Джон Хопфилд и Джеффри Хинтон за работы в области машинного обучения нейросетей. Их исследования, начатые более 40 лет назад, стали фундаментом современного ИИ.
Самые интересные события из мира ИИ освещаем на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥3👾2