В центре ИИ
820 subscribers
290 photos
33 videos
253 links
Новости, проекты и жизнь Центра искусственного интеллекта и науки о данных СПбГУ
Download Telegram
«Белое зеркало»: светлое будущее с ИИ в 2035 году

🥺 Как изменится наша жизнь с развитием ИИ через десять лет? Заглядываем в светлое будущее в рубрике #научпоп.

🤑Банкинг будущего:
• Биометрия на входе в приложение: ваше лицо – ваш пароль
• ИИ-ассистент анализирует ваш цифровой след для персональных предложений
• Мгновенное оформление кредитов (но финальное "да" всё ещё говорит человек!)
• Ваши данные о здоровье помогут получить выгодные условия по кредиту

💻 Разработка 2.0:
• 80% кода генерирует ИИ, 20% пишут люди
• ИИ помогает с архитектурой, тестированием и проводит код-ревью
• Главное качество разработчика – креативность в решении нестандартных задач
• ИИ-ассистент напоминает о встречах и даже заказывает кофе!

👥 HR в новую эру:
• AI-анализ видеовизиток кандидатов
• Автоматические собеседования с распознаванием эмоций
• ИИ оценивает совместимость кандидата с командой
• Резюме без подтверждённых навыков уходят в конец очереди

🙂 Психическое здоровье на работе:
• Регулярные AI-опросы для отслеживания состояния сотрудников
• ИИ-коучи с основами когнитивно-поведенческой терапии
• Раннее выявление и предотвращение профессионального выгорания

🎓 Обучение и развитие:
• ИИ подсказывает эффективные решения и новые методы
• Постоянное повышение квалификации с помощью персонализированных AI-курсов

💡«Белое зеркало» показывает нам мир, где ИИ не заменяет людей, а помогает им стать лучше, эффективнее и счастливее. Технологии служат нам, а не наоборот. Конечно, это лишь прогнозы. Возможно, через 10 лет мы посмеемся над нашими представлениями. Но одно можно сказать точно: ИИ меняет мир, и нам стоит быть готовыми к этим изменениям.

Присоединяйтесь к нашему Телеграм-каналу, чтобы вместе исследовать будущее технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁1🏆1🤝1🆒1
🎓300 лет СПбГУ: ИИ меняет науку и образование

20-21 сентября СПбГУ отметил свое 300-летие масштабной конференцией об искусственном интеллекте. Ведущие ученые обсудили, как ИИ трансформирует все: от промышленности до философии сознания.

День 1| Главный штаб Эрмитажа
👥 Спикеры и их идеи:

• Валентин Анаников, академик РАН: «ИИ в химии — это скорость. Точка невозврата пройдена, теперь без ИИ ни один химик работать не станет».
• Елена Загайнова, член-корреспондент РАН: сложности внедрения ИИ в медицину: от несовершенства алгоритмов до недоверия врачей.
• Арутюн Аветисян, академик РАН: вопрос доверия к ИИ с двух сторон: технической (риски атак) и социальной (проблемы честности ИИ).
• Сергей Люлин, член-корреспондент РАН: как ИИ помогает создавать новые полимеры, например, для разделения газов.
• Татьяна Черниговская, академик РАО: человеческий, искусственный и животный интеллект и важность правильной постановки вопросов в науке.

День 2 | Юридический факультет СПбГУ
💼 Секция «Данные в машинном обучении: право и экономика»

• Владислав Архипов (модератор): главная проблема — как защитить права на данные и одновременно обеспечить их доступность для инноваций?
• Константин Амелин, и.о. директора Центра ИИ: опыт создания качественных датасетов для обучения нейросетей.
• Александр Медведев: 3 принципа прозрачности ИИ: доступность, объяснимость, предсказуемость.

💡 Главный вывод конференции:
ИИ уже изменил научный ландшафт. Теперь задача ученых, юристов и бизнеса — найти баланс между инновациями и этикой, между скоростью и надежностью.

Хотите узнать больше? Полный отчет о конференции читайте на нашем сайте. Подписывайтесь на наш Телеграм-канал, чтобы следить за актуальными новостями из сферы ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🔥3
Преступление, ИИ, наказание

🔎Как искусственный интеллект может помочь в борьбе с преступностью? Разбираемся в рубрике #научпоп.

«ИИ-детектив» — это система, способная предсказывать преступления на основе анализа данных. Недавно ученые из Южной Кореи разработали модель Dejaview, достигшую точности прогнозов более 82%. Однако цена ошибок системы, как отмечают специалисты, может быть очень высокой.

Как модель работает:
• Обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики
• Анализирует видеозаписи в реальном времени
• Оценивает риски совершения преступлений
• Сравнивает поведение людей с действиями преступников

Особенности Dejaview:
Различает виды правонарушений
Может отслеживать потенциальных рецидивистов
Рассматривается как средство автоматизации рутинных действий сотрудника правопорядка

Сегодня подобные технологии, в том числе и в России, уже внедряются для обеспечения безопасности. В городах действуют системы распознавания лиц и опасных объектов, банки используют нейросети для выявления мошеннических операций, а в социальных службах становится возможным прогнозирование рисков для уязвимых групп.

🚨Но вместе со всеми преимуществами у таких систем есть и риски:
• Нарушение права на неприкосновенность частной жизни, передача личных данных
• Возможная предвзятость ИИ из-за неравномерных данных (например, действия больного синдромом Туретта не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе)
• Риск ошибочных прогнозов и ложных обвинений

💡«ИИ-детективы»— это попытка создать более безопасное общество. Но сегодня технологии прогнозирования преступлений на основе ИИ опережают организационные и юридические аспекты. Хотя такие системы уже существуют, остаются вопросы о том, кто и как будет интерпретировать их выводы. Это критично, поскольку от решений ИИ могут зависеть судьбы людей.

Следите за обновлениями на нашем сайте и в нашем Телеграм-канале и узнавайте о всех возможностях применения ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👨‍💻2👏1🆒1
🔥Трансляция партнерского семинара

Завтра, 26 сентября в 15:00, пройдет партнерский семинар Центра ИИ СПбГУ. Сотрудники Центра расскажут о достигнутых результатах и поделятся планами на будущее.

Очное участие ограничено из-за количества мест, но если вы заинтересованы в сотрудничестве с Центром, вы можете подключиться к онлайн-трансляции по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👏3🏆3
Центр ИИ СПбГУ на AISUMMIT 2024

11-12 сентября | Москва | 50+ экспертов

Прошел третий ежегодный AISUMMIT — одна из крупнейших конференций по ИИ для бизнеса в России.
Секции, представленные в этот раз: «Финтех», «Медицина», «Строительство и ЖКХ», «Кибербезопасность», «Промышленность, логистика и транспорт», «Телеком», «Креативные индустрии», «Образование и кадры».

🗣 Кирилл Дорожкин, эксперт Центра ИИ, модерировал 2 секции:

1️⃣ Креативные индустрии

Спикеры поделились горячей статистикой:
• ИИ оптимизирует >50% звеньев производственной цепочки
• Генеративные нейросети — хит в маркетинге и рекламе
• Нейроарт набирает обороты, рождая новые профессии

🔔 Напоминаем, что с 8 августа 2024 действует закон о развитии креативных индустрий в РФ (№ 330-ФЗ).

2️⃣ Образование и кадры

Участники дискуссии определили 3 главных тренда:
• Персонализация обучения с ИИ
• Спрос на ИИ-специалистов во всех отраслях
• ИИ в рекрутинге: от анализа резюме до подбора вакансий

🗣«СПбГУ готов создать образовательные программы по ИИ под запросы отрасли. Будущее за специалистами со знанием ИИ», — К. Дорожкин

💡 Мысль дня: «Человек из процессов полностью не исчезнет: вместо обычных специалистов придут специалисты со знанием ИИ»

Полную версию новости читайте на нашем сайте, подписывайтесь на наш Телеграм-канал и следите за новостями!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🏆3🤝3
ГаллюцинацИИ: когда ИИ видит то, чего нет

Почему искусственный интеллект иногда «сходит с ума» и как это влияет на нашу жизнь? Узнаем в рубрике #научпоп.

🤪«Галлюцинации ИИ» — это ошибки и неточности в работе нейронных сетей, когда они выдают неверную или несуществующую информацию. Для обычного человека такие ошибки могут показаться смешными, но для бизнес-процессов и общества в целом они могут принести много негативных последствий.

Какие проблемы могут возникать?

💠 Непредсказуемые результаты
ИИ может неожиданно выдать абсурдный ответ. Процесс «мышления» остается непрозрачным даже для разработчиков, поэтому невозможно понять, почему система выбрала именно такой ответ.
• Пример: искусственный интеллект Facebook* в 2021 году удалил пост пользователя, в котором была размещена историческая фотография советских солдат и Знамени Победы, поднятого над Рейхстагом. Нейросеть решила, что такой контент нарушает правила сообщества.

💠 Дискриминация
ИИ может несправедливо оценивать людей. Зачастую причиной этому становится обучение на несбалансированных данных.
• Пример: в 2014 году Amazon использовал ИИ для оценки резюме и снизил оценки женщинам, что привело к отказам в приёме на работу.

💠 Ошибки из-за недостатка данных
ИИ требует огромных объемов информации для обучения. Сбор и хранение данных — не самая простая, дешевая и быстрая задача, однако их недостаток приводит к ошибкам в работе.
• Пример: в 2022 году ИИ не раз выписывал штрафы праворульным автомобилям за непристегнутый ремень водителя, потому что не видел достаточного количества праворульных машин.

💠 Отсутствие критического мышления
ИИ может быстро обучаться и обрабатывать большие объемы данных, но не умеет идеально воспроизводить критическое мышление человека. Нейронные сети могут сомневаться в информации и выявлять ошибки, но иногда они просто «верят» в неверные факты. Это особенно проявляется, когда исходный источник информации ненадежен.

💠 Уязвимость к «взлому»
Нейронные сети также уязвимы для взлома, как и любые другие системы. Их можно обмануть, если знать слабые места.
• Пример: израильские и японские ученые снизили точность распознавания лиц с помощью грима. Даже небольшие изменения в изображении могут сбить ИИ с толку.

💠 Проблемы с анатомией
Изображения людей, созданные нейросетями, часто бывают нереалистичными и странными. Это связано с тем, что нейросети не понимают строения человеческого тела.
• Пример: вместо пяти пальцев на руке человека нейросеть может изобразить шесть или четыре.

🤕Как минимизировать галлюцинации при работе с нейросетью:
• Научитесь быть более конкретными в своих запросах.
• Давайте нейросети больше входной информации, контекста.
• Проверяйте факты. Если есть ошибки, укажите на них.

💡 Галлюцинации ИИ поднимают серьёзные вопросы о надёжности и этичности использования ИИ в критически важных областях. Поэтому ИИ нуждается в постоянном обучении и контроле со стороны человека, чтобы гарантировать более точные и надежные результаты.

Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2
ИИ-детектор лжи: правда или вымысел?

🤔 Может ли искусственный интеллект распознать ложь? Разбираемся в рубрике #научпоп.

Ученые из Германии провели исследование и разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь.

💠 768 участников написали по одной истинной и одной ложной, но похожей на правду истории.
💠 80% этих данных использовали для обучения алгоритма на базе языковой модели Google BERT.
💠 20% оставшихся ответов были использованы для тестирования.

💠Результат: ИИ определил ложь в 67% случаев, а человек угадал верно только в 50% случаев.

💭Чтобы изучить, как люди будут использовать этот ИИ, было проведено дополнительное исследование.
• 2040 добровольцев читали рассказы первой группы и пытались определить, где правда, а где ложь.
• Треть решила воспользоваться ИИ, который предлагался за небольшую плату.
• Причины отказа могли заключаться в скептицизме к технологии или чрезмерной уверенности в своих силах.
• Те, кто все же выбрал ИИ, почти всегда следовали его прогнозам.

💠Результат: люди, даже зная, о соотношении правды и лжи, считали ложью только 19% историй. Те, кто использовал ИИ, видели ложь в 58% случаев.

💡ИИ-детектор лжи хорошо себя показал в выявлении обмана, он может стать важным инструментом в борьбе с дезинформацией и выявления фейковых новостей. Но его применение вызывает вопросы о возможных негативных последствиях, таких как подрыв доверия и недостаточно высоких процентов точности для применения в ответственных сферах.

Читайте об интересных ИИ-технологиях и их применении на нашем сайте и в нашем Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👏32😁1
Как ИИ угрожает самому себе?

Сегодня интернет полон контента, созданным искусственным интеллектом — от текстов до изображений. Но что произойдет, если модели начнут обучаться на сгенерированных ими же данных? Ищем ответ в рубрике #научпоп.

💔Исследователи из Великобритании и Канады пришли к тревожному выводу: обучение на синтетических данных вызывает коллапс модели — процесс, при котором модели ИИ начинают «забывать» реальное распределение вероятностей и все хуже воспринимают мир.

🐱 Представьте себе ИИ, генерирующий изображения кошек.
• В обучающем наборе есть 90 желтых и 10 голубых кошек.
• ИИ не просто запоминает статистику, но и «подкрашивает» голубых кошек в более желтый оттенок.
• Результат? Появляются зеленые кошки!

При повторном обучении голубой цвет зеленеет, а зеленый желтеет. И через несколько циклов все кошки становятся желтыми! Это и есть «коллапс модели» — постепенное исчезновение редких признаков.

🚨 Что это значит для ИИ?
Если модели будут продолжать обучаться на синтетическом контенте, качество генеративного ИИ ухудшится. Это уже называют цифровым «загрязнением», аналогичным загрязнению пластиком в океане.

⁉️ Как предотвратить коллапс?
• Создать чистый датасет, который будет состоять только из данных, созданных человеком.
• Использовать новый набор данных, свободных от синтетических материалов.

Но пока этот процесс осложнен отсутствием инструментов для массовой разметки и фильтрации синтетического контента.

💡 Важно понимать, что качество данных — ключ к развитию искусственного интеллекта.

Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👏3😁2
🤖Приглашаем на большой семинар, посвященный AGI

9 октября | 18:00 | Центр ИИ СПбГУ (Кадетская линия, 1-2, схема прохода, продублировали в комментариях)

Мы живем в эпоху больших языковых моделей (LLM), и каждый день модели развиваются, преображаются, учатся чему-то новому и дают пользователям больше возможностей. Теперь многие исследователи считают, что создание настоящего сильного ИИ (AGI) уже не за горами.

🗣 С докладом «Мечтаем ли мы об AGI? Последние новости, ожидания и возможности» выступит Сергей Игоревич Николенко — д.ф.-м.н., с.н.с. ПОМИ РАН, доцент ФМКН СПбГУ, Head of AI компании Synthesis AI, автор более 200 публикаций, книг, в числе которых бестселлер «Глубокое обучение» (Питер, 2018).

На семинаре мы обсудим:
• Современные модели ИИ, появляющиеся в новостях
• Возможные сроки появления AGI, как мы об этом узнаем и готовы ли мы к этому
• Нужно ли нам бояться AGI, и если да, то чего именно

Семинар будет интересен как профессионалам в сфере ИИ, так и всем, кто только начинает разбираться в технологиях.

🔗Если у вас нет пропуска на территорию университета, пройдите, пожалуйста, регистрацию.

Остались вопросы? Задавайте их в комментариях. Ждем вас на семинаре!

О других мероприятиях в Центре ИИ в октябре можно узнать на нашем сайте.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥52
Нобелевка-2024: физика ИИ🎓

Нобелевскую премию по физике 2024 года получили Джон Хопфилд и Джеффри Хинтон за работы в области машинного обучения нейросетей. Их исследования, начатые более 40 лет назад, стали фундаментом современного ИИ.

🤔 Сеть Хопфилда – особый тип нейронной сети, запоминающей и восстанавливающей изображения. Каждый нейрон – пиксель, черный (0) или белый (1). Сеть «запоминает» изображение как состояние с минимальной «энергией». При получении нового изображения она пытается превратить его в запомненное, меняя пиксели по одному. Процесс продолжается до достижения минимальной энергии — так сеть распознает образы, словно собирая пазл.

🤔 Хинтон создал «машину Больцмана», улучшив сеть Хопфилда. Она самостоятельно учится распознавать элементы в данных, используя принципы статистической физики. Этот метод стал основой глубокого обучения в современных нейросетях. Хинтона называют «крестным отцом глубокого обучения». Он также участвовал в разработке алгоритма обратного распространения ошибки, что возродило интерес к нейросетям в 1980-х.

💡 Эти подходы позволили создать самообучающиеся нейросети. Поэтому современный ИИ способен решать сложные задачи вроде распознавания речи или генерации изображений.

⁉️ Хотя исследования по ИИ ближе к математике, Нобелевский комитет отметил эти достижения премией по физике, подчеркнув междисциплинарность науки и важность ИИ для будущего.

Самые интересные события из мира ИИ освещаем на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥3👾2
Фантазия, ставшая реальностью: ИИ в 20-ом веке 🏪

В 21-ом веке ИИ стал частью нашей повседневной жизни, но задумывались ли вы когда-нибудь, как все начиналось? В 1956 году термин «искусственный интеллект» прозвучал впервые, а его история началась еще раньше.

🌱Зарождение идеи (1950-е годы)
Научная фантастика познакомила мир с концепцией искусственно интеллектуальных роботов. Алан Тьюринг опубликовал статью «Вычислительные машины и разум» (1950), где обсуждал возможность создания интеллектуальных машин и методы проверки их возможностей. В 1955 году был создан «Логический Теоретик» - программа, имитирующая навыки решения проблем человеком. В 1956 году состоялась Дартмутская конференция, где Джон Маккарти ввел термин «искусственный интеллект».

🌟«Золотой век» ИИ (1957-1974)
Улучшились алгоритмы машинного обучения, появилось государственное финансирование исследований. В 1957 году Фрэнк Розенблатт предложил модель перцептрона для распознавания образов. С 1960 года начали разрабатываться программы для автоматизации доказательства теорем.

☁️«Зима» ИИ (1974-1980)
Из-за ограничений в вычислительной мощности компьютеров и сложности решаемых задач наступил период замедления развития ИИ. Финансирование сократилось, а исследования шли медленно.

🌀Возрождение ИИ (1980-1987)
Появление новых алгоритмических инструментов и увеличение финансирования привели к возрождению интереса к ИИ. Джон Хопфилд и Дэвид Румельхарт популяризировали методы «глубокого обучения». Эдвард Фейгенбаум ввел понятие экспертных систем. Япония запустила амбициозный Компьютерный Проект Пятого Поколения (FGCP).

☁️Вторая «зима» ИИ (1987-1993)
Несмотря на некоторые успехи, многие амбициозные цели не были достигнуты. Финансирование FGCP прекратилось, и ИИ снова отошел на второй план.

💥Прорыв и практическое применение (1993-2000)
В 1997 году компьютер IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова. Также в 1997 году было реализовано программное обеспечение для распознавания речи на Windows. Появились роботы, способные распознавать и отображать эмоции (например, Kismet).

💡ИИ продолжает удивлять нас новыми достижениями, и мы учимся использовать его в самых разных сферах жизни. В Центре ИИ мы проводим исследования, разрабатываем новые алгоритмы и готовим специалистов, которые смогут создавать ИИ будущего.

Следите за новостями из мира ИИ на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3😁2
Запретить не получится

🥂 Для студентов СПбГУ официально открыли возможность пользоваться нейросетями при подготовке научных работ при условии, что «результаты, полученные с использованием инструментов /элементов искусственного интеллекта/ нейросетей, подвергнуты обучающимся проверке на достоверность, самостоятельной обработке, анализу, оценке и авторской переработке с целью включения их в ВКР с осуществлением личного творческого вклада в результаты исследования». Проще говоря - автоматизировать исследование можно, генерировать текст нельзя.

🔉 Одними из первых официально разрешили использовать нейросети в ВШЭ примерно с такой же формулировкой: в формате сноски указывать модель и назначение ее применения. Более того, преподаватели пересмотрели характер своих заданий по предметам: если нейросеть справлялась с ними успешно, то их заменяли на более творческие.

👌 Тем не менее, нужно идти еще дальше - не просто разрешать, а учить правильно пользоваться в научных целях. Учить редактировать тексты, которые генерируют модели. Учиться видеть в текстах генеративных моделей логику и этику, заложенную разработчиками. Вот, кстати, результаты свежего опроса об использовании ИИ преподавателями.

18 октября пройдет кафедральный митап «Трогаем нейросети» (окей - тематическая тусовка) совместно с Центром ИИ СПбГУ в Петербурге. В программе премудрости промптинга, создание чатбота-ассистента, новые возможности Нейропоиска от Яндекс, кейсы Делового Петербурга и демо сервиса GiveMePublic. Без смс, но с регистрацией. Никакого онлайна, только хард реалити.

#ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥1
В Центре ИИ СПбГУ выступит гость из Финляндии

В рамках очередного научного семинара выступит Иван Ломакин, исследователь из Aalto University с докладом «Коллективное поведение живых когнитивных систем».

Доклад спикера будет интересен специалистам из любой сферы науки и вот почему:

Одним из подходов к рассмотрению общества может быть определение его как когнитивной живой сети с общей чертой — агентом (элементом системы, несущим информацию).

Таким образом, оно может следовать принципам описывающим когнитивные, бессознательные модели поведения. Поведение всей системы может быть неизменным независимо от сложности элемента (клетки, муравья или человека). Взаимодействие элементов в таких системах и обмен информацией могут рассматриваться как ”жидкий мозг” и существенно влиять на поведение системы.

В докладе будут описаны промежуточные результаты проекта, призванного на примере сообщества муравьёв объединить статистическую физику, поведение сложных систем, биологию и социальные науки.


Цель проекта — создать модель, способную предсказывать динамическое поведение когнитивных живых сетей.

О том, как управлять муравьями и не только, 16 октября, в 18:00 по адресу Кадетская линия, 1-2.

Подробности о встрече
👍7🔥3👏3
Ищите готовые промты?

Вот ресурсы, где вы найдете тысячи готовых промтов под любую задачу:

1️⃣ PromptBase - маркетплейс готовых промтов.

2️⃣ Awesome ChatGPT Prompts - репозиторий на GitHub с коллекцией промтов.

3️⃣ FlowGPT - платформа для обмена и обсуждения промтов с идеями и советами.

4️⃣ PromptHero - готовые промты для моделей генерирующих изображения.

5️⃣ PromptPerfect - инструмент для улучшения промтов.

Готовые промты подойдут для простых генераций, таких как пруфридинг. Однако чем ближе мы знакомимся с нейросетями и чем серьезнее ставим им задачки, тем больше процесс промтинга превращается в творчество, в котором мы — автор.

У каждого свой стиль общения с чат-ботами, но в промтинжениринге есть правила, которые 100% сделают результат лучше. Учиться этим правилам мы будем 22 октября, на мероприятии, которое совсем скоро анонсируем!

🤔 Как правильно «промт» или «промпт»?

Следите за новостями в мире ИИ на нашем сайте и в Телеграм-канале! #научпоп
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥43
This media is not supported in your browser
VIEW IN TELEGRAM
🔥6
🔥 Прямое включение с научного семинара!

Прямо сейчас в Центре ИИ СПбГУ Иван Ломакин выступает с докладом «Коллективное поведение живых когнитивных систем».

🌱Спикер поделился с аудиторией опытом заведения личной муравьиной колонии для проведения исследования.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7🏆3🤝31
Научный семинар в Институте философии СПбГУ

🔵21 октября | 15:00 – 17:00

🔵Менделеевская лин. 5, первый этаж, каф. философии науки и техники Института философии. Ком. 22

🫥 Спикер Виктория Фирсанова, аспирант СПбГУ и преподаватель цифровых технологий и машинного обучения НИУ ВШЭ, выступит с докладом «Как искусственный интеллект меняет ландшафт современного образования?».

Цель научного семинара: дать определение понятию «генеративный искусственный интеллект» с учетом современных вызовов развития больших языковых моделей. В докладе освещаются такие проблемы, как этика искусственного интеллекта, проблемы плагиата ChatGPT и перспективы примнения систем искусственного интеллекта в образовательной среде.

В докладе будут освещаться следующие вопросы прикладного характера:

🔹 подходы к созданию инструкций к системам генеративного искусственного интеллекта для академической среды;
🔹 основные типы уязвимостей языковых моделей, их анализ и предотвращение с привлечением средств науки о языке;
🔹 как стремительное развитие систем искусственного интеллекта влияет на восприятие языка и информации.


После доклада пройдет дискуссия!

🔗Для участия необходимо заполнить форму.

🔵По ссылке будет проходить трансляция мероприятия.
Запись трансляции будет опубликована в Telegram-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥4👾2😁1
Агностический ИИ: свобода выбора в мире технологий

🚀 Не секрет, что рынок ИИ стремительно растет:
Ожидаемый рост: 36.6% ежегодно с 2024 по 2030 год
Прогноз дохода к 2030 году: 1,811,747.3 млн USD

Как выбрать оптимальное ИИ-решение в быстро меняющемся мире технологий? Например, взглянуть с точки зрения подхода агностического ИИ.

Что такое агностический ИИ?
Это подход к разработке и внедрению ИИ-систем, который не зависит от конкретной платформы, модели или поставщика. Он позволяет компаниям гибко использовать различные ИИ-технологии, адаптируясь к меняющимся потребностям и новым разработкам.

💡 Особенности агностического подхода:
• Гибкость в выборе технологий
• Снижение риска привязки к одному поставщику
• Возможность быстрой адаптации к новинкам
• Уменьшение воздействия на окружающую среду за счет использования менее ресурсоемких моделей

Стартапам агностический ИИ даст возможность экспериментировать без больших затрат, а корпорации смогут сохранять конкурентоспособность и актуальность технологий.

⁉️ Как это работает на практике?
Представьте компанию, разрабатывающую чат-бота для клиентской поддержки:
• Изначально они используют GPT-3 для генерации ответов.
• Система построена так, что модель легко заменяема.
• Появляется более эффективная модель, например, Claude от Anthropic.
• Компания может быстро интегрировать новую модель без полной переработки системы.
• При необходимости они могут использовать разные модели для разных задач или языков.

Преимущества такого подхода:
• Постоянная актуальность технологий
• Оптимизация затрат
• Улучшение производительности
• Снижение зависимости от одного поставщика

💢 Вызовы при внедрении:
• Необходимость в универсальной инфраструктуре
• Потребность в специалистах с широким кругозором
• Сложность в интеграции разнородных систем

🌟 Будущее за гибкостью:
Агностический ИИ – это шаг от жестких обязательств к свободе выбора и инновациям. Он позволяет компаниям использовать лучшие доступные технологии, оставаясь гибкими в быстро меняющемся мире ИИ.

Следите за новостями в мире ИИ на нашем сайте и в Телеграм-канале!
#научпоп
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔42😁2👀1