В центре ИИ
820 subscribers
290 photos
33 videos
253 links
Новости, проекты и жизнь Центра искусственного интеллекта и науки о данных СПбГУ
Download Telegram
Цифровые кентавры: когда человек и ИИ — одна команда

🐴Кто такие «цифровые кентавры» и почему они могут быть эффективнее чистого ИИ? Разбираемся в рубрике #научпоп.

«Цифровой кентавр» — это гибридная система, объединяющая возможности человеческого и искусственного интеллекта. Термин появился в шахматном мире после того, как компьютер Deep Blue обыграл чемпиона мира Гарри Каспарова в 1997 году.
Интересно, что именно Каспаров предложил идею «цифровых кентавров» для шахмат. В 1998 году прошло первое соревнование, где игроки использовали программы-подсказчики.

Как это работает?
• Человек отвечает за стратегию и анализ
• ИИ выполняет расчеты и предлагает варианты ходов
• Финальное решение принимает человек

🏆Самое интересное применение «кентавров» — в игре го. Долгое время считалось, что ИИ не сможет превзойти человека в этой древней игре. Однако в 2016 году программа AlphaGo победила чемпиона мира Ли Седоля. Но и здесь нашлось место для «кентавров»! В 2019 году в России прошел первый хакатон по созданию интерфейсов для игроков-«кентавров» в го. А в 2021 году на чемпионате мира во Владивостоке «кентавры» даже смогли победить ИИ на доске 13х13!

Сегодня «кентавров» вводят не только в игры:
В медицине: врачи используют ИИ для анализа снимков и постановки диагнозов
В финансах: аналитики работают с алгоритмами прогнозирования рынка
В управлении: ИИ помогает принимать решения в сложных системах

💡«Цифровые кентавры» — это интересный симбиоз машины и человека. Представьте мир, где каждый из нас имеет доступ к мощному ИИ-помощнику, усиливающему наши когнитивные способности. Мы сможем решать задачи, недоступные ни человеку, ни машине по отдельности!

Следите за обновлениями в нашем Телеграм-канале, чтобы больше разбираться в вопросах искусственного интеллекта и его реального применения!
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🤝3😁1
🎓 Центр ИИ СПбГУ на научной конференции к 300-летию университета!

📍20 сентября | Государственный Эрмитаж, Главный штаб (Дворцовая площадь, 6-8)
▶️Открытие панельной дискуссии «Искусственный интеллект: вызовы и возможности» (С.В. Микушев, проректор по научной работе СПбГУ)

📍21 сентября | Юридический факультет СПбГУ (22-я линия В.О., д. 7)
Секция: «Данные в машинном обучении: право и экономика» (руководитель: В.В. Архипов, д.ю.н., профессор СПбГУ)

С докладами в рамках секции выступят представители нашего Центра:


▶️ 10:10 - 10:30 | В.В. Архипов, д.ю.н., профессор Кафедры
теории и истории государства и права, руководитель юридической группы Центра ИИ СПбГУ
«Экономическое значение данных и их правовые режимы»

▶️10:40 - 11:00 | К.С. Амелин, к. ф.-м.н., и.о. директора Центра ИИ СПбГУ
«Подходы к использованию данных в машинном обучении»

▶️13:40 - 14:00 | А.И. Медведев, ассистент Кафедры коммерческого права, специалист юридической группы Центра ИИ СПбГУ
«Принцип прозрачности ИИ и машинное обучение»

💬 Будет возможность задать вопросы спикерам! Приглашаем всех интересующихся ИИ, правом и экономикой данных!

Подробнее с программой конференции, другими секциями и докладчиками можно ознакомиться по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🆒21
«Белое зеркало»: светлое будущее с ИИ в 2035 году

🥺 Как изменится наша жизнь с развитием ИИ через десять лет? Заглядываем в светлое будущее в рубрике #научпоп.

🤑Банкинг будущего:
• Биометрия на входе в приложение: ваше лицо – ваш пароль
• ИИ-ассистент анализирует ваш цифровой след для персональных предложений
• Мгновенное оформление кредитов (но финальное "да" всё ещё говорит человек!)
• Ваши данные о здоровье помогут получить выгодные условия по кредиту

💻 Разработка 2.0:
• 80% кода генерирует ИИ, 20% пишут люди
• ИИ помогает с архитектурой, тестированием и проводит код-ревью
• Главное качество разработчика – креативность в решении нестандартных задач
• ИИ-ассистент напоминает о встречах и даже заказывает кофе!

👥 HR в новую эру:
• AI-анализ видеовизиток кандидатов
• Автоматические собеседования с распознаванием эмоций
• ИИ оценивает совместимость кандидата с командой
• Резюме без подтверждённых навыков уходят в конец очереди

🙂 Психическое здоровье на работе:
• Регулярные AI-опросы для отслеживания состояния сотрудников
• ИИ-коучи с основами когнитивно-поведенческой терапии
• Раннее выявление и предотвращение профессионального выгорания

🎓 Обучение и развитие:
• ИИ подсказывает эффективные решения и новые методы
• Постоянное повышение квалификации с помощью персонализированных AI-курсов

💡«Белое зеркало» показывает нам мир, где ИИ не заменяет людей, а помогает им стать лучше, эффективнее и счастливее. Технологии служат нам, а не наоборот. Конечно, это лишь прогнозы. Возможно, через 10 лет мы посмеемся над нашими представлениями. Но одно можно сказать точно: ИИ меняет мир, и нам стоит быть готовыми к этим изменениям.

Присоединяйтесь к нашему Телеграм-каналу, чтобы вместе исследовать будущее технологий!
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁1🏆1🤝1🆒1
🎓300 лет СПбГУ: ИИ меняет науку и образование

20-21 сентября СПбГУ отметил свое 300-летие масштабной конференцией об искусственном интеллекте. Ведущие ученые обсудили, как ИИ трансформирует все: от промышленности до философии сознания.

День 1| Главный штаб Эрмитажа
👥 Спикеры и их идеи:

• Валентин Анаников, академик РАН: «ИИ в химии — это скорость. Точка невозврата пройдена, теперь без ИИ ни один химик работать не станет».
• Елена Загайнова, член-корреспондент РАН: сложности внедрения ИИ в медицину: от несовершенства алгоритмов до недоверия врачей.
• Арутюн Аветисян, академик РАН: вопрос доверия к ИИ с двух сторон: технической (риски атак) и социальной (проблемы честности ИИ).
• Сергей Люлин, член-корреспондент РАН: как ИИ помогает создавать новые полимеры, например, для разделения газов.
• Татьяна Черниговская, академик РАО: человеческий, искусственный и животный интеллект и важность правильной постановки вопросов в науке.

День 2 | Юридический факультет СПбГУ
💼 Секция «Данные в машинном обучении: право и экономика»

• Владислав Архипов (модератор): главная проблема — как защитить права на данные и одновременно обеспечить их доступность для инноваций?
• Константин Амелин, и.о. директора Центра ИИ: опыт создания качественных датасетов для обучения нейросетей.
• Александр Медведев: 3 принципа прозрачности ИИ: доступность, объяснимость, предсказуемость.

💡 Главный вывод конференции:
ИИ уже изменил научный ландшафт. Теперь задача ученых, юристов и бизнеса — найти баланс между инновациями и этикой, между скоростью и надежностью.

Хотите узнать больше? Полный отчет о конференции читайте на нашем сайте. Подписывайтесь на наш Телеграм-канал, чтобы следить за актуальными новостями из сферы ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🔥3
Преступление, ИИ, наказание

🔎Как искусственный интеллект может помочь в борьбе с преступностью? Разбираемся в рубрике #научпоп.

«ИИ-детектив» — это система, способная предсказывать преступления на основе анализа данных. Недавно ученые из Южной Кореи разработали модель Dejaview, достигшую точности прогнозов более 82%. Однако цена ошибок системы, как отмечают специалисты, может быть очень высокой.

Как модель работает:
• Обучается на основе ранних видеозаписей, набора поведенческих факторов и статистики
• Анализирует видеозаписи в реальном времени
• Оценивает риски совершения преступлений
• Сравнивает поведение людей с действиями преступников

Особенности Dejaview:
Различает виды правонарушений
Может отслеживать потенциальных рецидивистов
Рассматривается как средство автоматизации рутинных действий сотрудника правопорядка

Сегодня подобные технологии, в том числе и в России, уже внедряются для обеспечения безопасности. В городах действуют системы распознавания лиц и опасных объектов, банки используют нейросети для выявления мошеннических операций, а в социальных службах становится возможным прогнозирование рисков для уязвимых групп.

🚨Но вместе со всеми преимуществами у таких систем есть и риски:
• Нарушение права на неприкосновенность частной жизни, передача личных данных
• Возможная предвзятость ИИ из-за неравномерных данных (например, действия больного синдромом Туретта не подпадают под понятие правонарушения, однако автоматические алгоритмы ИИ могут решить совсем иначе)
• Риск ошибочных прогнозов и ложных обвинений

💡«ИИ-детективы»— это попытка создать более безопасное общество. Но сегодня технологии прогнозирования преступлений на основе ИИ опережают организационные и юридические аспекты. Хотя такие системы уже существуют, остаются вопросы о том, кто и как будет интерпретировать их выводы. Это критично, поскольку от решений ИИ могут зависеть судьбы людей.

Следите за обновлениями на нашем сайте и в нашем Телеграм-канале и узнавайте о всех возможностях применения ИИ!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👨‍💻2👏1🆒1
🔥Трансляция партнерского семинара

Завтра, 26 сентября в 15:00, пройдет партнерский семинар Центра ИИ СПбГУ. Сотрудники Центра расскажут о достигнутых результатах и поделятся планами на будущее.

Очное участие ограничено из-за количества мест, но если вы заинтересованы в сотрудничестве с Центром, вы можете подключиться к онлайн-трансляции по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👏3🏆3
Центр ИИ СПбГУ на AISUMMIT 2024

11-12 сентября | Москва | 50+ экспертов

Прошел третий ежегодный AISUMMIT — одна из крупнейших конференций по ИИ для бизнеса в России.
Секции, представленные в этот раз: «Финтех», «Медицина», «Строительство и ЖКХ», «Кибербезопасность», «Промышленность, логистика и транспорт», «Телеком», «Креативные индустрии», «Образование и кадры».

🗣 Кирилл Дорожкин, эксперт Центра ИИ, модерировал 2 секции:

1️⃣ Креативные индустрии

Спикеры поделились горячей статистикой:
• ИИ оптимизирует >50% звеньев производственной цепочки
• Генеративные нейросети — хит в маркетинге и рекламе
• Нейроарт набирает обороты, рождая новые профессии

🔔 Напоминаем, что с 8 августа 2024 действует закон о развитии креативных индустрий в РФ (№ 330-ФЗ).

2️⃣ Образование и кадры

Участники дискуссии определили 3 главных тренда:
• Персонализация обучения с ИИ
• Спрос на ИИ-специалистов во всех отраслях
• ИИ в рекрутинге: от анализа резюме до подбора вакансий

🗣«СПбГУ готов создать образовательные программы по ИИ под запросы отрасли. Будущее за специалистами со знанием ИИ», — К. Дорожкин

💡 Мысль дня: «Человек из процессов полностью не исчезнет: вместо обычных специалистов придут специалисты со знанием ИИ»

Полную версию новости читайте на нашем сайте, подписывайтесь на наш Телеграм-канал и следите за новостями!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🏆3🤝3
ГаллюцинацИИ: когда ИИ видит то, чего нет

Почему искусственный интеллект иногда «сходит с ума» и как это влияет на нашу жизнь? Узнаем в рубрике #научпоп.

🤪«Галлюцинации ИИ» — это ошибки и неточности в работе нейронных сетей, когда они выдают неверную или несуществующую информацию. Для обычного человека такие ошибки могут показаться смешными, но для бизнес-процессов и общества в целом они могут принести много негативных последствий.

Какие проблемы могут возникать?

💠 Непредсказуемые результаты
ИИ может неожиданно выдать абсурдный ответ. Процесс «мышления» остается непрозрачным даже для разработчиков, поэтому невозможно понять, почему система выбрала именно такой ответ.
• Пример: искусственный интеллект Facebook* в 2021 году удалил пост пользователя, в котором была размещена историческая фотография советских солдат и Знамени Победы, поднятого над Рейхстагом. Нейросеть решила, что такой контент нарушает правила сообщества.

💠 Дискриминация
ИИ может несправедливо оценивать людей. Зачастую причиной этому становится обучение на несбалансированных данных.
• Пример: в 2014 году Amazon использовал ИИ для оценки резюме и снизил оценки женщинам, что привело к отказам в приёме на работу.

💠 Ошибки из-за недостатка данных
ИИ требует огромных объемов информации для обучения. Сбор и хранение данных — не самая простая, дешевая и быстрая задача, однако их недостаток приводит к ошибкам в работе.
• Пример: в 2022 году ИИ не раз выписывал штрафы праворульным автомобилям за непристегнутый ремень водителя, потому что не видел достаточного количества праворульных машин.

💠 Отсутствие критического мышления
ИИ может быстро обучаться и обрабатывать большие объемы данных, но не умеет идеально воспроизводить критическое мышление человека. Нейронные сети могут сомневаться в информации и выявлять ошибки, но иногда они просто «верят» в неверные факты. Это особенно проявляется, когда исходный источник информации ненадежен.

💠 Уязвимость к «взлому»
Нейронные сети также уязвимы для взлома, как и любые другие системы. Их можно обмануть, если знать слабые места.
• Пример: израильские и японские ученые снизили точность распознавания лиц с помощью грима. Даже небольшие изменения в изображении могут сбить ИИ с толку.

💠 Проблемы с анатомией
Изображения людей, созданные нейросетями, часто бывают нереалистичными и странными. Это связано с тем, что нейросети не понимают строения человеческого тела.
• Пример: вместо пяти пальцев на руке человека нейросеть может изобразить шесть или четыре.

🤕Как минимизировать галлюцинации при работе с нейросетью:
• Научитесь быть более конкретными в своих запросах.
• Давайте нейросети больше входной информации, контекста.
• Проверяйте факты. Если есть ошибки, укажите на них.

💡 Галлюцинации ИИ поднимают серьёзные вопросы о надёжности и этичности использования ИИ в критически важных областях. Поэтому ИИ нуждается в постоянном обучении и контроле со стороны человека, чтобы гарантировать более точные и надежные результаты.

Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2
ИИ-детектор лжи: правда или вымысел?

🤔 Может ли искусственный интеллект распознать ложь? Разбираемся в рубрике #научпоп.

Ученые из Германии провели исследование и разработали ИИ-модель, которая значительно лучше людей обнаруживает ложь.

💠 768 участников написали по одной истинной и одной ложной, но похожей на правду истории.
💠 80% этих данных использовали для обучения алгоритма на базе языковой модели Google BERT.
💠 20% оставшихся ответов были использованы для тестирования.

💠Результат: ИИ определил ложь в 67% случаев, а человек угадал верно только в 50% случаев.

💭Чтобы изучить, как люди будут использовать этот ИИ, было проведено дополнительное исследование.
• 2040 добровольцев читали рассказы первой группы и пытались определить, где правда, а где ложь.
• Треть решила воспользоваться ИИ, который предлагался за небольшую плату.
• Причины отказа могли заключаться в скептицизме к технологии или чрезмерной уверенности в своих силах.
• Те, кто все же выбрал ИИ, почти всегда следовали его прогнозам.

💠Результат: люди, даже зная, о соотношении правды и лжи, считали ложью только 19% историй. Те, кто использовал ИИ, видели ложь в 58% случаев.

💡ИИ-детектор лжи хорошо себя показал в выявлении обмана, он может стать важным инструментом в борьбе с дезинформацией и выявления фейковых новостей. Но его применение вызывает вопросы о возможных негативных последствиях, таких как подрыв доверия и недостаточно высоких процентов точности для применения в ответственных сферах.

Читайте об интересных ИИ-технологиях и их применении на нашем сайте и в нашем Телеграм-канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👏32😁1
Как ИИ угрожает самому себе?

Сегодня интернет полон контента, созданным искусственным интеллектом — от текстов до изображений. Но что произойдет, если модели начнут обучаться на сгенерированных ими же данных? Ищем ответ в рубрике #научпоп.

💔Исследователи из Великобритании и Канады пришли к тревожному выводу: обучение на синтетических данных вызывает коллапс модели — процесс, при котором модели ИИ начинают «забывать» реальное распределение вероятностей и все хуже воспринимают мир.

🐱 Представьте себе ИИ, генерирующий изображения кошек.
• В обучающем наборе есть 90 желтых и 10 голубых кошек.
• ИИ не просто запоминает статистику, но и «подкрашивает» голубых кошек в более желтый оттенок.
• Результат? Появляются зеленые кошки!

При повторном обучении голубой цвет зеленеет, а зеленый желтеет. И через несколько циклов все кошки становятся желтыми! Это и есть «коллапс модели» — постепенное исчезновение редких признаков.

🚨 Что это значит для ИИ?
Если модели будут продолжать обучаться на синтетическом контенте, качество генеративного ИИ ухудшится. Это уже называют цифровым «загрязнением», аналогичным загрязнению пластиком в океане.

⁉️ Как предотвратить коллапс?
• Создать чистый датасет, который будет состоять только из данных, созданных человеком.
• Использовать новый набор данных, свободных от синтетических материалов.

Но пока этот процесс осложнен отсутствием инструментов для массовой разметки и фильтрации синтетического контента.

💡 Важно понимать, что качество данных — ключ к развитию искусственного интеллекта.

Следите за обновлениями на нашем сайте и в нашем Телеграм-канале, чтобы быть в курсе последних новостей о развитии и вопросах искусственного интеллекта!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👏3😁2
🤖Приглашаем на большой семинар, посвященный AGI

9 октября | 18:00 | Центр ИИ СПбГУ (Кадетская линия, 1-2, схема прохода, продублировали в комментариях)

Мы живем в эпоху больших языковых моделей (LLM), и каждый день модели развиваются, преображаются, учатся чему-то новому и дают пользователям больше возможностей. Теперь многие исследователи считают, что создание настоящего сильного ИИ (AGI) уже не за горами.

🗣 С докладом «Мечтаем ли мы об AGI? Последние новости, ожидания и возможности» выступит Сергей Игоревич Николенко — д.ф.-м.н., с.н.с. ПОМИ РАН, доцент ФМКН СПбГУ, Head of AI компании Synthesis AI, автор более 200 публикаций, книг, в числе которых бестселлер «Глубокое обучение» (Питер, 2018).

На семинаре мы обсудим:
• Современные модели ИИ, появляющиеся в новостях
• Возможные сроки появления AGI, как мы об этом узнаем и готовы ли мы к этому
• Нужно ли нам бояться AGI, и если да, то чего именно

Семинар будет интересен как профессионалам в сфере ИИ, так и всем, кто только начинает разбираться в технологиях.

🔗Если у вас нет пропуска на территорию университета, пройдите, пожалуйста, регистрацию.

Остались вопросы? Задавайте их в комментариях. Ждем вас на семинаре!

О других мероприятиях в Центре ИИ в октябре можно узнать на нашем сайте.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥52
Нобелевка-2024: физика ИИ🎓

Нобелевскую премию по физике 2024 года получили Джон Хопфилд и Джеффри Хинтон за работы в области машинного обучения нейросетей. Их исследования, начатые более 40 лет назад, стали фундаментом современного ИИ.

🤔 Сеть Хопфилда – особый тип нейронной сети, запоминающей и восстанавливающей изображения. Каждый нейрон – пиксель, черный (0) или белый (1). Сеть «запоминает» изображение как состояние с минимальной «энергией». При получении нового изображения она пытается превратить его в запомненное, меняя пиксели по одному. Процесс продолжается до достижения минимальной энергии — так сеть распознает образы, словно собирая пазл.

🤔 Хинтон создал «машину Больцмана», улучшив сеть Хопфилда. Она самостоятельно учится распознавать элементы в данных, используя принципы статистической физики. Этот метод стал основой глубокого обучения в современных нейросетях. Хинтона называют «крестным отцом глубокого обучения». Он также участвовал в разработке алгоритма обратного распространения ошибки, что возродило интерес к нейросетям в 1980-х.

💡 Эти подходы позволили создать самообучающиеся нейросети. Поэтому современный ИИ способен решать сложные задачи вроде распознавания речи или генерации изображений.

⁉️ Хотя исследования по ИИ ближе к математике, Нобелевский комитет отметил эти достижения премией по физике, подчеркнув междисциплинарность науки и важность ИИ для будущего.

Самые интересные события из мира ИИ освещаем на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥3👾2
Фантазия, ставшая реальностью: ИИ в 20-ом веке 🏪

В 21-ом веке ИИ стал частью нашей повседневной жизни, но задумывались ли вы когда-нибудь, как все начиналось? В 1956 году термин «искусственный интеллект» прозвучал впервые, а его история началась еще раньше.

🌱Зарождение идеи (1950-е годы)
Научная фантастика познакомила мир с концепцией искусственно интеллектуальных роботов. Алан Тьюринг опубликовал статью «Вычислительные машины и разум» (1950), где обсуждал возможность создания интеллектуальных машин и методы проверки их возможностей. В 1955 году был создан «Логический Теоретик» - программа, имитирующая навыки решения проблем человеком. В 1956 году состоялась Дартмутская конференция, где Джон Маккарти ввел термин «искусственный интеллект».

🌟«Золотой век» ИИ (1957-1974)
Улучшились алгоритмы машинного обучения, появилось государственное финансирование исследований. В 1957 году Фрэнк Розенблатт предложил модель перцептрона для распознавания образов. С 1960 года начали разрабатываться программы для автоматизации доказательства теорем.

☁️«Зима» ИИ (1974-1980)
Из-за ограничений в вычислительной мощности компьютеров и сложности решаемых задач наступил период замедления развития ИИ. Финансирование сократилось, а исследования шли медленно.

🌀Возрождение ИИ (1980-1987)
Появление новых алгоритмических инструментов и увеличение финансирования привели к возрождению интереса к ИИ. Джон Хопфилд и Дэвид Румельхарт популяризировали методы «глубокого обучения». Эдвард Фейгенбаум ввел понятие экспертных систем. Япония запустила амбициозный Компьютерный Проект Пятого Поколения (FGCP).

☁️Вторая «зима» ИИ (1987-1993)
Несмотря на некоторые успехи, многие амбициозные цели не были достигнуты. Финансирование FGCP прекратилось, и ИИ снова отошел на второй план.

💥Прорыв и практическое применение (1993-2000)
В 1997 году компьютер IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова. Также в 1997 году было реализовано программное обеспечение для распознавания речи на Windows. Появились роботы, способные распознавать и отображать эмоции (например, Kismet).

💡ИИ продолжает удивлять нас новыми достижениями, и мы учимся использовать его в самых разных сферах жизни. В Центре ИИ мы проводим исследования, разрабатываем новые алгоритмы и готовим специалистов, которые смогут создавать ИИ будущего.

Следите за новостями из мира ИИ на сайте и в рубрике #научпоп в Телеграм-канале!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3😁2
Запретить не получится

🥂 Для студентов СПбГУ официально открыли возможность пользоваться нейросетями при подготовке научных работ при условии, что «результаты, полученные с использованием инструментов /элементов искусственного интеллекта/ нейросетей, подвергнуты обучающимся проверке на достоверность, самостоятельной обработке, анализу, оценке и авторской переработке с целью включения их в ВКР с осуществлением личного творческого вклада в результаты исследования». Проще говоря - автоматизировать исследование можно, генерировать текст нельзя.

🔉 Одними из первых официально разрешили использовать нейросети в ВШЭ примерно с такой же формулировкой: в формате сноски указывать модель и назначение ее применения. Более того, преподаватели пересмотрели характер своих заданий по предметам: если нейросеть справлялась с ними успешно, то их заменяли на более творческие.

👌 Тем не менее, нужно идти еще дальше - не просто разрешать, а учить правильно пользоваться в научных целях. Учить редактировать тексты, которые генерируют модели. Учиться видеть в текстах генеративных моделей логику и этику, заложенную разработчиками. Вот, кстати, результаты свежего опроса об использовании ИИ преподавателями.

18 октября пройдет кафедральный митап «Трогаем нейросети» (окей - тематическая тусовка) совместно с Центром ИИ СПбГУ в Петербурге. В программе премудрости промптинга, создание чатбота-ассистента, новые возможности Нейропоиска от Яндекс, кейсы Делового Петербурга и демо сервиса GiveMePublic. Без смс, но с регистрацией. Никакого онлайна, только хард реалити.

#ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥1
В Центре ИИ СПбГУ выступит гость из Финляндии

В рамках очередного научного семинара выступит Иван Ломакин, исследователь из Aalto University с докладом «Коллективное поведение живых когнитивных систем».

Доклад спикера будет интересен специалистам из любой сферы науки и вот почему:

Одним из подходов к рассмотрению общества может быть определение его как когнитивной живой сети с общей чертой — агентом (элементом системы, несущим информацию).

Таким образом, оно может следовать принципам описывающим когнитивные, бессознательные модели поведения. Поведение всей системы может быть неизменным независимо от сложности элемента (клетки, муравья или человека). Взаимодействие элементов в таких системах и обмен информацией могут рассматриваться как ”жидкий мозг” и существенно влиять на поведение системы.

В докладе будут описаны промежуточные результаты проекта, призванного на примере сообщества муравьёв объединить статистическую физику, поведение сложных систем, биологию и социальные науки.


Цель проекта — создать модель, способную предсказывать динамическое поведение когнитивных живых сетей.

О том, как управлять муравьями и не только, 16 октября, в 18:00 по адресу Кадетская линия, 1-2.

Подробности о встрече
👍7🔥3👏3
Ищите готовые промты?

Вот ресурсы, где вы найдете тысячи готовых промтов под любую задачу:

1️⃣ PromptBase - маркетплейс готовых промтов.

2️⃣ Awesome ChatGPT Prompts - репозиторий на GitHub с коллекцией промтов.

3️⃣ FlowGPT - платформа для обмена и обсуждения промтов с идеями и советами.

4️⃣ PromptHero - готовые промты для моделей генерирующих изображения.

5️⃣ PromptPerfect - инструмент для улучшения промтов.

Готовые промты подойдут для простых генераций, таких как пруфридинг. Однако чем ближе мы знакомимся с нейросетями и чем серьезнее ставим им задачки, тем больше процесс промтинга превращается в творчество, в котором мы — автор.

У каждого свой стиль общения с чат-ботами, но в промтинжениринге есть правила, которые 100% сделают результат лучше. Учиться этим правилам мы будем 22 октября, на мероприятии, которое совсем скоро анонсируем!

🤔 Как правильно «промт» или «промпт»?

Следите за новостями в мире ИИ на нашем сайте и в Телеграм-канале! #научпоп
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥43
This media is not supported in your browser
VIEW IN TELEGRAM
🔥6
🔥 Прямое включение с научного семинара!

Прямо сейчас в Центре ИИ СПбГУ Иван Ломакин выступает с докладом «Коллективное поведение живых когнитивных систем».

🌱Спикер поделился с аудиторией опытом заведения личной муравьиной колонии для проведения исследования.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7🏆3🤝31