И еще нам тут поступил вопрос по интенсиву: а что такое машинное обучение? в чем отличие от искусственного интеллекта?
Машобуч (машинное обучение) - это часть ИИ, которая решает экспертную задачу, обучаясь на размеченном наборе данных. Вот в примере с кошками и собаками выше изображения были размечены: на них стояли метки - "кошка", "собака". Как линейная регрессия с ирисами - алгоритм берет много таких размеченных данных и выучивает, какие у них бывают типичные признаки. А потом ему можно давать неразмеченные данные - для автоматической разметки.
#база
Машобуч (машинное обучение) - это часть ИИ, которая решает экспертную задачу, обучаясь на размеченном наборе данных. Вот в примере с кошками и собаками выше изображения были размечены: на них стояли метки - "кошка", "собака". Как линейная регрессия с ирисами - алгоритм берет много таких размеченных данных и выучивает, какие у них бывают типичные признаки. А потом ему можно давать неразмеченные данные - для автоматической разметки.
#база
А у нас уже ровно 100 заявок на интенсив! 📋💐💯
Успевайте, если еще в раздумьях - заявки принимаем сегодня до 24:00. Регистрация тут.
Посты пока не пишу, готовлюсь к субботе.
Успевайте, если еще в раздумьях - заявки принимаем сегодня до 24:00. Регистрация тут.
Посты пока не пишу, готовлюсь к субботе.
Google Docs
Интенсив по Питону и машинному обучению
Приглашаем вас на бесплатный интенсив по основам языка программирования Python (первый трек) и машинному обучению (второй трек). Занятия пройдут 4 и 5 ноября 2023 г. в Институте социально-гуманитарных наук и Институте математики и компьютерных наук ТюмГУ…
Ну вот и разосланы последние письма с подтверждением участия! Увидимся с вами в субботу и воскресенье на кофе-брейках ☕ А в перерывах между ними попробуем немного покодить 😉
Информация по поводу удостоверений о повышении квалификации будет на интенсиве.
Вопросы можно задавать в комментарии к этому посту или на почту e.v.mikhalkova@utmn.ru - проверяю оперативно (если не сплю или не ем).
Информация по поводу удостоверений о повышении квалификации будет на интенсиве.
Вопросы можно задавать в комментарии к этому посту или на почту e.v.mikhalkova@utmn.ru - проверяю оперативно (если не сплю или не ем).
❤2
Расписание на оба дня интенсива:
1 урок 10:00-11:30
Кофе-брейк
2 урок 11:45-13:15
Обед
3 урок 15:00-16:30
Перерыв
4 урок 16:45-18:00
18:00-18:15 - обратная связь об интенсиве
1 урок 10:00-11:30
Кофе-брейк
2 урок 11:45-13:15
Обед
3 урок 15:00-16:30
Перерыв
4 урок 16:45-18:00
18:00-18:15 - обратная связь об интенсиве
👍8
Делюсь с вами материалами первого дня интенсива. Это ссылка на папку на гугл диске. Все файлы там.
Увидимся завтра в 10:00 в ауд. 111 по адресу ул. Перекопская, 15а (ИМИКН). Расписание занятий как сегодня.
Увидимся завтра в 10:00 в ауд. 111 по адресу ул. Перекопская, 15а (ИМИКН). Расписание занятий как сегодня.
👍9🔥2❤1
Традиционный воскресный кружочек ☺️ Ура! Мы закончили интенсив! Спасибо СоцГум и ИМиКН, что приютили в своих мега-удобных аудиториях ❤️
❤🔥9👍6
This media is not supported in your browser
VIEW IN TELEGRAM
😍4👍2
Прошу прощения, до сих пор не финализировала ноутбук со второго дня школы. Дел навалилось. Завтра все будет +рассылка на почту
❤11
Ну все, письма разосланы! Завтра продолжу постить контент по плану - у меня осталось немного годноты и незакрытых гештальтов с октября. И потом будет план по публикациям на ноябрь! Всем спать... 🌙🥱
🕊8🔥1🎉1💩1
Гештальт 1: кружочки на тему "Что делать, если вы пишете на R?" 🤔
Эта тема осталась с октября и не вышла из-за рекламной кампании интенсива 😁
Python - очень популярный язык в области анализа данных, но у него есть и конкуренты, например R. Я взяла интервью у Александра, который в своих исследованиях предпочитает использовать R, а не Python.
Эта тема осталась с октября и не вышла из-за рекламной кампании интенсива 😁
Python - очень популярный язык в области анализа данных, но у него есть и конкуренты, например R. Я взяла интервью у Александра, который в своих исследованиях предпочитает использовать R, а не Python.
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥5👍1
Еще Александр программирует на Java. Правда, наша беседа ушла немного не туда... 😁
🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🔥3👍2
Если что, мы с Александром оба гуманитарии! Я закончила факультет романо-германской филологии и являюсь кандидатом филологических наук.
🔥3🤝1
На питоне Александр, кстати, тоже умеет программировать. У меня есть пруфы.
🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🔥3🤪2
This media is not supported in your browser
VIEW IN TELEGRAM
😍6
Гештальт 2. Мультиклассовая классификация
А разве классификация не всегда мультиклассовая?..
Классификация - это одна из самых популярных задач в ИИ. Суть задачи:
🚣 есть данные (фичи, параметры, иксы) и к ним есть лейблы (маркеры класса, игреки) - на них учимся различать экземпляры разных классов;
🚴 берем данные без лейблов и автоматически лейблы расставляем.
Примеры задач: выявление спама, определение класса ириса, определение цифры на изображении.
Первая задача в примерах - это задача бинарной классификации (спам - неспам). А вот остальные включают больше, чем два класса, и это может быть проблемой для алгоритма.
Вспомним, как работает линейная регрессия - нам нужно найти такую прямую, которая максимально близко пройдет рядом с точками массива (наши данные). В классификации мы представляем каждый класс каким-то случайным числом, например, 0, 1, 2 и т.д. То есть по оси X у нас измеренный признак, например, длина лепестка в сантиметрах, а по Y - 0, 1 или 2, в зависимости от того, к какому виду принадлежит цветок. Если класса всего два, признак всего один, и он дает числа для двух классов в двух разных диапазонах, то такая прямая очень чистенько показывает нам класс. Но тут есть проблэмка. Представим, что иксы (длина лепестка, например) у класса 0 лежат ближе к точке 4.5, иксы у класса 1 лежат ближе к точке 2.0, а иксы у класса 2 лежат ближе к точке 3.0. А у нас прямая. Вот и получается вот такая пикча (см. ниже). А предсказание по ней получается очень плохое: accuracy = ~0.37.
Как решить проблему многоклассовой классификации?
Вариант первый: если у нас три класса, построим три регрессии для попарного сравнения и выберем ту, которая дает лучший результат - one-versus-one (один против одного).
Вариант второй: для каждого класса объединим все точки, которые в него не входят, затем считаем регрессию и снова выбираем лучший результат - one-versus-all (один против всех).
Ну и есть еще всякие модификации, которые для базы сложноваты. А есть алгоритмы, которым что два класса, что много классов - по барабану. Например, наивный Байес.
Как всегда ноутбучек с кодом, чтобы увидеть на деле, как это работает. Там в конце даже задание есть на покодить.
ПС. Завтра будет анонс постов на ноябрь 💫
#база #notebook
А разве классификация не всегда мультиклассовая?..
Классификация - это одна из самых популярных задач в ИИ. Суть задачи:
🚣 есть данные (фичи, параметры, иксы) и к ним есть лейблы (маркеры класса, игреки) - на них учимся различать экземпляры разных классов;
🚴 берем данные без лейблов и автоматически лейблы расставляем.
Примеры задач: выявление спама, определение класса ириса, определение цифры на изображении.
Первая задача в примерах - это задача бинарной классификации (спам - неспам). А вот остальные включают больше, чем два класса, и это может быть проблемой для алгоритма.
Вспомним, как работает линейная регрессия - нам нужно найти такую прямую, которая максимально близко пройдет рядом с точками массива (наши данные). В классификации мы представляем каждый класс каким-то случайным числом, например, 0, 1, 2 и т.д. То есть по оси X у нас измеренный признак, например, длина лепестка в сантиметрах, а по Y - 0, 1 или 2, в зависимости от того, к какому виду принадлежит цветок. Если класса всего два, признак всего один, и он дает числа для двух классов в двух разных диапазонах, то такая прямая очень чистенько показывает нам класс. Но тут есть проблэмка. Представим, что иксы (длина лепестка, например) у класса 0 лежат ближе к точке 4.5, иксы у класса 1 лежат ближе к точке 2.0, а иксы у класса 2 лежат ближе к точке 3.0. А у нас прямая. Вот и получается вот такая пикча (см. ниже). А предсказание по ней получается очень плохое: accuracy = ~0.37.
Как решить проблему многоклассовой классификации?
Вариант первый: если у нас три класса, построим три регрессии для попарного сравнения и выберем ту, которая дает лучший результат - one-versus-one (один против одного).
Вариант второй: для каждого класса объединим все точки, которые в него не входят, затем считаем регрессию и снова выбираем лучший результат - one-versus-all (один против всех).
Ну и есть еще всякие модификации, которые для базы сложноваты. А есть алгоритмы, которым что два класса, что много классов - по барабану. Например, наивный Байес.
Как всегда ноутбучек с кодом, чтобы увидеть на деле, как это работает. Там в конце даже задание есть на покодить.
ПС. Завтра будет анонс постов на ноябрь 💫
#база #notebook
Google
многоклассовая_классификация.ipynb
Colaboratory notebook
👍3❤1