👍1
  Вы увеличиваете число нейронов в каждом скрытом слое вашей нейросети. Как это повлияет на смещение (bias) и разброс (variance) соответственно?
  Anonymous Quiz
    17%
    увеличится, увеличится
      
    29%
    увеличится, снизится
      
    37%
    снизится, увеличится
      
    18%
    снизится, снизится
      
    👍1
  ❤4👍2
  ✍️ Разбор задач прошедшей недели
Сегодня вспомним, что такое bias (смещение) и variance (разброс).
✅ Итак, представим, что вы каким-то образом обучили модель и хотите оценить, насколько хорошо она справляется со своей задачей предсказания целевого значения. Вы даёте ей данные и получаете некоторый результат. Теперь его можно использовать, чтобы понять некоторые вещи про модель.
Так, смещением называют матожидание разности между истинным значением и тем, что было выдано моделью. Разброс же — это дисперсия ответов модели, то есть мера того, насколько эти ответы варьируются в зависимости от данных.
Легко догадаться, что чем меньше смещение, тем более близкие к истинным результаты выдаёт модель. А чем меньше разброс, тем стабильнее модель, тем выше её обобщающая способность. Например, глубокие деревья способны безошибочно выучить обучающую выборку и потому будут иметь высокий разброс в зависимости от выборки, однако их предсказания в среднем будут точнее.
Что касается нейросети с большим числом нейронов в каждом скрытом слое, то такая модель, аналогично глубокому дереву, может зазубрить обучающую выборку, а значит иметь низкое смещение и высокий разброс.
#разбор_задач
Сегодня вспомним, что такое bias (смещение) и variance (разброс).
✅ Итак, представим, что вы каким-то образом обучили модель и хотите оценить, насколько хорошо она справляется со своей задачей предсказания целевого значения. Вы даёте ей данные и получаете некоторый результат. Теперь его можно использовать, чтобы понять некоторые вещи про модель.
Так, смещением называют матожидание разности между истинным значением и тем, что было выдано моделью. Разброс же — это дисперсия ответов модели, то есть мера того, насколько эти ответы варьируются в зависимости от данных.
Легко догадаться, что чем меньше смещение, тем более близкие к истинным результаты выдаёт модель. А чем меньше разброс, тем стабильнее модель, тем выше её обобщающая способность. Например, глубокие деревья способны безошибочно выучить обучающую выборку и потому будут иметь высокий разброс в зависимости от выборки, однако их предсказания в среднем будут точнее.
Что касается нейросети с большим числом нейронов в каждом скрытом слое, то такая модель, аналогично глубокому дереву, может зазубрить обучающую выборку, а значит иметь низкое смещение и высокий разброс.
#разбор_задач
❤2👍1
  Есть два события — A и B. Если P(A, B) (совместная вероятность) увеличивается, а P(A) уменьшается, то что из следующего верно?
  Anonymous Quiz
    18%
    P(A|B) уменьшается
      
    47%
    P(B|A) увеличивается
      
    16%
    P(B) уменьшается
      
    19%
    P(A|B) увеличивается
      
    🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
🔥1
  Какова главная причина усечения (прунинга) дерева решений?
  Anonymous Quiz
    25%
    Снизить затраты на вычисление во время тестирования
      
    15%
    Снизить затраты на хранение обученного дерева
      
    13%
    Сделать ошибку на тренировочном наборе данных меньше
      
    46%
    Сделать ошибку на тестовом наборе данных меньше
      
    Forwarded from Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
👨🎓️📊 7 мифов о профессии Data Scientist
Вокруг науки о данных возникло множество разнообразных заблуждений, мешающих освоить эту замечательную дисциплину. Развенчиваем наиболее распространённые мифы о профессии Data Scientist.
🔗 Читать статью
Вокруг науки о данных возникло множество разнообразных заблуждений, мешающих освоить эту замечательную дисциплину. Развенчиваем наиболее распространённые мифы о профессии Data Scientist.
🔗 Читать статью
🔥3
  Что лежит в переменной d?
  Anonymous Quiz
    14%
    [3 4 5 16 10]
      
    27%
    [2 4 6 8 25]
      
    10%
    [2 4 6 8 7]
      
    49%
    Ничего, выведет ошибку
      
    😁8
  Классификатор, обученный на меньшем объёме данных, с меньшей вероятностью будет переобучен.
  Anonymous Quiz
    34%
    Правда
      
    66%
    Ложь