Forwarded from Proglib.academy | IT-курсы
🔢 Математика для Data Science: необходимый минимум
Данные стали новой нефтью, а науку о данных Harvard Business Review назвал самой перспективной профессией 21 века. Для работы в сфере Data Science необходима математика: она позволяет извлекать смысл из огромных массивов информации и принимать обоснованные решения.
Расскажем, какие разделы математики нужно знать для успешного старта в нашей статье:
🔗 Ссылка на статью
Данные стали новой нефтью, а науку о данных Harvard Business Review назвал самой перспективной профессией 21 века. Для работы в сфере Data Science необходима математика: она позволяет извлекать смысл из огромных массивов информации и принимать обоснованные решения.
Расскажем, какие разделы математики нужно знать для успешного старта в нашей статье:
🔗 Ссылка на статью
В каких случаях стоит использовать SVM с ядерным трюком?
Есть несколько ситуаций, в которых это будет хорошим решением:
▪️Нелинейно разделимые данные.
▪️Сложные пространственные структуры.
Ядра позволяют преобразовать сложные структуры данных в более высокоразмерное пространство, где они могут быть линейно разделимы.
▪️Малая размерность пространства признаков.
При небольшом количестве признаков использование ядерного трюка помогает создать более сложные разделяющие поверхности без явного добавления новых признаков.
#машинное_обучение
Есть несколько ситуаций, в которых это будет хорошим решением:
▪️Нелинейно разделимые данные.
▪️Сложные пространственные структуры.
Ядра позволяют преобразовать сложные структуры данных в более высокоразмерное пространство, где они могут быть линейно разделимы.
▪️Малая размерность пространства признаков.
При небольшом количестве признаков использование ядерного трюка помогает создать более сложные разделяющие поверхности без явного добавления новых признаков.
#машинное_обучение
Что такое elastic net в контексте регуляризации?
Этот метод переводят как эластичная сеть. Суть его заключается в комбинации двух видов регуляризации: L1 (Lasso) и L2 (Ridge). Это позволяет использовать преимущества обеих техник, уменьшая коэффициенты моделей и предотвращая переобучение. Elastic net особенно полезен при работе с данными, где существует сильная корреляция между признаками, так как он может автоматически выбирать важные признаки и отбрасывать незначительные.
#машинное_обучение
Этот метод переводят как эластичная сеть. Суть его заключается в комбинации двух видов регуляризации: L1 (Lasso) и L2 (Ridge). Это позволяет использовать преимущества обеих техник, уменьшая коэффициенты моделей и предотвращая переобучение. Elastic net особенно полезен при работе с данными, где существует сильная корреляция между признаками, так как он может автоматически выбирать важные признаки и отбрасывать незначительные.
#машинное_обучение
💬 Опрос для тех, кто уже проходил собеседования.
Задавали ли вам вопросы, на которые вы не смогли ответить? Если вы помните такие вопросы, то делитесь ими в комментариях👇
Задавали ли вам вопросы, на которые вы не смогли ответить? Если вы помните такие вопросы, то делитесь ими в комментариях👇
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
Как выбрать порог для модели классификации?
Выбор порога для модели классификации зависит от конкретной задачи. Можно перечислить следующие используемые методы:
▪️Самое простое решение — взять в качестве порогового значения 0.5. Это будет означать, что если вероятность принадлежности объекта к положительному классу выше 50%, то объект будет классифицирован как положительный.
▪️Использовать ROC-кривую (Receiver Operating Characteristic) и значение AUC (Area Under the Curve), чтобы выбрать порог, который оптимизирует соотношение между истинно положительными и ложноположительными результатами.
▪️Оптимизировать порог на основе Precision-Recall кривой. Это особенно полезно для несбалансированных наборов данных, где важен баланс между точностью (Precision) и полнотой (Recall).
▪️Рассмотреть специфические бизнес-требования и контекст задачи. Например, в задачах медицинской диагностики может быть важно минимизировать ложноотрицательные результаты, а в задачах обнаружения мошенничества — ложноположительные.
▪️Проводить тестирование на валидационной выборке, чтобы понять, как различные пороги влияют на производительность модели в условиях, близких к реальным.
#машинное_обучение
Выбор порога для модели классификации зависит от конкретной задачи. Можно перечислить следующие используемые методы:
▪️Самое простое решение — взять в качестве порогового значения 0.5. Это будет означать, что если вероятность принадлежности объекта к положительному классу выше 50%, то объект будет классифицирован как положительный.
▪️Использовать ROC-кривую (Receiver Operating Characteristic) и значение AUC (Area Under the Curve), чтобы выбрать порог, который оптимизирует соотношение между истинно положительными и ложноположительными результатами.
▪️Оптимизировать порог на основе Precision-Recall кривой. Это особенно полезно для несбалансированных наборов данных, где важен баланс между точностью (Precision) и полнотой (Recall).
▪️Рассмотреть специфические бизнес-требования и контекст задачи. Например, в задачах медицинской диагностики может быть важно минимизировать ложноотрицательные результаты, а в задачах обнаружения мошенничества — ложноположительные.
▪️Проводить тестирование на валидационной выборке, чтобы понять, как различные пороги влияют на производительность модели в условиях, близких к реальным.
#машинное_обучение
В чём разница между первичным (primary) и внешним (foreign) ключами в SQL?
▪️ Первичный ключ (primary key) — это уникальный идентификатор каждой записи в таблице. В таблице может быть только один первичный ключ, но он может состоять из нескольких столбцов (составной ключ). Значения в первичном ключе не могут быть NULL, и они должны быть уникальными.
▪️ Внешний ключ (foreign key) — это столбец или группа столбцов, которые создают связь между двумя таблицами. Внешний ключ в одной таблице ссылается на первичный ключ в другой таблице, обеспечивая целостность данных. В таблице может быть несколько внешних ключей.
#sql
▪️ Первичный ключ (primary key) — это уникальный идентификатор каждой записи в таблице. В таблице может быть только один первичный ключ, но он может состоять из нескольких столбцов (составной ключ). Значения в первичном ключе не могут быть NULL, и они должны быть уникальными.
▪️ Внешний ключ (foreign key) — это столбец или группа столбцов, которые создают связь между двумя таблицами. Внешний ключ в одной таблице ссылается на первичный ключ в другой таблице, обеспечивая целостность данных. В таблице может быть несколько внешних ключей.
#sql
Какие разновидности градиентного спуска вы знаете?
Можно перечислить три разновидности.
1️⃣ Пакетный градиентный спуск (Batch Gradient Descent)
При таком подходе градиенты рассчитываются на основе всей обучающей выборки. Пакетный градиентный спуск гарантирует движение в направлении истинного градиента, но может быть очень медленным для больших наборов данных.
2️⃣ Стохастический градиентный спуск (Stochastic Gradient Descent, SGD)
Этот метод использует только один случайный пример из обучающей выборки для расчёта градиента на каждом шаге. Это делает процесс обучения более шумным, но также значительно ускоряет его и позволяет выходить из локальных минимумов.
3️⃣ Мини-пакетный градиентный спуск (Mini-Batch Gradient Descent)
Этот метод представляет собой компромисс между пакетным и стохастическим градиентным спуском. Он использует небольшую случайную подвыборку данных (мини-пакет) для расчёта градиента на каждом шаге. Это позволяет ускорить обучение, сохраняя при этом устойчивость.
#машинное_обучение
Можно перечислить три разновидности.
1️⃣ Пакетный градиентный спуск (Batch Gradient Descent)
При таком подходе градиенты рассчитываются на основе всей обучающей выборки. Пакетный градиентный спуск гарантирует движение в направлении истинного градиента, но может быть очень медленным для больших наборов данных.
2️⃣ Стохастический градиентный спуск (Stochastic Gradient Descent, SGD)
Этот метод использует только один случайный пример из обучающей выборки для расчёта градиента на каждом шаге. Это делает процесс обучения более шумным, но также значительно ускоряет его и позволяет выходить из локальных минимумов.
3️⃣ Мини-пакетный градиентный спуск (Mini-Batch Gradient Descent)
Этот метод представляет собой компромисс между пакетным и стохастическим градиентным спуском. Он использует небольшую случайную подвыборку данных (мини-пакет) для расчёта градиента на каждом шаге. Это позволяет ускорить обучение, сохраняя при этом устойчивость.
#машинное_обучение
Forwarded from Proglib.academy | IT-курсы
✏️ Разбор задачи с экзамена ШАД
Условие: Подбрасываются 16 симметричных монет (вероятности орла и решки совпадают).
Найдите вероятность того, что:
1. На всех монетах выпадут орлы
2. На 6 монетах выпадут орлы, а на 10 — решки
3. Орлы выпадут хотя бы на двух монетах
Решение: Пусть 1️⃣ — число орлов после n бросков монет с вероятностью выпадения орла равной p. Тогда перед нами схема Бернулли с n=16, p=1/2. Имеем: 2️⃣
#задачи_шад
Условие: Подбрасываются 16 симметричных монет (вероятности орла и решки совпадают).
Найдите вероятность того, что:
1. На всех монетах выпадут орлы
2. На 6 монетах выпадут орлы, а на 10 — решки
3. Орлы выпадут хотя бы на двух монетах
Решение: Пусть 1️⃣ — число орлов после n бросков монет с вероятностью выпадения орла равной p. Тогда перед нами схема Бернулли с n=16, p=1/2. Имеем: 2️⃣
#задачи_шад
Что такое смещение выборки в статистике и какие виды смещения выборки существуют?
Это смещение, при котором выборка собирается таким образом, что некоторые члены целевой популяции имеют более низкую или более высокую вероятность быть отобранными по сравнению с другими.
Можно перечислить несколько видов смещения выборки:
▪️Выборка из определённой реальной области.
Например, данные опроса старшеклассников для измерения употребления подростками незаконных веществ будут смещённой выборкой, поскольку они не включает данные учеников, обучающихся на дому.
▪️Смещение при самоотборе.
Это возможно, когда группа испытуемых самостоятельно отказывается от участия в исследовании.
▪️Эффект здорового рабочего.
Возникает, когда исследуемая выборка вероятно более здорова, чем общая популяция. Например, человек в плохом состоянии здоровья вряд ли будет заниматься физических трудом.
▪️Парадокс Берксона.
Это проблема, обратная эффекту здорового рабочего. Происходит, когда исследуемая выборка отбирается из больницы и, следовательно, менее здорова, чем общая популяция.
▪️Систематическая ошибка выжившего.
Это когда отбираются только «выжившие» субъекты, и при этом игнорируются те, кто выпал из поля зрения. Например, использование данных текущих компаний для оценки делового климата игнорирует компании, которые прекратили своё существование.
#статистика
Это смещение, при котором выборка собирается таким образом, что некоторые члены целевой популяции имеют более низкую или более высокую вероятность быть отобранными по сравнению с другими.
Можно перечислить несколько видов смещения выборки:
▪️Выборка из определённой реальной области.
Например, данные опроса старшеклассников для измерения употребления подростками незаконных веществ будут смещённой выборкой, поскольку они не включает данные учеников, обучающихся на дому.
▪️Смещение при самоотборе.
Это возможно, когда группа испытуемых самостоятельно отказывается от участия в исследовании.
▪️Эффект здорового рабочего.
Возникает, когда исследуемая выборка вероятно более здорова, чем общая популяция. Например, человек в плохом состоянии здоровья вряд ли будет заниматься физических трудом.
▪️Парадокс Берксона.
Это проблема, обратная эффекту здорового рабочего. Происходит, когда исследуемая выборка отбирается из больницы и, следовательно, менее здорова, чем общая популяция.
▪️Систематическая ошибка выжившего.
Это когда отбираются только «выжившие» субъекты, и при этом игнорируются те, кто выпал из поля зрения. Например, использование данных текущих компаний для оценки делового климата игнорирует компании, которые прекратили своё существование.
#статистика
Какова разница между == и is в Python?
🔘 == проверяет равенство значений двух объектов. Он возвращает True, если объекты имеют одинаковые значения, даже если они занимают разные места в памяти.
🔘 is проверяет, указывают ли две переменные на один и тот же объект в памяти.
Рассмотрим пример:
В первом случае lst == lst[:] возвращает True, потому что срез lst[:] создаёт новый список с теми же значениями, что и у оригинального списка lst.
Во втором случае lst is lst[:] возвращает False, так как lst[:] создает новый объект в памяти, который имеет те же значения, но является другим объектом.
#python
#программирование
Рассмотрим пример:
lst = [10, 20, 20]
print(lst == lst[:]) # True
print(lst is lst[:]) # False
В первом случае lst == lst[:] возвращает True, потому что срез lst[:] создаёт новый список с теми же значениями, что и у оригинального списка lst.
Во втором случае lst is lst[:] возвращает False, так как lst[:] создает новый объект в памяти, который имеет те же значения, но является другим объектом.
#python
#программирование
Please open Telegram to view this post
VIEW IN TELEGRAM
Для чего может быть нужно снижение размерности?
Поскольку в многомерном пространстве каждый признак представляет собой одно из измерений, снижение размерности можно трактовать как уменьшение числа признаков. Для чего нам может пригодиться такое упрощение?
▪️Сокращение времени обучения.
С меньшим количеством признаков модель обучается быстрее, так как ей нужно обрабатывать меньше данных.
▪️Улучшение интерпретируемости.
Упрощённая модель с меньшим числом признаков легче поддаётся интерпретации. Это помогает лучше понять, какие именно признаки вносят основной вклад в предсказания модели.
▪️Повышение эффективности модели.
Наличие в наборе данных признаков избыточных, неинформативных или слабо информативных может понизить эффективность модели.
▪️Уменьшение вероятности переобучения.
Меньшее количество признаков снижает вероятность того, что модель будет слишком хорошо подстраиваться под тренировочные данные.
#машинное_обучение
Поскольку в многомерном пространстве каждый признак представляет собой одно из измерений, снижение размерности можно трактовать как уменьшение числа признаков. Для чего нам может пригодиться такое упрощение?
▪️Сокращение времени обучения.
С меньшим количеством признаков модель обучается быстрее, так как ей нужно обрабатывать меньше данных.
▪️Улучшение интерпретируемости.
Упрощённая модель с меньшим числом признаков легче поддаётся интерпретации. Это помогает лучше понять, какие именно признаки вносят основной вклад в предсказания модели.
▪️Повышение эффективности модели.
Наличие в наборе данных признаков избыточных, неинформативных или слабо информативных может понизить эффективность модели.
▪️Уменьшение вероятности переобучения.
Меньшее количество признаков снижает вероятность того, что модель будет слишком хорошо подстраиваться под тренировочные данные.
#машинное_обучение
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Какие критерии качества рекомендательных систем вы знаете?
▪️Полнота (Coverage)
Эта метрика показывает долю рекомендованных объектов среди всех доступных объектов. Полноту имеет смысл оценивать в различных временных интервалах, чтобы понимать, как система справляется с задачей на разных этапах своей работы.
▪️Новизна (Novelty)
Новизна измеряет, насколько новые и неизвестные объекты система предлагает пользователю. Метрика помогает избежать ситуации, когда пользователю постоянно предлагаются одни и те же или слишком популярные объекты.
▪️Разнообразие (Diversity)
Это свойство системы показывает, насколько различны объекты, которые она предлагает. Высокое разнообразие способствует долгосрочной удовлетворенности пользователей, так как они получают больше разных и интересных рекомендаций.
▪️Serendipity
Это одна из самых сложных для формализации и измерения метрик. Serendipity отражает способность системы предлагать пользователю неожиданные, но релевантные рекомендации. Оптимизация этой метрики требует тонкой настройки модели, чтобы она могла учитывать необычные предпочтения пользователя.
#машинное_обучение
▪️Полнота (Coverage)
Эта метрика показывает долю рекомендованных объектов среди всех доступных объектов. Полноту имеет смысл оценивать в различных временных интервалах, чтобы понимать, как система справляется с задачей на разных этапах своей работы.
▪️Новизна (Novelty)
Новизна измеряет, насколько новые и неизвестные объекты система предлагает пользователю. Метрика помогает избежать ситуации, когда пользователю постоянно предлагаются одни и те же или слишком популярные объекты.
▪️Разнообразие (Diversity)
Это свойство системы показывает, насколько различны объекты, которые она предлагает. Высокое разнообразие способствует долгосрочной удовлетворенности пользователей, так как они получают больше разных и интересных рекомендаций.
▪️Serendipity
Это одна из самых сложных для формализации и измерения метрик. Serendipity отражает способность системы предлагать пользователю неожиданные, но релевантные рекомендации. Оптимизация этой метрики требует тонкой настройки модели, чтобы она могла учитывать необычные предпочтения пользователя.
#машинное_обучение
Как бы вы разбили все существующие магазины компании на две группы для проверки гипотезы?
Можно использовать различные подходы. Вот некоторые:
▪️Случайное разделение.
Рандомизация помогает снизить влияние внешних факторов.
▪️Стратификация.
Если есть известные переменные (например, географическое расположение, размер города, уровень дохода), которые могут влиять на результаты, можно сначала разделить магазины на подгруппы (страты) по этим переменным.
▪️Кластеризация.
Используя методы кластеризации (например, k-means), можно разбить магазины на группы по схожести характеристик (например, объём продаж, клиентская база).
В целом, выбор метода разделения выборки зависит от цели исследования и от самих данных.
#статистика
Можно использовать различные подходы. Вот некоторые:
▪️Случайное разделение.
Рандомизация помогает снизить влияние внешних факторов.
▪️Стратификация.
Если есть известные переменные (например, географическое расположение, размер города, уровень дохода), которые могут влиять на результаты, можно сначала разделить магазины на подгруппы (страты) по этим переменным.
▪️Кластеризация.
Используя методы кластеризации (например, k-means), можно разбить магазины на группы по схожести характеристик (например, объём продаж, клиентская база).
В целом, выбор метода разделения выборки зависит от цели исследования и от самих данных.
#статистика
Самые полезные каналы для программистов в одной подборке!
Сохраняйте себе, чтобы не потерять 💾
🔥Для всех
Библиотека программиста — новости, статьи, досуг, фундаментальные темы
Книги для программистов
IT-мемы
Proglib Academy — тут мы рассказываем про обучение и курсы
Азбука айтишника — здесь мы познаем азы из мира программирования
🤖Про нейросети
Библиотека робототехники и беспилотников | Роботы, ИИ, интернет вещей
Библиотека нейрозвука | Транскрибация, синтез речи, ИИ-музыка
Библиотека нейротекста | ChatGPT, Gemini, Bing
Библиотека нейровидео | Sora AI, Runway ML, дипфейки
Библиотека нейрокартинок | Midjourney, DALL-E, Stable Diffusion
#️⃣C#
Книги для шарпистов | C#, .NET, F#
Библиотека шарписта — полезные статьи, новости и обучающие материалы по C#
Библиотека задач по C# — код, квизы и тесты
Библиотека собеса по C# — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Вакансии по C#, .NET, Unity Вакансии по PHP, Symfony, Laravel
☁️DevOps
Библиотека devops’а — полезные статьи, новости и обучающие материалы по DevOps
Вакансии по DevOps & SRE
Библиотека задач по DevOps — код, квизы и тесты
Библиотека собеса по DevOps — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
🐘PHP
Библиотека пхпшника — полезные статьи, новости и обучающие материалы по PHP
Вакансии по PHP, Symfony, Laravel
Библиотека PHP для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по PHP — код, квизы и тесты
🐍Python
Библиотека питониста — полезные статьи, новости и обучающие материалы по Python
Вакансии по питону, Django, Flask
Библиотека Python для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Python — код, квизы и тесты
☕Java
Книги для джавистов | Java
Библиотека джависта — полезные статьи по Java, новости и обучающие материалы
Библиотека Java для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Java — код, квизы и тесты
Вакансии для java-разработчиков
👾Data Science
Книги для дата сайентистов | Data Science
Библиотека Data Science — полезные статьи, новости и обучающие материалы по Data Science
Библиотека Data Science для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Data Science — код, квизы и тесты
Вакансии по Data Science, анализу данных, аналитике, искусственному интеллекту
🦫Go
Книги для Go разработчиков
Библиотека Go разработчика — полезные статьи, новости и обучающие материалы по Go
Библиотека Go для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Go — код, квизы и тесты
Вакансии по Go
🧠C++
Книги для C/C++ разработчиков
Библиотека C/C++ разработчика — полезные статьи, новости и обучающие материалы по C++
Библиотека C++ для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по C++ — код, квизы и тесты
Вакансии по C++
💻Другие каналы
Библиотека фронтендера
Библиотека мобильного разработчика
Библиотека хакера
Библиотека тестировщика
Библиотека разработчика игр | Gamedev, Unity, Unreal Engine
Вакансии по фронтенду, джаваскрипт, React, Angular, Vue
Вакансии для мобильных разработчиков
Вакансии по QA тестированию
InfoSec Jobs — вакансии по информационной безопасности
📁Чтобы добавить папку с нашими каналами, нажмите 👉сюда👈
Также у нас есть боты:
Бот с IT-вакансиями
Бот с мероприятиями в сфере IT
Мы в других соцсетях:
🔸VK
🔸YouTube
🔸Дзен
🔸Facebook *
🔸Instagram *
* Организация Meta запрещена на территории РФ
Сохраняйте себе, чтобы не потерять 💾
🔥Для всех
Библиотека программиста — новости, статьи, досуг, фундаментальные темы
Книги для программистов
IT-мемы
Proglib Academy — тут мы рассказываем про обучение и курсы
Азбука айтишника — здесь мы познаем азы из мира программирования
🤖Про нейросети
Библиотека робототехники и беспилотников | Роботы, ИИ, интернет вещей
Библиотека нейрозвука | Транскрибация, синтез речи, ИИ-музыка
Библиотека нейротекста | ChatGPT, Gemini, Bing
Библиотека нейровидео | Sora AI, Runway ML, дипфейки
Библиотека нейрокартинок | Midjourney, DALL-E, Stable Diffusion
#️⃣C#
Книги для шарпистов | C#, .NET, F#
Библиотека шарписта — полезные статьи, новости и обучающие материалы по C#
Библиотека задач по C# — код, квизы и тесты
Библиотека собеса по C# — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Вакансии по C#, .NET, Unity Вакансии по PHP, Symfony, Laravel
☁️DevOps
Библиотека devops’а — полезные статьи, новости и обучающие материалы по DevOps
Вакансии по DevOps & SRE
Библиотека задач по DevOps — код, квизы и тесты
Библиотека собеса по DevOps — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
🐘PHP
Библиотека пхпшника — полезные статьи, новости и обучающие материалы по PHP
Вакансии по PHP, Symfony, Laravel
Библиотека PHP для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по PHP — код, квизы и тесты
🐍Python
Библиотека питониста — полезные статьи, новости и обучающие материалы по Python
Вакансии по питону, Django, Flask
Библиотека Python для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Python — код, квизы и тесты
☕Java
Книги для джавистов | Java
Библиотека джависта — полезные статьи по Java, новости и обучающие материалы
Библиотека Java для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Java — код, квизы и тесты
Вакансии для java-разработчиков
👾Data Science
Книги для дата сайентистов | Data Science
Библиотека Data Science — полезные статьи, новости и обучающие материалы по Data Science
Библиотека Data Science для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Data Science — код, квизы и тесты
Вакансии по Data Science, анализу данных, аналитике, искусственному интеллекту
🦫Go
Книги для Go разработчиков
Библиотека Go разработчика — полезные статьи, новости и обучающие материалы по Go
Библиотека Go для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Go — код, квизы и тесты
Вакансии по Go
🧠C++
Книги для C/C++ разработчиков
Библиотека C/C++ разработчика — полезные статьи, новости и обучающие материалы по C++
Библиотека C++ для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по C++ — код, квизы и тесты
Вакансии по C++
💻Другие каналы
Библиотека фронтендера
Библиотека мобильного разработчика
Библиотека хакера
Библиотека тестировщика
Библиотека разработчика игр | Gamedev, Unity, Unreal Engine
Вакансии по фронтенду, джаваскрипт, React, Angular, Vue
Вакансии для мобильных разработчиков
Вакансии по QA тестированию
InfoSec Jobs — вакансии по информационной безопасности
📁Чтобы добавить папку с нашими каналами, нажмите 👉сюда👈
Также у нас есть боты:
Бот с IT-вакансиями
Бот с мероприятиями в сфере IT
Мы в других соцсетях:
🔸VK
🔸YouTube
🔸Дзен
🔸Facebook *
🔸Instagram *
* Организация Meta запрещена на территории РФ
Коротко опишите процесс обучения нейронной сети
🔹Инициализация весов
Веса в нейронной сети можно инициализировать, например, случайными значениями.
🔹Прямой проход (forward propagation)
На этом шаге входные данные последовательно проходят через все слои нейронной сети. На каждом слое происходит вычисление взвешенной суммы входных значений и применение активационной функции, в результате чего формируется предсказание модели
🔹Вычисление ошибки
Рассчитывается значение функции потерь, которое показывает, насколько предсказание сети отклоняется от истинного значения.
🔹Обратное распространение ошибки (backpropagation)
Этот этап включает в себя вычисление градиентов ошибки относительно каждого веса нейронной сети путём обратного прохождения через все слои модели, начиная с выходного слоя. В результате веса обновляются для минимизации функции потерь.
🔹Повторение процесса
Описанные шаги повторяются на каждом этапе обучения до достижения приемлемого уровня ошибки или заданного количества повторений.
#машинное_обучение
#глубокое_обучение
🔹Инициализация весов
Веса в нейронной сети можно инициализировать, например, случайными значениями.
🔹Прямой проход (forward propagation)
На этом шаге входные данные последовательно проходят через все слои нейронной сети. На каждом слое происходит вычисление взвешенной суммы входных значений и применение активационной функции, в результате чего формируется предсказание модели
🔹Вычисление ошибки
Рассчитывается значение функции потерь, которое показывает, насколько предсказание сети отклоняется от истинного значения.
🔹Обратное распространение ошибки (backpropagation)
Этот этап включает в себя вычисление градиентов ошибки относительно каждого веса нейронной сети путём обратного прохождения через все слои модели, начиная с выходного слоя. В результате веса обновляются для минимизации функции потерь.
🔹Повторение процесса
Описанные шаги повторяются на каждом этапе обучения до достижения приемлемого уровня ошибки или заданного количества повторений.
#машинное_обучение
#глубокое_обучение
Forwarded from Библиотека питониста | Python, Django, Flask
🤖🛠️ ТОП-25 опенсорсных инструментов для вашего ИИ-проекта
В этой статье мы собрали 25 лучших инструментов с открытым кодом, которые помогут вам создать ИИ-проекты, автоматизировать процессы и расширить функциональность ваших приложений.
🔗 Ссылка на статью
В этой статье мы собрали 25 лучших инструментов с открытым кодом, которые помогут вам создать ИИ-проекты, автоматизировать процессы и расширить функциональность ваших приложений.
🔗 Ссылка на статью