Курс охватывает широкий спектр тем, связанных с глубоким обучением и его применением. Вот небольшой обзор:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍4
👆Немного полезной инфографики👆
👍8🌚2
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги
👉Подписаться👈
👍1
🤖🆓13 опенсорсных инструментов для ИИ-разработчиков
Готовы прокачать свои проекты? Эти 13 инструментов помогут вам не просто ускорить разработку, а сделать её по-настоящему качественной.
👉 Все инструменты перечислены в нашей статье
Готовы прокачать свои проекты? Эти 13 инструментов помогут вам не просто ускорить разработку, а сделать её по-настоящему качественной.
👉 Все инструменты перечислены в нашей статье
🎉3
💻 DeepMind выпустил HyperFormer — модель, которая улучшает качество на тяжёлом хвосте признаков с помощью гиперграфа
ML-специалисты подробно расписали, как работает метод, и рассказали про концепцию гиперграфа. Также в посте упомянуты sparse-фичи и даётся пример, с какой конкретно проблемой может помочь HyperFormer.
🔗 Читать разбор целиком
🔗 Ссылка на статью в оригинале
ML-специалисты подробно расписали, как работает метод, и рассказали про концепцию гиперграфа. Также в посте упомянуты sparse-фичи и даётся пример, с какой конкретно проблемой может помочь HyperFormer.
🔗 Читать разбор целиком
🔗 Ссылка на статью в оригинале
🔥4👍1
Media is too big
VIEW IN TELEGRAM
Это очередная часть серии видео Deep Learning. Рассказывает о том, как архитектура Transformer позволяет хранить информацию о фактах действительности.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1😍1
🛠️ Подборка материалов, чтобы изучить основные ML-фреймворки
🔹 Введение в JAX и Equinox
В статье объясняются ключевые концепции JAX, включая функциональные преобразования, такие как grad, jit и vmap.
🔹 MiniTorch
Это упрощённая версия библиотеки PyTorch, с помощью которой можно учиться создавать и обучать нейронные сети. Проект состоит из нескольких уровней сложности, начиная с простых операций и заканчивая более сложными архитектурами.
🔹 Introduction to PyTorch
А это курс от Microsoft для изучения самого PyTorch.
🔹 Intro to TensorFlow for Deep Learning
Бесплатный курс на Udacity. Нужно только зарегистрироваться.
🔹 Introduction to JAX+Flax (ноутбук)
Ноутбук также демонстрирует, как создать простую нейронную сеть.
🔹 Введение в JAX и Equinox
В статье объясняются ключевые концепции JAX, включая функциональные преобразования, такие как grad, jit и vmap.
🔹 MiniTorch
Это упрощённая версия библиотеки PyTorch, с помощью которой можно учиться создавать и обучать нейронные сети. Проект состоит из нескольких уровней сложности, начиная с простых операций и заканчивая более сложными архитектурами.
🔹 Introduction to PyTorch
А это курс от Microsoft для изучения самого PyTorch.
🔹 Intro to TensorFlow for Deep Learning
Бесплатный курс на Udacity. Нужно только зарегистрироваться.
🔹 Introduction to JAX+Flax (ноутбук)
Ноутбук также демонстрирует, как создать простую нейронную сеть.
🤩2
Даны две булевы случайные величины A и B. Мы знаем, что P(A) = 1/2, P(B) = 1/3 и P(A | не-B) = 1/4. Чему равно P(A | B)?
Anonymous Quiz
26%
1/6
15%
1/4
39%
3/4
20%
1
👍6🔥6
Forwarded from Proglib.academy | IT-курсы
Познакомьтесь с ключевыми концепциями и алгоритмами, лежащими в основе глубокого обучения, начав с самого простого структурного блока.
Please open Telegram to view this post
VIEW IN TELEGRAM
Toptal
A Deep Learning Tutorial: From Perceptrons to Deep Networks
Are you joining the growing group of developers who want to know more about Deep Learning? This introductory tutorial covers it all.
❤2
Условие: Напишите функцию, которая выполняет масштабирование признаков, используя как стандартизацию, так и нормализацию min-max. Функция должна принимать на вход 2D массив NumPy, где каждая строка представляет образец данных, а каждый столбец — признак. Она должна возвращать два 2D массива NumPy: один, масштабированный с помощью стандартизации, а другой — с нормализацией min-max. Все результаты должны быть округлены до четырёх знаков после запятой.
Пример:
вход:
data = np.array([[1, 2], [3, 4], [5, 6]])
выход:
([[-1.2247, -1.2247], [0.0, 0.0], [1.2247, 1.2247]], [[0.0, 0.0], [0.5, 0.5], [1.0, 1.0]])
Решение: смотрите на картинке выше👆
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🎉3
Forwarded from Книги для программистов
📖 От Кнута до Седжвика: классика алгоритмической литературы
Обзор лучших книг по алгоритмам для программистов всех уровней. От иллюстрированных пособий для начинающих до фундаментальных трудов для экспертов.
🔗 Читать подборку
Обзор лучших книг по алгоритмам для программистов всех уровней. От иллюстрированных пособий для начинающих до фундаментальных трудов для экспертов.
🔗 Читать подборку
🎉5👍4