Управление памятью
В данной статье автор затрагивает вопрос управления памятью. Ты узнаешь, как Python управляет памятью, когда можно довериться автоматике, а когда стоит взять инструменты в свои руки.
👉Читать статью
#статьи
В данной статье автор затрагивает вопрос управления памятью. Ты узнаешь, как Python управляет памятью, когда можно довериться автоматике, а когда стоит взять инструменты в свои руки.
👉Читать статью
#статьи
🔥18👍6
Парсинг с помощью LLM
Благодаря данной статье ты узнаешь, как современные LLM помогают автоматизировать сбор данных с веб-сайтов. В результате сводится к минимуму рутинная настройка и “подкручивание” парсеров.
👉Читать статью
#статьи
Благодаря данной статье ты узнаешь, как современные LLM помогают автоматизировать сбор данных с веб-сайтов. В результате сводится к минимуму рутинная настройка и “подкручивание” парсеров.
👉Читать статью
#статьи
👍14
FastAPI: Использование Pydantic
Продолжаем делиться циклом видео, благодаря которому ты научишься пользоваться FastAPI библиотекой. В этот раз ты научишься работать с Pydantic и описывать типы данных.
👀Смотреть видео
#видео
Продолжаем делиться циклом видео, благодаря которому ты научишься пользоваться FastAPI библиотекой. В этот раз ты научишься работать с Pydantic и описывать типы данных.
👀Смотреть видео
#видео
🔥13👍3
list.pop
list.pop() — это метод списка, который удаляет элемент по указанному индексу и возвращает его. Если индекс не указан, удаляется и возвращается последний элемент списка. Этот метод изменяет исходный список, уменьшая его длину. Если индекс выходит за границы списка, вызывается исключение IndexError. Чтобы избежать ошибки, можно проверять длину списка.
#практика
list.pop() — это метод списка, который удаляет элемент по указанному индексу и возвращает его. Если индекс не указан, удаляется и возвращается последний элемент списка. Этот метод изменяет исходный список, уменьшая его длину. Если индекс выходит за границы списка, вызывается исключение IndexError. Чтобы избежать ошибки, можно проверять длину списка.
#практика
👍25
Temporal Fusion Transformer
Temporal Fusion Transformer (TFT) — это мощная нейронная сеть для прогнозирования временных рядов, разработанная для обработки сложных данных с различными временными и статическими характеристиками. TFT сочетает в себе преимущества механизмов внимания (Attention) и рекуррентных сетей, чтобы извлекать значимые зависимости и взаимодействия в данных. Благодаря данной статье ты узнаешь о преимуществах TFT.
👉Читать статью
#статьи
Temporal Fusion Transformer (TFT) — это мощная нейронная сеть для прогнозирования временных рядов, разработанная для обработки сложных данных с различными временными и статическими характеристиками. TFT сочетает в себе преимущества механизмов внимания (Attention) и рекуррентных сетей, чтобы извлекать значимые зависимости и взаимодействия в данных. Благодаря данной статье ты узнаешь о преимуществах TFT.
👉Читать статью
#статьи
👍15
MongoDB: Обновление и удаление данных
Делимся циклом видео, благодаря которому ты научишься пользоваться MongoDB. В этот раз автор рассказывает, как обновлять, удалять, а также заменять один объект другим.
👀Смотреть видео
#видео
Делимся циклом видео, благодаря которому ты научишься пользоваться MongoDB. В этот раз автор рассказывает, как обновлять, удалять, а также заменять один объект другим.
👀Смотреть видео
#видео
👍4😁4🤣3🔥2
Ridge и Lasso
Иногда простая линейная регрессия начинает чудить: переобучается, даёт нестабильные коэффициенты, особенно если в данных много признаков или они между собой похожи. Это называется мультиколлинеарность, и лечится оно регуляризацией — техникой, которая добавляет “штраф” за слишком сложную модель. В линейной регрессии это реализуется через Ridge (L2-регуляризация) и Lasso (L1-регуляризация).
Ridge-регрессия добавляет к ошибке сумму квадратов коэффициентов. В результате модель получает штраф за то, что “раздувает” веса. Чем больше alpha, тем сильнее сжимаются веса. Маленькое значение — почти обычная линейная регрессия, большое — всё приближается к нулям.
Lasso-регрессия штрафует за модули коэффициентов. То есть она не просто сжимает веса, а может вообще сделать некоторые из них равными нулю. Это превращает Lasso в инструмент для отбора признаков: она как бы говорит «этот признак не важен — выкину его сам».
#практика
Иногда простая линейная регрессия начинает чудить: переобучается, даёт нестабильные коэффициенты, особенно если в данных много признаков или они между собой похожи. Это называется мультиколлинеарность, и лечится оно регуляризацией — техникой, которая добавляет “штраф” за слишком сложную модель. В линейной регрессии это реализуется через Ridge (L2-регуляризация) и Lasso (L1-регуляризация).
Ridge-регрессия добавляет к ошибке сумму квадратов коэффициентов. В результате модель получает штраф за то, что “раздувает” веса. Чем больше alpha, тем сильнее сжимаются веса. Маленькое значение — почти обычная линейная регрессия, большое — всё приближается к нулям.
Lasso-регрессия штрафует за модули коэффициентов. То есть она не просто сжимает веса, а может вообще сделать некоторые из них равными нулю. Это превращает Lasso в инструмент для отбора признаков: она как бы говорит «этот признак не важен — выкину его сам».
#практика
👍25🤣1
numpy.where
Функция numpy.where используется для поиска элементов в массиве, которые соответствуют определённому условию. Она возвращает индексы этих элементов или позволяет заменять их на другие значения. Благодаря данной статье ты узнаешь, как пользоваться numpy.where.
👉Читать статью
#статьи
Функция numpy.where используется для поиска элементов в массиве, которые соответствуют определённому условию. Она возвращает индексы этих элементов или позволяет заменять их на другие значения. Благодаря данной статье ты узнаешь, как пользоваться numpy.where.
👉Читать статью
#статьи
👍7
FastAPI: HTTP-запросы
Продолжаем делиться циклом видео, благодаря которому ты научишься пользоваться FastAPI библиотекой. В этот раз ты научишься обрабатывать различные HTTP-запросы: get, post, put, delete.
👀Смотреть видео
#видео
Продолжаем делиться циклом видео, благодаря которому ты научишься пользоваться FastAPI библиотекой. В этот раз ты научишься обрабатывать различные HTTP-запросы: get, post, put, delete.
👀Смотреть видео
#видео
👍9🔥3
NumPy: concatenate
Функция numpy.concatenate() используется для объединения массивов вдоль существующих осей. Это позволяет объединять несколько массивов NumPy в один массив. Мы передаем последовательность массивов, которые хотим объединить, в функцию concatenate() вместе с осью. Если ось не передана явно, она принимается за 0.
#практика #numpy
Функция numpy.concatenate() используется для объединения массивов вдоль существующих осей. Это позволяет объединять несколько массивов NumPy в один массив. Мы передаем последовательность массивов, которые хотим объединить, в функцию concatenate() вместе с осью. Если ось не передана явно, она принимается за 0.
#практика #numpy
👍20🔥1
FastAPI VS Litestar
В данной статье автор сравнивает два фреймворка для микросервисов: FastAPI и Litestar. Ты узнаешь о плюсах и минусах каждого. Также продемонстрировано сравнение производительности и примеры валидации.
👉Читать статью
#статьи
В данной статье автор сравнивает два фреймворка для микросервисов: FastAPI и Litestar. Ты узнаешь о плюсах и минусах каждого. Также продемонстрировано сравнение производительности и примеры валидации.
👉Читать статью
#статьи
1👍15🔥1
MongoDB: Объединение запросов
Делимся циклом видео, благодаря которому ты научишься пользоваться MongoDB. В этот раз автор рассказывает, как объединять запросы. В этом тебе поможет Bulk Write.
👀Смотреть видео
#видео
Делимся циклом видео, благодаря которому ты научишься пользоваться MongoDB. В этот раз автор рассказывает, как объединять запросы. В этом тебе поможет Bulk Write.
👀Смотреть видео
#видео
👍7
ElasticNet
Минус Lasso в том, что если признаки сильно скоррелированы между собой, она может случайно “выбрать” только один из них и проигнорировать остальные, даже если они тоже информативны. В таких случаях часто используют ElasticNet — это гибрид L1 и L2.
Параметр l1_ratio регулирует баланс между L1 и L2. 0.0 — чистый Ridge. 1.0 — чистый Lasso. 0.5 — пополам.
#практика
Минус Lasso в том, что если признаки сильно скоррелированы между собой, она может случайно “выбрать” только один из них и проигнорировать остальные, даже если они тоже информативны. В таких случаях часто используют ElasticNet — это гибрид L1 и L2.
Параметр l1_ratio регулирует баланс между L1 и L2. 0.0 — чистый Ridge. 1.0 — чистый Lasso. 0.5 — пополам.
#практика
👍4🔥2
Разработка DHCP-сервера
DHCP (Dynamic Host Configuration Protocol) — это протокол, который автоматически раздаёт IP-адреса устройствам в сети. Когда компьютер или телефон подключается к Wi-Fi, ему нужен IP-адрес, чтобы общаться с другими устройствами. Вместо того чтобы вручную настраивать адреса, DHCP-сервер автоматически выдаёт их. Благодаря данной статье ты узнаешь, как создать собственный DHCP-сервер на Python.
👉Читать статью
#статьи
DHCP (Dynamic Host Configuration Protocol) — это протокол, который автоматически раздаёт IP-адреса устройствам в сети. Когда компьютер или телефон подключается к Wi-Fi, ему нужен IP-адрес, чтобы общаться с другими устройствами. Вместо того чтобы вручную настраивать адреса, DHCP-сервер автоматически выдаёт их. Благодаря данной статье ты узнаешь, как создать собственный DHCP-сервер на Python.
👉Читать статью
#статьи
👍28
OpenSearch как сервис
OpenSearch — это инструмент для быстрого поиска и аналитики данных.Он помогает искать, фильтровать и анализировать большие объемы информации. Например, логи, товары в интернет-магазине или данные с веб-сайта. В данной статье автор рассказывает, как развернуть кластеры OpenSearch за несколько минут и начать с ней работать в Python.
👉Читать статью
#статьи
OpenSearch — это инструмент для быстрого поиска и аналитики данных.Он помогает искать, фильтровать и анализировать большие объемы информации. Например, логи, товары в интернет-магазине или данные с веб-сайта. В данной статье автор рассказывает, как развернуть кластеры OpenSearch за несколько минут и начать с ней работать в Python.
👉Читать статью
#статьи
👍6🔥1🤣1
Дерево решений: Часть 1
Дерево решений — это модель, которая принимает решения, двигаясь по ветвям дерева от корня к листьям. На каждом узле происходит проверка: например, «если возраст > 30 — идём направо, иначе налево». Так шаг за шагом дерево делит данные на подгруппы, пока не придёт к финальному решению: в регрессии — числовое значение, в классификации — метка класса.
Модель выглядит почти как блок-схема, и ты можешь буквально прочитать, почему она приняла то или иное решение. В Python всё это делается через sklearn.tree.DecisionTreeClassifier или DecisionTreeRegressor.
Параметр max_depth — это ограничение на глубину дерева. Без него дерево может продолжать делиться, пока не переобучится подчистую. Всегда важно следить за глубиной, количеством листьев (max_leaf_nodes) и минимальным числом объектов в узле (min_samples_split) — это всё способы контроля переобучения.
#практика
Дерево решений — это модель, которая принимает решения, двигаясь по ветвям дерева от корня к листьям. На каждом узле происходит проверка: например, «если возраст > 30 — идём направо, иначе налево». Так шаг за шагом дерево делит данные на подгруппы, пока не придёт к финальному решению: в регрессии — числовое значение, в классификации — метка класса.
Модель выглядит почти как блок-схема, и ты можешь буквально прочитать, почему она приняла то или иное решение. В Python всё это делается через sklearn.tree.DecisionTreeClassifier или DecisionTreeRegressor.
Параметр max_depth — это ограничение на глубину дерева. Без него дерево может продолжать делиться, пока не переобучится подчистую. Всегда важно следить за глубиной, количеством листьев (max_leaf_nodes) и минимальным числом объектов в узле (min_samples_split) — это всё способы контроля переобучения.
#практика
👍19