Популярные системы сборки — коротко и по существу
C / C++
• Make — дед всех сборщиков. Просто, но больно на больших проектах.
• CMake — стандарт для C++, генерирует подо всё, от Visual Studio до Ninja. Настроил один раз — и забыл.
• Ninja — летает. Минимализм и скорость, но без генератора не обойтись.
• Meson — современный и понятный. Пишешь конфиг, а остальное делает сам.
Java / Kotlin
• Maven — строгий, надёжный, как бухгалтер. XML, но зато стабильно.
• Gradle — гибкий и умный. Kotlin DSL, кэш, плагины — идеально для Android.
• Ant — старичок. Всё вручную, без зависимостей. Только если проект с археологических времён.
JavaScript / TypeScript
• npm scripts — минимализм. Для мелких задач — норм, для монстров — нет.
• Webpack — тяжёлый, но делает всё. Настроить — целое приключение.
• Vite — быстрый, лёгкий, без боли. Для фронтенда XXI века.
• Rollup — идеален для библиотек, чистая сборка без мусора.
• esbuild / Parcel — “включил и поехал”. Молниеносные и почти без настроек.
Python
• setuptools — классика. Работает, но старомодно.
• Poetry — современный подход: зависимости, сборка, публикация — всё в одном.
Rust
• Cargo — лучший пример, как должна выглядеть система сборки. Просто, быстро, всё встроено.
Go
• go build — минимализм в чистом виде. Один файл — одна команда — готово.
Кросс-языковые
• Bazel — для монореп и гигантов вроде Google. Кэш, параллель, масштаб.
• Buck / Pants / Please — те же идеи, другие акценты. Подходят, если у тебя тысяча микросервисов.
C / C++
• Make — дед всех сборщиков. Просто, но больно на больших проектах.
• CMake — стандарт для C++, генерирует подо всё, от Visual Studio до Ninja. Настроил один раз — и забыл.
• Ninja — летает. Минимализм и скорость, но без генератора не обойтись.
• Meson — современный и понятный. Пишешь конфиг, а остальное делает сам.
Java / Kotlin
• Maven — строгий, надёжный, как бухгалтер. XML, но зато стабильно.
• Gradle — гибкий и умный. Kotlin DSL, кэш, плагины — идеально для Android.
• Ant — старичок. Всё вручную, без зависимостей. Только если проект с археологических времён.
JavaScript / TypeScript
• npm scripts — минимализм. Для мелких задач — норм, для монстров — нет.
• Webpack — тяжёлый, но делает всё. Настроить — целое приключение.
• Vite — быстрый, лёгкий, без боли. Для фронтенда XXI века.
• Rollup — идеален для библиотек, чистая сборка без мусора.
• esbuild / Parcel — “включил и поехал”. Молниеносные и почти без настроек.
Python
• setuptools — классика. Работает, но старомодно.
• Poetry — современный подход: зависимости, сборка, публикация — всё в одном.
Rust
• Cargo — лучший пример, как должна выглядеть система сборки. Просто, быстро, всё встроено.
Go
• go build — минимализм в чистом виде. Один файл — одна команда — готово.
Кросс-языковые
• Bazel — для монореп и гигантов вроде Google. Кэш, параллель, масштаб.
• Buck / Pants / Please — те же идеи, другие акценты. Подходят, если у тебя тысяча микросервисов.
Кодеки — это устройства или программы, которые сжимают и распаковывают мультимедийные данные, такие как аудио и видео. Название «кодек» происходит от слов coder-decoder — «кодер-декодер».
Вот как они работают:
1. Сжатие (кодирование)
Когда вы записываете видео или аудио, исходные данные занимают очень много места. Например, одна минута видео в высоком разрешении без сжатия может занимать гигабайты.
Кодек уменьшает размер файла двумя основными способами:
a) Потеря информации (lossy)
• Примеры: MP3 (аудио), H.264 (видео), AAC (аудио)
• Убираются «неважные» детали, которые человеческое ухо или глаз практически не замечает.
• Преимущество: файлы маленькие
• Недостаток: при многократной перезаписи качество теряется
b) Без потерь (lossless)
• Примеры: FLAC (аудио), PNG (изображения), FFV1 (видео)
• Сжимается файл без потери качества, полностью можно восстановить оригинал
• Преимущество: качество 100%
• Недостаток: сжатие не такое сильное, как у lossy
2. Хранение
После сжатия данные сохраняются в файле или потоке, например
Файл содержит кодированные данные и иногда дополнительную информацию (метаданные, субтитры, обложки и т.д.).
3. Воспроизведение (декодирование)
Когда вы воспроизводите файл, кодек раскодирует его обратно в форму, которую может обработать динамик или экран:
• Кодек читает сжатые данные
• Преобразует их в поток аудио/видео
• Отправляет на устройство вывода
Если кодек не установлен, файл не откроется, потому что система не знает, как интерпретировать данные.
4. Примеры популярных кодеков
Видео: H.264, H.265 (HEVC), VP9, AV1
Аудио: MP3, AAC, Opus, FLAC
Вот как они работают:
1. Сжатие (кодирование)
Когда вы записываете видео или аудио, исходные данные занимают очень много места. Например, одна минута видео в высоком разрешении без сжатия может занимать гигабайты.
Кодек уменьшает размер файла двумя основными способами:
a) Потеря информации (lossy)
• Примеры: MP3 (аудио), H.264 (видео), AAC (аудио)
• Убираются «неважные» детали, которые человеческое ухо или глаз практически не замечает.
• Преимущество: файлы маленькие
• Недостаток: при многократной перезаписи качество теряется
b) Без потерь (lossless)
• Примеры: FLAC (аудио), PNG (изображения), FFV1 (видео)
• Сжимается файл без потери качества, полностью можно восстановить оригинал
• Преимущество: качество 100%
• Недостаток: сжатие не такое сильное, как у lossy
2. Хранение
После сжатия данные сохраняются в файле или потоке, например
.mp3, .mp4, .mkv.Файл содержит кодированные данные и иногда дополнительную информацию (метаданные, субтитры, обложки и т.д.).
3. Воспроизведение (декодирование)
Когда вы воспроизводите файл, кодек раскодирует его обратно в форму, которую может обработать динамик или экран:
• Кодек читает сжатые данные
• Преобразует их в поток аудио/видео
• Отправляет на устройство вывода
Если кодек не установлен, файл не откроется, потому что система не знает, как интерпретировать данные.
4. Примеры популярных кодеков
Видео: H.264, H.265 (HEVC), VP9, AV1
Аудио: MP3, AAC, Opus, FLAC
Сигналы прерывания в зависимости от источника возникновения делятся на два основных типа:
1. Внутренние (или программные, синхронные) прерывания — возникают внутри процессора в результате выполнения инструкций программы.
Примеры:
• Деление на ноль;
• Ошибка страницы (page fault);
• Выполнение специальной инструкции программного прерывания (например, INT в x86);
• Переполнение арифметической операции.
2. Внешние (или аппаратные, асинхронные) прерывания — возникают вне процессора, от внешних устройств или по внешним сигналам.
Примеры:
• Сигнал от таймера;
• Сигнал от клавиатуры, мыши, сетевого адаптера и других периферийных устройств;
• Аппаратный сброс.
Иногда внешние прерывания дополнительно подразделяют на:
• Маскируемые — могут быть временно запрещены программно (например, с помощью флага разрешения прерываний).
• Немаскируемые (NMI — Non-Maskable Interrupts) — всегда обрабатываются, даже если остальные прерывания запрещены (обычно для сигналов аварийных состояний).
1. Внутренние (или программные, синхронные) прерывания — возникают внутри процессора в результате выполнения инструкций программы.
Примеры:
• Деление на ноль;
• Ошибка страницы (page fault);
• Выполнение специальной инструкции программного прерывания (например, INT в x86);
• Переполнение арифметической операции.
2. Внешние (или аппаратные, асинхронные) прерывания — возникают вне процессора, от внешних устройств или по внешним сигналам.
Примеры:
• Сигнал от таймера;
• Сигнал от клавиатуры, мыши, сетевого адаптера и других периферийных устройств;
• Аппаратный сброс.
Иногда внешние прерывания дополнительно подразделяют на:
• Маскируемые — могут быть временно запрещены программно (например, с помощью флага разрешения прерываний).
• Немаскируемые (NMI — Non-Maskable Interrupts) — всегда обрабатываются, даже если остальные прерывания запрещены (обычно для сигналов аварийных состояний).
Web scraping
Скрапинг — стандартная процедура для сбора необходимой информации. Для этих целей применяется специализированное программное обеспечение.
С помощью веб-скрейпинга информация собирается в автоматическом режиме по заданным параметрам, структурируется и записывается в файл для дальнейшего анализа.
Такой метод подходит для сбора статистики, стоимости различных офферов, получения данных о товарах в каталогах.
Скрапинг — стандартная процедура для сбора необходимой информации. Для этих целей применяется специализированное программное обеспечение.
С помощью веб-скрейпинга информация собирается в автоматическом режиме по заданным параметрам, структурируется и записывается в файл для дальнейшего анализа.
Такой метод подходит для сбора статистики, стоимости различных офферов, получения данных о товарах в каталогах.
Законно ли это? Если боитесь собирать данные с сайтов, то лучше не стоит, но все, что находится в открытом доступе, можно собирать.
Видеокарта (или GPU — Graphics Processing Unit) устройство, которое обрабатывает графические данные для отображения изображений на экране. Она ускоряет задачи, связанные с графикой, такими как игры, видеоредактирование, 3D-моделирование и машинное обучение. Основная задача — преобразовывать данные в визуальные пиксели, которые монитор может показать.
Основные компоненты видеокарты
Видеокарта состоит из нескольких ключевых частей, работающих вместе:
• GPU (графический процессор): Основной "мозг". Это множество ядер (сотни или тысячи), оптимизированных для параллельных вычислений. В отличие от CPU (центрального процессора), GPU лучше справляется с повторяющимися задачами, как обработка пикселей.
• Видеопамять (VRAM): Специальная память (например, GDDR6 или HBM) для хранения текстур, моделей и промежуточных данных. Она быстрая и работает независимо от оперативной памяти компьютера.
• Шина данных (PCIe): Связь с материнской платой и CPU. Через неё передаются команды и данные.
• Контроллеры и интерфейсы: Включают HDMI/DisplayPort для вывода на экран, кулеры для охлаждения и питание (через разъёмы на карте).
Как работает видеокарта: пошаговый процесс
Работа видеокарты можно описать как конвейер обработки данных. Вот упрощённая схема:
1. Получение данных: CPU отправляет задачу (например, рендеринг сцены в игре) через PCIe. Данные включают 3D-модели, текстуры и инструкции.
2. Обработка на GPU:
• Вершинный шейдер: Преобразует координаты объектов (вершин) в 3D-пространстве, применяя трансформации (вращение, масштабирование).
• Растеризация: Преобразует 3D-данные в 2D-изображение, разбивая на пиксели.
• Пиксельный (фрагментный) шейдер: Вычисляет цвет каждого пикселя, учитывая освещение, текстуры и эффекты (тени, отражения). Здесь используется параллельная обработка на множестве ядер.
• Дополнительные этапы: Могут включать постобработку (антиалиасинг, bloom) и вычисления для AI (например, в RTX-картах NVIDIA с DLSS).
3. Хранение и вывод: Результаты хранятся в VRAM, затем передаются на монитор через интерфейсы. Видеокарта может обрабатывать несколько кадров в секунду (FPS), обеспечивая плавность.
Примеры и аналогии
• Аналогия: Представьте GPU как конвейер на фабрике. CPU — менеджер, который даёт задания, а GPU — рабочие, которые быстро собирают детали (пиксели) параллельно.
• Производительность: Современные карты вроде NVIDIA RTX 40-series или AMD RX 7000-series могут обрабатывать миллиарды операций в секунду. Для сравнения, в играх видеокарта может рендерить 4K-изображение при 60 FPS, используя тысячи ядер.
Основные компоненты видеокарты
Видеокарта состоит из нескольких ключевых частей, работающих вместе:
• GPU (графический процессор): Основной "мозг". Это множество ядер (сотни или тысячи), оптимизированных для параллельных вычислений. В отличие от CPU (центрального процессора), GPU лучше справляется с повторяющимися задачами, как обработка пикселей.
• Видеопамять (VRAM): Специальная память (например, GDDR6 или HBM) для хранения текстур, моделей и промежуточных данных. Она быстрая и работает независимо от оперативной памяти компьютера.
• Шина данных (PCIe): Связь с материнской платой и CPU. Через неё передаются команды и данные.
• Контроллеры и интерфейсы: Включают HDMI/DisplayPort для вывода на экран, кулеры для охлаждения и питание (через разъёмы на карте).
Как работает видеокарта: пошаговый процесс
Работа видеокарты можно описать как конвейер обработки данных. Вот упрощённая схема:
1. Получение данных: CPU отправляет задачу (например, рендеринг сцены в игре) через PCIe. Данные включают 3D-модели, текстуры и инструкции.
2. Обработка на GPU:
• Вершинный шейдер: Преобразует координаты объектов (вершин) в 3D-пространстве, применяя трансформации (вращение, масштабирование).
• Растеризация: Преобразует 3D-данные в 2D-изображение, разбивая на пиксели.
• Пиксельный (фрагментный) шейдер: Вычисляет цвет каждого пикселя, учитывая освещение, текстуры и эффекты (тени, отражения). Здесь используется параллельная обработка на множестве ядер.
• Дополнительные этапы: Могут включать постобработку (антиалиасинг, bloom) и вычисления для AI (например, в RTX-картах NVIDIA с DLSS).
3. Хранение и вывод: Результаты хранятся в VRAM, затем передаются на монитор через интерфейсы. Видеокарта может обрабатывать несколько кадров в секунду (FPS), обеспечивая плавность.
Примеры и аналогии
• Аналогия: Представьте GPU как конвейер на фабрике. CPU — менеджер, который даёт задания, а GPU — рабочие, которые быстро собирают детали (пиксели) параллельно.
• Производительность: Современные карты вроде NVIDIA RTX 40-series или AMD RX 7000-series могут обрабатывать миллиарды операций в секунду. Для сравнения, в играх видеокарта может рендерить 4K-изображение при 60 FPS, используя тысячи ядер.
LLM расшифровывается как Large Language Model (Большая языковая модель).
Как работают LLM?
• Обучение: Модели обучаются на миллиардах слов из книг, статей, веб-сайтов и других источников. Они используют нейронные сети (часто трансформеры, как в архитектуре Transformer) для предсказания следующего слова в предложении на основе контекста.
• Размер: "Large" указывает на огромные параметры — миллиарды или триллионы весов в модели, что требует мощных компьютеров для обучения и запуска.
• Примеры технологий: Они основаны на алгоритмах вроде GPT (Generative Pre-trained Transformer), BERT (Bidirectional Encoder Representations from Transformers) или LaMDA от Google.
Ограничения
LLM могут "галлюцинировать" (генерировать неправдивую информацию), быть предвзятыми (из-за данных обучения) или требовать много ресурсов. Они не "понимают" мир как люди — это статистическое предсказание на основе паттернов.
Это тип ИИ, основанный на машинном обучении, который обучен на огромных объемах текстовых данных для понимания, генерации и обработки человеческого языка. Такие модели способны выполнять задачи, связанные с текстом, такие как ответы на вопросы, перевод, написание статей, генерация кода или даже творческие задачи (например, сочинение стихов).
Как работают LLM?
• Обучение: Модели обучаются на миллиардах слов из книг, статей, веб-сайтов и других источников. Они используют нейронные сети (часто трансформеры, как в архитектуре Transformer) для предсказания следующего слова в предложении на основе контекста.
• Размер: "Large" указывает на огромные параметры — миллиарды или триллионы весов в модели, что требует мощных компьютеров для обучения и запуска.
• Примеры технологий: Они основаны на алгоритмах вроде GPT (Generative Pre-trained Transformer), BERT (Bidirectional Encoder Representations from Transformers) или LaMDA от Google.
Ограничения
LLM могут "галлюцинировать" (генерировать неправдивую информацию), быть предвзятыми (из-за данных обучения) или требовать много ресурсов. Они не "понимают" мир как люди — это статистическое предсказание на основе паттернов.
Машинное обучение — область ИИ, где модели обучаются на данных для выполнения задач, таких как предсказание, классификация или кластеризация.
Алгоритмы ML делятся на категории: обучение с учителем, без учителя и с подкреплением.
Алгоритмы обучения с учителем:
Здесь модель обучается на размеченных данных (с входами и правильными выходами).
• Линейная регрессия: Предсказывает непрерывные значения, минимизируя ошибку между предсказанием и реальностью. Пример: прогноз цен на недвижимость на основе площади и расположения. Преимущества: простота и интерпретируемость.
• Логистическая регрессия: Классифицирует данные в бинарные категории (да/нет). Пример: определение, одобрить ли кредит по финансовым данным. Преимущества: эффективность для больших наборов данных.
• Деревья решений: Строит дерево правил на основе признаков. Пример: диагностика заболеваний по симптомам. Преимущества: легко визуализировать и интерпретировать.
• Случайный лес: Ансамбль деревьев решений для улучшения точности. Пример: классификация спама в email. Преимущества: устойчив к переобучению.
• Метод опорных векторов: Находит гиперплоскость для разделения классов. Пример: распознавание рукописных цифр. Преимущества: хорош для высокомерных данных.
• Нейронные сети (включая глубокое обучение): Многослойные модели, имитирующие мозг. Пример: распознавание изображений в компьютерном зрении. Преимущества: мощны для сложных задач, но требуют много данных.
Алгоритмы обучения без учителя:
Здесь модель находит паттерны в неразмеченных данных.
• K-средних: Группирует данные в кластеры по сходству. Пример: сегментация клиентов по покупкам. Преимущества: простота и скорость.
• Иерархическая кластеризация: Строит дерево кластеров. Пример: анализ генетических данных. Преимущества: не требует задания числа кластеров заранее.
• Метод главных компонент: Снижает размерность данных, сохраняя ключевую информацию. Пример: сжатие изображений. Преимущества: уменьшает шум и ускоряет вычисления.
Алгоритмы обучения с подкреплением:
Модель учится через взаимодействие с окружением, получая награды.
• Q-обучение: Агент учится оптимальной стратегии. Пример: обучение агента играть в шахматы или управлять роботом. Преимущества: подходит для динамических задач, как игры или автономное вождение.
Алгоритмы ML делятся на категории: обучение с учителем, без учителя и с подкреплением.
Алгоритмы обучения с учителем:
Здесь модель обучается на размеченных данных (с входами и правильными выходами).
• Линейная регрессия: Предсказывает непрерывные значения, минимизируя ошибку между предсказанием и реальностью. Пример: прогноз цен на недвижимость на основе площади и расположения. Преимущества: простота и интерпретируемость.
• Логистическая регрессия: Классифицирует данные в бинарные категории (да/нет). Пример: определение, одобрить ли кредит по финансовым данным. Преимущества: эффективность для больших наборов данных.
• Деревья решений: Строит дерево правил на основе признаков. Пример: диагностика заболеваний по симптомам. Преимущества: легко визуализировать и интерпретировать.
• Случайный лес: Ансамбль деревьев решений для улучшения точности. Пример: классификация спама в email. Преимущества: устойчив к переобучению.
• Метод опорных векторов: Находит гиперплоскость для разделения классов. Пример: распознавание рукописных цифр. Преимущества: хорош для высокомерных данных.
• Нейронные сети (включая глубокое обучение): Многослойные модели, имитирующие мозг. Пример: распознавание изображений в компьютерном зрении. Преимущества: мощны для сложных задач, но требуют много данных.
Алгоритмы обучения без учителя:
Здесь модель находит паттерны в неразмеченных данных.
• K-средних: Группирует данные в кластеры по сходству. Пример: сегментация клиентов по покупкам. Преимущества: простота и скорость.
• Иерархическая кластеризация: Строит дерево кластеров. Пример: анализ генетических данных. Преимущества: не требует задания числа кластеров заранее.
• Метод главных компонент: Снижает размерность данных, сохраняя ключевую информацию. Пример: сжатие изображений. Преимущества: уменьшает шум и ускоряет вычисления.
Алгоритмы обучения с подкреплением:
Модель учится через взаимодействие с окружением, получая награды.
• Q-обучение: Агент учится оптимальной стратегии. Пример: обучение агента играть в шахматы или управлять роботом. Преимущества: подходит для динамических задач, как игры или автономное вождение.
Распределение Пуассона для моделирования сетевых пакетов
Распределение Пуассона — простой способ описать, сколько случайных событий может произойти за определенное время. Оно подходит, когда события редкие, независимые друг от друга и происходят с постоянной средней скоростью.
В компьютерных сетях это идеально для моделирования прибытия пакетов данных — маленьких порций информации, которые передаются между устройствами.
Зачем оно нужно в сетях?
• Моделирование трафика: Представьте, что пакеты приходят на сервер, как посетители в магазин. Если в среднем приходит 5 пакетов в минуту, Пуассоновское распределение помогает предсказать, сколько их может быть в следующий раз — 3, 7 или ни одного.
• Оценка нагрузки: Оно используется в моделях очередей, чтобы понять, не "затормозится" ли сеть. Например, если пакетов слишком много, сервер может не справиться, и данные потеряются.
• Анализ проблем: В реальных сетях (как интернет или локальная сеть) пакеты прибывают случайно. Если трафик не соответствует этому распределению, это может сигнализировать о проблеме, как хакерская атака.
Простой пример
Допустим, в минуту в среднем прибывает 5 пакетов. Распределение Пуассона говорит:
• Вероятность, что прибудет ровно 3 пакета, около 14% (довольно часто).
• Вероятность, что ни одного — очень маленькая, около 0.7% (редко, потому что сеть активна).
• Среднее число пакетов всегда равно 5, а разброс тоже около 5.
Это помогает инженерам планировать сети: добавлять больше мощности, если среднее растет.
Пример кода на Python (простая симуляция)
Генерирует случайные числа пакетов и показывает среднее:
Запустите его (нужен Python с numpy: pip install numpy), и увидите, что среднее близко к 5.
Распределение Пуассона — простой способ описать, сколько случайных событий может произойти за определенное время. Оно подходит, когда события редкие, независимые друг от друга и происходят с постоянной средней скоростью.
В компьютерных сетях это идеально для моделирования прибытия пакетов данных — маленьких порций информации, которые передаются между устройствами.
Зачем оно нужно в сетях?
• Моделирование трафика: Представьте, что пакеты приходят на сервер, как посетители в магазин. Если в среднем приходит 5 пакетов в минуту, Пуассоновское распределение помогает предсказать, сколько их может быть в следующий раз — 3, 7 или ни одного.
• Оценка нагрузки: Оно используется в моделях очередей, чтобы понять, не "затормозится" ли сеть. Например, если пакетов слишком много, сервер может не справиться, и данные потеряются.
• Анализ проблем: В реальных сетях (как интернет или локальная сеть) пакеты прибывают случайно. Если трафик не соответствует этому распределению, это может сигнализировать о проблеме, как хакерская атака.
Простой пример
Допустим, в минуту в среднем прибывает 5 пакетов. Распределение Пуассона говорит:
• Вероятность, что прибудет ровно 3 пакета, около 14% (довольно часто).
• Вероятность, что ни одного — очень маленькая, около 0.7% (редко, потому что сеть активна).
• Среднее число пакетов всегда равно 5, а разброс тоже около 5.
Это помогает инженерам планировать сети: добавлять больше мощности, если среднее растет.
Пример кода на Python (простая симуляция)
Генерирует случайные числа пакетов и показывает среднее:
import numpy as np
# Среднее: 5 пакетов в минуту
lambda_rate = 5
# Симуляция 1000 минут
packets = np.random.poisson(lambda_rate, 1000)
# Среднее из симуляции
print(f"Среднее количество пакетов: {np.mean(packets):.2f}")Запустите его (нужен Python с numpy: pip install numpy), и увидите, что среднее близко к 5.
Императивное программирование: когда программа — это последовательность шагов
Императивное программирование — это самый «естественный» для человека способ описывать алгоритмы: делай раз, делай два, делай три.
Программа в этой парадигме состоит из команд, которые изменяют состояние — значения переменных, память, содержимое файлов и т. д.
Основные признаки:
• есть переменные, которые можно менять;
• есть инструкции (assignments, циклы, условия);
• программа — это последовательность действий.
Простой пример (Python)
Здесь мы явно изменяем состояние:
• создаём переменную
• увеличиваем её в цикле.
Примеры языков:
• C, C++, Java
• Python (когда используем циклы и изменяемые переменные)
• JavaScript (в императивном стиле)
Когда применять:
• Нужна высокая производительность.
• Логика естественна как последовательность операций.
• Важен контроль над состоянием: работа с памятью, сетевыми протоколами, системами реального времени.
Императивное программирование — это самый «естественный» для человека способ описывать алгоритмы: делай раз, делай два, делай три.
Программа в этой парадигме состоит из команд, которые изменяют состояние — значения переменных, память, содержимое файлов и т. д.
Основные признаки:
• есть переменные, которые можно менять;
• есть инструкции (assignments, циклы, условия);
• программа — это последовательность действий.
Простой пример (Python)
# Находим сумму чисел от 1 до n
n = 5
s = 0
for i in range(1, n + 1):
s += i
print(s) # 15Здесь мы явно изменяем состояние:
• создаём переменную
s,• увеличиваем её в цикле.
Примеры языков:
• C, C++, Java
• Python (когда используем циклы и изменяемые переменные)
• JavaScript (в императивном стиле)
Когда применять:
• Нужна высокая производительность.
• Логика естественна как последовательность операций.
• Важен контроль над состоянием: работа с памятью, сетевыми протоколами, системами реального времени.
Функциональное программирование: когда программа — это математика
Функциональная парадигма основана на идее, что вычисления — это применение функций, которые не изменяют состояние.
Главное правило:
Функция при одинаковых входных данных всегда возвращает один и тот же результат и не имеет побочных эффектов.
Основные признаки:
• отсутствие изменяемых переменных;
• функции как «граждане первого класса»;
• рекурсия вместо циклов;
• map, filter, reduce;
• композиция функций.
Пример (Python, функциональный стиль):
Посчитаем сумму чисел от 1 до n без циклов и изменяемых переменных.
Или ещё более функционально — через встроенную функцию:
Никакого изменения состояния — просто применяем функции к данным.
Примеры языков:
• Haskell
• F#
• Lisp, Clojure
• JavaScript (частично)
• Python (частично)
Когда применять:
• Много параллельных вычислений — отсутствие модификации состояния делает код потокобезопасным.
• Нужна ясная математическая логика.
• Хотите писать компактный и легко тестируемый код.
Функциональная парадигма основана на идее, что вычисления — это применение функций, которые не изменяют состояние.
Главное правило:
Функция при одинаковых входных данных всегда возвращает один и тот же результат и не имеет побочных эффектов.
Основные признаки:
• отсутствие изменяемых переменных;
• функции как «граждане первого класса»;
• рекурсия вместо циклов;
• map, filter, reduce;
• композиция функций.
Пример (Python, функциональный стиль):
Посчитаем сумму чисел от 1 до n без циклов и изменяемых переменных.
from functools import reduce
n = 5
result = reduce(lambda a, b: a + b, range(1, n + 1))
print(result) # 15Или ещё более функционально — через встроенную функцию:
sum(range(1, n + 1))Никакого изменения состояния — просто применяем функции к данным.
Примеры языков:
• Haskell
• F#
• Lisp, Clojure
• JavaScript (частично)
• Python (частично)
Когда применять:
• Много параллельных вычислений — отсутствие модификации состояния делает код потокобезопасным.
• Нужна ясная математическая логика.
• Хотите писать компактный и легко тестируемый код.
Объектно-ориентированное программирование: когда всё — это объекты
Объектно-ориентированное программирование (ООП) моделирует программу как набор объектов, которые представляют сущности мира и взаимодействуют между собой.
Основные принципы ООП:
• Инкапсуляция — скрываем внутреннее устройство объекта.
• Наследование — один класс может расширять другой.
• Полиморфизм — общий интерфейс, разные реализации.
• Абстракция — выделение значимых свойств сущности.
Пример на Python
Создадим простую иерархию животных.
Вывод:
Здесь работает полиморфизм: метод
Примеры языков:
• Java
• C#
• Python (полностью поддерживает ООП)
• C++
• Swift
Когда применять:
• Когда нужно моделировать сложные сущности и отношения.
• Для больших проектов.
• В бизнес-логике, где есть объекты: пользователи, документы, счета.
Объектно-ориентированное программирование (ООП) моделирует программу как набор объектов, которые представляют сущности мира и взаимодействуют между собой.
Основные принципы ООП:
• Инкапсуляция — скрываем внутреннее устройство объекта.
• Наследование — один класс может расширять другой.
• Полиморфизм — общий интерфейс, разные реализации.
• Абстракция — выделение значимых свойств сущности.
Пример на Python
Создадим простую иерархию животных.
class Animal:
def speak(self):
pass
class Dog(Animal):
def speak(self):
return "Гав!"
class Cat(Animal):
def speak(self):
return "Мяу!"
animals = [Dog(), Cat()]
for a in animals:
print(a.speak())Вывод:
Гав!
Мяу!Здесь работает полиморфизм: метод
speak() вызывается одинаково, но ведёт себя по-разному.Примеры языков:
• Java
• C#
• Python (полностью поддерживает ООП)
• C++
• Swift
Когда применять:
• Когда нужно моделировать сложные сущности и отношения.
• Для больших проектов.
• В бизнес-логике, где есть объекты: пользователи, документы, счета.
Логическое программирование: когда программа — это набор фактов и правил
Логическое программирование основано на идее, что программа — это знание, а выполнение — это логический вывод.
То есть вместо того, чтобы объяснять компьютеру как найти ответ, вы описываете что является истинным, а система сама выводит результат.
Главный представитель — язык Prolog.
Основные концепции:
• Факты — утверждения об объекте или отношении.
• Правила — логические зависимости между фактами.
• Запросы (queries) — вопросы к программе.
• Унификация — сопоставление шаблонов.
• Поиск решения — Prolog сам перебирает варианты и находит подходящие.
Пример: семейные отношения (Prolog)
Факты:
Это означает:
Анна — родитель Ивана
Сергей — родитель Ивана
Иван — родитель Димы
Правило:
Значение:
X — дед/бабушка Y, если X — родитель Z, а Z — родитель Y.
Запрос:
Ответ Prolog:
Компьютер сам делает логический вывод. Нам не нужно описывать алгоритм — только знания.
Где применяется логическое программирование:
• экспертные системы,
• поиск решений в сложных логических задачах,
• искусственный интеллект (классические подходы),
• автоматические доказатели теорем,
• анализ и трансформация программ.
Логическое программирование основано на идее, что программа — это знание, а выполнение — это логический вывод.
То есть вместо того, чтобы объяснять компьютеру как найти ответ, вы описываете что является истинным, а система сама выводит результат.
Главный представитель — язык Prolog.
Основные концепции:
• Факты — утверждения об объекте или отношении.
• Правила — логические зависимости между фактами.
• Запросы (queries) — вопросы к программе.
• Унификация — сопоставление шаблонов.
• Поиск решения — Prolog сам перебирает варианты и находит подходящие.
Пример: семейные отношения (Prolog)
Факты:
parent(anna, ivan).
parent(sergey, ivan).
parent(ivan, dima).
Это означает:
Анна — родитель Ивана
Сергей — родитель Ивана
Иван — родитель Димы
Правило:
grandparent(X, Y) :- parent(X, Z), parent(Z, Y).Значение:
X — дед/бабушка Y, если X — родитель Z, а Z — родитель Y.
Запрос:
?- grandparent(X, dima).Ответ Prolog:
X = anna ;
X = sergey ;
false.Компьютер сам делает логический вывод. Нам не нужно описывать алгоритм — только знания.
Где применяется логическое программирование:
• экспертные системы,
• поиск решений в сложных логических задачах,
• искусственный интеллект (классические подходы),
• автоматические доказатели теорем,
• анализ и трансформация программ.
Декларативное программирование: когда важен результат, а не путь к нему
Декларативное программирование — это общий подход, в котором программист описывает, что нужно получить, а не как именно.
Фактически логическое, функциональное и SQL — это разновидности декларативного подхода.
Главная идея:
Программа описывает правила и свойства результата, а не последовательность шагов.
Особенности декларативной парадигмы:
• минимум изменяемого состояния,
• код ближе к описанию задачи, чем к алгоритму,
• возможность оптимизаций со стороны интерпретатора/движка,
• часто используются выражения, а не команды.
Примеры декларативных подходов:
1) SQL (чисто декларативный язык)
В SQL мы описываем, какие данные хотим получить.
Это что нам нужно.
Но мы не указываем:
• как искать,
• по какому индексу,
• какой алгоритм сравнения использовать.
База данных сама выбирает оптимальный путь.
2) HTML — описание структуры, а не алгоритма
Мы описываем структуру документа, но не "рисуем" текст по пикселям.
3) Функциональное программирование (частный случай декларативного, Python)
Мы описываем что: сумму квадратов.
А не как: перебрать список, вести счётчики и т. д.
4) Конфигурационные языки (Terraform)
Мы описываем желаемое состояние: «должен быть bucket с именем example».
Terraform сам вычисляет шаги: создать, удалить, обновить.
Где применяется декларативное программирование:
• запросы к данным (SQL, GraphQL),
• инфраструктура (Terraform, Ansible),
• UI-разработка (React — декларативный),
• аналитические и научные вычисления,
• шаблонизация, конфигурация.
Декларативное программирование — это общий подход, в котором программист описывает, что нужно получить, а не как именно.
Фактически логическое, функциональное и SQL — это разновидности декларативного подхода.
Главная идея:
Программа описывает правила и свойства результата, а не последовательность шагов.
Особенности декларативной парадигмы:
• минимум изменяемого состояния,
• код ближе к описанию задачи, чем к алгоритму,
• возможность оптимизаций со стороны интерпретатора/движка,
• часто используются выражения, а не команды.
Примеры декларативных подходов:
1) SQL (чисто декларативный язык)
В SQL мы описываем, какие данные хотим получить.
SELECT name FROM users WHERE age > 18;Это что нам нужно.
Но мы не указываем:
• как искать,
• по какому индексу,
• какой алгоритм сравнения использовать.
База данных сама выбирает оптимальный путь.
2) HTML — описание структуры, а не алгоритма
<p class="text">Привет!</p>Мы описываем структуру документа, но не "рисуем" текст по пикселям.
3) Функциональное программирование (частный случай декларативного, Python)
result = sum([x * x for x in range(1, 6)])Мы описываем что: сумму квадратов.
А не как: перебрать список, вести счётчики и т. д.
4) Конфигурационные языки (Terraform)
resource "aws_s3_bucket" "my_bucket" {
bucket = "example"
}Мы описываем желаемое состояние: «должен быть bucket с именем example».
Terraform сам вычисляет шаги: создать, удалить, обновить.
Где применяется декларативное программирование:
• запросы к данным (SQL, GraphQL),
• инфраструктура (Terraform, Ansible),
• UI-разработка (React — декларативный),
• аналитические и научные вычисления,
• шаблонизация, конфигурация.
Основные битовые операции
1.
• Правило: Результат равен
• Таблица истинности:
• Пример:
Результат:
• Применение:
- Маскирование: Выделение конкретных битов. Например,
- Очистка битов:
2.
• Правило: Результат равен
• Таблица истинности:
• Пример:
• Результат:
• Применение:
- Установка битов:
3.
• Правило: Результат равен
• Таблица истинности:
• Пример:
• Результат:
• Ключевые свойства:
• Применение:
- Обмен значений без временной переменной:
- Шифрование: Базовый шифр, так как дважды применённый
- Поиск уникального элемента: В массиве, где все элементы парные, кроме одного,
1.
AND (&) — Побитовое И• Правило: Результат равен
1, только если оба соответствующих бита равны 1.• Таблица истинности:
0 & 0 = 0, 0 & 1 = 0, 1 & 0 = 0, 1 & 1 = 1.• Пример:
5 & 3
5 = 00000101
3 = 00000011Результат:
00000001 (что равно 1)• Применение:
- Маскирование: Выделение конкретных битов. Например,
x & 1 проверяет чётность (младший бит).- Очистка битов:
x & ~(1 << n) сбрасывает бит в позиции n в 0.2.
OR (|) — Побитовое ИЛИ• Правило: Результат равен
1, если хотя бы один из соответствующих битов равен 1.• Таблица истинности:
0 | 0 = 0,
0 | 1 = 1, 1 | 0 = 1, 1 | 1 = 1.• Пример:
5 | 3
5 = 00000101
3 = 00000011• Результат:
00000111 (что равно 7)• Применение:
- Установка битов:
x | (1 << n) устанавливает бит в позиции n в 1.3.
XOR (^) — Побитовое исключающее ИЛИ• Правило: Результат равен
1, если соответствующие биты разные.• Таблица истинности:
0 ^ 0 = 0, 0 ^ 1 = 1, 1 ^ 0 = 1, 1 ^ 1 = 0.• Пример:
5 ^ 3
5 = 00000101
3 = 00000011• Результат:
00000110 (что равно 6)• Ключевые свойства:
x ^ x = 0
x ^ 0 = x
x ^ y = y ^ x (коммутативность)(x ^ y) ^ z = x ^ (y ^ z) (ассоциативность)• Применение:
- Обмен значений без временной переменной:
a ^= b; b ^= a; a ^= b;- Шифрование: Базовый шифр, так как дважды применённый
XOR с одним ключом возвращает исходное число.- Поиск уникального элемента: В массиве, где все элементы парные, кроме одного,
XOR всех чисел найдёт уникальный.4.
• Правило: Инвертирует каждый бит (0 становится 1, 1 становится 0).
• Важно: Результат зависит от разрядности числа (количества бит).
• Пример (8-битное):
• Применение: Часто используется в комбинации с другими операциями для создания масок.
5. Сдвиги влево (
•
- Эффект: Умножение на
- Применение: Быстрое умножение на степень двойки, установка битов.
•
- Логический сдвиг (
- Арифметический сдвиг (
- Эффект: Целочисленное деление на
- Применение: Быстрое деление на степень двойки.
Практические примеры и трюки
• Проверка чётности:
• Умножение/деление на 2:
• Включение n-го бита:
• Выключение n-го бита:
• Переключение n-го бита (
• Проверка, включён ли n-й бит:
• Извлечение младших k бит:
• Округление до степени двойки (для положительных):
• Быстрая проверка, является ли число степенью двойки:
• Подсчёт количества единичных битов (вес Хэмминга): Есть эффективные алгоритмы с использованием битовых операций.
NOT (~) — Побитовое НЕ (инверсия)• Правило: Инвертирует каждый бит (0 становится 1, 1 становится 0).
• Важно: Результат зависит от разрядности числа (количества бит).
• Пример (8-битное):
~5
5 = 00000101
~5 = 11111010 (что равно -6 в дополнительном коде для знаковых чисел)• Применение: Часто используется в комбинации с другими операциями для создания масок.
5. Сдвиги влево (
<<) и вправо (>>)•
x << n — Сдвигает биты числа x на n позиций влево. Освободившиеся справа биты заполняются нулями.- Эффект: Умножение на
2^n. 5 << 1 = 10 (52), 5 << 3 = 40 (58).- Применение: Быстрое умножение на степень двойки, установка битов.
•
x >> n — Сдвигает биты числа x на n позиций вправо.- Логический сдвиг (
>>>): Освободившиеся слева биты всегда заполняются нулями. Для беззнаковых чисел.- Арифметический сдвиг (
>> для знаковых): Освободившиеся слева биты заполняются значением старшего (знакового) бита. Сохраняет знак для отрицательных чисел.- Эффект: Целочисленное деление на
2^n (с округлением в меньшую сторону). 13 >> 1 = 6 (13/2=6.5 -> 6), -8 >> 2 = -2.- Применение: Быстрое деление на степень двойки.
Практические примеры и трюки
• Проверка чётности:
if ((x & 1) == 0) — чётное.• Умножение/деление на 2:
x << 1 (умножить на 2), x >> 1 (разделить на 2).• Включение n-го бита:
x |= (1 << n)• Выключение n-го бита:
x &= ~(1 << n)• Переключение n-го бита (
0→1, 1→0): x ^= (1 << n)• Проверка, включён ли n-й бит:
if (x & (1 << n))• Извлечение младших k бит:
x & ((1 << k) - 1)• Округление до степени двойки (для положительных):
1 << (int)(log2(x) + 1)• Быстрая проверка, является ли число степенью двойки:
(x & (x - 1)) == 0 (и x > 0).• Подсчёт количества единичных битов (вес Хэмминга): Есть эффективные алгоритмы с использованием битовых операций.
«Почему в Minecraft можно собрать настоящий рабочий компьютер»
Turing complete — значит, система может выполнять любые вычисления, как обычный процессор.
Практические примеры, которые реально существуют:
• В Minecraft на redstone-схемах собрали процессор, который запускает Doom и даже Tetris.
• Шаблоны в C++ (до C++11) были Turing complete — на этапе компиляции можно было вычислять числа, запускать циклы и даже решать задачки. Программисты писали на этом «код до кода».
• Теоретически в PowerPoint с анимациями и гиперссылками можно закодить простую программу.
Зачем это знать? Понимаешь, что ограничение — не в языке, а в твоей фантазии. И что даже в «игрушках» можно строить настоящие вычислительные машины.
Turing complete — значит, система может выполнять любые вычисления, как обычный процессор.
Практические примеры, которые реально существуют:
• В Minecraft на redstone-схемах собрали процессор, который запускает Doom и даже Tetris.
• Шаблоны в C++ (до C++11) были Turing complete — на этапе компиляции можно было вычислять числа, запускать циклы и даже решать задачки. Программисты писали на этом «код до кода».
• Теоретически в PowerPoint с анимациями и гиперссылками можно закодить простую программу.
Зачем это знать? Понимаешь, что ограничение — не в языке, а в твоей фантазии. И что даже в «игрушках» можно строить настоящие вычислительные машины.
«Почему антивирус никогда не поймает 100% вирусов»
Теорема Райса (1953): нельзя написать программу, которая для любого кода точно скажет, делает ли он что-то «плохое» (вирус, бесконечный цикл, вывод определённой строки и т.д.).
Практические последствия:
• Антивирусы работают по сигнатурам (ищут известные вирусы) и эвристикам (подозрительное поведение) → всегда будут ложные срабатывания и пропуски.
• Статический анализ кода никогда не будет идеальным — всегда либо пропустит баг, либо поднимет ложную тревогу.
• Автоматическое доказательство корректности программы возможно только для очень простых случаев.
Пишите тесты, код-ревью и не надейтесь, что инструмент найдёт всё за вас. Это фундаментальная граница.
Теорема Райса (1953): нельзя написать программу, которая для любого кода точно скажет, делает ли он что-то «плохое» (вирус, бесконечный цикл, вывод определённой строки и т.д.).
Практические последствия:
• Антивирусы работают по сигнатурам (ищут известные вирусы) и эвристикам (подозрительное поведение) → всегда будут ложные срабатывания и пропуски.
• Статический анализ кода никогда не будет идеальным — всегда либо пропустит баг, либо поднимет ложную тревогу.
• Автоматическое доказательство корректности программы возможно только для очень простых случаев.
Пишите тесты, код-ревью и не надейтесь, что инструмент найдёт всё за вас. Это фундаментальная граница.
«Почему ваш сервер может думать, что сейчас 1970 год (и сломать всё)»
В распределённых системах время — это проблема. NTP синхронизирует часы, но даже 100 мс расхождения могут сломать логику.
Реальные кейсы:
• Токены JWT истекают «раньше времени» на одном сервере.
• Логи в ELK/Kibana идут не по порядку — ищешь баг часами.
• В 2024 году у одной крупной биржи был сбой: один сервер отстал на 2 секунды → ордера исполнялись в неправильном порядке.
Практика:
• Используйте monotonic clock для измерения интервалов.
• Для распределённых транзакций — logical clocks (Lamport timestamps) или Google TrueTime/Spanner-подход.
• В Kubernetes включайте NTP + chrony.
Вывод: никогда не полагайтесь на
В распределённых системах время — это проблема. NTP синхронизирует часы, но даже 100 мс расхождения могут сломать логику.
Реальные кейсы:
• Токены JWT истекают «раньше времени» на одном сервере.
• Логи в ELK/Kibana идут не по порядку — ищешь баг часами.
• В 2024 году у одной крупной биржи был сбой: один сервер отстал на 2 секунды → ордера исполнялись в неправильном порядке.
Практика:
• Используйте monotonic clock для измерения интервалов.
• Для распределённых транзакций — logical clocks (Lamport timestamps) или Google TrueTime/Spanner-подход.
• В Kubernetes включайте NTP + chrony.
Вывод: никогда не полагайтесь на
System.currentTimeMillis() для критичной логики.«False sharing: почему ваш многопоточный код тормозит в 10 раз»
На современных CPU данные в памяти кэшируются по линиям кэша (обычно 64 байта).
Если два потока пишут в разные переменные, но они лежат в одной линии кэша — CPU вынужден инвалидировать кэш у обоих потоков при каждой записи.
Это false sharing — производительность падает в десятки раз, хотя гонок данных нет.
Практика:
• В Java: объявляйте счётчики как volatile long отдельно и паддите до 64 байт (или используйте
• В Go/Rust: следите за выравниванием структур.
• В 2025 году это всё ещё актуально на серверах с 128+ ядрами.
Как найти: perf c2c, Intel VTune или просто подумайте, когда многопоточка не даёт speedup.
Вывод: профилируйте не только логику, но и железо.
На современных CPU данные в памяти кэшируются по линиям кэша (обычно 64 байта).
Если два потока пишут в разные переменные, но они лежат в одной линии кэша — CPU вынужден инвалидировать кэш у обоих потоков при каждой записи.
Это false sharing — производительность падает в десятки раз, хотя гонок данных нет.
Практика:
• В Java: объявляйте счётчики как volatile long отдельно и паддите до 64 байт (или используйте
@Contended).• В Go/Rust: следите за выравниванием структур.
• В 2025 году это всё ещё актуально на серверах с 128+ ядрами.
Как найти: perf c2c, Intel VTune или просто подумайте, когда многопоточка не даёт speedup.
Вывод: профилируйте не только логику, но и железо.
«Feature flags: как выкатывать фичи без страха сломать прод»
Feature flag — переключатель в коде/конфиге, который включает/выключает новую фичу.
Практика:
• Выкатываете код с новой оплатой Apple Pay, но flag = off.
• Включаете для 1% пользователей → мониторите → для всех.
• Если баг — выключаете за секунду, без отката.
Инструменты 2025: LaunchDarkly, Unleash, Flagsmith, даже простая таблица в БД.
Кейс: Netflix, Facebook, GitLab — всё на флагах. В 2024 году одна компания откатила баг за 30 секунд благодаря флагу, а не за час деплоем.
Вывод: если проект больше «hello world» — внедряйте feature flags. Это стандарт современной разработки.
Feature flag — переключатель в коде/конфиге, который включает/выключает новую фичу.
Практика:
• Выкатываете код с новой оплатой Apple Pay, но flag = off.
• Включаете для 1% пользователей → мониторите → для всех.
• Если баг — выключаете за секунду, без отката.
Инструменты 2025: LaunchDarkly, Unleash, Flagsmith, даже простая таблица в БД.
Кейс: Netflix, Facebook, GitLab — всё на флагах. В 2024 году одна компания откатила баг за 30 секунд благодаря флагу, а не за час деплоем.
Вывод: если проект больше «hello world» — внедряйте feature flags. Это стандарт современной разработки.
Сколько электричества жрёт ваш код
На больших масштабах разница ощутимая. Сортировка миллиона элементов пузырьком может съесть в разы больше энергии, чем Timsort. В дата-центрах уже давно оптимизируют под это — иногда простая смена структуры данных экономит 30–50%.
Простой способ замерить самому — библиотека codecarbon.
Попробуйте сравнить разные сортировки — разница удивит. В 2026 году это уже не прихоть, а реальная экономия.
На больших масштабах разница ощутимая. Сортировка миллиона элементов пузырьком может съесть в разы больше энергии, чем Timsort. В дата-центрах уже давно оптимизируют под это — иногда простая смена структуры данных экономит 30–50%.
Простой способ замерить самому — библиотека codecarbon.
from codecarbon import EmissionsTracker
import random
tracker = EmissionsTracker()
tracker.start()
# Пример "прожорливого" кода
data = [random.randint(0, 1000) for _ in range(1_000_000)]
data.sort() # Timsort — эффективно
# А вот пузырёк (не запускайте на миллионе, убьёт время)
def bubble_sort(arr):
n = len(arr)
for i in range(n):
for j in range(0, n-i-1):
if arr[j] > arr[j+1]:
arr[j], arr[j+1] = arr[j+1], arr[j]
# bubble_sort(data[:100_000]) # попробуйте на меньшем
emissions = tracker.stop()
print(f"Выбросы CO₂: {emissions:.6f} кг")
Попробуйте сравнить разные сортировки — разница удивит. В 2026 году это уже не прихоть, а реальная экономия.