Библиотека девопса | DevOps, SRE, Sysadmin
10.3K subscribers
1.35K photos
70 videos
4 files
2.55K links
Все самое полезное для девопсера в одном канале.

По рекламе: @proglib_adv

Учиться у нас: https://proglib.io/w/25874ec4

Для обратной связи: @proglibrary_feeedback_bot

РКН: https://gosuslugi.ru/snet/6798b4e4509aba565
Download Telegram
Вакансии «Библиотеки программиста» — ждем вас в команде!

Мы постоянно растем и развиваемся, поэтому создали отдельную страницу, на которой будут размещены наши актуальные вакансии. Сейчас мы ищем:
👉контент-менеджеров для ведения телеграм-каналов
👉Переводчик и автор оригинальных статей

Подробности тут

Мы предлагаем частичную занятость и полностью удаленный формат работы — можно совмещать с основной и находиться в любом месте🌴

Ждем ваших откликов 👾
🌐 Как работает GraphQL и чем он лучше RESTful API

GraphQL не следует путать с SQL — он не используется для прямых запросов к таблицам базы данных. GraphQL — это, скорее, формат или структура, которая задаёт контракт между клиентом и сервером API. Его можно рассматривать как спецификацию или новый стандарт API, похожий на REST, но более эффективный и гибкий.

В новой статье делаем детальный разбор преимуществ и недостатков GraphQL с примерами кода. Помогаем понять, стоит ли переходить на эту технологию в вашем проекте.

👉 Читать по этой ссылке
👍5
Forwarded from Библиотека программиста | программирование, кодинг, разработка
👑🧟 Король спама: насколько сильно ты бесишь коллег в рабочих чатах

Признайся, ты тоже иногда отправляешь голосовые сообщения из маршрутки? Или может быть, ты тот самый человек, который пишет «Привет» и исчезает на час? Всего 10 вопросов, которые помогут понять, являешься ли ты мастером цифрового этикета или главным спамером офиса. Готов узнать правду?

👉 Пройти тест
👍2😁1
🦫 Самоучитель по Go для начинающих. Часть 18. Протокол HTTP. Создание HTTP-сервера и клиента. Пакет net/http

Погружаемся в мир сетевых технологий с Go! В этой части самоучителя рассматриваются основы работы с HTTP в Go: устройство HTTP-запросов и ответов, ключевые способы взаимодействия клиента и сервера. Также подробно разбираются возможности пакета net/http, включая отправку запросов, обработку ответов и настройку параметров HTTP-сервера для веб-приложений.

📎 Читать новую часть самоучителя

👩‍💻 Остальные части в серии:
1. Особенности и сфера применения Go, установка, настройка
2. Ресурсы для изучения Go с нуля
3. Организация кода. Пакеты, импорты, модули. Ввод-вывод текста.
4. Переменные. Типы данных и их преобразования. Основные операторы
5. Условные конструкции if-else и switch-case. Цикл for. Вложенные и бесконечные циклы
6. Функции и аргументы. Области видимости. Рекурсия. Defer
7. Массивы и слайсы. Append и сopy. Пакет slices
8. Строки, руны, байты. Пакет strings. Хеш-таблица (map)
9. Структуры и методы. Интерфейсы. Указатели. Основы ООП
10. Введение в ООП. Наследование, абстракция, полиморфизм, инкапсуляция
11. Обработка ошибок. Паника. Восстановление. Логирование
12. Обобщенное программирование. Дженерики
13. Работа с датой и временем. Пакет time
14. Интерфейсы ввода-вывода. Буферизация. Работа с файлами. Пакеты io, bufio, os
15. Конкурентность. Горутины. Каналы
16. Тестирование кода и его виды. Table-driven подход. Параллельные тесты
17. Основы сетевого программирования. Стек TCP/IP. Сокеты. Пакет net
Please open Telegram to view this post
VIEW IN TELEGRAM
😊 Привет, девопсы!

Работаете ли вы из дома? Или ваша инфраструктура такая секретная, что домой вас пускают только с ноутбуком, прикованным цепью? 🔒💻

Расскажите, что вас больше всего напрягает в рабочем месте, будь то дома или в офисе. 👀
А может, вы нашли супер-решения для комфортной работы? 🌲

Делитесь своими историями или топовыми лайфхаками — вдруг это вдохновит коллег на что-то новое! 🔝

#интерактив
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳 Docker Desktop 4.37: Что нового?

🚀 CLI для управления Docker Desktop
Теперь можно запускать, останавливать и перезапускать Docker Desktop из терминала:
docker desktop start|stop|restart|status


📦 AI Catalog
Интеграция с AI Catalog прямо в Docker Desktop для работы с AI-моделями.

📈 Обновления компонентов
Docker Buildx: v0.19.2
Docker Compose: v2.31.0
NVIDIA Toolkit: v1.17.2

🔧 Исправления
Лимит диска по умолчанию: 1 ТБ
Устранены баги подключения контейнеров.

💻 Windows на ARM
Теперь поддерживается с WSL 2 версии 2.3.24+.

📎 Подробнее в блоге разработчиков

#новость
🖥Kubernetes 1.32: Групповые снимки томов — теперь в бете!

В блоге Kubernetes снова делятся полезными обновлениями. На этот раз речь о нововведении в версии 1.32 — поддержке групповых снимков томов, которая теперь доступна в бета-версии.

Зачем это нужно? Всё просто: когда речь идёт о данных, согласованность — ключевой фактор. Групповые снимки позволяют одновременно создавать моментальные копии нескольких томов с учётом их взаимосвязей. Это значительно упрощает резервное копирование и восстановление сложных приложений, где данные разбросаны по разным томам.

🛠 Теперь Kubernetes поддерживает новые API для управления групповыми снимками, включая:
VolumeGroupSnapshot — запрос создания группового снимка;
VolumeGroupSnapshotContent — данные о созданных снимках;
VolumeGroupSnapshotClass — параметры, задающие, как именно будет происходить создание.

Обновление затрагивает ключевые компоненты кластера, включая CRD, контроллеры и CSI-драйверы.

📎Детали в блоге Kubernetes. И да, не забудьте проверить, насколько это упростит ваши сценарии восстановления данных!

#новость
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Как AI и ML трансформируют облачные операции (CloudOps)

Всё больше компаний обращают внимание на возможности искусственного интеллекта и машинного обучения в управлении облачными инфраструктурами. Недавняя статья раскрывает, как эти технологии могут полностью изменить подход к CloudOps. Вот ключевые моменты:

💡Проблемы традиционных CloudOps:
Ручное управление приводит к ошибкам и снижает производительность.
Масштабируемость систем становится сложной задачей.

🤖 Роль AI и ML:
Автоматизация рутинных задач: меньше ошибок, больше времени на стратегию.
Умное решение проблем: ML анализирует огромные массивы данных и предлагает оптимальные решения.
Эффективное использование ресурсов: AI помогает контролировать затраты и предотвращать простаивание.

🎯 Что это даёт бизнесу
Увеличение производительности и снижение затрат.
Повышение устойчивости и отказоустойчивости систем.
Лучшая адаптация к современным требованиям рынка.

AI и ML в CloudOps — это не просто тренд, а необходимость для компаний, стремящихся к оптимизации и конкурентоспособности.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🚀 HashiCorp: Итоги 2024 года и ключевые достижения

HashiCorp подвела итоги уходящего года, поделившись главными успехами и нововведениями, которые укрепили её позиции как лидера в области инструментов для управления инфраструктурой и безопасности.

🤝 Сделка с IBM
HashiCorp объявила о заключении соглашения с IBM! Эта сделка укрепит позиции компании в сфере современной инфраструктуры и безопасности.

🖥️ Инновации в продуктах
Инструменты вроде Terraform, Vault, Consul и Nomad стали ещё мощнее:
Новые фичи для упрощения работы разработчиков.
Улучшения безопасности и автоматизации.

📢 Комьюнити и мероприятия
Проведение масштабных мероприятий, таких как HashiConf и HashiDays.
Увеличение числа пользовательских групп и программы амбассадоров.

📎 Подробный отчёт читайте в блоге компании
👍1
🎯 "Монорепозиторий: Стоит ли переходить?"

Вопрос о том, использовать монорепозиторий или многорепозиторную структуру, вызывает много споров среди DevOps-инженеров. Монорепозиторий предлагает единое хранилище для всего кода проекта, что упрощает управление зависимостями, автоматизацию и тестирование. Но так ли это идеально? 🤔

Плюсы монорепозитория
Единое управление: все компоненты проекта хранятся в одном месте, что упрощает синхронизацию.
Общие зависимости: не нужно дублировать версии библиотек, всё централизовано.
Централизованный CI/CD: один пайплайн для всего проекта, меньше головной боли.

Минусы монорепозитория
Сложность масштабирования: огромные репозитории сложнее обслуживать.
Замедление работы: git и другие инструменты могут замедляться из-за большого объёма данных.
Риски конфликта: одновременная работа над большим числом фич может усложнить процесс ревью.

🔧 Когда стоит задуматься о переходе?
Ваш проект активно развивается, и компоненты часто взаимодействуют.
Вы сталкиваетесь с проблемами синхронизации зависимостей между репозиториями.
Ваши команды готовы к настройке сложной автоматизации.
⛅️ Google Cloud: Главное за 2024 год 

2024 год стал насыщенным и знаковым для Google Cloud. Компания внесла множество изменений и представила новшества, которые делают облачные технологии ещё доступнее и мощнее. Вот ключевые моменты года! 👇

⚙️ Локальная разработка ИИ
Запуск инструмента localllm, который позволяет разработчикам создавать генеративные ИИ-приложения на локальных процессорах без необходимости в GPU, расширив доступность ИИ-решений.

💻 Интеграция Mistral AI в Vertex AI
Google Cloud добавил поддержку модели Codestral от Mistral AI, предназначенной для генерации кода, в Vertex AI. Это упрощает разработку приложений, основанных на ИИ.

⚡️ Анонс Axion Processors и Gemini
Google представил новые процессоры Axion и интеграцию ИИ-моделей Gemini в свои сервисы, что значительно увеличило скорость и эффективность вычислений.

🛠 Обновление GKE с помощью Duet AI
Интеграция Duet AI в Google Kubernetes Engine (GKE) упростила анализ микросервисов, сделав их управление интуитивно понятным даже для начинающих разработчиков.

📎Подробности в блоге компании
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
☁️ Zero Disk Architecture — будущее хранения данных?

Как насчет архитектуры без локальных дисков? Автор блога предлагает отказаться от традиционных хранилищ на серверах в пользу облачных решений, таких как Amazon S3.

🔹 Что это значит?
Вместо привязки данных к конкретной машине (и её ограничениям), хранилище переносится в облако. Это позволяет:
Масштабировать ресурсы независимо.
Быстро восстанавливать системы после сбоев.
Использовать подход «безсерверных» баз данных.

🔹 Как это работает?
Данные записываются и читаются напрямую из облачных хранилищ. Такие решения, как Amazon S3, предоставляют низкие задержки и транзакционные возможности для эффективной работы.

🔹 Плюсы и минусы
✔️ Масштабируемость, эластичность и экономия на инфраструктуре.
Необходимость учитывать размер данных и баланс между скоростью и надежностью.

🚀 Примеры успешного использования включают Snowflake и Clickhouse.
👇 А что вы думаете насчёт такой архитектуры?
🤔3👍2
🚀 Что такое Control Plane и зачем он нужен?

Control Plane — это "мозг" системы, который управляет её состоянием, распределением ресурсов и выполнением политик. Он отвечает за контроль и координацию всех процессов, обеспечивая надёжность и гибкость системы.

💡 Как работает Control Plane?

Система делится на два основных слоя:
Control Plane: принимает решения — где, что и как выполнять.
Data Plane: выполняет задачи, обрабатывает данные и взаимодействует с пользователем.

В Kubernetes Control Plane:
Решает, на каких узлах запускать контейнеры.
Следит за состоянием кластеров и восстанавливает их после сбоев.
Управляет балансировкой нагрузки и масштабированием.

Почему это важно?
1️⃣ Централизованное управление: Все настройки и логика собираются в одном месте.
2️⃣ Автоматизация: Control Plane помогает избавиться от рутинных задач.
3️⃣ Гибкость: Система быстро адаптируется к изменениям (например, увеличению нагрузки).
4️⃣ Надёжность: Автоматически восстанавливает работоспособность после сбоев.

Где применяется Control Plane?

Облачные платформы: например, AWS и Azure используют Control Plane для управления ресурсами.
Оркестраторы контейнеров: kubernetes координирует работу кластеров через свой Control Plane.
Сетевые системы: в Software-Defined Networking (SDN) Control Plane управляет потоками трафика.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🐧💻 Пошаговый разбор процесса загрузки Linux

Загрузка Linux — это сложный, но увлекательный процесс, который проходит через несколько этапов, начиная с включения питания и заканчивая готовностью системы к работе. Разберём основные шаги загрузки, чтобы лучше понять, как Linux становится готовым к использованию.

1️⃣ Включение питания и начальная инициализация
Когда вы включаете компьютер, процессор начинает выполнение инструкций, записанных в BIOS или UEFI. Они проверяют оборудование, готовя систему к следующему шагу.

2️⃣ POST (Power-On Self-Test)
BIOS или UEFI выполняет самотестирование компонентов, таких как память, процессор и диски. Если тест прошёл успешно, система переходит к поиску загрузочного устройства.

3️⃣ Загрузчик просыпается
BIOS/UEFI передаёт управление загрузчику, например, GRUB.
GRUB позволяет выбирать ОС, если у вас их несколько.
Он загружает ядро Linux в память.

4️⃣ Инициализация ядра Linux
Ядро распаковывается и начинает работать:
Определяет и конфигурирует оборудование.
Подключает виртуальную файловую систему (initramfs).
Подготавливает систему к запуску процессов.

5️⃣ Запуск системы инициализации (systemd)
После того как ядро готово, оно запускает систему инициализации. В большинстве современных систем используется systemd, который:
Инициализирует необходимые сервисы.
Устанавливает состояние системы (например, текстовый или графический интерфейс).

6️⃣ Запуск пользовательского интерфейса
После запуска всех сервисов система предоставляет экран входа или консоль. Теперь Linux готов к использованию.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤‍🔥1🔥1
🤤 Икра черная, икра красная, а профессия — программирование

Сертификат на обучение от Proglib Academy — это крутой подарок для тех, кто интересуется IT, хочет освоить новую профессию и жить в шоколаде.

Почему наши курсы — хороший презент:

🔵Подходит для новичков и профессионалов: можно выбрать обучение под любой уровень знаний.
🔵Помогает развивать востребованные навыки, которые пригодятся в IT.
🔵Позволяет выбрать удобный формат обучения: можно учиться в своем темпе, когда удобно.

Сертификат оформляется за пару минут, и даже не нужно ломать голову над упаковкой.

🚀 Подарите возможность начать год с полезных знаний и карьерного роста → подробнее о сертификатах
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚2
🔍 Model Context Protocol (MCP): Упрощение разработки AI-приложений с Docker

Anthropic представила Model Context Protocol (MCP), новый стандарт для подключения AI-моделей и ассистентов к надёжным данным и инструментам. Этот подход значительно упрощает взаимодействие между AI и инфраструктурой. Однако развёртывание MCP-серверов остаётся сложным из-за различных архитектур и операционных систем. Решением этой проблемы становится Docker.

📌 Что такое Model Context Protocol?
MCP — это протокол, который:
Упрощает подключение AI-моделей к данным и инструментам.
Делает взаимодействие между ассистентами и источниками данных более предсказуемым и безопасным.
Работает как стандартный мост между AI и инфраструктурой, обеспечивая совместимость.

🚀 Как Docker помогает с MCP?
Консистентность окружения:
Docker позволяет запаковать сервер MCP и все его зависимости в контейнер. Это гарантирует, что приложение будет работать одинаково на всех машинах.

Поддержка нескольких архитектур:
MCP-сервера могут быть развёрнуты на различных платформах, включая ARM и x86, без изменений в коде.

Упрощённое развертывание:
Вместо сложной настройки окружения MCP можно развернуть с помощью одного контейнера Docker.

🔑 Преимущества использования Docker с MCP
Быстрое развертывание: запуск серверов MCP за минуты.
Масштабируемость: легко запускать несколько экземпляров MCP в распределённой системе.
Упрощённая разработка: разработчики могут работать в одинаковом окружении, избегая проблем с настройкой.

#новость
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21
🦑👨💻 Программист в «Игре в кальмара»: каковы твои шансы выжить?

Каждый день вы укрощаете капризные серваки и спасаете горящий прод? Привыкли жить в режиме «всё сломалось в пятницу вечером»? 😈

Пора проверить, поможет ли вам стальная выдержка девопса и умение решать проблемы на лету выжить в самом безжалостном шоу! Узнайте, как далеко вы продвинетесь в «Игре в кальмара», где один неверный деплой ответ может стоить жизни 💀

🎯 Пройти тест
😁2
🌐 Что такое сеть Ingress?

Ingress — это термин, часто используемый в контексте Kubernetes, для описания способа управления входящим сетевым трафиком, направленным в кластер. Ingress представляет собой набор правил, определяющих, как трафик (например, HTTP и HTTPS-запросы) направляется к различным сервисам внутри кластера.

Основные концепции Ingress

💡Ingress-ресурс:
Это объект в Kubernetes, который содержит правила маршрутизации трафика. Например, он может определять, что запросы на example.com/api направляются на один сервис, а запросы на example.com/web — на другой.

💡Ingress-контроллер:
Это программный компонент, который реализует функциональность Ingress. Он принимает трафик из внешней сети и направляет его в кластер в соответствии с правилами, описанными в Ingress-ресурсе.

💡Протоколы:
Ingress работает с HTTP и HTTPS, что делает его подходящим для маршрутизации веб-трафика.

🔑 Как работает Ingress?
Внешние запросы попадают в кластер через Ingress-контроллер, который выступает точкой входа.
Контроллер анализирует Ingress-ресурс и определяет, куда направить трафик (в какой сервис или под).
Для маршрутизации используется информация о доменных именах, путях URL или других критериях.

🛠 Пример использования Ingress
Представьте, что у вас есть два сервиса:
Сервис A обрабатывает запросы на example.com/app.
Сервис B обрабатывает запросы на example.com/api.
С помощью Ingress вы можете настроить маршруты, чтобы оба сервиса были доступны через один публичный IP-адрес.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4