Человек и машина
1.81K subscribers
46 photos
1 video
2 files
346 links
Авторский блог Карена Товмасяна.
Идеи, слова поддержки и критики отправляйте мне - @ThomasStorm.

С предложениями рекламы не обращайтесь.

I do not speak on behalf of my employer.
Download Telegram
Тут пару раз нарвался на посты на Хабре, переводы английских постов с Медиума, про «плохие» конторы для разработчиков.

Среди многих, в большинстве своем весомых, претензий была моя любимая - про отсутствие администраторского доступа на рабочей машине, будь то ноутбук или десктоп.

Для моих неИТшных читателей небольшое уточнение - разработчику периодически необходимо локально собирать и запускать свое ПО. Когда вы занимаетесь разработкой серверных приложений, то чтобы запустить их на своем ноутбуке вам нужны права администратора. Даже если приложение работает на виртуальной машине Vagrant или контейнере Docker - права нужны чтобы установить сам Docker или Vagrant.

Поскольку я больше времени проработал в конторах, где HeadCount > 5000, чем < 200, я занимался разработкой и сопровождением инфраструктуры на тысячи рабочих станций.
И вот моя, так сказать, «ответочка».

Во-первых, в махровом энтерпрайзе крайне строго соблюдается принцип least privilege - это когда у человека прав ровно столько, сколько ему нужно для его деятельности, не больше и не меньше. Видите ли, если вы каким-то образом скачаете вирус, то меньшее из зол - это получить BootLocker или вечно открывающуюся порнуху. Гораздо хуже, если вы поймаете вирус-червя, который радостно побежит на общий диск и покусает все до чего дотянется (такой случай я видел лично и лично устранял последствия, блокируя файлер и откатывая до вируса до атаки, уничтожая несколько часов работы 6 тысяч человек). Мало того, что подобного рода откаты это потеря огромных денег, это еще и ответственность инженеров.
Если разраб скачает «косячную» библиотеку с вшитым кейлоггером или трояном, виноват в этом будет админ и ТОЛЬКО админ.
Так что не стоит удивляться строгости админов, которые ничего не разрешают делать локально. Сервер для разработки - пожалуйста, рутовый доступ туда - тоже пожалуйста, проблем ноль. Ломать свою машину - ни-ни.

Никакое законодательство неспособно «заставить» разработчика по закону отвечать за то, что он превратил свой ноутбук в рассадник заразы, а учитывая, что не все разрабы одинаково полезны, слепо доверять им тоже никто не станет. Остается соблюдать строгую compliancy и разрешать устанавливать только проверенный софт - без исключений.

Во-вторых, софт для разработки и локального тестирования пишут в основном для компаний, где у разрабов уже есть права локального администратора. “Запаковать” такой софт через какой-нибудь System Center или, еще хуже, групповые политики, задача очень сложная и может занять немало времени.

Так что не стоит ругать контору на чем свет стоит, если вам нельзя установить последнюю версию Докера. Потерять огромное количество данных из-за ошибки одного человека гораздо критичнее.
Ну поговорим теперь о технике. Этой вашей Инфраструктуре-как-Код (далее IaC).

В те давние времена, когда каждый админ автоматизировал свою работу в баш скриптах (а особо крутые в питон скриптах), людям нужно было вести журнал изменений (помните, что про Agile никто не знал, и все поголовно были ITILовцами).
В основном в качестве трекера изменений использовали ticket-систему, а в конфигурацию систем и серверов вносили номер ticket’а, по которому инициировалось изменение. Менеджер по изменениям мог видеть номер ticket’а в конфигурации почтового сервера, зайти в систему и посмотреть, кто это придумал, кто это реализовал, ну и, собственно, зачем.

Помимо этого велся отдельный журнал незапланированных изменений, этакий excel файлик на общем диске, куда люди вписывали, что они делали, на чем и когда.
Повторюсь, все это нужно было, чтобы отслеживать каждое изменение в инфраструктуре (ведь изменения имеют свойство ломать все вокруг), и даже самые ответственные админы не всегда добавляли нужные пометки.

Эта и много других проблем легли в основу практики IaC.

Вкратце IaC это подход, в котором инженеры относятся к своей инфраструктуре как к исходному коду приложения. А раз наша инфраструктура теперь приложение, то и применяются к ней все best practices разработки, а именно:
- держим “код” инфраструктуры в центральном репозитории, изменения к которому делаются через commit/push или pull/merge requests
- держим несколько “окружений” инфраструктуры: локальное (development), test/stage и production.
- держим код в чистоте - PEP8, Linting, etc
- гоняем тесты, в том числе интеграционные.
- проводим Code Review.
- все это проходит через CI/CD систему, после чего выкатывается на нужное окружение.

Инфраструктуру здесь стоит разбить на две категории (на самом деле можно и больше, но нам в конкретном случае достаточно и этого): сетевая инфраструктура (сеть, серверы, фаерволы и тд) и приложения (все, что ставится на сами серверы - базы данных, приложения и прочее).

Зачем это делается? Да затем, что в больших и маленький конторах за разные части инфраструктуры отвечают разные “роли” инженеров.
Сетевики правят конфиги фаерволлов и маршрутизаторов, ДБАшники тюнят базы данных, “обычные” админы накатывают обновление на серверы, релиз инженеры релизят, безопасники безопасят… в общем, много всего делается.

Можно уйти в дебри применения IaC в классических ЦОДах, где кругом хардкорный bare metal и вот это вот все.

Но поскольку у нас тут 21-ый век, облачные вычисления, managed services и хипстеры с макбуками, мы не будем лезть так глубоко.
Видите ли, если вы подсели на героин Амазона, Микрософта или Гугла, все эти роутеры, свичи, прошивки металлических серверов, гипервизоры виртуализации вас не касаются. Ими по-прежнему управляют, но не вы. Вы к настройкам сетки не прикоснетесь никак.

В вашем случае каждый кусок инфраструктуры вам доступен в качестве ресурса. Таблица маршрутизации - ресурс. Сети и подсети - ресурс. Базы данных - ресурс. Виртуальные машины - ресурс. Правила фаервола, вы не поверите, тоже ресурс! Ну и так далее.

Поэтому в увлекательном мире AWS/GCP/Azure вам нужно организовать только две группы: ресурсы и приложения.
Для того, чтобы управлять ресурсами есть много разных прикольных штук - от нативных (Cloudformation для AWS, Resource Manager для Azure и Google Cloud - причем это РАЗНЫЕ Resource Manager’ы!) до кастомных 3rd party штучек, таких как Packer, Ansible (да, он вам и сетки с подсетками сделает, ну не прелесть ли?), Terraform, Salt-Cloud и т.д.

А вот для управления приложениями служат наши старые добрые друзья, которые вам всем знакомы - Chef, Puppet, Ansible, Salt, CFEngine, ну и что я там еще мог забыть.

Нет смысла писать какие SCM системы применять. Git/SVN/CVS тут знают все (ну почти все). Для Linting тоже есть огромная масса финтифлюшек - взять например ansible-lint и hiera lint.

Для тестов вашей инфраструктуры существует ряд фреймворков - serverspec. testinfra… - всех не счесть. Если написанные утилитки вас не устраивают, то тесты можно написать и самому в том же скрипте.
Вот например делаете вы LAMP (Linux-Apache-MySQL-PHP) стек. Как эту инфраструктуру протестировать? Да очень просто.
Когда ваша инфраструктура готова? Когда нужные пакеты установлены, сервисы запущены, порты прослушиваются. Обычным башем это делается за 15 минут.

В итоге, в репе лежат ваши описания инфраструктуры. Jenkins/Teamcity/u-name-it гоняют сборки раз в Х минут и при каждом коммите. Не проходит сборка - орем в Slack, откатываем этот коммит и работаем дальше. Когда все тесты прошли и обновление инфраструктуры выкатили - системы управлениям ресурсами сами все сделают.

Получаем уведомление, что все прошло успешно (или нет), радуемся (грустим) и идем наливать себе кофе.
Если у вас все хотя бы процентов на 80% делается как описано выше - поздравляю, вы официально практикуете Infrastructure-as-Code.

Вроде ничего не забыл. Есть что добавить/спросить? Милости прошу - @ThomasStorm
Возвращаясь к разговору о плоской земле (https://t.me/manandthemachine/181).

Нашел тут увлекательное чтиво на эту тему: https://secretmag.ru/trends/whatsup/ilon-mask-i-nasa-vrut-pochemu-v-xxi-veke-lyudi-veryat-v-ploskuyu-zemlyu.htm

Прочитать стоит хотя бы ради этих строчек: “Образумить рэпера пытался известный астрофизик и популяризатор науки Нил Деграсс Тайсон. «Полярная звезда не видна после полутора градусов южной широты. Ты либо никогда не был к югу от экватора, либо никогда не смотрел на небо», — написал Тайсон рэперу в Twitter. Столкновение в соцсетях переросло в настоящий рэп-баттл: B.O.B. записал дисс на Тайсона, а учёный — на рэпера.”

Ученый записал дисс на рэпера.
А еще ругаются, что я рэп-баттлы посматриваю. 🙁
🔥1
Знаете, что еще круто в моей новой роли?

Нужно не только гонять на конференции, но и смотреть всякие презентации онлайн. Можно сказать, часть работы.

Сегодня предстоит посмотреть аж целых 3, общей длиной в 3.5-4 часа.
Это как смотреть сериалы, и чтобы вам за это платили (правда сериалы все же интереснее смотреть).

Но это все мелочи жизни. Приеду на работу, поделюсь чем в итоге закончилось мое исследование, и что буду делать дальше.
Учишься 5 лет на системного инженера, идешь работать на третьем курсе, изучаешь кучу всяких штучек, ходишь на дорогостоящие курсы, сдаешь экзамены…

И все это для того, чтобы узнать, что ключи шифрования - это в первую очередь желание соблюдать закон.

https://tjournal.ru/68889-deputaty-gosdumy-o-telegram-i-peredache-klyuchey-shifrovaniya
Вот я вас снова обманул. :(
Завтра напишу, честное слово!
Как вы помните, мне пришлось немало повозиться с десятком разных способов развертывания DCOS.

Чего я добивался? Я искал способ развернуть кластер, который можно очень легко и без лишних телодвижений увеличивать, уменьшать и, что самое важное, обновлять до последней версии - причем желательно автоматически.

CloudFormation не решал моей проблемы, дефолтный Bootstrap метод тоже (много надо делать руками). В итоге на встрече с командой шеф велел не заморачиваться апгрейдом. Мы можем себе позволить делать это руками (DCOS выпускает новую версию в лучшем случае раз в полгода), а самое важное это отказоустойчивость агентов, потому что customer impact.

Так что вот вам еще совет - не надо стремиться обеспечить 100% uptime системам, которые не влияют на KPI и SLA,

Второе что я сделал - я наконец-то присоединился к сообществу фанатов DCOS, где расспросил товарищей по несчастью, что мне можно сделать. И вот она сила толпы - мне предложили еще один вариант: использовать шаблоны Terraform!

У шаблонов DCOS на Terraform и CloudFormation есть две большие разницы. Если CF нужен строго для ознакомительных целей, то Terraform был собран фанатами и поддерживается, собственно, самими фанатами. Ребята потратили немало времени, чтобы это собрать, обкатать на разных платформах, и обновляют его с каждой новой версией.

Запустить кластер мне удалось с полпинка с минимальным количеством ошибок. Не смотря на то, что я не пользовался Terraform раньше и старался держаться подальше от продуктов Hashicorp по User Experience соображением, я заметил, что Terraform обладает неоспоримым преимуществом перед CloudFormation.

Когда вы создаете CF стек, для того чтобы прогнать его еще раз, вам нужно что-то изменить - либо в самом стеке, либо в его параметрах. При попытке собрать уже собранный стек еще раз, CF пошлет вас куда подальше (и будет прав). Это правильная политика, но если вы затем ручками удалите какой-нибудь ресурс, то прогнать стек еще раз не удастся. В интернете люди предлагают добавить параметр инкремента и обновлять его каждый раз, когда захочется повторить сборку.
Касательно EC2 это можно решать через ASG, но в остальном приходится довериться здравому смыслу ваших коллег (что у них не хватит ума что-то радостно стереть просто так.)

Terraform же “запоминает” ресурсы, которые создал, и когда вы делаете terraform apply, он побежит к AWS, проверит ресурсы, а потом скажет вам, что он собирается делать. Это очень здорово - собранные им ресурсы записываются в метаданные, и если вы удалите EC2 instance или S3 bucket или RDS instance руками, то Terraform потом его вам еще раз соберет, и мало того - если удаленный ресурс являлся зависимостью для других, то он и их пересоберет!

Я теперь вынужден пройти парочку обучений по Terraform, но предварительные результаты исследований мне нравятся. Мой старший коллега в прошлом много работал с ним и подтвердил его надежность как IaaC утилитки, а шеф дал добро на применение любого решения, которое fit for purpose.
На этом можно сказать, что моя катавасия с DCOS подошла к концу. Я еще далек от завершения поставленной задачи (кластер еще надо запустить, протестировать и перенести на него наш тулинг), но полученный опыт бесценен.
Пока писал этот пост, официально запретили Телеграм в РФ. В интернете много инструкций как обойти блокировку.

Оставайтесь на связи, учите английский и занимайтесь саморазвитием, как личностным, так и профессиональным.

На всякий случай. ;)
Тут подкинули новость, что из-за Zello заблокировали (или не заблокировали… пес их разберет) IP адреса AWS и GCP (облачный провайдер от Гугла).

Не буду вдаваться в политику, но хочу напомнить товарищам чиновникам и остальным ЛПРам (лица, принимающие решения), что в последний раз, когда у Амазона что-то отказывало, проблемы начинались у множества людей в абсолютно разных местах.

Самой офигеной аварией был отказ сервиса S3 в регионе us-east-1 (Северная Вирджиния). Это привело к каскадному отказу с эффектом домино - не запускались EC2 инстансы, Lambda не могла работать из-за нерабочего S3 API и т.д.

Подробно об этом отписался сам Амазон - https://aws.amazon.com/message/41926/

А у простых смертных отваливались различные вебсайты, (сотни и тысячи на самом деле), люди не могли обновить настройки мышек Razor, SmartTV не могли переключить каналы, в общем и целом был очень веселый цирк с конями.

Так вот если РКН *действительно* заблокирует *все* публичные адреса Амазона, пользоваться любым сервисом, который на нем хостится, будет невозможно.

Теперь я понимаю, почему Apple и Facebook держат свои дата-центры.
Ребятки, я тут улетаю навестить семью на пару недель. Буду ли писать или нет - пока не знаю. Если хотелось бы о чем-нибудь прочитать - вы знаете, что делать. 😉

Между делом немного саморекламы.

Мы с моими друзьями-приятелями запустили наш проект. Кто не помнит, это проект по автоматизированной торговле на рынке криптовалют.

Если вы из разряда людей “буквы нафиг, читаем цифры”, то вот вам цифры - stats.gsmg.io.
Ежели хотите познакомиться с нашей уютненько community, то милости прошу на slack-invite.gsmg.io
🔥1
Я тут пытаюсь первые полдня работать из дома, крайне ненавистное мне занятие. Дома телевизор, всякая еда, книжки и кроватка. Сфокусироваться очень тяжело.

Полез на Хабру и Медиум почитать про удаленщиков. Я неоднократно слышал, что удаленка требует усидчивости и самодисциплины (с чем у меня проблемы by design), но меня интересует непосредственно реализация.

Одним из советов было оборудовать дома кабинет, ну или рабочий стол. Я когда такие посты или статьи читаю, могу по этому предложению понять, что автор живет в штатах, где у каждого либо квартира 150 метров и 6 комнат, либо целый дом.

Естесственно в таких условиях очень просто оборудовать себе специальное рабочее место с 4 мониторами, механической клавой и постерами-мотиваторами с котятками.

Наша квартира (точнее не наша, мы снимаем) в Амстердаме на 10 квадратных местров меньше прошлой в Роттердаме, столов там только два: журнальный и обеденный. Поставить рабочий стол из Икеи элементарно некуда, на диване проще лежать, чем сидеть, про работу из кровати вообще молчу - ничего антипродуктивнее мир еще не придумал.

Вот такие советы от матерых удаленщиков все чаще напоминают посты про “выйди из зоны комфорта” от людей с достатком выше 100 тысяч долларов в год.
Ну раз работать не получается, то и вам не дам. Уморительное видео про собеседование с миллениалами (они же поколение Z) - https://www.facebook.com/liftercomua/videos/987838678039656

Если все действительно так, то я уже чувствую себя дедушкой.
Походу Telegram рискует повторить судьбу Zello, прикрываясь Амазоном от РКН.

What a time to be alive. ;)
Ну а Москва встречает меня дождем с громом и молниями, дудящими в клаксон водителями и заблокированным Телеграмом.

Добро пожаловать домой. :))
Могу сказать, что с Телеграммом, который то работает, то отваливается, работать уж точно неприятно. Так что в какой-то мере РКН своего добился.

Писать в Москве я, пожалуй, не буду, если только что-то интересное на ум придет.

Всем до связи.
Ну вот, взял небольшой отпуск, а двух человек сразу нет. Ну ничего. ;)

Я возвращаюсь 30-ого, буду сдавать руководству результаты своего исследования DCOS, заодно расскажу вам, как это происходит.

А пока почитайте интересную статейку. Надеюсь, ребята прошьют туда 3 закона Азимова. :))

https://rb.ru/story/robots-that-teach-themselves-kung-fu/
Все, вернулся в строй.
Приятно вернуться в свою зону комфорта с перманентными дождями, велосипедистами и работающим Телеграмом. :))

Сегодня-завтра ждите разбор на тему: «Как защитить свое исследование перед членами команды.»
Прошу прощения за небольшое опоздание. Итак, поехали.

Защита делится по группам людей, перед которыми надо “защищать” свое исследование (рассматривайте это как защиту диплома).
Защищаться в моем случае надо перед следующими группами лиц:
- перед своей (DevOps/Infra/etc) командой
- перед разработчиками
- перед менеджментом

Начнем с элементарного, а именно с менеджмента. Менеджмент сущность простая и говорит на языке цифр, поэтому предоставлять им нужно цифры. Проще говоря, ваше решение должно быть качественно лучше (быстрее, мощнее и т.д.) и НЕ дороже (а еще лучше дешевле).
Я уже писал, что архитекторов не нанимают, когда все хорошо. Нанятый по контракту или на полный рабочий день архитектор считается более квалифицированным, и если его решение дороже или, что еще хуже, не лучше и дороже, то это плохой архитектор.

Вторая по простоте группа - разработчики. Этих парней вообще ничего не интересует кроме их конкретной зоны ответственности. Тут единственный момент - нововведение не должно усложнять им жизнь (читай - им не придется что-либо переписывать). Если новое решение ни на что не влияет процессуально, то и вопросов будет по минимуму.

А вот третья группы - инженеры - это уже сложно. Вопросов задают много, бьют по недостаткам и очень хотят “быстро, круто и просто” (Spoiler alert - так не бывает).
Основные задаваемые вопросы - как, что и почему. Чаще всего “почему”.

Вот пример кейса - набросали решение, прогоняли на тестовом окружении, сразу вопрос: “А вот это оно умеет?”. И не дай Бог, вы ответите “нет” - придется идти обратно и переделывать.
В моем случае чаще всего задаваемый вопрос был “почему”:
- “Почему tfstate в репозитории?”
- “Почему сборка строго локально?”
- “Почему используется локальная роль, а не instance profile?”
- И много других.

Перед тем как презентовать и демонстрировать решение нужно прогнать все эти вопросы у себя в уме. Это не только поможет быть “готовым”, но и даст возможность еще раз посмотреть на свое решение чужими глазами и в очередной раз ответить на вопрос “Не х**ню ли я делаю?”.

Вот в принципе и все. Новый способ создания DCOS кластеров я успешно защитил, на следующей неделе начинаем внедрять.

Пока больше ничего интересного для следующего контента (кроме одного поста про крипту и Киркорова) на ум не приходит. Так что запрашиваю помощь зала в плане идей.

Оставайтесь на связи и не делайте х**ни.
👍1
Я тут обещал написать про Киркорова и криптуху.
Разумеется я не отношу себя к мамкиным криптотрейдерам. Я парень простой - слежу за тем, чтобы наша торговая платформа работала без перебоев.

Но раз уж зашел один раз в круги, так и варишься в этой котле (Я уже устал блокировать предложения по криптоконтенту от Яндекс.Дзен).

У криптовалютного бума есть один интересный момент - доступность для простых смертных (и лютых криптоанархистов-верунов) позволила людям нехило так обогатиться. Пока одни товарищи льют крокодиловые слезы, просматривая страницы “Сколько бы у вас было денег, купи вы биткоин на 5000 рублей в 2009”, другие успешно покупают себе Ламборгини, квартиры в Норвегии или открывают свои криптобиржи.

Не смотря на неплохую капитализацию, Большие Парни (Уоррен Баффет, Ричард Бренсон и прочие Германы Грефы) держатся (пока) в стороне от этого болота. Оставим причины и переключимся на другую интересную мне тему - Фила Киркорова.

Пошлая Молли, Фейс, Фараон, Версус, Дудь, Ольга Бузова, “Мамочка я не зигую”, Катя Клэп, Сарданов, Ургант, Гудков - я уже не сижу в соцсетях, но я насмотрелся на этих звезд Ютуба. Их популярность измеряется не рейтингом на телевидение, но количеством просмотров на Ютубе и лайков в Инстаграме.

И вот тут Филя К на пару с Ургантом и Гудковым рожает атомную бомбу под названием “Цвет настроения синий”, где Бузова - кассирша с нарощенными волосами, а Лепс так вообще бомж. БОМЖ! 24 миллиона просмотров за две недели. Двадцать. Четыре. Миллиона.
Легким взмахом руки, Король Эстрады (и я пишу это с абсолютным уважением и серьезностью), роняет всех этих доморощенных выскочек одним единственным треком, что твой Фейс роняет Запад. У.

К чему я это все? Сейчас, пока в Штатах проходит Консенсус, Богатые Дядьки Мира Сего, сидят себе спокойно с триллионами долларов и молчат. Когда Они решат, что пора входить в биточек, эфир, риппл и прочее, они устроят тут такой Содом и Гоморру, что за пару часов вся эта эгида профессиональных инвесторов из 8А во главе с Бутериным, братьями-близнецами, Томом Ли и прочими станет бомжами, затем миллиардерами, затем опять бомжами, при этом абсолютно не понимая что происходит.

Потому что есть те, кто на удачу купил биток в 2009-ом, а есть Короли. И Короли всегда выигрывают.
🔥1
Между делом случилось наконец-то то, что мы так долго ждали.

Блаженный сервис Fargate теперь доступен в регионе eu-west-1. А значит вся моя исследовательская деятельность по Terraform, DCOS и прочему может лететь в мусорный бак, потому что пора адаптировать все под “serverless” контейнерную оркестрацию.

Как же я люблю ИТ. ^^