Распределенные системы или история одного блекаута
Последнее время все большую популярность получают удаленные или облачные решения, когда на рабочем месте устанавливается тонкий клиент, а все остальные вычисления и данные расположены где-то там. В удаленном офисе, в облаке, неважно, где, главное, что не здесь локально.
И на все возражения, что это ненадежно обычно есть ответ – ой, да у нас тут интернет хороший, второй канал есть, бесперебойники, стабилизаторы, ну что тут может пойти не так?
Однако критерием истины является практика. А также сильное влияние имеет ряд совсем нетехнических вопросов. Когда все хорошо ими особо никто не задается. А когда становится не очень хорошо, то всплывает классическое: кто виноват и что делать?
Бизнес – это про зарабатывать деньги и больше не про что иное. Это может быть не очень приятно осознавать, но именно бизнес платит нам зарплату. Не будет денег у бизнеса – не будет денег у нас.
Простой – это плохо, особенно если у вас скоропортящийся товар и убыток тут складывается вполне реальный, в настоящих рублях, а не в некоторой «упущенной прибыли». А еще хуже, когда у вас простой, а конкуренты худо-бедно, но работают.
И неважно кто и когда принимал определенные решения, обязательно будет разбор полетов и поиск крайнего.
Вчера у нас в городе приключится блекаут. Самый настоящий, пропало электроснабжение, отопление, водоснабжение, связь, интернет. Не везде набор был полным, но практически везде выбило комбо.
Худо-бедно электроснабжение и связь стали появляться только во второй половине дня, а нормализовалась ситуация только к ночи.
Понятно, что это форс-мажор, но даже при форс-мажоре бизнес должен работать и даже не в погоне за длинным рублем, а для того, чтобы человек мог где-то недалеко от дома купить воды, молока, хлеба, спички и батарейки.
И тем, кто сделал ставку на облака или удаленку было вчера плохо, очень плохо. И если облака еще худо-бедно поднимались по мере появления интернета, то с удаленными серверами, расположенными в пределах города, была вообще беда.
Те же, кто использовал распределенные системы, несмотря на более сложную поддержку и обслуживание таковых, пережили блекаут более-менее нормально. Запустили генератор и уже как-то торгуем, пусть даже только за наличные.
Стала появляться связь? Можем начать принимать карты. Появилась связь с офисом – хорошо, нет – и так проживем.
Также сильно помогла децентрализация вспомогательных служб: сервера удаленного администрирования, синхронизации, VPN и т.д. Причем не обязательно использовать для этого публичные сервисы, достаточно купить VPS, это не дорого, но в разы повышает надежность, нежели если бы это все было сосредоточено в центральном офисе.
Появился интернет? Уже есть сетевая связность, возможность получить поддержку, передать или получить документы и т.д. и т.п.
Пропал? Ну пропал он на одной точке, остальные худо-бедно работают, а тот же администратор или управляющий при необходимости может выехать туда, где связь есть и продолжить работу оттуда.
Так вчера дежурная поддержка и менеджеры спокойно набились в подсобку одного из магазинов, где было электричество и связь и спокойно половину дня работали оттуда.
Также были сделаны правильные выводы насчет ИБП – это не средство резервного питания. Это защита от кратковременных перебоев в энергоснабжении. В случае аварии все что вам нужно – это корректно выключить оборудование.
Поэтому в подобных условиях настраивайте управляющий софт тушить сервера сразу, не дожидаясь разряда батарей. А сами сервера лучше включать по WoL самостоятельно, либо не раньше, чем через 15-20 минут после устойчивого появления энергоснабжения.
Ну и напоследок можем сказать, что подобные блекауты – это, конечно, форс-мажор. Но вот блекауты и аварии локального масштаба с сопоставимыми последствиями вполне вероятны, начиная от стихийных бедствий, заканчивая тем, что тракторист дядя Вася перекопал подвод электричества или связи к зданию.
Последнее время все большую популярность получают удаленные или облачные решения, когда на рабочем месте устанавливается тонкий клиент, а все остальные вычисления и данные расположены где-то там. В удаленном офисе, в облаке, неважно, где, главное, что не здесь локально.
И на все возражения, что это ненадежно обычно есть ответ – ой, да у нас тут интернет хороший, второй канал есть, бесперебойники, стабилизаторы, ну что тут может пойти не так?
Однако критерием истины является практика. А также сильное влияние имеет ряд совсем нетехнических вопросов. Когда все хорошо ими особо никто не задается. А когда становится не очень хорошо, то всплывает классическое: кто виноват и что делать?
Бизнес – это про зарабатывать деньги и больше не про что иное. Это может быть не очень приятно осознавать, но именно бизнес платит нам зарплату. Не будет денег у бизнеса – не будет денег у нас.
Простой – это плохо, особенно если у вас скоропортящийся товар и убыток тут складывается вполне реальный, в настоящих рублях, а не в некоторой «упущенной прибыли». А еще хуже, когда у вас простой, а конкуренты худо-бедно, но работают.
И неважно кто и когда принимал определенные решения, обязательно будет разбор полетов и поиск крайнего.
Вчера у нас в городе приключится блекаут. Самый настоящий, пропало электроснабжение, отопление, водоснабжение, связь, интернет. Не везде набор был полным, но практически везде выбило комбо.
Худо-бедно электроснабжение и связь стали появляться только во второй половине дня, а нормализовалась ситуация только к ночи.
Понятно, что это форс-мажор, но даже при форс-мажоре бизнес должен работать и даже не в погоне за длинным рублем, а для того, чтобы человек мог где-то недалеко от дома купить воды, молока, хлеба, спички и батарейки.
И тем, кто сделал ставку на облака или удаленку было вчера плохо, очень плохо. И если облака еще худо-бедно поднимались по мере появления интернета, то с удаленными серверами, расположенными в пределах города, была вообще беда.
Те же, кто использовал распределенные системы, несмотря на более сложную поддержку и обслуживание таковых, пережили блекаут более-менее нормально. Запустили генератор и уже как-то торгуем, пусть даже только за наличные.
Стала появляться связь? Можем начать принимать карты. Появилась связь с офисом – хорошо, нет – и так проживем.
Также сильно помогла децентрализация вспомогательных служб: сервера удаленного администрирования, синхронизации, VPN и т.д. Причем не обязательно использовать для этого публичные сервисы, достаточно купить VPS, это не дорого, но в разы повышает надежность, нежели если бы это все было сосредоточено в центральном офисе.
Появился интернет? Уже есть сетевая связность, возможность получить поддержку, передать или получить документы и т.д. и т.п.
Пропал? Ну пропал он на одной точке, остальные худо-бедно работают, а тот же администратор или управляющий при необходимости может выехать туда, где связь есть и продолжить работу оттуда.
Так вчера дежурная поддержка и менеджеры спокойно набились в подсобку одного из магазинов, где было электричество и связь и спокойно половину дня работали оттуда.
Также были сделаны правильные выводы насчет ИБП – это не средство резервного питания. Это защита от кратковременных перебоев в энергоснабжении. В случае аварии все что вам нужно – это корректно выключить оборудование.
Поэтому в подобных условиях настраивайте управляющий софт тушить сервера сразу, не дожидаясь разряда батарей. А сами сервера лучше включать по WoL самостоятельно, либо не раньше, чем через 15-20 минут после устойчивого появления энергоснабжения.
Ну и напоследок можем сказать, что подобные блекауты – это, конечно, форс-мажор. Но вот блекауты и аварии локального масштаба с сопоставимыми последствиями вполне вероятны, начиная от стихийных бедствий, заканчивая тем, что тракторист дядя Вася перекопал подвод электричества или связи к зданию.
👍35👀9❤5🥱3⚡1
Непонятно одно, зачем это?
Прочитал сегодня новости о выпуске первой версии MiDesktop -форка KDE версии 1, адаптированного для современных систем Linux.
Ну, в старых системах и интерфейсах есть своя прелесть, равно как остаются любители классики. Поэтому задача в целом интересная… Ровно до того, как мы начали изучать подробности.
А там очень интересно все: в проекте использован тулкит Osiris, который является форком Qt 2 для решения лицензионных проблем и ограничений ветки Qt 1.
Серьезно? Qt2 в 2026 году? С разрешениями от FHD и выше? Требованиями к экранам, сглаживанию и т.д. и т.п. Оказывается серьезно и вообще они бы Qt1 использовали, если бы не лицензионные ограничения.
После чего возникает закономерный вопрос – а зачем и для чего это все? Зачем возрождать KDE 1 в его первозданном виде? Ведь поезд давно уехал, технологии шагнули вперед и то, что было в свое время актуально, сегодня устарело морально и физически.
Нравятся заложенные в KDE 1 идеи и принципы? Ну так развивайте их, адаптировав к современным технологиям. И примеры тому есть. Например, Trinity Desktop Environment (TDE) – который развивает основные идеи KDE 3.5, посмотреть на него можно в операционной системе Q4OS на базе Debian.
У нас установлена не самая свежая версия, но уже и по ней ясно, что зацикливаться на старых «кедах» один к одному никто не стал. Да, взяли основное и переделали на современный лад, переписав весь код на Qt5.
Есть среда Mate, которая взялась развивать старый добрый GNOME2, но и там от основоположника остались только основные идеи, а так это вполне современная система.
Даже экзотическая Haiku, повторяя визуально оригинальный стиль BeOS использует современные фреймворки и предоставляет вполне актуальное качество картинки, пригодное для работы с HiDPI.
Да, не везде все гладко, есть свои проблемы, но все эти системы нацелены не на воскрешение старой среды в неизменном виде, а развитии ее основных идей на современных рельсах.
MiDesktop в текущем виде – проект мертворожденный. Потому что KDE 1 в 2026 году в своем оригинальном виде никому не нужна. Нравятся какие-то идеи или концепция внешнего вида? Так выделите их, сформулируйте и развивайте на современном технологическом уровне.
Прочитал сегодня новости о выпуске первой версии MiDesktop -форка KDE версии 1, адаптированного для современных систем Linux.
Ну, в старых системах и интерфейсах есть своя прелесть, равно как остаются любители классики. Поэтому задача в целом интересная… Ровно до того, как мы начали изучать подробности.
А там очень интересно все: в проекте использован тулкит Osiris, который является форком Qt 2 для решения лицензионных проблем и ограничений ветки Qt 1.
Серьезно? Qt2 в 2026 году? С разрешениями от FHD и выше? Требованиями к экранам, сглаживанию и т.д. и т.п. Оказывается серьезно и вообще они бы Qt1 использовали, если бы не лицензионные ограничения.
После чего возникает закономерный вопрос – а зачем и для чего это все? Зачем возрождать KDE 1 в его первозданном виде? Ведь поезд давно уехал, технологии шагнули вперед и то, что было в свое время актуально, сегодня устарело морально и физически.
Нравятся заложенные в KDE 1 идеи и принципы? Ну так развивайте их, адаптировав к современным технологиям. И примеры тому есть. Например, Trinity Desktop Environment (TDE) – который развивает основные идеи KDE 3.5, посмотреть на него можно в операционной системе Q4OS на базе Debian.
У нас установлена не самая свежая версия, но уже и по ней ясно, что зацикливаться на старых «кедах» один к одному никто не стал. Да, взяли основное и переделали на современный лад, переписав весь код на Qt5.
Есть среда Mate, которая взялась развивать старый добрый GNOME2, но и там от основоположника остались только основные идеи, а так это вполне современная система.
Даже экзотическая Haiku, повторяя визуально оригинальный стиль BeOS использует современные фреймворки и предоставляет вполне актуальное качество картинки, пригодное для работы с HiDPI.
Да, не везде все гладко, есть свои проблемы, но все эти системы нацелены не на воскрешение старой среды в неизменном виде, а развитии ее основных идей на современных рельсах.
MiDesktop в текущем виде – проект мертворожденный. Потому что KDE 1 в 2026 году в своем оригинальном виде никому не нужна. Нравятся какие-то идеи или концепция внешнего вида? Так выделите их, сформулируйте и развивайте на современном технологическом уровне.
💯14🥱6❤4👀2
Токсичность – наша национальная черта? Привычка?
О токсичности русскоязычных IT-сообществ наслышаны многие, многие вживую столкнулись с этим явлением. Особенно в сообществах старых, устоявшихся. Хотя, справедливости ради, надо сказать, что появляются и новые типы сообществ, где подобное поведение пресекается, но это только исключение, подтверждающее правило.
Есть у меня одна родственница, которая в свободное от основной работы время занимается 3D дизайном, преимущественно в Blender. Делает всякий рекламный креатив, чем серьезно поддерживает семейный бюджет.
И вот случилась у нее беда. Сгорел SSD в ноутбуке. Большинство она восстановила, что-то было продублировано, но осталась одна мелочь – 3D-объект воздушных шариков, он был простой, бесплатный, скачанный с сайта с бесплатными объектами.
Но тот сайт приказал долго жить и больше нигде она такого объекта не нашла. Оно бы и фиг с ним, но на нем было завязано много готовых проектов и переделывать их сильно не хотелось, тем более что заказчики хотели именно такой же, только немного другой.
Ну подалась она в одно из самых крупных отечественных сообществ на эту тему, где пожаловалась на свою беду и попросила помощи.
Самым первым делом ей объяснили, что она дура. Ну это классика жанра, пропускаем мимо ушей. Дальше ей пояснили, что такое нарисовать самому – пять минут делов, а после посыпались услуги сделать тоже самое от 10 до 25 тыс. руб.
Сказать, что она офигела, это ничего не сказать. Хотя эти самые шарики были в работах очень многих и проблемы поделиться ими как таковой не было.
В общем решила она попытать счастья за бугром, благо была зарегистрирована на зарубежном крупном форуме по теме.
Перевела свой вопрос переводчиком, извинилась за плохой английский и уже через полчаса получила первое сообщение.
К ней обращался известный метр и заслуженный участник того форума. Он извинился, что у него нет готового пакета, но он посмотрел, где лежат файлы и закинул их в архив. Ей надо только разместить их точно также у себя.
После чего он добавил, чтобы она обязательно отписалась и если не поможет, они будут вместе думать дальше.
Потом появились сообщения еще от нескольких участников, которые сбросили ей недостающее.
Но ей помог самый первый архив, о чем она сообщила и всех отблагодарила. На что ей пожелали успехов и попросили не теряться, заходить и общаться, невзирая на языковые сложности.
Когда она вернулась на наш форум, то обнаружила в своей теме срач на пяток страниц, ну написала, как ей помогли там. В итоге срач разросся до совсем неприличных размеров.
Тот форум она больше не посещает. Смысла нет. Равно как нет смысла читать его. Практического толка там ноль, зато срач и флуд бьют фонтаном.
Я думаю, что читателям все это знакомо. Но возникает вопрос, что является причиной тому? Тяжелое наследие СССР, 90-х, царской России (нужное подчеркнуть), менталитет, национальные особенности?
Хотя я могу привести пример современных комьюнити, лишенных этого недостатка. Иногда можно даже сравнить, скажем в мире 1С есть Инфостарт и Миста. И если первый является вполне современным и дружелюбным, но последняя как деревенский клуб ближе к полуночи.
И самое интересное, что и там и там могут общаться одни и те же люди, но в радикально различном амплуа. Тут мы приличные и благообразные специалисты, там – разнузданные тролли.
На мой взгляд люди везде одинаковые, но там интернет появился несколько раньше, чем у нас и там более прагматичный подход к монетизации ресурсов. Это у нас почему-то монетизация считается чем-то порицаемым. Там – просто бизнес.
Тролли и токсичность монетизации мешают, поэтому от них надо избавляться. У нас же часто сообщества играют роль некоторых закрытых клубов «причастных» и начинают оказывать влияние на владельцев по принципу «хвост виляет собакой».
Поэтому давайте прививать вокруг здоровое, взаимоуважительное общение. А лучший критерий – это готовы ли вы сказать другому в лицо все то, что только что написали?
О токсичности русскоязычных IT-сообществ наслышаны многие, многие вживую столкнулись с этим явлением. Особенно в сообществах старых, устоявшихся. Хотя, справедливости ради, надо сказать, что появляются и новые типы сообществ, где подобное поведение пресекается, но это только исключение, подтверждающее правило.
Есть у меня одна родственница, которая в свободное от основной работы время занимается 3D дизайном, преимущественно в Blender. Делает всякий рекламный креатив, чем серьезно поддерживает семейный бюджет.
И вот случилась у нее беда. Сгорел SSD в ноутбуке. Большинство она восстановила, что-то было продублировано, но осталась одна мелочь – 3D-объект воздушных шариков, он был простой, бесплатный, скачанный с сайта с бесплатными объектами.
Но тот сайт приказал долго жить и больше нигде она такого объекта не нашла. Оно бы и фиг с ним, но на нем было завязано много готовых проектов и переделывать их сильно не хотелось, тем более что заказчики хотели именно такой же, только немного другой.
Ну подалась она в одно из самых крупных отечественных сообществ на эту тему, где пожаловалась на свою беду и попросила помощи.
Самым первым делом ей объяснили, что она дура. Ну это классика жанра, пропускаем мимо ушей. Дальше ей пояснили, что такое нарисовать самому – пять минут делов, а после посыпались услуги сделать тоже самое от 10 до 25 тыс. руб.
Сказать, что она офигела, это ничего не сказать. Хотя эти самые шарики были в работах очень многих и проблемы поделиться ими как таковой не было.
В общем решила она попытать счастья за бугром, благо была зарегистрирована на зарубежном крупном форуме по теме.
Перевела свой вопрос переводчиком, извинилась за плохой английский и уже через полчаса получила первое сообщение.
К ней обращался известный метр и заслуженный участник того форума. Он извинился, что у него нет готового пакета, но он посмотрел, где лежат файлы и закинул их в архив. Ей надо только разместить их точно также у себя.
После чего он добавил, чтобы она обязательно отписалась и если не поможет, они будут вместе думать дальше.
Потом появились сообщения еще от нескольких участников, которые сбросили ей недостающее.
Но ей помог самый первый архив, о чем она сообщила и всех отблагодарила. На что ей пожелали успехов и попросили не теряться, заходить и общаться, невзирая на языковые сложности.
Когда она вернулась на наш форум, то обнаружила в своей теме срач на пяток страниц, ну написала, как ей помогли там. В итоге срач разросся до совсем неприличных размеров.
Тот форум она больше не посещает. Смысла нет. Равно как нет смысла читать его. Практического толка там ноль, зато срач и флуд бьют фонтаном.
Я думаю, что читателям все это знакомо. Но возникает вопрос, что является причиной тому? Тяжелое наследие СССР, 90-х, царской России (нужное подчеркнуть), менталитет, национальные особенности?
Хотя я могу привести пример современных комьюнити, лишенных этого недостатка. Иногда можно даже сравнить, скажем в мире 1С есть Инфостарт и Миста. И если первый является вполне современным и дружелюбным, но последняя как деревенский клуб ближе к полуночи.
И самое интересное, что и там и там могут общаться одни и те же люди, но в радикально различном амплуа. Тут мы приличные и благообразные специалисты, там – разнузданные тролли.
На мой взгляд люди везде одинаковые, но там интернет появился несколько раньше, чем у нас и там более прагматичный подход к монетизации ресурсов. Это у нас почему-то монетизация считается чем-то порицаемым. Там – просто бизнес.
Тролли и токсичность монетизации мешают, поэтому от них надо избавляться. У нас же часто сообщества играют роль некоторых закрытых клубов «причастных» и начинают оказывать влияние на владельцев по принципу «хвост виляет собакой».
Поэтому давайте прививать вокруг здоровое, взаимоуважительное общение. А лучший критерий – это готовы ли вы сказать другому в лицо все то, что только что написали?
1💯80👍26❤10🔥6🤮4
Мониторинг - он такой разный
Каждый администратор рано или поздно приходит к теме мониторинга. Но мониторинг - он бывает разный и нельзя сказать что какой-то хуже или лучше. Он, как и любой инструмент, рассчитан на свой круг задач, где-то узкий, где-то широкий.
📉 Начнем с совсем простых инструментов. Таких как Системный монитор в Windows или, например, nmon в Linux.
Это приложения наподобие диспетчера задач, но немного круче - они позволяют произвольно сочетать и отслеживать в реальном времени нужные метрики и проводить причинно-следственные связи между ними. А также могут записать нужную информацию в файл.
Они хороши когда нужно разобраться здесь и сейчас. Когда кто-то сильно грузит систему или потребляет много ресурсов.
🟢 Вторая категория - это локальный мониторинг отдельного узла, мы рассматривали одну из таких программ - Monitorix. Она уже постоянно запущена, как сервис и собирает заданные метрики на постоянной основе, а также умеет вовремя оповещать о происходящих событиях.
Подключившись к ней можно оценить текущую загрузку узла, тенденции изменения показателей, их историю. Не требует сторонней инфраструктуры.
Но минус всех этих программ в том, что если сервер с ними вдруг окажется недоступен, то вы так и не сможете узнать о том, что происходило перед этим, так как мониторинг будет недоступен вместе с сервером.
🛰 Отдельной строчкой стоят средства мониторинга сети, один из популярных - The Dude от Mikrotik.
Можно ли при помощи Dude контролировать метрики узла? Кое что можно, но для этого есть другие инструменты, более для этого предназначенные. А так и саморезы можно молотком забивать, при великой и неотложной нужде.
Эти программы в первую очередь нужны для того, чтобы быстро реагировать на происшествия в вашей сетевой инфраструктуре. Показывая доступность узлов и нагрузку каналов. Это тоже важно и нужно, но не заменяет другие средства.
🏆 Ну и наконец такие монстры уровня предприятия как Zabbix. Многие представляют его как пульт управления ядерным реактором. Где мигают лампочки, рисуются графики, постоянно меняются показатели.
Многие даже начинают настраивать под себя визуализацию. Но на деле все гораздо скучнее и прозаичнее. Zabbix - это действительно ПО уровня предприятия. И куча графиков будет только мешать, отвлекая от важного. Ну и как показывает практика, смотрят на них всего пару раз. Сразу как сделал и когда решил показать другу.
Zabbix, как и любой хороший мониторинг такого класса, вообще не должен привлекать к себе излишнего внимания. Его задача вовремя оповестить от том, что где-то там возникла проблема и с этим он отлично справляется.
Когда в вашем подчинении оказывается пару десятков устройств, то уделить каждому внимание и просмотреть показатели становится практически невозможным (ну или надо забросить другие дела). Поэтому Zabbix работает по другому. Он молча собирает показатели и сообщает когда они выходят за пределы установленных значений.
У опытных админов на панели Zabbix обычно всего два виджета: проблемы и история проблем.
☝️ При этом нельзя сказать, что какая-то одна из систем может закрыть на 100% все запросы. Системы мониторинга дополняют друг друга и нет ничего плохого в том, чтобы их комбинировать.
Каждый администратор рано или поздно приходит к теме мониторинга. Но мониторинг - он бывает разный и нельзя сказать что какой-то хуже или лучше. Он, как и любой инструмент, рассчитан на свой круг задач, где-то узкий, где-то широкий.
📉 Начнем с совсем простых инструментов. Таких как Системный монитор в Windows или, например, nmon в Linux.
Это приложения наподобие диспетчера задач, но немного круче - они позволяют произвольно сочетать и отслеживать в реальном времени нужные метрики и проводить причинно-следственные связи между ними. А также могут записать нужную информацию в файл.
Они хороши когда нужно разобраться здесь и сейчас. Когда кто-то сильно грузит систему или потребляет много ресурсов.
🟢 Вторая категория - это локальный мониторинг отдельного узла, мы рассматривали одну из таких программ - Monitorix. Она уже постоянно запущена, как сервис и собирает заданные метрики на постоянной основе, а также умеет вовремя оповещать о происходящих событиях.
Подключившись к ней можно оценить текущую загрузку узла, тенденции изменения показателей, их историю. Не требует сторонней инфраструктуры.
Но минус всех этих программ в том, что если сервер с ними вдруг окажется недоступен, то вы так и не сможете узнать о том, что происходило перед этим, так как мониторинг будет недоступен вместе с сервером.
🛰 Отдельной строчкой стоят средства мониторинга сети, один из популярных - The Dude от Mikrotik.
Можно ли при помощи Dude контролировать метрики узла? Кое что можно, но для этого есть другие инструменты, более для этого предназначенные. А так и саморезы можно молотком забивать, при великой и неотложной нужде.
Эти программы в первую очередь нужны для того, чтобы быстро реагировать на происшествия в вашей сетевой инфраструктуре. Показывая доступность узлов и нагрузку каналов. Это тоже важно и нужно, но не заменяет другие средства.
🏆 Ну и наконец такие монстры уровня предприятия как Zabbix. Многие представляют его как пульт управления ядерным реактором. Где мигают лампочки, рисуются графики, постоянно меняются показатели.
Многие даже начинают настраивать под себя визуализацию. Но на деле все гораздо скучнее и прозаичнее. Zabbix - это действительно ПО уровня предприятия. И куча графиков будет только мешать, отвлекая от важного. Ну и как показывает практика, смотрят на них всего пару раз. Сразу как сделал и когда решил показать другу.
Zabbix, как и любой хороший мониторинг такого класса, вообще не должен привлекать к себе излишнего внимания. Его задача вовремя оповестить от том, что где-то там возникла проблема и с этим он отлично справляется.
Когда в вашем подчинении оказывается пару десятков устройств, то уделить каждому внимание и просмотреть показатели становится практически невозможным (ну или надо забросить другие дела). Поэтому Zabbix работает по другому. Он молча собирает показатели и сообщает когда они выходят за пределы установленных значений.
У опытных админов на панели Zabbix обычно всего два виджета: проблемы и история проблем.
☝️ При этом нельзя сказать, что какая-то одна из систем может закрыть на 100% все запросы. Системы мониторинга дополняют друг друга и нет ничего плохого в том, чтобы их комбинировать.
👍24🔥3🥱3❤1🤡1
И снова про рекламу и донаты
Эта тема уже неоднократно поднималась на данном ресурсе и непременно будет подниматься вновь, так уж устроен человек.
Мы сейчас не будем бросаться в крайности, потому что всегда найдется категория читателей, которая в принципе не переносит рекламу и считает, что автор должен персонально им и вообще должен быть голодным.
Мы же будем говорить о читателе адекватном, который в принципе понимает, что количество и качество публикуемых материалов каким-то образом связано с количеством рекламы и где-то там соглашается с позицией: нет рекламы – нет контента.
Сегодня мы хотим показать другую сторону этой всей кухни – то, как создаются материалы и сколько времени это занимает.
Все материалы в канале делятся, собственно, на материалы канала и анонсы статей сайта. Обязательный план – минимум две заметки в день.
Средняя техническая заметка для Telegram занимает час-полтора времени. Потому что нужно найти материал, проверить его, скомпоновать, упорядочить и придумать как уместить все это в 4000 символов.
Короткая заметка за жизнь, типа этой, также занимает не менее часа, потому что нужно сделать подводку, выразить основную мысль и сделать заключение, опять-таки в пределах тех самых 4000 символов.
Нет, можно, конечно, выплеснуть сразу из головы, только будет это нечитаемая каша, мутный поток сознания.
Итого по нашему плану имеем 1,25 * 30 = 37,5 часов в месяц, без чуть-чуть рабочая неделя. Это только на подготовку коротких заметок в канал.
Но основной контент мы по-прежнему размещаем на сайте. План – от 4 статей в месяц. А вот там все гораздо сложнее.
Даже такой простой обзор, как вчерашний требует куда больше времени, чем заметка. Прежде всего надо изучить что уже написали по этой теме, на что обратить внимание самому и вообще, есть ли смысл писать. Минимум от часа времени.
Развернуть систему, проверить все интересующие аспекты, сделать скриншоты – где-то еще часа два. Потому что проверить и посмотреть надо многое, но не все из этого попадет в статью.
План статьи – еще час, делается либо параллельно, либо по горячим следам. Потому что без плана статью можно писать только с колес, уже на следующий день многое из того, что обратило на себя внимание забудется.
По мере составления плана может оказаться что не хватает каких-то скриншотов или надо проверить некоторые иные моменты, возвращаемся в предыдущий пункт.
Само написание обзора – час-полтора, затем вычитка, проверка орфографии, пунктуации, стилистики – еще полчаса.
Что имеем в сухом остатке? По минимуму 5,5-6 часов. На обзор, который читается за 5-10 минут. В этом, собственно, и смысл подобных материалов – коротко, но емко дать общую информацию. Полотно на десять экранов вниз с сотней картинок просто никто не будет читать.
Технические статьи занимают еще больше времени. Там тоже все начинается с этапа изучения уже написанного, тот же час.
Затем изучается документация, еще час-два. Потом стенд и кропотливая запись каждого действия.
Сделали? Разворачиваем стенд по новой и дословно воспроизводим записанное. Должны получить полное совпадение результата. В зависимости от сложности еще часа два -три.
Если документация скупа или что-то не получается, то начинается поиск и отладка, тоже часы, но мы их считать не будем.
Если результат нас устроил и показывает повторяемость, то составляем план статьи, готовим скриншоты, схемы и т.д., это еще один чистовой прогон. Еще два часа.
Само написание текста, в зависимости от сложности оформления, еще несколько часов, от двух до четырех.
Итог? Опять по минимуму 9-10 часов, на одну статью. Или около 40 часов в месяц.
Итого в месяц получаем 80 часов работы с контентом, это две полноценных рабочих недели.
Можно ли тащить такой объем на энтузиазме? Или донатах, которых за прошлый год набралось целых десять тысяч рублей? Совмещая это с основной работой, семьей, бытом? Занимаясь этим регулярно, через «лениво» и «не хочу»?
Как минимум семья не поймет, а потом и сам сядешь и подумаешь: «А на фига оно мне надо? Может лучше в лес или на рыбалку?»
Эта тема уже неоднократно поднималась на данном ресурсе и непременно будет подниматься вновь, так уж устроен человек.
Мы сейчас не будем бросаться в крайности, потому что всегда найдется категория читателей, которая в принципе не переносит рекламу и считает, что автор должен персонально им и вообще должен быть голодным.
Мы же будем говорить о читателе адекватном, который в принципе понимает, что количество и качество публикуемых материалов каким-то образом связано с количеством рекламы и где-то там соглашается с позицией: нет рекламы – нет контента.
Сегодня мы хотим показать другую сторону этой всей кухни – то, как создаются материалы и сколько времени это занимает.
Все материалы в канале делятся, собственно, на материалы канала и анонсы статей сайта. Обязательный план – минимум две заметки в день.
Средняя техническая заметка для Telegram занимает час-полтора времени. Потому что нужно найти материал, проверить его, скомпоновать, упорядочить и придумать как уместить все это в 4000 символов.
Короткая заметка за жизнь, типа этой, также занимает не менее часа, потому что нужно сделать подводку, выразить основную мысль и сделать заключение, опять-таки в пределах тех самых 4000 символов.
Нет, можно, конечно, выплеснуть сразу из головы, только будет это нечитаемая каша, мутный поток сознания.
Итого по нашему плану имеем 1,25 * 30 = 37,5 часов в месяц, без чуть-чуть рабочая неделя. Это только на подготовку коротких заметок в канал.
Но основной контент мы по-прежнему размещаем на сайте. План – от 4 статей в месяц. А вот там все гораздо сложнее.
Даже такой простой обзор, как вчерашний требует куда больше времени, чем заметка. Прежде всего надо изучить что уже написали по этой теме, на что обратить внимание самому и вообще, есть ли смысл писать. Минимум от часа времени.
Развернуть систему, проверить все интересующие аспекты, сделать скриншоты – где-то еще часа два. Потому что проверить и посмотреть надо многое, но не все из этого попадет в статью.
План статьи – еще час, делается либо параллельно, либо по горячим следам. Потому что без плана статью можно писать только с колес, уже на следующий день многое из того, что обратило на себя внимание забудется.
По мере составления плана может оказаться что не хватает каких-то скриншотов или надо проверить некоторые иные моменты, возвращаемся в предыдущий пункт.
Само написание обзора – час-полтора, затем вычитка, проверка орфографии, пунктуации, стилистики – еще полчаса.
Что имеем в сухом остатке? По минимуму 5,5-6 часов. На обзор, который читается за 5-10 минут. В этом, собственно, и смысл подобных материалов – коротко, но емко дать общую информацию. Полотно на десять экранов вниз с сотней картинок просто никто не будет читать.
Технические статьи занимают еще больше времени. Там тоже все начинается с этапа изучения уже написанного, тот же час.
Затем изучается документация, еще час-два. Потом стенд и кропотливая запись каждого действия.
Сделали? Разворачиваем стенд по новой и дословно воспроизводим записанное. Должны получить полное совпадение результата. В зависимости от сложности еще часа два -три.
Если документация скупа или что-то не получается, то начинается поиск и отладка, тоже часы, но мы их считать не будем.
Если результат нас устроил и показывает повторяемость, то составляем план статьи, готовим скриншоты, схемы и т.д., это еще один чистовой прогон. Еще два часа.
Само написание текста, в зависимости от сложности оформления, еще несколько часов, от двух до четырех.
Итог? Опять по минимуму 9-10 часов, на одну статью. Или около 40 часов в месяц.
Итого в месяц получаем 80 часов работы с контентом, это две полноценных рабочих недели.
Можно ли тащить такой объем на энтузиазме? Или донатах, которых за прошлый год набралось целых десять тысяч рублей? Совмещая это с основной работой, семьей, бытом? Занимаясь этим регулярно, через «лениво» и «не хочу»?
Как минимум семья не поймет, а потом и сам сядешь и подумаешь: «А на фига оно мне надо? Может лучше в лес или на рыбалку?»
1🤝53🤮10❤8👍7
AppArmor-шум или тонкие настройки логов в LXC-контейнерах Proxmox
Изучая системный журнал Proxmox, вы можете обнаружить целые блоки записей вида:
Они не свидетельствуют о каких-либо проблемах и могут быть проигнорированы, однако таких записей может быть много, что серьезно засоряет лог и затрудняет его чтение.
Но что это вообще за записи? Давайте разберемся. Как мы можем видеть источником записи является служба rsyslogd контейнера, которая хочет получить доступ к dev-log хоста, чтобы что-то записать в системный лог, но AppArmor ей в этом препятствует.
В общем и целом, в rsyslogd для контейнеров нет особой нужны, она только дублирует работу systemd-journald, поэтому его можно отключить, это полностью решит проблему AppArmor-шума.
Но мы пойдем немного дальше и подумаем, а нужны ли нам вообще системные логи в контейнерах? Чтобы посмотреть, что systemd-journald туда пишет запустите:
Ситуация дополнительно усугубляется тем, что такие логи пишет каждый контейнер, создавая дополнительную нагрузку на диск, хотя данные логи фактически бесполезны.
Радикальное решение – отключить логирование вообще, но это может затруднить отладку и диагностику в контейнере. Поэтому мы пойдем другим путем и настроим логирование.
Так как нам нет необходимости хранить системные логи, то мы разместим их в оперативной памяти, тем самым снизив нагрузку на дисковую подсистему хоста.
Такое решение позволит нам иметь логи для диагностики и отладки, но не засорять ими память и не создавать лишнюю нагрузку. Также отключим службу rsyslogd за ненадобностью.
Начнем:
Затем создадим директорию
А в ней создадим и откроем на редактирование файл:
В который внесем следующее содержимое:
Первые две строки предписывают использовать для логов оперативную память и задают доступный размер (в нашем случае 64 МБ).
Последняя строка запрещает перенаправлять события в syslog, несмотря на то что мы отключили rsyslog данная опция не будет лишней, потому что по умолчанию systemd-journald перенаправляет туда каждое событие.
Да, они будут перенаправляться в никуда, но зачем вообще тратить на это ресурсы? А в некоторых конфигурациях это может стать дополнительным источником сообщений в логах.
Сохраняем содержимое файла и перезапускаем службу:
Проверяем, AppArmor-шум должен полностью прекратиться, а логи теперь собираются в оперативную память и не расходуют ресурсы хоста.
Изучая системный журнал Proxmox, вы можете обнаружить целые блоки записей вида:
apparmor="DENIED" operation="sendmsg" class="file" namespace="root//lxc-803_<-var-lib-lxc>" profile="rsyslogd" name="/run/systemd/journal/dev-log"
Они не свидетельствуют о каких-либо проблемах и могут быть проигнорированы, однако таких записей может быть много, что серьезно засоряет лог и затрудняет его чтение.
Но что это вообще за записи? Давайте разберемся. Как мы можем видеть источником записи является служба rsyslogd контейнера, которая хочет получить доступ к dev-log хоста, чтобы что-то записать в системный лог, но AppArmor ей в этом препятствует.
В общем и целом, в rsyslogd для контейнеров нет особой нужны, она только дублирует работу systemd-journald, поэтому его можно отключить, это полностью решит проблему AppArmor-шума.
Но мы пойдем немного дальше и подумаем, а нужны ли нам вообще системные логи в контейнерах? Чтобы посмотреть, что systemd-journald туда пишет запустите:
journalctl -f
Ситуация дополнительно усугубляется тем, что такие логи пишет каждый контейнер, создавая дополнительную нагрузку на диск, хотя данные логи фактически бесполезны.
Радикальное решение – отключить логирование вообще, но это может затруднить отладку и диагностику в контейнере. Поэтому мы пойдем другим путем и настроим логирование.
Так как нам нет необходимости хранить системные логи, то мы разместим их в оперативной памяти, тем самым снизив нагрузку на дисковую подсистему хоста.
Такое решение позволит нам иметь логи для диагностики и отладки, но не засорять ими память и не создавать лишнюю нагрузку. Также отключим службу rsyslogd за ненадобностью.
Начнем:
systemctl stop rsyslog
systemctl mask rsyslog
Затем создадим директорию
mkdir -p /etc/systemd/journald.conf.d
А в ней создадим и откроем на редактирование файл:
nano /etc/systemd/journald.conf.d/00-journal.conf
В который внесем следующее содержимое:
[Journal]
Storage=volatile
RuntimeMaxUse=64M
ForwardToSyslog=no
Первые две строки предписывают использовать для логов оперативную память и задают доступный размер (в нашем случае 64 МБ).
Последняя строка запрещает перенаправлять события в syslog, несмотря на то что мы отключили rsyslog данная опция не будет лишней, потому что по умолчанию systemd-journald перенаправляет туда каждое событие.
Да, они будут перенаправляться в никуда, но зачем вообще тратить на это ресурсы? А в некоторых конфигурациях это может стать дополнительным источником сообщений в логах.
Сохраняем содержимое файла и перезапускаем службу:
systemctl restart systemd-journald
Проверяем, AppArmor-шум должен полностью прекратиться, а логи теперь собираются в оперативную память и не расходуют ресурсы хоста.
👍23🤔2🤮2❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Кот из дома – мыши в пляс
Хотите посмотреть, что делают ваши сотрудники, подрядчики и прочие лица, наделенные административным доступом в Linux?
Да, можно почитать логи, посмотреть историю команд, но это не даст полного представления, особенно если были использованы интерактивные утилиты.
Но sudo готово нам помочь, причем совершенно «бесплатно», все нужные инструменты уже есть из коробки, осталось только использовать.
Для этого добавьте в /etc/sudoers два параметра, которые отвечают за запись потоков ввода и вывода сессии, например:
Потом смотрим, кто и когда работал под sudo указав имя пользователя:
В колонке TSID находим номер сеанса и запускаем его просмотр, обязательно добавьте ключ -R, чтобы не изменять размер изображения, который может поломать картинку, также можно добавить ключ -s и указать нужную скорость:
Приятного просмотра!
Хотите посмотреть, что делают ваши сотрудники, подрядчики и прочие лица, наделенные административным доступом в Linux?
Да, можно почитать логи, посмотреть историю команд, но это не даст полного представления, особенно если были использованы интерактивные утилиты.
Но sudo готово нам помочь, причем совершенно «бесплатно», все нужные инструменты уже есть из коробки, осталось только использовать.
Для этого добавьте в /etc/sudoers два параметра, которые отвечают за запись потоков ввода и вывода сессии, например:
%sudo ALL=(ALL:ALL) NOPASSWD:LOG_INPUT:LOG_OUTPUT:ALL
Потом смотрим, кто и когда работал под sudo указав имя пользователя:
sudoreplay -l user andrey
В колонке TSID находим номер сеанса и запускаем его просмотр, обязательно добавьте ключ -R, чтобы не изменять размер изображения, который может поломать картинку, также можно добавить ключ -s и указать нужную скорость:
sudoreplay 000005 -R -s 2
Приятного просмотра!
1👍35🔥5❤1
RouterOS long-term 7.20.7 – наконец то дождались!
Новый год порадовал нас выходом первой long-term версии RouterOS 7. В линейке Mikrotik канал long-term не имеет четко обозначенных сроков поддержки, но это самый стабильный и консервативный канал с достаточно редким выпуском мажорных версий.
Это означает появление некоторого островка стабильности, среза операционной системы, на котором разработчики сказали: «Стоп, хватит, система в таком виде готова, оставляем так».
Именно с появлением long-term можно серьезно рассматривать переход на RouterOS 7 в продуктивных средах, опираясь на long-term как опорную точку.
Нет, оно можно было и до этого, но тогда каждый новый релиз был лотереей, вы никогда не знали, что он принесет нового, удалит или поменяет старого. А менялось там много и часто.
Мы пробовали писать статьи по RouterOS 7, но написав парочку отказались от этой затеи, так как тексты переделывать приходилось бы через релиз-два.
Теперь ситуация изменилась. Да, система продолжит развиваться и выкатывать новые изменения в канале stable, но параллельно с ним у нас будет стабильный срез - long-term, на который мы можем ориентироваться как на некоторый эталон, по крайней мере до выхода следующего long-term.
А также можно быть уверенным, что многое из того, что вошло в первый long-term релиз с нами надолго и именно в таком виде мы будем видеть и воспринимать RouterOS в ближайшее время. Особенно это касается тех частей системы, которые с начала ее выпуска активно изменялись.
Новый год порадовал нас выходом первой long-term версии RouterOS 7. В линейке Mikrotik канал long-term не имеет четко обозначенных сроков поддержки, но это самый стабильный и консервативный канал с достаточно редким выпуском мажорных версий.
Это означает появление некоторого островка стабильности, среза операционной системы, на котором разработчики сказали: «Стоп, хватит, система в таком виде готова, оставляем так».
Именно с появлением long-term можно серьезно рассматривать переход на RouterOS 7 в продуктивных средах, опираясь на long-term как опорную точку.
Нет, оно можно было и до этого, но тогда каждый новый релиз был лотереей, вы никогда не знали, что он принесет нового, удалит или поменяет старого. А менялось там много и часто.
Мы пробовали писать статьи по RouterOS 7, но написав парочку отказались от этой затеи, так как тексты переделывать приходилось бы через релиз-два.
Теперь ситуация изменилась. Да, система продолжит развиваться и выкатывать новые изменения в канале stable, но параллельно с ним у нас будет стабильный срез - long-term, на который мы можем ориентироваться как на некоторый эталон, по крайней мере до выхода следующего long-term.
А также можно быть уверенным, что многое из того, что вошло в первый long-term релиз с нами надолго и именно в таком виде мы будем видеть и воспринимать RouterOS в ближайшее время. Особенно это касается тех частей системы, которые с начала ее выпуска активно изменялись.
4👍56❤5👌2🤡2🤝1
Устанавливаем собственный Joplin-сервер
Jolpin – кроссплатформенное приложение с открытым исходным кодом для ведения базы заметок, является хорошей альтернативой Evernote. Для совместной работы приложение предлагает большое количество способов синхронизации, одним из которых является использование собственного сервера.
Официально Joplin Server предусматривает использование Docker, других способов установки не предусмотрено. Для хранения базы заметок предлагается использовать PostgreSQL. В итоге у вас получится два контейнера: один для сервера Joplin, второй для СУБД.
Для установки создадим отдельный каталог, например,
Он достаточно прост и в особых комментариях не нуждается. Отдельно стоит обратить внимание только на
Сохраняем файл и запускаем:
После чего просто переходим по указанному в конфигурации URL. При первом входе обязательно установите надежный пароль администратора.
Сам Joplin Server – приложение предельно простое, даже примитивное, особо смотреть и настраивать здесь нечего.
Рекомендуем сразу перейти в раздел Users и создать нужное количество пользователей, под встроенным администратором работать разработчики категорически не рекомендуют, плюс у него нет реальной почты, и вы не сможете воспользоваться функцией восстановления пароля или получать уведомления.
Также еще можно заглянуть в раздел Tasks – там перечислены регламентные задания для обслуживания сервера, их расписание и статус.
После чего можно скачивать клиент и переходить к настройке синхронизации. Синхронизация при подключении нового клиента производится в обе стороны, т.е. все локальные заметки будут добавлены на сервер, а все удаленные будут скачаны на клиент.
Это удобно, если у вас есть две независимые базы, скажем на компьютере и телефоне и вы хотите их объединить и использовать совместно.
Для других сценариев полезно будет заглянуть в Расширенные настройки синхронизации. Опция Перегрузка локальных данных в цель синхронизации пригодится вам если вы хотите полностью заменить данные на сервере локальной копией. Скажем, после экспериментов или при восстановлении резервной копии.
Вторая опция Удалить локальные данные и перегрузить данные с цели синхронизации понадобится вам гораздо чаще. Рекомендуем использовать ее для подключение нового чистого клиента, в противном случае на сервер у вас будут синхронизированы стандартные заметки по умолчанию или вам потребуется предварительно удалить их руками.
Jolpin – кроссплатформенное приложение с открытым исходным кодом для ведения базы заметок, является хорошей альтернативой Evernote. Для совместной работы приложение предлагает большое количество способов синхронизации, одним из которых является использование собственного сервера.
Официально Joplin Server предусматривает использование Docker, других способов установки не предусмотрено. Для хранения базы заметок предлагается использовать PostgreSQL. В итоге у вас получится два контейнера: один для сервера Joplin, второй для СУБД.
Для установки создадим отдельный каталог, например,
/opt/joplin и разместим там файл docker-compose.yml со следующим содержимым: services:
db:
image: postgres:17
volumes:
- ./data/postgres:/var/lib/postgresql/data
ports:
- "5432:5432"
restart: always
environment:
POSTGRES_PASSWORD: MyPa$$worD
POSTGRES_USER: joplin-user
POSTGRES_DB: joplindb
app:
image: joplin/server:latest
container_name: joplin-server
depends_on:
- db
ports:
- "8080:8080"
restart: always
environment:
APP_PORT: 8080
APP_BASE_URL: http://joplin.example.com:8080
DB_CLIENT: pg
POSTGRES_PASSWORD: MyPa$$worD
POSTGRES_DATABASE: joplindb
POSTGRES_USER: joplin-user
POSTGRES_PORT: 5432
POSTGRES_HOST: db
Он достаточно прост и в особых комментариях не нуждается. Отдельно стоит обратить внимание только на
APP_BASE_URL – укажите там именно тот адрес, по которому вы будете реально обращаться к серверу, если вы укажете joplin.example.com, а обращаться будете, скажем, как 192.168.1.100 – то ничего работать не будет.Сохраняем файл и запускаем:
docker compose up -d
После чего просто переходим по указанному в конфигурации URL. При первом входе обязательно установите надежный пароль администратора.
Сам Joplin Server – приложение предельно простое, даже примитивное, особо смотреть и настраивать здесь нечего.
Рекомендуем сразу перейти в раздел Users и создать нужное количество пользователей, под встроенным администратором работать разработчики категорически не рекомендуют, плюс у него нет реальной почты, и вы не сможете воспользоваться функцией восстановления пароля или получать уведомления.
Также еще можно заглянуть в раздел Tasks – там перечислены регламентные задания для обслуживания сервера, их расписание и статус.
После чего можно скачивать клиент и переходить к настройке синхронизации. Синхронизация при подключении нового клиента производится в обе стороны, т.е. все локальные заметки будут добавлены на сервер, а все удаленные будут скачаны на клиент.
Это удобно, если у вас есть две независимые базы, скажем на компьютере и телефоне и вы хотите их объединить и использовать совместно.
Для других сценариев полезно будет заглянуть в Расширенные настройки синхронизации. Опция Перегрузка локальных данных в цель синхронизации пригодится вам если вы хотите полностью заменить данные на сервере локальной копией. Скажем, после экспериментов или при восстановлении резервной копии.
Вторая опция Удалить локальные данные и перегрузить данные с цели синхронизации понадобится вам гораздо чаще. Рекомендуем использовать ее для подключение нового чистого клиента, в противном случае на сервер у вас будут синхронизированы стандартные заметки по умолчанию или вам потребуется предварительно удалить их руками.
1👍21🤔5❤1🤮1
Проектные менеджеры бывают разными: одни тушат пожары горящих дедлайнов, другие строят систему. К какому типу относитесь вы?
Центр бизнес-образования НИУ ВШЭ — Пермь предлагает прокачать навыки проектного менеджмента на курсе «Управление проектами».
✓ Практико-ориентированный интенсив — 120 академических часов, шесть подробных модулей с практикой, кейсами и деловыми играми.
✓ Онлайн-формат: занятия проходят 1 раз в неделю — вечером в среду.
✓ Курс построен на международных стандартах PMI (PMBoK 7).
✓ Подходит новичкам, опытным ПМ, руководителям и предпринимателям.
✓ Преподаватели — действующие эксперты в сфере проектного менеджмента.
Расскажем, как:
— запускать и обосновывать проекты,
— работать с рисками и бюджетом,
— управлять командой и заинтересованными сторонами.
Мы подготовили тест, который позволит определить пробелы в знаниях и навыках. Его, как и подробности о курсе, ищите на нашем сайте.
#реклама
О рекламодателе
Центр бизнес-образования НИУ ВШЭ — Пермь предлагает прокачать навыки проектного менеджмента на курсе «Управление проектами».
✓ Практико-ориентированный интенсив — 120 академических часов, шесть подробных модулей с практикой, кейсами и деловыми играми.
✓ Онлайн-формат: занятия проходят 1 раз в неделю — вечером в среду.
✓ Курс построен на международных стандартах PMI (PMBoK 7).
✓ Подходит новичкам, опытным ПМ, руководителям и предпринимателям.
✓ Преподаватели — действующие эксперты в сфере проектного менеджмента.
Расскажем, как:
— запускать и обосновывать проекты,
— работать с рисками и бюджетом,
— управлять командой и заинтересованными сторонами.
Мы подготовили тест, который позволит определить пробелы в знаниях и навыках. Его, как и подробности о курсе, ищите на нашем сайте.
#реклама
О рекламодателе
🔥2🤮2
Покорение новой вершины закончилось в баре: история проекта Blackcomb
История проекта Blackcomb остается самой большой авантюрой фирмы Microsoft, закончившейся столь же большим провалом. Но именно благодаря этому проекту мы получили современное состояние операционной системы Windows, хотя история могла пойти по совсем другому пути.
Но позвольте, а причем тут бар и горные вершины? Обо всем по порядку. Вся эта история начинается с проекта Whistler, в котором разработчики объединили две ветви разрабатывающихся операционных систем на основе ядра Windows NT - Neptune и Odyssey.
Так появилась Windows XP, одна из самых популярных операционных систем и решение объединить пользовательскую и корпоративную ветви систем оказалось в итоге правильным. А кодовое имя проекта было взято по имени горы и одноименного горнолыжного курорта Whistler, где любили кататься на лыжах сотрудники Microsoft.
После удачи с Windows XP разработчики явно поверили в себя и выкатили на следующую ОС весьма амбициозные планы – практически полный переход на .NET, новую систему драйверов, новый интерфейс и новую файловую систему WinFS, которая должна была стать больше СУБД, чем традиционной файловой системой.
Кодовое имя для новой системы было выбрано достаточно просто, но со вкусом – Blackcomb, вторая вершина на том же горнолыжном курорте, что подчеркивало преемственность ОС и символичность – покоряем одну вершину за другой.
Но, как всегда, что-то пошло не так. Оно бы и ничего, всякое бывает, но все эти амбициозные новшества уже были с большой помпой прорекламированы и отказываться от них было теперь не с руки.
Поэтому было решено сделать небольшую передышку на трудном пути и выпустить промежуточную ОС, которая займет место Windows XP и сделает пользователей на шаг ближе к Blackcomb.
Для нового проекта выбрали тоже символичное имя – Longhorn, в честь бара Longhorn Saloon, расположенного между горами Whistler и Blackcomb на том же курорте. Про то, насколько любили посещать это заведение сотрудники Microsoft история умалчивает.
Но и разработка Longhorn шла с большими пробуксовками и в конце концов разработчики поняли, что дальше так жить нельзя, в итоге в 2004 году была выполнена «перезагрузка» проекта.
По факту же все что успели сделать за три года было выброшено, за основу взят код Windows Server 2003, поставлены реальные и достижимые цели, и работа пошла в гораздо более продуктивном ключе. Но ни о какой революции речи уже не шло.
В результате обновленный Longhorn вышел в 2007 году как Windows Vista и стал одним из самых больших провалов в истории Microsoft.
Нет, сама Vista технически была очень неплохой и достаточно передовой системой. Но маркетинг и неверное рыночное позиционирование, вкупе с серьезным занижением системных требований сделали свое дело – Vista провалилась.
При этом Blackcomb оставался приоритетной целью, но с провалившейся Vista нужно было что-то делать и так возник еще один промежуточный проект – Vienna, который изначально планировался как небольшое обновление Vista, но провал последней только подстегнул работы по нему.
В результате через два года Vienna вышла на рынок под именем Windows 7 и повторила успех Windows XP, став для многих культовой ОС.
К тому времени уже стало понятно, что Blackcomb не имеет реальной фактической реализации и превратился по факту в «список хотелок». Поэтому он некоторое время все еще оставался некой «приоритетной вершиной», но чем дальше, тем все более абстрактной «вершиной», пока окончательно не растаяла в тумане.
Таким образом амбициозного покорения не состоялось, а развитие Windows пошло совершенно другим путем и то, что вместо горного пика мы получили бар в долине – тоже достаточно символично.
На фото обе вершины и долина с баром Longhorn Saloon между ними.
История проекта Blackcomb остается самой большой авантюрой фирмы Microsoft, закончившейся столь же большим провалом. Но именно благодаря этому проекту мы получили современное состояние операционной системы Windows, хотя история могла пойти по совсем другому пути.
Но позвольте, а причем тут бар и горные вершины? Обо всем по порядку. Вся эта история начинается с проекта Whistler, в котором разработчики объединили две ветви разрабатывающихся операционных систем на основе ядра Windows NT - Neptune и Odyssey.
Так появилась Windows XP, одна из самых популярных операционных систем и решение объединить пользовательскую и корпоративную ветви систем оказалось в итоге правильным. А кодовое имя проекта было взято по имени горы и одноименного горнолыжного курорта Whistler, где любили кататься на лыжах сотрудники Microsoft.
После удачи с Windows XP разработчики явно поверили в себя и выкатили на следующую ОС весьма амбициозные планы – практически полный переход на .NET, новую систему драйверов, новый интерфейс и новую файловую систему WinFS, которая должна была стать больше СУБД, чем традиционной файловой системой.
Кодовое имя для новой системы было выбрано достаточно просто, но со вкусом – Blackcomb, вторая вершина на том же горнолыжном курорте, что подчеркивало преемственность ОС и символичность – покоряем одну вершину за другой.
Но, как всегда, что-то пошло не так. Оно бы и ничего, всякое бывает, но все эти амбициозные новшества уже были с большой помпой прорекламированы и отказываться от них было теперь не с руки.
Поэтому было решено сделать небольшую передышку на трудном пути и выпустить промежуточную ОС, которая займет место Windows XP и сделает пользователей на шаг ближе к Blackcomb.
Для нового проекта выбрали тоже символичное имя – Longhorn, в честь бара Longhorn Saloon, расположенного между горами Whistler и Blackcomb на том же курорте. Про то, насколько любили посещать это заведение сотрудники Microsoft история умалчивает.
Но и разработка Longhorn шла с большими пробуксовками и в конце концов разработчики поняли, что дальше так жить нельзя, в итоге в 2004 году была выполнена «перезагрузка» проекта.
По факту же все что успели сделать за три года было выброшено, за основу взят код Windows Server 2003, поставлены реальные и достижимые цели, и работа пошла в гораздо более продуктивном ключе. Но ни о какой революции речи уже не шло.
В результате обновленный Longhorn вышел в 2007 году как Windows Vista и стал одним из самых больших провалов в истории Microsoft.
Нет, сама Vista технически была очень неплохой и достаточно передовой системой. Но маркетинг и неверное рыночное позиционирование, вкупе с серьезным занижением системных требований сделали свое дело – Vista провалилась.
При этом Blackcomb оставался приоритетной целью, но с провалившейся Vista нужно было что-то делать и так возник еще один промежуточный проект – Vienna, который изначально планировался как небольшое обновление Vista, но провал последней только подстегнул работы по нему.
В результате через два года Vienna вышла на рынок под именем Windows 7 и повторила успех Windows XP, став для многих культовой ОС.
К тому времени уже стало понятно, что Blackcomb не имеет реальной фактической реализации и превратился по факту в «список хотелок». Поэтому он некоторое время все еще оставался некой «приоритетной вершиной», но чем дальше, тем все более абстрактной «вершиной», пока окончательно не растаяла в тумане.
Таким образом амбициозного покорения не состоялось, а развитие Windows пошло совершенно другим путем и то, что вместо горного пика мы получили бар в долине – тоже достаточно символично.
На фото обе вершины и долина с баром Longhorn Saloon между ними.
👍10❤2👎1🤮1
Познакомьтесь с каналом Tech Debunker.
Там тесты, а не распаковки.
Тестируют дешевые и дорогие гаджеты, аккумуляторы, инструменты и много всего прочего. Собирают большие таблицы с результатами. Разоблачают фейки и подделки.
Некоторые интересные публикации с канала:
• ноутбук с несуществующей памятью
• фейковый планшет
• поддельная зарядка Xiaomi 67W
• поддельная флэшка Borofone
• пауэрбанки с кирпичами внутри
• опасный аккумулятор для инструмента
• свежие тесты зарядок
• свежие тесты пауэрбанков
Подписывайтесь! Впереди много интересного.
#реклама
О рекламодателе
Там тесты, а не распаковки.
Тестируют дешевые и дорогие гаджеты, аккумуляторы, инструменты и много всего прочего. Собирают большие таблицы с результатами. Разоблачают фейки и подделки.
Некоторые интересные публикации с канала:
• ноутбук с несуществующей памятью
• фейковый планшет
• поддельная зарядка Xiaomi 67W
• поддельная флэшка Borofone
• пауэрбанки с кирпичами внутри
• опасный аккумулятор для инструмента
• свежие тесты зарядок
• свежие тесты пауэрбанков
Подписывайтесь! Впереди много интересного.
#реклама
О рекламодателе