CloudMTS — облачные технологии
7.29K subscribers
675 photos
14 videos
1 file
779 links
CloudMTS — один из крупнейших облачных провайдеров. Помогаем бизнесу достигать поставленных целей с помощью проверенных облачных решений и технологий.

Сайт: https://cloud.mts.ru/
Задать вопрос:
https://t.me/cloudmtsru
Download Telegram
Узнать за 60 секунд: что такое конвергентная и гиперконвергентная инфраструктура

Коротко расскажем, что это за типы инфраструктуры и как они облегчают жизнь бизнесу.

Конвергентная инфраструктура

ИТ-инфраструктура компании состоит из серверов, систем хранения данных, коммутаторов. Их можно закупать у разных вендоров, а можно сделать выбор в пользу комплексного решения от одного поставщика. Такую систему и называют интегрированной, или конвергентной (CI).

В ней все вычислительные и сетевые ресурсы объединяются в пул, который заранее сконфигурирован для работы в дата-центре. Такой подход ускоряет развертку инфраструктуры. В качестве примера CI можно привести решение Cisco и NetApp — FlexPod.

Гиперконвергентная инфраструктура

Гиперконвергентная инфраструктура (HCI) — это разновидность конвергентной инфраструктуры. Однако в этом случае хранилища данных, серверы, сети дополнительно объединяются с помощью программных средств.

Клиент получает готовое решение, которое можно настраивать из единой консоли. По этой причине вместо команды ИТ-специалистов для управления такой инфраструктурой порой достаточно одного системного администратора. Крупным поставщиком HCI является VMware.
Облачные хранилища — какими они бывают?

Сегодня расскажем, какие типы облачных хранилищ могут предложить IaaS-провайдеры.

Блочные
Данные разбиваются на несколько кусков одинакового размера и записываются на жесткий диск. У каждого из блоков есть свой адрес, по которому к нему обращаются приложения.

Такая система обладает высокой производительностью (из-за небольших размеров блоков) и используется в ресурсоемких задачах. Например, для работы с базами данных. Недостатки этого типа хранилищ – высокая стоимость и сложность в управлении.

Файловые
Наиболее распространенный и известный вид хранилищ. Данные объединяют в один файл, который записывается в каталог. Каталоги формируют так называемую иерархическую структуру, знакомую по системе Windows.

Файловые хранилища дешевле аналогов и удобны при обработке небольших объемов данных. Но когда данных становится много, находить нужную информацию в куче папок оказывается сложно.

Объектные
Все данные представляют собой объекты, которыми может быть что угодно: резервные копии, логи, изображения и др. Объекты хранятся на сервере и не имеют иерархической структуры. Доступ к ним реализован с помощью API.

Объектные хранилища хорошо масштабируются, поэтому лучше других подходят для работы с большими данными. Например, их используют Netflix, Spotify и Facebook для хранения медиафайлов.
Три способа развернуть ERP-систему

С помощью ERP-систем бизнес ведет контроль, учет и анализ ресурсов. Есть несколько способов развернуть такое решение.

On-premise

ERP-система устанавливается на сервер в дата-центре компании. Организация самостоятельно готовит оборудование, закупает лицензии на ПО и занимается обслуживанием железа. Главный плюс такого подхода — гибкость, решение можно настроить под любые нужды бизнеса.

Из минусов — все настройки «привязываются» к текущей реализации. При обновлении системы их приходится каждый раз восстанавливать с нуля.

В облаке

ERP-система развертывается на серверах IaaS-провайдера. Компании не приходится самостоятельно обслуживать ПО и «железо» — этим занимается облачный поставщик. Он же отвечает за регулярные обновления.

Облачные ERP-решения обладают более высокой производительностью, по сравнению с моделью on-premise. При этом IaaS-провайдеры способны обеспечить уровень безопасности данных, соответствующий индустриальным стандартам — таким как PCI DSS.

Из недостатков можно выделить ограниченность настроек системы. Для компаний со специфическими запросами доступной функциональности может не хватить.

Гибридный подход

Можно вынести отдельные сервисы ERP в облако, а часть компонентов оставить в корпоративном ЦОДе. Один из вариантов — перенести на серверы провайдера ядро системы планирования ресурсов предприятия, а вспомогательные приложения поддерживать локально.

Таким образом компания получает гибкую систему, которую при необходимости легко масштабировать. Однако в конфигурацию гибридной модели не всегда удобно вносить какие-либо изменения — приходится учитывать особенности обеих сред.
Защита данных в облаке: необычные сценарии

Мы уже рассказывали об инструментах для защиты данных в облаке. Сегодня приведем два специфических юзкейса.

Защита данных в облачных нейросетях

Сегодня компании часто переносят в облако ресурсоемкие системы. Примером могут быть нейросети, которым нужно большое количество вычислительных ресурсов. Такие системы используют, к примеру, медицинские организации — для анализа сведений о состоянии пациентов и постановки диагнозов.

Проекты в сфере медицины часто работают с конфиденциальной информацией (например, медицинскими снимками), поэтому данные, посылаемые нейросети, необходимо защищать. Для этого используют шифрование.

Одно из таких решений в прошлом году предложили инженеры из MIT — его назвали Gazelle. Зашифрованные данные разбиваются на части. Во время работы сервер с нейросетью не имеет доступа ко всей информации (часть вычислений выполняется на машинах в ЦОД поликлиники). Это обеспечивает высокий уровень защищенности данных. Об используемых алгоритмах шифрования мы рассказывали на Хабре.

Соблюдение требований GDPR

Отвлечемся от нейросетей и машинного обучения, поговорим о более приземленных вещах — GDPR. Новый регламент по защите данных действует в ЕС с прошлого года. За нарушения бизнесу грозит штраф в 20 млн евро или 4% годового дохода компании. Одно из положений GDPR обязывает организации удалять из внутренних баз данных информацию о гражданах ЕС по их требованию. Если таких запросов поступает много, справиться с этим становится непросто.

Новая платформа управления данными Availability Suite от Veeam умеет автоматически проверять, не осталось ли в бэкапах ПД данных о людях, которые воспользовались своим правом по GDPR. Это повышает информационную безопасность в компании и снижает риск утечек.
Почему жёсткие диски стали реже ломаться

Двадцать лет назад жесткие диски были самым ненадежным компонентом сервера. Устройства IBM серии Deskstar выходили из строя так часто, что им дали нарицательное прозвище — Deathstar («Звезда смерти»). Но в последнее время ситуация изменилась в лучшую сторону — расскажем почему.

Гелиевые камеры. Корпуса некоторых жёстких дисков заполняют гелием. Этот газ в семь раз легче воздуха, что снижает силу трения, действующую на магнитные диски.

Еще гелиевая среда предотвращает коррозию, так как в этом газе отсутствует водяной пар. В результате срок службы накопителя увеличивается.

Лучшие условия в дата-центрах. Время жизни жестких дисков напрямую связано с температурой в серверной. Если она превышает 50°C или падает ниже 5°C, резко возрастает количество поломок.

Поэтому компании внедряют технологии для управления кондиционерами на базе машинного обучения. С помощью датчиков они мониторят температуру в ЦОД и распределяют потоки воздуха оптимальным образом.

Новые технологии HDD. В диски внедряют датчики вращательной вибрации (RV-сенсоры). Специальный модуль меняет характер движения блока головок и перераспределяет вибрации на корпус устройства. В результате снижается вероятность повреждения магнитной поверхности считывающей головкой.
Как управлять железом в дата-центре — две новые технологии

В дата-центрах могут размещаться десятки тысяч и даже миллионы серверов. Чтобы управлять всем этим железом, операторы используют системы автоматизации. О двух таких актуальных инструментах мы расскажем далее.

DCIM-решения нового поколения

DCIM-система (или Data center infrastructure management) — это программное обеспечение, которое следит за работой серверов, хранилищ и маршрутизаторов в дата-центре. Еще оно мониторит энергопотребление систем кондиционирования.

Подобные решения существуют довольно давно, однако не пользовались популярностью. Всему виной была скромная функциональность систем и громоздкость их интерфейсов. С появлением DCIM второго поколения ситуация изменилась.

Теперь информация предоставляется операторам дата-центра в едином интерфейсе в виде графиков, схем, тепловых карт и таблиц. Если какой-то компонент инфраструктуры начинает сбоить, система дает рекомендации по устранению неполадок. В некоторых случаях она даже сможет решить проблему самостоятельно.

«Звуковой» мониторинг

Еще одной актуальной разработкой являются системы music-defined networking. При мониторинге состояния дата-центра они анализируют, как тот «звучит». Подобную систему представили, в частности, инженеры из США — она балансирует нагрузку на серверы.

Машины с помощью подключенных к ним мини-компьютеров Raspberry Pi генерируют звуки разной высоты. Чем выше частота издаваемого сигнала, тем сильнее загружена машина. Специальный контроллер в дата-центре учитывает эту информацию и автоматически перераспределяет задачи.
Кто поддерживает облачные проекты — рассказываем о четырех open source фондах

В мире насчитываются десятки фондов, продвигающих открытое программное обеспечение. Сегодня расскажем о тех из них, которые развивают облачные инструменты.

OpenStack Foundation (OSF)

В первую очередь фонд занимается разработкой одноименной облачной операционной системы — OpenStack. Также OSF поддерживает проекты, которые создают инструменты для контейнеризации и периферийных вычислений. Все участники получают от организации менторскую и техническую поддержку.

GraphQL Foundation

Его цель — развитие языка запросов GraphQL. Этот язык нужен для взаимодействия с серверами, хранящими базы данных. В фонде создают инструменты, которые упростят разработку сервисов на GraphQL. Поддержку фонду оказывают ИТ-гиганты: IBM, Netflix, GitHub и др.

Ceph Foundation

Ceph — это объектная сеть, которая помогает создавать файловые хранилища в облаке. О разных типах хранилищ мы рассказывали в предыдущем посте. Цель фонда — сформировать экосистему вокруг Ceph: внедрить в нее функциональность для работы с машинным обучением и контейнерами.

Linux Foundation Edge

Задача Edge — объединить фрагментированный рынок решений для периферийных вычислений. В этой сфере пока нет устоявшейся терминологии и единого перевода основных понятий. Компании-участники намерены решить эту проблему и формируют словарь с ключевыми терминами и определениями. Также на базе фонда развиваются платформы для управления IoT-устройствами.

Это не все открытые фонды, поддерживающие облачные разработки. О других проектах мы расскажем в следующий раз.
Почему нельзя просто так взять и внедрить «зелёные» технологии в дата-центрах

Мировые дата-центры потребляют 2% всего вырабатываемого на планете электричества и выделяют большое количество парниковых газов. Из-за этого в ИТ-индустрии сформировался спрос на инфраструктуру, использующую возобновляемые источники энергии. Однако не все «зеленые» решения оказались эффективны.

В США, если дата-центр желает использовать энергию из возобновляемых источников, то его владельцы могут приобрести специальные сертификаты — Renewable Energy Certificates (REC).

Но даже в этом случае энергия будет поступать из общей электросети, к которой подключены станции, работающие на угле или нефти. По этой причине нельзя гарантировать, что в машинные залы будет попадать только «зеленая» энергия.

Чтобы обеспечить дата-центры электричеством из возобновляемых источников наверняка, компании строят собственные солнечные и ветряные фермы.

Но обходится такая инфраструктура дорого и далеко не всем по карману — например, за последние шесть лет Google потратили около $3 млрд.

Даже если у компании есть такие деньги, она не всегда может найти место для строительства. Эта проблема актуальна для дата-центров в Азии. Многие из них стоят в крупных городах, где нет возможности разместить масштабные ветряные или солнечные установки.

Но все это не значит, что владельцы дата-центров не уделяют внимания «зеленому» вопросу. Компании, которые не могут полностью перейти на энергию из возобновляемых источников, внедряют технологии, сокращающие энергопотребление. Например, новые системы охлаждения. О некоторых из них мы рассказывали в одном из предыдущих постов.
Почему компании используют виртуальные машины, а не контейнеры

Последние годы в ИТ-сфере растет популярность контейнеров Docker. Но корпоративные клиенты IaaS-провайдеров не спешат внедрять эту технологию и продолжают работать с виртуальными машинами (ВМ). Поговорим о том, почему так происходит.

Причина первая — риски для безопасности. Каждая виртуальная машина обладает собственной операционной системой. Контейнеры же представляют собой процессы, которые делят ядро ОС.

По этой причине, если злоумышленник получит права суперпользователя, он сможет повлиять на работу всех приложений. В случае с ВМ у хакера не получится «выйти» за её пределы и нанести серьезный урон системе.

Причина вторая — сложность в управлении. На одном сервере обычно работают от 15 до 30 виртуальных машин. Число контейнеров зачастую превышает 40 — управлять таким количеством довольно сложно.

Да, на рынке есть специальные системы оркестровки, например, Kubernetes. Но подобные решения активно развиваются, и их приходится часто обновлять, что сказывается на стабильности контейнерной среды.

Причина третья — отсутствие кроссплатформенности. Большинство контейнеров основаны на Linux. Поэтому их бывает сложно запустить в среде Windows. Виртуальные машины можно переносить на разные платформы без каких-либо ограничений.

Сегодня появляется все больше решений для работы с контейнерами, которые «подогревают» популярность технологии. Однако ВМ не сдают позиций и, судя по всему, еще долго будут важнейшим элементом ИТ-инфраструктуры компаний.
Как разместить в облаке 100% инфраструктуры — кейс корпоративного клиента ИТ-ГРАД

Сегодня мы поделимся кейсом компании SL Tech, разрабатывающей B2B-сервисы. Они перенесли в облако ИТ-ГРАД всю свою ИТ-инфраструктуру.

Зачем понадобилось облако

SL Tech занимаемся предоставлением онлайн-услуг B2B-партнерам, поэтому их инфраструктура должна иметь высокую доступность и легко масштабироваться.

Варианты с on-premise или выделенными серверами в дата-центре не подошли. В этих случаях нельзя гибко менять объемы вычислительных мощностей — количество процессоров и памяти. Поэтому в SL Tech обратились за помощью к IaaS-провайдеру.

Что перенесли в облако

В продакшн-среде компания содержит 15 виртуальных машин. В облако мигрировали все ВМ, поддерживающие работу приложений для страховых компаний и финтех-индустрии. В будущем в облаке будут запущенны новые сервисы по продаже онлайн-услуг.

В чем выгода

Компания объединила на одной площадке все свои решения. Получился агрегированный сервис, доступный клиентам через API-интерфейс. В результате выросло качество предоставляемых услуг для клиентов.
IaaS для комфортного масштабирования бизнеса — кейс Avito.ru

Продолжаем рассказывать о клиентах ИТ-ГРАД. На очереди — один из самых известных сервисов в рунете — Avito.ru

За почти 12 лет существования «Авито» из просто сайта объявлений превратился в интернет-гиганта с сильной командой разработчиков и амбициозными планами. Чтобы реализовать их, компании нужна была гибкая и масштабируемая инфраструктура — а также возможность снизить расходы на содержание собственного оборудования.

В «Авито» остановились на IaaS-модели — и выбрали облако ИТ-ГРАД. Как отмечает руководитель разработки «Авито» Иван Калуцкий, важную роль при выборе провайдера сыграли: стоимость услуг, условия SLA, а также тот факт, что у «Авито» уже был опыт сотрудничества с ИТ-ГРАД.

Что выносили в облако

В защищенное облако перенесли часть офисных систем и сервисов:

🔸 SharePoint-портал, на котором реализован внутренний документооборот (это бизнес-критичная система, которая постоянно используется сотрудниками и должна быть доступна 24/7)
🔹 инфраструктурные сервисы Active Directory
🔸 файловые серверы
🔹 резервные копии отдельных приложений и баз данных

Что в итоге

Сейчас «Авито» использует гибридное облако. Решение позволило «Авито» получить доступность сервиса 99,95% и при этом избежать операционной нагрузки по обслуживанию инфраструктуры. В ближайшем будущем компания планирует перенести на облачную площадку оставшиеся сервисы.
Дата-центр будущего: три технологии для развертки 5G-сетей

По данным Ericsson, к 2024 году объемы мобильного трафика вырастут в пять раз (по сравнению с прошлым годом). Увеличится и нагрузка на дата-центры телеком-компаний. Для решения проблемы крупные ИТ-бренды разрабатывают новые сетевые технологии. О некоторых из них расскажем далее.

Nokia. Компания представила чип для оптоволоконных сетей — PSE-3. Он использует алгоритм вероятностного формирования сигнального созвездия (Probabilistic Constellation Shaping, или PCS). Система учитывает вероятность искажения данных и энергию, необходимую на отправку сигнала. На основе этой информации она выбирает оптимальную амплитуду для передачи данных.

Три года назад с помощью PCS впервые удалось достигнуть скорости в один терабит за секунду. Разработчики ожидают, что технология позволит 5G-сетям передавать большие объемы данных и адаптироваться под текущие потребности в трафике.

VMware. Платформа для виртуализации vCloud NFV получила новые 5G-функции. Она организует работу базовых сервисов сети (например, ядра архитектуры сети беспроводной связи) и позволяет переносить их между разными облачными средами.

Также компания поставляет технологию NSX SD-WAN. Она автоматизирует масштабирование сетевой инфраструктуры.

Cisco. Компания разработала решения Tetration Platform и Application Centric Infrastructure. Первое позволяет мониторить инфраструктуру в реальном времени. Второе нужно для автоматической настройки сетей.

Оба инструмента основаны на концепции self-driving network (беспилотная сеть). По аналогии с беспилотными автомобилями такие сети используют алгоритмы машинного обучения для управления трафиком. Системы Cisco помогут развернуть сети нового поколения на территории США уже в следующем году.
IaaS для комфортного масштабирования бизнеса — кейс Redweb

Продолжаем делиться нашими кейсами. Сегодня — о сотрудничестве с Redweb — опытным игроком в сфере разработки и интеграции digital-платформ для клиентского и внутрикорпоративного взаимодействия, систем централизованного обмена данными и электронного документооборота.

Среди клиентов Redweb — Kaspersky Lab, Центробанк, Qiwi, BMW, Honda и другие крупные бизнесы. Все они получают специализированные решения и поддержку. В том числе в соответствии со стандартом PCI DSS и регулированием согласно ФЗ-152 и GDPR.

«ИТ-ГРАД» стал надежным партнером в решении таких задач — Redweb строит информационные системы на основе нашего облака с сертифицированной защитой персональных данных.

Так для одного из проектов Redweb использовали нашу услугу «Облако ФЗ-152» и внедрили PCI DSS для сервиса своего клиента.

Кстати, в рамках этого кейса мы помогли Redweb в том числе и с подготовкой необходимой организационно-распорядительной документации, чтобы компания могла выполнить все свои обязательства перед регулятором.
Почему vGPU не уступают по производительности железным решениям

Есть мнение, что виртуализация снижает производительность графических ускорителей. Но на самом деле современные vGPU по скорости работы не уступают bare-metal.

ИТ-компании постоянно совершенствуют vGPU-платформы. VMware в начале года обновили гипервизор ESXi. В него добавили технологию DirectPath I/O. Она позволила драйверу CUDA связываться с GPU в обход гипервизора и быстрее передавать данные.

Также из ESXi убрали функцию балансировки нагрузки vMotion, так как виртуальные машины всегда работают с одним графическим ускорителем. Это решение сократило операционные расходы на передачу данных.

Другой пример — платформа Radeon Open Compute от AMD. Она использует технологию SR-IOV. Её задача — разделить шину PCIe на части для каждой виртуальной машины. В результате возрастает скорость передачи данных между облачными CPU и GPU.

Совершенствуются и аппаратные платформы. В прошлом году Nvidia представили новый процессор — Tesla T4. Он построен на архитектуре Turing, которая распараллеливает выполнение операций с плавающей точкой. По сравнению с GPU предыдущего поколения производительность выросла на три терафлопса.

Сегодня разрабатывают и другие технологии, которые ускорят vGPU. Например, чипы, в которых объединены ядра GPU и CPU для более эффективного обмена данными. Также создаются балансировщики нагрузки, которые повышают производительность облачных графических процессоров. В будущем в этой сфере можно ожидать еще больше новинок.
Создать open source дата-центр — три фонда, которые делают это

В прошлый раз мы говорили о фондах, разрабатывающих открытые облачные инструменты. Сегодня на очереди организации, создающие стандарты для оборудования в ЦОД.

Open Compute Project (OCP). Основан в 2011 году компаниями Facebook, Cisco, IBM и Dell и др. Его цель — разработка стандарта модульных 21-дюймовых стоек. По сравнению с классическими 19-дюймовыми, они увеличивают коэффициент эффективно используемого пространства на 15%. Блоки питания в стойках имеют напряжение 48 вольт (вместо 12 вольт), что сокращает энергопотребление серверов на 30%.

Еще в OCP разрабатывают стандарт, который описывает требования к модульному серверу. Он поддерживает процессоры большинства крупных производителей и снабжен портами 50GbE. Также устройство может работать с графическими процессорами: один блок вмещает до восьми GPU.

Open19 Foundation. Фонд основали в 2017 году компании HP, LinkedIn и Vapor IO. Стандарт этого фонда устанавливает требования к структуре сетей и энергопотреблению и описывает форм-фактор для стоек. Среди требований числятся: жидкостное охлаждение и универсальная структура блок-корзин для размещения железа в любых комбинациях.

Open Data Center Committee (ODDC). Основан в 2014 году китайскими ИТ-гигантами Alibaba, Baidu и Tencent. Среди проектов фонда — GPU-сервер и гиперконвергентное решение, объединяющее память, вычислительные и сетевые ресурсы в пул, сконфигурированный для работы в дата-центре.

Таким образом, open source становится популярнее среди производителей железа. Уже в ближайшем будущем можно ожидать появления новых устройств, построенных на базе открытых аппаратных стандартов.
Узнать за 60 секунд: что такое сервисно-определяемый файрвол

Сервисно-определяемый файрвол не так давно представила VMware. Это — брандмауэр, который способен анализировать поведение приложений. Он защищает ИТ-инфраструктуру даже в том случае, если злоумышленнику уже удалось проникнуть в сеть. Это его главное отличие от классических брандмауэров, которые блокируют лишь атаки извне.

Файрвол VMware построен на базе двух платформ — AppDefense и NSX.

AppDefense — система обнаружения угроз, которая анализирует поведение приложений с помощью алгоритмов машинного обучения. Модель поведения строится на основе данных телеметрии, которые VMware предоставляют клиенты. Если умный алгоритм замечает аномальную активность в сети, то сообщает об этом администратору, а тот уже принимает необходимые меры.

NSX — платформа виртуализации, отвечающая за настройку программно-определяемых сетей. Она управляет политиками безопасности, следит за работой всей системы и отвечает за масштабирование. Об этой системе мы кратко рассказывали в одном из предыдущих постов.

Сервисно-определяемый файрвол уже находит применение в дата-центрах и мультиоблачных средах некоторых мировых компаний.
В этой статье на примере компании «Умный житель» расскажем о том, как удалось автоматизировать процесс управления и эксплуатации недвижимости и как в этом вопросе помогли облачные технологии.

Поскольку российский рынок облачных услуг представлен большим количеством игроков, компания пошла по классическому пути выбора провайдера, который сводился к запросу коммерческих предложений у ряда поставщиков.

В результате на основании коммерческих предложений, анализа рынка и отзывов о компаниях было принято решение в пользу «ИТ-ГРАД».

http://amp.gs/UHBO
Как повысить энергоэффективность дата-центра

Дата-центры потребляют более 2% мирового электричества. Через шесть лет эта цифра может вырасти в десять раз. Чтобы решить проблему, в ЦОД внедряют новые энергоэффективные технологии. О некоторых из них расскажем сегодня.

DCIM-решения. Это программные инструменты, которые мониторят энергопотребление серверов, хранилищ, маршрутизаторов и вентиляционных систем.

Они автоматически перераспределяют нагрузку между серверами и дают рекомендации операторам ЦОД по настройке систем кондиционирования. В некоторых случаях удается сократить энергопотребление дата-центра на 10%.

О других возможностях DCIM-решений мы писали в одном из прошлых материалов.

Виртуализация. Она позволяет запустить большее количество приложений на меньшем количестве физических серверов. Также виртуализация дает возможность менять объем вычислительных ресурсов «на лету», отключая незадействованные мощности.

В результате сокращаются затраты на электричество — VMware говорят, что экономия может достигать 80%.

Микроклимат. На системы охлаждения приходится половина электричества, расходуемого дата-центром. Устранив «утечки» холода, можно понизить энергопотребление.

Для этого в серверной выделяют «холодные» и «горячие» коридоры со специальными панелями-заглушками, не допускающими смешения воздушных потоков. По оценкам экспертов, такой подход экономит до 30% электричества.

Операторы ЦОД внедряют и другие технологии, снижающие энергопотребление. Крупные ИТ-компании экспериментируют с алгоритмами машинного обучения, которые автоматизируют работу систем охлаждения. О них мы писали тут.
Как бороться с «зомби-серверами»: поможет новый балансировщик нагрузки из MIT

Дата-центры используют всего 20–40% доступных им вычислительных мощностей. Такое распределение ресурсов ведет к появлению серверов-зомби. Это — машины, которые большую часть времени простаивают и впустую расходуют электроэнергию. По некоторым оценкам, в «состоянии зомби» находится треть всех серверов в мире.

Чтобы решить проблему неэффективного распределения нагрузки, в MIT разработали новый балансировщик Shenango. Это Linux-библиотека на языке C с байндингами Rust и C++.

За распределение процессов в системе отвечает алгоритм IOKernel. Каждые пять микросекунд он проверяет, все ли задачи, назначенные ядрам, выполнены. Если в буфере возникла задержка, то IOKernel перенаправляет «застрявшие» задачи на свободные ядра.

Также Shenango использует подход work stealing. Ядра, выделенные под одно приложение, следят за количеством задач друг у друга. Если ядро заканчивает работу раньше остальных, то оно автоматически забирает часть нагрузки у соседей.

Авторы технологии говорят, что она способна повысить коэффициент использования процессоров в дата-центрах до 100%. В результате операторы ЦОД смогут экономить на покупке и обслуживании серверов и предоставлять услуги большему числу клиентов.
VMware Empower 2019: отчет о конференции в нашем Telegram-канале

20–23 мая команда «ИТ-ГРАД» примет участие в конференции VMware Empower 2019 в Лиссабоне, ориентированной на технических специалистов в области виртуализации. Мы, как партнер VMware, не могли пройти стороной это событие.

В течение конференции мы будем делиться актуальными новостями, обзорами и аналитикой, чтобы не только компании-участники мероприятия, но и наши читатели были в курсе последних событий.

Свежие новости будем размещать в нашем Telegram-канале в режиме реального времени. Более подробные отчеты и аналитику по итогам каждого дня конференции вы найдете в нашем блоге на Хабре http://amp.gs/UaTY.
«Ожидания пользователей безвозвратно изменили логику защиты данных, сломав понятие корпоративного периметра».

VMware будет продолжать активное развитие Workspace ONE и смежных продуктов. В ближайшие годы планируется более чем в два раза увеличить долю искусственного интеллекта в работе платформы.

Workspace ONE — платформа, основная цель которой — централизация и прозрачность управления пользовательским окружением: гостевыми ОС, мобильными устройствами, аккаунтами, приложениями, каталогами. Продукт привлекает все больше партнеров компании и крупных игроков рынка защиты информации. Workspace ONE призван обеспечить баланс между требованиями администраторов к защите данных и ожиданий пользователей в контексте удобства и функциональности корпоративных ресурсов в условиях полной виртуализации рабочего окружения и доступа к нему с устройств под управлением различных ОС и из недоверенных сетей.

Заявлено, что в скором времени одна панель управления Workspace ONE позволит заменить более 50 окон: от настройки политик доступа к корпоративным ресурсам до управления антивирусным ПО.

http://amp.gs/U62m