Yubico наконец-то зарелизила YubiKey 5Ci — хардварный ключ, совместимый с айфонами и айпадами (а также макбуками, обычными PC и устройствами на андроиде). Он одновременно поддерживает и USB-C и Lightning. Стоит он больше чем любой другой аппаратный ключ безопасности от Yubico: $70.
Как только в Safari появится поддержка WebAuthn, можно будет забыть про 2FA иначе как через этот ключ.
Как только в Safari появится поддержка WebAuthn, можно будет забыть про 2FA иначе как через этот ключ.
Apple официально разрешает заряжать поддерживающие быструю зарядку iPhone, iPod, Apple Watch и AirPods USB-C зарядками от Macbook, даже самой мощной на 87W.
https://support.apple.com/en-us/HT202105
https://support.apple.com/en-us/HT202105
Запланировал на завтра совместный просмотр кино с друзьями у меня дома и два дня мучаюсь: как же показать его на экране телевизора вместо ноутбука — уже и Chromecast думал заказать, но могут не успеть доставить, думал одолжить Apple TV, но помню, что фильмы через шеринг экрана смотреть было невозможно — в нормальном качестве картинка немного рассинхронизовывалась со звуком. Почти отчаялся.
Но спустя два дня меня осенило.
У меня же есть, мать его, HDMI-кабель 🤦🏻♂️
Но спустя два дня меня осенило.
У меня же есть, мать его, HDMI-кабель 🤦🏻♂️
Facebook начала проводить созвоны с разработчиками приложений для того, чтобы убедиться, что «the integrity of our platform is not compromised».
Возможности отказаться нет, получасовой звонок охватывает как и вопросы о том, чем занимается наша компания, как зарабатывает, где расположена и сколько в ней человек, так и о том, почему мы выбрали авторизацию через Facebook, как мы используем API, почему запрашиваем те или иные доступы, как коммуницируем с пользователями и так далее.
Первое письмо, которое они прислали было просто о том, что «давайте созвонимся, так как мы хотим подтвердить, что информация, которая у нас есть о вашей компании актуальная и look at ways we can better support you from an app development perspective». О том, что отказаться от звонка нельзя мы узнали уже после того, как ответили, что следим за полнотой данных в аккаунте и что вопросов у нас нет. Впрочем, на звонке я непременно пожаловался, что 11 лет назад трава была намного зеленее, а теперь вы закрыли всё со всех сторон. Сотрудница сочувственно покачала головой.
В общем, Фейсбук на страже нашей с вами приватности. Насколько эффективно? Не знаю.
Возможности отказаться нет, получасовой звонок охватывает как и вопросы о том, чем занимается наша компания, как зарабатывает, где расположена и сколько в ней человек, так и о том, почему мы выбрали авторизацию через Facebook, как мы используем API, почему запрашиваем те или иные доступы, как коммуницируем с пользователями и так далее.
Первое письмо, которое они прислали было просто о том, что «давайте созвонимся, так как мы хотим подтвердить, что информация, которая у нас есть о вашей компании актуальная и look at ways we can better support you from an app development perspective». О том, что отказаться от звонка нельзя мы узнали уже после того, как ответили, что следим за полнотой данных в аккаунте и что вопросов у нас нет. Впрочем, на звонке я непременно пожаловался, что 11 лет назад трава была намного зеленее, а теперь вы закрыли всё со всех сторон. Сотрудница сочувственно покачала головой.
В общем, Фейсбук на страже нашей с вами приватности. Насколько эффективно? Не знаю.
Мы ищем тимлида в нашу команду разработки.
Нам очень нужен человек, который возьмёт на себя оперативное управление разработкой и будет это делать лучше, чем я (не переживайте, это будет не сложно 😂). Нужен кто-то с хорошим опытом в PHP, потому что от вас необходима будет помощь в поиске идеальной архитектуры, проведение код ревью, помощь в настройке процессов тестирования и документирования кода.
Мы («Комитет») занимаемся разработкой и развитием платформы «Основа» на которой работают vc.ru, TJournal и DTF.
Подробности: https://vc.ru/team/101307-team-lead
Пишите нам на ds@cmtt.ru 👨💻
Нам очень нужен человек, который возьмёт на себя оперативное управление разработкой и будет это делать лучше, чем я (не переживайте, это будет не сложно 😂). Нужен кто-то с хорошим опытом в PHP, потому что от вас необходима будет помощь в поиске идеальной архитектуры, проведение код ревью, помощь в настройке процессов тестирования и документирования кода.
Мы («Комитет») занимаемся разработкой и развитием платформы «Основа» на которой работают vc.ru, TJournal и DTF.
Подробности: https://vc.ru/team/101307-team-lead
Пишите нам на ds@cmtt.ru 👨💻
Насколько, конечно, Google Wave, опередил время, насколько предвосхитил стандарт современного рабочего общения.
Посмотрите видео-презентацию. Это, на секундочку, 2009 год.
https://www.youtube.com/watch?v=v_UyVmITiYQ
UPD. Справедливо замечают, что презентация идёт полтора часа. Вот выжимка в статье десятилетней давности. Тогда не было ни Slack, ни Google Docs в том виде, в каком мы его знаем.
https://mashable.com/2009/05/28/google-wave-guide/
Посмотрите видео-презентацию. Это, на секундочку, 2009 год.
https://www.youtube.com/watch?v=v_UyVmITiYQ
UPD. Справедливо замечают, что презентация идёт полтора часа. Вот выжимка в статье десятилетней давности. Тогда не было ни Slack, ни Google Docs в том виде, в каком мы его знаем.
https://mashable.com/2009/05/28/google-wave-guide/
В Польше довольно популярен Microsoft Teams, поэтому я его использую для общения внутри общественной организации, в которой состою, а школа моей дочери использует его во время пандемии для организации дистанционного обучения, общения и онлайн-уроков.
В первом случае у нас возникла проблема, и пропали все аттачменты к сообщениям, на что саппорт Майкрософта спустя месяц попыток починить развёл руками и посоветовал завести новый воркспейс. А у дочки на компьютере стоит файрвол, и я долгое время изучал, куда обращается Teams — к серверам Skype во время звонков, в OneNote для записей, прикрепления уходят на OneDrive, календарь и чаты тоже куда-то.
В общем, по моим ощущениям, Teams — это такой Монстр Франкенштейна собранный буквально по кусочкам. И я смотрю на график роста его популярности и на то, как он обгоняет Slack, и меня раздирает двоякое чувство. С одной стороны мы привыкли критиковать такие решения, с другой — это ведь идеальное бизнес-решение, ода API и межпродуктовому взаимодействию.
В первом случае у нас возникла проблема, и пропали все аттачменты к сообщениям, на что саппорт Майкрософта спустя месяц попыток починить развёл руками и посоветовал завести новый воркспейс. А у дочки на компьютере стоит файрвол, и я долгое время изучал, куда обращается Teams — к серверам Skype во время звонков, в OneNote для записей, прикрепления уходят на OneDrive, календарь и чаты тоже куда-то.
В общем, по моим ощущениям, Teams — это такой Монстр Франкенштейна собранный буквально по кусочкам. И я смотрю на график роста его популярности и на то, как он обгоняет Slack, и меня раздирает двоякое чувство. С одной стороны мы привыкли критиковать такие решения, с другой — это ведь идеальное бизнес-решение, ода API и межпродуктовому взаимодействию.
Forwarded from запуск завтра
Tjournal показывают, что такое крутая нативная реклама. Обучили знаменитый алгоритм генерации текстов GPT-2 на комментариях своих площадок TJ, VC и DTF и теперь можно одной кнопкой попросить машину написать или даже дописать комментарий за тебя. Рекламодатель — скромно в последнем абзаце анонса и по ссылке на метку «нейротекст» у комментариев написанных роботом.
Главное — внимание к деталям. Они подсвечивают, какая именно часть комментария от нейросети и позволяют скрыть все комменты от роботов одной кнопкой. Респект!
За наводку спасибо Жирафу из нашего уютного чата.
Главное — внимание к деталям. Они подсвечивают, какая именно часть комментария от нейросети и позволяют скрыть все комменты от роботов одной кнопкой. Респект!
За наводку спасибо Жирафу из нашего уютного чата.
Самат пишет про новое API для стриминга от Амазона и о его высокой стоимости (2 часа HD стриминга на 300 человек — это около 300 долларов).
Недавно я делал расчёт для компании, которая хотела выйти на рынок с 24/7 стримом в 4K качестве и пока что решения для этого проекта нет — даже если взять самый дешёвый из приличных CDN и предположить, что не все клиенты будут смотреть в 4K, всё равно сумма получается такая высокая, что десяток оставивших стрим на недельку людей обрушат экономику сервиса с месячной подпиской в несколько долларов. В Amazon IVS месяц HD стриминга на одного зрителя стоит минимум сто баксов — то есть в ближайшее время 24/7 стрим вы себе позволить не сможете (не относится к сотрудникам YouTube и Twitch).
Трафик — буквально одна из самых дорогих частей инфраструктуры проектов с видео-контентом. И я об этом никогда не задумывался, пока в мои руки не попался coub.com, в котором помимо стоимости CDN для раздачи видео есть ещё стоимость хранилища (но это отдельная боль).
Уже очень скоро эти проблемы придётся решать, и я бы делал ставку на машинное обучение, которое позволит нам либо более эффективно кодировать видео, либо уменьшать разрешение, доставлять на устройство и апскейлить прямо там в режиме реального времени.
Хотя, конечно, эти ребята тоже могут помочь.
Недавно я делал расчёт для компании, которая хотела выйти на рынок с 24/7 стримом в 4K качестве и пока что решения для этого проекта нет — даже если взять самый дешёвый из приличных CDN и предположить, что не все клиенты будут смотреть в 4K, всё равно сумма получается такая высокая, что десяток оставивших стрим на недельку людей обрушат экономику сервиса с месячной подпиской в несколько долларов. В Amazon IVS месяц HD стриминга на одного зрителя стоит минимум сто баксов — то есть в ближайшее время 24/7 стрим вы себе позволить не сможете (не относится к сотрудникам YouTube и Twitch).
Трафик — буквально одна из самых дорогих частей инфраструктуры проектов с видео-контентом. И я об этом никогда не задумывался, пока в мои руки не попался coub.com, в котором помимо стоимости CDN для раздачи видео есть ещё стоимость хранилища (но это отдельная боль).
Уже очень скоро эти проблемы придётся решать, и я бы делал ставку на машинное обучение, которое позволит нам либо более эффективно кодировать видео, либо уменьшать разрешение, доставлять на устройство и апскейлить прямо там в режиме реального времени.
Хотя, конечно, эти ребята тоже могут помочь.
Довольно незамеченной прошла новость о том, что Safari теперь нативно поддерживает Touch ID и Face ID как второй фактор для аутентификации в вебе.
https://webkit.org/blog/11312/meet-face-id-and-touch-id-for-the-web/
https://webkit.org/blog/11312/meet-face-id-and-touch-id-for-the-web/
Про параметр
Возможно, вы замечали, что определённую часть трафика к кэшируемым объектам составляют запросы с заголовками типа
Во многих ситуациях такое поведение бесполезно, например, когда мы раздаём неизменяемый контент, такой как изображения или видео. Очень часто так работает и раздача css и js, в названии которых содержится хэш от их содержимого, либо когда такие ресурсы запрашиваются с каким-нибудь версионирующим GET-параметром. Иными словами, если мы уверены, что по этому адресу всегда может отдаваться один и тот же ответ, то для нас запросы, заканчивающиеся 304-ым кодом ответа избыточны.
На помощь спешит модификатор
Проблема лишь в том, что на данный момент Google Chrome не поддерживает такое поведение, хотя даже Safari это умеет, а сам модификатор придумали ещё в 2016. В любом случае, это не мешает вам и Facebook его использовать — 20% пользователей будут рады.
Подробнее:
https://bitsup.blogspot.com/2016/05/cache-control-immutable.html
immutable в заголовке Cache-Control.Возможно, вы замечали, что определённую часть трафика к кэшируемым объектам составляют запросы с заголовками типа
If-Modified-Since, проверяющие, не изменилось ли чего. Браузеры иногда так делают, правда это имеет смысл только если ответы и правда могут поменяться. Это не всегда так, и в результате львиная доля (если не 100%) таких запросов заканчивается ответом 304 Not Modified.Во многих ситуациях такое поведение бесполезно, например, когда мы раздаём неизменяемый контент, такой как изображения или видео. Очень часто так работает и раздача css и js, в названии которых содержится хэш от их содержимого, либо когда такие ресурсы запрашиваются с каким-нибудь версионирующим GET-параметром. Иными словами, если мы уверены, что по этому адресу всегда может отдаваться один и тот же ответ, то для нас запросы, заканчивающиеся 304-ым кодом ответа избыточны.
На помощь спешит модификатор
immutable для заголовка Cache-Control — если его передать в ответе, такой ответ закэшируется намертво, и поддерживающие этот модификатор клиенты не будут пытаться проверить изменения на сервере.Проблема лишь в том, что на данный момент Google Chrome не поддерживает такое поведение, хотя даже Safari это умеет, а сам модификатор придумали ещё в 2016. В любом случае, это не мешает вам и Facebook его использовать — 20% пользователей будут рады.
Подробнее:
https://bitsup.blogspot.com/2016/05/cache-control-immutable.html
Удивительно, но на собственном опыте понял, почему бизнесу выгодно инвестировать в психотерапию сотрудников.
Потому что терапия помимо прочего учит ассертивности — вкратце, это такое умение не думать о том, что о тебе подумают, если ты что-то сделаешь или скажешь. Это позволяет признаваться, что ты не знаешь или не понимаешь чего-то, не брать на себя чужую ответственность, выстраивать границы, позволять себе ошибаться.
Разумеется, это доступно не только людям, прошедшим психотерапию, но по моему опыту это скорее исключение, чем правило.
Чем это полезно на работе?
— здоровые отношения между коллегами;
— более счастливые сотрудники из-за умения выстраивать work-life balance;
— адекватное отношение к своим ошибкам и ошибкам других;
— отстутствие безосновательной боязни конфронтации с поставщиками и клиентами;
— умение отстаивать свою правоту.
То есть представьте, сотрудник, прошедший психотерапию — это (ну, если всё остальное в порядке) человек, который поддерживает хорошие отношения с коллегами, хороший руководитель: позволяет совершать ошибки другим, не убивается от собственных ошибок, не страдает от «синдрома самозванца», счастлив, потому что посвящает время и себе/семье и работе, так ещё и не стесняется и не боится отстаивать интересы компании в переговорах. Мне кажется, классно. Компании, эксплуатирующие психологические проблемы сотрудников, безусловно должны уйти в прошлое.
Потому что терапия помимо прочего учит ассертивности — вкратце, это такое умение не думать о том, что о тебе подумают, если ты что-то сделаешь или скажешь. Это позволяет признаваться, что ты не знаешь или не понимаешь чего-то, не брать на себя чужую ответственность, выстраивать границы, позволять себе ошибаться.
Разумеется, это доступно не только людям, прошедшим психотерапию, но по моему опыту это скорее исключение, чем правило.
Чем это полезно на работе?
— здоровые отношения между коллегами;
— более счастливые сотрудники из-за умения выстраивать work-life balance;
— адекватное отношение к своим ошибкам и ошибкам других;
— отстутствие безосновательной боязни конфронтации с поставщиками и клиентами;
— умение отстаивать свою правоту.
То есть представьте, сотрудник, прошедший психотерапию — это (ну, если всё остальное в порядке) человек, который поддерживает хорошие отношения с коллегами, хороший руководитель: позволяет совершать ошибки другим, не убивается от собственных ошибок, не страдает от «синдрома самозванца», счастлив, потому что посвящает время и себе/семье и работе, так ещё и не стесняется и не боится отстаивать интересы компании в переговорах. Мне кажется, классно. Компании, эксплуатирующие психологические проблемы сотрудников, безусловно должны уйти в прошлое.
Интернет обсуждает “The Kinesis Incident”, случившийся пятью днями ранее и повлёкший массовый даунтайм во всём us-east-1, самом важном регионе AWS.
Согласно опубликованному post-mortem, проблема возникла при плановом вводе новых фронтенд-нод Kinesis (сервиса для риалтайм процессинга потоков данных) отвечающих за приём и направление запросов на правильные бэкенд-ноды. В работе фронтов используется shard-map, такой кэш о том, куда какие потоки должны направляться. Фронт-серверы поддерживают между собой связь, создавая thread для каждого соединения. В результате ввода новых нод в кластер, количество активных тредов, созданных на нодах, превысило лимиты ОС.
Полное восстановление после аварии заняло больше 12 часов, из них четыре с половиной инженеры AWS искали причину. По результатам аварии они планируют использовать более мощные сервера, снизив их количество, начать мониторить количество свободных тредов и провести тесты для увеличения лимита в ОС.
Всё это довольно стандартная история, но общественность обсуждает такой аспект: вместе с Кинезисом упал CloudWatch, амазоновский сервис мониторинга всего на свете, что потянуло за собой недоступность Lambda, ECS и EKS, иными словами, сервисов, которые вообще на первый взгляд с Кинезисом не связанные, но использующие его глубоко под капотом.
Никто не знает эти подкапотные связи и появляющиеся как грибы после дождя сервисы в AWS становятся всё сильнее и сильнее зависимы друг от друга. При этом мы даже не знаем, как именно, не знаем, насколько они изолированы и не станет ли неполадка в каком-то не очень популярном сервисе следующей причиной массового даунтайма длиною в день накануне Чёрной Пятницы.
Кстати, согласно традиции, Service Health Dashboard, в котором публикуются сообщения об авариях долгое время «горел зелененьким», потому что... да-да, выход из строя Кинезиса повлёк за собой недоступность сервиса Cognito, использующегося для авторизации персонала в дашборде, и какое-то время они вспоминали, что у них вообще-то есть протокол на этот случай 🤡
Согласно опубликованному post-mortem, проблема возникла при плановом вводе новых фронтенд-нод Kinesis (сервиса для риалтайм процессинга потоков данных) отвечающих за приём и направление запросов на правильные бэкенд-ноды. В работе фронтов используется shard-map, такой кэш о том, куда какие потоки должны направляться. Фронт-серверы поддерживают между собой связь, создавая thread для каждого соединения. В результате ввода новых нод в кластер, количество активных тредов, созданных на нодах, превысило лимиты ОС.
Полное восстановление после аварии заняло больше 12 часов, из них четыре с половиной инженеры AWS искали причину. По результатам аварии они планируют использовать более мощные сервера, снизив их количество, начать мониторить количество свободных тредов и провести тесты для увеличения лимита в ОС.
Всё это довольно стандартная история, но общественность обсуждает такой аспект: вместе с Кинезисом упал CloudWatch, амазоновский сервис мониторинга всего на свете, что потянуло за собой недоступность Lambda, ECS и EKS, иными словами, сервисов, которые вообще на первый взгляд с Кинезисом не связанные, но использующие его глубоко под капотом.
Никто не знает эти подкапотные связи и появляющиеся как грибы после дождя сервисы в AWS становятся всё сильнее и сильнее зависимы друг от друга. При этом мы даже не знаем, как именно, не знаем, насколько они изолированы и не станет ли неполадка в каком-то не очень популярном сервисе следующей причиной массового даунтайма длиною в день накануне Чёрной Пятницы.
Кстати, согласно традиции, Service Health Dashboard, в котором публикуются сообщения об авариях долгое время «горел зелененьким», потому что... да-да, выход из строя Кинезиса повлёк за собой недоступность сервиса Cognito, использующегося для авторизации персонала в дашборде, и какое-то время они вспоминали, что у них вообще-то есть протокол на этот случай 🤡
Начался re:Invent, ежегодная конференция AWS, на которой они представляют новые услуги и сервисы. Я не уверен, что у меня получится эффективно следить за новинками, там три недели презентаций и лекций, но я лично слежу за тем, что касается «традиционных» serverless, dynamodb, ec2 и так далее, так что о чём-то всё-таки расскажу.
Lambda теперь биллит с точностью до миллисекунды! Это тектоническое изменение и потенциально огромная куча сэкономленных денег для тех, кто запускает много мелких лямбд. Комикс (см. ниже) больше не актуален, ура! (это изменение улетело в продакшен слишком рано, официального анонса нет, но я проверил на своём аккаунте:
В EC2 появились macOS инстансы! Будут доступны mac mini с процессорами Intel и 32Гб оперативки, а в следующем году и Apple Silicon инстансы. Особенность — арендуется целый сервер, без виртуализации, то есть все ресурсы макминика будут ваши. Цен я пока не нашёл.
#reinvent
Lambda теперь биллит с точностью до миллисекунды! Это тектоническое изменение и потенциально огромная куча сэкономленных денег для тех, кто запускает много мелких лямбд. Комикс (см. ниже) больше не актуален, ура! (это изменение улетело в продакшен слишком рано, официального анонса нет, но я проверил на своём аккаунте:
Duration: 54.23 ms Billed Duration: 55 ms)В EC2 появились macOS инстансы! Будут доступны mac mini с процессорами Intel и 32Гб оперативки, а в следующем году и Apple Silicon инстансы. Особенность — арендуется целый сервер, без виртуализации, то есть все ресурсы макминика будут ваши. Цен я пока не нашёл.
#reinvent
Прошёл первый keynote AWS re:Invent, вот самое интересное (для меня):
— AWS S3 теперь strong consistent! Иными словами, теперь гарантированно чтение объекта сразу после записи вернёт нужные данные. О, это классно.
— Новые gp3 volumes для EBS. Апгрейдите ваши вольюмы до gp3 — получаете уменьшенную на 20% стоимость и прибавку в производительности.
— Миллисекундная точность биллинга в Лямбде подтверждена официально. Обратите внимание, что Lambda@Edge так и осталась с округлением до 50 мс.
Тут надо остановиться подробнее — AWS словили много хайпа на этой новости, и я написал про это как про важное изменение, простите. Как подсказывают коллеги, экономия, какой бы она ни была, в абсолютных числах для каждого пользователя будет не очень большой — Lambda сама по себе очень дёшевая.
— Поддержка запуска Lambda-функций в ваших контейнерах размером до 10 Гб. При этом обещают очень быстрый холодный старт. Вкупе с новым рантаймом на 10 Гб памяти и 6 vCPU для лямбды, выглядит очень неплохо. Можно даже какие-то ML-штуки запускать в лямбде.
— Aurora Serverless v2, новая версия managed db (mysql, в начале следующего года PostgreSQL), которая умеет скейлиться как в 0, так и в «бесконечность», теперь — за доли секунды. Настоящий геймчейнджер (если всё правда так классно, как они обещают), так как managed СУБД сейчас одна из самых дорогих частей стандартной LAMP-архитектуры в облаке. Теперь больше проектов смогут переехать на базу, которая может скейлиться под нагрузку автоматически. Это определённо тот сервис, на который надо смотреть, если вы не готовы переходить на DynamoDB и ваша нагрузка не постоянна.
— AWS Proton, новый сервис для автоматического менеджмента для контейнерезируемых и серверлесс приложений. Честно говоря, даже не смог сразу понять, что это такое. Оказалось, что не я один. Вот твиттер-тред с объяснением. Спойлер: если у вас в команде меньше 15 человек, скорее всего, это не для вас.
Другие новинки в обновляемом блог-посте от AWS, enjoy.
P.S. Так как амазоновской назменой станцией для связи со спутниками уже никого не удивишь, в этом году моим фаворитом будут сенсоры, устанавливающиеся на промышленное оборудование, которые снимают показания вибрации и температуры, анализируют и пытаются предсказать поломки с помощью ML-технологий (на фото).
#reinvent
— AWS S3 теперь strong consistent! Иными словами, теперь гарантированно чтение объекта сразу после записи вернёт нужные данные. О, это классно.
— Новые gp3 volumes для EBS. Апгрейдите ваши вольюмы до gp3 — получаете уменьшенную на 20% стоимость и прибавку в производительности.
— Миллисекундная точность биллинга в Лямбде подтверждена официально. Обратите внимание, что Lambda@Edge так и осталась с округлением до 50 мс.
Тут надо остановиться подробнее — AWS словили много хайпа на этой новости, и я написал про это как про важное изменение, простите. Как подсказывают коллеги, экономия, какой бы она ни была, в абсолютных числах для каждого пользователя будет не очень большой — Lambda сама по себе очень дёшевая.
— Поддержка запуска Lambda-функций в ваших контейнерах размером до 10 Гб. При этом обещают очень быстрый холодный старт. Вкупе с новым рантаймом на 10 Гб памяти и 6 vCPU для лямбды, выглядит очень неплохо. Можно даже какие-то ML-штуки запускать в лямбде.
— Aurora Serverless v2, новая версия managed db (mysql, в начале следующего года PostgreSQL), которая умеет скейлиться как в 0, так и в «бесконечность», теперь — за доли секунды. Настоящий геймчейнджер (если всё правда так классно, как они обещают), так как managed СУБД сейчас одна из самых дорогих частей стандартной LAMP-архитектуры в облаке. Теперь больше проектов смогут переехать на базу, которая может скейлиться под нагрузку автоматически. Это определённо тот сервис, на который надо смотреть, если вы не готовы переходить на DynamoDB и ваша нагрузка не постоянна.
— AWS Proton, новый сервис для автоматического менеджмента для контейнерезируемых и серверлесс приложений. Честно говоря, даже не смог сразу понять, что это такое. Оказалось, что не я один. Вот твиттер-тред с объяснением. Спойлер: если у вас в команде меньше 15 человек, скорее всего, это не для вас.
Другие новинки в обновляемом блог-посте от AWS, enjoy.
P.S. Так как амазоновской назменой станцией для связи со спутниками уже никого не удивишь, в этом году моим фаворитом будут сенсоры, устанавливающиеся на промышленное оборудование, которые снимают показания вибрации и температуры, анализируют и пытаются предсказать поломки с помощью ML-технологий (на фото).
#reinvent