How to send repeated notifications for CloudWatch Alarms:
https://aws.amazon.com/blogs/mt/how-to-enable-amazon-cloudwatch-alarms-to-send-repeated-notifications/
1️⃣
2️⃣
3️⃣
4️⃣
5️⃣
6️⃣
▫️
▫️
▫️
▫️
7️⃣
8️⃣
▫️
▫️
▫️
#CloudWatch
https://aws.amazon.com/blogs/mt/how-to-enable-amazon-cloudwatch-alarms-to-send-repeated-notifications/
1️⃣
CloudWatch alarm is triggered and goes into the ALARM state.2️⃣
CloudWatch alarm sends the first alarm notification to the associated SNS alarm actions.3️⃣
CloudWatch Alarms service sends an alarm state change event which triggers the EventBridge rule.4️⃣
With a match event, the EventBridge rule invokes the Step Function target.5️⃣
Once the Step Function starts execution, it first enters a Wait state.6️⃣
The Step Function enters the Lambda Invocation task. The Lambda invocation task:▫️
Checks if the alarm has the specific tag key and value (e.g., RepeatedAlarm:true). If not, the function exits▫️
Checks the alarm’s current state by performing a DescribeAlarms API with the alarm name.▫️
Publishes the existing alarm’s status returned from the DescribeAlarms API call to all the SNS topics subscribed on the alarm▫️
Returns the alarm’s current state together with the original received event back to the Step Function.7️⃣
The Choice state checks the alarm state returned by the Lambda function and directs the workflow to go back to the Wait state if the alarm state is ‘ALARM’ otherwise it ends the step function’s execution.8️⃣
The repeated notification for an alarm within the workflow above stops when:▫️
The alarm transitions to a non-ALARM state.▫️
The alarm is deleted.▫️
A specific tag is removed from the alarm.#CloudWatch
Terraform module for setting up OIDC federation between AWS and Github Actions/Gitlab CI:
https://github.com/marco-lancini/utils/tree/main/terraform/aws-oidc-ci
#Terraform
https://github.com/marco-lancini/utils/tree/main/terraform/aws-oidc-ci
module "ci_oidc" { source = "./aws-oidc-ci" allow_github = true github_org = "<org_name>" github_repos = [ "<repo2_name>:*", # To restrict to a branch, # replace `*` with `ref_type:branch:ref:main` "<repo1_name>:ref_type:branch:ref:main", ]}#Terraform
Подведение итогов
https://www.youtube.com/watch?v=E6CgUapKl9o
#reInvent
reCap re:Invent 2021 - бизнес-трек:https://www.youtube.com/watch?v=E6CgUapKl9o
#reInvent
YouTube
Подведение итогов reCap re:Invent 2021 - бизнес-трек
Сессия для тех, кто принимает решения в бизнесе. На ней будет показано, как новые сервисы могут помочь бизнесу быстрее внедрять инновации, экономить затраты и повышать гибкость. Тайминги ниже в описании. Задавайте вопросы на русском языке в комментариях.…
Weekly Summary on AWS (
🔸AppFlow + Custom Connector SDK for Python and Java
🔸Amazon Connect Chat + ChatDurationInMinutes from
🔸EC2 AMI + Recycle Bin
🔸FSx for OpenZFS + full-copy volumes
🔸IoT Core + per-device level logging
🔸Lambda + auto scaling improvements for MSK and self-managed Kafka
🔸Lex + multiple transcripts and confidence scores for speech input
🔸MSK (Kafka) + 1000 MiB/s per broker
🔸QuickSight + rich text formatting options for visual titles and subtitles
🔸PrivateLink
➖ ElastiCache
➖ MemoryDB
🔸RDS Custom for Oracle +
🔸RDS for MariaDB +
🔸SageMaker Data Wrangler + JSON, JSONL, and ORC
🔸SageMaker JumpStart + custom VPC and KMS
🔸Secrets Manager + rotation windows
🔸Step Functions Local
🔸Storage Gateway + recover previous versions of files for on-premises
Solutions:
🔹Maintaining Personalized Experiences with Machine Learning
🔹MLOps Workload Orchestrator
#AWS_week
January 30 - February 5)🔸AppFlow + Custom Connector SDK for Python and Java
🔸Amazon Connect Chat + ChatDurationInMinutes from
1 hour to 7 days🔸EC2 AMI + Recycle Bin
🔸FSx for OpenZFS + full-copy volumes
🔸IoT Core + per-device level logging
🔸Lambda + auto scaling improvements for MSK and self-managed Kafka
🔸Lex + multiple transcripts and confidence scores for speech input
🔸MSK (Kafka) + 1000 MiB/s per broker
🔸QuickSight + rich text formatting options for visual titles and subtitles
🔸PrivateLink
➖ ElastiCache
➖ MemoryDB
🔸RDS Custom for Oracle +
version 12.1🔸RDS for MariaDB +
version 10.6🔸SageMaker Data Wrangler + JSON, JSONL, and ORC
🔸SageMaker JumpStart + custom VPC and KMS
🔸Secrets Manager + rotation windows
🔸Step Functions Local
🔸Storage Gateway + recover previous versions of files for on-premises
Solutions:
🔹Maintaining Personalized Experiences with Machine Learning
version 1.2.0🔹MLOps Workload Orchestrator
version 1.5.0#AWS_week
Что такое Sustainability
Вдруг вы пропустили появление Sustainability Pillar, думаете, что это что-то несущественное или вообще не знаете о чём речь, что за Sustainability такой (такая, такое).
Кратко и упрощённо, Sustainability — широкое понятие, которое используется, чтобы отразить стремление к учёту влияния на окружающую среду как важного (или даже главного) фактора. Как для бизнеса вообще, так и для конкретной реализации каких-то задач.
Приведу пример, чтобы объяснить смысл. Без учёта Sustainability компании Amazon Web Services выгодно, если вы накликали себе в консоли 8-процессорную виртуалку 5 лет назад, на которой сайт на полтора пользователя в сутки и платите за всё это исправно. Не считая просто забытых и не используемых виртуалок, БД, дисков с IOPs, терабайтов бессмысленных логов и так далее и тому подобное, список может быть бесконечным.
Главное вы платите, а значит AWS зарабатывает. Зарабатывает, по сути, просто на увеличении энтропии, бессмысленно расходуя энергию на вашу страсть быть спонсором Амазона. С точки зрения чисто бизнеса — это очень круто.
Однако если бизнес хочет быть "Sustainability", то это уже перестаёт быть круто. Как когда-то перестало быть круто зарабатывать на детском труде. Нужно много чего менять у себя, нужно много чего делать, нужно много чего помогать изменить другим.
Несколько лет назад AWS начала делать. Это можно наблюдать и в инициативах по создании своих ветряков и солнечных станций. И в крупных инициативах типа The Climate Pledge. И в чисто техническом плане — все вот эти S3 Intelligent-Tiering, где за пользователя AWS сама пытается ему же сэкономить. Ведь это большие вложения на разработку, эксплуатацию и поддержку, а на выходе выгодоприобретатель кто? Пользователь.
Именно — пользователь, он же клиент, который меньше платит, то есть как бы дважды в минус с точки зрения бизнеса. Однако это и есть Sustainability — компания вкладывается, улучшает свои процессы внутри, использует сама. А также даёт их другим, увеличивая как свою эффективность, так и эффективность других. Sustainability, однако.
#Sustainability
Вдруг вы пропустили появление Sustainability Pillar, думаете, что это что-то несущественное или вообще не знаете о чём речь, что за Sustainability такой (такая, такое).
Кратко и упрощённо, Sustainability — широкое понятие, которое используется, чтобы отразить стремление к учёту влияния на окружающую среду как важного (или даже главного) фактора. Как для бизнеса вообще, так и для конкретной реализации каких-то задач.
Приведу пример, чтобы объяснить смысл. Без учёта Sustainability компании Amazon Web Services выгодно, если вы накликали себе в консоли 8-процессорную виртуалку 5 лет назад, на которой сайт на полтора пользователя в сутки и платите за всё это исправно. Не считая просто забытых и не используемых виртуалок, БД, дисков с IOPs, терабайтов бессмысленных логов и так далее и тому подобное, список может быть бесконечным.
Главное вы платите, а значит AWS зарабатывает. Зарабатывает, по сути, просто на увеличении энтропии, бессмысленно расходуя энергию на вашу страсть быть спонсором Амазона. С точки зрения чисто бизнеса — это очень круто.
Однако если бизнес хочет быть "Sustainability", то это уже перестаёт быть круто. Как когда-то перестало быть круто зарабатывать на детском труде. Нужно много чего менять у себя, нужно много чего делать, нужно много чего помогать изменить другим.
Несколько лет назад AWS начала делать. Это можно наблюдать и в инициативах по создании своих ветряков и солнечных станций. И в крупных инициативах типа The Climate Pledge. И в чисто техническом плане — все вот эти S3 Intelligent-Tiering, где за пользователя AWS сама пытается ему же сэкономить. Ведь это большие вложения на разработку, эксплуатацию и поддержку, а на выходе выгодоприобретатель кто? Пользователь.
Именно — пользователь, он же клиент, который меньше платит, то есть как бы дважды в минус с точки зрения бизнеса. Однако это и есть Sustainability — компания вкладывается, улучшает свои процессы внутри, использует сама. А также даёт их другим, увеличивая как свою эффективность, так и эффективность других. Sustainability, однако.
#Sustainability
Amazon
Sustainability Pillar - AWS Well-Architected Framework - Sustainability Pillar
This whitepaper focuses on the sustainability pillar of the Amazon Web Services (AWS) Well-Architected Framework. It provides design principles, operational guidance, best-practices, potential trade-offs, and improvement plans you can use to meet sustainability…
👍2
https://engineering.zalando.com/posts/2022/02/transactional-outbox-with-aws-lambda-and-dynamodb.html
Zalando Engineering Blog
Zalando Engineering Blog - Utilizing Amazon DynamoDB and AWS Lambda for Asynchronous Event Publication
We demonstrate an implementation of the Transactional Outbox pattern put into practice on AWS with Amazon DynamoDB, AWS DynamoDB Streams and AWS Lambda.
Forwarded from Sysadmin Tools 🇺🇦
Kong Data Plane Life Cycle With AWS Cloud Development Kit
https://konghq.com/blog/aws-cloud-development-kit
#k8s #kubernetes #aws #tool #ingress #kong
https://konghq.com/blog/aws-cloud-development-kit
#k8s #kubernetes #aws #tool #ingress #kong
Replicate Existing Objects with S3 Batch Replication:
https://aws.amazon.com/blogs/aws/new-replicate-existing-objects-with-amazon-s3-batch-replication/
When to Use Amazon S3 Batch Replication
◻️ Replicate existing objects – use S3 Batch Replication to replicate objects that were added to the bucket before the replication rules were configured.
◻️ Replicate objects that previously failed to replicate – retry replicating objects that failed to replicate previously with the S3 Replication rules due to insufficient permissions or other reasons.
◻️ Replicate objects that were already replicated to another destination – you might need to store multiple copies of your data in separate AWS accounts or Regions. S3 Batch Replication can replicate objects that were already replicated to new destinations.
◻️ Replicate replicas of objects that were created from a replication rule – S3 Replication creates replicas of objects in destination buckets. Replicas of objects cannot be replicated again with live replication. These replica objects can only be replicated with S3 Batch Replication.
#S3 #Batch
https://aws.amazon.com/blogs/aws/new-replicate-existing-objects-with-amazon-s3-batch-replication/
When to Use Amazon S3 Batch Replication
◻️ Replicate existing objects – use S3 Batch Replication to replicate objects that were added to the bucket before the replication rules were configured.
◻️ Replicate objects that previously failed to replicate – retry replicating objects that failed to replicate previously with the S3 Replication rules due to insufficient permissions or other reasons.
◻️ Replicate objects that were already replicated to another destination – you might need to store multiple copies of your data in separate AWS accounts or Regions. S3 Batch Replication can replicate objects that were already replicated to new destinations.
◻️ Replicate replicas of objects that were created from a replication rule – S3 Replication creates replicas of objects in destination buckets. Replicas of objects cannot be replicated again with live replication. These replica objects can only be replicated with S3 Batch Replication.
#S3 #Batch
🔥3👍1
App Runner теперь поддерживает VPC (да, раньше не поддерживал😀):
https://aws.amazon.com/blogs/containers/deep-dive-on-aws-app-runner-vpc-networking/
Очень полезный пост с подробностями, которые не так часто бывают при появлении новых фич сервисов — как устроено под капотом, как было и как стало, сетевая часть, амазоновская часть. Очень стоит почитать, даже если не планируете использовать AppRunner.
Кто пропустил, AppRunner — рекомендуемый AWS сервис для запуска контейнеров, условно (не точно, но по смыслу точно 😁) замена давно устаревшему Beanstalk.
#AppRunner
https://aws.amazon.com/blogs/containers/deep-dive-on-aws-app-runner-vpc-networking/
Очень полезный пост с подробностями, которые не так часто бывают при появлении новых фич сервисов — как устроено под капотом, как было и как стало, сетевая часть, амазоновская часть. Очень стоит почитать, даже если не планируете использовать AppRunner.
Кто пропустил, AppRunner — рекомендуемый AWS сервис для запуска контейнеров, условно (не точно, но по смыслу точно 😁) замена давно устаревшему Beanstalk.
#AppRunner
Amazon
Deep Dive on AWS App Runner VPC Networking | Amazon Web Services
AWS App Runner, introduced in 2021, is a fully managed service for running web applications and API servers. App Runner greatly simplifies the experience to build and run secure web server applications with little to no infrastructure in your account. You…
👍5
Terraform AWS Provider 4.0:
https://www.hashicorp.com/blog/terraform-aws-provider-4-0-refactors-s3-bucket-resource
Version 4.0 of the Terraform AWS provider brings four major updates:
1️⃣
2️⃣
3️⃣
4️⃣
#Terraform
https://www.hashicorp.com/blog/terraform-aws-provider-4-0-refactors-s3-bucket-resource
Version 4.0 of the Terraform AWS provider brings four major updates:
1️⃣
Updating the Amazon S3 bucket resource, creating additional resources for S3 bucket management2️⃣
Implementing the full CRUD lifecycle for default resources3️⃣
Ensuring all plural data sources can return zero results4️⃣
Updating the provider configuration#Terraform
👍9🎉4
Weekly Summary on AWS (
🔸App Runner + VPC
🔸CloudFormation Hooks
🔸CloudFront + AWS-managed prefix list
🔸Connect + CloudWatch for Chat metrics
🔸Control Tower + updated support for AWS best practices and Region deny
🔸Fraud Detector Variable Geolocation enrichment
🔸Glue DataBrew
➖ E.164 phone number standardization
➖ Multi-column and custom sort as transformations
🔸Migration Hub Refactor Spaces
🔸Neptune
➖ 128 TiB of storage per cluster (up from 64 TiB)
➖ Custom models and SPARQL
🔸Organizations + centrally manage alternate contacts on AWS accounts in AWS Console
🔸PrivateLink
➖ Forecast
➖ Elemental MediaConnect
➖ SSM Incident Manager
🔸Redshift + Streaming Ingestion for Kinesis Data Streams
🔸S3 Batch Replication
🔸SageMaker Autopilot + new Model Insights for classification problems
🔸SSM Distributor + deploy Alert Logic MDR Agent
🔹ParallelCluster v3.1.1 with multi-user environments through AWS Directory Service
#AWS_week
February 6-12)🔸App Runner + VPC
🔸CloudFormation Hooks
🔸CloudFront + AWS-managed prefix list
🔸Connect + CloudWatch for Chat metrics
🔸Control Tower + updated support for AWS best practices and Region deny
🔸Fraud Detector Variable Geolocation enrichment
🔸Glue DataBrew
➖ E.164 phone number standardization
➖ Multi-column and custom sort as transformations
🔸Migration Hub Refactor Spaces
🔸Neptune
➖ 128 TiB of storage per cluster (up from 64 TiB)
➖ Custom models and SPARQL
🔸Organizations + centrally manage alternate contacts on AWS accounts in AWS Console
🔸PrivateLink
➖ Forecast
➖ Elemental MediaConnect
➖ SSM Incident Manager
🔸Redshift + Streaming Ingestion for Kinesis Data Streams
🔸S3 Batch Replication
🔸SageMaker Autopilot + new Model Insights for classification problems
🔸SSM Distributor + deploy Alert Logic MDR Agent
🔹ParallelCluster v3.1.1 with multi-user environments through AWS Directory Service
#AWS_week
Sustainability, часть 2
Переписываем всё на Rust
Начал было писать статью в продолжение важной темы Sustainability (кто ещё не понял — Sustainability важный/устойчивый тренд и не только для AWS) по теме энергоэффективности языков, чтобы обосновать шуточное определение, данное в посте про Sustainability Pillar, как AWS уже всё сделал за меня:
https://aws.amazon.com/blogs/opensource/sustainability-with-rust/
Если коротко, то AWS вкладывается в Rust как наиболее энергоэффективный из современных языков, переписывая критические элементы инфраструктуры на него. И, в частности, уже не один год нанимает Rust-разработчиков, разгоняя совместно с криптой их зарплаты до кратных зарплат девопсов.
Так что если вы лишь раздумываете, какой язык изучать ради денег — смелозачёркивайте Go помещайте Rust на первую позицию. 😁
#Sustainability #Rust
Переписываем всё на Rust
Начал было писать статью в продолжение важной темы Sustainability (кто ещё не понял — Sustainability важный/устойчивый тренд и не только для AWS) по теме энергоэффективности языков, чтобы обосновать шуточное определение, данное в посте про Sustainability Pillar, как AWS уже всё сделал за меня:
https://aws.amazon.com/blogs/opensource/sustainability-with-rust/
Если коротко, то AWS вкладывается в Rust как наиболее энергоэффективный из современных языков, переписывая критические элементы инфраструктуры на него. И, в частности, уже не один год нанимает Rust-разработчиков, разгоняя совместно с криптой их зарплаты до кратных зарплат девопсов.
Так что если вы лишь раздумываете, какой язык изучать ради денег — смело
#Sustainability #Rust
NoCode/LowCode сервисы на AWS
Про сложность AWS сервисов рассказывать не нужно, особенно здесь, да. 😀 Однако стоит учитывать, что это хорошо понимают и в AWS. И в последние годы пытаются что-то с этим сделать, чтобы снизить порог входа для использования AWS сервисов.
Возможно вы не заметили этих попыток со стороны AWS, даже, думаю, наверняка. И считаете, что нельзя просто так вот взять и использовать AWS сервисы. Что обязательно нужно программировать и много, настраивать и много чего другого знать. Значит этот пост как раз для вас.
Amazon Honeycode (2020-06)
Писал про Honeycode и даже пользовался сам. Реально без программирования можно получить готовый продукт.
У Honeycode есть много моментов и ограничений, однако для своей ниши хорошая вещь. Сервис был куплен Амазоном, потому находится "сбоку" и отсутствует привычная интеграция в экосистему AWS сервисов (плюс по-прежнему доступен лишь в
AWS Glue Studio (2020-09)
Следующая попытка — поиграть на поле ETL сервисов:
https://aws.amazon.com/blogs/big-data/making-etl-easier-with-aws-glue-studio/
Не всё получилось совсем просто и для тех, кто не работал раньше с AWS, в результате получилось не так очевидно, однако интеграция со всей экосистемой позволяет сервису прогрессировать быстрыми темпами.
AWS Glue DataBrew (2020-11)
https://aws.amazon.com/blogs/aws/announcing-aws-glue-databrew-a-visual-data-preparation-tool-that-helps-you-clean-and-normalize-data-faster/
Amazon Nimble Studio (2021-04)
Не совсем сочетается с AWS сервисами в привычном смысле этого слова, но таки это именно он — крутая штука для создателей контента:
https://aws.amazon.com/blogs/media/amazon-nimble-studio-the-story-so-far/
AWS Step Functions Workflow Studio (2021-06)
https://aws.amazon.com/blogs/aws/new-aws-step-functions-workflow-studio-a-low-code-visual-tool-for-building-state-machines/
Amazon SageMaker Canvas (2021-11)
https://aws.amazon.com/blogs/aws/announcing-amazon-sagemaker-canvas-a-visual-no-code-machine-learning-capability-for-business-analysts/
AWS Amplify Studio (2021-12)
https://aws.amazon.com/blogs/mobile/aws-amplify-studio-figma-to-fullstack-react-app-with-minimal-programming/
Самый последний на момент написания и самый крутой в этом плане сервис — Amplify Studio:
Назвать его LowCode можно лишь с натяжкой, но это реально крутая штука, обязательная к тому, чтобы попробовать всем Frontend/FullStack разработчикам.
Итого
Как вы заметили, маркетологи в AWS решили использовать словечко Studio для маркировки подобных сервисов. Но главное другое — NoCode/LowCode сервисы у AWS есть, их стоит попробовать самому и порекомендовать другим! 😀
#NoCode #LoCode
Про сложность AWS сервисов рассказывать не нужно, особенно здесь, да. 😀 Однако стоит учитывать, что это хорошо понимают и в AWS. И в последние годы пытаются что-то с этим сделать, чтобы снизить порог входа для использования AWS сервисов.
Возможно вы не заметили этих попыток со стороны AWS, даже, думаю, наверняка. И считаете, что нельзя просто так вот взять и использовать AWS сервисы. Что обязательно нужно программировать и много, настраивать и много чего другого знать. Значит этот пост как раз для вас.
Amazon Honeycode (2020-06)
Писал про Honeycode и даже пользовался сам. Реально без программирования можно получить готовый продукт.
У Honeycode есть много моментов и ограничений, однако для своей ниши хорошая вещь. Сервис был куплен Амазоном, потому находится "сбоку" и отсутствует привычная интеграция в экосистему AWS сервисов (плюс по-прежнему доступен лишь в
Oregon). AWS Glue Studio (2020-09)
Следующая попытка — поиграть на поле ETL сервисов:
Glue Studio is a new graphical interface that makes it easy to create, run, and monitor extract, transform, and load (ETL) jobs in Glue. You can visually compose data transformation workflows and seamlessly run them on Glue’s Spark-based serverless ETL engine.https://aws.amazon.com/blogs/big-data/making-etl-easier-with-aws-glue-studio/
Не всё получилось совсем просто и для тех, кто не работал раньше с AWS, в результате получилось не так очевидно, однако интеграция со всей экосистемой позволяет сервису прогрессировать быстрыми темпами.
AWS Glue DataBrew (2020-11)
DataBrew provides a visual interface that quickly connects to your data stored in S3, Redshift, RDS, any JDBC accessible data store, or data indexed by the Glue Data Catalog. You can then explore the data, look for patterns, and apply transformations.https://aws.amazon.com/blogs/aws/announcing-aws-glue-databrew-a-visual-data-preparation-tool-that-helps-you-clean-and-normalize-data-faster/
Amazon Nimble Studio (2021-04)
Не совсем сочетается с AWS сервисами в привычном смысле этого слова, но таки это именно он — крутая штука для создателей контента:
https://aws.amazon.com/blogs/media/amazon-nimble-studio-the-story-so-far/
Nimble Studio is a new service that empowers creative studios to produce visual effects, animation, and interactive content from storyboard sketch to final deliverable, entirely in the cloud.AWS Step Functions Workflow Studio (2021-06)
https://aws.amazon.com/blogs/aws/new-aws-step-functions-workflow-studio-a-low-code-visual-tool-for-building-state-machines/
Step Functions Workflow Studio is a low-code visual tool that helps you learn Step Functions through a guided interactive interface and allows you to prototype and build workflows faster.Amazon SageMaker Canvas (2021-11)
https://aws.amazon.com/blogs/aws/announcing-amazon-sagemaker-canvas-a-visual-no-code-machine-learning-capability-for-business-analysts/
SageMaker Canvas is a new visual, no code capability that allows business analysts to build ML models and generate accurate predictions without writing code or requiring ML expertise.AWS Amplify Studio (2021-12)
https://aws.amazon.com/blogs/mobile/aws-amplify-studio-figma-to-fullstack-react-app-with-minimal-programming/
Самый последний на момент написания и самый крутой в этом плане сервис — Amplify Studio:
Amplify Studio is a visual development environment that offers frontend developers new features to accelerate UI development with minimal coding, while integrating Amplify’s powerful backend configuration and management capabilities.Назвать его LowCode можно лишь с натяжкой, но это реально крутая штука, обязательная к тому, чтобы попробовать всем Frontend/FullStack разработчикам.
Итого
Как вы заметили, маркетологи в AWS решили использовать словечко Studio для маркировки подобных сервисов. Но главное другое — NoCode/LowCode сервисы у AWS есть, их стоит попробовать самому и порекомендовать другим! 😀
#NoCode #LoCode
👍9
Forwarded from Svyatoslav Ustyugov
16 февраля поговорим возможностях облака AWS в области машинного обучения и искусственного интеллекта:
◉ Рассмотрим сервисы для внедрения функций искусственного интеллекта
◉ Познакомимся с Amazon SageMaker - управляемым сервисом для для разработчиков и специалистов по работе с данными. Данный сервис позволяет обучать и развёртывать модели машинного обучения.
Ждём!)
https://aws.softline.com/events/vvedenie-v-mlai-na-aws-obzor-osnovnyh-servisov-i-p
◉ Рассмотрим сервисы для внедрения функций искусственного интеллекта
◉ Познакомимся с Amazon SageMaker - управляемым сервисом для для разработчиков и специалистов по работе с данными. Данный сервис позволяет обучать и развёртывать модели машинного обучения.
Ждём!)
https://aws.softline.com/events/vvedenie-v-mlai-na-aws-obzor-osnovnyh-servisov-i-p
Softline
Введение в ML/AI на AWS. Обзор основных сервисов и принципов их работы в облаке Amazon Web Services
Принимаем оплату за сервисы Amazon Web Services (AWS).
S3 POST Policy:
https://apptrail.com/blog/2022/02/14/s3-post-policy
p.s. Link to official documentation:
https://docs.aws.amazon.com/AmazonS3/latest/API/sigv4-UsingHTTPPOST.html
#S3
https://apptrail.com/blog/2022/02/14/s3-post-policy
p.s. Link to official documentation:
https://docs.aws.amazon.com/AmazonS3/latest/API/sigv4-UsingHTTPPOST.html
#S3
www.matano.dev
S3 POST Policy - The hidden S3 feature you haven't heard of | Matano
A look at S3 POST Policies and how to use them to create secure, short lived client object upload sessions.
EC2
https://aws.amazon.com/blogs/aws/new-amazon-ec2-c6a-instances-powered-by-3rd-gen-amd-epyc-processors-for-compute-intensive-workloads/
▫️
▫️
▫️
🔸
#EC2 #AMD
C6a instances powered by AMD Zen3:https://aws.amazon.com/blogs/aws/new-amazon-ec2-c6a-instances-powered-by-3rd-gen-amd-epyc-processors-for-compute-intensive-workloads/
Compared to C5a instances, this new instance type provides:▫️
Up to 15 percent improvement in compute price performance.▫️
Up to 40 Gbps for Amazon Elastic Block Store (Amazon EBS).▫️
Up to 50 Gbps for network bandwidth.🔸
C6a instances are cheaper than C5a!c5a.large $0.077 2 4 GiB EBS Only Up to 10 Gigabitc6a.large $0.0765 2 4 GiB EBS Only Up to 12.5 Gigabit#EC2 #AMD
Sub-Millisecond Read Latency for EFS:
https://aws.amazon.com/blogs/aws/amazon-elastic-file-system-update-sub-millisecond-read-latency/
◻️ Up until today, EFS latency for read operations (both data and metadata) was typically in the low single-digit milliseconds. Effective today, new and existing EFS file systems now provide average latency as low as 600 microseconds for the majority of read operations on data and metadata.
◻️ This performance boost applies to
#EFS
https://aws.amazon.com/blogs/aws/amazon-elastic-file-system-update-sub-millisecond-read-latency/
◻️ Up until today, EFS latency for read operations (both data and metadata) was typically in the low single-digit milliseconds. Effective today, new and existing EFS file systems now provide average latency as low as 600 microseconds for the majority of read operations on data and metadata.
◻️ This performance boost applies to
One Zone and Standard General Purpose EFS file systems. New or old, you will still get the same availability, durability, scalability, and strong read-after-write consistency that you have come to expect from EFS, at no additional cost and with no configuration changes.#EFS
Amazon
Amazon Elastic File System Update – Sub-Millisecond Read Latency | Amazon Web Services
Amazon Elastic File System (Amazon EFS) was announced in early 2015 and became generally available in 2016. We launched EFS in order to make it easier for you to build applications that need shared access to file data. EFS is (and always has been) simple…
👍10