aws saa Flashcards
Uma empresa coleta dados de temperatura, umidade e pressão atmosférica em cidades de vários continentes. O volume médio de dados que a empresa coleta de cada site diariamente é de 500 GB. Cada site tem uma conexão de Internet de alta velocidade. A empresa quer agregar os dados de todos esses sites globais o mais rápido possível em um único bucket do Amazon S3. A solução deve minimizar a complexidade operacional. Qual solução atende a esses requisitos? A. Ative o S3 Transfer Acceleration no bucket S3 de destino. Use uploads multipartes para carregar dados do site diretamente para o bucket S3 de destino.B. Carregue os dados de cada site para um bucket S3 na região mais próxima. Use a replicação entre regiões do S3 para copiar objetos para o bucket S3 de destino. Em seguida, remova os dados do bucket S3 de origem.C. Agende tarefas do dispositivo AWS Snowball Edge Storage Optimized diariamente para transferir dados de cada site para a região mais próxima. Use a replicação entre regiões do S3 para copiar objetos para o bucket S3 de destino.D. Faça upload dos dados de cada site para uma instância do Amazon EC2 na região mais próxima. Armazene os dados em um volume do Amazon Elastic Block Store (Amazon EBS). Em intervalos regulares, tire um snapshot do EBS e copie-o para a região que contém o bucket S3 de destino. Restaure o volume do EBS nessa região.
Resposta correta: A O S3 Transfer Acceleration é a melhor solução porque é mais rápido, bom para alta velocidade. O Transfer Acceleration foi projetado para otimizar as velocidades de transferência de todo o mundo para os buckets do S3.
Uma empresa precisa da capacidade de analisar os arquivos de log de seu aplicativo proprietário. Os logs são armazenados no formato JSON em um bucket do Amazon S3. As consultas serão simples e serão executadas sob demanda. Um arquiteto de soluções precisa executar a análise com alterações mínimas na arquitetura existente. O que o arquiteto de soluções deve fazer para atender a esses requisitos com a MENOR quantidade de sobrecarga operacional? A. Use o Amazon Redshift para carregar todo o conteúdo em um só lugar e executar as consultas SQL conforme necessário.B. Use o Amazon CloudWatch Logs para armazenar os logs. Execute consultas SQL conforme necessário no console do Amazon CloudWatch.C. Use o Amazon Athena diretamente com o Amazon S3 para executar as consultas conforme necessário.D. Use o AWS Glue para catalogar os logs. Use um cluster Apache Spark temporário no Amazon EMR para executar as consultas SQL conforme necessário.
Resposta correta: C https://docs.aws.amazon.com/athena/latest/ug/what-is.html O Amazon Athena é um serviço de consulta interativo que facilita a análise de dados diretamente no Amazon Simple Storage Service (Amazon S3) usando SQL padrão. Com algumas ações no AWS Management Console, você pode apontar o Athena para seus dados armazenados no Amazon S3 e começar a usar SQL padrão para executar consultas ad-hoc e obter resultados em segundos.Resposta correta: C
Uma empresa usa o AWS Organizations para gerenciar várias contas da AWS para diferentes departamentos. A conta de gerenciamento tem um bucket do Amazon S3 que contém relatórios de projeto. A empresa quer limitar o acesso a este bucket S3 somente a usuários de contas dentro da organização no AWS Organizations. Qual solução atende a esses requisitos com a MENOR quantidade de sobrecarga operacional? A. Adicione a chave de condição global aws PrincipalOrgID com uma referência ao ID da organização à política de bucket S3.B. Crie uma unidade organizacional (UO) para cada departamento. Adicione a chave de condição global aws:PrincipalOrgPaths à política de bucket S3.C. Use o AWS CloudTrail para monitorar os eventos CreateAccount, InviteAccountToOrganization, LeaveOrganization e RemoveAccountFromOrganization. Atualize a política de bucket S3 adequadamente.D. Marque cada usuário que precisa de acesso ao bucket S3. Adicione a chave de condição global aws:PrincipalTag à política de bucket do S3.
Resposta correta: A aws:PrincipalOrgID Valida se o principal que acessa o recurso pertence a uma conta em sua organização. https://aws.amazon.com/blogs/security/control-access-to-aws-resources-by-using-the-aws-organization-of-iam-principals/
Um aplicativo é executado em uma instância do Amazon EC2 em uma VPC. O aplicativo processa logs armazenados em um bucket do Amazon S3. A instância do EC2 precisa acessar o bucket do S3 sem conectividade com a Internet. Qual solução fornecerá conectividade de rede privada ao Amazon S3? A. Crie um endpoint de VPC de gateway para o bucket do S3.B. Transmita os logs para o Amazon CloudWatch Logs. Exporte os logs para o bucket S3.C. Crie um perfil de instância no Amazon EC2 para permitir acesso ao S3.D. Crie uma API do Amazon API Gateway com um link privado para acessar o endpoint S3.
Resposta correta: A Um endpoint de VPC de gateway é uma conexão entre sua VPC e um serviço da AWS que permite conectividade privada ao serviço. Um endpoint de VPC de gateway para S3 permite que a instância EC2 acesse o bucket S3 sem exigir conectividade com a Internet.
Uma empresa está hospedando um aplicativo da Web na AWS usando uma única instância do Amazon EC2 que armazena documentos enviados pelo usuário em um volume do Amazon EBS. Para melhor escalabilidade e disponibilidade, a empresa duplicou a arquitetura e criou uma segunda instância do EC2 e um volume do EBS em outra Zona de Disponibilidade, colocando ambos atrás de um Balanceador de Carga de Aplicativo. Após concluir essa alteração, os usuários relataram que, cada vez que atualizavam o site, conseguiam ver um subconjunto de seus documentos ou outro, mas nunca todos os documentos ao mesmo tempo. O que um arquiteto de soluções deve propor para garantir que os usuários vejam todos os seus documentos de uma vez? A. Copiar os dados para que ambos os volumes do EBS contenham todos os documentosB. Configurar o Application Load Balancer para direcionar um usuário ao servidorr com os documentosC. Copie os dados de ambos os volumes do EBS para o Amazon EFS. Modifique o aplicativo para salvar novos documentos no Amazon EFSD. Configure o Application Load Balancer para enviar a solicitação para ambos os servidores. Retorne cada documento do servidor correto
Resposta correta: C O Amazon Elastic File System (EFS) é um serviço de armazenamento de arquivos totalmente gerenciado que permite aos usuários armazenar e acessar dados na nuvem da Amazon. O EFS é acessível pela rede e pode ser montado em várias instâncias do Amazon EC2. Ao copiar os dados de ambos os volumes EBS para o EFS e modificar o aplicativo para salvar novos documentos no EFS, os usuários poderão acessar todos os seus documentos ao mesmo tempo.
Uma empresa usa o NFS para armazenar grandes arquivos de vídeo em armazenamento conectado à rede local. Cada arquivo de vídeo varia em tamanho de 1 MB a 500 GB. O armazenamento total é de 70 TB e não está mais crescendo. A empresa decide migrar os arquivos de vídeo para o Amazon S3. A empresa deve migrar os arquivos de vídeo o mais rápido possível, usando a menor largura de banda de rede possível. Qual solução atenderá a esses requisitos? A. Crie um bucket S3. Crie uma função do IAM que tenha permissões para gravar no bucket S3. Use a AWS CLI para copiar todos os arquivos localmente para o bucket do S3.B. Crie um trabalho do AWS Snowball Edge. Receba um dispositivo Snowball Edge no local. Use o cliente Snowball Edge para transferir dados para o dispositivo. Retorne o dispositivo para que a AWS possa importar os dados para o Amazon S3.C. Implemente um S3 File Gateway no local. Crie um ponto de extremidade de serviço público para se conectar ao S3 File Gateway. Crie um bucket do S3. Crie um novo compartilhamento de arquivos NFS no S3 File Gateway. Aponte o novo compartilhamento de arquivos para o bucket do S3. Transfira os dados do compartilhamento de arquivos NFS existente para o S3 File Gateway.D. Configure uma conexão do AWS Direct Connect entre a rede local e a AWS. Implante um S3 File Gateway no local. Crie uma interface virtual pública (VIF) para se conectar ao S3 File Gateway. Crie um bucket do S3. Crie um novo compartilhamento de arquivos NFS no S3 File Gateway. Aponte o novo compartilhamento de arquivo para o bucket S3. Transfira os dados do compartilhamento de arquivo NFS existente para o S3 File Gateway.
Resposta selecionada: B Vamos analisar isso: B. Em um dispositivo Snowball Edge, você pode copiar arquivos com uma velocidade de até 100 Gbps. 70 TB levarão cerca de 5.600 segundos, muito rápido, menos de 2 horas. A desvantagem é que levará de 4 a 6 dias úteis para receber o dispositivo e, em seguida, outros 2 a 3 dias úteis para enviá-lo de volta e para a AWS mover os dados para o S3 quando chegarem a eles. Tempo total: 6 a 9 dias úteis. Largura de banda usada: 0. C. O File Gateway usa a Internet, então a velocidade máxima será de no máximo 1 Gbps, então levará no mínimo 6,5 dias e você usará 70 TB de largura de banda da Internet. D. Você pode atingir velocidades de até 10 Gbps com Direct Connect. Tempo total de 15,5 horas e você usará 70 TB de largura de banda. No entanto, o interessante é que a pergunta não especifica que tipo de largura de banda? O Direct Connect não usa sua largura de banda de Internet, pois você terá uma conectividade peer to peer dedicada entre seu local e a Nuvem AWS, então, tecnicamente, você não está usando sua largura de banda pública. Os requisitos são um pouco vagos, mas acho que B é a resposta mais apropriada, embora D também possa estar correta se o uso da largura de banda se referir estritamente à sua conectividade pública.
Uma empresa tem um aplicativo que ingere mensagens recebidas. Dezenas de outros aplicativos e microsserviços consomem rapidamente essas mensagens. O número de mensagens varia drasticamente e às vezes aumenta repentinamente para 100.000 a cada segundo. A empresa quer desacoplar a solução e aumentar a escalabilidade. Qual solução atende a esses requisitos? A. Persista as mensagens no Amazon Kinesis Data Analytics. Configure os aplicativos do consumidor para ler e processar as mensagens.B. Implemente o aplicativo de ingestão em instâncias do Amazon EC2 em um grupo de dimensionamento automático para dimensionar o número de instâncias do EC2 com base nas métricas da CPU.C. Escreva as mensagens no Amazon Kinesis Data Streams com um único fragmento. Use uma função do AWS Lambda para pré-processar mensagens e armazená-las no Amazon DynamoDB. Configurare os aplicativos do consumidor para ler do DynamoDB para processar as mensagens.D. Publique as mensagens em um tópico do Amazon Simple Notification Service (Amazon SNS) com várias assinaturas do Amazon Simple Queue Service (Amazon SQS). Configure os aplicativos do consumidor para processar as mensagens das filas.
Selecione a resposta D. Padrão de Fan Out do SNS https://docs.aws.amazon.com/sns/latest/dg/sns-common-scenarios.html (A está errada. O Kinesis Analysis não ‘persiste’ por si só.)
Uma empresa está migrando um aplicativo distribuído para a AWS. O aplicativo atende a cargas de trabalho variáveis. A plataforma legada consiste em um servidor primário que coordena trabalhos em vários nós de computação. A empresa quer modernizar o aplicativo com uma solução que maximize a resiliência e a escalabilidade. Como um arquiteto de soluções deve projetar a arquitetura para atender a esses requisitos? A. Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como um destino para os trabalhos. Implemente os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configure o EC2 Auto Scaling para usar o dimensionamento programado.B. Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como um destino para os trabalhos. Implemente os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configure o EC2 Auto Scaling com base no tamanho da fila.C. Implemente o servidor primário e os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configure o AWS CloudTrail como um destino para os trabalhos. Configurar o EC2 Auto Scaling com base na carga no servidor primário.D. Implementar o servidor primário e os nós de computação com instâncias do Amazon EC2 que são gerenciadas em um grupo de Auto Scaling. Configurar o Amazon EventBridge (Amazon CloudWatch Events) como um destino para os trabalhos. Configurar o EC2 Auto Scaling com base na carga nos nós de computação.
Resposta selecionada: B A resposta parece ser B para mim: A: não faz sentido programar o auto-scaling C: Não tenho certeza de como o CloudTrail seria útil neste caso, de forma alguma. D: O EventBridge não é realmente usado para esta finalidade, não seria muito confiável
Uma empresa está executando um servidor de arquivos SMB em seu data center. O servidor de arquivos armazena arquivos grandes que são acessados com frequência nos primeiros dias após a criação dos arquivos. Após 7 dias, os arquivos raramente são acessados. O tamanho total dos dados está aumentando e está próximo da capacidade total de armazenamento da empresa. Um arquiteto de soluções deve aumentar o espaço de armazenamento disponível da empresa sem perder o acesso de baixa latência aos arquivos acessados mais recentemente. O arquiteto de soluções também deve fornecer gerenciamento do ciclo de vida do arquivo para evitar problemas futuros de armazenamento. Qual solução atenderá a esses requisitos? A. Use o AWS DataSync para copiar dados com mais de 7 dias do servidor de arquivos SMB para a AWS.B. Crie um Amazon S3 File Gateway para estender o espaço de armazenamento da empresa. Crie uma política de ciclo de vida do S3 para fazer a transição dos dados para o S3 Glacier Deep Archive após 7 dias.C. Crie um sistema de arquivos do Amazon FSx for Windows File Server para estender o espaço de armazenamento da empresa.D. Instale um utilitário no computador de cada usuário para acessar o Amazon S3. Crie uma política de ciclo de vida do S3 para fazer a transição dos dados para o S3 Glacier Flexible Retrieval após 7 dias.
Resposta selecionada: B A resposta B está correta. Baixa latência é necessária apenas para arquivos mais novos. Além disso, o File GW fornece acesso de baixa latência armazenando em cache arquivos acessados com frequência localmente, então a resposta é B
Uma empresa está construindo um aplicativo da web de comércio eletrônico na AWS. O aplicativo envia informações sobre novos pedidos para uma API REST do Amazon API Gateway para processamento. A empresa quer garantir que os pedidos sejam processados na ordem em que são recebidos. Qual solução atenderá a esses requisitos? A. Use uma integração do API Gateway para publicar uma mensagem em um tópico do Amazon Simple Notification Service (Amazon SNS) quando o aplicativo receber um pedido. Assine uma função do AWS Lambda no tópico para executar o processamento.B. Use uma integração do API Gateway para enviar uma mensagem a uma fila FIFO do Amazon Simple Queue Service (Amazon SQS) quando o aplicativo receber um pedido. Configure a fila FIFO do SQS para invocar uma função do AWS Lambda para processamento.C. Use um autorizador do API Gateway para bloquear quaisquer solicitações enquanto o aplicativo processa um pedido.D. Use uma integração do API Gateway para enviar uma mensagem a uma fila padrão do Amazon Simple Queue Service (Amazon SQS) quando o aplicativo receber um pedido. Configure a fila padrão do SQS para invocar uma função do AWS Lambda para processamento.
Resposta selecionada: B Acho que as respostas erradas estão aqui intencionalmente como uma forma de nos aprofundarmos no tópico e obtermos mais conhecimento ou talvez eu esteja dando muito crédito a elas.
Uma empresa tem um aplicativo que roda em instâncias do Amazon EC2 e usa um banco de dados do Amazon Aurora. As instâncias do EC2 se conectam ao banco de dados usando nomes de usuário e senhas que são armazenados localmente em um arquivo. A empresa quer minimizar a sobrecarga operacional do gerenciamento de credenciais. O que um arquiteto de soluções deve fazer para atingir esse objetivo? A. Use o AWS Secrets Manager. Ative a rotação automática.B. Use o AWS Systems Manager Parameter Store. Ative a rotação automática.C. Crie um bucket do Amazon S3 para armazenar objetos criptografados com uma chave de criptografia do AWS Key Management Service (AWS KMS). Migre o arquivo de credenciais para o bucket do S3. Aponte o aplicativo para o bucket do S3.D. Crie um volume criptografado do Amazon Elastic Block Store (Amazon EBS) para cada instância do EC2. Anexe o novo volume do EBS a cada instância do EC2. Migre o arquivo de credenciais para o novo volume do EBS. Aponte o aplicativo para o novo volume do EBS.
Resposta selecionada: A O AWS Secrets Manager é um serviço de gerenciamento de segredos que permite armazenar, gerenciar e girar segredos, como credenciais de banco de dados, chaves de API e chaves SSH. O Secrets Manager ajuda a proteger seus segredos, girando-os automaticamente de acordo com uma programação que você especificar. Isso pode ajudar a minimizar a sobrecarga operacional de gerenciar e girar segredos, bem como reduzir o risco de segredos serem comprometidos. Com o Secrets Manager, você pode armazenar os nomes de usuário e senhas para seu banco de dados Amazon Aurora em um local central e fazer com que eles sejam girados automaticamente em uma programação que você especificar. As instâncias do EC2 podem então recuperar os segredos conforme necessário, em vez de ter que armazená-los localmente em um arquivo.
Uma empresa global hospeda seu aplicativo da Web em instâncias do Amazon EC2 por trás de um Application Load Balancer (ALB). O aplicativo da Web tem dados estáticos e dinâmicos. A empresa armazena seus dados estáticos em um bucket do Amazon S3. A empresa quer melhorar o desempenho e reduzir a latência para os dados estáticos e dinâmicos. A empresa está usando seu próprio nome de domínio registrado no Amazon Route 53. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Crie uma distribuição do Amazon CloudFront que tenha o bucket do S3 e o ALB como origens. Configure o Route 53 para rotear o tráfego para a distribuição do CloudFront.B. Crie uma distribuição do Amazon CloudFront que tenha o ALB como origem. Crie um acelerador padrão do AWS Global Accelerator que tenha o bucket do S3 como um ponto de extremidade Configure o Route 53 para rotear o tráfego para a distribuição do CloudFront.C. Crie uma distribuição do Amazon CloudFront que tenha o bucket do S3 como origem. Crie um acelerador padrão do AWS Global Accelerator que tenha o ALB e a distribuição do CloudFront como endpoints. Crie um nome de domínio personalizado que aponte para o nome DNS do acelerador. Use o nome de domínio personalizado como um endpoint para o aplicativo da web.D. Crie uma distribuição do Amazon CloudFront que tenha o ALB como origem. Crie um acelerador padrão do AWS Global Accelerator que tenha o bucket do S3 como endpoint. Crie dois nomes de domínio. Aponte um nome de domínio para o nome DNS do CloudFront para conteúdo dinâmico. Aponte o outro nome de domínio para o nome DNS do acelerador para conteúdo estático. Use os nomes de domínio como endpoints para o aplicativo da web.
A resposta éA Explicação - AWS Global Accelerator vs CloudFront • Ambos usam a rede global da AWS e seus locais de ponta ao redor do mundo • Ambos os serviços se integram ao AWS Shield para proteção contra DDoS. • CloudFront • Melhora o desempenho para conteúdo armazenável em cache (como imagens e vídeos) • Conteúdo dinâmico (como aceleração de API e entrega dinâmica de site) • O conteúdo é servido na ponta • Global Accelerator • Melhora o desempenho para uma ampla gama de aplicativos por TCP ou UDP • Proxy de pacotes na ponta para aplicativos em execução em uma ou mais regiões da AWS. • Bom ajuste para casos de uso não HTTP, como jogos (UDP), IoT (MQTT) ou Voz sobre IP • Bom para casos de uso HTTP que exigem endereços IP estáticos • Bom para casos de uso HTTP que exigem failover regional rápido e determinístico
Uma empresa realiza manutenção mensal em sua infraestrutura AWS. Durante essas atividades de manutenção, a empresa precisa rotacionar as credenciais para seus bancos de dados Amazon RDS for MySQL em várias regiões AWS. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Armazene as credenciais como segredos no AWS Secrets Manager. Use replicação de segredos multirregionais para as regiões necessárias. Configure o Secrets Manager para rotacionar os segredos em uma programação.B. Armazene as credenciais como segredos no AWS Systems Manager criando um parâmetro de string seguro. Use a replicação de segredos multirregionais para as regiões necessárias. Configure o Systems Manager para rotacionar os segredos em uma programação.C. Armazene as credenciais em um bucket do Amazon S3 que tenha criptografia do lado do servidor (SSE) habilitada. Use o Amazon EventBridge (Amazon CloudWatch Events) para invocar uma função do AWS Lambda para rotacionar as credenciais.D. Criptografe as credenciais como segredos usando chaves gerenciadas pelo cliente multirregionais do AWS Key Management Service (AWS KMS). Armazene os segredos em uma tabela global do Amazon DynamoDB. Use uma função do AWS Lambda para recuperar os segredos do DynamoDB. Use o RDSAPI para rotacionar os segredos.
Resposta selecionada: A O AWS Secrets Manager é um serviço de gerenciamento de segredos que permite armazenar, gerenciar e rotacionar segredos, como credenciais de banco de dados, chaves de API e chaves SSH. O Secrets Manager pode ajudar a minimizar a sobrecarga operacional da rotação de credenciais para seus bancos de dados Amazon RDS for MySQL em várias regiões. Com o Secrets Manager, você pode armazenar as credenciais como segredos e usar a replicação de segredos multirregionais para replicar os segredos para as regiões necessárias. Você pode então configurar o Secrets Manager para rotacionar os segredos em uma programação para que as credenciais sejam rotacionadas automaticamente sem a necessidade de intervenção manual. Isso pode ajudar a reduzir o risco de segredos serem comprometidos e minimizar a sobrecarga operacional do gerenciamento de credenciais.
Uma empresa executa um aplicativo de comércio eletrônico em instâncias do Amazon EC2 por trás de um Application Load Balancer. As instâncias são executadas em um grupo de Auto Scaling do Amazon EC2 em várias Zonas de Disponibilidade. O grupo de Auto Scaling é dimensionado com base nas métricas de utilização da CPU. O aplicativo de comércio eletrônico armazena os dados da transação em um banco de dados MySQL 8.0 hospedado em uma grande instância do EC2. O desempenho do banco de dados diminui rapidamente conforme a carga do aplicativo aumenta. O aplicativo manipula mais solicitações de leitura do que transações de gravação. A empresa quer uma solução que dimensione automaticamente o banco de dados para atender à demanda de cargas de trabalho de leitura imprevisíveis, mantendo alta disponibilidade. Qual solução atenderá a esses requisitos? A. Use o Amazon Redshift com um único nó para funcionalidade de líder e computação.B. Use o Amazon RDS com uma implantação Single-AZ Configure o Amazon RDS para adicionar instâncias de leitor em uma Zona de Disponibilidade diferente.C. Use o Amazon Aurora com uma implantação Multi-AZ. Configurar o Aurora Auto Scaling com réplicas do Aurora.D. Usar o Amazon ElastiCache para Memcached com instâncias spot do EC2.
Resposta selecionada: C A opção C, usar o Amazon Aurora com uma implantação Multi-AZ e configurar o Aurora Auto Scaling com Aurora Replicas, seria a melhor solução para atender aos requisitos. O Aurora é um banco de dados relacional totalmente gerenciado e compatível com MySQL, projetado para alto desempenho e alta disponibilidade. As implantações Multi-AZ do Aurora mantêm automaticamente uma réplica de espera síncrona em uma Zona de Disponibilidade diferente para fornecer alta disponibilidade. Além disso, o Aurora Auto Scaling permite que você dimensione automaticamente o número de réplicas do Aurora em resposta a cargas de trabalho de leitura, permitindo que você atenda à demanda de cargas de trabalho de leitura imprevisíveis, mantendo alta disponibilidade. Isso forneceria uma solução automatizada para dimensionar o banco de dados para atender à demanda do aplicativo, mantendo alta disponibilidade.
Uma empresa migrou recentemente para a AWS e deseja implementar uma solução para proteger o tráfego que flui para dentro e para fora da VPC de produção. A empresa tinha um servidor de inspeção em seu data center local. O servidor de inspeção executou operações específicas, como inspeção de fluxo de tráfego e filtragem de tráfego. A empresa quer ter as mesmas funcionalidades na Nuvem AWS. Qual solução atenderá a esses requisitos? A. Use o Amazon GuardDuty para inspeção e filtragem de tráfego na VPC de produção.B. Use o Espelhamento de Tráfego para espelhar o tráfego da VPC de produção para inspeção e filtragem de tráfego.C. Use o Firewall de Rede AWS para criar as regras necessárias para inspeção e filtragem de tráfego para a VPC de produção.D. Use o Gerenciador de Firewall AWS para criar as regras necessárias para inspeção e filtragem de tráfego para a VPC de produção
Resposta correta: C AWS Network Firewall é um firewall de rede gerenciado e com estado e um serviço de detecção e prevenção de intrusão para sua nuvem privada virtual (VPC) que você criou na Amazon Virtual Private Cloud (Amazon VPC). Com o Network Firewall, você pode filtrar o tráfego no perímetro da sua VPC. Isso inclui filtrar o tráfego que vai e vem de um gateway de internet, gateway NAT ou por VPN ou AWS Direct Connect.
Uma empresa hospeda um data lake na AWS. O data lake consiste em dados no Amazon S3 e Amazon RDS para PostgreSQL. A empresa precisa de uma solução de relatórios que forneça visualização de dados e inclua todas as fontes de dados dentro do data lake. Somente a equipe de gerenciamento da empresa deve ter acesso total a todas as visualizações. O restante da empresa deve ter apenas acesso limitado. Qual solução atenderá a esses requisitos? A. Crie uma análise no Amazon QuickSight. Conecte todas as fontes de dados e crie novos conjuntos de dados. Publique painéis para visualizar os dados. Compartilhe os painéis com as funções IAM apropriadas.B. Crie uma análise no Amazon QuickSight. Conecte todas as fontes de dados e crie novos conjuntos de dados. Publique painéis para visualizar os dados. Compartilhe os painéis com os usuários e grupos apropriados.C. Crie uma tabela e um rastreador do AWS Glue para os dados no Amazon S3. Crie um trabalho de extração, transformação e carregamento (ETL) do AWS Glue para produzir relatórios. Publique os relatórios no Amazon S3. Use as políticas de bucket do S3 para limitar o acesso aos relatórios.D. Crie uma tabela e um rastreador do AWS Glue para os dados no Amazon S3. Use o Amazon Athena Federated Query para acessar dados no Amazon RDS para PostgreSQL. Gere relatórios usando o Amazon Athena. Publique os relatórios no Amazon S3. Use as políticas de bucket do S3 para limitar o acesso aos relatórios.
Resposta selecionada: B O QuickSight é um painel de BI que pode combinar dados de várias fontes, incluindo S3 e PostgreSQL. https://docs.aws.amazon.com/quicksight/latest/user/supported-data-sources.html https://docs.aws.amazon.com/quicksight/latest/user/welcome.html Você pode compartilhar painéis do QuickSight com: - usuários específicos e usuários grupos - todos na sua conta AWS - qualquer pessoa na Internet https://docs.aws.amazon.com/quicksight/latest/user/sharing-a-dashboard.html
Uma empresa está implementando um novo aplicativo de negócios. O aplicativo é executado em duas instâncias do Amazon EC2 e usa um bucket do Amazon S3 para armazenamento de documentos. Um arquiteto de soluções precisa garantir que as instâncias do EC2 possam acessar o bucket do S3. O que o arquiteto de soluções deve fazer para atender a esse requisito? A.Crie uma função do IAM que conceda acesso ao bucket S3 Anexe a função às instâncias do EC2.B.Crie uma política do IAM que conceda acesso. ao bucket S3. Anexe a política às instâncias do EC2.C. Crie um grupo IAM que conceda acesso ao bucket do S3. Anexe o grupo às instâncias do EC2.D.Crie um usuário IAM que conceda acesso ao bucket S3. Anexe a conta do usuário às instâncias EC2..
Resposta correta: A
Uma equipe de desenvolvimento de aplicativos está projetando um microsserviço que converterá grandes imagens para imagens menores e compactadas Quando um usuário carrega uma imagem por meio da interface da web, o microsserviço deve armazenar a imagem em um bucket do Amazon S3, processar e compactar a imagem com uma função AWS Lambda e armazenar a imagem em seu formato compactado em. um bucket S3 diferente. Um arquiteto de soluções precisa projetar uma solução que use componentes duráveis e sem estado para processar as imagens automaticamente. Qual combinação de ações atenderá a esses requisitos (escolha duas). A. Crie uma fila do Amazon Simple Queue Service (Amazon SQS) Configure o bucket S3 para enviar uma notificação à fila SQS quando uma imagem for carregada no bucket S3. B. Configure a função Lambda para usar a fila do Amazon Simple Queue Service (Amazon SQS) como origem de invocação. Quando a mensagem SQS for processada com êxito, exclua a mensagem da fila. C. Configure a função Lambda para monitorar o bucket S3 para novos uploads. Quando uma imagem carregada for detectada, grave o nome do arquivo em um arquivo de texto na memória e use o arquivo de texto para controlar as imagens que foram processadas.D.Inicie uma instância do Amazon EC2 para monitorar uma fila do Amazon Simple Queue Service (Amazon SQS). Quando itens são adicionados à fila, registre o nome do arquivo em um arquivo de texto na instância do EC2 e invoque a função Lambda.E.Configure um Amazon EventBridge (Amazon CloudWatch Events) para monitorar o bucket S3. Quando uma imagem é carregada, envie um alerta para um tópico do Amazon Ample Notification Service (Amazon SNS) com o endereço de e-mail do proprietário do aplicativo para processamento posterior.
Resposta correta: AB AB está OK. Pode ser feito de forma mais direta. Basta conectar o evento S3 ao Lambda e pronto. Não acho que precisamos do SQS ou algo assim.
Uma empresa tem um aplicativo da Web de três camadas que é implantado na AWS. Os servidores da Web são implantados em uma sub-rede pública em uma VPC. Os servidores de aplicativos e servidores de banco de dados são implantados em sub-redes privadas na mesma VPC. A empresa implantou um dispositivo de firewall virtual de terceiros do AWS Marketplace em uma VPC de inspeção. O dispositivo é configurado com uma interface IP que pode aceitar pacotes IP. Um arquiteto de soluções precisa integrar o aplicativo da Web ao dispositivo para inspecionar todo o tráfego para o aplicativo antes que ele chegue ao servidor da Web. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Crie um balanceador de carga de rede na sub-rede pública da VPC do aplicativo para rotear o tráfego para o dispositivo para inspeção de pacotes.B. Crie um balanceador de carga de aplicativo na sub-rede pública da VPC do aplicativo para rotear o tráfego para o dispositivo para inspeção de pacotes.C. Implemente um gateway de trânsito no VP de inspeçãoConfigure tabelas de rota para rotear os pacotes de entrada pelo gateway de trânsito.D. Implemente um balanceador de carga de gateway no VPC de inspeção. Crie um ponto de extremidade do Gateway Load Balancer para receber os pacotes de entrada e encaminhá-los ao dispositivo.
Resposta selecionada: D A solução com menor sobrecarga operacional seria a opção D: implantar um gateway Load Balancer na VPC de inspeção. Crie um endpoint do Gateway Load Balancer para receber os pacotes recebidos e encaminhá-los para o dispositivo. Um Gateway Load Balancer é um balanceador de carga de camada de rede totalmente gerenciado que roteia o tráfego para destinos em VPCs e redes locais. Ele foi projetado para lidar com milhões de solicitações por segundo, mantendo alto desempenho e baixas latências. Ele também se integra ao Amazon VPC para permitir que o tráfego flua entre seus data centers locais e suas VPCs.
Uma empresa deseja melhorar sua capacidade de clonar grandes quantidades de dados de produção em um ambiente de teste na mesma região da AWS Os dados são armazenados em instâncias do Amazon EC2 em volumes do Amazon Elastic Block Store (Amazon EBS). As modificações nos dados clonados não devem afetar o ambiente de produção. desempenho de E/S consistentemente alto. Um arquiteto de soluções precisa minimizar o tempo necessário para clonar os dados de produção no ambiente de teste. Qual solução atenderá a esses requisitos? A. Tire snapshots do EBS dos volumes de produção do EBS. Restaure os snapshots em volumes de armazenamento de instâncias do EC2 no ambiente de teste.B. Configure os volumes de produção do EBS para usar o EBS. Recurso Multi-Attach. Obtenha snapshots do EBS dos volumes do EBS de produção. Anexe os volumes do EBS de produção às instâncias do EC2 no ambiente de teste.C. Obtenha snapshots do EBS dos volumes do EBS de produção. Crie e inicialize novos volumes EBS. Anexe os novos volumes do EBS às instâncias do EC2 no ambiente de teste antes de restaurar os volumes dos snapshots do EBS de produção.D.Tire snapshots do EBS dos volumes do EBS de produção. Ative o recurso de restauração rápida de snapshots do EBS nos snapshots do EBS. Restaure os snapshots em novos volumes do EBS. Anexe os novos volumes do EBS às instâncias do EC2 no ambiente de teste.
Resposta correta: D
Uma empresa de comércio eletrônico deseja lançar um site de uma oferta por dia na AWS. Cada dia apresentará exatamente um produto em promoção por um período de 24 horas. A empresa quer ser capaz de lidar com milhões de solicitações a cada hora com latência de milissegundos durante os horários de pico. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Use o Amazon S3 para hospedar o site completo em diferentes buckets do S3. Adicione distribuições do Amazon CloudFront. Defina os buckets do S3 como origens para as distribuições. Armazene os dados do pedido no Amazon S3.B. Implante o site completo em instâncias do Amazon EC2 que são executadas em grupos de Auto Scaling em várias Zonas de Disponibilidade. Adicione um Application Load Balancer (ALB) para distribuir o tráfego do site. Adicione outro ALB para as APIs de backend. Armazene os dados no Amazon RDS para MySQL.C. Migre o aplicativo completo para ser executado em contêineres. Hospede os contêineres no Amazon Elastic Kubernetes Service (Amazon EKS). Use o Kubernetes Cluster Autoscaler para aumentar e diminuir o número de pods para processar picos de tráfego. Armazene os dados no Amazon RDS para MySQL.D. Use um bucket do Amazon S3 para hospedar o conteúdo estático do site. Implante uma distribuição do Amazon CloudFront. Defina o bucket do S3 como a origem. Use as funções do Amazon API Gateway e do AWS Lambda para as APIs de backend. Armazene os dados no Amazon DynamoDB.
Resposta correta: D
Um arquiteto de soluções está usando o Amazon S3 para projetar a arquitetura de armazenamento de um novo aplicativo de mídia digital. Os arquivos de mídia devem ser resilientes à perda de uma Zona de Disponibilidade. Alguns arquivos são acessados com frequência, enquanto outros raramente são acessados em um padrão imprevisível. O arquiteto de soluções deve minimizar os custos de armazenamento e recuperação dos arquivos de mídia. Qual opção de armazenamento atende a esses requisitos? A. S3 StandardB. S3 Intelligent-Tiering C. S3 Standard-Infrequent Access (S3 Standard-IA)D. S3 One Zone-Infrequent Access (S3 One Zone-IA)
Resposta correta: B
Uma empresa está armazenando arquivos de backup usando o armazenamento Amazon S3 Standard. Os arquivos são acessados com frequência por 1 mês. No entanto, os arquivos não são acessados após 1 mês. A empresa deve manter os arquivos indefinidamente. Qual solução de armazenamento atenderá a esses requisitos de forma MAIS econômica? A. Configure o S3 Intelligent-Tiering para migrar objetos automaticamente.B. Crie uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 Glacier Deep Archive após 1 mês.C. Crie uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 Standard-Infrequent Access (S3 Standard-IA) após 1 mês.D. Crie uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 One Zone-Infrequent Access (S3 One Zone-IA) após 1 mês.
Resposta selecionada: B A solução de armazenamento que atenderá a esses requisitos de forma mais econômica é B: Criar uma configuração do S3 Lifecycle para fazer a transição de objetos do S3 Standard para o S3 Glacier Deep Archive após 1 mês. O Amazon S3 Glacier Deep Archive é uma classe de armazenamento Amazon S3 segura, durável e de custo extremamente baixo para retenção de longo prazo de dados que raramente são acessados e para os quais tempos de recuperação de várias horas são aceitáveis. É a opção de armazenamento de menor custo no Amazon S3, tornando-a uma escolha econômica para armazenar arquivos de backup que não são acessados após 1 mês. Você pode usar uma configuração do S3 Lifecycle para fazer a transição automática de objetos do S3 Standard para o S3 Glacier Deep Archive após 1 mês. Isso minimizará os custos de armazenamento para os arquivos de backup que não são acessados com frequência.
Uma empresa observa um aumento nos custos do Amazon EC2 em sua fatura mais recente. A equipe de cobrança percebe um dimensionamento vertical indesejado de tipos de instância para algumas instâncias do EC2. Um arquiteto de soluções precisa criar um gráfico comparando os últimos 2 meses de custos do EC2 e executar uma análise aprofundada para identificar a causa raiz do dimensionamento vertical. Como o arquiteto de soluções deve gerar as informações com a MENOR sobrecarga operacional? A. Use os orçamentos da AWS para criar um relatório de orçamento e comparar os custos do EC2 com base nos tipos de instância.B. Use o recurso de filtragem granular do Cost Explorer para executar uma análise aprofundada dos custos do EC2 com base nos tipos de instância.C. Use gráficos do painel de gerenciamento de custos e faturamento da AWS para comparar os custos do EC2 com base nos tipos de instância dos últimos 2 meses.D. Use os relatórios de custo e uso da AWS para criar um relatório e enviá-lo para um bucket do Amazon S3. Use o Amazon QuickSight com o Amazon S3 como fonte para gerar um gráfico interativo com base em tipos de instância.
A resposta correta é B: O arquiteto de soluções pode usar o AWS Cost Explorer para gerar um gráfico comparando os últimos 2 meses de custos do EC2. Esta ferramenta permite que o usuário visualize e analise dados de custo e uso, e pode ser usada para identificar a causa raiz deo dimensionamento vertical. Além disso, o arquiteto de soluções pode usar métricas do CloudWatch para monitorar o uso de recursos das instâncias específicas em questão e identificar qualquer comportamento anormal. Esta solução teria sobrecarga operacional mínima, pois utiliza serviços AWS integrados que não exigem configuração ou manutenção adicional.
Uma empresa está projetando um aplicativo. O aplicativo usa uma função AWS Lambda para receber informações por meio do Amazon API Gateway e armazenar as informações em um banco de dados Amazon Aurora PostgreSQL. Durante o estágio de prova de conceito, a empresa precisa aumentar significativamente as cotas do Lambda para lidar com os altos volumes de dados que a empresa precisa carregar no banco de dados. Um arquiteto de soluções deve recomendar um novo design para melhorar a escalabilidade e minimizar o esforço de configuração. Qual solução atenderá a esses requisitos? A. Refatorar o código da função Lambda para o código Apache Tomcat que é executado em instâncias do Amazon EC2. Conectar o banco de dados usando drivers nativos Java Database Connectivity (JDBC).B. Alterar a plataforma de Aurora para Amazon DynamoDProvisionar um cluster DynamoDB Accelerator (DAX). Usar o SDK do cliente DAX para apontar as chamadas de API do DynamoDB existentes para o cluster DAX.C. Configurar duas funções Lambda. Configurar uma função para receber as informações. Configurar a outra função para carregar as informações no banco de dados. Integrar as funções Lambda usando o Amazon Simple Notification Service (Amazon SNS).D. Configurar duas funções Lambda. Configurar uma função para receber as informações. Configurar a outra função para carregar as informações no banco de dados. Integre as funções do Lambda usando uma fila do Amazon Simple Queue Service (Amazon SQS).
Resposta correta: D
Uma empresa precisa revisar sua implantação na Nuvem AWS para garantir que seus buckets do Amazon S3 não tenham alterações de configuração não autorizadas. O que uma solução deve fazer?O que o arquiteto faz para atingir esse objetivo? A. Ative o AWS Config com as regras apropriadas.B. Ative o AWS Trusted Advisor com as verificações apropriadas.C. Ative o Amazon Inspector com o modelo de avaliação apropriado.D. Ative o registro de acesso ao servidor Amazon S3. Configurar o Amazon EventBridge (Amazon Cloud Watch Events).
Resposta selecionada: A A solução que atingirá esse objetivo é A: Ativar o AWS Config com as regras apropriadas. O AWS Config é um serviço que permite avaliar, auditar e avaliar as configurações dos seus recursos da AWS. Você pode usar o AWS Config para monitorar e registrar alterações na configuração dos seus buckets do Amazon S3. Ao ativar o AWS Config e habilitar as regras apropriadas, você pode garantir que seus buckets do S3 não tenham alterações de configuração não autorizadas.
Uma empresa está lançando um novo aplicativo e exibirá métricas do aplicativo em um painel do Amazon CloudWatch. O gerente de produto da empresa precisa acessar esse painel periodicamente. O gerente de produto não tem uma conta da AWS. Um arquiteto de soluções deve fornecer acesso ao gerente de produto seguindo o princípio do menor privilégio. Qual solução atenderá a esses requisitos? A. Compartilhe o painel do console do CloudWatch. Insira o endereço de e-mail do gerente de produto e conclua as etapas de compartilhamento. Forneça um link compartilhável para o painel com o gerente de produto.B. Crie um usuário do IAM especificamente para o gerente de produto. Anexe a política gerenciada da AWS CloudWatchReadOnlyAccess ao usuário. Compartilhe as novas credenciais de login com o gerente de produto. Compartilhe a URL do navegador do painel correto com o gerente de produto.C. Crie um usuário do IAM para os funcionários da empresa. Anexe a política gerenciada da AWS ViewOnlyAccess ao usuário do IAM. Compartilhe as novas credenciais de login com o gerente de produto. Peça ao gerente de produto para navegar até o console do CloudWatch e localizar o painel pelo nome na seção Painéis.D. Implemente um servidor bastion em uma sub-rede pública. Quando o gerente de produto exigir acesso ao painel, inicie o servidor e compartilhe as credenciais RDP. No servidor bastion, certifique-se de que o navegador esteja configurado para abrir a URL do painel com credenciais AWS armazenadas em cache que tenham permissões apropriadas para visualizar o painel.
Resposta selecionada: A Resposta A: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/cloudwatch-dashboard-sharing.html Compartilhe um único painel e designe endereços de e-mail específicos das pessoas que podem visualizar o painel. Cada um desses usuários cria sua própria senha que deve ser inserida para visualizar o painel
Uma empresa está migrando aplicativos para a AWS. Os aplicativos são implantados em contas diferentes. A empresa gerencia as contas centralmente usando o AWS Organizations. A equipe de segurança da empresa precisa de uma solução de logon único (SSO) em todas as contas da empresa. A empresa deve continuar gerenciando os usuários e grupos em seu Microsoft Active Directory autogerenciado local. Qual solução atenderá a esses requisitos? A. Habilite o AWS Single Sign-On (AWS SSO) no console do AWS SSO. Crie uma confiança de floresta unidirecional ou uma confiança de domínio unidirecional para conectar o Microsoft Active Directory autogerenciado da empresa com o AWS SSO usando o AWS Directory Service para Microsoft Active Directory.B. Habilite o AWS Single Sign-On (AWS SSO) no console do AWS SSO. Crie uma confiança de floresta bidirecional para conectar o Microsoft Active Directory autogerenciado da empresa com o AWS SSO usando o AWS Directory Service para Microsoft Active Directory.C. Use o AWS Directory Service. Crie um relacionamento de confiança bidirecional com o Microsoft Active Directory autogerenciado da empresa.D. Implante um provedor de identidade (IdP) no local. Habilite o AWS Single Sign-On (AWS SSO) no console do AWS SSO.
Resposta selecionada: B Pergunta complicada!!! esqueça unidirecional ou bidirecional. Neste cenário, os aplicativos da AWS (Amazon Chime, Amazon Connect, Amazon QuickSight, AWS Single Sign-On, Amazon WorkDocs, Amazon WorkMail, Amazon WorkSpaces, AWS Client VPN, AWS Management Console e AWS Transfer Family) precisam ser capazes de procurar objetos do domínio local para que funcionem. Isso informa que a autenticação precisa fluir nos dois sentidos. Este cenário requer uma confiança bidirecional entre os domínios locais e do AWS Managed Microsoft AD. É um requisito do aplicativo Cenário 2: https://aws.amazon.com/es/blogs/security/everything-you-wanted-to-know-about-trusts-with-aws-managed-microsoft-ad/
Uma empresa fornece um serviço de Voz sobre Protocolo de Internet (VoIP) que usa conexões UDP. O serviço consiste em instâncias do Amazon EC2 que são executadas em um grupo de dimensionamento automático. A empresa tem implantações em várias regiões da AWS. A empresa precisa rotear usuários para a região com a menor latência. A empresa também precisa de failover automatizado entre regiões. Qual solução atenderá a esses requisitos? A. Implantar um balanceador de carga de rede (NLB) e um grupo de destino associado. Associe o grupo de destino ao grupo de dimensionamento automático. Use o NLB como um ponto de extremidade do AWS Global Accelerator em cada região.B. Implante um Application Load Balancer (ALB) e um grupo de destino associado. Associe o grupo de destino ao grupo de dimensionamento automático. Use o ALB como um ponto de extremidade do AWS Global Accelerator em cada região.C. Implante um Network Load Balancer (NLB) e um grupo de destino associado. Associe o grupo de destino ao grupo de dimensionamento automático. Crie um registro de latência do Amazon Route 53 que aponte para aliases para cada NLB. Crie uma distribuição do Amazon CloudFront que use o registro de latência como uma origem.D. Implante um Application Load Balancer (ALB) e um grupo de destino associado. Associe o grupo de destino ao grupo de dimensionamento automático. Crie um registro ponderado do Amazon Route 53 que aponte para aliases para cada ALB. Implante uma distribuição do Amazon CloudFront que use o registro ponderado como origem.
Resposta selecionada: A concordo com A, O Global Accelerator tem failover automático e é perfeito para este cenário com VoIP https://aws.amazon.com/global-accelerator/faqs/
Uma equipe de desenvolvimento executa testes mensais intensivos em recursos em sua instância de banco de dados Amazon RDS para MySQL de uso geral com o Performance Insights habilitado. O teste dura 48 horas uma vez por mês e é o único processo que usa o banco de dados. A equipe quer reduzir o custo de execução dos testes sem reduzir os atributos de computação e memória da instância do BD. Qual solução atende a esses requisitos de forma MAIS econômica? A. Pare a instância do BD quando os testes forem concluídos. Reinicie a instância do BD quando necessário.B. Use uma política de dimensionamento automático com a instância do BD para dimensionar automaticamente quando os testes forem concluídos.C. Crie um instantâneo quando os testes forem concluídos. Encerre a instância do BD e restaure o instantâneo quando necessário.D. Modifique a instância do BD para uma instância de baixa capacidade quando os testes forem concluídos. Modifique a instância do BD novamente quando necessário.
Resposta selecionada: C C - Crie um instantâneo manual do BD e mude para o S3- Padrão e restaure o instantâneo manual quando necessário. Não A - Ao interromper o BD, embora você não esteja pagando por horas do BD, você ainda está pagando por IOPs provisionados, o armazenamento para o BD interrompido é maior do que o instantâneo do volume do EBS subjacente e backups automatizados. Não D - É possível, mas não é o MAIS econômico, não há necessidade de executar o RDS quando não for necessário.
Uma empresa que hospeda seu aplicativo da Web na AWS deseja garantir que todas as instâncias do Amazon EC2. Instâncias do Amazon RDS DB. e clusters do Amazon Redshift sejam configurados com tags. A empresa deseja minimizar o esforço de configuração e operação dessa verificação. O que um arquiteto de soluções deve fazer para realizar isso? A. Use as regras do AWS Config para definir e detectar recursos que não estão marcados corretamente.B. Use o Cost Explorer para exibir recursos que não estão marcados corretamente. Marque esses recursos manualmente.C. Grave chamadas de API para verificar todos os recursos para alocação de tags adequada. Execute o código periodicamente em uma instância EC2.D. Escreva chamadas de API para verificar todos os recursos para alocação de tags adequada. Agende uma função AWS Lambda por meio do Amazon CloudWatch para executar o código periodicamente.
Resposta selecionada: A https://docs.aws.amazon.com/config/latest/developerguide/tagging.html
Uma equipe de desenvolvimento precisa hospedar um site que será acessado por outras equipes. O conteúdo do site consiste em HTML, CSS, JavaScript do lado do cliente e imagens. Qual método é o MAIS econômico para hospedar o site? A. Coloque o site em um contêiner e hospede-o no AWS Fargate.B. Crie um bucket do Amazon S3 e hospede o site nele.C. Implemente um servidor web em uma instância do Amazon EC2 para hospedar o site.D. Configure um Application Load Balancer com um destino do AWS Lambda que use a estrutura Express.js.
Resposta selecionada: B O método mais econômico para hospedar o site é a opção B: Crie um bucket do Amazon S3 e hospede o site lá.
Uma empresa executa um aplicativo da web de mercado on-line na AWS. O aplicativo atende centenas de milhares de usuários durante os horários de pico. A empresa precisa de uma solução escalável e quase em tempo real para compartilhar os detalhes de milhões de transações financeiras com vários outros aplicativos internos. As transações também precisam ser processadas para remover dados confidenciais antes de serem armazenadas em um banco de dados de documentos para recuperação de baixa latência. O que um arquiteto de soluções deve recomendar para atender a esses requisitos? A. Armazene os dados das transações no Amazon DynamoDB. Configure uma regra no DynamoDB para remover dados confidenciais de cada transação após a gravação. Use o DynamoDB Streams para compartilhar os dados das transações com outros aplicativos.B. Transmita os dados das transações no Amazon Kinesis Data Firehose para armazenar dados no Amazon DynamoDB e no Amazon S3. Use a integração do AWS Lambda com o Kinesis Data Firehose para remover dados confidenciais. Outros aplicativos podem consumir os dados armazenados no Amazon S3.C. Transmita os dados das transações para o Amazon Kinesis Data Streams. Use a integração do AWS Lambda para remover dados confidenciais de cada transação e, em seguida, armazene os dados das transações no Amazonno DynamoDB. Outros aplicativos podem consumir os dados de transações do fluxo de dados do Kinesis.D. Armazene os dados de transações em lote no Amazon S3 como arquivos. Use o AWS Lambda para processar todos os arquivos e remover dados confidenciais antes de atualizar os arquivos no Amazon S3. A função Lambda então armazena os dados no Amazon DynamoDB. Outros aplicativos podem consumir arquivos de transações armazenados no Amazon S3.
Resposta selecionada: C Eu escolheria C. A frase complicada é solução quase em tempo real, apontando para o Firehouse, mas ele não pode enviar dados para o DynamoDB, então nos deixa com C como a melhor opção. O Kinesis Data Firehose atualmente oferece suporte ao Amazon S3, Amazon Redshift, Amazon OpenSearch Service, Splunk, Datadog, NewRelic, Dynatrace, Sumologic, LogicMonitor, MongoDB e HTTP End Point como destinos. https://aws.amazon.com/kinesis/data-firehose/faqs/#:~:text=Kinesis%20Data%20Firehose%20currently%20supports,HTTP%20End%20Point%20as%20destinations.
Uma empresa hospeda seus aplicativos multicamadas na AWS. Para conformidade, governança, auditoria e segurança, a empresa deve rastrear alterações de configuração em seus recursos da AWS e registrar um histórico de chamadas de API feitas a esses recursos. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Use o AWS CloudTrail para rastrear alterações de configuração e o AWS Config para registrar chamadas de API.B. Use o AWS Config para rastrear alterações de configuração e o AWS CloudTrail para registrar chamadas de API.C. Use o AWS Config para rastrear alterações de configuração e o Amazon CloudWatch para registrar chamadas de API.D. Use o AWS CloudTrail para rastrear alterações de configuração e o Amazon CloudWatch para registrar chamadas de API.
Resposta correta: B
Uma empresa está se preparando para lançar um aplicativo da Web voltado para o público na Nuvem AWS. A arquitetura consiste em instâncias do Amazon EC2 dentro de uma VPC por trás de um Elastic Load Balancer (ELB). Um serviço de terceiros é usado para o DNS. O arquiteto de soluções da empresa deve recomendar uma solução para detectar e proteger contra ataques DDoS em larga escala. Qual solução atende a esses requisitos? A. Habilite o Amazon GuardDuty na conta.B. Habilite o Amazon Inspector nas instâncias do EC2.C. Habilite o AWS Shield e atribua o Amazon Route 53 a ele.D. Habilite o AWS Shield Advanced e atribua o ELB a ele.
Resposta correta: D
Uma empresa está criando um aplicativo na Nuvem AWS. O aplicativo armazenará dados em buckets do Amazon S3 em duas regiões da AWS. A empresa deve usar uma chave gerenciada pelo cliente do AWS Key Management Service (AWS KMS) para criptografar todos os dados armazenados nos buckets do S3. Os dados em ambos os buckets do S3 devem ser criptografados e descriptografados com a mesma chave KMS. Os dados e a chave devem ser armazenados em cada uma das duas regiões. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Crie um bucket S3 em cada região. Configure os buckets S3 para usar criptografia do lado do servidor com chaves de criptografia gerenciadas pelo Amazon S3 (SSE-S3). Configure a replicação entre os buckets S3.B. Crie uma chave KMS multirregional gerenciada pelo cliente. Crie um bucket S3 em cada região. Configure a replicação entre os buckets S3. Configure o aplicativo para usar a chave KMS com criptografia do lado do cliente.C. Crie uma chave KMS gerenciada pelo cliente e um bucket S3 em cada região. Configure os buckets S3 para usar criptografia do lado do servidor com chaves de criptografia gerenciadas pelo Amazon S3 (SSE-S3). Configurar replicação entre os buckets S3.D. Criar uma chave KMS gerenciada pelo cliente e um bucket S3 em cada região. Configurar os buckets S3 para usar criptografia do lado do servidor com chaves KMS da AWS (SSE-KMS). Configurar replicação bentre os buckets S3.
Resposta selecionada: B Chaves multirregionais do KMS são necessárias https://docs.aws.amazon.com/kms/latest/developerguide/multi-region-keys-overview.html
Uma empresa lançou recentemente uma variedade de novas cargas de trabalho em instâncias do Amazon EC2 em sua conta AWS. A empresa precisa criar uma estratégia para acessar e administrar as instâncias remotamente e com segurança. A empresa precisa implementar um processo repetível que funcione com serviços nativos da AWS e siga o AWS Well-Architected Framework. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Use o console serial do EC2 para acessar diretamente a interface do terminal de cada instância para administração.B. Anexe a função IAM apropriada a cada instância existente e nova instância. Use o AWS Systems Manager Session Manager para estabelecer uma sessão SSH remota.C. Crie um par de chaves SSH administrativas. Carregue a chave pública em cada instância do EC2. Implante um host bastion em uma sub-rede pública para fornecer um túnel para administração de cada instância.D. Estabeleça uma conexão VPN de site a site da AWS. Instrua os administradores a usar suas máquinas locais no local para se conectar diretamente às instâncias usando chaves SSH no túnel VPN
Resposta correta: B Opção B. Anexar a função IAM apropriada a cada instância existente e nova instância e usar o AWS Systems Manager Session Manager para estabelecer uma sessão SSH remota atenderia aos requisitos com a menor sobrecarga operacional. Essa abordagem permite acesso remoto seguro às instâncias sem a necessidade de gerenciar infraestrutura adicional ou manter uma conexão separada com as instâncias. Ele também permite o uso de serviços nativos da AWS e segue o AWS Well-Architected Framework.
Uma empresa está hospedando um site estático no Amazon S3 e está usando o Amazon Route 53 para DNS. O site está enfrentando uma demanda crescente em todo o mundo. A empresa deve diminuir a latência para usuários que acessam o site. Qual solução atende a esses requisitos de forma MAIS econômica? A. Replique o bucket do S3 que contém o site para todas as regiões da AWS. Adicione entradas de roteamento de geolocalização do Route 53.B. Provisione aceleradores no AWS Global Accelerator. Associe os endereços IP fornecidos ao bucket do S3. Edite as entradas do Route 53 para apontar para os endereços IP dos aceleradores.C. Adicione uma distribuição do Amazon CloudFront na frente do bucket do S3. Edite as entradas do Route 53 para apontar para a distribuição do CloudFront.D. Habilite o S3 Transfer Acceleration no bucket. Edite as entradas do Route 53 para apontar para o novo endpoint.
Resposta correta: C Adicionar uma distribuição do Amazon CloudFront na frente do bucket do S3 e editar as entradas do Route 53 para apontar para a distribuição do CloudFront atenderia aos requisitos de forma mais econômica. O CloudFront é uma rede de entrega de conteúdo (CDN) que acelera a entrega de conteúdo da Web estático e dinâmico, distribuindo-o por uma rede global de locais de borda. Quando um usuário acessa o site, o CloudFront roteará automaticamente a solicitação para o local de borda que fornece a menor latência, reduzindo o tempo que leva para o conteúdo ser entregue ao usuário. Esta solução também permite fácil integração com S3 e Route 53, e fornece benefícios adicionais, como proteção DDoS e suporte para certificados SSL personalizados.
Uma empresa mantém um repositório pesquisável de itens em seu site. Os dados sãoarmazenado em uma tabela de banco de dados Amazon RDS para MySQL que contém mais de 10 milhões de linhas. O banco de dados tem 2 TB de armazenamento SSD de uso geral. Há milhões de atualizações desses dados todos os dias por meio do site da empresa. A empresa percebeu que algumas operações de inserção estão demorando 10 segundos ou mais. A empresa determinou que o desempenho do armazenamento do banco de dados é o problema. Qual solução aborda esse problema de desempenho? A. Altere o tipo de armazenamento para SSD IOPS provisionado.B. Altere a instância do banco de dados para uma classe de instância otimizada para memória.C. Altere a instância do banco de dados para uma classe de instância de desempenho expansível.D. Habilite réplicas de leitura RDS Multi-AZ com replicação assíncrona nativa do MySQL.
Resposta selecionada: A Alterar o tipo de armazenamento para SSD IOPS provisionado resolveria esse problema de desempenho. O SSD IOPS provisionado (io1) é uma opção de armazenamento de alto desempenho projetada para cargas de trabalho intensivas em E/S, como bancos de dados. Ele fornece um nível consistente de desempenho de IOPS, independentemente de o tamanho do conjunto de dados. Ao usar o Provisioned IOPS SSD, a empresa pode garantir que o banco de dados tenha o nível necessário de desempenho de E/S para lidar com o alto volume de atualizações. Esta opção forneceria a melhor melhoria de desempenho para esta carga de trabalho, pois aborda especificamente o problema de operações de inserção lentas devido ao desempenho de E/S insuficiente.
Uma empresa tem milhares de dispositivos de ponta que geram coletivamente 1 TB de alertas de status por dia. Cada alerta tem aproximadamente 2 KB de tamanho. Um arquiteto de soluções precisa implementar uma solução para ingerir e armazenar os alertas para análise futura. A empresa quer uma solução altamente disponível. No entanto, a empresa precisa minimizar custos e não quer gerenciar infraestrutura adicional. Além disso, a empresa quer manter 14 dias de dados disponíveis para análise imediata e arquivar quaisquer dados com mais de 14 dias. Qual é a solução operacional MAIS eficiente que atende a esses requisitos? A. Criar um fluxo de entrega do Amazon Kinesis Data Firehose para ingerir os alertas. Configure o fluxo do Kinesis Data Firehose para entregar os alertas a um bucket do Amazon S3. Configure uma configuração do S3 Lifecycle para fazer a transição de dados para o Amazon S3 Glacier após 14 dias.B. Inicie instâncias do Amazon EC2 em duas Zonas de Disponibilidade e coloque-as atrás de um Elastic Load Balancer para ingerir os alertas. Crie um script nas instâncias do EC2 que armazenarão os alertas em um bucket do Amazon S3. Configure uma configuração do S3 Lifecycle para fazer a transição de dados para o Amazon S3 Glacier após 14 dias.C. Crie um fluxo de entrega do Amazon Kinesis Data Firehose para ingerir os alertas. Configure o Kinesis Data Firehose stream para entregar os alertas a um cluster do Amazon OpenSearch Service (Amazon Elasticsearch Service). Configure o cluster do Amazon OpenSearch Service (Amazon Elasticsearch Service) para tirar snapshots manuais todos os dias e excluir dados do cluster com mais de 14 dias.D. Crie uma fila padrão do Amazon Simple Queue Service (Amazon SQS) para ingerir os alertas e defina o período de retenção de mensagens para 14 dias. Configure os consumidores para pesquisar a fila do SQS, verificar a idade da mensagem e analisar os dados da mensagem conforme necessário. Se a mensagem tiver 14 dias, o consumidor deve copiar a mensagem para um bucket do Amazon S3 e excluí-la da fila do SQS.
Resposta selecionada: A Definitivamente A, é a mais eficiente operacionalmente em comparação com D, que requer muito código e infraestrutura para manter. A é principalmente gerenciado (o firehose é totalmente gerenciado e os ciclos de vida do S3 também são gerenciados)
O aplicativo de uma empresa se integra a várias fontes de software como serviço (SaaS) para coleta de dados. A empresa executa instâncias do Amazon EC2 para receber os dados e carregá-los em um bucket do Amazon S3 para análise. A mesma instância EC2 que recebe e carrega os dados também envia uma notificação ao usuário quando um upload é concluído. A empresa notou um desempenho lento do aplicativo e quer melhorar o desempenho o máximo possível. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Crie um grupo de Auto Scaling para que o EC2 emas instâncias podem ser dimensionadas. Configure uma notificação de evento do S3 para enviar eventos para um tópico do Amazon Simple Notification Service (Amazon SNS) quando o upload para o bucket do S3 for concluído.B. Crie um fluxo do Amazon AppFlow para transferir dados entre cada fonte SaaS e o bucket do S3. Configure uma notificação de evento do S3 para enviar eventos para um tópico do Amazon Simple Notification Service (Amazon SNS) quando o upload para o bucket do S3 for concluído.C. Crie uma regra do Amazon EventBridge (Amazon CloudWatch Events) para cada fonte SaaS para enviar dados de saída. Configure o bucket do S3 como o destino da regra. Crie uma segunda regra do EventBridge (Cloud Watch Events) para enviar eventos quando o upload para o bucket do S3 for concluído. Configure um tópico do Amazon Simple Notification Service (Amazon SNS) como o destino da segunda regra.D. Crie um contêiner do Docker para usar em vez de uma instância do EC2. Hospede o aplicativo em contêiner no Amazon Elastic Container Service (Amazon ECS). Configure o Amazon CloudWatch Container Insights para enviar eventos para um tópico do Amazon Simple Notification Service (Amazon SNS) quando o upload para o bucket S3 for concluído.
Resposta selecionada: A Esta solução permite que as instâncias do EC2 sejam dimensionadas conforme necessário para lidar com o processamento e upload de dados, o que melhorará o desempenho. Além disso, ao configurar uma notificação de evento do S3 para enviar uma notificação para um tópico do SNS quando o upload for concluído, a empresa ainda pode receber as notificações necessárias, mas elimina a necessidade da mesma instância do EC2 que está processando e carregando os dados também enviar as notificações, o que melhora ainda mais o desempenho. Esta solução tem menos sobrecarga operacional, pois requer apenas a configuração de notificações de eventos do S3, tópico do SNS e grupo de dimensionamento automático.
Uma empresa executa um aplicativo de processamento de imagem altamente disponível em instâncias do Amazon EC2 em uma única VPC. As instâncias do EC2rodam dentro de várias sub-redes em várias Zonas de Disponibilidade. As instâncias do EC2 não se comunicam entre si. No entanto, as instâncias do EC2 baixam imagens do Amazon S3 e carregam imagens para o Amazon S3 por meio de um único gateway NAT. A empresa está preocupada com as taxas de transferência de dados. Qual é a maneira MAIS econômica para a empresa evitar taxas de transferência de dados regionais? A. Inicie o gateway NAT em cada Zona de Disponibilidade.B. Substitua o gateway NAT por uma instância NAT.C. Implemente um ponto de extremidade VPC de gateway para o Amazon S3.D. Provisione um host dedicado EC2 para executar as instâncias EC2.
Resposta selecionada: C Implementar um ponto de extremidade VPC de gateway para o Amazon S3 é a maneira mais econômica para a empresa evitar taxas de transferência de dados regionais. Um ponto de extremidade VPC de gateway é um gateway de rede que permite a comunicação entre instâncias em uma VPC e um serviço, como o Amazon S3, sem exigir um gateway de Internet ou um Dispositivo NAT. A transferência de dados entre a VPC e o serviço por meio de um endpoint de VPC de gateway é gratuita, enquanto a transferência de dados entre a VPC e a Internet por meio de um gateway de Internet ou dispositivo NAT está sujeita a taxas de transferência de dados. Ao usar um endpoint de VPC de gateway, a empresa pode reduzir seus custos de transferência de dados eliminando a necessidade de transferir dados por meio do gateway NAT para acessar o Amazon S3. Esta opção forneceria a conectividade necessária ao Amazon S3 e minimizaria os custos de transferência de dados.
Uma empresa tem um aplicativo local que gera uma grande quantidade de dados sensíveis ao tempo que são copiados para o Amazon S3. O aplicativo cresceu e há reclamações de usuários sobre limitações de largura de banda da Internet. Um arquiteto de soluções precisa projetar uma solução de longo prazo que permita backups oportunos para o Amazon S3 e com impacto mínimo na conectividade da Internet para usuários internos. Qual solução atende a esses requisitos? A. Estabeleça conexões AWS VPN e faça proxy de todo o tráfego por meio de um ponto de extremidade de gateway VPC.B. Estabeleça uma nova conexão AWS Direct Connect e direcione o tráfego de backup por meio dessa nova conexão.C. Peça dispositivos AWS Snowball diariamente. Carregue os dados nos dispositivos Snowball e retorne o dispositivos para a AWS todos os dias.D. Envie um tíquete de suporte por meio do AWS Management Console. Solicite a remoção dos limites de serviço do S3 da conta.
Resposta selecionada: B Estabelecer uma nova conexão AWS Direct Connect e direcionar o tráfego de backup por meio dessa nova conexão atenderia a esses requisitos. O AWS Direct Connect é um serviço de rede que fornece conexões de rede dedicadas de data centers locais para a AWS. Ele permite que a empresa ignore a Internet pública e estabeleça uma conexão direta com a AWS, fornecendo uma conexão mais confiável e de menor latência para transferência de dados. Ao direcionar o tráfego de backup por meio da conexão Direct Connect, a empresa pode reduzir o impacto na conectividade com a Internet para usuários internos e melhorar a velocidade dos backups para o Amazon S3. Essa solução forneceria uma solução de longo prazo para backups oportunos com impacto mínimo na conectividade com a Internet.
Uma empresa tem um bucket do Amazon S3 que contém dados críticos. A empresa deve proteger os dados contra exclusão acidental. Qual combinação de etapas um arquiteto de soluções deve adotar para atender a esses requisitos? (Escolha duas.) A. Habilite o controle de versão no bucket do S3.B. Habilite a exclusão de MFA no bucket do S3.C. Crie uma política de bucket no bucket do S3.D. Habilite a criptografia padrão no bucket do S3.E. Crie uma política de ciclo de vida para os objetos no bucket do S3.
Resposta selecionada: AB Habilitar o controle de versão no bucket S3 e habilitar o MFA Delete no bucket S3 ajudará a proteger os dados contra exclusão acidental. O versionamento permite que a empresa armazene várias versões de um objeto no mesmo bucket. Quando o versionamento está habilitado, o S3 arquiva automaticamente todas as versões de um objeto (incluindo todas as gravações e exclusões) no bucket. Isso significa que se um objeto for excluído acidentalmente, ele pode ser recuperado restaurando uma versão anterior do objeto. O MFA Delete adiciona uma camada extra de proteção ao exigir que os usuários forneçam autenticação adicional (por meio de um dispositivo MFA) antes que possam excluir permanentemente uma versão do objeto. Isso ajuda a evitar a exclusão acidental ou maliciosa de objetos ao exigir que os usuários confirmem sua intenção de exclusão. Ao usar o versionamento e o MFA Delete, a empresa pode proteger os dados no bucket do S3 contra exclusão acidental e fornecer uma maneira de recuperar objetos excluídos, se necessário.
Uma empresa tem um fluxo de trabalho de ingestão de dados que consiste emseguinte: • Um tópico do Amazon Simple Notification Service (Amazon SNS) para notificações sobre novas entregas de dados • Uma função do AWS Lambda para processar os dados e registrar metadados A empresa observa que o fluxo de trabalho de ingestão falha ocasionalmente devido a problemas de conectividade de rede. Quando tal falha ocorre, a função Lambda não ingere os dados correspondentes, a menos que a empresa execute manualmente o trabalho novamente. Qual combinação de ações um arquiteto de soluções deve tomar para garantir que a função Lambda ingira todos os dados no futuro? (Escolha duas.) A. Implemente a função Lambda em várias Zonas de Disponibilidade.B. Crie uma fila do Amazon Simple Queue Service (Amazon SQS) e assine-a no tópico SNS.C. Aumente a CPU e a memória alocadas para a função Lambda.D. Aumente a taxa de transferência provisionada para a função Lambda.E. Modifique a função Lambda para ler de uma fila do Amazon Simple Queue Service (Amazon SQS).
Resposta selecionada: B & E Para garantir que a função Lambda ingira todos os dados no futuro, o arquiteto de soluções pode criar uma fila do Amazon Simple Queue Service (Amazon SQS) e inscrevê-la no tópico SNS. Isso permitirá que as notificações de dados sejam enfileiradas no caso de um problema de conectividade de rede, em vez de serem perdidas. O arquiteto de soluções pode então modificar a função Lambda para ler da fila SQS, em vez de diretamente do tópico SNS. Isso permitirá que a função Lambda processe quaisquer dados enfileirados assim que o problema de conectividade de rede for resolvido, sem a necessidade de intervenção manual. Ao usar uma fila SQS como um buffer entre o tópico SNS e a função Lambda, a empresa pode melhorar a confiabilidade e a resiliência do fluxo de trabalho de ingestão. Essa abordagem ajudará a garantir que a função Lambda ingira todos os dados no futuro, mesmo quando houver problemas de conectividade de rede.
Uma empresa tem um aplicativo que fornece serviços de marketing para lojas. Os serviços são baseados em compras anteriores de clientes da loja. As lojas carregam dados de transações para a empresa por meio de SFTP, e os dados são processados e analisados para gerar novas ofertas de marketing. Alguns dos arquivos podem exceder 200 GB de tamanho. Recentemente, a empresa descobriu que algumas das lojas carregaram arquivos que contêm informações de identificação pessoal (PII) que não deveriam ter sido incluídas. A empresa quer que os administradores sejam alertados se as PII forem compartilhadas novamente. A empresa também quer automatizar a correçãotion. O que um arquiteto de soluções deve fazer para atender a esses requisitos com o MENOR esforço de desenvolvimento? A. Use um bucket do Amazon S3 como um ponto de transferência seguro. Use o Amazon Inspector para escanear os objetos no bucket. Se os objetos contiverem PII, acione uma política de ciclo de vida do S3 para remover os objetos que contêm PII.B. Use um bucket do Amazon S3 como um ponto de transferência seguro. Use o Amazon Macie para escanear os objetos no bucket. Se os objetos contiverem PII, use o Amazon Simple Notification Service (Amazon SNS) para acionar uma notificação aos administradores para remover os objetos que contêm PII.C. Implemente algoritmos de escaneamento personalizados em uma função do AWS Lambda. Acione a função quando os objetos forem carregados no bucket. Se os objetos contiverem PII, use o Amazon Simple Notification Service (Amazon SNS) para acionar uma notificação aos administradores para remover os objetos que contêm PII.D. Implemente algoritmos de varredura personalizados em uma função do AWS Lambda. Acione a função quando os objetos forem carregados no bucket. Se os objetos contiverem PII, use o Amazon Simple Email Service (Amazon SES) para acionar uma notificação aos administradores e acionar uma política de ciclo de vida do S3 para remover os objetos que contêm PII.
Resposta selecionada: B O Amazon Macie é um serviço de segurança e privacidade de dados que usa aprendizado de máquina (ML) e correspondência de padrões para descobrir e proteger seus dados confidenciais
Uma empresa precisa de capacidade garantida do Amazon EC2 em três Zonas de Disponibilidade específicas em uma Região específica da AWS para um evento futuro que durará 1 semana. O que a empresa deve fazer para garantir a capacidade do EC2? A. Comprar Instâncias Reservadas que especifiquem a Região necessário.B. Crie uma Reserva de Capacidade On-Demand que especifiqueies a região necessária.C. Compre instâncias reservadas que especifiquem a região e três zonas de disponibilidade necessárias.D. Crie uma reserva de capacidade sob demanda que especifique a região e três zonas de disponibilidade necessárias.
Resposta Selecionada: D CORRETO Opção D. Crie uma Reserva de Capacidade On-Demand que especifique a Região e três Zonas de Disponibilidade necessárias. Uma Reserva de Capacidade On-Demand é um tipo de reserva do Amazon EC2 que permite que você crie e gerencie capacidade reservada no Amazon EC2. Com uma Reserva de Capacidade On-Demand, você pode especificar a Região e as Zonas de Disponibilidade onde deseja reservar capacidade, e o número de instâncias EC2 que deseja reservar. Isso permite que você garanta capacidade em Zonas de Disponibilidade específicas em uma Região específica. ERRADO A Opção A, comprando Instâncias Reservadas que especificam a Região necessária, não garantiria capacidade em Zonas de Disponibilidade específicas. A Opção B, criando uma Reserva de Capacidade On-Demand que especifica a Região necessária, não garantiria capacidade em Zonas de Disponibilidade específicas. A Opção C, comprando Instâncias Reservadas que especificam a Região e três Zonas de Disponibilidade necessárias, não garantiria capacidade em Zonas de Disponibilidade específicas, pois as Instâncias Reservadas não fornecem reservas de capacidade.
O site de uma empresa usa um armazenamento de instâncias do Amazon EC2 para seu catálogo de itens. A empresa quer ter certeza de que o catálogo esteja altamente disponível e que o catálogo esteja armazenado em um local durável. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Mova o catálogo para o Amazon ElastiCache para Redis.B. Implemente uma instância EC2 maior com um repositório de instâncias maior.C. Mova o catálogo do repositório de instâncias para o Amazon S3 Glacier Deep Archive.D. Mova o catálogo para um sistema de arquivos Amazon Elastic File System (Amazon EFS).
Resposta selecionada: D Para ter certeza de que o catálogo esteja altamente disponível e armazenado em um local durável, o arquiteto de soluções deve mover o catálogo do repositório de instâncias EC2 para um sistema de arquivos Amazon Elastic File System (Amazon EFS). Amazon EFS é totalmente gerenciado, serviço de armazenamento de arquivos elástico projetado para aumentar ou diminuir conforme necessário, fornecendo uma solução de armazenamento durável e altamente disponível para dados que precisam ser acessados simultaneamente de várias instâncias do Amazon EC2. Ao mover o catálogo para o Amazon EFS, a empresa pode garantir que o catálogo seja armazenado em um local durável e esteja altamente disponível para acesso pelo site.
Uma empresa armazena arquivos de transcrição de chamadas mensalmente. Os usuários acessam os arquivos aleatoriamente dentro de 1 ano da chamada, mas os usuários acessam os arquivos com pouca frequência após 1 ano. A empresa quer otimizar sua solução dando aos usuários a capacidade de consultar e recuperar arquivos com menos de 1 ano o mais rápido possível. Um atraso na recuperação de arquivos mais antigos é aceitável. Qual solução atenderá a esses requisitos de forma MAIS econômica? A. Armazenar arquivos individuais com tags no Amazon S3 Glacier Instant Retrieval. Consultar as tags para recuperar os arquivos do S3 Glacier Instant Retrieval.B. Armazenar arquivos individuais no Amazon S3 Intelligent-Tiering. Use as políticas do S3 Lifecycle para mover os arquivos para o S3 Glacier Flexible Retrieval após 1 ano. Consulte e recupere os arquivos que estão no Amazon S3 usando o Amazon Athena. Consulte e recupere os arquivos que estão no S3 Glacier usando o S3 Glacier Select.C. Armazene arquivos individuais com tags no armazenamento Amazon S3 Standard. Armazene metadados de pesquisa para cada arquivo no armazenamento Amazon S3 Standard. Use as políticas do S3 Lifecycle para mover os arquivos para o S3 Glacier Instant Retrieval após 1 ano. Consulte e recupere os arquivos pesquisando metadados do Amazon S3.D. Armazene arquivos individuais no armazenamento Amazon S3 Standard. Use as políticas do S3 Lifecycle para mover os arquivos para o S3 Glacier Deep Archive após 1 ano. Armazene metadados de pesquisa no Amazon RDS. Consulte os arquivos do Amazon RDS. Recupere os arquivos do S3 Glacier Deep Archive.
Resposta selecionada: B Os usuários acessam os arquivos aleatoriamente O S3 Intelligent-Tiering é a classe de armazenamento ideal para dados com padrões de acesso desconhecidos, mutáveis ou imprevisíveis, independentemente do tamanho do objeto ou do período de retenção. Você pode usar o S3 Intelligent-Tiering como a classe de armazenamento padrão para praticamente qualquer carga de trabalho, especialmente data lakes, análise de dados, novos aplicativos e conteúdo gerado pelo usuário. https://aws.amazon.com/fr/s3/storage-classes/intelligent-tiering/
Uma empresa tem uma carga de trabalho de produção que é executada em 1.000 instâncias do Amazon EC2 Linux. A carga de trabalho é alimentada por software de terceiros. A empresa precisa corrigir o software de terceiros em todas as instâncias do EC2 o mais rápido possível para corrigir uma vulnerabilidade crítica de segurança. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Criar uma função do AWS Lambda para aplicar o patch a todas as instâncias do EC2.B. Configurar o AWS Systems Manager Patch Manager para aplicar o patch a todas as instâncias do EC2.C. Agendar uma janela de manutenção do AWS Systems Manager para aplicar o patch a todas as instâncias do EC2.D. Usar o AWS Systems Manager Run Command para executar um comando personalizado que aplique o patch a todas as instâncias do EC2.
D O AWS Systems Manager Run Command permite que a empresa execute comandos ou scripts em várias instâncias do EC2. Ao usar o Run Command, a empresa pode aplicar o patch de forma rápida e fácil a todas as 1.000 instâncias do EC2 para corrigir a vulnerabilidade de segurança. Criar uma função do AWS Lambda para aplicar o patch a todas as instâncias do EC2 não seria uma solução adequada, pois as funções do Lambda não são projetadas para serem executadas em instâncias do EC2. Configurar o AWS Systems Manager Patch Manager para aplicar o patch a todas as instâncias do EC2 não seria uma solução adequada, pois o Patch Manager não é projetado para aplicar patches de software de terceiros. Agendar uma janela de manutenção do AWS Systems Manager para aplicar o patch a todas as instâncias do EC2 não seria uma solução adequada, pois as janelas de manutenção não são projetadas para aplicar patches a software de terceiros
Uma empresa está desenvolvendo um aplicativo que fornece estatísticas de envio de pedidos para recuperação por uma API REST. A empresa quer extrair as estatísticas de envio, organizar os dados em um formato HTML fácil de ler e enviar o relatório para vários endereços de e-mail no mesmo horário todas as manhãs. Qual combinação de etapas um arquiteto de soluções deve seguir para atender a esses requisitos? (Escolha duas.) A. Configure o aplicativo para enviar os dados ao Amazon Kinesis Data Firehose.B. Use o Amazon Simple Email Service (Amazon SES) para formatar os dados e enviar o relatório por e-mail.C. Crie um evento agendado do Amazon EventBridge (Amazon CloudWatch Events) que invoque um trabalho do AWS Glue para consultar a API do aplicativo em busca dos dados.D. Crie um evento agendado do Amazon EventBridge (Amazon CloudWatch Events) que invoque uma função do AWS Lambda para consultar a API do aplicativo em busca dos dados.E. Armazene os dados do aplicativo no Amazon S3. Crie um tópico do Amazon Simple Notification Service (Amazon SNS) como um destino de evento S3 para enviar o relatório por e-mail.
Resposta selecionada: BD Você pode usar o SES para formatar o relatório em HTML. https://docs.aws.amazon.com/ses/latest/dg/send-email-formatted.html
Uma empresa deseja migrar seu aplicativo local para a AWS. O aplicativo produz arquivos de saída que variam em tamanho de dezenas de gigabytes a centenas de terabytes. Os dados do aplicativo devem ser armazenados em uma estrutura de sistema de arquivos padrão. A empresa deseja uma solução que seja dimensionada automaticamente. é altamente disponível e requer sobrecarga operacional mínima. Qual solução atenderá a esses requisitos? A. Migre o aplicativo para ser executado como contêineres no Amazon Elastic Container Service (Amazon ECS). Use o Amazon S3 para armazenamento.B. Migre o aplicativo para ser executado como contêineres no Amazon Elastic Kubernetes Service (Amazon EKS). Use o Amazon Elastic Block Store (Amazon EBS) para armazenamento.C. Migre o aplicativo para instâncias do Amazon EC2 em um grupo de dimensionamento automático Multi-AZ. Use o Amazon Elastic File System (Amazon EFS) para armazenamento.D. Migre o aplicativo para instâncias do Amazon EC2 em um grupo de dimensionamento automático Multi-AZ. Use o Amazon Elastic Block Store (Amazon EBS) para armazenamento.
Resposta selecionada: C Migre o aplicativo para instâncias do Amazon EC2 em um grupo de dimensionamento automático Multi-AZ. Use o Amazon Elastic File System (Amazon EFS) para armazenamento.
Uma empresa precisa armazenar seus registros contábeis no Amazon S3. Os registros devem estar imediatamente acessíveis por 1 ano e, em seguida, devem ser arquivados por mais 9 anos. Ninguém na empresa, incluindo usuários administrativos e usuários raiz, pode excluir os registros durante todo o período de 10 anos. Os registros devem ser armazenados com resiliência máxima. Qual solução atenderá a esses requisitos? A. Armazene os registros no S3 Glacier por todo o período de 10 anos. Use uma política de controle de acesso para negar a exclusão dos registros por um período de 10 anos.B. Armazene os registros usando o S3 Intelligent-Tiering. Use uma política do IAM para negar a exclusão dos registros. Após 10 anos, altere a política do IAM para permitir a exclusão.C. Use uma política do S3 Lifecycle para fazer a transição dos registros do S3 Standard para o S3 Glacier Deep Archive após 1 ano. Use o S3 Object Lock no modo de conformidade por um período de 10 anos.D. Use uma política do S3 Lifecycle para fazer a transição dos registros do S3 Standard para o S3 One Zone-Infrequent Access (S3 One Zone-IA) após 1 ano. Use o S3 Object Lock no modo de governança por um período de 10 anos
Resposta selecionada: C Use uma política de ciclo de vida do S3 para fazer a transição dos registros do S3 Standard para o S3 Glacier Deep Archive após 1 ano. Use o S3 Object Lock no modo de conformidade por um período de 10 anos.
Uma empresa executa várias cargas de trabalho do Windows na AWS. Os funcionários da empresa usam compartilhamentos de arquivos do Windows hospedados em duas instâncias do Amazon EC2. Os compartilhamentos de arquivos sincronizam dados entre si e mantêm cópias duplicadas. A empresa quer uma solução de armazenamento altamente disponível e durável que preserve como os usuários acessam os arquivos atualmente. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Migre todos os dados para o Amazon S3. Configure a autenticação do IAM para que os usuários acessem os arquivos.B. Configure um Amazon S3 File Gateway. Monte o S3 File Gateway nas instâncias EC2 existentes.C. Estenda o ambiente de compartilhamento de arquivos para o Amazon FSx para Windows File Server com uma configuração Multi-AZ. Migre todos os dados para o FSx para Windows File Server.D. Estenda o ambiente de compartilhamento de arquivos para o Amazon Elastic File System (Amazon EFS) com uma configuração Multi-AZ. Migre todos os dados para o Amazon EFS.
Resposta selecionada: C O EFS não é compatível com instâncias do Windows https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/AmazonEFS.html O Amazon FSx for Windows File Server fornece servidores de arquivos Microsoft Windows totalmente gerenciados, apoiados por um sistema de arquivos Windows totalmente nativo. https://docs.aws.amazon.com/fsx/latest/WindowsGuide/what-is.html
Um arquiteto de soluções está desenvolvendo uma arquitetura VPC que inclui várias sub-redes. A arquitetura hospedará aplicativos que usam instâncias do Amazon EC2 e instâncias do Amazon RDS DB. A arquitetura consiste em seis sub-redes em duas Zonas de Disponibilidade. Cada Zona de Disponibilidade inclui uma sub-rede pública, uma sub-rede privada e uma sub-rede dedicada para bancos de dados. Somente instâncias do EC2 que são executadas nas sub-redes privadas podem ter acesso aos bancos de dados do RDS. Qual solução atenderá a esses requisitos? A. Crie uma nova tabela de rotas que exclua a rota para os blocos CIDR das sub-redes públicas. Associe a tabela de rotas às sub-redes do banco de dados.B. Crie um grupo de segurança que negue o tráfego de entrada do grupo de segurança que é atribuído a instâncias nas sub-redes públicas. Anexe o grupo de segurança às instâncias do BD.C. Crie um grupo de segurança que permita o tráfego de entrada do grupo de segurança que é atribuído a instâncias nas sub-redes privadas. Anexe o grupo de segurança às instâncias de BD.D. Crie uma nova conexão de peering entre as sub-redes públicas e as sub-redes privadas. Crie uma conexão de peering diferente entre as sub-redes privadas e as sub-redes de banco de dados.
Resposta selecionada: C Dentro de uma VPC, o tráfego local entre diferentes sub-redes não pode ser restringido pelo roteamento, mas caso estejam em VPCs diferentes, isso seria possível. Este é o ganho imp no VPC - Então, o único método é Grupos de Segurança - como EC2, o RDS também tem Grupos de Segurança para restringir o tráfego para instâncias de banco de dados
Uma empresa registrou seu nome de domínio no Amazon Route 53. A empresa usa o Amazon API Gateway na região ca-central-1 como uma interface pública para suas APIs de microsserviços de backend. Serviços de terceiros consomem as APIs com segurança. A empresa quer projetar sua URL do API Gateway com o nome de domínio da empresa e o certificado correspondente para que os serviços de terceiros possam usar HTTPS. Qual solução atenderá a esses requisitos? A. Crie variáveis de estágio no API Gateway com Name=Endpoint-URL e Value=Company Domain Name para substituir a URL padrão. Importe o certificado público associado ao nome de domínio da empresa para o AWS Certificate Manager (ACM).B. Crie registros DNS do Route 53 com o nome de domínio da empresa. Aponte o registro de alias para o ponto de extremidade do estágio do Regional API Gateway. Importe o certificado público associado ao nome de domínio da empresa para o AWS Certificate Manager (ACM) na região us-east-1.C. Crie um ponto de extremidade do Regional API Gateway. Associe o ponto de extremidade do API Gateway ao nome de domínio da empresa. Importe o certificado público associado ao nome de domínio da empresa para o AWS Certificate Manager (ACM) na mesma região. Anexe o certificado ao ponto de extremidade do API Gateway. Configure o Route 53 para rotear o tráfego para o ponto de extremidade do API Gateway.D. Crie um ponto de extremidade do Regional API Gateway. Associe o ponto de extremidade do API Gateway ao nome de domínio da empresa. Importe o certificado público associado ao nome de domínio da empresa para o AWS Certificate Manager (ACM) na região us-east-1. Anexe o certificado às APIs do API Gateway. Crie registros DNS do Route 53 com o nome de domínio da empresa. Aponte um registro A para o nome de domínio da empresa.
Resposta selecionada: C É C: Você pode usar um certificado ACM no API Gateway. https://docs.aws.amazon.com/apigateway/latest/developerguide/rest-api-mutual-tls.html Os certificados são regionais e precisam ser carregados na mesma região da AWS que o serviço para o qual você está usando. (Se estiver usando um certificado com o CloudFront, você precisa carregá-lo para o Leste dos EUA (Norte da Virgínia).)
Uma empresa está executando um site de mídia social popular. O site dá aos usuários a capacidade de carregar imagens para compartilhar com outros usuários. A empresa quer ter certeza de que as imagens não contenham conteúdo inapropriado. A empresa precisa de uma solução que minimize o esforço de desenvolvimento. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Use o Amazon Comprehend para detectar conteúdo inapropriado. Use revisão humana para previsões de baixa confiança.B. Use o Amazon Rekognition para detectar conteúdo inapropriado. Use revisão humana para previsões de baixa confiança.C. Use o Amazon SageMaker para detectar conteúdo inapropriado. Use a verdade básica para rotular previsões de baixa confiança.D. Use o AWS Fargate para implantar um modelo de aprendizado de máquina personalizado para detectar conteúdo inapropriado. Use a verdade básica para rotular previsões de baixa confiança.
Resposta selecionada: B A melhor solução para atender a esses requisitos seria a opção B: usar o Amazon Rekognition para detectar conteúdo inapropriado e usar a revisão humana para previsões de baixa confiança. O Amazon Rekognition é um serviço de análise de imagem e vídeo baseado em nuvem que pode detectar conteúdo inapropriado em imagens usando seu modelo de detecção de rótulo pré-treinado. Ele pode identificar uma ampla gama de conteúdo inapropriado, incluindo conteúdo adulto explícito ou sugestivo, conteúdo violento e linguagem ofensiva. O serviço fornece alta precisão e baixa latência, o que o torna uma boa escolha para esse caso de uso.
Uma empresa deseja executar seus aplicativos críticos em contêineres para atender aos requisitos de escalabilidade e disponibilidade. A empresaqualquer prefere se concentrar na manutenção dos aplicativos críticos. A empresa não quer ser responsável pelo provisionamento e gerenciamento da infraestrutura subjacente que executa a carga de trabalho em contêiner. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Use instâncias do Amazon EC2 e instale o Docker nas instâncias.B. Use o Amazon Elastic Container Service (Amazon ECS) em nós de trabalho do Amazon EC2.C. Use o Amazon Elastic Container Service (Amazon ECS) no AWS Fargate.D. Use instâncias do Amazon EC2 de uma Amazon Machine Image (AMI) otimizada para o Amazon Elastic Container Service (Amazon ECS).
Resposta selecionada: C Uma boa resposta é C: O AWS Fargate é um mecanismo de computação sem servidor e com pagamento conforme o uso que permite que você concentre-se em construir aplicativos sem ter que gerenciar servidores. O AWS Fargate é compatível com o Amazon Elastic Container Service (ECS) e o Amazon Elastic Kubernetes Service (EKS).
Uma empresa hospeda mais de 300 sites e aplicativos globais. A empresa precisa de uma plataforma para analisar mais de 30 TB de dados de fluxo de cliques por dia. O que um arquiteto de soluções deve fazer para transmitir e processar os dados de fluxo de cliques? A. Projete um AWS Data Pipeline para arquivar os dados em um bucket do Amazon S3 e executar um cluster do Amazon EMR com os dados para gerar análises.B. Crie um grupo de dimensionamento automático de instâncias do Amazon EC2 para processar os dados e enviá-los a um data lake do Amazon S3 para o Amazon Redshift usar para análise.C. Armazene os dados em cache no Amazon CloudFront. Armazene os dados em um bucket do Amazon S3. Quando um objeto é adicionado ao bucket do S3, execute uma função do AWS Lambda para processar os dados para análise.D. Colete os dados do Amazon Kinesis Data Streams. Use o Amazon Kinesis Data Firehose para transmitir os dados a um data lake do Amazon S3. Carregue os dados no Amazon Redshift para análise.
Resposta selecionada: D Opção D. https://aws.amazon.com/es/blogs/big-data/real-time-analytics-with-amazon-redshift-streaming-ingestion/
Uma empresa tem um site hospedado na AWS. O site está por trás de um Application Load Balancer (ALB) que está configurado para lidar com HTTP e HTTPS separadamente. A empresa quer encaminhar todas as solicitações para o site para que elas usem HTTPS. O que um arquiteto de soluções deve fazer para atender a esse requisito? A. Atualize a ACL de rede do ALB para aceitar apenas tráfego HTTPS.B. Crie uma regra que substitua o HTTP na URL por HTTPS.C. Crie uma regra de ouvinte no ALB para redirecionar o tráfego HTTP para HTTPS.D. Substitua o ALB por um balanceador de carga de rede configurado para usar a indicação de nome do servidor (SNI).
Resposta selecionada: C C. Crie uma regra de ouvinte no ALB para redirecionar o tráfego HTTP para HTTPS. Para atender ao requisito de encaminhar todas as solicitações para o site para que elas usem HTTPS, um arquiteto de soluções pode criar uma regra de ouvinte no ALB que redireciona o tráfego HTTP para HTTPS. Isso pode ser feito criando uma regra com uma condição que corresponda a todo o tráfego HTTP e uma ação de regra que redirecione o tráfego para o ouvinte HTTPS. O ouvinte HTTPS já deve estar configurado para aceitar tráfego HTTPS e encaminhá-lo para o grupo de destino.
Uma empresa está desenvolvendo um aplicativo da Web de duas camadas na AWS. Os desenvolvedores da empresa implantaram o aplicativo em uma instância do Amazon EC2 que se conecta diretamente a um banco de dados Amazon RDS de backend. A empresa não deve codificar credenciais de banco de dados no aplicativo. A empresa também deve implementar uma solução para rotacionar automaticamente as credenciais do banco de dados regularmente. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Armazene as credenciais do banco de dados nos metadados da instância. Use as regras do Amazon EventBridge (Amazon CloudWatch Events) para executar uma função AWS Lambda agendada que atualiza as credenciais do RDS e os metadados da instância ao mesmo tempo.B. Armazene as credenciais do banco de dados em um arquivo de configuração em um bucket criptografado do Amazon S3. Use as regras do Amazon EventBridge (Amazon CloudWatch Events) para executar uma função AWS Lambda agendada que atualiza as credenciais do RDS e as credenciais no arquivo de configuração ao mesmo tempo. Use o controle de versão do S3 para garantir a capacidade de retornar aos valores anteriores.C. Armazene as credenciais do banco de dados como um segredo no AWS Secrets Manager. Ative a rotação automática para o segredo. Anexe a permissão necessária à função EC2 para conceder acesso ao secret.D. Armazene as credenciais do banco de dados como parâmetros criptografados no AWS Systems Manager Parameter Store. Ative a rotação automática para os parâmetros criptografados. Anexe a permissão necessária à função EC2 para conceder acesso aos parâmetros criptografados.
Resposta selecionada: C A solução correta é C. Armazene as credenciais do banco de dados como um segredo no AWS Secrets Manager. Ative a rotação automática para o segredo. Anexe a permissão necessária à função EC2 para conceder acesso ao segredo. O AWS Secrets Manager é um serviço que permite que você gire, gerencie e recupere facilmente credenciais de banco de dados, chaves de API e outros segredos durante todo o seu ciclo de vida. Ao armazenar as credenciais do banco de dados como um segredo no Secrets Manager, você pode garantir que elas não sejam codificadas no aplicativo e que sejam giradas automaticamente em uma base regular. Para conceder à instância EC2 acesso ao segredo, você pode anexar a permissão necessária à função EC2. Isso permitirá que o aplicativo recupere o segredo do Secrets Manager conforme necessário.
Uma empresa está implantando um novo aplicativo da Web público na AWS. O aplicativo será executado por trás de um Application Load Balancer (ALB). O aplicativo precisa ser criptografado na borda com um certificado SSL/TLS emitido por uma autoridade de certificação externa (CA). O certificado deve ser rotacionado a cada ano antes de expirar. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Use o AWS Certificate Manager (ACM) para emitir um certificado SSL/TLS. Aplique o certificado ao ALB. Use o recurso de renovação gerenciada para girar o certificado automaticamente.B. Use o AWS Certificate Manager (ACM) para emitir um certificado SSL/TLS. Importe o material da chave do certificado. Aplique o certificado ao ALUse o recurso de renovação gerenciada para girar o certificado automaticamente.C. Use a AWS Certificate Manager (ACM) Private Certificate Authority para emitir um certificado SSL/TLS da CA raiz. Aplique o certificado ao ALB. Use o recurso de renovação gerenciada para girar o certificado automaticamente.certificado.D. Use o AWS Certificate Manager (ACM) para importar um certificado SSL/TLS. Aplique o certificado ao ALB. Use o Amazon EventBridge (Amazon CloudWatch Events) para enviar uma notificação quando o certificado estiver próximo da expiração. Gire o certificado manualmente.
Resposta selecionada: D É D, porque o ACM não gerencia o processo de renovação de certificados importados. Você é responsável por monitorar a data de expiração dos seus certificados importados e por renová-los antes que expirem. Verifique esta pergunta no link abaixo: P: Quais tipos de certificados posso criar e gerenciar com o ACM? https://www.amazonaws.cn/en/certificate-manager/faqs/#Managed_renewal_and_deployment
Uma empresa executa sua infraestrutura na AWS e tem uma base registrada de 700.000 usuários para seu aplicativo de gerenciamento de documentos. A empresa pretende criar um produto que converte arquivos .pdf grandes em arquivos de imagem .jpg. Os arquivos .pdf têm em média 5 MB de tamanho. A empresa precisa armazenar os arquivos originais e os arquivos convertidos. Um arquiteto de soluções deve projetar uma solução escalável para acomodar a demanda que crescerá rapidamente ao longo do tempo. Qual solução atende a esses requisitos de forma MAIS econômica? A. Salve os arquivos .pdf no Amazon S3. Configure um evento S3 PUT para invocar uma função do AWS Lambda para converter os arquivos para o formato .jpg e armazená-los novamente no Amazon S3.B. Salve os arquivos .pdf no Amazon DynamoD Use o recurso DynamoDB Streams para invocar uma função do AWS Lambda para converter os arquivos para o formato .jpg e armazená-los novamente no DynamoDB.C. Carregue os arquivos .pdf para um aplicativo AWS Elastic Beanstalk que inclua instâncias do Amazon EC2, armazenamento do Amazon Elastic Block Store (Amazon EBS) e um grupo de Auto Scaling. Use um programa nas instâncias do EC2 para converter os arquivos para o formato .jpg. Salve os arquivos .pdf e os arquivos .jpg no armazenamento do EBS.D. Carregue os arquivos .pdf para um aplicativo AWS Elastic Beanstalk que inclua instâncias do Amazon EC2, armazenamento do Amazon Elastic File System (Amazon EFS) e um grupo de Auto Scaling. Use um programa nas instâncias EC2 para converter o arquivo para o formato .jpg. Salve os arquivos .pdf e .jpg no armazenamento EBS.
Resposta selecionada: A Esta solução atenderá aos requisitos da empresa de forma econômica porque usa uma arquitetura sem servidor com AWS Lambda para converter os arquivos e armazená-los no S3. A função Lambda será dimensionada automaticamente para atender à demanda por conversões de arquivos e o S3 será dimensionado automaticamente para armazenar os arquivos originais e convertidos conforme necessário.
Uma empresa tem mais de 5 TB de dados de arquivo em servidores de arquivo Windows que são executados no local. Usuários e aplicativos interagem com os dados todos os dias. A empresa está movendo suas cargas de trabalho do Windows para a AWS. À medida que a empresa continua esse processo, ela requer acesso à AWS e ao armazenamento de arquivos no local com latência mínima. A empresa precisa de uma solução que minimize a sobrecarga operacional e não exija alterações significativas nos padrões de acesso a arquivos existentes. A empresa usa uma conexão VPN Site-to-Site da AWS para conectividade com a AWS. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Implante e configure o Amazon FSx for Windows File Server na AWS. Mova os dados de arquivo no local para o FSx for Windows File Server. Reconfigure as cargas de trabalho para usar o FSx for Windows File Server na AWS.B. Implante e configure um Amazon S3 File Gateway no local. Mova os dados de arquivo no local para o S3 File Gateway. Reconfigure as cargas de trabalho no local e as cargas de trabalho na nuvem para usar o S3 File Gateway.C. Implante e configure um Amazon S3 File Gateway no local. Mova os dados de arquivo no local para o Amazon S3. Reconfigure as cargas de trabalho para usar o Amazon S3 diretamente ou o S3 File Gateway, dependendo do local de cada carga de trabalho.D. Implante e configure o Amazon FSx para Windows File Server na AWS. Implante e configure um Amazon FSx File Gateway no local. Mova os dados de arquivo no local para o FSx File Gateway. Configure as cargas de trabalho na nuvem para usar o FSx para Windows File Server na AWS. Configure as cargas de trabalho no local para usar o FSx File Gateway.
Resposta selecionada: D Esta solução atenderá aos requisitos porque permite que a empresa continue usando um servidor de arquivos com alterações mínimas nos padrões de acesso a arquivos existentes. O FSx for Windows File Server integra-se ao Active Directory local, para que os usuários possam continuar acessando os dados do arquivo com suas credenciais existentes. A conexão VPN Site-to-Site pode ser usada para estabelecer conectividade de baixa latência entre os servidores de arquivos locais e o FSx for Windows File Server na AWS. O FSx for Windows File Server também é altamente disponível e escalável, para que possa lidar com as necessidades de armazenamento de arquivos das cargas de trabalho.
Um hospital implantou recentemente uma API RESTful com o Amazon API Gateway e AWS Lambda. O hospital usa o API Gateway e o Lambda para carregar relatórios em formato PDF e JPEG. O hospital precisa modificar o código Lambda para identificar informações de saúde protegidas (PHI) nos relatórios. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Use bibliotecas Python existentes para extrair o texto dos relatórios e identificar o PHI do texto extraído.B. Use o Amazon Textract para extrair o texto dos relatórios. Use o Amazon SageMaker para identificar o PHI do texto extraído.C. Use o Amazon Textract para extrair o texto dos relatórios. Use o Amazon Comprehend Medical para identificar o PHI do texto extraído.D. Use o Amazon Rekognition para extrair o texto dos relatórios. Use o Amazon Comprehend Medical para identificar o PHI do texto extraído.
Resposta selecionada: C A solução correta é C: Use o Amazon Textract para extrair o texto dos relatórios. Use o Amazon Comprehend Medical para identificar o PHI do texto extraído. Opção C: Usar o Amazon Textract para extrair o texto dos relatórios e o Amazon Comprehend Medical para identificar o PHI do texto extraído seria a solução mais eficiente, pois envolveria a menor sobrecarga operacional. O Textract foi projetado especificamente para extrair texto de documentos, e o Comprehend Medical é um serviço totalmente gerenciado que pode identificar com precisão PHI em texto médico. Esta solução exigiria manutenção mínima e não incorreria em custos adicionais além das taxas de uso do Textract e do Comprehend Medical.
Uma empresa tem um aplicativo que gera um grande número de arquivos, cada um com aproximadamente 5 MB de tamanho. Os arquivos são armazenados no Amazon S3. A política da empresa exige que os arquivos sejam armazenados por 4 anos antes de poderem ser excluídos. Acessibilidade imediata é sempre necessária, pois os arquivos contêm dados comerciais críticos que não são fáceis de reproduzir. Os arquivos são acessados com frequência nos primeiros 30 dias da criação do objeto, mas raramente são acessados após os primeiros 30 dias. Qual solução de armazenamento é MAIS econômica? A. Crie uma política de ciclo de vida do bucket do S3 para mover arquivos do S3 Standard para o S3 Glacier 30 dias após a criação do objeto. Exclua os arquivos 4 anos após a criação do objeto.B. Crie uma política de ciclo de vida do bucket do S3 para mover arquivos do S3 Standard para o S3 One Zone-Infrequent Access (S3 One Zone-IA) 30 dias após a criação do objeto. Exclua os arquivos 4 anos após a criação do objeto.C. Crie uma política de ciclo de vida do bucket do S3 para mover arquivos do S3 Standard para o S3 Standard-Infrequent Access (S3 Standard-IA) 30 dias após a criação do objeto. Exclua os arquivos 4 anos após a criação do objeto.D. Crie uma política de ciclo de vida do bucket S3 para mover arquivos do S3 Standard para o S3 Standard-Infrequent Access (S3 Standard-IA) 30 dias após a criação do objeto. Mova os arquivos para o S3 Glacier 4 anos após a criação do objeto.
Resposta selecionada: C acho que C deve ser a resposta aqui, > A acessibilidade imediata é sempre necessária, pois os arquivos contêm dados comerciais críticos que não são fáceis de reproduzir Se eles não mencionarem explicitamente que estão usando o Glacier Instant Retrieval, devemos presumir que o Glacier -> leva mais tempo para recuperar e pode não atender aos requisitos
Uma empresa hospeda um aplicativo em várias instâncias do Amazon EC2. O aplicativo processa mensagens de uma fila do Amazon SQS, grava em uma tabela do Amazon RDS e exclui a mensagem da fila. Registros duplicados ocasionais são encontrados na tabela RDS. A fila SQS não contém nenhuma mensagem duplicada. O que um arquiteto de soluções deve fazer para garantir que as mensagens sejam processadas apenas uma vez? A. Use a chamada de API CreateQueue para criar uma nova fila.B. Use a chamada de API AddPermission para adicionar permissões apropriadas.C. Use a chamada de API ReceiveMessage para definir um tempo de espera apropriado.D. Use a chamada de API ChangeMessageVisibility para aumentar o tempo limite de visibilidade.
Resposta selecionada: D No caso de SQS - multiconsumidores, se um consumidor já pegou a mensagem e está processando, enquanto isso outro consumidor pode pegá-la e processá-la, duas cópias são adicionadas no final. Para evitar isso, a mensagem é tornado invisível a partir do momento em que é selecionado e excluído após o processamento. Esse tempo limite de visibilidade é aumentado de acordo com o tempo máximo necessário para processar a mensagem
Um arquiteto de soluções está projetando uma nova arquitetura híbrida para estender a infraestrutura local de uma empresa para a AWS. A empresa requer uma conexão altamente disponível com baixa latência consistente para uma região da AWS. A empresa precisa minimizar custos e está disposta a aceitar tráfego mais lento se a conexão primária falhar. O que o arquiteto de soluções deve fazer para atender a esses requisitos? A. Provisionar uma conexão AWS Direct Connect para uma região. Provisionar uma conexão VPN como backup se a conexão Direct Connect primária falhar.B. Provisionar uma conexão de túnel VPN para uma região para conectividade privada. Provisione um segundo túnel VPN para conectividade privada e como um backup se a conexão VPN primária falhar.C. Provisione uma conexão AWS Direct Connect para uma região. Provisione uma segunda conexão Direct Connect para a mesma região como um backup se a conexão Direct Connect primária falhar.D. Provisione uma conexão AWS Direct Connect para uma região. Use o atributo de failover Direct Connect do AWS CLI para criar automaticamente uma conexão de backup se a conexão principal do Direct Connect falhar.
Resposta selecionada: A O Direct Connect passa por 1 Gbps, 10 Gbps ou 100 Gbps e a VPN vai até 1,25 Gbps. https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/aws-direct-connect-vpn.html
Uma empresa está executando um aplicativo da Web crítico para os negócios em instâncias do Amazon EC2 por trás de um Application Load Balancer. As instâncias do EC2 estão em um grupo de Auto Scaling. O aplicativo usa um banco de dados Amazon Aurora PostgreSQL que é implantado em uma única Zona de Disponibilidade. A empresa quer que o aplicativo esteja altamente disponível com o mínimo de tempo de inatividade e perda mínima de dados. Qual solução atenderá a esses requisitos com o MENOR esforço operacional? A. Coloque as instâncias do EC2 em diferentes regiões da AWS. Use as verificações de integridade do Amazon Route 53 para redirecionar o tráfego. Use Aurora PostgreSQL Cross-Region Replication.B. Configure o grupo de Auto Scaling para usar várias Zonas de Disponibilidade. Configure o banco de dados como Multi-AZ. Configure uma instância do Amazon RDS Proxy para o banco de dados.C. Configure o grupo de Auto Scaling para usar uma Zona de Disponibilidade. Gere instantâneos de hora em hora do banco de dados. Recupere o banco de dados dos instantâneos em caso de falha.D. Configure o grupo de Auto Scaling para usar várias Regiões da AWS. Grave os dados do aplicativo no Amazon S3. Use as notificações de eventos do S3 para iniciar uma função do AWS Lambda para gravar os dados no banco de dados.
Resposta selecionada: B Ao configurar o grupo de Auto Scaling para usar várias Zonas de Disponibilidade, o aplicativo poderá continuar em execução mesmo se uma Zona de Disponibilidade ficar inativa. Configurar o banco de dados como Multi-AZ também garantirá que o banco de dados permaneça disponível em caso de falha em uma Zona de Disponibilidade. Usar uma instância do Amazon RDS Proxy para o banco de dados permitirá que o aplicativo roteie automaticamente o tráfego para instâncias de banco de dados saudáveis, aumentando ainda mais a disponibilidade do aplicativo. Esta solução atenderá aos requisitos de alta disponibilidade com o mínimo de esforço operacional. votado 4 vezes
O aplicativo HTTP de uma empresa está por trás de um Network Load Balancer (NLB). O grupo de destino do NLB está configurado para usar um grupo de dimensionamento automático do Amazon EC2 com várias instâncias do EC2 que executam o serviço da Web. A empresa percebe que o NLB não está detectando erros de HTTP para o aplicativo. Esses erros exigem uma reinicialização manual das instâncias do EC2 que executam o serviço da Web. A empresa precisa melhorar a disponibilidade do aplicativo sem escrever scripts ou códigos personalizados. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Habilite verificações de integridade HTTP no NLB, fornecendo a URL do aplicativo da empresa.B. Adicione um cron job às instâncias do EC2 para verificar os logs do aplicativo local uma vez a cada minuto. Se erros HTTP forem detectados, o aplicativo será reiniciado.C. Substitua o NLB por um Application Load Balancer. Habilite verificações de integridade HTTP fornecendo a URL do aplicativo da empresa. Configure uma ação de Auto Scaling para substituir instâncias não íntegras.D. Crie um alarme do Amazon Cloud Watch que monitore a métrica UnhealthyHostCount para o NLB. Configure uma ação de Auto Scaling para substituir instâncias não íntegras quando o alarme estiver no estado ALARM.
Resposta selecionada: C https://medium.com/awesome-cloud/aws-difference-between-application-load-balancer-and-network-load-balancer-cb8b6cd296a4 Como o NLB não oferece suporte a verificações de integridade HTTP, você só pode usar o ALB para fazer isso.
Uma empresa executa um aplicativo de compras que usa o Amazon DynamoDB para armazenar informações do cliente. Em caso de corrupção de dados, um arquiteto de soluções precisa projetar uma solução que atenda a um objetivo de ponto de recuperação (RPO) de 15 minutos e um objetivo de tempo de recuperação (RTO) de 1 hora. O que o arquiteto de soluções deve recomendar para atender a esses requisitos? A. Configure as tabelas globais do DynamoDB. Para recuperação de RPO, aponte o aplicativo para uma região diferente da AWS.B. Configure a recuperação pontual do DynamoDB. Para recuperação de RPO, restaure para o ponto no tempo desejado.C. Exporte os dados do DynamoDB para o Amazon S3 Glacier diariamente. Para recuperação de RPO, importe os dados do S3 Glacier para o DynamoDB.D. Agende snapshots do Amazon Elastic Block Store (Amazon EBS) para a tabela do DynamoDB a cada 15 minutos. Para recuperação de RPO, restaure a tabela do DynamoDB usando o snapshot do EBS.
Resposta selecionada: B A melhor solução para atender aos requisitos de RPO e RTO seria usar a recuperação de ponto no tempo (PITR) do DynamoDB. Esse recurso permite que você restaure sua tabela do DynamoDB para qualquer ponto no tempo dentro dos últimos 35 dias, com uma granularidade de segundos. Para recuperar dados em um RPO de 15 minutos, você simplesmente restauraria a tabela para o ponto desejado no tempo dentro dos últimos 35 dias. Para atender ao requisito de RTO de 1 hora, você pode usar o console do DynamoDB, a AWS CLI ou os SDKs da AWS para habilitar o PITR na sua tabela. Uma vez habilitado, o PITR captura continuamente cópias de ponto no tempo dos dados da sua tabela em um bucket do S3. Você pode então usar essas cópias de ponto no tempo para restaurar sua tabela para qualquer ponto no tempo dentro do período de retenção. CORRETO Opção B. Configure a recuperação de ponto no tempo do DynamoDB. Para recuperação de RPO, restaure para o ponto desejado no tempo.
Uma empresa executa um aplicativo de processamento de fotos que precisa frequentemente carregar e baixar fotos de buckets do Amazon S3 que estão localizados na mesma região da AWS. Um arquiteto de soluções notou um aumento no custo das taxas de transferência de dados e nprecisa implementar uma solução para reduzir esses custos. Como o arquiteto de soluções pode atender a esse requisito? A. Implante o Amazon API Gateway em uma sub-rede pública e ajuste a tabela de rotas para rotear chamadas S3 por meio dela.B. Implante um gateway NAT em uma sub-rede pública e anexe uma política de endpoint que permita acesso aos buckets S3.C. Implante o aplicativo em uma sub-rede pública e permita que ele seja roteado por meio de um gateway de internet para acessar os buckets S3.D. Implante um endpoint de gateway S3 VPC na VPC e anexe uma política de endpoint que permita acesso aos buckets S3.
Resposta selecionada: D CORRETO A resposta correta é a opção D. Implante um endpoint de gateway S3 VPC no VPC e anexe uma política de endpoint que permita acesso aos buckets S3. Ao implantar um endpoint de gateway S3 VPC, o aplicativo pode acessar os buckets S3 por meio de uma conexão de rede privada dentro do VPC, eliminando a necessidade de transferência de dados pela Internet. Isso pode ajudar a reduzir as taxas de transferência de dados, bem como melhorar o desempenho do aplicativo. A política de endpoint pode ser usada para especificar a quais buckets do S3 o aplicativo tem acesso. votado 8 vezes
Uma empresa lançou recentemente instâncias de aplicativos baseadas em Linux no Amazon EC2 em uma sub-rede privada e lançou um bastion host baseado em Linux em uma instância do Amazon EC2 em uma sub-rede pública de uma VPC. Um arquiteto de soluções precisa se conectar da rede local, por meio da conexão de internet da empresa, ao bastion host e aos servidores de aplicativos. O arquiteto de soluções deve certificar-se de que os grupos de segurança de todas as instâncias do EC2 permitirão esse acesso. Qual combinação de etapas o arquiteto de soluções deve tomar para atender a esses requisitos? (Escolha duas.) A. Substitua o grupo de segurança atual do host bastião por um que permita somente acesso de entrada das instâncias do aplicativo.B. Substitua o grupo de segurança atual do host bastião por um que permita somente acesso de entrada do intervalo de IP interno para a empresa.C. Substitua o grupo de segurança atual do host bastião por um que permita somente acesso de entrada do intervalo de IP externo para a empresa.D. Substitua o grupo de segurança atual das instâncias do aplicativo por um que permita acesso SSH de entrada dem somente o endereço IP privado do bastion host.E. Substitua o grupo de segurança atual das instâncias do aplicativo por um que permita acesso SSH de entrada somente do endereço IP público do bastion host.
Selecionado Resposta: CE Para atender aos requisitos, o arquiteto de soluções deve seguir os seguintes passos: C. Substituir o grupo de segurança atual do bastion host por um que permita apenas acesso de entrada do intervalo de IP externo para a empresa. Isso permitirá que o arquiteto de soluções se conecte ao bastion host da rede local da empresa por meio da conexão com a Internet. E. Substituir o grupo de segurança atual das instâncias do aplicativo por um que permita acesso SSH de entrada apenas do endereço IP público do bastion host. Isso permitirá que o arquiteto de soluções se conecte às instâncias do aplicativo por meio do bastion host usando SSH. Observação: é importante garantir que os grupos de segurança para o host bastion e as instâncias do aplicativo sejam configurados corretamente para permitir o tráfego de entrada desejado, ao mesmo tempo em que protegem as instâncias de acesso indesejado.
Um arquiteto de soluções está projetando um aplicativo da Web de duas camadas. O aplicativo consiste em uma camada da Web pública hospedada no Amazon EC2 em sub-redes públicas. A camada do banco de dados consiste no Microsoft SQL Server em execução no Amazon EC2 em uma sub-rede privada. A segurança é uma alta prioridade para a empresa. Como os grupos de segurança devem ser configurados nessa situação? (Escolha duas.) A. Configure o grupo de segurança para a camada da web para permitir tráfego de entrada na porta 443 de 0.0.0.0/0. B. Configure o grupo de segurança para a camada da web para permitir tráfego de saída na porta 443 de 0.0.0.0/0.C. Configure o grupo de segurança para a camada do banco de dados para permitir tráfego de entrada na porta 1433 do grupo de segurança para a camada da web. D. Configure o grupo de segurança para a camada do banco de dados para permitir tráfego de saída nas portas 443 e 1433 para o grupo de segurança para a camada da web.E. Configure o grupo de segurança para a camada do banco de dados para permitir tráfego de entrada nas portas 443 e 1433 do grupo de segurança para a camada da web.
Resposta selecionada: AC Regras do servidor Web: entrada tráfego de 443 (HTTPS) Fonte 0.0.0.0/0 - Permite acesso HTTPS de entrada de qualquer endereço IPv4 Regras de banco de dados: 1433 (MS SQL)A porta padrão para acessar um banco de dados Microsoft SQL Server, por exemplo, em uma instância do Amazon RDS
Uma empresa deseja migrar um aplicativo de várias camadas de instalações para a Nuvem AWS para melhorar o desempenho do aplicativo O aplicativo consiste em camadas de aplicativos que se comunicam entre si por meio de serviços RESTful. As transações são descartadas quando uma camada fica sobrecarregada. o aplicativo. Qual solução atende a esses requisitos e é a MAIS eficiente operacionalmente? A. Use o Amazon API Gateway e direcione as transações para as funções do AWS Lambda como o aplicativo Use o Amazon Simple Queue Service (Amazon SQS) como camada de comunicação entre os serviços do aplicativo.B. Use as métricas do Amazon CloudWatch para analisar o histórico de desempenho do aplicativo para determinar o pico de utilização dos servidores durante o desempenho. Aumente o tamanho das instâncias do Amazon EC2 do servidor de aplicativos para atender aos requisitos de pico.C. Use o Amazon Simple Notification Service (Amazon SNS) para lidar com as mensagens entre servidores de aplicativos em execução no Amazon EC2 em. um grupo de Auto Scaling. Use o Amazon CloudWatch para monitorar o comprimento da fila do SNS e aumentar e diminuir conforme necessário.D. Use o Amazon Simple Queue Service (Amazon SQS) para lidar com as mensagens entre servidores de aplicativos em execução no Amazon EC2 em um Grupo de escalonamento automático. Use o Amazon CloudWatch para monitorar o comprimento da fila SQS e aumentar a escala quando falhas de comunicação forem detectadas.
Resposta selecionada:  ;A Serverless (Lambda) + Decouple (SQS) é um aplicativo modernizado. O fluxo é assim: API Gateway –> SQS (atuar como desacoplamento) -> Funções Lambda (atuam como o assinante puxa a mensagem da fila para processar)
Uma empresa recebe 10 TB de dados de instrumentação todos os dias de vários máquinas localizadas em uma única fábrica Os dados consistem em arquivos JSON armazenados em uma rede de área de armazenamento (SAN) em um data center local localizado dentro da fábrica. vários sistemas adicionais que fornecem análises críticas quase em tempo real Uma transferência segura é importante porque os dados são considerados confidenciais. Qual solução oferece a transferência de dados MAIS confiável? A. AWS DataSync pela Internet públicaB.AWS DataSync pela AWS Direct ConnectC.AWS Database Migration Service (AWS DMS) pela Internet públicaD.AWS Database Migration Service (AWS DMS) pelo AWS Direct Connect
Resposta selecionada: B CORRETO A solução mais confiável para transferir dados de maneira segura seria a opção B: AWS DataSync via AWS Direct Connect. AWS DataSync é um serviço de transferência de dados que usa técnicas de otimização de rede para transferir dados de forma eficiente e segura entre sistemas de armazenamento locais e o Amazon S3 ou outros destinos de armazenamento. Quando usado no AWS Direct Connect, o DataSync pode fornecer uma conexão de rede dedicada e segura entre seu data center local e a AWS. Isso pode ajudar a garantir uma transferência de dados mais confiável e segura em comparação com o uso da Internet pública.
Uma empresa precisa configurar uma arquitetura de ingestão de dados em tempo real para sua aplicação. A empresa precisa de uma API, um processo que transforme os dados à medida que eles são transmitidos e uma solução de armazenamento para os dados. Qual solução atenderá a esses requisitos?com a MENOR sobrecarga operacional? A. Implemente uma instância do Amazon EC2 para hospedar uma API que envia dados para um fluxo de dados do Amazon Kinesis. Crie um fluxo de entrega do Amazon Kinesis Data Firehose que usa o fluxo de dados do Kinesis como uma fonte de dados. Use as funções do AWS Lambda para transformar os dados. Use o fluxo de entrega do Kinesis Data Firehose para enviar os dados para o Amazon S3.B. Implemente uma instância do Amazon EC2 para hospedar uma API que envia dados para o AWS Glue. Pare a verificação de origem/destino na instância do EC2. Use o AWS Glue para transformar os dados e enviá-los para o Amazon S3.C. Configure uma API do Amazon API Gateway para enviar dados para um fluxo de dados do Amazon Kinesis. Crie um fluxo de entrega do Amazon Kinesis Data Firehose que usa o fluxo de dados do Kinesis como uma fonte de dados. Use as funções do AWS Lambda para transformar os dados. Use o fluxo de entrega do Kinesis Data Firehose para enviar os dados para o Amazon S3.D. Configure uma API do Amazon API Gateway para enviar dados para o AWS Glue. Use funções do AWS Lambda para transformar os dados. Use o AWS Glue para enviar os dados para o Amazon S3.
Resposta selecionada: C A opção C é a solução que atende aos requisitos com a menor sobrecarga operacional. Na opção C, você pode usar o Amazon API Gateway como um serviço totalmente gerenciado para criar, publicar, manter, monitorar e proteger APIs. Isso significa que você não precisa se preocupar com a sobrecarga operacional de implantar e manter uma instância do EC2 para hospedar a API. A opção C também usa o Amazon Kinesis Data Firehose, que é um serviço totalmente gerenciado para fornecer dados de streaming em tempo real para destinos como o Amazon S3. Com o Kinesis Data Firehose, você não precisa se preocupar com a sobrecarga operacional de configurar e manter uma infraestrutura de ingestão de dados
Uma empresa precisa manter dados de transações do usuário em uma tabela do Amazon DynamoDB. A empresa deve reter os dados por 7 anos. Qual é a solução operacional MAIS eficiente que atende a esses requisitos? A. Use a recuperação de ponto no tempo do DynamoDB para fazer backup da tabela continuamente.B. Use o AWS Backup para criar agendamentos de backup e políticas de retenção para a tabela.C. Crie um backup sob demanda da tabela usando o console do DynamoDB. Armazene o backup em um bucket do Amazon S3. Defina uma configuração do ciclo de vida do S3 para o bucket do S3.D. Crie uma regra do Amazon EventBridge (Amazon CloudWatch Events) para invocar uma função do AWS Lambda. Configure a função do Lambda para fazer backup da tabela e armazenar o backup em um bucket do Amazon S3. Defina uma configuração do ciclo de vida do S3 para o bucket do S3.
Resposta selecionada: B A resposta é B O Amazon DynamoDB oferece dois tipos de backups: recuperação de ponto no tempo (PITR) e backups sob demanda. (==> D não é a resposta) O PITR é usado para recuperar sua tabela para qualquer ponto no tempo em uma janela contínua de 35 dias, que é usada para ajudar os clientes a mitigar exclusões acidentais ou gravações em suas tabelas de código incorreto, acesso malicioso ou erro do usuário. (==> A não é a resposta) Os backups sob demanda são projetados para arquivamento e retenção de longo prazo, o que normalmente é usado para ajudar os clientes a atender aos requisitos de conformidade e regulatórios. Esta é a segunda de uma série de duas postagens de blog sobre o uso do AWS Backup para configurar backups sob demanda agendados para o Amazon DynamoDB. A Parte 1 apresenta as etapas para configurar um backup agendado para tabelas do DynamoDB no AWS Management Console. (==> Não é o console do DynamoBD e C também não é a resposta) https://aws.amazon.com/blogs/database/part-2-set-up-scheduled-backups-for-amazon-dynamodb-using-aws-backup/
Uma empresa está planejando usar uma tabela do Amazon DynamoDB para armazenamento de dados. A empresa está preocupada com a otimização de custos. A tabela não será usada na maioria das manhãs. À noite, o tráfego de leitura e gravação geralmente será imprevisível. Quando ocorrem picos de tráfego, eles acontecem muito rapidamente. O que um arquiteto de soluções deve recomendar? A. Crie uma tabela do DynamoDB no modo de capacidade sob demanda.B. Crie uma tabela do DynamoDB com um índice secundário global.C. Crie uma tabela do DynamoDB com capacidade provisionada e dimensionamento automático.D. Crie uma tabela do DynamoDB no modo de capacidade provisionada e configure-a como uma tabela global.
Resposta selecionada: C CORRETO C. Crie uma tabela do DynamoDB com capacidade provisionada e dimensionamento automático. Como a tabela não será usada na maioria das manhãs e o tráfego de leitura e gravação geralmente será imprevisível à noite, seria mais econômico definir a tabela para usar capacidade provisionada e habilitar o dimensionamento automático. Dessa forma, a tabela pode aumentar sua capacidade para lidar com o aumento do tráfego quando necessário e diminuir quando o tráfego diminuir, ajudando a otimizar o custo
Uma empresa assinou recentemente um contrato com um parceiro AWS Managed Service Provider (MSP) para obter ajuda com uma iniciativa de migração de aplicativos. Um arquiteto de soluções precisa compartilhar uma Amazon Machine Image (AMI) de uma conta AWS existente com a conta AWS do parceiro MSP. A AMI é apoiada pelo Amazon Elastic Block Store (Amazon EBS) e usa uma chave gerenciada pelo cliente do AWS Key Management Service (AWS KMS) para criptografar instantâneos de volume do EBS. Qual é a maneira MAIS segura para o arquiteto de soluções compartilhar a AMI com a conta AWS do parceiro MSP? A. Torne a AMI criptografada e os instantâneos disponíveis publicamente. Modifique a política de chave para permitir que a conta AWS do parceiro MSP use a chave.B. Modifique a propriedade launchPermission da AMI. Compartilhe a AMI somente com a conta AWS do parceiro MSP. Modifique a política de chave para permitir que a conta AWS do parceiro MSP use a chave.C. Modifique a propriedade launchPermission da AMI. Compartilhe a AMI somente com a conta AWS do parceiro MSP. Modifique a política de chaves para confiar em uma nova chave KMS que seja de propriedade do parceiro MSP para criptografia.D. Exporte a AMI da conta de origem para um bucket do Amazon S3 na conta AWS do parceiro MSP, criptografe o bucket S3 com uma nova chave KMS que seja de propriedade do parceiro MSP. Copie e inicie a AMI na conta AWS do parceiro MSP
CORRETO B. Modifique a propriedade launchPermission da AMI. A maneira mais segura para o arquiteto de soluções compartilhar a AMI com a conta AWS do parceiro MSP seria modificar a propriedade launchPermission da AMI e compartilhá-la somente com a conta AWS do parceiro MSP. A política de chaves também deve ser modificada para permitir que a conta AWS do parceiro MSP use a chave. Isso garante que oAMI é compartilhada somente com o Parceiro MSP e é criptografada com uma chave que eles estão autorizados a usar.
Um arquiteto de soluções está projetando a arquitetura de nuvem para um novo aplicativo que está sendo implantado na AWS. O processo deve ser executado em paralelo enquanto adiciona e remove nós de aplicativo conforme necessário com base no número de trabalhos a serem processados. O aplicativo do processador é sem estado. O arquiteto de soluções deve garantir que o aplicativo esteja fracamente acoplado e que os itens de trabalho sejam armazenados de forma durável. Qual design o arquiteto de soluções deve usar? A. Crie um tópico do Amazon SNS para enviar os trabalhos que precisam ser processados. Crie uma Amazon Machine Image (AMI) que consiste no aplicativo do processador. Crie uma configuração de inicialização que use a AMI. Crie um grupo de Auto Scaling usando a configuração de inicialização. Defina a política de dimensionamento para o grupo de dimensionamento automático para adicionar e remover nós com base no uso da CPU.B. Crie uma fila do Amazon SQS para armazenar os trabalhos que precisam ser processados. Crie uma Amazon Machine Image (AMI) que consiste no aplicativo do processador. Crie uma configuração de inicialização que usa a AMI. Crie um grupo de dimensionamento automático usando a configuração de inicialização. Defina a política de dimensionamento para o grupo de dimensionamento automático para adicionar e remover nós com base no uso da rede.C. Crie uma fila do Amazon SQS para armazenar os trabalhos que precisam ser processados. Crie uma Amazon Machine Image (AMI) que consiste no aplicativo do processador. Crie um modelo de inicialização que usa a AMI. Crie um grupo de dimensionamento automático usando o modelo de inicialização. Defina a política de dimensionamento para o grupo de dimensionamento automático para adicionar e remover nós com base no número de itens na fila do SQS.D. Crie um tópico do Amazon SNS para enviar os trabalhos que precisam ser processados. Crie uma Amazon Machine Image (AMI) que consiste no aplicativo do processador. Crie um modelo de inicialização que usa a AMI. Crie um grupo de Auto Scaling usando o modelo de inicialização. Defina a política de dimensionamento para o grupo de Auto Scaling para adicionar e remover nós com base no número de mensagens publicadas no tópico do SNS.
Resposta selecionada: C CORRETO O design correto é a Opção C. Crie uma fila do Amazon SQS para manter os trabalhos que precisam ser processados. Crie uma Amazon Machine Image (AMI) que consiste no aplicativo do processador. Crie um modelo de inicialização que usa a AMI. Crie um grupo de Auto Scaling usando o modelo de inicialização. Defina a política de dimensionamento para o grupo de Auto Scaling para adicionar e remover nós com base no número de itens na fila do SQS. Este design satisfaz os requisitos do aplicativo usando o Amazon Simple Queue Service (SQS) como armazenamento durável para os itens de trabalho e o Amazon Elastic Compute Cloud (EC2) Auto Scaling para adicionar e remover nós com base no número de itens na fila. O aplicativo do processador pode ser executado em paralelo em vários nós, e o uso de modelos de inicialização permite flexibilidade na configuração das instâncias do EC2.
Uma empresa hospeda seus aplicativos da Web na Nuvem AWS. A empresa configura os Elastic Load Balancers para usar certificados que são importados para o AWS Certificate Manager (ACM). A equipe de segurança da empresa deve ser notificada 30 dias antes da expiração de cada certificado. O que um arquiteto de soluções deve recomendar para atender a esse requisito? A. Adicione uma regra no ACM para publicar uma mensagem personalizada em um tópico do Amazon Simple Notification Service (Amazon SNS) todos os dias, começando 30 dias antes de qualquer certificado expirar.B. Crie uma regra do AWS Config que verifique se há certificados que expirarão em 30 dias. Configure o Amazon EventBridge (Amazon CloudWatch Events) para invocar um alerta personalizado por meio do Amazon Simple Notification Service (Amazon SNS) quando o AWS Config relatar um recurso não compatível.C. Use o AWS Trusted Advisor para verificar se há certificados que expirarão em 30 dias. Crie um alarme do Amazon CloudWatch com base nas métricas do Trusted Advisor para verificar alterações de status. Configure o alarme para enviar um alerta personalizado por meio do Amazon Simple Notification Service (Amazon SNS).D. Crie uma regra do Amazon EventBridge (Amazon CloudWatch Events) para detectar quaisquer certificados que irão expirar em 30 dias. Configure a regra para invocar uma função do AWS Lambda. Configure a função do Lambda para enviar um alerta personalizado por meio do Amazon Simple Notification Service (Amazon SNS).
Resposta selecionada: B https://aws.amazon.com/premiumsupport/knowledge-center/acm-certificate-expiration/
O site dinâmico de uma empresa é hospedado usando servidores locais nos Estados Unidos. A empresa está lançando seu produto na Europa e quer otimizar os tempos de carregamento do site para novos usuários europeus. O backend do site deve permanecer nos Estados Unidos. O produto será lançado em alguns dias e uma solução imediata é necessária. O que o arquiteto de soluções deve recomendar? A. Inicie uma instância do Amazon EC2 em us-east-1 e migre o site para ela.B. Mova o site para o Amazon S3. Use a replicação entre regiões entre regiões.C. Use o Amazon CloudFront com uma origem personalizada apontando para os servidores locais.D. Use uma política de roteamento de geoproximidade do Amazon Route 53 apontando para servidores locais.
Resposta selecionada: C CORRETO C. Use o Amazon CloudFront com uma origem personalizada apontando para os servidores locais. O Amazon CloudFront é uma rede de entrega de conteúdo (CDN) que acelera a entrega de conteúdo estático e dinâmico da web, como HTML, CSS, JavaScript, imagens e vídeos. Ao usar o CloudFront, a empresa pode distribuir o conteúdo de seu site de locais de ponta mais próximos dos usuários na Europa, reduzindo os tempos de carregamento para esses usuários. Para usar o CloudFront, a empresa pode configurar uma origem personalizada apontando para seus servidores locais nos Estados Unidos. O CloudFront armazenará em cache o conteúdo do site em locais de ponta ao redor do mundo e fornecerá o conteúdo aos usuários do local mais próximo deles. Isso permitirá que a empresa otimize os tempos de carregamento para seus usuários europeus sem precisar mover o backend do site para uma região diferente.
Uma empresa deseja reduzir o custo de sua arquitetura web de três camadas existente. Os servidores web, de aplicativo e de banco de dados estão sendo executados em instâncias do Amazon EC2 para os ambientes de desenvolvimento, teste e produção. As instâncias do EC2 têm uma média de 30% de utilização da CPU durante os horários de pico e 10% de utilização da CPU durante os horários de menor pico. As instâncias do EC2 de produção são executadas 24 horas por dia. As instâncias do EC2 de desenvolvimento e teste são executadas por pelo menos 8 horas por dia. A empresa planeja implementar a automação para interromper o EC de desenvolvimento e teste2 instâncias quando não estiverem em uso. Qual solução de compra de instância EC2 atenderá aos requisitos da empresa de forma MAIS econômica? A. Use instâncias Spot para as instâncias EC2 de produção. Use instâncias reservadas para as instâncias EC2 de desenvolvimento e teste.B. Use instâncias reservadas para as instâncias EC2 de produção. Use instâncias sob demanda para as instâncias EC2 de desenvolvimento e teste.C. Use blocos Spot para as instâncias EC2 de produção. Use instâncias reservadas para as instâncias EC2 de desenvolvimento e teste.D. Use instâncias sob demanda para as instâncias EC2 de produção. Use blocos Spot para o desenvolvimento e teste de instâncias EC2.
Resposta selecionada: B Os blocos spot não estão mais disponíveis e você não pode usar instâncias spot em máquinas Prod 24x7, então a opção B deve ser válida.
Uma empresa tem um aplicativo web de produção no qual os usuários carregam documentos por meio de uma interface web ou um aplicativo móvel. De acordo com um novo requisito regulatório, novos documentos não podem ser modificados ou excluídos após serem armazenados. O que um arquiteto de soluções deve fazer para atender a esse requisito? A. Armazene os documentos carregados em um bucket do Amazon S3 com o S3 Versioning e o S3 Object Lock habilitados.B. Armazene os documentos carregados em um bucket do Amazon S3. Configure uma política de ciclo de vida do S3 para arquivar os documentos periodicamente.C. Armazene os documentos enviados em um bucket do Amazon S3 com o controle de versão do S3 habilitado. Configure uma ACL para restringir todo o acesso somente leitura.D. Armazene os documentos enviados em um volume do Amazon Elastic File System (Amazon EFS). Acesse os dados montando o volume no modo somente leitura.
Resposta selecionada: A Você pode usar o S3 Object Lock para armazenar objetos usando um modelo WORM (write-once-read-many). O Object Lock pode ajudar a evitar que objetos sejam excluídos ou substituídos por um período fixo de tempo ou indefinidamente. Você pode usar o S3 Object Lock para atender aos requisitos regulatórios que exigem armazenamento WORM ou adicionar uma camada extra de proteção contra alterações e exclusões de objetos. O controle de versão é necessário e ativado automaticamente quando o Object Lock é habilitado. https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lock-overview.html
Uma empresa tem vários servidores web que precisam acessar com frequência uma instância comum do Amazon RDS MySQL Multi-AZ DB. A empresa quer um método seguro para os servidores web se conectarem ao banco de dados enquanto atendem a um requisito de segurança para alternar as credenciais do usuário com frequência. Qual solução atende a esses requisitos? A. Armazene as credenciais do usuário do banco de dados no AWS Secrets Manager. Conceda as permissões de IAM necessárias para permitir que os servidores da Web acessem o AWS Secrets Manager.B. Armazene as credenciais do usuário do banco de dados no AWS Systems Manager OpsCenter. Conceda as permissões de IAM necessárias para permitir que os servidores da Web acessem o OpsCenter.C. Armazene as credenciais do usuário do banco de dados em um bucket seguro do Amazon S3. Conceda as permissões de IAM necessárias para permitir que os servidores da Web recuperem credenciais e acessem o banco de dados.D. Armazene as credenciais do usuário do banco de dados em arquivos criptografados com o AWS Key Management Service (AWS KMS) no sistema de arquivos do servidor da Web. O servidor web deve ser capaz de descriptografar os arquivos e acessar o banco de dados.
Resposta selecionada: A O Secrets Manager permite que você substitua credenciais codificadas no seu código, incluindo senhas, por uma chamada de API para o Secrets Manager para recuperar o segredo programaticamente. Isso ajuda a garantir que o segredo não possa ser comprometido por alguém examinando seu código, porque o segredo não existe mais no código. Além disso, você pode configurar o Secrets Manager para automatizarrotacione o segredo para você de acordo com um cronograma especificado. Isso permite que você substitua segredos de longo prazo por outros de curto prazo, reduzindo significativamente o risco de comprometimento. https://docs.aws.amazon.com/secretsmanager/latest/userguide/intro.html
Uma empresa hospeda um aplicativo no AWS Lambda functions que são invocadas por uma API do Amazon API Gateway. As funções do Lambda salvam dados do cliente em um banco de dados Amazon Aurora MySQL. Sempre que a empresa atualiza o banco de dados, as funções do Lambda falham em estabelecer conexões com o banco de dados até que a atualização seja concluída. O resultado é que os dados do cliente não são registrados para alguns dos eventos. Um arquiteto de soluções precisa projetar uma solução que armazene dados do cliente criados durante atualizações de banco de dados. Qual solução atenderá a esses requisitos? A. Provisione um proxy Amazon RDS para ficar entre as funções Lambda e o banco de dados. Configure as funções Lambda para se conectar ao proxy RDS.B. Aumente o tempo de execução das funções Lambda ao máximo. Crie um mecanismo de nova tentativa no código que armazene os dados do cliente no banco de dados.C. Persista os dados do cliente no armazenamento local do Lambda. Configure novas funções Lambda para escanear o armazenamento local para salvar os dados do cliente no banco de dados.D. Armazene os dados do cliente em uma fila FIFO do Amazon Simple Queue Service (Amazon SQS). Crie uma nova função Lambda que pesquise a fila e armazene os dados do cliente no banco de dados.
Resposta selecionada: D CORRETO A melhor solução para atender aos requisitos é a opção D: Armazene os dados do cliente em uma fila FIFO do Amazon Simple Queue Service (Amazon SQS). Crie uma nova função Lambda que pesquise a fila e armazene os dados do cliente no banco de dados. Esta solução garantirá que os dados do cliente sejam armazenados com segurança, mesmo se o banco de dados estiver sendo atualizado. A função Lambda pode ser configurada para pesquisar continuamente a fila SQS e armazenar os dados no banco de dados assim que estiverem disponíveis. Isso garantirá que os dados do cliente não sejam perdidos e sejam registrados assim que o banco de dados estiver disponível novamente
Uma empresa de pesquisa coletou dados por vários anos de áreas nos Estados Unidos. A empresa hospeda os dados em um bucket do Amazon S3 com 3 TB de tamanho e crescendo. A empresa começoud para compartilhar os dados com uma empresa de marketing europeia que tem buckets S3. A empresa quer garantir que seus custos de transferência de dados permaneçam os mais baixos possíveis. Qual solução atenderá a esses requisitos? A. Configure o recurso Requester Pays no bucket S3 da empresa.B. Configure a replicação entre regiões do S3 do bucket S3 da empresa para um dos buckets S3 da empresa de marketing.C. Configure o acesso entre contas para a empresa de marketing para que ela tenha acesso ao bucket S3 da empresa.D. Configure o bucket S3 da empresa para usar o S3 Intelligent-Tiering. Sincronize o bucket S3 com um dos buckets S3 da empresa de marketing.
Resposta selecionada: B essa pergunta é muito vaga na minha humilde opinião se a pergunta está procurando uma maneira de incorrer em cobranças para a empresa europeia em vez da empresa dos EUA, então o pagamento do solicitante faz sentido. se eles estão procurando reduzir o custo geral de transferência de dados, então B faz sentido porque os dados não saem da rede AWS, portanto, o custo de transferência de dados deve ser menor tecnicamente? A. faz sentido porque a empresa dos EUA economiza dinheiro, mas a empresa europeia está pagando pelas taxas, então não há economia geral em custos quando você olha o quadro geral Eu vou para B porque eles não estão explicitamente declarando que querem que a outra empresa pague pelas taxas
Uma empresa usa o Amazon S3 para armazenar seus documentos confidenciais de auditoria. O bucket do S3 usa políticas de bucket para restringir o acesso às credenciais do usuário do IAM da equipe de auditoria de acordo com o princípio do menor privilégio. Os gerentes da empresa estão preocupados com a exclusão acidental de documentos no bucket S3 e querem uma solução mais segura. O que um arquiteto de soluções deve fazer para proteger os documentos de auditoria? A. Habilite os recursos de controle de versão e exclusão de MFA no bucket S3.B. Habilite a autenticação multifator (MFA) nas credenciais de usuário do IAM para cada conta de usuário do IAM da equipe de auditoria.C. Adicione uma política de ciclo de vida do S3 às contas de usuário do IAM da equipe de auditoria para negar a ação s3:DeleteObject durante as datas de auditoria.D. Use o AWS Key Management Service (AWS KMS) para criptografar o bucket S3 e restringir o acesso das contas de usuário do IAM da equipe de auditoria à chave KMS.
Resposta selecionada: A somente a exclusão acidental deve ser evitada. A política do IAM removerá completamente o acesso deles. Portanto, o MFA é a opção certa escolha.
Uma empresa está usando um banco de dados SQL para armazenar dados de filmes que são acessíveis publicamente. O banco de dados é executado em uma instância de banco de dados Amazon RDS Single-AZ. Um script executa consultas em intervalos aleatórios a cada dia para registrar o número de novos filmes que foram adicionados ao banco de dados. O script deve relatar um total final durante o horário comercial. A equipe de desenvolvimento da empresa percebe que o desempenho do banco de dados é inadequado para tarefas de desenvolvimento quando o script está em execução. Um arquiteto de soluções deve recomendar uma solução para resolver esse problema. Qual solução atenderá a esse requisito com a MENOR sobrecarga operacional? A. Modifique a instância do banco de dados para ser uma implantação Multi-AZ.B. Crie uma réplica de leitura do banco de dados. Configure o script para consultar apenas a réplica de leitura.C. Instrua a equipe de desenvolvimento a exportar manualmente as entradas no banco de dados no final de cada dia.D. Use o Amazon ElastiCache para armazenar em cache as consultas comuns que o script executa no banco de dados.
Resposta selecionada: B O motivo para ter uma réplica de leitura é o desempenho aprimorado (palavra-chave), que é nativo do RDS. O Elastic Cache pode ter falhas. A outra maneira de analisar essa questão é: o Elastic Cache pode ser benéfico para tarefas de desenvolvimento (e, portanto, melhorar o desempenho geral do BD). Mas, então, a Opção D menciona que as consultas para scripts são armazenadas em cache, e não o conteúdo do BD (ou metadados). Isso pode não necessariamente melhorar o desempenho do BD.
Uma empresa tem aplicativos que rodam em instâncias do Amazon EC2 em uma VPC. Um dos aplicativos precisa chamar a API do Amazon S3 para armazenar e ler objetos. De acordo com os regulamentos de segurança da empresa, nenhum tráfego dos aplicativos tem permissão para viajar pela Internet. Qual soluçãoatenderá a esses requisitos? A. Configurar um ponto de extremidade do gateway S3.B. Criar um bucket S3 em uma sub-rede privada.C. Criar um bucket S3 na mesma região da AWS que as instâncias do EC2.D. Configurar um gateway NAT na mesma sub-rede que as instâncias do EC2.
Resposta selecionada: A Os pontos de extremidade do gateway fornecem conectividade confiável ao Amazon S3 e ao DynamoDB sem exigir um gateway de Internet ou um dispositivo NAT para sua VPC. Deve ser a opção A. https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html
Uma empresa está armazenando informações confidenciais do usuário em um bucket do Amazon S3. A empresa quer fornecer acesso seguro a esse bucket da camada de aplicativo em execução em instâncias do Amazon EC2 dentro de uma VPC. Qual combinação de etapas um arquiteto de soluções deve seguir para realizar isso? (Escolha duas.) A. Configure um endpoint de gateway VPC para Amazon S3 dentro da VPC.B. Crie uma política de bucket para tornar os objetos no bucket S3 públicos.C. Crie uma política de bucket que limite o acesso somente à camada de aplicativo em execução na VPC.D. Crie um usuário IAM com uma política de acesso S3 e copie as credenciais IAM para a instância EC2.E. Crie uma instância NAT e faça com que as instâncias EC2 usem a instância NAT para acessar o bucket S3.
Resposta selecionada: AC A & C. Quando a pergunta for sobre segurança, não selecione a resposta que armazena credenciais no EC2. Isso deve ser feito usando a política + função do IAM ou o Secret Manager.
Uma empresa executa um aplicativo local que é alimentado por um banco de dados MySQL. A empresa está migrando o aplicativo para a AWS para aumentar a elasticidade e a disponibilidade do aplicativo. A arquitetura atual mostra atividade de leitura pesada no banco de dados durante os períodos de operação normal. A cada 4 horas, a equipe de desenvolvimento da empresa extrai uma exportação completa deo banco de dados de produção para preencher um banco de dados no ambiente de preparação. Durante esse período, os usuários experimentam latência de aplicativo inaceitável. A equipe de desenvolvimento não consegue usar o ambiente de preparação até que o procedimento seja concluído. Um arquiteto de soluções deve recomendar uma arquitetura de substituição que alivie o problema de latência do aplicativo. A arquitetura de substituição também deve dar à equipe de desenvolvimento a capacidade de continuar usando o ambiente de preparação sem demora. Qual solução atende a esses requisitos? A. Use o Amazon Aurora MySQL com réplicas do Aurora Multi-AZ para produção. Preencha o banco de dados de preparação implementando um processo de backup e restauração que usa o utilitário mysqldump.B. Use o Amazon Aurora MySQL com réplicas do Aurora Multi-AZ para produção. Use a clonagem de banco de dados para criar o banco de dados de preparação sob demanda.C. Use o Amazon RDS para MySQL com uma implantação Multi-AZ e leia réplicas para produção. Use a instância de espera para o banco de dados de preparo.D. Use o Amazon RDS para MySQL com uma implantação Multi-AZ e leia réplicas para produção. Preencha o banco de dados de preparo implementando um processo de backup e restauração que usa o utilitário mysqldump.
Resposta selecionada: B A solução recomendada é a Opção B: Use o Amazon Aurora MySQL com réplicas Aurora Multi-AZ para produção. Use a clonagem de banco de dados para criar o banco de dados de preparação sob demanda. Para aliviar o problema de latência do aplicativo, a solução recomendada é usar o Amazon Aurora MySQL com réplicas Aurora Multi-AZ para produção e usar a clonagem de banco de dados para criar o banco de dados de preparação sob demanda. Isso permite que a equipe de desenvolvimento continue usando o ambiente de preparação sem demora, ao mesmo tempo em que fornece elasticidade e disponibilidade para o aplicativo de produção.
Uma empresa está projetando um aplicativo em que os usuários carregam pequenos arquivos no Amazon S3. Depois que um usuário carrega um arquivo, o arquivo requer um processamento simples e único para transformar os dados e salvá-los no formato JSON para análise posterior. Each deve ser processado o mais rápido possível após o upload. A demanda pode variar. Em alguns dias, os usuários farão upload de um grande número de arquivos. Em outros dias, os usuários farão upload de alguns arquivos ou nenhum arquivo. Qual solução atende a esses requisitos com a MENOR sobrecarga operacional? A. Configure o Amazon EMR para ler arquivos de texto do Amazon S3. Execute scripts de processamento para transformar os dados. Armazene o arquivo JSON resultante em um cluster de banco de dados do Amazon Aurora.B. Configure o Amazon S3 para enviar uma notificação de evento para uma fila do Amazon Simple Queue Service (Amazon SQS). Use instâncias do Amazon EC2 para ler da fila e processar os dados. Armazene o arquivo JSON resultante no Amazon DynamoDB.C. Configure o Amazon S3 para enviar uma notificação de evento para uma fila do Amazon Simple Queue Service (Amazon SQS). Use uma função do AWS Lambda para ler da fila e processar os dados. Armazene o arquivo JSON resultante no Amazon DynamoDB.D. Configure o Amazon EventBridge (Amazon CloudWatch Events) para enviar um evento ao Amazon Kinesis Data Streams quando um novo arquivo for carregado. Use uma função do AWS Lambda para consumir o evento do fluxo e processar os dados. Armazene o arquivo JSON resultante em um cluster do Amazon Aurora DB.
Resposta selecionada: C A opção C, configurar o Amazon S3 para enviar uma notificação de evento a uma fila do Amazon Simple Queue Service (SQS) e usar uma função do AWS Lambda para ler da fila e processar os dados, provavelmente seria a solução com a menor sobrecarga operacional. O AWS Lambda é um serviço de computação sem servidor que permite executar código sem a necessidade de provisionar ou gerenciar infraestrutura. Quando um novo arquivo é carregado no Amazon S3, ele pode disparar uma notificação de evento que envia uma mensagem para uma fila SQS. A função Lambda pode então ser configurada para ser disparada por mensagens na fila, e pode processar os dados e armazenar o arquivo JSON resultante no Amazon DynamoDB.
Um aplicativo permite que usuários na sede de uma empresa acessem dados do produto. Os dados do produto são armazenados em uma instância do Amazon RDS MySQL DB. A equipe de operações isolou uma desaceleração no desempenho do aplicativo e quer separar os dados de read tráfego do tráfego de gravação. Um arquiteto de soluções precisa otimizar o desempenho do aplicativo rapidamente. O que o arquiteto de soluções deve recomendar? A. Altere o banco de dados existente para uma implantação Multi-AZ. Atenda às solicitações de leitura da Zona de Disponibilidade primária.B. Altere o banco de dados existente para uma implantação Multi-AZ. Atenda às solicitações de leitura da Zona de Disponibilidade secundária.C. Crie réplicas de leitura para o banco de dados. Configure as réplicas de leitura com metade dos recursos de computação e armazenamento como o banco de dados de origem.D. Crie réplicas de leitura para o banco de dados. Configure as réplicas de leitura com os mesmos recursos de computação e armazenamento do banco de dados de origem.
Resposta selecionada: D O arquiteto de soluções deve recomendar a opção D: Crie réplicas de leitura para o banco de dados. Configure as réplicas de leitura com os mesmos recursos de computação e armazenamento do banco de dados de origem. A criação de réplicas de leitura permite que o aplicativo descarregue o tráfego de leitura do banco de dados de origem, melhorando seu desempenho. As réplicas de leitura devem ser configuradas com os mesmos recursos de computação e armazenamento do banco de dados de origem para garantir que possam lidar com a carga de trabalho de leitura de forma eficaz.
Um administrador do Amazon EC2 criou a seguinte política associada a um grupo do IAM contendo vários usuários: Qual é o efeito desta política? A. Os usuários podem encerrar uma instância do EC2 em qualquer região da AWS, exceto us-east-1.B. Os usuários podem encerrar uma instância do EC2 com o endereço IP 10.100.100.1 na região us-east-1.C. Os usuários podem encerrar uma instância do EC2 na região us-east-1 quando o IP de origem do usuário for 10.100.100.254.D. Os usuários não podem encerrar uma instância do EC2 na região us-east-1 quando o IP de origem do usuário é 10.100.100.254.
Resposta selecionada: C A opção C é a resposta correta. se o bloco CIDR 10.100.100.0/24, então os endereços IP reservados são: • 10.100.100.0 – Endereço de rede • 10.100.100.1 – reservado pela AWS para o roteador VPC • 10.100 .100.2 – reservado pela AWS para mapeamento para DNS fornecido pela Amazon • 10.100.100.3 – reservado pela AWS para uso futuro • 10.100.100.255 – Endereço de transmissão de rede. A AWS não oferece suporte à transmissão em uma VPC. Os números acima não podem ser usados. Isso exclui a opção B
Uma empresa tem uma grande implantação do Microsoft SharePoint em execução no local que requer armazenamento de arquivos compartilhados do Microsoft Windows A empresa deseja migrar essa carga de trabalho para a Nuvem AWS e está considerando várias opções de armazenamento. A solução de armazenamento deve ser altamente disponível e integrada ao Active Directory para controle de acesso. Qual solução irá satisfazer essas necessidades. requisitos? A. Configurar o armazenamento do Amazon EFS e definir o domínio do Active Directory para autenticação.B. Criar um compartilhamento de arquivos SMB em um Gateway de arquivos do AWS Storage Gateway em duas zonas de disponibilidade.C. Crie um bucket do Amazon S3 e configure o Microsoft Windows Server para montá-lo como um volume.D. Criar um sistema de arquivos Amazon FSx for Windows File Server na AWS e defina o domínio do Active Directory para autenticação.
Resposta selecionada: D D. Criar um arquivo Amazon FSx para Windows Sistema de arquivos do servidor na AWS e defina o domínio do Active Directory para autenticação. O Amazon FSx for Windows File Server é um serviço de armazenamento de arquivos totalmente gerenciado, projetado para ser usado com cargas de trabalho do Microsoft Windows. Ele é integrado ao Active Directory para controle de acesso e é altamente disponível, pois armazena dados em diversas zonas de disponibilidade. Além disso, o FSx pode ser usado para migrar dados de servidores de arquivos locais do Microsoft Windows para a Nuvem AWS. Isso o torna adequado aos requisitos descritos na pergunta.
Uma empresa de processamento de imagens tem um aplicativo Web que os usuários usam para fazer upload de imagens. O aplicativo carrega as imagens em um bucket do Amazon S3 A empresa configurou notificações de eventos do S3 para publicar os eventos de criação de objetos em uma fila padrão do Amazon Simple Queue Service (Amazon SQS). para uma função AWS Lambda que processa as imagens e envia os resultados aos usuários por e-mail. Os usuários relatam que estão recebendo várias mensagens de e-mail para cada imagem carregada. Um arquiteto de soluções determina isso.As mensagens SQS estão invocando a função Lambda mais de uma vez, resultando em várias mensagens de e-mail. O que o arquiteto de soluções deve fazer para resolver esse problema com a MENOR sobrecarga operacional? A. Configure uma longa pesquisa na fila SQS aumentando o tempo de espera do ReceiveMessage para 30 segundos.B. Altere a fila padrão SQS para uma fila FIFO SQS. Use o ID de desduplicação de mensagem para descartar mensagens duplicadas.C. Aumente o tempo limite de visibilidade na fila SQS para um valor maior que o total do tempo limite da função e do tempo limite da janela de lote.D. Modifique a função Lambda para excluir cada mensagem da fila SQS imediatamente após a mensagem ser lida antes do processamento.
Resposta selecionada: C a resposta deve ser C, os usuários recebem mensagens duplicadas porque -> lambda pesquisa a mensagem e começa a processá-la. No entanto, antes que o primeiro lambda possa terminar de processar a mensagem, o tempo limite de visibilidade acaba no SQS e o SQS retorna a mensagem para a pesquisa, fazendo com que outro nó Lambda processe a mesma mensagem. Ao aumentar o tempo limite de visibilidade, ele deve impedir que o SQS retorne uma mensagem para a pesquisa antes que o Lambda possa terminar de processar a mensagem
Uma empresa está implementando uma solução de armazenamento compartilhado para um aplicativo de jogo hospedado em um data center local. A empresa precisa da capacidade de usar clientes Lustre para acessar dados. A solução deve ser totalmente gerenciada. Qual solução atende a esses requisitos? A. Crie um gateway de arquivo do AWS Storage Gateway. Crie um compartilhamento de arquivo que use o protocolo de cliente necessário. Conecte o servidor de aplicativo ao compartilhamento de arquivo.B. Crie uma instância do Amazon EC2 Windows. Instale e configure uma função de compartilhamento de arquivo do Windows na instância. Conecte o servidor de aplicativos ao compartilhamento de arquivos.C. Crie um sistema de arquivos Amazon Elastic File System (Amazon EFS) e configure-o para oferecer suporte ao Lustre. Anexe o sistema de arquivos ao servidor de origem. Conecte o servidor de aplicativos ao sistema de arquivos.D. Crie um sistema de arquivos Amazon FSx for Lustre. Anexe o sistema de arquivos ao servidor de origem. Conecte o servidor de aplicativos ao sistema de arquivos.
Resposta selecionada: D A resposta é D. O Lustre na pergunta está disponível apenas como FSx https://aws.amazon.com/fsx/lustre
O aplicativo em contêiner de uma empresa é executado em uma instância do Amazon EC2. O aplicativo precisa baixar certificados de segurança antes de poder se comunicar com outros aplicativos comerciais. A empresa quer uma solução altamente segura para criptografar e descriptografar os certificados quase em tempo real. A solução também precisa armazenar dados em armazenamento altamente disponível após os dados serem criptografados. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Crie segredos do AWS Secrets Manager para certificados criptografados. Atualize manualmente os certificados conforme necessário. Controle o acesso aos dados usando acesso IAM de baixa granularidade.B. Crie uma função do AWS Lambda que use a biblioteca de criptografia Python para receber e executar operações de criptografia. Armazene a função em um bucket do Amazon S3.C. Crie uma chave gerenciada pelo cliente do AWS Key Management Service (AWS KMS). Permita que a função EC2 use a chave KMS para operações de criptografia. Armazene os dados criptografados no Amazon S3.D. Crie uma chave gerenciada pelo cliente do AWS Key Management Service (AWS KMS). Permita que a função EC2 use a chave KMS para operações de criptografia. Armazene os dados criptografados em volumes do Amazon Elastic Block Store (Amazon EBS).
Resposta selecionada: C C faz mais sentido. Entre C (S3) e D (EBS), S3 é altamente disponível com MENOR sobrecarga operacional.
Um arquiteto de soluções está projetando uma VPC com sub-redes públicas e privadas. A VPC e as sub-redes usam blocos CIDR IPv4. Há uma sub-rede pública e uma sub-rede privada em cada uma das três Zonas de Disponibilidade (AZs) para alta disponibilidade. Um gateway de internet é usado para fornecer acesso à internet para as sub-redes públicas. As sub-redes privadas exigem acesso à Internet para permitir que instâncias do Amazon EC2 baixem atualizações de software. O que o arquiteto de soluções deve fazer para habilitar o acesso à Internet para as sub-redes privadas? A. Crie três gateways NAT, um para cada sub-rede pública em cada AZ. Crie uma tabela de rota privada para cada AZ que encaminhe tráfego não VPC para o gateway NAT em sua AZ.B. Crie três instâncias NAT, uma para cada sub-rede privada em cada AZ. Crie uma tabela de rota privada para cada AZ que encaminhe tráfego não VPC para a instância NAT em sua AZ.C. Crie um segundo gateway de Internet em uma das sub-redes privadas. Atualize a tabela de rota para as sub-redes privadas que encaminhem tráfego não VPC para o gateway de Internet privado.D. Crie um gateway de Internet somente de saída em uma das sub-redes públicas. Atualize a tabela de rotas para as sub-redes privadas que encaminham tráfego não VPC para o gateway de Internet somente de saída.
Resposta selecionada: A A resposta correta é a opção A. Para habilitar o acesso à Internet para as sub-redes privadas, o arquiteto de soluções deve criar três gateways NAT, um para cada sub-rede pública em cada Zona de Disponibilidade (AZ). Os gateways NAT permitem que instâncias privadas iniciem tráfego de saída para a Internet, mas não permitem que o tráfego de entrada da Internet alcance as instâncias privadas. O arquiteto de soluções deve então criar uma tabela de rotas privada para cada AZ que encaminha tráfego não VPC para o gateway NAT em sua AZ. Isso permitirá que instâncias nas sub-redes privadas acessem a Internet por meio de gateways NAT nas sub-redes públicas.
Uma empresa deseja migrar um locals data center para AWS. O data center hospeda um servidor SFTP que armazena seus dados em um sistema de arquivos baseado em NFS. O servidor contém 200 GB de dados que precisam ser transferidos. O servidor deve ser hospedado em uma instância do Amazon EC2 que usa um sistema de arquivos do Amazon Elastic File System (Amazon EFS). Qual combinação de etapas um arquiteto de soluções deve tomar para automatizar essa tarefa? (Escolha duas.) A. Inicie a instância do EC2 na mesma Zona de Disponibilidade que o sistema de arquivos EFS.B. Instale um agente do AWS DataSync no data center local.C. Crie um volume secundário do Amazon Elastic Block Store (Amazon EBS) na instância do EC2 para os dados.D. Use manualmente um comando de cópia do sistema operacional para enviar os dados para a instância do EC2.E. Use o AWS DataSync para criar uma configuração de local adequada para o servidor SFTP local.
Resposta selecionada: AB A. Inicie a instância EC2 na mesma Zona de Disponibilidade que o sistema de arquivos EFS. Faz sentido ter a instância na mesma AZ que o armazenamento EFS. B. Instale um agente AWS DataSync no data center local. O DataSync moverá os dados para o EFS, que já usa a instância EC2 (veja as informações fornecidas). Não são necessárias mais coisas… C. Crie um volume secundário do Amazon Elastic Block Store (Amazon EBS) na instância EC2 para os dados. Este volume secundário do EBS não é necessário… os dados devem ser movidos para o EFS… D. Use manualmente um comando de cópia do sistema operacional para enviar os dados para a instância EC2. Potencialmente possível (em vez de A), MAS a premissa automatizar esta tarefa vai contra qualquer ação manualmente. Portanto, devemos manter A. E. Use o AWS DataSync para criar uma configuração de local adequada para o servidor SFTP local. Não entendi a relação entre o DataSync e a configuração para SFTP on-prem! Bobagem. Então, as respostas são A&B
Uma empresa tem um trabalho de extração, transformação e carregamento (ETL) do AWS Glue que é executado todos os dias no mesmo horário. O trabalho processa dados XML que estão em um bucket do Amazon S3. Novos dados são adicionados ao bucket do S3 todos os dias. Um arquiteto de soluções percebe que o AWS Glue está processando todos os dados durante cada execução. O que o arquiteto de soluções deve fazer para evitar que o AWS Glue reprocesse dados antigos? A. Edite o trabalho para usar marcadores de trabalho.B. Edite o trabalho para excluir dados após o processamento dos dados.C. Edite o trabalho definindo o campo NumberOfWorkers como 1.D. Use uma transformação de aprendizado de máquina (ML) FindMatches.
Resposta selecionada: A Este é o propósito dos marcadores: O AWS Glue rastreia dados que já foram processados durante uma execução anterior de um trabalho ETL, persistindo informações de estado da execução do trabalho. Essas informações de estado persistentes são chamadas de marcador de trabalho. Os marcadores de trabalho ajudam o AWS Glue a manter informações de estado e evitar o reprocessamento de dados antigos. https://docs.aws.amazon.com/glue/latest/dg/monitor-continuations.html
Um arquiteto de soluções deve projetar uma infraestrutura de alta disponibilidade para um site. O site é alimentado por servidores web Windows que são executados em instâncias do Amazon EC2. O arquiteto de soluções deve implementar uma solução que possa mitigar um ataque DDoS em larga escala que se origina de milhares de endereços IP. O tempo de inatividade não é aceitável para o site. Quais ações o arquiteto de soluções deve tomar para proteger o site de tal ataque? (Escolha duas.) A. Use o AWS Shield Advanced para interromper o ataque DDoS.B. Configure o Amazon GuardDuty para bloquear automaticamente os invasores.C. Configure o site para usar o Amazon CloudFront para conteúdo estático e dinâmico.D. Use uma função do AWS Lambda para adicionar automaticamente endereços IP do invasor às ACLs de rede VPC.E. Use instâncias spot do EC2 em um grupo de dimensionamento automático com uma política de dimensionamento de rastreamento de destino definida para 80% de utilização da CPU.
Resposta selecionada:AC Acho que é AC, o motivo é que eles exigem uma solução altamente disponível. O AWS Shield pode lidar com os ataques DDoS. Para tornar a solução HA, você pode usar o cloud front. AC parece ser a melhor resposta na minha opinião. AB parecem respostas redundantes. Como essas respostas tornam a solução HA?
Uma empresa está se preparando para implantar uma nova carga de trabalho sem servidor. Um arquiteto de soluções deve usar o princípio do menor privilégio para configurarpermissões que serão usadas para executar uma função AWS Lambda. Uma regra do Amazon EventBridge (Amazon CloudWatch Events) invocará a função. Qual solução atende a esses requisitos? A. Adicione uma função de execução à função com lambda: InvokeFunction como a ação e * como o principal.B. Adicione uma função de execução à função com lambda:InvokeFunction como a ação e Service: lambda.amazonaws.com como o principal.C. Adicione uma política baseada em recursos à função com lambda:* como a ação e Service: events.amazonaws.com como o principal.D. Adicione um recurso política baseada em -para a função com lambda:InvokeFunction como ação e Service: events.amazonaws.com como principal.
A solução correta é D. Adicione uma política baseada em recursos à função com lambda:InvokeFunction como ação e Service: events.amazonaws.com como principal. O princípio do menor privilégio exige que as permissões sejam concedidas apenas até o mínimo necessário para executar uma tarefa. Nesse caso, a função Lambda precisa poder ser invocada pelo Amazon EventBridge (Amazon CloudWatch Events). Para atender a esses requisitos, você pode adicionar uma política baseada em recursos à função que permite que a ação InvokeFunction seja executada pelo principal Service: events.amazonaws.com. Isso permitirá que o Amazon EventBridge invoque a função, mas não concederá nenhuma permissão adicional à função.
Uma empresa está se preparando para armazenar dados confidenciais no Amazon S3. Por motivos de conformidade, os dados devem ser criptografados em repouso. O uso da chave de criptografia deve ser registrado para fins de auditoria. As chaves devem ser alternadas todos os anos. Qual solução atende a esses requisitos e é a MAIS eficiente em termos operacionais? A.Criptografia do lado do servidor com chaves fornecidas pelo cliente (SSE-C)B.Criptografia do lado do servidor com chaves gerenciadas do Amazon S3 (SSE-S3) C.Criptografia do lado do servidor com chaves AWS KMS (SSE-KMS) com rotação manualD.Criptografia do lado do servidor com chaves AWS KMS (SSE-KMS ) com rotação automática
Resposta selecionada: D A criptografia do lado do servidor com chaves AWS KMS (SSE-KMS) com rotação automática atende aos requisitos e é a solução mais eficiente operacionalmente. Esta opção permite que você use o AWS KMS para girar automaticamente as chaves a cada ano, o que simplifica o gerenciamento de chaves. Além disso, o uso da chave é registrado para fins de auditoria, e os dados são criptografados em repouso para atender aos requisitos de conformidade.
Uma empresa de compartilhamento de bicicletas está desenvolvendo uma arquitetura multicamadas para rastrear a localização de suas bicicletas durante os horários de pico de operação. A empresa deseja usar esses pontos de dados em sua plataforma de análise existente. Um arquiteto de soluções deve determinar a opção multicamadas mais viável para dar suporte a essa arquitetura. Os pontos de dados devem ser acessíveis pela API REST. Qual ação atende a esses requisitos para armazenar e recuperar dados de localização? A. Use o Amazon Athena com o Amazon S3.B. Use o Amazon API Gateway com o AWS Lambda.C. Use o Amazon QuickSight com o Amazon Redshift.D. Use o Amazon API Gateway com o Amazon Kinesis Data Analytics.
Resposta selecionada: D O Amazon API Gateway pode ser usado para criar uma API REST para acessar os dados. O Kinesis Data Analytics pode ser usado para processar e analisar os dados de localização em tempo real e transmiti-los para uma plataforma de análise existente. Esta solução forneceria uma maneira de lidar com fluxos de dados de localização de alto volume e executar análises em tempo real sobre eles. O Amazon Athena com Amazon S3 poderia ser usado para consultas ad-hoc e análise de dados armazenados no S3. Mas não seria uma solução em tempo real. O Amazon QuickSight com Amazon Redshift também pode ser usado para analisar dados armazenados no Redshift, mas, novamente, não seria uma solução em tempo real. O Amazon API Gateway com AWS Lambda pode ser usado para criar uma API REST, mas não forneceria uma maneira de processar e analisar os dados de localização em tempo real e transmiti-los para uma plataforma de análise existente.
Uma empresa tem um site de vendas de automóveis que armazena suas listagens em um banco de dados no Amazon RDS. Quando um automóvel é vendido, a listagem precisa ser removida do site e os dados devem ser enviados para vários sistemas de destino. Qual design um arquiteto de soluções deve recomendar? A. Criar uma função do AWS Lambda acionada quando o banco de dados no Amazon RDS for atualizado para enviar as informações para uma fila do Amazon Simple Queue Service (Amazon SQS) para os destinos consumirem.B. Criar uma função do AWS Lambda acionada quando o banco de dados no Amazon RDS for atualizado para enviar as informações para um Amazon Simple Queue Service (Amazon SQS)Fila FIFO para os alvos consumirem.C. Assine uma notificação de evento RDS e envie uma fila do Amazon Simple Queue Service (Amazon SQS) espalhada para vários tópicos do Amazon Simple Notification Service (Amazon SNS). Use funções do AWS Lambda para atualizar os alvos.D. Assine uma notificação de evento RDS e envie um tópico do Amazon Simple Notification Service (Amazon SNS) espalhado para várias filas do Amazon Simple Queue Service (Amazon SQS). Use as funções do AWS Lambda para atualizar os alvos.
Resposta selecionada: A Ponto interessante que a notificação de evento do Amazon RDS não suporta nenhuma notificação quando os dados dentro do BD são atualizados. https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Events.overview.html Portanto, a assinatura de eventos do RDS não fornece nenhum valor para Fanout = SNS => SQS B está fora porque FIFO não é necessário aqui. A é deixada como resposta correta
Uma empresa precisa armazenar dados no Amazon S3 e deve impedir que os dados sejam alterados. A empresa deseja que novos objetos carregados no Amazon S3 permaneçam inalteráveis por um período de tempo não específico até que a empresa decida modificá-los. Somente usuários específicos na conta AWS da empresa podem ter a capacidade de excluir os objetos. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Criar um cofre Glacier do S3. Aplique uma política de bloqueio de cofre de gravação única e leitura múltipla (WORM) aos objetos.B. Crie um bucket do S3 com o S3 Object Lock habilitado. Habilite o versionamento. Defina um período de retenção de 100 anos. Use o modo de governança como o modo de retenção padrão do bucket do S3 para novos objetos.C. Crie um bucket do S3. Use o AWS CloudTrail para rastrear quaisquer eventos da API do S3 que modifiquem os objetos. Após a notificação, restaure os objetos modificados de quaisquer versões de backup que a empresa tenha.D. Crie um bucket do S3 com o S3 Object Lock habilitado. Habilite o versionamento. Adicione uma retenção legal aos objetos. Adicione a permissão s3:PutObjectLegalHold às políticas do IAM de usuários que precisam excluir os objetos.
Resposta selecionada: D A - Não, pois usuários específicos podem excluir B - Não, pois período de tempo não específico C - Não, pois impede que os dados sejam alterados D - A resposta: A operação de retenção legal do Object Lock permite que você coloque uma retenção legal em uma versão de objeto. Assim como definir um período de retenção, uma retenção legal impede que uma versão de objeto seja substituída ou excluída. No entanto, uma retenção legal não tem um período de retenção associado e permanece em vigor até ser removida. https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-legal-hold.html
Uma empresa de mídia social permite que os usuários carreguem imagens em seu site. O site é executado em instâncias do Amazon EC2. Durante as solicitações de upload, o site redimensiona as imagens para um tamanho padrão e as armazena no Amazon S3. Os usuários estão enfrentando solicitações de upload lentas para o site. A empresa precisa reduzir o acoplamento dentro do aplicativo e melhorar o desempenho do site. Um arquiteto de soluções deve projetar o processo operacionalmente mais eficiente para uploads de imagens. Qual combinação de ações o arquiteto de soluções deve tomar para atender a esses requisitos? (Escolha duas.) A. Configure o aplicativo para carregar imagens no S3 Glacier.B. Configure o servidor web para carregar as imagens originais no Amazon S3.C. Configure o aplicativo para carregar imagens diretamente do navegador de cada usuário no Amazon S3 por meio do uso de uma URL pré-assinadaD. Configure as notificações de eventos do S3 para invocar uma função do AWS Lambda quando uma imagem for carregada. Use a função para redimensionar a imagem.E. Crie uma regra do Amazon EventBridge (Amazon CloudWatch Events) que invoque uma função do AWS Lambda em uma programação para redimensionar as imagens carregadas.
Resposta selecionada: CD Para atender aos requisitos de redução do acoplamento dentro do aplicativo e melhorar o desempenho do site, o arquiteto de soluções deve considerar tomar as seguintes ações: C. Configure o aplicativo para carregar imagens diretamente do navegador de cada usuário para o Amazon S3 por meio do uso de uma URL pré-assinada. Isso permitirá que o aplicativo carregue imagens diretamente para o S3 sem ter que passar pelo servidor da web, o que pode reduzir a carga no servidor da web e melhorar desempenho. D. Configure as Notificações de Eventos do S3 para invocar uma função do AWS Lambda quando uma imagem for carregada. Use a função para redimensionar a imagem. Isso permitirá que o aplicativo redimensione as imagens de forma assíncrona, em vez de ter que fazer isso de forma síncrona durante a solicitação de upload, o que pode melhorar o desempenho.
Uma empresa migrou recentemente um sistema de processamento de mensagens para a AWS. O sistema recebe mensagens em uma fila do ActiveMQ em execução em uma instância do Amazon EC2. As mensagens são processadas por um aplicativo do consumidor em execução no Amazon EC2. O aplicativo do consumidor processa as mensagens e grava os resultados em um banco de dados MySQL em execução no Amazon EC2. A empresa quer que esse aplicativo seja altamente disponível com baixa complexidade operacional. Qual arquitetura oferece a MAIOR disponibilidade? A. Adicione um segundo servidor ActiveMQ a outra Zona de Disponibilidade. Adicione uma instância EC2 do consumidor adicional em outra Zona de Disponibilidade. Replique o banco de dados MySQL para outra Zona de Disponibilidade.B. Use o Amazon MQ com brokers ativos/em espera configurados em duas Zonas de Disponibilidade. Adicione uma instância EC2 de consumidor adicional em outra Zona de Disponibilidade. Replique o banco de dados MySQL para outra Zona de Disponibilidade.C. Use o Amazon MQ com brokers ativos/em espera configurados em duas Zonas de Disponibilidade. Adicione uma instância EC2 de consumidor adicional em outra Zona de Disponibilidade. Use o Amazon RDS para MySQL com Multi-AZ habilitado.D. Use o Amazon MQ com brokers ativos/em espera configurados em duas Zonas de Disponibilidade. Adicione um grupo de Auto Scaling para as instâncias EC2 de consumidor em duas Zonas de Disponibilidade. Use o Amazon RDS para MySQL com Multi-AZ habilitado.
Resposta selecionada: D A opção D oferece a maior disponibilidade porque aborda todos os pontos potenciais de falha no sistema: O Amazon MQ com corretores ativos/em espera configurados em duas Zonas de Disponibilidade garante que a fila de mensagens esteja disponível mesmo se uma Zona de Disponibilidade sofrer uma interrupção. Um grupo de dimensionamento automático para as instâncias do EC2 do consumidor em duas zonas de disponibilidade garante que o aplicativo do consumidor seja capaz de continuar processando mensagens mesmo se uma zona de disponibilidade sofrer uma interrupção. O Amazon RDS para MySQL com Multi-AZ habilitado garante que o banco de dados esteja disponível mesmo se uma zona de disponibilidade sofrer uma interrupção.
Uma empresa hospeda um aplicativo da Web em contêiner em uma frota de servidores locais que processam solicitações de entrada. O número de solicitações está crescendo rapidamente. Os servidores locais não conseguem lidar com o aumento do número de solicitações. A empresa quer mover o aplicativo para a AWS com o mínimo de alterações de código e o mínimo de esforço de desenvolvimento. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Use o AWS Fargate no Amazon Elastic Container Service (Amazon ECS) para executar o aplicativo da Web em contêiner com o Service Auto Scaling. Use um Application Load Balancer para distribuir as solicitações de entrada.B. Use duas instâncias do Amazon EC2 para hospedar o aplicativo da Web em contêiner. Use um Application Load Balancer para distribuir as solicitações de entrada.C. Use o AWS Lambda com um novo código que usa uma das linguagens suportadas. Crie várias funções do Lambda para suportar a carga. Use o Amazon API Gateway como um ponto de entrada para as funções do Lambda.D. Use uma solução de computação de alto desempenho (HPC), como o AWS ParallelCluster, para estabelecer um cluster HPC que possa processar as solicitações recebidas na escala apropriada.
Resposta selecionada: A A melhor solução para atender aos requisitos com o mínimoa sobrecarga operacional é a Opção A: usar o AWS Fargate no Amazon Elastic Container Service (Amazon ECS) para executar o aplicativo Web em contêiner com o Service Auto Scaling. Use um Application Load Balancer para distribuir as solicitações recebidas.
Uma empresa usa 50 TB de dados para relatórios. A empresa quer mover esses dados do local para a AWS. Um aplicativo personalizado no data center da empresa executa um trabalho de transformação de dados semanal. A empresa planeja pausar o aplicativo até que a transferência de dados seja concluída e precisa iniciar o processo de transferência o mais rápido possível. O data center não tem largura de banda de rede disponível para cargas de trabalho adicionais. Um arquiteto de soluções deve transferir os dados e configurar o trabalho de transformação para continuar a ser executado na Nuvem AWS. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Use o AWS DataSync para mover os dados. Crie um trabalho de transformação personalizado usando o AWS Glue.B. Peça um dispositivo AWS Snowcone para mover os dados. Implante o aplicativo de transformação no dispositivo.C. Peça um dispositivo AWS Snowball Edge Storage Optimized. Copie os dados para o dispositivo. Crie um trabalho de transformação personalizado usando o AWS Glue.D. Peça um dispositivo AWS Snowball Edge Storage Optimized que inclua computação Amazon EC2. Copie os dados para o dispositivo. Crie uma nova instância EC2 na AWS para executar o aplicativo de transformação.
Resposta selecionada: C Usar a instância do EC2 criada no Snowball Edge para o trabalho de transformação fará isso uma vez. No entanto, o arquiteto da solução deve configurar o trabalho de transformação para continuar a ser executado na Nuvem AWS, portanto, é o AWS Glue
Uma empresa criou um aplicativo de análise de imagens no qual os usuários podem carregar fotos e adicionar molduras às suas imagens. Os usuários carregam imagens e metadados para indicar quais molduras desejam adicionar às suas imagens. O aplicativo usa uma única instância do Amazon EC2 e o Amazon DynamoDB para armazenar os metadados. O aplicativo está se tornando mais popular e o número de usuários está aumentando. A empresa espera que o número de usuários simultâneos varie significativamente dependendo da hora do dia e do dia da semana. A empresa deve garantir que o aplicativo possa ser dimensionado para atender às necessidades da crescente base de usuários. Qual solução atende a essas necessidades?requisitos? A. Use o AWS Lambda para processar as fotos. Armazene as fotos e metadados no DynamoDB.B. Use o Amazon Kinesis Data Firehose para processar as fotos e armazenar as fotos e metadados.C. Use o AWS Lambda para processar as fotos. Armazene as fotos no Amazon S3. Mantenha o DynamoDB para armazenar os metadados.D. Aumente o número de instâncias do EC2 para três. Use volumes Provisioned IOPS SSD (io2) Amazon Elastic Block Store (Amazon EBS) para armazenar as fotos e metadados.
Resposta selecionada: C A opção C envolve usar o AWS Lambda para processar as fotos e armazená-las no Amazon S3, que pode lidar com uma grande quantidade de dados e escalar para atender às necessidades da crescente base de usuários. Manter o DynamoDB para armazenar os metadados permite que o aplicativo continue a usar um banco de dados rápido e altamente disponível para essa finalidade.
Uma empresa de registros médicos está hospedando um aplicativo em instâncias do Amazon EC2. O aplicativo processa arquivos de dados do cliente que são armazenados no Amazon S3. As instâncias do EC2 são hospedadas em sub-redes públicas. As instâncias do EC2 acessam o Amazon S3 pela Internet, mas não exigem nenhum outro acesso à rede. Um novo requisito determina que o tráfego de rede para transferências de arquivos siga uma rota privada e não seja enviado pela Internet. Qual alteração na arquitetura de rede um arquiteto de soluções deve recomendar para atender a esse requisito? A. Crie um gateway NAT. Configure a tabela de rotas para as sub-redes públicas para enviar tráfego para o Amazon S3 por meio do gateway NAT.B. Configure o grupo de segurança para as instâncias do EC2 para restringir o tráfego de saída para que apenas o tráfego para a lista de prefixos do S3 seja permitido.C. Mova as instâncias do EC2 para sub-redes privadas. Crie um ponto de extremidade VPC para o Amazon S3 e vincule o ponto de extremidade à tabela de rotas para as sub-redes privadas.D. Remova o gateway de Internet do VPC. Configure uma conexão AWS Direct Connect e encaminhe o tráfego para o Amazon S3 pela conexão Direct Connect.
Resposta selecionada: C A resposta correta é C. Mova as instâncias do EC2 para sub-redes privadas. Crie um endpoint VPC para o Amazon S3 e vincule o endpoint à tabela de rotas para as sub-redes privadas. Para atender ao novo requisito de transferência de arquivos por uma rota privada, as instâncias do EC2 devem ser movidas para sub-redes privadas, que não têm acesso direto à Internet. Isso garante que o tráfego para transferências de arquivos não passe pela Internet. Para permitir que as instâncias do EC2 acessem o Amazon S3, um endpoint VPC para o Amazon S3 pode ser criado. Os endpoints VPC permitem que recursos dentro de um VPC se comuniquem com recursos em outros serviços sem que o tráfego seja enviado pela Internet. Ao vincular o endpoint da VPC à tabela de rotas para as sub-redes privadas, as instâncias do EC2 podem acessar o Amazon S3 por uma conexão privada dentro da VPC.
Uma empresa usa um sistema de gerenciamento de conteúdo (CMS) popular para seu site corporativo. No entanto, os patches e a manutenção necessários são onerosos. A empresa está redesenhando seu site e quer uma nova solução. O site será atualizado quatro vezes por ano e não precisa ter nenhum conteúdo dinâmico disponível. A solução deve fornecer alta escalabilidade e segurança aprimorada. Qual combinação de alterações atenderá a esses requisitos com a MENOR sobrecarga operacional? (Escolha duas.) A. Configure o Amazon CloudFront na frente do site para usar a funcionalidade HTTPS.B. Implemente uma ACL da Web do AWS WAF na frente do site para fornecer a funcionalidade HTTPS.C. Crie e implante uma função do AWS Lambda para gerenciar e servir o conteúdo do site.D. Crie o novo site e um bucket do Amazon S3. Implante o site no bucket do S3 com a hospedagem de site estático habilitada.E. Crie o novo site. Implante o site usando um grupo de Auto Scaling de instâncias do Amazon EC2 por trás de um Application Load Balancer.
Resposta selecionada: AD D. Crie o novo site e um bucket do Amazon S3. Implante o site no bucket do S3 com hospedagem de site estático habilitada. A. Configure o Amazon CloudFront na frente do site para usar a funcionalidade HTTPS. Ao implantar o site em um bucket do S3 com hospedagem de site estático habilitada, a empresa pode aproveitar a alta escalabilidade e a eficiência de custo do S3, ao mesmo tempo em que reduz a sobrecarga operacional de gerenciamento e aplicação de patches em um CMS. Ao configurar o Amazon CloudFront na frente do site, ele manipulará automaticamente a funcionalidade HTTPS, dessa forma a empresa pode ter um site seguro com sobrecarga operacional muito baixa.
Uma empresa armazena seus logs de aplicativos em um grupo de logs do Amazon CloudWatch Logs. Uma nova política exige que a empresa armazene todos os logs de aplicativos no Amazon OpenSearch Service (Amazon Elasticsearch Service) quase em tempo real. Qual solução atenderá a esse requisito com a MENOR sobrecarga operacional? A. Configure uma assinatura do CloudWatch Logs para transmitir os logs para o Amazon OpenSearch Service (Amazon Elasticsearch Service).B. Crie uma função do AWS Lambda. Use o grupo de logs para invocar a função para gravar os logs no Amazon OpenSearch Service (Amazon Elasticsearch Service).C. Crie um fluxo de entrega do Amazon Kinesis Data Firehose. Configure o grupo de logs como as fontes dos fluxos de entrega. Configure o Amazon OpenSearch Service (Amazon Elasticsearch Service) como o destino do fluxo de entrega.D. Instale e configure o Amazon Kinesis Agent em cada servidor de aplicativo para entregar os logs ao Amazon Kinesis Data Streams. Configure o Kinesis Data Streams para entregar os logs ao Amazon OpenSearch Service (Amazon Elasticsearch Service).
a resposta é A https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/CWL_OpenSearch_Stream.html > Você pode configurar um grupo de logs do CloudWatch Logs para transmitir dados recebidos para seu cluster do Amazon OpenSearch Service QUASE EM TEMPO REAL por meio de uma assinatura do CloudWatch Logs
Uma empresa está construindoum aplicativo baseado na web em execução em instâncias do Amazon EC2 em várias Zonas de Disponibilidade. O aplicativo da web fornecerá acesso a um repositório de documentos de texto totalizando cerca de 900 TB de tamanho. A empresa prevê que o aplicativo da web passará por períodos de alta demanda. Um arquiteto de soluções deve garantir que o componente de armazenamento para os documentos de texto possa ser dimensionado para atender à demanda do aplicativo em todos os momentos. A empresa está preocupada com o custo geral da solução. Qual solução de armazenamento atende a esses requisitos de forma MAIS econômica? A. Amazon Elastic Block Store (Amazon EBS)B. Amazon Elastic File System (Amazon EFS)C. Amazon OpenSearch Service (Amazon Elasticsearch Service)D. Amazon S3
Resposta selecionada: D D. Amazon S3 O Amazon S3 é um serviço de armazenamento de objetos que pode armazenar e recuperar grandes quantidades de dados a qualquer momento, de qualquer lugar na web. Ele foi projetado para alta durabilidade, escalabilidade e custo-benefício, tornando-o uma escolha adequada para armazenar um grande repositório de documentos de texto. Com o S3, você pode armazenar e recuperar qualquer quantidade de dados, a qualquer momento, de qualquer lugar na web, e pode aumentar ou diminuir seu armazenamento conforme necessário, o que ajudará a atender à demanda do aplicativo da web. Além disso, o S3 permite que você escolha entre diferentes classes de armazenamento, como padrão, acesso pouco frequente e arquivamento, o que permitirá que você otimize os custos com base no seu caso de uso específico.
Uma empresa global está usando o Amazon API Gateway para projetar APIs REST para seus usuários de clube de fidelidade na região us-east-1 e na região ap-southeast-2. Um arquiteto de soluções deve projetar uma solução para proteger essas APIs REST gerenciadas pelo API Gateway em várias contas contra ataques de injeção de SQL e script entre sites. Qual solução atenderá a esses requisitos com a MENOR quantidade de esforço administrativo? A. Configure o AWS WAF em ambas as regiões. Associe ACLs da web regionais a um estágio de API.B. Configure o AWS Firewall Manager em ambas as regiões. Configure centralmente as regras do AWS WAF.C. Configure o AWS Shield em regiões bath. Associe ACLs da web regionais a um estágio de API.D. Configure o AWS Shield em uma das regiões. Associar ACLs regionais da Web a um estágio de API.
Resposta selecionada: B Use o AWS WAF e configure uma regra gerenciada para bloquear padrões de solicitação associados à exploração de bancos de dados SQL, como ataques de injeção de SQL. Associe-o ao Application Load Balancer. Integre o AWS WAF ao AWS Firewall Manager para reutilizar as regras em todas as contas da AWS.
ema 1 Uma empresa implementou uma solução de DNS autoadministrado em três instâncias do Amazon EC2, além de um balanceador de carga de rede (NLB) na região us-west-2. A maioria dos usuários da empresa se encontra nos Estados Unidos e na Europa. A empresa deseja melhorar o desempenho e a disponibilidade da solução. A empresa lançou e configura três instâncias EC2 na região eu-west-1 e adiciona as instâncias EC2 como objetivos para um novo NLB. Qual solução pode usar a empresa para gerenciar o tráfego para todas as instâncias do EC2? A. Crie uma política de enrutamiento de geolocalização da Rota Amazônica 53 para enrutar as solicitudes a um dos NLB. Crie uma distribuição do Amazon CloudFront. Utilize o registro da rota 53 como origem da distribuição. B. Crie um acelerador padrão no AWS Global Accelerator. Crie grupos de terminais em us-west-2 e eu-west-1. Agregue os NLB como pontos finais para os grupos de pontos finais. C. Adjunto às direções IP metalúrgicos às seis instâncias EC2. Crie uma política de gerenciamento de geolocalização da Rota 53 da Amazônia para atender às solicitações de uma das seis instâncias EC2. Crie uma distribuição do Amazon CloudFront. Utilize o registro da rota 53 como origem da distribuição. D. Substitua o NLB pelos Application Load Balancers (ALB). Criar uma políticaRoteamento de latência do Amazon Route 53 ica para rotear solicitações para um dos dois ALBs. Crie uma distribuição do Amazon CloudFront. Use o registro da rota 53 como fonte de distribuição.
Resposta selecionada: B B. Crie um acelerador padrão no AWS Global Accelerator. Crie grupos de endpoints em us-west-2 e eu-west-1. Adicione os dois NLBs como terminais aos grupos de terminais. AWS Global Accelerator é um serviço que melhora a disponibilidade e o desempenho de aplicativos da Internet, roteando o tráfego para a região ideal da AWS para um determinado usuário. A empresa pode criar um acelerador padrão e criar grupos de endpoints em us-west-2 e eu-west-1. Em seguida, adicione os dois NLBs como terminais para os grupos de terminais. Isso permitirá que a empresa direcione o tráfego para todas as instâncias do EC2 com base na região ideal para o usuário.
Uma empresa está executando uma carga de trabalho de processamento de transações on-line (OLTP) na AWS. Essa carga de trabalho usa uma instância de banco de dados do Amazon RDS não criptografada em uma implantação Multi-AZ. Instantâneos diários do banco de dados são obtidos dessa instância. O que um arquiteto de soluções deve fazer para garantir que o banco de dados e os instantâneos sejam sempre criptografados no futuro? A. Criptografe uma cópia do snapshot de banco de dados mais recente. Substitua a instância de banco de dados existente restaurando o snapshot criptografado.B. Crie um novo snapshot criptografado. Volume do Amazon Elastic Block Store (Amazon EBS) e copie os snapshots para ele.C. Copie os snapshots e habilite a criptografia usando o AWS Key Management Service (AWS KMS) Restore. snapshot criptografado para uma instância de banco de dados existente.D. Copie os snapshots para um bucket do Amazon S3 que seja criptografado usando criptografia no lado do servidor com chaves gerenciadas do AWS Key Management Service (AWS KMS) (SSE-KMS) ).
Resposta selecionada: A Você pode ativar a criptografia para uma instância de banco de dados do Amazon RDS ao criá-la , mas não depois de criado. No entanto, você pode adicionar criptografia a uma instância de banco de dados não criptografada criando um snapshot da sua instância de banco de dados e, em seguida, criando uma cópia criptografada desse snapshot. Você pode então restaurar uma instância de banco de dados a partir do snapshot criptografado para obter uma cópia criptografada de sua instância de banco de dados original. https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/encrypt-an-existente-amazon-rds-for-postgresql-db-instance.html
Uma empresa quer construir uma infraestrutura de gerenciamento de chaves escalável para dar suporte a desenvolvedores que precisam criptografar dados em seus aplicativos. O que um arquiteto de soluções deve fazer para reduzir a carga operacional? A. Use autenticação multifator (MFA) para proteger as chaves de criptografia.B. Use o AWS Key Management Service (AWS KMS) para proteger as chaves de criptografia.C. Use o AWS Certificate Manager (ACM) para criar, armazenar e atribuir as chaves de criptografia.D. Use uma política do IAM para limitar o escopo de usuários que têm permissões de acesso para proteger as chaves de criptografia.
Resposta selecionada: B Se você é um desenvolvedor que precisa assinar digitalmente ou verificar dados usando chaves assimétricas, você deve usar o serviço para criar e gerenciar as chaves privadas que você precisa. Se você está procurando uma infraestrutura de gerenciamento de chaves escalável para dar suporte aos seus desenvolvedores e ao número crescente de aplicativos, você deve usá-la para reduzir seus custos de licenciamento e carga operacional… https://aws.amazon.com/kms/faqs/#:~:text=If%20you%20are%20a%20developer%20who%20needs%20to%20digitally,a%20broad%20set%20of%20industry%20and%20regional%20compliance%20regimes.
Uma empresa tem um aplicativo web dinâmico hospedado em duas instâncias do Amazon EC2. A empresa tem seu próprio certificado SSL, que está em cada instância para executar a terminação SSL. Houve um aumento no tráfego recentemente, e a equipe de operações determinou que a criptografia e a descriptografia SSL estão fazendo com que a capacidade de computação dos servidores da web atinja seu limite máximo. O que um arquiteto de soluções deve fazer para aumentar o desempenho do aplicativo? A. Criar um novo certificado SSL usando o AWS Certificate Manager (ACM). Instalar o certificado ACM em cada instância.B. Criar um bucket do Amazon S3 Migrar o certificado SSL para o bucket do S3. Configurar as instâncias do EC2 para referenciar o bucket para terminação SSL.C. Criar outra instância do EC2 como um servidor proxy. Migrar o certificado SSL para a nova instância e configurá-lo para direcionar conexões para as instâncias do EC2 existentes.D. Importar o certificado SSL para o AWS Certificate Manager (ACM). Crie um Application Load Balancer com um listener HTTPS que use o certificado SSL do ACM.
Resposta selecionada: D Esse problema é resolvido pelo descarregamento de SSL, ou seja, movendo a tarefa de terminação de SSL para o ALB. https://aws.amazon.com/blogs/aws/elastic-load-balancer-support-for-ssl-termination/
Uma empresa tem um trabalho de processamento em lote altamente dinâmico que usa muitas instâncias do Amazon EC2 para concluí-lo. O trabalho é sem estado por natureza, pode ser iniciado e interrompido a qualquer momento sem impacto negativo e normalmente leva mais de 60 minutos no total para ser concluído. A empresa pediu a um arquiteto de soluções para projetar uma solução escalável e econômica que atendesse aos requisitos do trabalho. O que o arquiteto de soluções deve recomendar? A. Implementar instâncias spot do EC2.B. Comprar instâncias reservadas do EC2.C. Implementar instâncias sob demanda do EC2.D. Implementar o processamento no AWS Lambda.
Resposta selecionada: A A resposta correta é a opção A. Para projetar uma solução escalável e econômica para o trabalho de processamento em lote, o arquiteto de soluções deve recomendar a implementação de instâncias spot do EC2. As instâncias spot do EC2 permitem que os usuários façam lances na capacidade de computação extra do Amazon EC2 e podem ser uma solução econômica para cargas de trabalho sem estado e interrompíveis que podem ser iniciadas e interrompidas a qualquer momento. Como o trabalho de processamento em lote não tem estado, pode ser iniciado e interrompido a qualquer momento e normalmente leva mais de 60 minutos para ser concluído, as instâncias spot do EC2 seriam uma boa opção para essa carga de trabalho.
Uma empresa executa seu site de comércio eletrônico de duas camadas na AWS. A camada da web consiste em um balanceador de carga que envia tráfego para instâncias do Amazon EC2. A camada do banco de dados usa uma instância do Amazon RDS DB. As instâncias do EC2 e a instância do RDS DB não devem ser expostas à Internet pública. As instâncias do EC2 exigem acesso à Internet para concluir o processamento de pagamento de pedidos por meio de um serviço da Web de terceiros. O aplicativo deve estar altamente disponível. Qual combinação de opções de configuração atenderá a esses requisitos? (Escolha duas.) A. Use um grupo de Auto Scaling para iniciar as instâncias do EC2 em sub-redes privadas. Implante uma instância do RDS Multi-AZ DB em sub-redes privadas.B. Configure uma VPC com duas sub-redes privadas e dois gateways NAT em duas Zonas de Disponibilidade. Implante um Application Load Balancer nas sub-redes privadas.C. Use um grupo de Auto Scaling para iniciar as instâncias do EC2 em sub-redes públicas em duas Zonas de Disponibilidade. Implante uma instância do RDS Multi-AZ DB em sub-redes privadas.D. Configure uma VPC com uma sub-rede pública, uma sub-rede privada e dois gateways NAT em duas Zonas de Disponibilidade. Implante um Application Load Balancer na sub-rede pública. D. Configure uma VPC com duas sub-redes públicas, duas sub-redes privadas e dois gateways NAT em duas Zonas de Disponibilidade. Implante um Application Load Balancer nas sub-redes públicas.
Resposta selecionada: AB A. Use um grupo de Auto Scaling para iniciar as instâncias EC2 em sub-redes privadas. Implante uma instância RDS Multi-AZ DB em sub-redes privadas. B. Configure uma VPC com duas sub-redes privadas e dois gateways NAT em duas Zonas de Disponibilidade. Implante um Application Load Balancer nas sub-redes privadas. A opção A atende ao requisito de manter as instâncias EC2 e a instância RDS DB privadas iniciando-as em sub-redes privadas. A opção B atende ao requisito de fornecer acesso à Internet para as instâncias do EC2 para processamento de pagamento configurando gateways NAT no VPC e também atende ao requisito de alta disponibilidade implantando o Application Load Balancer em várias zonas de disponibilidade.
Um arquiteto de soluções precisa implementar uma solução para reduzir os custos de armazenamento de uma empresa. Todos os dados da empresa estão na classe de armazenamento Amazon S3 Standard. A empresa deve manter todos os dados por pelo menos 25 anos. Os dados dos 2 anos mais recentes devem estar altamente disponíveis e imediatamente recuperáveis. Qual solução atenderá a esses requisitos? A. Configure uma política de ciclo de vida do S3 para fazer a transição de objetos para o S3 Glacier Deep Archive imediatamente.B. Configure uma política de ciclo de vida do S3 para fazer a transição de objetos para o S3 Glacier Deep Archive após 2 anos.C. Use o S3 Intelligent-Tiering. Ative a opção de arquivamento para garantir que os dados sejam arquivados no S3 Glacier Deep Archive.D. Configure uma política de ciclo de vida do S3 para fazer a transição de objetos para o S3 One Zone-Infrequent Access (S3 One Zone-IA) imediatamente e para o S3 Glacier DArquivo eep após 2 anos.
Resposta selecionada: B B é a única resposta correta. C não é indicado arquivado após 2 anos. Se especificar 2 anos, então C também seria uma opção.
Uma empresa de mídia está avaliando a possibilidade de mover seus sistemas para a Nuvem AWS. A empresa precisa de pelo menos 10 TB de armazenamento com o máximo desempenho de E/S possível para processamento de vídeo, 300 TB de armazenamento muito durável para armazenar conteúdo de mídia e 900 TB de armazenamento para atender aos requisitos de mídia de arquivamento que não está mais em uso. Qual conjunto de serviços um arquiteto de soluções deve recomendar para atender a esses requisitos? A. Amazon EBS para desempenho máximo, Amazon S3 para armazenamento de dados duráveis e Amazon S3 Glacier para armazenamento de arquivamentoB. Amazon EBS para desempenho máximo, Amazon EFS para armazenamento de dados duráveis e Amazon S3 Glacier para armazenamento de arquivamentoC. Amazon EC2 instance store para desempenho máximo, Amazon EFS para armazenamento de dados duráveis e Amazon S3 para armazenamento de arquivamentoD. Amazon EC2 instance store para desempenho máximo, Amazon S3 para armazenamento de dados duráveis e Amazon S3 Glacier para armazenamento de arquivo
Resposta selecionada: D O armazenamento máximo de instância possível no momento é de 30 TB para NVMe, que tem a maior E/S em comparação com o EBS. is4gen.8xlarge 4 x 7.500 GB (30 TB) NVMe SSD https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/InstanceStorage.html#instance-store-volumes
A company quer executar aplicativos em contêineres na Nuvem AWS. Esses aplicativos são stateless e podem tolerar interrupções dentro da infraestrutura subjacente. A empresa precisa de uma solução que minimize os custos e a sobrecarga operacional. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Use instâncias spot em um grupo de dimensionamento automático do Amazon EC2 para executar os contêineres do aplicativo.B. Use instâncias spot em um grupo de nós gerenciados do Amazon Elastic Kubernetes Service (Amazon EKS).C. Use instâncias sob demanda em um grupo de dimensionamento automático do Amazon EC2 para executar os contêineres do aplicativo.D. Use instâncias sob demanda em um grupo de nós gerenciados do Amazon Elastic Kubernetes Service (Amazon EKS).
Resposta selecionada: B A e B estão funcionando, mas os requisitos têm sobrecarga operacional. O EKS permitiria que a empresa usasse o Amazon EKS para gerenciar os aplicativos em contêineres.
Uma empresa está executando um aplicativo da Web multicamadas no local. O aplicativo da Web é em contêiner e é executado em vários hosts Linux conectados a um banco de dados PostgreSQL que contém registros de usuários. A sobrecarga operacional de manutenção da infraestrutura e do planejamento de capacidade está limitando o crescimento da empresa. Um arquiteto de soluções deve melhorar a infraestrutura do aplicativo. Qual combinação de ações o arquiteto de soluções deve tomar para realizar isso? (Escolha duas.) A. Migre o banco de dados PostgreSQL para o Amazon Aurora.B. Migre o aplicativo da web para ser hospedado em instâncias do Amazon EC2.C. Configure uma distribuição do Amazon CloudFront para o conteúdo do aplicativo da web.D. Configure o Amazon ElastiCache entre o aplicativo da web e o banco de dados PostgreSQL.E. Migre o aplicativo da web para ser hospedado no AWS Fargate com o Amazon Elastic Container Service (Amazon ECS).
Resposta selecionada: AE Eu diria A e E, já que Aurora e Fargate são serverless (menos sobrecarga operacional).
Um aplicativo é executado em instâncias do Amazon EC2 em várias Zonas de Disponibilidade. As instâncias são executadas em um grupo de dimensionamento automático do Amazon EC2 por trás de um balanceador de carga de aplicativo. O aplicativo tem melhor desempenho quando a utilização da CPU das instâncias do EC2 está em ou perto de 40%. O que um arquiteto de soluções deve fazer para manter o desempenho desejado em todas as instâncias do grupo? A. Use uma política de dimensionamento simples para dimensionar dinamicamente o grupo de dimensionamento automático.B. Use uma política de rastreamento de destino para dimensionar dinamicamente o grupo de dimensionamento automático.C. Use uma função do AWS Lambda para atualizar a capacidade desejada do grupo de dimensionamento automático.D. Use ações de dimensionamento programadas para aumentar e diminuir o grupo de dimensionamento automático.
Resposta selecionada: B B parece ser a resposta correta. Com uma política de dimensionamento de rastreamento de destino, você pode aumentar ou diminuir a capacidade atual do grupo com base em um valor de destino para uma métrica específica. Esta política ajudará a resolver o excesso de provisionamento de seus recursos. A política de dimensionamento adiciona ou remove capacidade conforme necessário para manter a métrica em, ou perto de, o valor de destino especificado. Além de manter a métrica próxima do valor de destino, uma política de dimensionamento de rastreamento de destino também se ajusta a alterações na métrica devido a um padrão de carga em mudança.
Uma empresa está desenvolvendo um aplicativo de compartilhamento de arquivos que usará um bucket do Amazon S3 para armazenamento. A empresa deseja servir todos os arquivos por meio de uma distribuição do Amazon CloudFront. A empresa não quer que os arquivos sejam acessíveis por meio da navegação direta para a URL do S3. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Escreva políticas individuais para cada bucket do S3 para conceder permissão de leitura somente para acesso ao CloudFront.B. Crie um usuário do IAM. Conceda ao usuário permissão de leitura para objetos no bucket do S3. Atribua o usuário ao CloudFront.C. Escreva uma política de bucket do S3 que atribua o ID de distribuição do CloudFront como Principal e atribua o bucket do S3 de destino como o Amazon Resource Name (ARN).D. Crie uma identidade de acesso de origem (OAI). Atribua a OAI à distribuição do CloudFront. Configure as permissões do bucket S3 para que somente o OAI tenha permissão de leitura.
Resposta selecionada: D Quero restringir o acesso ao meu bucket do Amazon Simple Storage Service (Amazon S3) para que os objetos possam ser acessados somente por meio da minha distribuição do Amazon CloudFront. Como posso fazer isso? Crie uma identidade de acesso de origem (OAI) do CloudFront https://aws.amazon.com/premiumsupport/knowledge-center/cloudfront-access-to-amazon-s3/
O site de uma empresa fornece aos usuários relatórios de desempenho histórico para download. O site precisa de uma solução que seja dimensionada para atender às demandas do site da empresa globalmente. A solução deve ser econômica, limitar o provisionamento de recursos de infraestrutura e fornecer o tempo de resposta mais rápido possível. Qual combinação um arquiteto de soluções deve recomendar para atender a esses requisitos? A. Amazon CloudFront e Amazon S3B. AWS Lambda e Amazon DynamoDBC. Balanceador de carga de aplicativo com dimensionamento automático do Amazon EC2D. Amazon Route 53 com balanceadores de carga de aplicativo internos
A é a resposta correta A solução deve ser econômica, limitar o provisionamento de recursos de infraestrutura e fornecer o tempo de resposta mais rápido possível.
Uma empresa executa um banco de dados Oracle no local. Como parte da migração da empresa para a AWS, a empresa quer atualizar o banco de dados para a versão mais recente disponível. A empresa também quer configurar a recuperação de desastres (DR) para o banco de dados. A empresa precisa minimizar a sobrecarga operacional para operações normais e configuração de DR. A empresa também precisa manter o acesso ao sistema operacional subjacente do banco de dados. Qual solução atenderá a esses requisitos? A. Migre o banco de dados Oracle para uma instância do Amazon EC2. Configure a replicação do banco de dados para uma região diferente da AWS.B. Migre o banco de dados Oracle para o Amazon RDS para Oracle. Ative os backups automatizados entre regiões para replicar os snapshots para outra região da AWS.C. Migre o banco de dados Oracle para o Amazon RDS Custom para Oracle. Crie uma replicação de leituraica para o banco de dados em outra região da AWS.D. Migre o banco de dados Oracle para o Amazon RDS para Oracle. Crie um banco de dados standby em outra zona de disponibilidade.
Resposta selecionada: C Deve ser C: https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/rds-custom.html e https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/working-with-custom-oracle.html
Uma empresa quer mover seu aplicativo para uma solução sem servidor. A solução sem servidor precisa analisar dados existentes e novos usando SL. A empresa armazena os dados em um bucket do Amazon S3. Os dados exigem criptografia e devem ser replicados para uma região diferente da AWS. Qual solução atenderá a esses requisitos com a MENOR sobrecarga operacional? A. Crie um novo bucket S3. Carregue os dados no novo bucket S3. Use a replicação entre regiões (CRR) do S3 para replicar objetos criptografados para um bucket S3 em outra região. Use a criptografia do lado do servidor com chaves multirregionais do AWS KMS (SSE-KMS). Use o Amazon Athena para consultar os dados.B. Crie um novo bucket S3. Carregue os dados no novo bucket S3. Use a replicação entre regiões (CRR) do S3 para replicar objetos criptografados para um bucket S3 em outra região. Use a criptografia do lado do servidor com chaves multirregionais do AWS KMS (SSE-KMS). Use o Amazon RDS para consultar os dados.C. Carregue os dados no bucket S3 existente. Use a replicação entre regiões (CRR) do S3 para replicar objetos criptografados para um bucket do S3 em outra região. Use a criptografia do lado do servidor com chaves de criptografia gerenciadas pelo Amazon S3 (SSE-S3). Use o Amazon Athena para consultar os dados.D. Carregue os dados no bucket do S3 existente. Use a replicação entre regiões (CRR) do S3 para replicar objetos criptografados para um bucket do S3 em outra região. Use a criptografia do lado do servidor com chaves de criptografia gerenciadas pelo Amazon S3 (SSE-S3). Use o Amazon RDS para consultar os dados.
Resposta selecionada: C SSE-KMS vs SSE-S3 - O último parece ter menos sobrecarga (já que as chaves são geradas automaticamente pelo S3 e aplicadas aos dados no upload, e não exigem ações adicionais. O KMS fornece mais flexibilidade, mas, por sua vez, envolve um serviço diferente, que finalmente é mais complexo do que apenas gerenciar um (S3). Portanto, A e B são excluídos. Se você estiver em dúvida, você está tendo 2 buckets em A e B, enquanto mantém apenas um em C e D. https://s3browser.com/server-side-encryption-types.aspx Decidir entre C e D é decidir entre Athena ou RDS. O RDS é um banco de dados relacional, e temos documentos no S3, que é o caso de uso do Athena. O Athena também é sem servidor, o que elimina a necessidade de controlar a infraestrutura e a capacidade subjacentes. Então C é a resposta. https://aws.amazon.com/athena/
Uma empresa executa cargas de trabalho na AWS. A empresa precisa se conectar a um serviço de um provedor externo. O serviço é hospedado na VPC do provedor. De acordo com a equipe de segurança da empresa, a conectividade deve ser privada e deve ser restrita ao serviço de destino. A conexão deve ser iniciada apenas na VPC da empresa. Qual solução atenderá a esses requisitos? A. Crie uma conexão de peering de VPC entre a VPC da empresa e a VPC do provedor. Atualize a tabela de rotas para se conectar ao serviço de destino.B. Peça ao provedor para criar um gateway privado virtual em sua VPC. Use o AWS PrivateLink para se conectar ao serviço de destino.C. Crie um gateway NAT em uma sub-rede pública do VPS da empresaAtualize a tabela de rotas para se conectar ao serviço de destino.D. Peça ao provedor para criar um endpoint VPC para o serviço de destino. Use o AWS PrivateLink para se conectar ao serviço de destino.
Resposta selecionada: D O AWS PrivateLink fornece conectividade privada entre VPCs, serviços da AWS e suas redes locais, sem expor seu tráfego à Internet pública. O AWS PrivateLink facilita a conexão de serviços em diferentes contas e VPCs para simplificar significativamente sua arquitetura de rede. Interface VPC endpoints, com tecnologia AWS PrivateLink, conectam você a serviços hospedados por parceiros da AWS e soluções com suporte disponíveis no AWS Marketplace. https://aws.amazon.com/privatelink/
Uma empresa está migrando seu banco de dados PostgreSQL local para o Amazon Aurora PostgreSQL. O banco de dados local deve permanecer online e acessível durante a migração. O banco de dados Aurora deve permanecer sincronizado com o banco de dados local. Qual combinação de ações um arquiteto de soluções deve tomar para atender a esses requisitos? (Escolha duas.) A. Criar uma tarefa de replicação contínua.B. Criar um backup do banco de dados local.C. Criar um servidor de replicação do AWS Database Migration Service (AWS DMS).D. Converter o esquema do banco de dados usando a AWS Schema Conversion Tool (AWS SCT).E. Criar uma regra do Amazon EventBridge (Amazon CloudWatch Events) para monitorar a sincronização do banco de dados.
Resposta selecionada: A e C O AWS Database Migration Service (AWS DMS) ajuda você a migrar bancos de dados para a AWS de forma rápida e segura. O banco de dados de origem permanece totalmente operacional durante a migração, minimizando o tempo de inatividade para aplicativos que dependem do banco de dados. … Com o AWS Database Migration Service, você também pode replicar dados continuamente com baixa latência de qualquer origem compatível para qualquer destino compatível. https://aws.amazon.com/dms
Uma empresa usa o AWS Organizations para criar contas AWS dedicadas para cada unidade de negócios para gerenciar a conta de cada unidade de negócios de forma independente mediante solicitação. O destinatário do e-mail raiz perdeu uma notificação que foi enviada para o endereço de e-mail do usuário raiz de uma conta. A empresa quer garantir que todas as notificações futuras não sejam perdidas. As notificações futuras devem ser limitadas aos administradores de conta. Qual solução atenderá a esses requisitos? A. Configure o servidor de e-mail da empresa para encaminhar mensagens de e-mail de notificação que são enviadas para o endereço de e-mail do usuário raiz da conta da AWS para todos os usuários na organização.B. Configure todos os endereços de e-mail do usuário raiz da conta da AWS como listas de distribuição que vão para alguns administradores que podem responder aos alertas. Configure os contatos alternativos da conta da AWS no console do AWS Organizations ou programaticamente.C. Configure todas as mensagens de e-mail do usuário raiz da conta da AWS para serem sent para um administrador que é responsável por monitorar alertas e encaminhar esses alertas para os grupos apropriados.D. Configure todas as contas AWS existentes e todas as contas recém-criadas para usar o mesmo endereço de e-mail do usuário raiz. Configure os contatos alternativos da conta AWS no console do AWS Organizations ou programaticamente.
Resposta selecionada: B Use um endereço de e-mail de grupo para o usuário raiz da conta de gerenciamento https://docs.aws.amazon.com/organizations/latest/userguide/orgs_best-practices_mgmt-acct.html#best-practices_mgmt-acct_email-address
Uma empresa executa seu aplicativo de comércio eletrônico na AWS. Cada novo pedido é publicado como uma mensagem em uma fila RabbitMQ que é executada em uma instância do Amazon EC2 em uma única Zona de Disponibilidade. Essas mensagens são processadas por um aplicativo diferente que é executado em uma instância separada do EC2. Este aplicativo armazena os detalhes em um banco de dados PostgreSQL em outra instância do EC2. Todas as instâncias do EC2 estão na mesma Zona de Disponibilidade. A empresa precisa redesenhar sua arquitetura para fornecer a mais alta disponibilidade com a menor sobrecarga operacional. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Migre a fila para um par redundante (ativo/em espera) de instâncias do RabbitMQ no Amazon MQ. Crie um grupo de Auto Scaling Multi-AZ para instâncias do EC2 que hospedam o aplicativo. Crie outro grupo de Auto Scaling Multi-AZ para instâncias do EC2 que hospedam o banco de dados PostgreSQL.B. Migre a fila para um par redundante (ativo/em espera) de instâncias do RabbitMQ no Amazon MQ. Crie um grupo de dimensionamento automático Multi-AZ para instâncias do EC2 que hospedam o aplicativo. Migre o banco de dados para ser executado em uma implantação Multi-AZ do Amazon RDS para PostgreSQL.C. Crie um grupo de dimensionamento automático Multi-AZ para instâncias do EC2 que hospedam a fila RabbitMQ. Crie outro grupo de dimensionamento automático Multi-AZ para instâncias do EC2 que hospedam o aplicativo. Migre o banco de dados para ser executado em uma implantação Multi-AZ do Amazon RDS para PostgreSQL.D. Crie um grupo de dimensionamento automático Multi-AZ para instâncias do EC2 que hospedam a fila RabbitMQ. Crie outro grupo de dimensionamento automático Multi-AZ para instâncias do EC2 que hospedam o aplicativo. Crie um terceiro grupo de dimensionamento automático Multi-AZ para instâncias do EC2 que hospedam o Posbanco de dados tgreSQL
Resposta selecionada: B Migrar para o Amazon MQ reduz a sobrecarga no gerenciamento de filas. C e D são descartados. Decidir entre A e B significa decidir ir para um grupo de AutoScaling para EC2 ou um RDS para Postgress (ambos multi-AZ). A opção RDS tem menos impacto operacional, pois fornece como um serviço as ferramentas e o software necessários. Considere, por exemplo, o esforço para adicionar um nó adicional, como uma réplica de leitura, ao BD. https://docs.aws.amazon.com/amazon-mq/latest/developer-guide/active-standby-broker-deployment.html https://aws.amazon.com/rds/postgresql/
Uma equipe de relatórios recebe arquivos todos os dias em um bucket do Amazon S3. A equipe de relatórios revisa e copia manualmente os arquivos desse bucket inicial do S3 para um bucket de análise do S3 todos os dias no mesmo horário para usar com o Amazon QuickSight. Equipes adicionais estão começando a enviar mais arquivos em tamanhos maiores para o bucket inicial do S3. A equipe de relatórios deseja mover os arquivos automaticamente para o bucket inicial do S3 conforme os arquivos entram no bucket inicial do S3. A equipe de relatórios também deseja usar funções do AWS Lambda para executar código de correspondência de padrões nos dados copiados. Além disso, a equipe de relatórios deseja enviar os arquivos de dados para um pipeline no Amazon SageMaker Pipelines. O que um arquiteto de soluções deve fazer para atender a esses requisitos com a MENOR sobrecarga operacional? A. Crie uma função Lambda para copiar os arquivos para o bucket S3 de análise. Crie uma notificação de evento S3 para o bucket S3 de análise. Configure o Lambda e o SageMaker Pipelines como destinos da notificação de evento. Configure s3:ObjectCreated:Put como o tipo de evento.B. Crie uma função Lambda para copiar os arquivos para o bucket S3 de análise. Configure o bucket S3 de análise para enviar notificações de evento para o Amazon EventBridge(Amazon CloudWatch Events). Configure uma regra ObjectCreated no EventBridge (CloudWatch Events). Configure os pipelines Lambda e SageMaker como alvos para a regra.C. Configure a replicação S3 entre os buckets S3. Crie uma notificação de evento S3 para o bucket S3 de análise. Configure os pipelines Lambda e SageMaker como destinos da notificação de evento. Configure s3:ObjectCreated:Put como o tipo de evento.D. Configure a replicação S3 entre os buckets S3. Configure o bucket S3 de análise para enviar notificações de evento para o Amazon EventBridge (Amazon CloudWatch Events). Configure uma regra ObjectCreated no EventBridge (CloudWatch Events). Configurar os pipelines do Lambda e do SageMaker como alvos para a regra
Resposta selecionada: D Eu vou para D aqui A e B dizem que você está copiando o arquivo para outro bucket usando lambda, C e D apenas usam replicação S3 para copiar os arquivos, Eles estão fazendo exatamente a mesma coisa, enquanto C e D não exigem configuração de lambda, o que deve ser mais eficiente A questão diz que a equipe está copiando manualmente os arquivos, replicar automaticamente os arquivos deve ser o método mais eficiente em comparação com a cópia manual ou cópia com lambda.
Um arquiteto de soluções precisa ajudar uma empresa a otimizar o custo de execução um aplicativo na AWS. O aplicativo usará instâncias do Amazon EC2, AWS Fargate e AWS Lambda para computação dentro da arquitetura. As instâncias do EC2 executarão a camada de ingestão de dados do aplicativo. O uso do EC2 será esporádico e imprevisível. Carga de trabalhods que rodam em instâncias EC2 podem ser interrompidos a qualquer momento. O front-end do aplicativo rodará no Fargate, e o Lambda servirá a camada de API. A utilização do front-end e da camada de API será previsível ao longo do próximo ano. Qual combinação de opções de compra fornecerá a solução MAIS econômica para hospedar este aplicativo? (Escolha duas.) A. Use instâncias Spot para a camada de ingestão de dadosB. Use instâncias On-Demand para a camada de ingestão de dadosC. Compre um Compute Savings Plan de 1 ano para o front-end e a camada de API.D. Compre instâncias All Upfront Reserved de 1 ano para a camada de ingestão de dados.E. Compre um EC2 instance Savings Plan de 1 ano para o front-end e a camada de API.
Resposta selecionada: A&C O EC2 instance Savings Plan economiza 72%, enquanto o Compute Savings Plans economiza 66%. Mas, de acordo com o link, ele diz Compute Savings Plans fornecem a maior flexibilidade e ajudam a reduzir seus custos em até 66%. Esses planos se aplicam automaticamente ao uso da instância EC2, independentemente da família da instância, tamanho, AZ, região, SO ou locação, e também se aplicam ao uso de Fargate e Lambda. Os EC2 instance Savings Plans não são aplicados ao Fargate ou Lambda
Uma empresa administra um portal baseado na web que fornece aos usuários notícias de última hora globais, alertas locais e atualizações meteorológicas. O portal oferece a cada usuário uma visão personalizada usando uma mistura de conteúdo estático e dinâmico. O conteúdo é servido por HTTPS por meio de um servidor de API em execução em uma instância do Amazon EC2 por trás de um Application Load Balancer (ALB). A empresa quer que o portal forneça esse conteúdo aos seus usuários em todo o mundo o mais rápido possível. Como um arquiteto de soluções deve projetar o aplicativo para garantir a MENOR quantidade de latência para todos os usuários? A. Implante a pilha de aplicativos em uma única região da AWS. Use o Amazon CloudFront para servir todo o conteúdo estático e dinâmico especificando o ALB como uma origem.B. Implante a pilha de aplicativos em duas regiões da AWS. Use uma política de roteamento de latência do Amazon Route 53 para servir todo o conteúdo do ALB na região mais próxima.C. Implante a pilha de aplicativos em uma única região da AWS. Use o Amazon CloudFront para servir o conteúdo estático. Sirva o conteúdo dinâmico diretamente do ALB.D. Implante a pilha de aplicativos em duas regiões da AWS. Use uma ge do Amazon Route 53política de roteamento de olocação para servir todo o conteúdo do ALB na região mais próxima.
Resposta selecionada : A Amazon CloudFront é um serviço web que acelera a distribuição de seu conteúdo estático e dinâmico da web https://www.examtopics.com/discussions/amazon/view/81081-exam-aws-certified-solutions-architect-associate-saa-c02/
Uma empresa de jogos está projetando uma arquitetura altamente disponível. O aplicativo é executado em um kernel Linux modificado e oferece suporte apenas ao tráfego baseado em UDP. A empresa precisa da camada de front-end para fornecer a melhor experiência de usuário possível. Essa camada deve ter baixa latência, rotear o tráfego para o ponto de presença mais próximo e fornecer endereços IP estáticos. para entrada nos endpoints do aplicativo. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Configurar o Amazon Route 53 para encaminhar solicitações para um Application Load Balancer . Use o AWS Lambda para o aplicativo no AWS Application Auto Scaling.B. Configure o Amazon CloudFront para encaminhar solicitações para um Network Load Balancer Use o AWS Lambda para o aplicativo em um grupo do AWS Application Auto Scaling. C.Configure o AWS Global Accelerator para encaminhar solicitações para um Network Load Balancer Use instâncias do Amazon EC2 para o aplicativo em um grupo do EC2 Auto Scaling.D. Configurar. Amazon API Gateway para encaminhar solicitações para um Application Load Balancer. Use instâncias do Amazon EC2 para o aplicativo em um grupo do EC2 Auto Scaling.
Resposta correta: C AWS Global Accelerator e Amazon CloudFront são serviços separados que usam a rede global da AWS e seus pontos de presença em todo o mundo. O CloudFront melhora o desempenho de conteúdo armazenável em cache (como imagens e vídeos) e de conteúdo dinâmico (como aceleração de API e entrega dinâmica de sites). O Global Accelerator melhora o desempenho de uma ampla variedade de aplicações via TCP ou UDP, fazendo proxy de pacotes na borda para aplicações executadas em uma ou mais regiões da AWS. O Global Accelerator é uma boa opção para casos de uso não HTTP, como jogos (UDP), IoT (MQTT) ou voz sobre IP, bem como para casos de uso HTTP que exigem especificamente endereços IP estáticos ou failover regional rápido e determinístico. Ambos os serviços se integram ao AWS Shield para proteção contra DDoS.
Uma empresa deseja migrar seu aplicativo monolítico local existente para AWS. A empresa deseja manter o máximo possível do código de front-end e de back-end. No entanto, a empresa deseja dividir o aplicativo em aplicativos menores. solução que minimiza a sobrecarga operacional. Qual solução atenderá a esses requisitos? A. Hospede o aplicativo no AWS Lambda Integre o aplicativo ao Amazon API Gateway.B.Hospede o aplicativo com o AWS Amplify Conecte o aplicativo a uma API do Amazon API Gateway integrada ao AWS Lambda.C.Hospede o aplicativo em instâncias do Amazon EC2. . Configure um Application Load Balancer com instâncias do EC2 em um grupo de Auto Scaling como destinos.D.Hospede o aplicativo no Amazon Elastic Container Service (Amazon ECS). Configure um Application Load Balancer com o Amazon ECS como destino.
Resposta selecionada: D D é um padrão orgânico, lift and shift, decomposto em contêineres, primeiro fazendo uso máximo do código existente, enquanto novos recursos podem ser adicionados ao longo do tempo com lambda+api gw mais tarde. A é um padrão bissexto. exigindo refatoraçãotodo o código de cima
Uma empresa começou recentemente a usar o Amazon Aurora como armazenamento de dados para seu aplicativo de comércio eletrônico global. Quando grandes relatórios são executados, os desenvolvedores relatam que o aplicativo de comércio eletrônico está com desempenho ruim. Após analisar as métricas no Amazon CloudWatch, um arquiteto de soluções descobre que as métricas ReadIOPS e CPUUtilizalion estão aumentando quando os relatórios mensais são executados. Qual é a solução MAIS econômica? A. Migrar os relatórios mensais para o Amazon Redshift.B. Migrar os relatórios mensais para uma réplica do Aurora.C. Migrar o banco de dados do Aurora para uma classe de instância maior.D. Aumentar o IOPS provisionado na instância do Aurora.
Resposta selecionada: B Migrar os relatórios mensais para uma réplica do Aurora pode ser a solução mais econômica porque envolve a criação de uma cópia somente leitura do banco de dados que pode ser usada especificamente para executar relatórios grandes sem afetar o desempenho do banco de dados principal. Essa solução permite que a empresa dimensione a capacidade de leitura do banco de dados sem incorrer em custos adicionais de hardware ou E/S.
Uma empresa hospeda um aplicativo de análise de site em uma única instância do Amazon EC2 On-Demand. O software de análise é escrito em PHP e usa um banco de dados MySQL. O software de análise, o servidor da Web que fornece PHP e o servidor de banco de dados são todos hospedados na instância do EC2. O aplicativo está mostrando sinais de degradação de desempenho durante os períodos de pico e está apresentando erros 5xx. A empresa precisa fazer o aplicativo escalar perfeitamente. Qual solução atenderá a esses requisitos de forma MAIS econômica? A. Migre o banco de dados para uma instância do Amazon RDS for MySQL DB. Crie uma AMI do aplicativo da Web. Use a AMI para iniciar uma segunda instância do EC2 On-Demand. Use um Application Load Balancer para distribuir a carga para cada instância do EC2.B. Migre o banco de dados para uma instância do Amazon RDS for MySQL DB. Crie uma AMI do aplicativo da Web. Use a AMI para iniciar uma segunda instância do EC2 On-Demand. Use o roteamento ponderado do Amazon Route 53 para distribuir a carga entre as duas instâncias do EC2.C. Migre o banco de dados para uma instância do Amazon Aurora MySQL DB. Crie uma função do AWS Lambda para interromper a instância do EC2 e alterar o tipo de instância. Crie um alarme do Amazon CloudWatch para invocar a função Lambda quando a utilização da CPU ultrapassar 75%.D. Migre o banco de dados para uma instância do Amazon Aurora MySQL DB. Crie uma AMI do aplicativo da Web. Aplique a AMI a um modelo de inicialização. Crie um grupo de Auto Scaling com o modelo de inicialização Configure o modelo de inicialização para usar uma Spot Fleet. Anexe um Application Load Balancer ao grupo de Auto Scaling.
Resposta selecionada: D Usar um grupo de dimensionamento automático com um modelo de lançamento e uma frota Spot permite que a empresa dimensione o aplicativo de forma integrada e econômica, adicionando ou removendo instâncias automaticamente com base na demanda e usando instâncias Spot, que são capacidade de computação extra disponível na região da AWS a um preço menor do que as instâncias sob demanda. E também ao migrar o banco de dados para a instância do Amazon Aurora MySQL DB, ele fornece maior escalabilidade, disponibilidade e desempenho do que os bancos de dados MySQL tradicionais.
Uma empresa executa um aplicativo da Web sem estado em produção em um grupo de instâncias do Amazon EC2 On-Demand por trás de um Application Load Balancer. O aplicativo sofre uso intenso durante um período de 8 horas a cada dia útil. O uso do aplicativo é moderado e estável durante a noite. O uso do aplicativo é baixo durante os fins de semana. A empresa quer minimizar seus custos do EC2 sem afetar a disponibilidade do aplicativo. Qual solução atenderá a esses requisitos? A. Use instâncias spot para toda a carga de trabalho.B. Use instâncias reservadas para o nível básico de uso. Use instâncias Spot para qualquer capacidade adicional que o aplicativo precise.C. Use instâncias sob demanda para o nível de base de uso. Use instâncias Spot para qualquer capacidade adicional que o aplicativo precise.D. Use instâncias dedicadas para o nível de base de uso. Use instâncias sob demanda para qualquer capacidade adicional que o aplicativo precise.
Resposta selecionada: B A opção B é a solução mais econômica que atende aos requisitos. * Usar instâncias reservadas para o nível básico de uso fornecerá um desconto nos custos do EC2 para uso constante durante a noite e nos fins de semana. * Usar instâncias spot para qualquer capacidade adicional que o aplicativo precise durante os horários de pico de uso permitirá que a empresa aproveite a capacidade ociosa na região a um custo menor do que as instâncias sob demanda.
Uma empresa precisa manter arquivos de log do aplicativo para um aplicativo crítico por 10 anos. A equipe do aplicativo acessa regularmente os logs do mês anterior para solução de problemas, mas os logs com mais de 1 mês raramente são acessados. O aplicativo gera mais de 10 TB de logs por mês. Qual opção de armazenamento atende a esses requisitos de forma MAIS econômica? A. Armazene os logs no Amazon S3. Use o AWS Backup para mover logs com mais de 1 mês para o S3 Glacier Deep Archive.B. Armazene os logs no Amazon S3. Use as políticas de ciclo de vida do S3 para mover logs com mais de 1 mês para o S3 Glacier Deep Archive.C. Armazene os logs no Amazon CloudWatch Logs. Use o AWS Backup para mover logs com mais de 1 mês para o S3 Glacier Deep Archive.D. Armazene os logs no Amazon CloudWatch Logs. Use as políticas do Amazon S3 Lifecycle para mover logs com mais de 1 mês para o S3 Glacier Deep Archive.
Resposta selecionada: B A opção B (armazenar os logs no Amazon S3. Usar as políticas do ciclo de vida do S3 para mover logs com mais de 1 mês para o S3 Glacier Deep Archive) atenderia a esses requisitos da maneira mais econômica. Essa solução permitiria que a equipe do aplicativo acessasse rapidamente os logs do mês anterior para solução de problemas, ao mesmo tempo em que forneceria uma solução de armazenamento econômica parar os logs que raramente são acessados e precisam ser retidos por 10 anos.
Uma empresa tem um fluxo de trabalho de ingestão de dados que inclui os seguintes componentes: Um tópico do Amazon Simple Notification Service (Amazon SNS) que recebe notificações sobre novas entregas de dados Uma função do AWS Lambda que processa e armazena os dados O fluxo de trabalho de ingestão falha ocasionalmente devido a problemas de conectividade de rede. Quando ocorre uma falha, os dados correspondentes não são ingeridos, a menos que a empresa execute manualmente o trabalho novamente. O que um arquiteto de soluções deve fazer para garantir que todas as notificações sejam eventualmente processadas? A. Configure a função Lambda para implantação em várias Zonas de Disponibilidade.B. Modifique a configuração da função Lambda para aumentar as alocações de CPU e memória para a função.C. Configure a estratégia de repetição do tópico SNS para aumentar o número de tentativas e o tempo de espera entre as tentativas.D. Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como o destino em caso de falha. Modifique a função Lambda para processar mensagens na fila.
Resposta selecionada: D Para garantir que todas as notificações sejam eventualmente processadas, a melhor solução seria configurar uma fila do Amazon Simple Queue Service (SQS) como o destino em caso de falha para o tópico do SNS. Isso permitirá que as notificações sejam repetidas até que sejam processadas com sucesso. A função Lambda pode então ser modificada para processar mensagens na fila, garantindo que todas as notificações sejam eventualmente processadas. Opção D, Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como o destino em caso de falha. Modifique a função Lambda para processar mensagens na fila, é a resposta correta.
Uma empresa tem um serviço que produz dados de eventos. A empresa quer usar a AWS para processar os dados de eventos conforme eles são recebidos. Os dados são gravados em uma ordem específica que deve ser mantida durante todo o processamento. A empresa quer implementar uma solução que minimize a sobrecarga operacional. Como um arquiteto de soluções deve fazer isso? A. Crie uma fila FIFO do Amazon Simple Queue Service (Amazon SQS) para armazenar mensagens. Configure uma função AWS Lambda para processar mensagens da fila.B. Crie um tópico do Amazon Simple Notification Service (Amazon SNS) para entregar notificações contendo cargas úteis para processar.Configure uma função do AWS Lambda como assinante.C. Crie uma fila padrão do Amazon Simple Queue Service (Amazon SQS) para armazenar mensagens. Configure uma função do AWS Lambda para processar mensagens da fila de forma independente.D. Crie um tópico do Amazon Simple Notification Service (Amazon SNS) para entregar notificações contendo payloads para processar. Configure uma fila do Amazon Simple Queue Service (Amazon SQS) como assinante.
Resposta selecionada: A A solução correta é a Opção A. Criar uma fila FIFO do Amazon Simple Queue Service (Amazon SQS) para armazenar mensagens e configurar uma função do AWS Lambda para processar mensagens da fila garantirá que os dados do evento sejam processados na ordem correta e minimizará a sobrecarga operacional. A Opção B está incorreta porque usar o Amazon Simple Notification Service (Amazon SNS) não garante a ordem em que as mensagens são entregues. A Opção C está incorreta porque usar uma fila padrão do Amazon SQS não garante a ordem em que as mensagens são processadas. A Opção D está incorreta porque usar uma fila do Amazon SQS como assinante de um tópico do Amazon SNS não garante a ordem em que as mensagens são processado. votado 2 vezes
Uma empresa está migrando um aplicativo de servidores locais para instâncias do Amazon EC2. Como parte dos requisitos de design de migração, um arquiteto de soluções deve implementar alarmes de métricas de infraestrutura. A empresa não precisa tomar medidas se a utilização da CPU aumentar para mais de 50% por um curto período de tempo. No entanto, se a utilização da CPU aumentar para mais de 50% e os IOPS de leitura no disco forem altos ao mesmo tempo, a empresa precisa agir o mais rápido possível. O arquiteto de soluções também deve reduzir alarmes falsos. O que o arquiteto de soluções deve fazer para atender a esses requisitos? A. Crie alarmes compostos do Amazon CloudWatch sempre que possível.B. Crie painéis do Amazon CloudWatch para visualizar as métricas e lerct para problemas rapidamente.C. Criar canários do Amazon CloudWatch Synthetics para monitorar o aplicativo e disparar um alarme.D. Criar alarmes de métricas únicas do Amazon CloudWatch com vários limites de métricas sempre que possível
Resposta selecionada: A Alarmes compostos determinam seus estados monitorando os estados de outros alarmes. Você pode usar alarmes compostos para reduzir o ruído do alarme. Por exemplo, você pode criar um alarme composto onde os alarmes métricos subjacentes entram em ALARME quando atendem a condições específicas. Você pode então configurar seu alarme composto para entrar em ALARME e enviar notificações quando os alarmes métricos subjacentes entram em ALARME configurando os alarmes métricos subjacentes para nunca executarem ações. Atualmente, os alarmes compostos podem executar as seguintes ações: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Create_Composite_Alarm.html
Uma empresa quer migrar seu data center local para a AWS. De acordo com os requisitos de conformidade da empresa, a empresa pode usar apenas a região ap-northeast-3. Os administradores da empresa não têm permissão para conectar VPCs à Internet. Quais soluções atenderão a esses requisitos? (Escolha duas.) A. Use o AWS Control Tower para implementar guardrails de residência de dados para negar acesso à Internet e negar acesso a todas as regiões da AWS, exceto ap-northeast-3.B. Use regras no AWS WAF para impedir o acesso à Internet. Negue acesso a todas as regiões da AWS, exceto ap-northeast-3, nas configurações da conta da AWS.C. Use o AWS Organizations para configurar políticas de controle de serviço (SCPS) que impedem que VPCs obtenham acesso à Internet. Negar acesso a todas as regiões da AWS, exceto ap-northeast-3.D. Criar uma regra de saída para a ACL de rede em cada VPC para negar todo o tráfego de 0.0.0.0/0. Criar uma política de IAM para cada usuário para impedir o uso de qualquer região da AWS diferente de ap-northeast-3.E. Usar o AWS Config para ativar regras gerenciadas para detectar e alertar sobre gateways de internet e para detectar e alertar sobre novos recursos implantados fora de ap-northeast-3.
Resposta selecionada: A&C concordo com A e C https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_scps_examples_vpc.html#example_vpc_2
Uma empresa usa um aplicativo da Web de três camadas para fornecer treinamento a novos funcionários. O aplicativo é acessado por apenas 12 horas todos os dias. A empresa está usando uma instância de banco de dados do Amazon RDS for MySQL para armazenar informações e deseja minimizar custos. O que um arquiteto de soluções deve fazer para atender a esses requisitos? A. Configure uma política do IAM para o AWS Systems Manager Session Manager. Crie uma função do IAM para a política. Atualize o relacionamento de confiança da função. Configure o início e a parada automáticos para a instância do BD.B. Crie um cluster de cache do Amazon ElastiCache for Redis que dê aos usuários a capacidade de acessar os dados do cache quando a instância do BD for parada. Invalide o cache após a instância do BD ser iniciada.C. Inicie uma instância do Amazon EC2. Crie uma função do IAM que conceda acesso ao Amazon RDS. Anexe a função à instância do EC2. Configure um cron job para iniciar e parar a instância do EC2 na programação desejada.D. Crie funções do AWS Lambda para iniciar e parar a instância do BD. Crie regras programadas do Amazon EventBridge (Amazon CloudWatch Events) para invocar as funções do Lambda. Configure as funções do Lambda como alvos de eventos para as regras.
Resposta selecionada: D AWS Lambda e Amazon EventBridge que permitem que você agende uma função Lambda para parar e iniciar os bancos de dados ociosos com tags específicas para economizar em custos de computação. https://aws.amazon.com/blogs/database/schedule-amazon-rds-stop-and-start-using-aws-lambda/
Uma empresa vende toques criados a partir de clipes de músicas populares. Os arquivos que contêm os toques são armazenados no Amazon S3 Standard e têm pelo menos 128 KB de tamanho. A empresa tem milhões de arquivos, mas os downloads são pouco frequentes para toques com mais de 90 dias. A empresa precisa economizar dinheiro em armazenamento, mantendo os arquivos mais acessados prontamente disponíveis para seus usuários. Qual ação a empresa deve tomar para atender a esses requisitos de forma MAIS econômica? A. Configure o armazenamento S3 Standard-Infrequent Access (S3 Standard-IA) para a camada de armazenamento inicial dos objetos.B. Mova os arquivos para o S3 Intelligent-Tiering e configure-o para mover objetos para uma camada de armazenamento menos dispendiosa após 90 dias.C. Configure o inventário S3 para gerenciar objetos e movê-los para o S3 Standard-Infrequent Access (S3 Standard-1A) após 90 dias.D. Implemente uma política de ciclo de vida S3 que mova os objetos do S3 Standard para o S3 Standard-Infrequent Access (S3 Standard-1A) após 90 dias. dias.
Resposta selecionada: D Por que optar por D? A pergunta fala sobre downloads pouco frequentes com mais de 90 dias, o que significa que arquivos com menos de 90 dias são acessados com frequência. O Standard-Infrequent Access (S3 Standard-IA) precisa de no mínimo 30 dias se acessado antes, custa mais. Então, para acessar os arquivos com frequência, você precisa de um S3 Standard. Após 90 dias, você pode movê-lo para o Standard-Infrequent Access (S3 Standard-IA), pois ele será acessado com menos frequência
Uma empresa precisa salvar os resultados de um teste médico em um repositório Amazon S3. O repositório deve permitir que alguns cientistas adicionem novos arquivos e deve restringir todos os outros usuários ao acesso somente leitura. Nenhum usuário pode ter a capacidade de modificar ou excluir quaisquer arquivos no repositório. A empresa deve manter todos os arquivos no repositório por no mínimo 1 ano após sua data de criação. Qual solução atenderá a esses requisitos? A. Use o S3 Object Lock no modo de governança com uma retenção legal de 1 ano.B. Use o S3 Object Lock no modo de conformidade com um período de retenção de 365 dias.C. Use uma função do IAM para restringir todos os usuários de excluir ou alterar objetos noe bucket S3. Use uma política de bucket S3 para permitir apenas a função IAM.D. Configure o bucket S3 para invocar uma função AWS Lambda sempre que um objeto for adicionado. Configure a função para rastrear o hash do objeto salvo para que os objetos modificados possam ser marcados adequadamente.
Resposta: B Motivo: Modo de conformidade. A principal diferença entre o Modo de conformidade e o Modo de governança é que NÃO há usuários que podem substituir os períodos de retenção definidos ou excluir um objeto, e isso também inclui sua conta raiz da AWS, que tem os privilégios mais altos.
Uma grande empresa de mídia hospeda um aplicativo da web na AWS. A empresa quer começar a armazenar em cache arquivos de mídia confidenciais para que usuários em todo o mundo tenham acesso confiável aos arquivos. O conteúdo é armazenado em buckets do Amazon S3. A empresa deve entregar o conteúdo rapidamente, independentemente de onde as solicitações se originam geograficamente. Qual solução atenderá a esses requisitos? A. Use o AWS DataSync para conectar os buckets do S3 ao aplicativo da Web.B. Implante o AWS Global Accelerator para conectar os buckets do S3 ao aplicativo da Web.C. Implante o Amazon CloudFront para conectar os buckets do S3 aos servidores de borda do CloudFront.D. Use o Amazon Simple Queue Service (Amazon SQS) para conectar os buckets do S3 ao aplicativo da Web.
Resposta correta: C
Uma empresa produz dados em lote que vêm de diferentes bancos de dados. A empresa também produz dados de transmissão ao vivo de sensores de rede e APIs de aplicativos. A empresa precisa consolidar todos os dados em um só lugar para análise de negócios. A empresa precisa processar os dados recebidos e, em seguida, organizá-los em diferentes buckets do Amazon S3. Posteriormente, as equipes executarão consultas únicas e importarão os dados para uma ferramenta de inteligência de negócios para mostrar os principais indicadores de desempenho (KPIs). Qual combinação de etapas atenderá a esses requisitos com a MENOR sobrecarga operacional? (Escolha duas.) A. Use o Amazon Athena para consultas únicas. Use o Amazon QuickSight para criar painéis para KPIs.B. Use o Amazon Kinesis Data Analytics para consultas únicas. Use o Amazon QuickSight para criar painéis para KPIs.C. Crie funções personalizadas do AWS Lambda para mover os registros individuais dos bancos de dados para um cluster do Amazon Redshift.D. Use um trabalho de extração, transformação e carregamento (ETL) do AWS Glue para converter os dados em formato JSON. Carregue os dados em vários clusters do Amazon OpenSearch Service (Amazon Elasticsearch Service).E. Use blueprints no AWS Lake Formation para identificar os dados que podem ser ingeridos em um data lake. Use o AWS Glue para rastrear a fonte, extrair os dados e carregá-los no Amazon S3 no formato Apache Parquet.
Resposta selecionada: A&E Acredito que AE faz mais sentido
Uma empresa armazena dados em um cluster de banco de dados PostgreSQL do Amazon Aurora. A empresa deve armazenar todos os dados por 5 anos e deve excluir todos os dados após 5 anos. A empresa também deve manter indefinidamente logs de auditoria das ações realizadas no banco de dados. Atualmente, a empresa tem backups automatizados configurados para o Aurora. Qual combinação de etapas um arquiteto de soluções deve seguir para atender a esses requisitos? (Escolha duas.) A. Tire um instantâneo manual do cluster de banco de dados.B. Crie uma política de ciclo de vida para os backups automatizados.C. Configure a retenção de backup automatizada parar 5 anos.D. Configure uma exportação do Amazon CloudWatch Logs para o cluster de banco de dados.E. Use o AWS Backup para fazer os backups e mantê-los por 5 anos.
Resposta selecionada: D&E https://aws.amazon.com/about-aws/whats-new/2020/06/amazon-aurora-snapshots-can-be-managed-via-aws-backup/?nc1=h_ls O AWS Backup adiciona snapshots de cluster de banco de dados do Amazon Aurora como seu mais recente recurso protegido
Um arquiteto de soluções está otimizando um site para um próximo evento musical. Os vídeos das apresentações serão transmitidos em tempo real e estarão disponíveis sob demanda. Espera-se que o evento atraia um público global online. Qual serviço melhorará o desempenho do streaming em tempo real e sob demanda? A. Amazon CloudFrontB. AWS Global AcceleratorC. Amazon Route 53D. Amazon S3 Transfer Acceleration
Resposta selecionada: A O CloudFront oferece várias opções para transmitir sua mídia para espectadores globais, tanto arquivos pré-gravados quanto eventos ao vivo. https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/IntroductionUseCases.html#IntroductionUseCasesStreaming
Uma empresa está executando um aplicativo sem servidor acessível publicamente que usa o Amazon API Gateway e o AWS Lambda. O tráfego do aplicativo aumentou recentemente devido a solicitações fraudulentas de botnets. Quais etapas um arquiteto de soluções deve seguir para bloquear solicitações de usuários não autorizados? (Escolha duas.) A. Crie um plano de uso com uma chave de API que seja compartilhada apenas com usuários genuínos.B. Integre a lógica dentro da função Lambda para ignorar as solicitações de endereços IP fraudulentos.C. Implemente uma regra do AWS WAF para direcionar solicitações maliciosas e acionar ações para filtrá-las.D. Converta a API pública existente em uma private API. Atualize os registros DNS para redirecionar os usuários para o novo ponto de extremidade da API.E. Crie uma função do IAM para cada usuário que tentar acessar a API. Um usuário assumirá a função ao fazer a chamada da API.
Resposta selecionada: A&C https://www.examtopics.com/discussions/amazon/view/61082-exam-aws-certified-solutions-architect-associate-saa-c02
Uma empresa de comércio eletrônico hospeda seu aplicativo de análise na Nuvem AWS. O aplicativo gera cerca de 300 MB de dados por mês. Os dados são armazenados no formato JSON. A empresa está avaliando uma solução de recuperação de desastres para fazer backup dos dados. Os dados devem ser acessíveis em milissegundos, se necessário, e devem ser mantidos por 30 dias. Qual solução atende a esses requisitos de forma MAIS econômica? A. Amazon OpenSearch Service (Amazon Elasticsearch Service)B. Amazon S3 GlacierC. Amazon S3 StandardD. Amazon RDS para PostgreSQL
Resposta selecionada: C IMHO Normalmente, o ElasticSearch seria o ideal aqui, no entanto, como a pergunta afirma Mais econômico S3 é a melhor escolha neste caso
Uma empresa tem um pequeno aplicativo Python que processa documentos JSON e envia os resultados para um banco de dados SQL local. O aplicativo é executado milhares de vezes por dia. A empresa quer mover o aplicativo para a Nuvem AWS. A empresa precisa de uma solução altamente disponível que maximize a escalabilidade e minimize a sobrecarga operacional. Qual solução atenderá a esses requisitos? A. Coloque os documentos JSON em um bucket do Amazon S3. Execute o código Python em várias instâncias do Amazon EC2 para processar o documentodocumentos. Armazene os resultados em um cluster do Amazon Aurora DB.B. Coloque os documentos JSON em um bucket do Amazon S3. Crie uma função do AWS Lambda que execute o código Python para processar os documentos conforme eles chegam no bucket do S3. Armazene os resultados em um cluster do Amazon Aurora DB.C. Coloque os documentos JSON em um volume do Amazon Elastic Block Store (Amazon EBS). Use o recurso EBS Multi-Attach para anexar o volume a várias instâncias do Amazon EC2. Execute o código Python nas instâncias do EC2 para processar os documentos. Armazene os resultados em uma instância do Amazon RDS DB.D. Coloque os documentos JSON em uma fila do Amazon Simple Queue Service (Amazon SQS) como mensagens. Implante o código Python como um contêiner em um cluster do Amazon Elastic Container Service (Amazon ECS) configurado com o tipo de inicialização do Amazon EC2. Use o contêiner para processar as mensagens do SQS. Armazene os resultados em uma instância do Amazon RDS DB.
Resposta selecionada: B Ao colocar os documentos JSON em um bucket S3, os documentos serão armazenados em um serviço de armazenamento de objetos altamente durável e escalável. O uso do AWS Lambda permite que a empresa execute seu código Python para processar os documentos conforme eles chegam no bucket S3 sem ter que se preocupar com a infraestrutura subjacente. Isso também permite escalabilidade horizontal, pois o AWS Lambda dimensionará automaticamente o número de instâncias da função com base na taxa de solicitações de entrada. Os resultados podem ser armazenados em um cluster Amazon Aurora DB, que é um serviço de banco de dados totalmente gerenciado e de alto desempenho compatível com MySQL e PostgreSQL. Isso fornecerá a durabilidade e a escalabilidade necessárias para os resultados do processamento.
Uma empresa quer usar infraestrutura de computação de alto desempenho (HPC) na AWS para modelagem de risco financeiro. As cargas de trabalho de HPC da empresa são executadas no Linux. Cada fluxo de trabalho de HPC é executado em centenas de instâncias Spot do Amazon EC2, tem vida curta e gera milhares de arquivos de saída que são armazenados em armazenamento persistente para análise e uso futuro de longo prazo. A empresa busca uma solução de armazenamento em nuvem que permita a cópia de dados locais para armazenamento persistente de longo prazopara disponibilizar dados para processamento por todas as instâncias do EC2. A solução também deve ser um sistema de arquivos de alto desempenho integrado ao armazenamento persistente para ler e gravar conjuntos de dados e arquivos de saída. Qual combinação de serviços da AWS atende a esses requisitos? A. Amazon FSx para Lustre integrado ao Amazon S3B. Amazon FSx para Windows File Server integrado ao Amazon S3C. Amazon S3 Glacier integrado ao Amazon Elastic Block Store (Amazon EBS)D. Bucket do Amazon S3 com um endpoint VPC integrado a um volume SSD de uso geral (gp2) do Amazon Elastic Block Store (Amazon EBS)
Resposta selecionada: A Palavras-chave adicionais: disponibilizar dados para processamento por todas as instâncias do EC2 ==> FSx Na ausência do EFS, deve ser FSx. O Amazon FSx For Lustre fornece um sistema de arquivos paralelo de alto desempenho para dados ativos
Uma empresa está criando um aplicativo em contêiner no local e decide movê-lo para a AWS. O aplicativo terá milhares de usuários logo após ser implantado. A empresa não tem certeza de como gerenciar a implantação de contêineres em escala. A empresa precisa implantar o aplicativo em contêiner em uma arquitetura de alta disponibilidade que minimize a sobrecarga operacional. Qual solução atenderá a esses requisitos? A. Armazene imagens de contêiner em um repositório do Amazon Elastic Container Registry (Amazon ECR). Use um cluster do Amazon Elastic Container Service (Amazon ECS) com o tipo de inicialização do AWS Fargate para executar os contêineres. Use o rastreamento de destino para dimensionar automaticamente com base na demanda.B. Armazene imagens de contêiner em um repositório do Amazon Elastic Container Registry (Amazon ECR). Use um cluster do Amazon Elastic Container Service (Amazon ECS) com o tipo de inicialização do Amazon EC2 para executar os contêineres. Use o rastreamento de destino para dimensionar automaticamente com base na demanda.C. Armazene imagens de contêiner em um repositório que seja executado em uma instância do Amazon EC2. Execute os contêineres em instâncias do EC2 que estejam espalhadas por várias Zonas de Disponibilidade. Monitore a utilização média da CPU no Amazon CloudWatch. Inicie novas instâncias do EC2 conforme necessário.D. Crie uma Amazon Machine Image (AMI) do Amazon EC2 que contenha a imagem do contêiner. Inicie instâncias do EC2 em um grupo de dimensionamento automático em várias Zonas de Disponibilidade. Use um alarme do Amazon CloudWatch para dimensionar horizontalmente as instâncias do EC2 quando o limite médio de utilização da CPU for violado.
Opção A AWS Fargate é uma tecnologia que você pode usar com o Amazon ECS para executar contêineres sem precisar gerenciar servidores ou clusters de instâncias do Amazon EC2. Com o Fargate, você não precisa mais provisionar, configurar ou escalar clusters de máquinas virtuais para executar contêineres. Isso elimina a necessidade de escolher tipos de servidor, decidir quando escalar seus clusters ou otimizar o empacotamento de clusters.
Uma empresa tem dois aplicativos: um aplicativo remetente que envia mensagens com cargas úteis para serem processadas e um aplicativo de processamento destinado a receber as mensagens com cargas úteis. A empresa deseja implementar um serviço AWS para manipular mensagens entre os dois aplicativos. O aplicativo remetente pode enviar cerca de 1.000 mensagens por hora. As mensagens podem levar até 2 dias para serem processadas: se as mensagens não forem processadas, elas devem ser retidas para que não afetem o processamento de nenhuma mensagem restante. Qual solução atende a esses requisitos e é a MAIS eficiente operacionalmente? A. Configure uma instância do Amazon EC2 executando um banco de dados Redis. Configure ambos os aplicativos para usar a instância. Armazene, processe e exclua as mensagens, respectivamente.B. Use um fluxo de dados do Amazon Kinesis para receber as mensagens do aplicativo remetente. Integre o aplicativo de processamento com a Kinesis Client Library (KCL).C. Integre os aplicativos remetente e processador com uma fila do Amazon Simple Queue Service (Amazon SQS). Configure uma fila de mensagens mortas para coletar as mensagens que falharam no processamento.D. Inscreva o aplicativo de processamento em um tópico do Amazon Simple Notification Service (Amazon SNS) para receber notificações para processar. Integre o aplicativo remetente para gravar no tópico do SNS.
Resposta selecionada: C
Um arquiteto de soluções deve projetar uma solução que use o Amazon CloudFront com uma origem do Amazon S3 para armazenar um site estático. A política de segurança da empresa exige que todo o tráfego do site seja inspecionado pelo AWS WAF. Como o arquiteto de soluções deve cumprir esses requisitos? A. Configure uma política de bucket do S3 para aceitar solicitações vindas somente do Amazon Resource Name (ARN) do AWS WAF.B. Configure o Amazon CloudFront para encaminhar todas as solicitações recebidas ao AWS WAF antes de solicitar conteúdo da origem do S3.C. Configure um grupo de segurança que permita que endereços IP do Amazon CloudFront acessem somente o Amazon S3. Associe o AWS WAF ao CloudFront.D. Configure o Amazon CloudFront e o Amazon S3 para usar uma identidade de acesso de origem (OAI) para restringir o acesso ao bucket do S3. Habilite o AWS WAF na distribuição.
Resposta D. Use um OAI para bloquear o CloudFront na origem do S3 e habilitar o WAF na distribuição do CF