(更新版)AWS SAA-CN認證考試題庫大全-上部分(700題)_第1頁
(更新版)AWS SAA-CN認證考試題庫大全-上部分(700題)_第2頁
(更新版)AWS SAA-CN認證考試題庫大全-上部分(700題)_第3頁
(更新版)AWS SAA-CN認證考試題庫大全-上部分(700題)_第4頁
(更新版)AWS SAA-CN認證考試題庫大全-上部分(700題)_第5頁
已閱讀5頁,還剩333頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

(更新版)AWSSAA_CN認證考試題庫大全-上部分(700題)一、單選題金融公司希望將其數據存儲在AmazonS3中,但同時,他們希望將其頻繁訪問的數據存儲在本地服務器上。這是因為他們沒有擴展其內部存儲的選項,這就是為什么他們正在尋找適合AWS使用的可擴展存儲服務。A、 使用亞馬遜冰川B、 對于頻繁訪問的數據,請同時使用Elasticache和S3C、 使用帶有EBS卷的EC2實例組來存儲常用數據D、 使用Amazon存儲網關-緩存卷答案:D解析:通過使用緩存卷,您可以將數據存儲在AmazonSimpIeStorageService(AmazonS3)中,并在本地網絡中保留經常訪問的數據子集的副本。緩存卷在主存儲上節省了大量成本,并最大限度地減少了在本地擴展存儲的需要。您還可以保持對頻繁訪問數據的低延遲訪問。這是該場景的最佳解決方案。使用帶有EBS卷的EC2實例組來存儲常用數據是不正確的,因為EC2實例不是存儲服務,它不提供所需的耐久性和可擴展性。對頻繁訪問的數據同時使用Elasticache和S3是不正確的,因為這不是有效的。此外,該問題明確指出,頻繁訪問的數據應該本地存儲在其內部服務器上,而不是存儲在AWS上。使用亞馬遜冰川是不正確的,因為它主要用于數據存檔。一家跨國制造公司在AWS中擁有多個帳戶,以分離其財務、人力資源、工程等多個部門。有一個確保對服務和行動的某些訪問進行適當控制以符合要求的要求遵守公司的安全政策。作為解決方案架構師,哪種方式最適合設置多賬戶AWS公司環境?A、 通過身份聯合向外部認證用戶提供訪問權限。設置IAM角色,以指定來自每個部門的用戶的權限,這些部門的身份與您的組織或第三方身份提供程序聯合。B、 通過設置對公司每個AWS帳戶的跨帳戶訪問,連接所有部門。根據各自的部門創建IAM策略并將其附加到您的資源,以控制訪問。C、 設置可應用于所有AWS帳戶的通用IAM策略。D、 使用AWS組織和服務控制策略來控制每個帳戶上的服務。答案:D解析:使用AWS組織和服務控制策略來控制每個帳戶上的服務是正確的答案。請參閱卜圖:<imgsrc="https://.dabaitiku.top/prod-api/system/fiIeinfb/preview?id=SAA-C03_20220831130507">AWS組織為多個AWS帳戶提供基于策略的管理。使用組織,您可以創建帳戶組、自動創建帳戶、應用和管理這些組的策略。組織使您能夠跨多個帳戶集中管理策略,而無需自定義腳本和手動流程。它允許您創建服務控制策略(SCP),集中控制跨多個AWS帳戶的AWS服務使用。設置可應用于所有AWS帳戶的通用IAM策略是不正確的,因為不可能為多個AWS帳戶創建通用IAM政策。該選項表示:通過設置對公司每個AWS帳戶的跨帳戸訪問來連接所有部門。基于各自部門創建IAM策略并將其附加到您的資源以控制訪問是不正確的,因為盡管您可以設置對每個部門的跨帳戶訪問,但與使用AWS組織和服務控制策略(SCP)相比,這需要大量配置。如果您只需要管理兩個帳戶,而不需要管理多個帳戸,那么跨帳戸訪問將是更合適的選擇。該選項表示:通過身份聯合向外部認證用戶提供訪問權限。設置IAM角色以指定來自每個部門的用戶的權限,這些部門的身份與您的組織或第三方身份提供商聯合。此選項不正確,因為此選項側重于為您的AWS帳戶設置的身份聯合身份驗證,而不是多個AWS帳戶的IAM策略管理。與此選項相比,AWS組織和服務控制策略(SCP)的組合是更好的選擇。一家公司推出了一個全球新聞網站,該網站部署到AWS,并使用MySQLRDSo該網站擁有來自世界各地的數百萬觀眾,這意味著該網站閱讀了大量數據庫工作。所有數據庫事務必須符合ACID,以確保數據完整性。在這種情況下,以下哪項是提高MySQL數據庫讀取吞吐量的最佳選項?A、 啟用AmazonRDS備用副本B、 啟用AmazonRDS讀取副本C、 使用SQS將請求排隊D、 啟用多AZ部署答案:B解析:AmazonRDS讀取副本為數據庫(DB)實例提供了増強的性能和耐用性。此功能使您可以輕松地彈性擴展超出單個DB實例的容量限制,以應對讀取繁重的數據庫工作負載。您可以創建給定源數據庫實例的一個或多個副本,并從數據的多個副本提供高容量應用程序讀取流量,從而提高聚合讀取吞吐量。當需要成為獨立的DB實例時,還可以升級讀取副本。AmazonRDSforMySQLxMariaDB、Oracle和PostgreSQL以及AmazonAurora中提供了讀取副本o<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfo/preview?id=SAA-C03_20220831131917卜啟用多AZ部署是不正確的,因為多AZ配置功能主要用于實現數據庫的高可用性和故障轉移支持。啟用AmazonRDS備用副本是不正確的,因為在多AZ部署中使用備用副本,因此,它不是減少讀取繁重的數據庫工作負載的解決方案。使用SQS將請求排隊是不正確的。雖然SQS隊列可以有效地管理請求,但它本身無法完全提高數據庫的讀取吞吐量。一家初創公司計劃開發一款多人游戲,使用UDP作為客戶端和游戲服務器之間的通信協議。用戶的數據將存儲在鍵值存儲中。作為解決方案架構師,您需要實現一個將流量分布在多個服務器上的解決方案。A、 使用網絡負載均衡器分發流量,并將數據存儲在AmazonAurora中。B、 使用應用程序負載平衡器分發流量,并將數據存儲在AmazonDynamoDB中。C、 使用冋絡負載均衡器分發流量,并將數據存儲在AmazonDynamoDB中。D、 使用應用程序負載均衡器分發流量,并將數據存儲在AmazonRDS中。答案:C解析:網絡負載均衡器在開放系統互連(0SI)模型的第四層起作用。它每秒可以處理數百萬個請求。負載平衡器收到連接請求后,從目標組中為默認規則選擇一個目標。對于UDP流量,負載均衡器使用基于協議、源IP地址、源端口、目標IP地址和目標端口的流哈希算法選擇目標。UDP流具有相同的源和目標,因此在其整個生命周期中始終路由到單個目標。不同的UDP流具有不同的源IP地址和端口,因此可以將它們路由到不同的目標。<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831132744H><imgsrc="https:〃.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-CO3_20220831132756">在這種情況下,初創公司計劃創建一個多人游戲,使用UDP作為通信協議。由于UDP是第4層流量,我們可以限制使用網絡負載平衡器的選項。用戶的數據將存儲在鍵值存儲中。這意味著我們應該選擇AmazonDynamoDB,因為它支持文檔和鍵值存儲模型。因此,正確的答案是:使用網絡負載均衡器分配流量,并將數據存儲在AmazonDynamoDB中?!笆褂脩贸绦蜇撦d平衡器分發流量并將數據存儲在AmazonDynamoDB中”的選項不正確,因為應用程序負載均衡器不支持UDP。請記住,UDP是第4層流量。因此,您應該使用網絡負載平衡器?!笆褂镁W絡負載平衡器分發流量并將數據存儲在AmazonAurora中”的選項是不正確的,因為AmazonAuora是一種關系數據庫服務。您應該使用AmazonDynamoDB,而不是Aurora。"使用應用程序負載平衡器分發流量并將數據存儲在AmazonRDS中”的選項不正確,因為應用程序負載均衡器僅支持應用程序流量(第7層)。此外,AmazonRDS不適合作為鍵值存儲。您應該使用DynamoDB,因為它支持文檔和鍵值存儲模型。一家科技公司目前擁有內部基礎設施。他們目前的存儲空間不足,希望能夠使用AWS云擴展存儲空間。哪些AWS服務可以幫助他們實現這一要求?A、 Amazon彈性塊存儲B、 亞馬遜存儲網關C、 亞馬遜EC2D、 亞馬遜簡單隊列服務答案:B解析:AWS存儲冋關將本地軟件設備與基于云的存儲連接起來,以在您的本地IT環境和AWS存儲基礎設施之間提供數據安全功能的無縫集成。您可以使用該服務將數據存儲在AWS云中,以實現可擴展且經濟高效的存儲,幫助維護數據安全。AmazonEC2是不正確的,因為這是一個計算服務,而不是存儲服務。Amazon彈性塊存儲不正確,因為EBS主要用作EC2實例的存儲。AmazonSQS不正確,因為這是一種消息隊列服務,不會擴展您的內部存儲容量。一家大型跨國投資銀行有一個web應用程序,它至少需要4個EC2實例才能運行,以確保它能夠滿足全球用戶的需求。指示您確保此系統的容錯性。以下哪項是最佳選擇?A、 在應用程序負載平衡器后面的一個可用性區域中部署一個具有4個實例的自動擴展組。B、 在應用程序負載平衡器后面的4個可用性區域中的每個區域中部署一個具有1個實例的自動擴展組。C、 在應用程序負載平衡器后面的3個可用性區域中的每個區域中部署一個具有2個實例的自動擴展組。D、 在應用程序負載平衡器后面的2個可用性區域中的每個區域中部署一個具有2個實例的自動擴展組。答案:C解析:容錯性是指即使用于構建系統的某些組件發生故障,系統仍能保持運行的能力。在AWS中,這意味著在服務器故障或系統故障的情況下,運行的EC2實例數量不應低于系統正常丁作所需的最小實例數雖:“因此,如果應用程序需要至少4個實例,那么至少應該有4個實例在運行,以備某個可用區出現故障或出現服務器問題時使用。<imgsrc="https:〃,dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C03_20220831133645">容錯性和高可用性之間的區別之一是,前者指的是運行實例的最小數量。例如,你有一個需要至少4個運行實例的系統,目前有6個運行實例部署在兩個可用區。其中一個可用區出現了組件故障,導致3個實例被淘汰。在這種情況下,系統仍然可以被認為是高可用的,因為仍然有實例在運行,可以滿足請求。然而,它不是容錯的,因為沒有達到最少四個實例的要求。因此,正確的答案是。在應用負載平衡器后面的3個可用區中的每個區部署?個有2個實例的自動擴展組。該選項說。在應用負載平衡器后面的2個可用區中各部署2個實例的自動擴展組是不正確的,因為如果?個可用區被淘汰,在所需的最低4個實例中只有2個運行的實例可用。盡管自動擴展組可以啟動另外兩個實例,但網絡應用的容錯性己經己經被破壞了。該選項說。在應用負載平衡器后面的一個可用區中部署一個有4個實例的自動擴展組是不正確的,因為如果可用區消失了,將沒有可用的運行實例來滿足請求。該選項說。在應用程序負載平衡器后面的4個可用區中的每個區部署具有1個實例的自動擴展組是不正確的,因為如果一個可用區發生故障,將只有3個實例可用于滿足請求。一家公司希望從一個中央數據湖查詢駐留在多個AWS賬戶中的數據。每個賬戶都有自己的AmazonS3桶,存儲其業務功能所特有的數據。來自不同賬戶的用戶必須根據其角色被授予對數據湖的訪問權。哪種解決方案可以在滿足所需的訪問模式的同時最大限度地減少開銷和成本?A、 使用AWSCentralTower集中管理每個帳戶的S3存儲桶。B、 創建一個計劃的Lambda函數,用于將數據從多個帳戶傳輸到中央帳戶的S3存儲桶C、 使用AWSKinesisFirehose將多個帳戸的數據合并到單個帳戶中。D、 使用AWSLakeFormation將多個帳戶的數據合并到單個帳戶中。答案:D解析:AWSLakeFormation是一項服務,可以在幾天內輕松建立一個安全的數據湖。數據湖是一個集中的、經過策劃的、安全的存儲庫,它存儲了你所有的數據,包括原始形式的數據和準備用于分析的數據。數據湖使你能夠打破數據孤島,結合不同類型的分析,以獲得洞察力并指導更好的商業決策。亞馬遜S3構成了湖的形成的存儲層。如果你己經使用了S3,你通常會從注冊包含你的數據的現有S3桶開始。LakeFormation為數據湖創建新捅,并將數據導入其中。AWS總是將這些數據存儲在你的賬戶中,而且只有你能直接訪問這些數據a<imgsrc=,https://.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C03_20220831135223”>AWSLakeFormation與AWSGIue集成,你可以用它來創建一個數據目錄,描述可用的數據集及其適當的業務應用oLakeFormation讓你定義策略,并通過簡單的”授予和撤銷數據權限"集來控制數據訪問的粒度。你可以使用聯合方式為IAM用戶、角色、組和活動目錄用戶分配權限。你在目錄對象(如表和列)上指定權限,而不是在桶和對象上指定權限。因此,正確答案是,使用AWSLakeFormation將多個賬戶的數據合并到一個賬戶。選項中使用AWSKinesisFirehose將多個賬戶的數據整合到一個賬戶中是不正確的。在每一個賬戶中設置一個KinesisFirehose來把數據轉移到一個地方,成本很高,而且不切實際。更好的方法是設置跨賬戶共享,這在AWSLakeFormation中是免費的。選項中創建一個預定的Lambda函數,將數據從多個賬戶轉移到一個中央賬戶的S3桶,這是不正確的。這可以通過利用AWSSDK來完成,但實施起來會很困難,管理起來也相當有難度。請記住,該方案明確提到,該解決方案必須盡量減少管理開銷。選項中使用AWSCentralTower來集中管理每個賬戶的S3桶是不正確的,因為AWSCentraITower服務主要用于管理和治理多個AWS賬戶,而不僅僅是S3桶。使用AWSLakeFormation服務是一個更合適的選擇。歷史記錄和頻繁訪問的數據都存儲在內部存儲系統中。當前數據量正以指數速度增長。隨著存儲容量接近極限,該公司的解決方案架構師決定將歷史記錄移動到AWS,以便為活動數據騰出空間。以卜?哪種體系結構在成本和運營管理方面提供了最佳解決方案?A、使用AWS數據同步將歷史記錄從本地移動到AWSo選擇AmazonS3GIacierDeepArchive作為數據的目的地。B、 使用AWS存儲網關將歷史記錄從本地移動到AWS。選擇AmazonS3GIacierDccpArchive作為數據的目的地。C、 使用AWS數據同步將歷史記錄從本地移動到AWS。選擇AmazonS3標準作為數據的目標。修改S3生命周期配置,在30天后將數據從標準層移動到AmazonS3GlacierDeepArchive0D、 使用AWS存儲網關將歷史記錄從本地移動到AWSo選擇AmazonS3Glacier作為數據的目的地。修改S3生命周期配置,在30天后將數據從標準層移動到AmazonS3GIacierDeepArchiveo答案:A解析:AWSDataSync使得在本地存儲和AmazonS3>Amazon彈性文件系統(AmazonEFS)或AmazonFSxforWindows文件服務器之間在線移動大量數據變得簡單快捷。與數據傳輸相關的手動任務可能會減慢遷移速度并加重IT操作負擔。DataSync消除或自動處理許多這些任務,包括編寫復制作業腳本、調度和監視傳輸、驗證數據以及優化網絡利用率ODataSync軟件代理連接到您的網絡文件系統(NFS)、服務器消息塊(SMB)存儲和自管理對象存儲,因此您無需修改應用程序。DataSync可以通過Internet或AWS直連鏈接以比開源工具快10倍的速度傳輸數百TB和數百萬文件。您可以使用DataSync將活動數據集或存檔遷移到AWS,將數據傳輸到云以進行及時分析和處理,或將數據復制到AWS以實現業務連續性。開始使用DataSync很簡單:部署DataSync代理,將其連接到文件系統,選擇AWS存儲資源,并開始在它們之間移動數據。您只為移動的數據付費。Vimgsrc="https://.dabaitiku.top/prod-api/system/fileinfo/preview?id二SAA-C03_20220831140928”〉由于問題主要是將歷史記錄從本地移動到AWS,因此使用AWS數據同步是更合適的解決方案。您可以使用DataSync將冷數據從昂貴的本地存儲系統直接移動到持久安全的長期存儲,如AmazonS3Glacier或AmazonS3GIacierDeepArchiveo因此,正確的答案是這樣的選項:使用AWS數據同步將歷史記錄從本地移動到AWS。選擇AmazonS3GIacierDeepArchive作為數據的目的地。以下選項均不正確:-使用AWS存儲網關將歷史記錄從本地移動到AWS。選擇AmazonS3GlacierDeepArchive作為數據的目的地。-使用AWS存儲網關將歷史記錄從本地移動到AWSo選擇AmazonS3Glacier作為數據的目的地。修改S3生命周期配卷在30天后將數據從標準層移動到AmazonS3GIacierDecpArchive0雖然您可以使用StorageGateway將數據從本地復制到AWS,但它不適合將大型數據集傳輸到AWSoStorageGateway主要用于通過在本地緩存頻繁訪問的數據來提供對數據的低延遲訪問,同時在Amazon云存儲服務中安全持久地存儲歸檔數據。StorageGateway通過僅發送更改的數據和壓縮數據來優化到AWS的數據傳輸。該選項表示:使用AWS數據同步將歷史記錄從本地移動到AWSo選擇AmazonS3標準作為數據的目標。修改S3生命周期配置以在30天后將數據從標準層移動到AmazonS3GIacierDeepArchive是不正確的,因為使用AWSDataSync,您可以將數據從本地直接傳輸到AmazonS3GIagierDeepArchive。您不必配置S3生命周期策略并等待30天將數據移動到GlacierDccpArchiveo一家跨國公司一直在利用高性能計算工作負載(HPC)構建其新的數據分析平臺,這需要一個可擴展的、符合P0SIX的存儲服務。數據需要跨多個AZ冗余存儲,并允許從數千個EC2實例托管在多個可用性區域上。以下哪種AWS存儲服務最適合在此場景中使用?A、 AmazonEIastiCacheB、 AmazonEIasticFileSystem并將結果持久存儲到并將結果持久存儲到AmazonS3存儲桶中。并將結果持久存儲到并將結果持久存儲到AmazonS3存儲桶中。CC、AmazonEBSVoIumesD、AmazonS3答案:B解析:在這個問題中,您應該注意這個短語,“允許來自多個EC2實例的并發連接”。您可以選擇各種AWS存儲選項,但每當出現這些標準時,請始終考慮使用EFS,而不是使用EBS卷,EBS卷主要用作“塊”存儲,一次只能與一個EC2實例連接一次。AmazonEFS是一項完全管理的服務,可以輕松地在Amazon云中設置和擴展文件存儲。只需在AWS管理控制臺中單擊幾下,即可創建可通過文件系統接口(使用標準操作系統文件I/OAPI)訪問AmazonEC2實例的文件系統,并支持完整的文件系統訪問語義(如強一致性和文件鎖定)°AmazonEFS文件系統可以自動將數據從千兆字節擴展到千兆字節,而無需提供存儲。數十個、數百個甚至數千個AmazonEC2實例可以同時訪問AmazonEFS文件系統,AmazonEFS為每個AmazonEC!實例提供了一致的性能。亞馬遜EFS被設計為高度耐用和高可用性。一家公司需要實施一個解決方案,處理全球用戶的實時流數據。這將使他們能夠跟蹤和分析其網站和移動應用程序上全球分布的用戶活動,包括點擊流分析。該解決方案應在其用戶附近的地理位置處理數據,并以低延遲響應用戶請求。以下哪項是最適合此場景的辭決方案?A、 將CloudFront與LambdaEdge以便在接近用戶的地理位置處處理數據,并以低延遲響應用戸請求。使用AmazonAthena處理實時流數據,并將結果持久存儲到AmazonS3存儲桶中。B、 使用具有地理鄰近性路由策略的CloudFrontweb分發和路由53,以便在地理位置接近用戶的情況下處理數據,并以低延遲響應用戶請求。使用Kinesis處理實時流數據,C、 將CloudFront與LambdaEdge以便在接近用戶的地理位置處處理數據,并以低延遲響應用尸請求。使用Kinesis處理實時流數據,并將結果持久存儲到AmazonS3存儲桶中。D、 使用具有基于延退的路由策略的CloudFrontweb分發和路由53,以便在地理位置接近用戶的情況下處理數據,并以低延遲響應用戶請求。使用Kinesis處理實時流數據,并將結果持久存儲到AmazonS3存儲桶中。答案:C解析:LambdaEdge是AmazonCloudFront的一項功能,可以讓您更接近應用程序的用戶運行代碼,從而提高性能并減少延遲。具有LambdaEdge,您不必在世界各地的多個地點提供或管理基礎設施。您只需支付所消耗的計算時間-當您的代碼未運行時,不收取任何費用。具有LambdaEdge,您可以通過使web應用程序全球分布并提高其性能來豐富您的web應用程序一所有這些都是零服務器管理。LambdaEdge運行您的代碼對AmazonCloudFront內容交付冋絡(CDN)生成的事件的響應。只需將代碼上傳到AWSLambda,它就可以在最接近最終用戶的AWS位置以高可用性運行和擴展代碼所需的,切。<imgsrc="https://.dabaitiku.top/prod-api/system/fiIeinfb/preview?id=SAA-C03_20220831142901”>通過使用LambdaEdge與Kinesis—起,您可以處理實時流數據,以便跟蹤和分析冋站和移動應用程序上全球分布的用戶活動,包括點擊流分析。因此,此場景中的正確答案是這樣的選項:將CloudFront與LambdaEdge以便在接近用戶的地理位置處處理數據,并以低延遲響應用戶請求。使用Kinesis處理實時流數據并將結果持久地存儲到AmazonS3存儲桶中。這些選項表示:使用CloudFrontweb分發和路由53,并使用基于延遲的路由策略,以便在地理位置接近用戶的情況下處理數據,并以低延遲響應用戶請求。使用Kinesis處理實時流數據,并將結果持久地存儲到AmazonS3存儲桶中,并使用CloudFrontweb分發和路由53以及地理鄰近性路由策略,以便在地理位置接近用戶的情況下處理數據,并以低延遲響應用戶請求。使用Kinesis處理實時流數據和將結果持久存儲到AmazonS3bucket都是不正確的,因為您只能使用route53路由流量,因為它沒有任何計算能力。此解決方案將無法在地理位置接近用戶的情況下處理和返回數據,因為它不使用LambdaEdge.選項說明:將CloudFront與LambdaEdge以便在接近用戶的地理位置處處理數據,并以低延遲響應用戶請求。使用AmazonAthena處理實時流數據并將結果持久存儲到AmazonS3存儲桶是不正確的,因為盡管使用LambdaEdge沒錯,AmazonAthena只是一個交互式查詢服務,它使您能夠使用標準SQL輕松分析AmazonS3中的數據。應使用Kinesis實時處理流數據。<br>一家公司開發了一個web應用程序,并將其部署在使用AmazonSQS的EC2實例組上。請求保存為SQS隊列中的消息,該隊列配置有最大消息保留期。然而,在運行13天后,web應用程序突然崩潰,隊列中仍有10000條未處理的消息。由于他們開發了應用程序,他們可以輕松解決問題,但他們需要向用戶發送有關該問題的通信。他們應該提供什么信息,以及未處理的消息會發生什么?A、 告訴用戶,不幸的是,他們必須重新提交所有請求,因為隊列將無法同時處理10000條消息。B、 告訴用戶應用程序將很快投入運行。但是,三天前發送的請求將需要重新提交。C、 告訴用戶,不幸的是,他們必須再次提交所有請求。D、 告訴用戶,應用程序將很快投入運行,所有收到的請求將在web應用程序重新啟動后處理。答案:D解析:在AmazonSQS中,您可以將消息保留期配置為1分鐘到14天的值。默認為4天。達到郵件保留限制后,您的郵件將自動刪除。單個AmazonSQS消息隊列可以包含無限數量的消息。但是,標準隊列的機上消息數量限制為120000條FIFO隊列為20000犯消息在消費組件從隊列中接收到但尚未從隊列中刪除的消息后即處于飛行狀態。在這種情況下,說明SQS隊列配置了最大消息保留期。SQS中的最大消息保留時間為14天,這就是為什么這樣的選項:告訴用戶應用程序將很快運行,并且在web應用程序重新啟動后處理所有收到的請求是正確的答案,即不會有丟失的消息。這些選項表示:告訴用戶,不幸的是,他們必須再次提交所有請求,并告訴用戶應用程序將很快投入運行。然而,三天前發送的請求將需要重新提交,這是不正確的,因為隊列中沒有丟失的消息。因此,不需要重新提交任何以前的請求?!案嬖V用戶,不幸的是,他們必須重新提交所有請求,因為隊列無法同時處理10000條消息”的選項是不正確的,因為隊列可以包含無限數量的消息,而不僅僅是10000條消息。一家公司有一個按需EC2實例,該實例附帶一個EBS卷。有一個計劃作業,在不使用實例的情況下,每午夜12點創建此EBS卷的快照。一天晩上,發生了一個生產事件,您需要在當前快照發生的同時對實例和EBS卷執行更改。在快照進行期間使用EBS卷時,以下哪種情況是正確的?A.在快照完成之前,無法將EBS卷分離或連接到EC2實例B、快照正在進行時,EBS卷可以在只讀模式下使用。C、在快照完成之前,無法使用EBS卷。D、快照正在進行時,答案:D可以使用EBS卷。解析:快照異步發生;立即創建時間點快照,但快照的狀態為掛起狀態,直到快照完成(當所有修改的塊都巳轉移到AmazonS3時),對于大型初始快照或許多塊己更改的后續快照,這可能需要幾個小時。<imgsrc="https:〃.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831145108''>在完成過程中,正在進行的快照不會受到正在進行的卷讀寫操作的影響,因此,您仍然可以正常使用EBS卷?;诳煺談摻‥BS卷時,新卷將作為用于創建快照的原始卷的精確副本開始。復制的卷在后臺延遲加載數據,以便您可以立即開始使用它。如果您訪問尚未加載的數據,該卷將立即從AmazonS3下載請求的數據,然后繼續在后臺加載該卷的其余數據。<br>貴公司有一項新的合規規則,每月審核每個Windows和LinuxEC2實例,以查看任何性能問題。它們有100多個EC2實例在生產中運行,每個實例都必須有一個日志記錄功能,用于收集有關該實例的各種系統詳細信息。系統操作團隊將定期審査這些日志,并使用AWS分析工具分析其內容,結果將需要保存在S3存儲桶中。在這種情況下,以最小的工作量從實例中收集和分析日志的最有效方法是什么?在每個實例中安裝AWSInspector代理,該代理將定期收集數據并將數據推送到CloudWatch日志。設置CloudWatch儀表板以正確分析所有實例的日志數據。B、 在每個實例中安裝AWSSDK,并創建一個自定義守護進程腳本,定期收集數據并將數據推送到CloudWatch0志。啟用CloudWatch詳細監控,并使用CloudWatch日志洞察分析所有實例的日志數據。C、 在每個實例中安裝AWSSystemsManager代理(SSM代理),該代理將自動收集數據并將數據推送到CloudWatch日志。使用CloudWatch日志洞察分析冃志數據。D、 在每個實例中安裝統一的CloudWatchH志代理,該代理將自動收集數據并將數據推送到CloudWatchLogSo使用CloudWatch日志洞察分析日志數據。答案:D解析:為了將來自AmazonEC2實例和本地服務器的日志收集到CloudWatch日志中,AWS提供了新的統一CloudWatch代理和舊的CloudWatchlogs代理。建議使用具有以下優點的統-CloudWatch代理:-只需安裝和配置一個代理,即可收集日志和高級指標。-統一代理允許從運行WindowsServer的服務器收集日志。-如果您使用代理收集CloudWatch指標,則統?代理還支持收集額外的系統指標,3030天。要修改度量存儲在CloudWatch0志中的時間量,請在CloudWattch控制3030天。要修改度量存儲在CloudWatch0志中的時間量,請在CloudWattch控制pectorpector代理,該代理將定期收集數據并將數據推送到CloudWatch0志。設置C以實現來賓內可見性。-統一代理提供了更好的性能。vimgsrc=”https:〃.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA?C0320220831145614"〉CloudWatchLogsInsights使您能夠在AmazonCIoudWatch日志中交互式地搜索和分析日志數據。您可以執行查詢以幫助您快速有效地響應操作問題。如果出現問題,您可以使用CloudWatch0志洞察來識別潛在原因并驗證己部署的修復。CIoudWatchLogsInsights包括一種專門構建的查詢語言,其中包含一些簡單但功能強大的命令。CloudWatchLogsInsights提供示例查詢、命令描述、查詢自動完成和日志字段發現,幫助您快速入門。示例查詢包括幾種類型的AWS服務日志。該選項表示:在每個實例中安裝AWSSDK,并創建一個自定義守護進程腳本,定期收集數據并將數據推送到CloudWatch日志。啟用CloudWatch詳細監控并使用CloudWatch日志洞察分析所有實例的日志數據不正確。雖然這是一個有效的解決方案,但這需要花費大量精力來實現,因為您必須分配時間將AWSSDK安裝到每個實例并開發自定義監控解決方案。請記住,問題是專門尋找一個可以用最少的努力實現的解決方案。此外,為了滿足此場景的要求,在CloudWatch中啟用詳細監控是不必要的,也是不經濟的,因為這可以使用CloudWatch0志完成。選項說明:在每個實例中安裝AWSSystemsManager代理(SSM代理),該代理將自動收集數據并將數據推送到CloudWatch日志。使用CIoudWatchLogsInsights分析日志數據不正確。雖然這也是一個有效的解決方案,但使用CloudWatch代理比使用SSM代理更有效。手動連接到實例以查看日志文件并解決SSM代理的問題非常耗時。因此,為了更有效地監控實例,您可以使用CloudWatch代理將冃志數據發送到AmazonCIoudWatchH志。該選項表示:在每個實例中安裝AWSInsloudWatch儀表板以正確分析所有實例的日志數據是不正確的,因為AWSInspector只是一個安全評估服務,它只幫助您檢查EC2實例的意外網絡可訪問性以及這些EC2實例上的漏洞。此外,設置AmazonCloudWatch儀表板并不合適,因為它主要用于您必須在單個視圖中監控資源的場景,甚至是分布在不同AWS區域的資源。最好使用CloudWatch0志洞察,因為它使您能夠交互式地搜索和分析日志數據。在線加密貨幣交換平臺托管在AWS中,在多AZ部署配置中使用ECS集群和RDSo應用程序大量使用RDS實例來處理復雜的讀寫數據庫操作。保持可靠性、可用性和對于系統的性能,您必須密切監視DB實例上的不同進程或線程如何使用CPU,包括每個進程占用的CPU帶寬和總內存的百分比。以下哪種解決方案最適合正確監控數據庫?A、 創建一個腳本,收集自定義指標并將其發布到CloudWatch,該腳本跟蹤RDS實例的實時CPU利用率,然后設置自定義CloudWatch儀表板以查看指標。B、 檢查AmazonRDS控制臺中隨時可用的CPU%和MEM%指標,這些指標顯示RDS實例的每個數據庫進程消耗的CPU帶寬和總內存的百分比。C、 啟用RDS中的増強監控。D、 使用AmazonCloudWatch監視數據庫的CPU利用率。答案:C解析:AmazonRDS為運行DB實例的操作系統(OS)提供實時度量。您可以使用控制臺查看DB實例的度量,或者在您選擇的監控系統中使用CloudWatch日志中的增強監控JS0N輸出。默認情況下,増強的監控指標存儲在CloudWatchH志中臺中更改RDSOSMetrics0志組的保留時間。請注意,CloudWatch和增強型監控指標之間存在某些差異oCIoudWatch從數據庫實例的虛擬機監控程序收集有關CPU利用率的指標,增強監控從實例上的代理收集其指標。因此,您可能會發現測量值之間存在差異,因為虛擬機監控程序層執行的工作量很小。因此,在RDS中啟用増強監控是此特定場景中的正確答案。如果您的DB實例使用較小的實例類,差異可能會更大,因為在單個物理實例上可能有更多的虛擬機(VM)由管理程序層管理。當您希望查看DB實例上的不同進程或線程如何使用CPU時,增強的監視度量非常有用。Vimgsrc=”https:〃.dabaitiku.top/prod-api/system/fiIeinfb/preview?id=SAA-C03_20220831150301">使用AmazonCloudWatch監視數據庫的CPU利用率是不正確的。雖然您可以使用它來監視數據庫實例的CPU利用率,但它不提供RDS實例中每個數據庫進程所消耗的CPU帶寬和總內存的百分比。請注意,CloudWatch從數據庫實例的虛擬機監控程序收集有關CPU利用率的指標,而RDS增強監控則從實例上的代理收集其指標?!皠摻ㄒ粋€腳本,收集自定義指標并將其發布到CloudWatch,跟蹤RDS實例的實時CPU利用率,然后設置自定義CloudWatch儀表板以查看指標”的選項是不正確的。雖然您可以使用AmazonCloudWatch日志和CloudWatch儀表板來監控數據庫實例的CPU利用率,但僅使用CloudWatch仍不足以獲得每個數據庫進程所消耗的CPU帶寬和總內存的特定百分比。與RDS中的增強監控功能相比,CloudWatch提供的數據不夠詳細。請注意,與EC2實例不同,您不能直接訪問RDS數據庫實例的實例/服務器,在EC2實例中,您可以安裝CloudWatch代理或自定義腳本來獲取實例的CPU和內存利用率。“檢査AmazonRDS控制臺中隨時可用的CPU%和MEM%指標(顯示RDS實例的每個數據庫進程消耗的CPU帶寬和總內存百分比)的選項是不正確的,因為在AmazonRDSconsole中不隨時可用CPU%和MEM%指標,這與此選項中的說明相反。一家公司正在EC2實例上托管一個應用程序,該應用程序定期推送和獲取AmazonS3中的數據。由于法規遵從性的變化,這些實例需要移動到專用子網上。隨著這一變化,該公司希望通過配置其AWS資源來降低數據傳輸成本。如何以最具成本效益的方式實現這一點?A、 創建一個AmazonS3網關端點,以在實例和AmazonS3之間啟用連接。B、 設置AWS傳輸網關以訪問AmazonS3oC、 在公共子網中設置NAT網關以連接到AmazonS3oD、 創建一個AmazonS3接口端點,以啟用實例與AmazonS3之間的連接。答案:A解析:AmazonS3的專有網絡端點通過提供到S3的可配置且高度可靠的安全連接,簡化了從專有網絡內對S3的訪問,無需互聯網網關或網絡地址轉換(NAT)設備。創建S3專有網絡端點時,您可以將端點策略附加到該端點,以控制對AmazonS3的訪問。您可以使用兩種類型的專有網絡端點訪問AmazonS3:網關端點和接口端點。網關端點是您在路由表中指定的網關,用于通過AWS網絡從VPC訪問AmazonS3o接口端點通過使用私有IP地址將請求從VPC內部、本地或不同AWS區域路由到AmazonS3,擴展了網關端點的功能。接口端點與網關端點兼容。如果VPC中有現有網關端點,則可以在同一VPC中使用這兩種類型的端點。<imgsrc="htlps://.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C03_20220831150931”Ximgsrc=”https://.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C0320220831150940">使用網關端點不收取額外費用。但是,數據傳輸和資源使用的標準費用仍然適用。因此,正確的答案是:創建?個AmazonS3網關端點,以啟用實例和AmazonS之間的連接。在公共子網中設置NAT網關以連接到AmazonS3的選項不正確。這將實現私有EC2實例和AmazonS3之間的連接,但這不是最具成本效益的解決方案。NAT網關按小時計費,即使是空閑時間也是如此?!皠摻ˋmazonS3接口端點以啟用實例與AmazonS之間的連接”選項不正確。這也是一個可能的解決方案,但不是最具成本效益的解決方案。您為每個配置的接口端點支付小時費率?!霸O置AWS傳輸網關以訪問AmazonS3”的選項是不正確的,因為該服務主要用于通過中央集線器連接專有網絡和內部網絡。一家公司正在使用AWSIAM來管理對AWS服務的訪問。公司的解決方案架構師為AWSLambda創建了以下IAM策略:{”Version":”2012-10-17”,"Statement":Effectn:"AIlow”,"Action”:[”Iambda:CreateFunction","Iambda:DeleteFunction”],"Resource"("Effect":"Deny","Action”:[”Iambda:CreateFunction”,"Iambda:DcleteFunction","lambda:InvokeFunction","Iambda:TagResource"],"Resource":"Condition”:(”IpAddress”:(”aws:SourceIp”:”1/32”}}}])本政策允許以下哪些選項?A、 使用1/32地址創建AWSLambda函數。B、 使用1/32地址創建AWSLambda函數。C、 使用1/32地址刪除AWSLambda函數。D、 從任何網絡地址刪除AWSLambda函數。答案:B解析:您可以通過創建策略并將其附加到IAM標識(用戶、用戶組或角色)或AWS資源來管理AWS中的訪問。策略是AWS中的一個對象,當與標識或資源關聯時,該對象定義其權限。AWS在IAM主體(用戶或角色)發岀請求時評估這些策略。策略中的權限決定是否允許或拒絕請求。大多數策略作為JSON文檔存儲在AWS中。<imgsrc="https://.dabaitiku.top/prod-api/system/fiIeinfb/preview?id二SAA-C03_20220831151648">您可以使用AWSIdentityandAccessManagement(IAM)來管理對LambdaAPl以及函數和層等資源的訪問。根據給定的IAM策略,您可以從除IP地址1/32之外的任何網絡地址創建和刪除Lambda函數。由于IP地址1/32在策略中未被拒絕,因此您可以使用此地址創建Lambda函數。因此,正確答案是:使用1/32地址創建AWSLambda函數。選項顯示:使用1/32地址刪除AWSLambda函數不正確,因為IAM策略拒絕了此選項中使用的源IP。顯示:從任何網絡地址刪除AWSLambda函數的選項不正確。您無法從任何網絡地址刪除Lambda函數,因為地址1/32被策略拒絕。顯示的選項:使用1/32地址創建AWSLambda函數不正確。就像上面的選項一樣,1AM策略拒絕了IP地址1/320一家科技公司有一個托管在AutoSealing按需EC2實例組上的CRM應用程序。該應用程序在辦公時間從早上9點到下午5點被廣泛使用。他們的用戶抱怨應用程序的性能在一天開始時很慢,但幾個小時后就可以正常工作了??梢詧绦幸圆?哪些操作來確保應用程序在一天開始時正常運行?A、 為自動擴展組配置計劃擴展策略,以便在一天開始之前啟動新實例。B、 在您的體系結構中設置應用程序負載平衡器(ALB),以確保流量在實例上正確分布。C、 為自動擴展組配置動態擴展策略,以根據內存利用率啟動新實例。D、 為自動擴展組配置動態擴展策略,以根據CPU利用率啟動新實例。答案:A解析:基于計劃的擴展允許您擴展應用程序以響應可預測的負載變化。例如,每周Web應用程序的流量在周三開始增加,周四保持高位,周五開始下降。您可以根據Web應用程序的可預測流量模式來規劃擴展活動。<imgsrc="https:/Z.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831152415”〉要將AutoScaling組配置為根據計劃進行擴展,您需要創建計劃操作。計劃的操作告訴AmazonEC2AutoScaling在指定時間執行擴展操作。要創建計劃的擴展操作,您需要指定擴展操作應該生效的開始時間,以及擴展操作的新的最小、最大和所需大小。在指定時間,AmazonEC2AutoScaling使用擴展操作指定的最小值、最大值和所需大小的值更新組。您可以創建計劃操作以僅擴展一次或按重復計劃進行擴展。因此,為AutoScaling組配置計劃擴展策略以在一天開始之前啟動新實例是正確的答案。您需要配置計劃擴展策略。這將確保實例在一天開始之前已經擴展并準備就緒,因為這是應用程序使用最多的時候。為AutoScaling組配置動態擴展策略以根據CPU利用率啟動新實例和為AutoSealing組配置動態擴展策略以根據內存利用率啟動新實例都是不正確的,因為雖然這些是有效的解決方案,但它由于您已經知道應用程序的確切高峰時間,因此配置計劃擴展策略仍然更好。當CPU或內存達到峰值時,應用程序己經存在性能問題,因此您需要確保使用計劃擴展策略事先完成擴展。為您的架構設置應用程序負載均衡器(ALB)以確保流量在實例上正確分布是不正確的。Application負載均衡器雖然也可以均衡流量,但不能按需增加實例一家公司決定將其第三方數據分析工具更改為更便宜的解決方案。他們在包含所有分析信息的CSV文件中發送了完整的數據導出。然后,您將CSV文件保存到S3存儲桶進行存儲。您的經理要求您對提供的數據導出進行一些驗證。在這種情況下,使用標準SQL分析導出數據最經濟、最簡單的方法是什么?A、 使用mysqldump客戶端實用程序將CSV導出文件從S3加載到MySQLRDS實例。加載數據后運行一些SQL查詢以完成驗證。B、 為了能夠運行SQL查詢,請使用AWSAthena分析S3中的導出數據文件。C、 創建一個遷移工具,將CSV導出文件從S3加載到DynamoDB實例。加載數據后,使用DynamoDB運行查詢。D、 使用遷移工具將CSV導出文件從S3加載到為在線分析處理(OLAP)設計的數據庫,如AWSRedShifto加載數據后運行一些查詢以完成驗證。答案:B解析:AmazonAthena是一種交互式査詢服務,可以輕松地使用標準SQL直接在AmazonSimpIeStorageService(AmazonS3)中分析數據。通過AWS管理控制臺中的一些操作,您可以將Athena指向您存儲在AmazonS3中的數據,并開始使用標準SQL運行即席查詢并在幾秒鐘內獲得結果。<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831153321">Athena是無服務器的,因此無需設置或管理基礎架構,您只需為運行的查詢付費。Athena可并行擴展自動執行的查詢,因此即使處理大型數據集和復雜查詢,結果也很快。Athenanf幫助您分析存儲在AmazonS3中的非結構化、半結構化和結構化數據。示例包括CSV、JS0N或柱狀數據格式,例如ApacheParquet和ApacheORCo您可以使用Athena使用ANSISQL運行即席查詢,而無需將數據聚合或加載到Athena中。因此,正確答案是:為了能夠運行SQL查詢,請使用AmazonAthena分析S3中的導岀數據文件。其余選項均不正確,因為無需設置數據庫即可分析CSV導出文件。您可以使用具有成本效益的選項(AWSAthena),這是一項無服務器服務,您只需為運行的查詢付費。一家公司生成具有數百萬行的大型財務數據集。解決方案架構師需要以列方式存儲所有數據,以減少磁盤I/O請求的數量并減少從磁盤加載所需的數據量。該銀行現有的第三方商業智能應用程序將連接到存儲服務,然后為全球客戶生成每日和每月財務報告。在這種情況下,滿足需求的最佳存儲服務是什么?A、 AmazonAuroraB、 AmazonRDSC、AmazonDynamoDBD、AmazonRedshift答案:D解析:AmazonRedshift是一個快速、可擴展的數據倉庫,可讓您輕松且經濟髙效地分析數據倉庫和數據湖中的所有數據。Redshift通過使用機器學習、大規模并行查詢執行和高性能磁盤上的列式存儲,提供比其他數據倉庫快十倍的性能。在這種情況下,需要有一個存儲服務供商業智能應用程序使用,并且數據必須以列方式存儲。商業智能報告系統是一種己知Redshift支持的在線分析處理(OLAP)o此外,與其他選項不同,Redshift還提供列式存儲。因此,這種情況下的正確答案是AmazonRedshift.一家公司在未連接到公司網絡的虛擬私有云(VPC)中運行多層Web應用程序場。他們通過Internet連接到VPC,以管理在公共子冋和私有子冋中運行的AmazonEC2實例隊列0SolutionsArchitect添加了一“堡壘主機,該主機具有對應用程序實例安全組的Microsoft遠程桌面協議(RDP)訪問權限,但該公司希望進一步限制對VPC中所有實例的管理訪問權限。以下哪個堡壘土機部署選項將滿足此要求?A、 在公共子網中部署具有彈性IP地址的Windows堡壘主機,并允許SSH從任何地方訪問堡壘。B、 在企業網絡上部署一臺WindowsBasion主機,該主機具有對VPC中所有EC2實例的RDP訪問權限。C、 在公共子網中部署具有彈性IP地址的Windows堡壘主機,并僅允許RDP從公司IP地址訪問堡壘。D、 在專用子網中部署具有彈性IP地址的Windows堡壘主機,并限制RDP僅從公司公共IP地址訪問堡壘。答案:C解析:正確答案是在公有子網中部署具有彈性IP地址的WindowsBastion主機,并允許RDP僅從公司IP地址訪問堡壘。堡壘主機是專門設計和配置用于抵御攻擊的網絡上的專用計算機。如果你在AWS中有一個堡壘主機,它基本上只是一個EC2實例。它應該位于具有公共或彈性IP地址的公共子網中,并在安全組中定義了足夠的RDP或SSH訪問權限。用戶通過SSH或RDP登錄堡壘主機,然后使用該會話管理私有子網中的其他主機.<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831154601”〉在對VPC中的所有EC2實例具有RDP訪問權限的公司網絡上部署WindowsBastion主機是不正確的,因為您沒有將Bastion主機部署到您的公司網絡。它應該位于VPC的公共子網中。在私有子網中部署具有彈性IP地址的WindowsBastion主機,并限制RDP僅從公司公共IP地址訪問堡壘是不正確的,因為它應該部署在公共子網中,而不是私有子網中。在公有子網中部署具有彈性IP地址的WindowsBastion主機并允許從任何地方通過SSH訪問堡壘是不正確的。由于它是Windows堡壘,因此您應該允許RDP訪問而不是SSH,因為這主要用于基于Linux的系統.Iambda-urI.us-west-2.on.aws/數據庫引發”連接過多”錯誤,阻止用戸訪問應用程序。公司可以采取哪種解決方案來解決問題?A、 増加Lambda函數的內存分配B、 在Lambda函數和RDS數據庫實例之間提供RDS代理C、 增加API網關的速率限制D、 増加Lambda函數的并發限制答案:B解析:如果連接到MySQL數據庫的客尸端發生“連接過多”錯誤,則意味著所有可用連接都被其他客戶端使用。打開連接會消耗數據庫服務器上的資源。由于Lambda函數可以擴展到數萬個并發連接,因此您的數據庫需要更多資源來打開和維護連接,而不是執行查詢。數據庫可以支持的最大連接數很大程度上取決于分配給它的內存量。升級到具有更高內存的數據庫實例是解決問題的直接方法。另一種方法是維護一個客戶端可以重用的連接池。這就是RDSProxy的用武之地<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C03_20220831155026">RDSProxy通過建立到數據庫的暖連接池來幫助您管理從Lambda到RDS數據庫的大量連接。您的Lambda函數與RDS代理而不是您的數據庫實例進行交互。它處理擴展由并發Lambda函數創建的許多同時連接所需的連接池。這允許您的Lambda應用程序重用現有連接,而不是為每個函數調用創建新連接。因此,正確答案是:ProvisionanRDSProxybetweentheLambdafunctionandRDSdatabascinstancefbrmat說:増加Lambda函數的并發限制的選項不正確。并發限制是指AWSLambda可以同時處理的最大請求數。増加限制將允許更多請求打開數據庫連接,這可能會使問題惡化。說:増加APIGateway的速率限制的選項不正確。這根本無法解決問題,因為它所做的只是增加了客戶端可以發出的API請求的數量。顯示的選項:増加Lambda函數的內存分配不正確。増加Lambda函數的內存只會使其運行進程更快。它可以提供幫助,但不太可能對消除錯誤產生任何重大影響。“連接過多”錯誤是與數據庫相關的問題。與數據庫有關的解決方案,例如升級到更大的數據庫實例,或者在這種情況下,使用RDS代理創建數據庫連接池更有可能解決問題.24xlarge預留EC2實例中,該實例將處理數據并將數據存儲到存儲服務中。您會推薦以下哪些存儲服務?EFSB、 S3C、 EBSD、 StorageGateway答案:C解析:AmazonWebServices(AWS)提供云存儲服務以支持廣泛的存儲工作負載,例如AmazonS3、EFS和EBS。AmazonEFS是一種與AmazonEC2—起使用的文件存儲服務。AmazonEFS為多達數千個AmazonEC2實例提供文件系統接口、文件系統訪問語義(例如強一致性和文件鎖定)以及可并發訪問的存儲。AmazonS3是一種對象存儲服務。AmazonS3通過可在任何地方訪問的IntemetAPI提供數據。AmazonEBS是一種與AmazonEC2一起使用的塊級存儲服務oAmazonEBS可以為需要以最低延退從單個EC2實例訪問數據的工作負載提供性能。您還可以將EBS存儲增加到16TB,或添加新卷以增加存儲。在這種情況下,該公司正在尋找一種存儲服務,該服務可以提供對其數據的最低延遲訪問,這些數據將由單個m5ad.24xlarge預留EC2實例獲取。使用EFS或EBS可以更好地支持這種類型的工作負載,但在這種情況下,后者是最合適的存儲服務。如上所述,EBS為您的EC2實例提供了對數據的最低延退訪問,因為卷直接附加到實例。此外,該場景不需要可并發訪問的存儲,因為它們只有一個實例。因此,正確答案是EBSo<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C03_20220831155538,,ximgsrc=,,https:/Z.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831155544">StorageGateway不正確,因為它主要用于將您的本地存儲擴展到您的AWS云。S3是不正確的,因為盡管它也是高度可用和高度可擴展的,但它仍然不提供對數據的最低延遲訪問,這與EBS不同。請記住,默認情況下S3不駐留在您的VPC中,這意味著數據將遍歷公共Internet,這可能會導致更髙的延退。您可以為S3設置VPC端點,但它的延退仍然大于EBSoEFS是不正確的,因為該方案不需要可并發訪問的存儲,因為內部應用程序僅托管在一個實例中。雖然EFS與S3相比可以提供對EC2實例的低延遲數據訪問,但能夠提供最低延遲訪問的存儲服務仍然是EBSo解決方案架構師正在為應用程序設計一個高度可用的環境。她計劃在AutoScaling組內的EC2實例上托管應用程序。其中一個條件要求在實例終止時保留存儲在根EBS卷上的數據。應該怎么做才能滿足要求?A、 使用AWSDataSync將根卷數據復制到AmazonS3oB、 配置ASG以掛起每個EC2實例的運行狀況檢查過程。C、 將EBS卷的DeIeteOnTermination屬性的值設置為FaIseoD、 為所有EC2實例啟用終止保護選項。答案:C解析:默認情況下,AmazonEBS根設備卷會在實例終止時自動刪除。但是,默認情況下,您在啟動時附加的任何其他EBS卷或附加到現有實例的任何EBS卷即使在實例終止后仍然存在。此行為由卷的DeleteOnTermination屬性控制,您可以修改該屬性。要在實例終止時保留根卷,請將根卷的DeleteOnTermination屬性更改為FaIseo<imgsrc-'https://.dabaitiku.top/prod-api/system/fiIeinfb/preview?id=SAA-C03_20220831155948">可以在啟動實例時通過AWS控制臺或通過CLI/API命令更改此EBS屬性。因此,正確答案是以下選項:將EBS卷的DeleteOnTermination屬性的值設置為Falseo說:使用AWSDataSync將根卷數據復制到AmazonS3的選項不正確,因為AWSDataSync不適用于AmazonEBS卷。DataSync可以在網絡文件系統(NFS)共享、服務器消息塊(SMB)共享、自我管理的對象存儲、AWSSnowconexAmazonSimpIeStorageService(AmazonS3)存儲桶、AmazonEIasticFiIeSystem(AmazonEFS)文件系統之間復制數據和AmazonFSxfbrWindowsFiIeServer文件系統。選項說:配置ASG以暫停每個EC2實例的運行狀況檢査過程是不正確的,因為暫停運行狀況檢査過程將阻止ASG替換運行狀況不佳的EC2實例。這可能會導致應用程序出現可用性問題。顯示的選項:為所有EC2實例啟用終止保護選項不正確。終止保護只會防止您的實例使用AmazonEC2控制臺意外終止。一位解決方案架構師正在設計一個監控應用程序,該應用程序會生成公司云基礎架構的所有運營活動的審計日志。他們的IT安全和合規團隊要求應用程序將日志保留5年,然后才能刪除數據。架構師如何滿足上述要求A、 將審核日志存儲在Glacier保險庫中并使用保險庫鎖定功能。B、 將審計日志存儲在AmazonS3存儲桶中,并在S3存儲桶上啟用多重身份驗證刪除(MFADelete)oC、 將審計日志存儲在EBS卷中,然后每月拍攝EBS快照。D、 將審核日志存儲在EFS卷中并使用網絡文件系統版本4(NFSv4)文件鎖定機制。答案:A解析:AmazonS3Glacier(Glacier)文件庫可以附加一個基于資源的文件庫訪問策略和一個文件庫鎖定策略。保管庫鎖定策略是您可以鎖定的保管庫訪問策略。使用VaultLock策略可以幫助您執行法規和合規性要求。AmazonS3Glacier為您提供一組API操作來管理文件庫鎖定策略<imgsrc="https://.dabaitiku.top/prod-api/system/fileinfb/preview?id=SAA-C03_20220831160829H>作為VaultLock策略的示例,假設您需要將檔案保留一年才能刪除它們。要實現此要求,您可以創建一個VaultLock策略,該策略拒絕用戶刪除檔案的權限,直到檔案存在-?年。您可以在鎖定此策略之前對其進行測試。鎖定策略后,策略將變為不可變。有關鎖定過程的更多信息,請參閱AmazonS3GlacierVaultLocko如果您想管理其他可以更改的用戶權限,您可以使用文件庫訪問策略AmazonS3Glacier支持以下存檔操作:上傳、下載和刪除。檔案是不可變的,不能修改。因此,正確的答案是將審核日志存儲在Glacier保險庫中并使用保險庫鎖定功能。將審計日志存儲在EBS卷中,然后每月拍攝EBS快照是不正確的,因為這不是一個合適且安全的解決方案。任何有權訪問EBS卷的人都可以簡單地刪除和修改審計日志。快照也可以刪除。將審計日志存儲在AmazonS3存儲桶中并在S3存儲桶上啟用多重身份驗證刪除(MFADelete)是不正確的,因為這仍然不符合要求。如果有人可以訪問S3存儲桶并且還具有適當的MFA權限,則可以編輯審核日志。將審計日志存儲在EFS卷中并使用網絡文件系統版本4(NFSv4)文件鎖定機制是不正確的,因為如果將審計日志存儲在網絡文件系統版本4的EFS卷中,審計日志的數據完整性仍然會受到影響(NFSv4)文件鎖定機制,因此不適合作為文件存儲。盡管它會提供某種安全性,但文件鎖仍然可以被覆蓋,并且審核日志可能會被其他人編輯—家公司擁有基于Web的票務服務,該服務利用AmazonSQS和一組EC2實例。使用來自SQS隊列的消息的EC2實例配置為盡可能頻繁地輪詢隊列,以保持端到端吞吐量盡可能高。解決方案架構師注意到,在緊密循環中輪詢隊列會占用不必要的CPU周期,從而由于空響應導致運營成本增加。在這種情況下,解決方案架構師應該怎么做才能使系統更具成本效益?通過將ReceiveMessageWaitTimeSeconds設置為零,將AmazonSQS配置為使用短輪詢。B、 通過將ReceiveMessageWaitTimeSeconds設置為大于零的數字,將AmazonSQS配置為使用長輪詢。C、 通過將ReceiveMessageWaitTimeSeconds設置為零,將AmazonSQS配置為使用長輪詢。D、 通過將ReceiveMessageWaitTimeSeconds設置為大于零的數字,將AmazonSQS配置為使用短輪詢。答案:B答案:B解析:AmazonMQ是適用于ApacheActiveMQ的托管消息代理服務,可輕松在云中設置和操作消息代理。將您當前的應用程序連接到AmazonMQ很容易,因為它使用行業標準API和協議進行消息傳遞,包括JMS、NMS、AMQP、STOMP、MQTT和WebSocketo使用標準意味著在大多數情況下,當您遷移到AWS時無需重寫任何消息傳遞代碼。AmazonMQ\AmazonSQS和AmazonSNS是適合從初創公司到企業的任何人的消息傳遞服務。如果您在現有應用程序中使用消息傳遞并希望將消息傳遞服務快速輕松地遷移到云中,建議您考慮使用AmazonMQO它支持行業標準API和協議,因此您可以從任何基于標準的消息代理切換到AmazonMQ,而無需重寫應用程序中的消息傳遞代碼。<imgsrc-'https://.dabaitiku.top/prod-api/system/fileinfb/preview?id二SAA-C03_20220831162530”>如果您在云中構建全新的應用程序,那么強烈建議您考慮使用AmazonSQS和AmazonSNS。AmazonSQS和SNS是輕量級、完全托管的消息隊列和主題服務,幾乎可以無限擴展并提供簡單易用的API。您可以使用AmazonSQS和SNS解耦和擴展微服務、分布式系統和無服務器應用程序,并提高可靠性。因此,AmazonMQ是正確的答案。AmazonSNS不正確,因為它更適合作為發布/訂閱消息服務而不是消息代理服務oAmazonSQS不正確。盡管這是一項完全托管的消息隊列服務,但與AmazonMQ不同,它不支持廣泛的行業標準消息傳遞API和協議列表。此外,使用AmazonSQS需要您對應用程序的消息傳遞代碼進行額外更改以使其兼容。AWSStepFunctions不正確,因為它是無服務器函數編排器,而不是消息傳遞服務,這與AmazonMQ>AmazonSQS和AmazonSNS不同。<br>27.—家公司有一個電子商務應用程序,可將事務日志保存到S3存儲桶中。CTO指示您將應用程序配置為將事務日志保留一個月以進行故障排除,然后清除日志。你應該怎么做才能完成這個要求?A、 在AmazonS3bucket上添加新的bucket策略。B、 在AmazonS3bucket±啟用CORS,這將啟用每月自動刪除數據C、 為AmazonS3bucket創建一個新的IAM策略,在一個月后自動刪除日志D、 在AmazonS3bucket±配置生命周期配置規則,以在一個月后清除事務日志答案:D解析:在這種情況下,完成要求的最佳方法是簡單地在Amazon

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論