BigData_DataLake_AWS
Foram desenvolvidos os conceitos fundamentais do big data, incluindo volume, variedade e velocidade dos dados, aplicada as tecnologias e ferramentas utilizadas no processamento e análise de big data como o Apache Spark e suas características.
Neste exercício foi aplicado os conceitos fundamentais do Spark, como RDDs, DataFrames e Datasets, data wrangling (limpeza, transformação e integração de dados), AWS S3, AWS IAM e AWS Athena para análise exploratória de dados.