Na Unidade 1, contextualizaremos e aprenderemos o volume de dados no mundo atual e os tipos de dados. Revisaremos os conceitos de Big Data e como resolver as principais problemáticas. Nesta unidade, você terá o seu primeiro contato com um algoritmo de coleta de dados.
Durante a Unidade 2, nós avançaremos nos conhecimentos acerca do Apache Hadoop, e discutiremos, com detalhes, cada componente desse framework, além das principais maneiras de utilizá-lo.
A Unidade 3 será destinada à utilização e à compreensão do Apache Spark, conhecendo os principais conceitos e funcionalidades. Nesta unidade, também realizaremos alguns scripts de paralelização, visando comparar recursos do Hadoop com o Spark, integrando-os com bancos de dados NoSQL.
Informática e Tecnologia