O Apache Hadoop é um framework que permite atuar com processamento distribuído de grandes conjuntos de dados através de clusters de computadores utilizando modelos simples de programação (HADOOP, 2022).

O Apache Hadoop é muito utilizado nos projetos de processamento de dados. Um dos seus principais componente é o MapReduce, que tem seu funcionamento baseado em

Selecione uma alternativa:
a)
quebrar um problema em subproblemas, em uma etapa chamada de Reduce, resolvê-los e, então, agregar as respostas parciais em uma final, em uma etapa chamada Map.

b)
armazenar um conjunto de dados na memória de múltiplas máquinas, em uma etapa chamada Reduce e, quando necessário, consultar estes dados em uma etapa chamada Map.

c)
armazenar um conjunto de dados na memória de múltiplas máquinas, em uma etapa chamada Map e, quando necessário, consultar estes dados em uma etapa chamada Reduce.


d)
armazenar um conjunto de dados na memória de múltiplas máquinas, em uma etapa chamada Map e, em seguida, processar estes dados em uma etapa chamada Reduce.

e)
quebrar um problema em subproblemas, em uma etapa chamada de Map, resolvê-los e, então, agregar as respostas parciais em uma final, em uma etapa chamada Reduce.
Please enter comments
Please enter your name.
Please enter the correct email address.
You must agree before submitting.

Lista de comentários


Helpful Social

Copyright © 2024 ELIBRARY.TIPS - All rights reserved.