Apache Hadoop es un framework que permite el procesamiento de grandes volúmenes de datos a través de clusters, usando un modelo simple de programación. Además su diseño permite pasar de pocos nodos a miles de nodos de forma ágil. Hadoop es un sistema distribuido usando una arquitectura Master-Slave, usando para almacenar su Hadoop Distributed File System (HDFS) y algoritmos de MapReduce para hacer cálculos.
Fuente: http://www.ticout.com/blog/2013/04/02/introduccion-a-hadoop-y-su-ecosistema/
miércoles, 20 de mayo de 2015
sábado, 16 de mayo de 2015
¿Que es Docker y sus principales características
El contenedor Linux se ha convertido en una herramienta que ayuda tanto a desarrolladores como a administradores de sistema a probar aplicaciones o sistemas en un entorno seguro e igual al de producción, reduciendo así tiempos de pruebas y adaptaciones a cambios de hardware desde el entorno de prueba al de producción.
Con la tecnología de Docker podremos virtualizar un Linux con todas las aplicaciones que necesitemos dentro de nuestro sistema operativo Linux, para "empaquetarlo" y desplegarlo en cualquier otro Linux sin necesidad más que de introducir un par de comandos.
Suscribirse a:
Entradas (Atom)