miércoles, 20 de mayo de 2015

¿Que es Hadoop?

Apache Hadoop es un framework que permite el procesamiento de grandes volúmenes de datos a través de clusters, usando un modelo simple de programación. Además su diseño permite pasar de pocos nodos a miles de nodos de forma ágil. Hadoop es un sistema distribuido usando una arquitectura Master-Slave, usando para almacenar su Hadoop Distributed File System (HDFS) y algoritmos de MapReduce para hacer cálculos.

Fuente: http://www.ticout.com/blog/2013/04/02/introduccion-a-hadoop-y-su-ecosistema/

sábado, 16 de mayo de 2015

¿Que es Docker y sus principales características

El contenedor Linux se ha convertido en una herramienta que ayuda tanto a desarrolladores como a administradores de sistema a probar aplicaciones o sistemas en un entorno seguro e igual al de producción, reduciendo así tiempos de pruebas y adaptaciones a cambios de hardware desde el entorno de prueba al de producción.
Con la tecnología de Docker podremos virtualizar un Linux con todas las aplicaciones que necesitemos dentro de nuestro sistema operativo Linux, para "empaquetarlo" y desplegarlo en cualquier otro Linux sin necesidad más que de introducir un par de comandos.
Fuente: https://openwebinars.net/docker-que-es-sus-principales-caracteristicas/

sábado, 21 de marzo de 2015

¿Que es un Científico de Datos?

Un científico de datos es una persona con fundamentos en matemáticas, estadística y métodos de optimización, con conocimientos en lenguajes de programación y que además tenga una experiencia práctica en el análisis de datos reales y la elaboración de modelos predictivos.