Lo curioso del término Big Data es que hace referencia a conjuntos de datos que necesitan ser procesados (hasta ahí lo normal) y que por su tamaño o complejidad exceden las capacidades normales de procesamiento (ahí está lo interesante). Pero ¿dónde encuentro yo lo curioso?
Pues en que hasta hace relativamente poco, este tipo de conjunto de datos se podían encontrar casi de forma exclusiva en el ámbito científico, por ejemplo en la astronomía, meteorología, o en experimentos como los del CERN. Sin embargo, si nos damos una vuelta por las tendencias tecnológicas de los últimos tiempos, el concepto del Big Data aparece constantemente. Y una de las razones es que estamos asistiendo a una verdadera explosión de datos que tienen que ver con nosotros. Sí, de una manera más activa y mucho más cercana que los datos generados por un colisionador de hadrones.
Por ejemplo, en el rato en el que estoy escribiendo estas líneas, cientos de miles, de miles, de miles de datos van poblando las bases de datos de Facebook (por poner un ejemplo), almacenando estados, reflexiones, fotografías, videos, datos de geolocalización, “me gusta” de páginas comerciales, actividad diaria que da mucha información sobre nuestros gustos, tendencias, planes y objetivos. Esa actividad es oro líquido para cualquiera que quiera analizar el mercado y lanzar ofertas y productos personalizados. Pero esa ingente cantidad de datos tienen que ser analizados para extraer de ellos información. Y este ejemplo es extrapolable al caso de las aplicaciones de salud, que aprovechan nuestra conexión casi absoluta con los móviles, para ir recogiendo parámetros que puedan ser usado para objetivos menos marketeros y más saludables. El caso es que, sea como sea, tanto nosotros mismos como los sistemas en los que nos movemos (literalmente, un coche tiene cientos de sensores que van extrayendo información que se debe almacenar y procesar), hemos convertido el Big Data en algo más cercano de lo que lo estaba por ejemplo hace tres décadas.
Por otra parte, también es habitual que se mencione junto con el término BI (Business Intelligence), pero ¿qué les diferencia exactamente? En una primera aproximación, los procesos de BI utilizarían métodos descriptivos para poder medir o determinar el valor de indicadores, detectar tendencias, etc. Sin embargo, los procesos enfocados al Big Data usarían métodos inductivos y conceptos que provienen de sistemas no lineales para poder establecer leyes que revelen relaciones, dependencias y poder hacer predicciones. Los más optimistas incluso sostienen que con los procesos de Big Data se podría dejar a parte la teoría científica tal y como se conoce hasta ahora, porque en vez de tomar un conjunto de datos de la realidad y usarlos para hacer predicciones en base a teorías, se podría analizar todos los datos, toda la ingente cantidad de datos real, y buscar en ellos las relaciones que hasta ahora han permanecido ocultas en ellos, y hacerlas salir a flote, descubriendo lo que los datos nos han estado ocultando por nuestra incapacidad para procesarlos en conjunto, hasta ahora… ¿Suena interesante? A mí me parece que sí, por eso en siguientes entradas seguiremos más de cerca este concepto.
Image: ‘Post Big Bang’
Found on flickrcc.net
[…] conjuntos-de-datos-grandes (sí, la verdad es que ‘Big Data‘ es un término más sonoro y corto) podrían ser definidos según tres dimensiones […]
[…] de las nuevas tecnologías se entrecruzan, cabe destacar que este área desemboca en las aguas del Big Data, ya que es una tecnología fuente de datos masivos casi por definición que serán explotados para […]