El término ha estado en uso desde la década de 1990, y algunos otorgan crédito a John Mashey por popularizarlo. Big data o macrodatos es un término que hace referencia a una cantidad de datos tal, que supera la capacidad del software convencional para ser capturados, administrados y procesados en un tiempo razonable. El volumen de los datos masivos crece constantemente. En el 2012, se estimaba su tamaño de entre una docena de terabytes hasta varios petabyte de datos en un único conjunto de datos. En la metodología MIKE2.0, dedicada a investigar temas relacionados con la gestión de información, definen Big Data en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales.
Se ha definido también como datos lo suficientemente masivos como para poner de relieve cuestiones y preocupaciones en torno a la efectividad del anonimato desde una perspectiva más práctica que teórica.
Una definición de 2016 establece que “Big data representa los activos de información caracterizados por un volumen, velocidad y variedad tan altos que requieren una tecnología específica y métodos analíticos para su transformación en valor”. Además, algunas organizaciones agregan una nueva V, veracidad para describirlo, revisionismo cuestionado por algunas autoridades de la industria. Las tres V (volumen, variedad y velocidad) se han ampliado a otras características complementarias del Big Data:
Una definición de 2018 establece que “Big Data es donde se necesitan herramientas informáticas paralelas para manejar los datos”, y señala: “Esto representa un cambio distinto y claramente definido en la informática utilizada a través de teorías de programación paralelas y pérdidas de algunas de las garantías y capacidades hechas por el modelo relacional de Codd”.
La creciente madurez del concepto describe de manera clara y bien nítida, la diferencia entre “Big Data (Datos a gran escala)” y “Business intelligence (Inteligencia empresarial)”:
· La Business intelligence usa estadísticas descriptivas con datos con alta densidad de información para medir cosas, detectar tendencias, etc.
Por su parte, el Big Data usa estadísticas inductivas y conceptos de identificación de sistemas no lineales, para inferir leyes (regresiones, relaciones no lineales y efectos causales) a partir de grandes conjuntos de datos con baja densidad de información, con la finalidad de revelar relaciones y dependencias, o para realizar predicciones de resultados y comportamientos.
Los macrodatos se pueden describir por las siguientes características:
· Volumen: la cantidad de datos generados y guardados.
· Variedad: el tipo y naturaleza de los datos para ayudar a las personas a analizar los datos y usar los resultados de forma eficaz. Los macrodatos usan textos, imágenes, audio y vídeo. También completan pedazos ¿Qué pedazos? pedidos a través de la fusión de datos.
· Velocidad: en este contexto, la velocidad a la cual se generan y procesan los datos para cumplir las exigencias y desafíos de su análisis.
· Veracidad: la calidad de los datos capturados puede variar mucho y así afectar a los resultados del análisis.
Valor: los datos generados deben ser útiles, accionables y tener valor.
L | M | X | J | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Comentarios recientes