Cinco mitos sobre Big Data » SmartCIO
 

Pages

Categories

Buscar

Una web de MuyComputerPRO Sites


Cinco mitos sobre Big Data

Cinco mitos sobre Big Data

María Guilarte
Por
1 octubre, 2014
Tendencias

Muchas veces los mitos nacen del exceso de información y estos mitos pueden surgir sobre cualquier cosa ¿Y qué genera más información que Big Data? La consultora Gartner ha detectado cinco mitos que nacen de una de las tendencias tecnológicas más fuertes del momento.

Big Data ofrece grandes oportunidades, pero plantea retos aún mayores. Su enorme volumen no resuelve los problemas inherentes a todos  los datos, explicaba Alexander Linder, director de investigación en Gartner. Los directores tecnológicos necesitan cortar lo que les llega a través de la publicidad y la confusión y basar sus acciones en hechos conocidos y conductores de negocio.

Número 1: “Todo el mundo está por delante de nosotros en la adopción de Big Data”.

Es cierto que el interés por las nuevas tecnologías, y en concreto Big Data, se encuentra en un máximo histórico. El 73% de las organizaciones encuestadas por Gartner durante 2014 revelaban tener planes de invertir en estas tecnologías. Pero la mayoría de las organizaciones todavía se encuentran en estados tempranos de la adopción y solo el 13% de los encuestados declararon haber implementado ya una solución de Big Data.

Número 2: “Tenemos tantos datos que no necesitamos preocuparnos de cada pequeño fallo”.

Muchos directores de tecnología creen que trabajar con grandes cantidades de datos minimiza el riesgo de fallo debido a la “ley de los grandes números”. Piensan que los defectos en la calidad de los datos indivuales no influyen en el resultado global, ya que cada error es solo una pequeña parte de el total de la organización.

Gartner recuerda que “en realidad, aunque cada fallo individual tiene un impacto muy pequeño en el conjunto de los datos, hay más fallos porque existen más datos“, explica Ted Friedmand, vicepresidente y analista distinguido en Gartner. “Por lo tanto, el impacto general de un conjunto de datos de mala calidad sigue siendo el mismo. Además, muchos de los datos que utilizan las organizaciones dentro del contexto de Big Data vienen de fuera de la empresa o tienen una estructura y origen desconocido. Esto significa que la probabilidad de que existan problemas en la calidad de los datos es aún mayor que antes. Así que la calidad de los datos es, en realidad, mucho más importante cuando se trata de Big Data”.

Número 3: “La tecnología Big Data eliminará la necesidad de la integración de los datos”.

Existe una opinión general sobre Big Data que determina que tiene un gran potencial para procesar la información y crear un esquema de lectura. Se piensa que las organizaciones podrán leer desde distintas fuentes, distintos modelos de datos. Muchas personas piensan que esta flexibilidad permitirá a los usuarios finales determinar cómo interpretar cualquier activo de datos bajo demanda. También creen que proporcionarán acceso a datos concretos de usuarios individuales.

En realidad, la mayoría de los usuarios de esta información dependen en gran medida de un “esquema de escritura”, equivalentes a escenarios en los que se describen los datos, el contenido prescribe y no hay un acuerdo sobre la integridad de los datos y como éstos se relacionan con los escenarios.

Número 4: “No tiene sentido utilizar centros de datos para análisis avanzado”.

Muchos gestores de información (information managers) consideran que construir un centro de datos es una pérdida de tiempo, ya que el análisis de los datos está avanzando más allá de su almacenamiento.

La realidad es que muchos proyectos de analítica avanzada utilizan un centro de datos durante su análisis. En otros casos los gestores de información deberán redefinir los nuevos que formen parte de este Big Data, para hacerlos más adecuados para el análisis. Serán los gestores de información los que decidan qué dato es relevante, cómo debe agregarse y qué nivel de calidad debe tener. Este refinamiento puede ocurrir en distintos escenarios, que no tiene por qué ser centros de datos.

Número 5. “Los Data Lakes reemplazarán al Data Warehouse”.

Puede que vayan surgiendo nuevas alternativas o que se nombre a los bautizados como “lagos de datos” como fórmula viable de almacenamiento a modo de repositorio único. Pero la aparición de nuevos modelos no implica desterrar los anteriores, sobre todo cuando los más recientes aún “no tienen la madurez y amplitud de características” del resto.

En realidad es engañoso para los proveedores, situar a estos “dates lakes” como unos sustitutos de los centros de datos o como elementos críticos en la infraestructura analítica de los clientes. Las tecnologías de las “data lakes” no tienen todavía una madurez y una amplitud como la de los centros de datos. “Los centros de datos disponen de capacidades que pueden apoyar a una amplia variedad de usuarios en toda la organización. Los gestores de información no tienen que esperar por los data lakes para ponerse al día“, explica Nick Heudecker, director de investigación en Gartner.

Posts Relacionados