Tecnología

Big Data: la revolución silenciosa

No hay duda de que el Big data llegó para quedarse. La revolución tecnológica de estos años todavía está en pañales y las empresas ya están conociendo los desafíos que implica esta carrera en la que nadie quiere perder.

Por: Daniel Vizcarra G. | Publicado: Martes 29 de noviembre de 2016 a las 16:00 hrs.
  • T+
  • T-

Compartir

Una vez que internet nació como algo parecido a lo que conocemos hoy, hace unos 26 años, se planteó que ya nada iba a ser igual. Casi una obviedad para los que vivieron a conciencia durante los ochenta, pero no para los que nacieron a comienzos de este milenio.

Sin embargo, es probable que ni los Millennials hubieran proyectado el violento crecimiento de las redes. Hoy, cada hora, cada minuto, cada segundo, más seres humanos generan datos e información. El crecimiento es exponencial, ya que las máquinas ahora también entraron en la producción de datos y cada día se fabrican más de éstas, capaces de conectarse a internet. Según cálculos de Frost & Sullivan, 90% de la información del mundo se ha generado en los últimos dos años y, probablemente, el 90% se creará en el futuro en un lapso de sólo seis meses o incluso menos. Cifras brutales que reflejan la velocidad a la que el mundo crece en el ciberespacio.

La información y los datos son relevantes en todo orden de cosas y justamente para sacarle el máximo provecho se creó Big Data. Aunque este concepto empieza a sonar cada vez con más fuerza en la vida cotidiana, todavía no hay pleno conocimiento sobre qué es exactamente ni para qué sirve.

Big Data es, en términos generales, la tecnología que permite analizar masivas cantidades de datos generados por distintos usuarios o cosas conectadas a la red y que no pueden ser procesados utilizando los métodos convencionales.

Esa gran cantidad de información puede ser tipificada de las siguientes maneras:

- Estructurada: dato que puede ser almacenado, consultado, analizado y manipulado por máquinas, normalmente, en modo de tabla organizada, como una plantilla de Excel. Una nómina de pacientes de un hospital o una lista de compras para un evento.

- Semiestructurada: un ejemplo clásico dentro de esta clasificación son los correos electrónicos, que poseen información que tiene una estructura, pero en su interior hay información que no está ordenada, como lo pueden ser documentos, que no están dentro de una base de datos.

- No estructurada: esta información no puede ser almacenada en estructuras de datos relacionales predefinidas. Es por eso que no están contenidos en una base o algún otro tipo de estructura. Pueden ser textuales o no textuales.

La cantidad de información que cada uno de nosotros entrega, y de manera casi voluntaria, es impresionante.
Si sumamos todo aquello que realizamos en redes sociales, como Twitter y Facebook, además de la información almacenada en censos de todos los países, los distintos servicios públicos y registros privados, se puede decir que diariamente se generan 2,5 quintillones de bytes en el mundo, lo que es equivalente a ocho veces la cantidad de estrellas en el universo. De hecho, se espera que para 2020 cada individuo sea capaz de crear 1,7 megabytes de información nueva por segundo. De acuerdo a Bernard Marr, experto en el uso de esta tecnología, en cuatro años más nuestro mapa de datos pasará de 4,4 zettabytes que existen actualmente a 44 zettabytes (44 billones de gigabytes).

Las grandes empresas de tecnología saben casi todo sobre nosotros, desde dónde estamos hasta qué música oímos, en qué restaurante estamos comiendo e incluso a qué hora nos levantamos. La idea es saber qué hacer con esa información y sacar provecho de ella.

Las Cuatro "V"

El negocio del Big Data consiste en poder aprovechar la Variedad y el gran Volumen de datos con la Veracidad y Velocidad necesarias. Estas cuatro "V", como se les conoce en la industria, son parte muy importante de esta tecnología y representan desafíos a futuro para el sector. Y cada una tiene su propia complejidad.

- La Velocidad con la que se generan los datos dados los altos niveles de interconexión en los que vivimos, así como la velocidad con la que se hace necesario capturar, almacenar, analizar y, sobre todo, reaccionar para extraer el valor de negocio a los datos analizados. Esto constituye un gran reto no sólo para el área de tecnología, sino para las áreas de operaciones como las del retail.

- La segunda "V" es el Volumen. Este concepto en Big Data se refiere a la acumulación a gran escala de datos. Los volúmenes de información disponibles actualmente suponen verdaderos desafíos técnicos. Es más, en 2020 más de 25 mil millones de dispositivos estarán conectados a internet, lo que complejizará el reto para el futuro respecto a la recolección de información.

- La siguiente es la Variedad. Diariamente se crean enormes cantidades de datos, de las más diversas fuentes y formatos. Desde estructurados y relativamente fáciles de gestionar, por su longitud fija y formato predefinido como bases de datos, hasta información no estructurada en forma de documentos, videos, correos electrónicos, provenientes de telefonía móvil, redes sociales, entradas de un blog, presentaciones, que requerirán un tratamiento distinto, herramientas específicas y, por sobre todo, la capacidad de combinar y conjugar unos y otros.

- Por último, la Veracidad, vital, como todas, en el negocio del Big Data. Y es que trata sobre la calidad del dato, como su predictibilidad y disponibilidad. La Variedad, dicen los expertos, afecta a la Veracidad, por lo que esta última es la variable menos uniforme a lo largo de los distintos tipos de dato, ya que lleva implícita la alteración de los mismos. Objetivo del negocio es que los datos recolectados sean limpios.

Usos y alcances

¿Cuáles son las potencialidades del Big Data? Todos los sectores están utilizando esta tecnología, desde el marketing hasta el deporte. No hay industria a la que esta tendencia no llegue y sus usos son, a veces, más cotidianos de lo que se piensa.

En el sector de salud, cada vez que se revisa la frecuencia cardíaca, la presión arterial, los niveles de azúcar, las hormonas de los pacientes, se está creando información. La cantidad de datos generados por las máquinas que monitorean a pacientes en clínicas y otras instituciones de salud, es un gran ejemplo del manejo de la información en cantidades masivas. Los científicos y expertos en informática podrán tener a su disposición una gran cantidad de material de estudio, que facilita su investigación, ayudando al posterior desarrollo de nuevas y mejores soluciones médicas.

En esa misma línea, los expertos del Ministerio de Salud, a modo de ejemplo, buscan optimizar los recursos y la gestión por medio del Big Data, creando un sistema de salud más colaborativo y de mejor acceso para los pacientes y médicos, conectando no sólo los datos biométricos, sino que los de atención de sus pacientes. Se espera que esta información también abra las puertas de la medicina personalizada, es decir, crear tratamientos específicos para cada persona.

Otros usos se pueden ver en el sector de transportes. Una herramienta que ha sabido utilizar el Big Data para ofrecer soluciones es Waze. Esta aplicación recolecta la masiva cantidad de datos provenientes de unos 250 millones de usuarios en todo el mundo que tenía hasta el año pasado, para entregar las mejores rutas a los automovilistas o ayudarlos a evitar problemas en el camino. Si bien estos sistemas pueden ser muy simples de usar, requieren de una alta cantidad de procesamiento por parte de sus servidores. Cabe destacar que el Big Data ya cumple una parte importante de funcionamiento del transporte público en Santiago. Es así como el Ministerio de Transportes y Telecomunicaciones utiliza la tarjeta Bip! de los usuarios de Metro y Transantiago para recabar información y aplicarla a políticas públicas.

Otros grandes "clientes" del Big Data son los deportistas. IBM, por ejemplo, en asociación con la ATP, ente rector del tenis mundial, analiza cada movimiento de los tenistas, como golpes, saques, faltas. De esa forma, los jugadores pueden conocer sus estadísticas y mejorar. Por el lado del fútbol, conocidos son los petos que usan los futbolistas en entrenamientos y en partidos para recolectar información respecto de su estado físico: kilómetros corridos, pases dados, veces que tocó el balón, oportunidades en que lo recuperó.

El marketing también se beneficia de esta tendencia tecnológica. Esta industria permite recopilar grandes cantidades de datos sobre variables demográficas, productos, competencia, preferencias y comportamiento, factores claves para la industria. La utilidad de esta información, entonces, es de gran relevancia para el sector, ya que pueden generar campañas especializadas en un nicho o conocer las prácticas exitosas frente a nuevos mercados y que representen mejor a los clientes, creando publicidad más efectiva.

De estadístico a científico de datos

¿Cómo crece la industria del Big Data en el país y en el resto de la región? Según IDC, esta tecnología moverá unos US$ 200.000 millones a nivel mundial hacia el 2020.

La consultora estimó también que sólo en Chile habría una inversión de US$ 750 millones este año en transformación digital de las empresas. Estos cambios son importantes ya que, de acuerdo a la firma, 46% de las compañías necesita asesoría de sus respectivas áreas de Tecnologías de la Información (TI) para ayudar otras acciones en oficinas como las de Recursos Humanos y Finanzas.

Sin embargo, el sector enfrenta un gran problema: el déficit de recursos humanos.

Un estudio realizado por la BSL International señala que entre 2010 y 2020, la demanda por profesionales al área de TI a nivel global alcanzará un 22%.

En Chile, sólo la banca y el retail han sido capaces de incorporar de forma relevante empleados con conocimientos en el uso de Big Data.

Para Leonardo González, ejecutivo de Plataforma de Análisis de América Latina de IBM, a las empresas locales les falta invertir en la creación de puestos de trabajo relacionados con estas tecnologías.

"Crear roles que hoy no tenemos en las compañías, eso es clave, porque la tecnología existe, funciona. Hay dos roles que son relevantes, uno de ellos es el jefe de informática y el otro es el científico de datos".
El científico de datos, explica el especialista, es la evolución del típico estadístico y que tiene capacidades tecnológicas para analizar patrones de Big Data que tengan sentido para el negocio.

"No es un tipo que hace estadísticas de encuestas, sino que correlaciona datos, para que las empresas puedan ejecutar una acción concreta. La disponibilidad de científicos de datos es aún muy escasa, no sólo en Chile, sino en toda la región", sostiene González.

Es así como la demanda por este tipo de profesional ha aumentado en un 50% en el país.

Otro rol que hace falta, como indicó Leonardo González, es el jefe de informática o chieff data officer en inglés, quien es el custodio de toda la infraestructura relacionada con el Big Data de las empresas. "Hoy en día, el chieff data officer está tomando tanta relevancia por el rol que tiene, que generalmente le está reportando incluso al gerente general", comenta el ejecutivo de IBM.

Preocupación por la seguridad

De acuerdo a un estudio elaborado por Frost & Sullivan, una parte importante de las personas que toman decisiones en las empresas de Latinoamérica creen que los cambios en la industria, en relación a las nuevas tecnologías, avanzan de forma templada o lenta. Es así como un 40% de los 1.500 ejecutivos encuestados cree que las compañías se van transformando moderadamente y otro 27% considera que se está cambiando lentamente.

Esta lentitud tiene algo de lógica. Como esta herramienta es más bien desconocida, sobre todo a nivel pyme, costará más tiempo decidirse a invertir en ella. Y, por otro lado, quienes más la conocen chocan con un temor inherente al mundo de la informática: los hackers.

Otra encuesta de la misma consultora, esta vez realizada a 507 ejecutivos, indicó que la máxima preocupación cuando se habla de Big Data son las amenazas de seguridad. Un 39,3% de ellos ve que una infiltración a información sensible de las compañías es ante lo que hay que tener más resguardos.

Pablo Dubois, gerente regional de data center y seguridad de Level 3, piensa que tienen razón en estar preocupados, ya que la tendencia es siempre a creer que existe una falla. "Antes, el paradigma era pensar que no nos tiene que pasar nada, pero ahora el paradigma es pensar siempre que tenemos una infiltración en la empresa, alguien que intenta sustraer información", dice.

El desafío en este sentido es conocer qué información dentro del Big Data es sensible para las distintas compañías y así protegerlas. "Uno de los desafíos en materia de seguridad es identificar los datos que están dentro del Big Data que la empresa no puede perder. En función de eso crear una estrategia de seguridad de respaldo, de seguros, de cómo siempre puedo tenerlos disponibles", comenta.

Sin embargo, el especialista advierte que la tecnología, cuando se está hablando de seguridad, no es infalible y que es la propia capacidad humana la que tiene que irse perfeccionando, para evitar ataques o pérdidas de información relevante.

"¿La tecnología nos va a salvar de problemas de ciberseguridad? La respuesta es no. La tecnología nos ayuda un montón, pero después hay cosas que hacer a nivel humano. Muchos ataques se inician desde una intervención humana", explica.

Algo con lo que concuerda Leonardo González, quien apunta a que las empresas deben saber resguardarse de esos problemas. "Generalmente, son errores humanos y no por tecnología. Uno se tiene que resguardar desde ese punto de vista. ¿Cualquier persona de mi compañía tiene acceso a la información de Big Data? No. Yo tengo que controlar eso, definirlo, diseñarlo".

Otro tema de seguridad en la industria es sobre la protección de los datos de los consumidores, tema que ha generado cierta controversia. González señala que la gran responsabilidad recae en los propios usuarios."Plataformas como Facebook y Twitter son los dueños de los datos y están brindando un servicio gratuito, pero la gente no lee las cláusulas al momento de crear sus respectivas cuentas y se queja después", sostiene.

Daniel Scarafía, director regional para Sudamérica de Hitachi, señala que la clave está en la legislación de cada país. "La tecnología es un habilitador para la recolección y explotación de estos datos. Por encima de esto, hay que crear una estrategia, que tiene que estar regulada. El acceso a la información está, pero existe de muchas formas. Algunos gobiernos lo que permiten es hacer una explotación de información privada, pero en grupos masivos. Entonces tú puedes trabajar informaciones de sectores sociales o geográficos, pero no identificando uno a uno, sino que buscando tendencias", apunta. "La regulación en América Latina está un "paso atrás de las potencias mundiales", agrega.

Este asunto es complejo, ya que la penetración del Big Data alcanza todos los sectores y cada uno de ellos cuenta con regulaciones y reguladores diferentes, que van a una rápidez distinta que a los que van los avances tecnológicos. Uber en Chile es el ejemplo perfecto. El enfrentamiento entre taxistas y conductores de la popular aplicación pilló al Estado desprevenido, ya que nunca se pensó en que la utilización del programa de transporte privado podía resultar en un problema, uno que todavía tiene al Gobierno pensando en una ley para solucionar este contratiempo.

Lo más leído