El Big Data está llamado a jugar un papel imprescindible en el desarrollo de la industria del futuro porque, según la consultora IDC, la cantidad total de datos digitales creados globalmente al año -la llamada datasfera- aumentará en 2025 hasta los 175 zettabytes desde los 33 zettabytes en 2018. Un zettabyte es el equivalente a mil trillones de bytes. Y esa estimación de crecimiento de IDC puede considerarse conservadora, pues fue hecha en 2018 y no incluía el importante aumento de datos generados por la Inteligencia Artifiicial Generativa que estamos viendo hoy.
Pero ¿qué significa Big Data? El Big Data consiste en la recopilación y análisis de grandes volúmenes de datos a través de un software específico con capacidad para transformar toda esta información, en principio desordenada y hasta caótica, en datos procesables y extremadamente útiles. El objetivo del Big Data es utilizar esta información para realizar predicciones, elevar la productividad y tomar las mejores decisiones organizativas, operacionales o financieras.
La Industria 4.0 se caracteriza por tratarse de una auténtica revolución digital de carácter global, donde los diferentes sistemas y procesos se encuentran conectados. Esta hiperconexión convierte en mucho más importante y productivo el papel del Big Data, puesto que la información proveniente, por ejemplo, de dispositivos de Internet de las Cosas (IoT) puede llegar a transformarse en sistemas de aprendizaje informático gracias a la tecnología de la Inteligencia Artificial (IA).
En definitiva, la aportación del Big Data a la industria 4.0 consiste en dotar de mucha más capacidad y utilidad a otras tecnologías incipientes como el IoT y la IA, al extraer grandes volúmenes de datos, organizarlos, analizarlos y convertirlos en información de alto valor para lograr la excelencia operativa y productiva.
¿Qué aplicaciones concretas tiene el Big Data para la industria 4.0?
1.- Toma de decisiones basadas en el análisis de datos
En la industria 4.0, los datos se recopilan a lo largo de toda la cadena de producción, desde sensores en máquinas hasta dispositivos portátiles en operadores. Estos datos proporcionan información valiosa sobre el rendimiento de las máquinas, la eficiencia de la producción, la calidad del producto e incluso la salud y seguridad de los trabajadores. Con un análisis adecuado de los datos en tiempo real y a gran escala, las empresas pueden tomar decisiones más informadas y estratégicas. Esto incluye identificar cuellos de botella en la producción, optimizar procesos, prever fallos en máquinas y adaptarse rápidamente a las demandas del mercado.
El uso de Big Data hace realidad el concepto de Smart Factories. Este tipo de fábricas están compuestas por plantas de producción automatizadas, donde las máquinas son capaces de realizar trabajos complejos, solucionar problemas y tomar decisiones en base a una programación previa y ajustada a las necesidades de la empresa.
También permite optimizar los recursos de la empresa industrial, tanto humanos como tecnológicos, a través de una visualización completa e integral de procesos y sistemas que, normalmente, se tratarían de un modo aislado. Tener en cuenta las interrelaciones entre departamentos y actividades ayuda a tomar las mejores decisiones de todo tipo, desde operacionales hasta las relacionadas con los recursos humanos e incluso las financieras.
El Big Data contribuye a modificar y/o optimizar la cartera de productos de una factoría mediante predicciones precisas y significativas que se basan en el análisis interno (preferencias de clientes) y externo (tendencias y eventos externos) más allá de los datos históricos. Es lo que se llama predicción de la demanda.
2.- Mejora de la eficiencia y la productividad
El análisis de datos en la industria 4.0 permite identificar ineficiencias y desperdicios en los procesos industriales. Basado en los conocimientos extraídos del Big Data, las empresas pueden implementar acciones correctivas y mejorar la eficiencia operativa.
El mantenimiento predictivo es un poderoso ejemplo: mediante el análisis de datos de sensores de máquinas, es posible prever cuándo puede ocurrir un fallo o una avería y programar el mantenimiento antes de que el problema se vuelva crítico. Esto reduce los costes asociados con paradas no programadas, aumenta la vida útil de los equipos y mejora la productividad general.
La optimización de la logística y el funcionamiento de los almacenes supone otra aplicación del Big Data. El análisis de la información procedente de sensores, etiquetas RFID y todo tipo de dispositivos portátiles permite hacer realidad el concepto de almacenes inteligentes. El futuro de la logística pasa por la puesta en marcha de sistemas cada vez más automatizados y robotizados, donde las tareas repetitivas y penosas son realizadas por máquinas, lo que permite a los operarios dedicarse a funciones de supervisión, programación y control de calidad. Esa es la Logística 4.0.
El análisis complejo de datos también permite establecer sistemas efectivos que mejoran la gestión de la cadena de suministros, actuando de forma proactiva. Por ejemplo, programar pedidos a proveedores de forma automática tomando como referencia el análisis histórico de actividades, los resultados obtenidos y los problemas detectados.
3.- Personalización y customización
La industria 4.0 permite una producción más personalizada y customizada, atendiendo a las demandas específicas de los clientes. El análisis de datos permite entender las preferencias de los consumidores, comportamientos de compra y tendencias del mercado.
Con base en estos datos, las empresas pueden ajustar su producción, adaptar productos a las necesidades individuales y ofrecer una experiencia personalizada a los clientes. Esto no solo mejora la satisfacción del cliente, sino que también impulsa la lealtad a la marca y aumenta la competitividad en el mercado.
Vistas las amplias aplicaciones industriales que ofrece el Big Data, la siguiente incógnita que es preciso despejar radica en cómo funciona.
La tecnología de datos en las industrias involucra varias etapas para recopilar, almacenar, procesar y extraer resultados claves (insights) y aplicarlos.
Esencialmente son necesarios seis pasos:
A) Recolección de datos
El primer paso es identificar las fuentes de datos relevantes. Esto puede incluir sensores en máquinas, dispositivos IIoT (Internet Industrial de las Cosas), registros de producción, datos de calidad, entre otros. Los sensores y dispositivos recopilan información sobre el rendimiento de las máquinas, condiciones de trabajo y procesos de producción.
Es fundamental tener en cuenta, en este paso, conocer que existen tres clases diferentes de Big Data: estructurados, no estructurados y semiestructurados. Estos tipos difieren en cómo los datos están organizados, almacenados y procesados. Aquí añadimos una breve explicación de cada uno:
Datos Estructurados: Están organizados de manera estándar y tienen un esquema definido. Se almacenan típicamente en bases de datos relacionales o en formatos tabulares, como hojas de cálculo. Tienen un formato consistente, con columnas y filas bien definidas, lo que permite consultas y análisis fáciles. Una base de datos de clientes, registros de ventas o registros financieros son tres ejemplos de datos estructurados.
Datos No Estructurados: No tienen una estructura fija y no se pueden organizar fácilmente en un formato tabular. Pueden ser de naturaleza variada, como texto libre, imágenes, videos, audios, feeds de redes sociales, correos electrónicos, documentos, entre otros. Los datos no estructurados representan la mayor parte de los datos generados hoy en día. Son más complejos de procesar y requieren técnicas avanzadas, como el procesamiento de lenguaje natural, el análisis de imágenes y el reconocimiento de patrones.
Datos Semiestructurados: Tienen cierta estructura, pero no siguen una organización tabular rigurosa. Contienen metadatos o etiquetas que proporcionan información sobre su estructura o características. Pueden incluir archivos XML, documentos HTML, archivos JSON y otros formatos similares. Son más flexibles que los datos estructurados, permitiendo una adaptación a las necesidades específicas de análisis, pero también pueden presentar desafíos en el procesamiento debido a su naturaleza parcialmente organizada.
Una vez identificadas las fuentes, toca recoger los datos.
B) Almacenamiento y gestión de datos
Los datos recopilados se almacenan en un sistema centralizado, como un almacén de datos o un lago de datos. Es importante garantizar su integridad, seguridad y accesibilidad. Tecnologías como bases de datos distribuidas, sistemas de gestión de datos en la nube o soluciones de almacenamiento escalables se usan para manejar grandes volúmenes de datos.
C) Procesamiento y análisis de datos
En esta etapa, los datos se procesan y analizan para obtener insights significativos. Esto puede involucrar la aplicación de técnicas de análisis de datos, como minería de datos, aprendizaje automático, inteligencia artificial y estadísticas. También se emplean algoritmos para identificar patrones, tendencias, anomalías y correlaciones en los datos. Esto puede hacerse tanto en tiempo real (análisis en tiempo real) como en análisis históricos.
D) Extracción de insights
Con los datos procesados, es posible extraer insights valiosos. Estos pueden girar sobre la eficiencia de la producción, calidad del producto, mantenimiento predictivo, optimización de procesos, identificación de cuellos de botella, entre otros.
Estos resultados claves se comunican a los equipos relevantes, como ingenieros de producción, gerentes de operaciones o equipos de mantenimiento.
E) Toma de decisiones y actuaciones
Los insights obtenidos de los datos se utilizan para fundamentar la toma de decisiones. Con base en estos datos, los equipos pueden implementar acciones correctivas, mejorar procesos, planificar mantenimiento predictivo, ajustar la producción u tomar otras decisiones estratégicas. Las decisiones están guiadas por los insights y las métricas derivadas del análisis de datos.
F) Monitoreo continuo y mejora
El Big Data aplicado a la industria es un proceso continuo. Los datos siguen siendo recopilados, almacenados, procesados y analizados en tiempo real. La información obtenida se usa para monitorear continuamente el rendimiento de la producción, identificar oportunidades de mejora y realizar ajustes según sea necesario. Esto permite un enfoque orientado por datos para mejorar continuamente los procesos y la eficiencia operacional.
El Big Data, entre otras herramientas, sirve para “encontrar una pepita de oro entre tanta información”, sostiene Belén Albarracín, directora comercial de ITelligent y miembro de la familia iTALKER desde enero de 2022. ITelligent es una firma afincada en Cádiz, pionera en análisis de datos y especialmente con datos poco estructurados.
Albarracín se ocupa de aplicar a casos concretos, por ejemplo, a una empresa fabricante de ruedas, la llamada “inteligencia competitiva” o recopilación de información sobre un mercado y los competidores para mejorar la estrategia de un negocio y hacerlo más competitivo. Esa es una aplicación real del Big Data.
Para Oliver Martínez Vitoriano, director general de Ghenova DIgital, parte de la industria ya está inmersa en la era de Big Data, entendida esta era cuando el dato se posiciona en el centro creciendo el número de metodologías y herramientas.
Martínez, quien también ha participado en las conferencias organizadas por industry TALKS, conoce bien los beneficios y los retos que plantea la estrategia basada en datos. En cuanto a los primeros, cita la mejora en la toma de decisiones, una mayor personalización, la eficiencia operativa, las ventajas competitivas y la innovación. A propósito de los desafíos, se detiene en cinco aspectos: la calidad del dato, la cultura organizacional, la capacidad analítica, la automatización y la seguridad y gobernanza.
Quizás el reto más importante sea, dice, la cultura organizacional, porque “todo proceso de transformación digital implica cambios y la gente somos reticentes a los cambios”.
Un problema subyacente, en su opinión, apunta a “que no estamos convirtiendo en Diógenes del dato, solamente porque nos han dicho que el dato es fundamental para la compañía”. “En parte esto es debido a se recogen datos que después no son útiles, que no son de calidad, y que no pueden ser usados”, admite.
El directivo de Ghenova Digital también tiene muy claras las soluciones basadas en el dato (ese es un negocio) y las divide en cinco capas:
- Capa de extracción
- Capa del modelado
- Capa lógica
- Capa de aplicación
- Capa de usuario
La capa de extracción se nutre de diferentes fuentes como IoT, documentos ofimáticos y bases de datos. En la capa de modelado ordenan toda la información y la relacionan entre sí. En la tercera fase crean la capa lógica, quizás la que más valor aporta al conjunto, a través de modelos de procesos, modelos de optimización, modelos de predicción, modelos de prescripción y modelos de clasificación. Esa capa alimenta a la de aplicación, es decir, se ocupa de qué funcionalidades se van a dar a la solución solicitada por el cliente. Y finalmente, hay que darle un interfaz al usuario para que se comunique con esas herramientas. La interfaz puede ser simple o compleja, desde un dashboard en Excel hasta un entorno virtual para hacer una realidad inmersiva, pasando por el procesamiento de lenguaje natural o cualquier otra tecnología disponible.
Las plantas de producción llevan mucho tiempo recopilando y almacenando datos como alertas, códigos de avería, recuentos de productos y algunos parámetros de series temporales en los historiales. Pero, aunque estos datos son suficientes para calcular los KPI (indicadores clave de negocio), pueden no ser suficientes para implementar muchos de los casos de uso predictivo básicos que son fundamentales para la Industria 4.0.
Sin casos de uso predictivos, el personal de la planta se pierde gran parte del valor básico. Por lo que no pueden ser proactivos a la hora de prever problemas para optimizar el rendimiento, la ejecución y la disponibilidad de los equipos. El tiempo del ciclo de la tarea es un buen ejemplo de datos que se desvanecen y que podrían añadir valor si se capturan adecuadamente. Esta métrica es un importante predictor del rendimiento de las máquinas y las tareas en las plantas de fabricación, pero muy pocos la registran.
Esa es la opinión de Anna Baldrís, Business Development Manager en Fujifilm Recording Media Iberia.
“Hoy, tener la capacidad de captar, almacenar, medir y controlar rápidamente los datos de alta calidad para generar valor se ha convertido en una prioridad estratégica para todas las empresas. Y esto únicamente es posible mediante la integración de datos”, dijo Baldrís en una entrevista a este diario digital.
Baldrís admitió que a veces existe una desconexión entre la gestión de los datos y la aplicación práctica de lo que esos datos pueden hacer por una empresa. “Por ejemplo, es habitual que los datos se agrupen en silos, es decir, en bases de datos separadas que se centran cada una en un tipo específico de cliente, producto, ubicación, etc. Por separado, estos silos de datos pueden no ser especialmente útiles, pero pueden ser muy potentes cuando se integran. Por supuesto, esa integración debe producirse de manera eficiente y lógica para que sea beneficiosa”, remarcó. Es ahí donde entra la magia del Big Data.
En este sentido, es clave la interoperabilidad entre dispositivos para permitir el buen flujo de la información, la escalabilidad de las soluciones para poder responder a necesidades futuras, la optimización de procesos, la fiabilidad y la utilización de códigos abiertos para no depender de ningún proveedor.