Skip to content

Cómo convertirse en una PYME Data-Driven

Fecha del evento:
Hora de inicio:
Hora de fin:
Lugar:
Ponentes:

En esta nueva etapa del “Data is the new oil”, los datos y el procedimiento automatizado de los mismos son la piedra angular para convertirse en una PYME data-driven y alcanzar cotas de excelencia operacional alineados con los postulados de la Industria 4.0.

Por un momento pensar, ¿Cómo mejoraríamos nuestros procesos productivos…

  •  integrando de manera rentable en nuestros procesos de fabricación el conocimiento o inteligencia que albergan los datos?
  • reduciendo nuestros tiempos de reacción ante imprevistos gracias a los datos?
  • aumentando los niveles de disponibilidad, rendimiento y calidad del proceso productivo a partir de la explotación de los datos?

La digitalización integrada permite que los actores de distintos ámbitos de la producción tengan toda la información actualizada y apropiada para tomar decisiones de manera efectiva.

Sin embargo, el procesamiento y la extracción de las relaciones y el conocimiento que albergan todos estos datos que provienen del ERP, MES, sensórica, GMAO y el control de calidad, es una tarea imposible para nosotros.
A partir de una ingesta masiva de datos, las tecnologías de Big Data y los algoritmos de Analítica Avanzada y Machine Learning hacen un análisis exhaustivo sobre qué es lo que origina los problemas en el proceso de producción, predicen valores generando alertas de futuros problemas y prescriben acciones para alcanzar puntos de operación óptimos.

EL DATA LAKE ANALÍTICO PARA LA INDUSTRIA 4.0:

Para poder extraer patrones interdepartamentales es necesario que todos los datos que provienen del MES, ERP, … se almacenen en una misma base da datos optimizada para la analítica. Para dar respuesta a esta necesidad en el mercado, hemos desarrollado un Data Lake Analítico para la Industria 4.0, una base de datos para la analítica donde integramos información que proviene de los sistemas MES, GMAO, control de calidad, sensórica y ERP. El Data Lake Analítico es agnóstico a cómo y dónde se almacenan los datos gracias a su modelo de datos genérico (basado en el estándar ISA95). Este modelo de datos estándar estructura los datos según una capa semántica más alineada con la lógica de negocio.

El Data Lake Analítico operacionaliza la aplicación de la analítica avanzada en el sector industrial que hoy por hoy presenta flujos de trabajo completos, poco escalables y artesanos en gran medida.

Asimismo, hemos dotado al Data Lake de un sistema de soporte para la toma de decisiones con modelos inteligentes “out-of.the-box” que extraen patrones y relaciones empoderando a nuestros clientes en la toma de decisiones basada en evidencias. Nuestros clientes obtienen una mayor visibilidad de lo que verdaderamente pasa en el proceso de producción (cómo afectan distintos aspectos de la producción al OEE, a la calidad, …). Así pueden centrar sus recursos productivos en lo que verdaderamente importa.

Smart OEE Analytics, el sistema de soporte para la toma de decisiones para el shop-floor que ayuda a nuestros clientes a mejorar el OEE de su planta productiva.


¿ Cómo mejora Smart OEE Analytics el rendimiento, disponibilidad y calidad de tu planta productiva?

Desde una visión integrada de la producción, Smart OEE Analytics detecta la causa-raiz de qué es lo que más afecta al OEE a lo largo de toda la cadena de valor. A partir de los datos almacenados, los algoritmos predictivos predicen los valores que tendrá el OEE en el futuro. Por otro lado, los modelos de analítica prescriptiva sugieren acciones para alcanzar puntos de operación óptimos, entre otros:

– optimización del consumo energético de las máquinas y formulación en los procesos de mezclado.
– optimización de rutas de fabricación con técnicas de Process Mining.
– optimización de tiempos de cambios de herramienta aumentando la disponibilidad de los recursos productivos.

En el ámbito de la calidad, la herramienta provee a los usuarios con conocimiento acerca de cómo se relacionan los parámetros de proceso y las mediciones en el control de calidad. También, los algoritmos extraen de manera automática el know- how sobre qué es lo que origina los reprocesos, el scrap y las no conformidades. A partir de este know-how interno, los algoritmos inteligentes predicen y/o anticipan que una pieza va a ser defectuosa o que va a presentar una no-conformidad empoderando al usuario a tomar las medidas pertinentes para evitar estas incidencias.

Por último, en el ámbito del mantenimiento de cara a mejorar las intervenciones que se realizan desde una perspectiva integrada, el análisis causa-raiz determina los factores que hacen que una máquina falle y la predicción de fallos y averías determina cuándo una máquina va a fallar. Con las conclusiones que extraen las técnicas de analítica prescriptiva, el usuario puede hacer planificaciones que mejoren los indicadores de disponibilidad de máquinas y el OEE en general sin repercutir a la calidad y que se traducen en una reducción de los costes. En este sentido, podríamos:

– Entender qué mantenimientos de todos los que se realizan son realmente necesarios y con qué frecuencia desde una perspectiva integrada (calidad, OEE, costes, …)

– Encontrar los puntos óptimos para cambiar la herramienta sin que repercuta al OEE y a la calidad.

– Optimizar la gestión de repuestos según las predicciones que los algoritmos hacen sobre cuándo va a fallar una máquina.

¿QUÉ ME APORTA UN DATA LAKE ANALÍTICO?

– Plataforma unificada para analítica avanzada que integra datos de todas las bases de datos operacionales.

– Aplicación de la analítica avanzada desde una perspectiva global e integrada en vez de en el marco de proyectos singulares para cada una de las bases de datos operacionales.

– Operacionalización de la aplicación de analítica avanzada y machine learning en la industria, que se traduce en una reducción del “time-to-market” y en implementaciones escalables y replicables.

– Analítica de autoservicio accesible para usuarios sin un perfil técnico gracias a una interfaz de usuario intuitiva y herramientas de visualización avanzada.

– Modelo de datos estándar del Data Lake con una capa semántica alineada con la lógica de negocio y que acerca los datos al usuario final.

– Robustez frente a cambios en las fuentes de datos de origen (migraciones, cambios de las tablas, …).

Artículos recomendados