Roberto Fernández López
Director – Head Digital
Strategy Perú
Están siendo años difíciles para casi todas las empresas del Perú: pandemia, incertidumbre política, desconfianza de inversores, etc., y se avecinan aún tiempos complejos derivados de las posibles consecuencias en los costes de energía y algunas materias primas de atrocidades como la guerra de Ucrania.
Navegamos tiempos complejos donde las estrategias para ganar eficiencia juegan un rol fundamental en todas las compañías que quieran seguir aportando dividendos a los accionistas. Ahora más que nunca, toca añadir a las estrategias más tradicionales dos elementos fundamentales que pueden marcar la diferencia: poner en juego un uso intensivo de los datos y combinarlos utilizando teorías matemáticas básicas.
Hoy en día hay nuevas técnicas que permiten la identificación de grandes oportunidades de ahorro de costes no detectadas hasta ahora: voy a hablar de una de ellas, una de las técnicas de analítica operacional que llamamos Process Mining. Voy a intentar explicarla de forma sencilla.
¿Qué es? El concepto es simple: La mayoría de grandes compañías tienen ERPs como SAP, Oracle y otros (u otros sistemas a medida que soportan flujos de procesos); y todos guardan logs (registros de datos) que permiten conocer el paso a paso del proceso, los tiempos y las actividades de cada etapa y los usuarios que las realizan. Las técnicas de Process Mining toman estos datos (el histórico de la operación) y usando estadística básica diagraman el proceso e identifican los problemas de la operación: cuellos de botella, mal uso de los sistemas, reprocesos, anomalías, etc. Es una técnica que potencia el diagnóstico.
¿Qué ventajas tiene esto? Muchas, pero cito las más destacables:
1. Lo primero y más importante: en el histórico de datos están los procesos completos, el happy path y todo el resto de los caminos, no solo los caminos que normalmente están en los manuales de proceso y en la cabeza de los usuarios. Tenemos todas las casuísticas disponibles para analizar y detectar oportunidades.
2. Los datos de los sistemas son información totalmente objetiva, es decir, cuentan la realidad de la operación. Los manuales y la información de entrevistas son subjetivos y proporcionan información incompleta. Tener un punto de partida totalmente objetivo evita discusión entre distintos stakeholders sobre el AS IS de la operación y la centra en el TO BE. Los datos no mienten.
3. Diagraman automáticamente los procesos, adiós a invertir mucho tiempo de muchas personas para documentar manuales. Y no solo eso, sino que identifica con análisis básicos las anomalías principales de la operación, es decir, el punto de partida del análisis ya tiene hallazgos de valor.
4. Usando estadística y distintos tipos de análisis podemos detectar hallazgos imposibles de identificar con cualquier técnica tradicional: nivel de estandarización real del proceso mediante análisis de trazas, actividades con alta variabilidad en el TMO y su causa, nivel de cumplimiento de los SLAs y anomalías, productividad por usuario del proceso, etc.
5. Permite cuantificar el potencial de las oportunidades de ahorro porque usan estadística y tienen la capacidad de simular escenarios tipo “What if”, es decir, simular escenarios y ver qué pasaría en la operación del proceso si cambia alguna condición de este. Las experiencias de aplicación de este tipo de técnicas están demostrando que permiten obtener grandes resultados a un coste muy por debajo del retorno que permiten conseguir. A veces tendemos a pensar que tiene que haber grandes inversiones en tecnología para poder tener resultados de impacto para el negocio, y no es así.
Algunas preguntas que muchos se pueden hacer al leer esto:
¿Es necesario comprar una herramienta para hacer este tipo de análisis? No. Existen herramientas de mercado con costes de licenciamiento, pero este tipo de análisis se pueden hacer con herramientas de software libre.
¿Es necesario tener un data lake para hacer este tipo de analítica y capturar resultados para el negocio? No. Los datos se extraen de los logs de los sistemas que soportan los procesos a analizar.
¿Es necesario una gran inversión inicial para abordar un proyecto usando estas técnicas? No. Un equipo pequeño y multidisciplinario: negocio, analítica de datos y TI.
“If you torture the data long enough, it will confess”
Ahora más que nunca, toca añadir a las estrategias más tradicionales dos elementos fundamentales que pueden marcar la diferencia: poner en juego un uso intensivo de los datos y combinarlos utilizando teorías matemáticas básicas.”