Loading
Edgar Alonso

Data Governance Analyst

Data Quality Specialist

Business Analyst

  • About
  • Resume
  • Portfolio
  • Skills
  • Blog
  • Contact
Edgar Alonso

Data Governance Analyst

Data Quality Specialist

Business Analyst

Download CV

Recent Posts

  • Tea, Nube y Fugas: ¿Tus Datos Están Realmente Seguros?
  • Cambridge Analytica: Cuando los Datos Votaron por Ti
  • Toolkit 2025: Gobernar los Datos con Propósito y Principios
  • Día 46 – Entidades, relaciones y más allá: lo esencial del modelado
  • Día 45 – Modelar no es documentar, es comunicar

Recent Comments

    Transformación de Datos Maestros en el Sector de Consumo Masivo

    • Created By: Edgar Alonso
    • Date: 30/10/2024
    • Client: Corporación Rico SAC
    • Categories: Transformación

    Este proyecto detalla mi rol liderando la reestructuración y saneamiento del maestro de materiales en SAP S/4HANA para una de las empresas de producción de cárnicos y piensos más importantes del sur del país. El objetivo era transformar un catálogo de datos caótico en un activo confiable que impulsara la eficiencia operativa.

    Parte 1: Saneamiento y Gobierno del Maestro de Materiales

    • El Reto: La empresa operaba con un maestro de materiales sobredimensionado de aproximadamente 88,000 SKUs. Esta explosión de datos, llena de duplicados, información incompleta (completitud del 58%) y registros obsoletos, generaba problemas graves en toda la cadena de suministro:
      • Compras Ineficientes: El personal de compras adquiría productos incorrectos debido a la confusión entre SKUs duplicados, resultando en un stock inmovilizado de artículos que no se podían usar (Repuestos).

      • Gestión de Almacén Deficiente: Con datos de lote y vencimiento poco confiables, el cumplimiento de la estrategia FEFO (First Expired, First Out) era de solo un 74%, provocando mermas y pérdidas económicas.

      • Procesos Lentos: La creación de un nuevo material era un proceso ambiguo y lento, con una tasa de aprobación al primer intento de solo el 68%.

    • Mi Solución: Abordé el problema con una estrategia en tres fases:
      1. Análisis y Detección de Duplicados: La primera tarea fue entender el caos. Desarrollé scripts en Python para realizar un perfilamiento masivo de los 88,000 SKUs. Utilizando técnicas de normalización de texto (quitar espacios, convertir a minúsculas) y lógica de comparación, pude identificar patrones y marcar aproximadamente 5,000 SKUs como duplicados con alta probabilidad.
      2. Definición de un Estándar de Gobierno: Creé y documenté un nuevo Estándar de Datos Maestros para Materiales. Este documento estableció reglas claras: qué campos eran obligatorios (ej. Lote, Fecha de Vencimiento, Proveedor Principal), qué taxonomía usar para las descripciones y quiénes eran los responsables en cada etapa del flujo de aprobación en SAP.
      3. Campaña de Limpieza y Activación: Con los duplicados identificados y un estándar claro, lideré una campaña de saneamiento. Depuramos los 5,000 duplicados, archivamos miles de SKUs obsoletos y nos quedamos con un universo de 36,000 materiales activos, enriquecidos bajo el nuevo estándar de calidad.
    • El Impacto: Los resultados transformaron la gestión de inventario y compras.
    La completitud de los datos críticos ascendió del 58% al 85%.

    Esta métrica mide qué tan “completos” estaban los registros de los materiales. No se refiere a todos los campos, sino a los campos críticos para la operación, como el lote, la fecha de vencimiento, el proveedor principal, las dimensiones, etc.

    Escenario “Antes” (58% de Completitud)

    El problema era que la creación de materiales en SAP no tenía suficientes controles, y muchos campos clave se dejaban en blanco.

    • Universo de Análisis: Para medirlo, se tomó una muestra representativa de 1,000 SKUs activos del maestro de materiales.

    • Línea Base: Al analizar estos 1,000 registros, se encontró que solo 580 de ellos tenían todos sus campos críticos (lote, vencimiento, dimensiones, etc.) correctamente informados. Los 420 restantes tenían al menos un dato crítico faltante.

    • Cálculo de la Completitud Inicial:

      • % Completitud = (Registros Completos​/Total de Registros Analizados)×100

      • % Completitud = (580/1,000)​×100 = 58%

    Escenario “Después” (85% de Completitud)

    La solución fue doble: primero, una campaña de limpieza masiva para enriquecer los datos de los SKUs existentes; y segundo, la implementación de un Estándar de Gobierno que hizo que los campos críticos fueran obligatorios en el formulario de creación de SAP.

    • Resultado: Después del proyecto, un nuevo análisis sobre una muestra similar de 1,000 SKUs mostró que 850 registros ya contaban con toda su información crítica.

    • Cálculo de la Completitud Final:

      • % Completitud = (850/1,000​)×100 = 85%

    “Encontramos que solo el 58% de nuestros productos tenían los datos críticos necesarios para una gestión eficiente, lo que afectaba directamente la trazabilidad y la rotación de inventario. Tras liderar un proyecto de saneamiento y hacer obligatorios estos campos en el sistema, elevamos la completitud al 85%, sentando las bases para una operación logística confiable.”

    La tasa de aprobación de nuevos materiales mejoró del 68% al 84%.

    Esta métrica mide la eficiencia del proceso de creación de nuevos materiales. Específicamente, es el porcentaje de solicitudes de alta que se aprueban al primer intento, sin ser rechazadas o devueltas para corrección.

    Escenario “Antes” (68% de Aprobación)

    El proceso de solicitud era ambiguo. Los usuarios no tenían una guía clara, lo que generaba muchos errores y reprocesos.

    • Volumen de Solicitudes: Se analizó un periodo de un mes en el que se procesaron 100 solicitudes de creación de nuevos materiales.

    • Línea Base: De esas 100 solicitudes, solo 68 fueron aprobadas directamente. Las otras 32 fueron rechazadas por errores como descripciones inconsistentes, unidades de medida incorrectas o falta de información, y tuvieron que ser corregidas y reenviadas.

    • Cálculo de la Tasa de Aprobación Inicial:

      • % Tasa de Aprobación = (Solicitudes Aprobadas al 1er Intento/Total de Solicitudes​)×100

      • % Tasa de Aprobación = (68​/100)×100 = 68%

    Escenario “Después” (84% de Aprobación)

    La solución fue crear el Estándar de Gobierno de Datos, que incluía plantillas estandarizadas y reglas claras para las descripciones y categorías de materiales.

    • Resultado: Esto guio a los usuarios a enviar la información correcta desde el principio. En un mes posterior con un volumen similar de 100 solicitudes, 84 de ellas fueron aprobadas a la primera.

    • Cálculo de la Tasa de Aprobación Final:

      • % Tasa de Aprobación = (84​/100)×100 = 84%

    “Casi un tercio de las solicitudes para crear nuevos productos eran rechazadas, lo que generaba frustración y retrasos. Al implementar plantillas estandarizadas y reglas claras, guiamos al usuario para que hiciera la solicitud correctamente desde el inicio. Esto nos permitió aumentar la tasa de aprobación al primer intento del 68% al 84%, haciendo el proceso mucho más ágil y eficiente.”

    La correcta gestión de fechas de vencimiento elevó el cumplimiento FEFO del 74% al 92%.

    Esta métrica mide la eficacia de la rotación de inventario. FEFO (First Expired, First Out) significa que siempre se debe despachar el producto que está más próximo a vencer. “Cumplimiento” es el porcentaje de veces que esta regla se sigue correctamente.

    Escenario “Antes” (74% de Cumplimiento)

    El problema principal era la falta de datos confiables en el sistema. Como vimos en la métrica anterior, la completitud de los datos críticos era de solo el 58%. Esto significa que para casi la mitad de los productos, el sistema no tenía una fecha de vencimiento registrada.

    • El Proceso Manual: Sin datos en el sistema, el operario de almacén tenía que buscar visualmente en los anaqueles la fecha de vencimiento o simplemente tomar el pallet más accesible, lo que llevaba a errores.

    • Línea Base: Se realizó un análisis sobre una muestra de 100 órdenes de despacho que requerían productos con control de vencimiento. Se observó que en 26 de esas 100 órdenes se despachó un lote de producto más nuevo cuando existía uno más antiguo disponible.

    • Cálculo del Cumplimiento Inicial:

      • Órdenes Correctas = 100−26 = 74

      • % Cumplimiento FEFO = (Órdenes Correctas/Total de Órdenes​)×100 = (74/100)​×100 = 74%

    Escenario “Después” (92% de Cumplimiento)

    La solución de elevar la completitud de datos al 85% fue la clave. Al asegurar que la gran mayoría de los productos tuvieran su fecha de vencimiento correcta en SAP, el sistema de gestión de almacenes (WMS) ahora podía guiar al operario.

    • El Proceso Guiado por el Sistema: El sistema ahora le indicaba al operario exactamente qué lote y de qué ubicación tomar, eliminando la ambigüedad.

    • Resultado: En una nueva muestra de 100 órdenes de despacho, el número de errores se redujo a solo 8.

    • Cálculo del Cumplimiento Final:

      • Órdenes Correctas = 100−8 = 92

      • % Cumplimiento FEFO = (92/100)​×100 = 92%

    “El bajo cumplimiento del FEFO, que estaba en un 74%, era un síntoma directo de la mala calidad de nuestros datos. Al aumentar la completitud de las fechas de vencimiento en el sistema, logramos que el sistema guiara al operario, reduciendo errores y elevando el cumplimiento al 92%. Esto se tradujo directamente en menos mermas por producto vencido.”

    La eliminación de compras erróneas resultó en una reducción del 15% del stock inmovilizado, liberando capital de trabajo.

    Esta métrica se enfoca en el impacto financiero de la limpieza de datos. El “stock inmovilizado”, en este contexto, se refiere al inventario que fue comprado por error debido a la existencia de SKUs duplicados y que, por lo tanto, no tenía rotación.

    Escenario “Antes”

    El catálogo de materiales era caótico, con cerca de 5,000 SKUs duplicados. Esto llevaba a errores de compra costosos.

    • Ejemplo del Problema: Un comprador necesitaba “Arandela Plana 3/8pulg ” (SKU-A), pero en el sistema también existía “Guacha 3/8′ Inox Plana” (SKU-B, un duplicado). El comprador pedía 100 unidades del SKU-B por error. Si el área de mantenimiento solo pedía el SKU-A, esas 100 unidades del SKU-B se quedaban estancadas en el almacén.

    • Línea Base: Se valorizó todo el inventario que cumplía con estas características (stock sin rotación por más de ‘X’ meses, asociado a SKUs con alta probabilidad de ser duplicados) y se estimó que el valor de este stock inmovilizado era de S/ 800,000.

    Escenario “Después”

    La solución fue el proyecto de catalogación y eliminación de los ~5,000 duplicados. Al desactivar los SKUs incorrectos y dejar solo uno válido por cada producto, se eliminó la posibilidad de cometer estos errores de compra.

    • Resultado: Después de la limpieza del catálogo y de un periodo de operación con las nuevas reglas, se realizó una nueva valorización. El valor del stock inmovilizado por esta causa específica se había reducido en un 15%.

    • Cálculo de la Reducción:

      • Monto Reducido = Valor Base × 15%

      • Monto Reducido = S/ 800,000×0.15 = S/ 120,000

      • El nuevo valor del stock inmovilizado por esta causa era ahora de S/ 680,000.

    “Detectamos que la existencia de miles de SKUs duplicados generaba errores de compra que inmovilizaban cerca de un ochocientos mil soles en inventario. Al liderar el proyecto de consolidación del catálogo y eliminar 5,000 duplicados, atacamos la raíz del problema. Como resultado, logramos una reducción del 15% en este tipo de stock, lo que significó liberar aproximadamente S/ 120,000 de capital de trabajo para la empresa.”

    Parte 2: Migración Confiable de Datos a SAP S/4HANA

    • El Reto: Una vez saneado el catálogo, el siguiente desafío era migrar los 36,000 registros activos a un nuevo ambiente en SAP S/4HANA. Los procesos de carga masiva iniciales, basados en plantillas de Excel, arrojaban una tasa de error del 6.5%. Este porcentaje era inaceptable, ya que implicaba que casi 2,300 productos podrían ingresar al nuevo sistema con datos incorrectos, perpetuando los problemas del pasado.
    • Mi Solución: Para asegurar una migración limpia, implementé un proceso de pre-validación automatizado antes de utilizar las herramientas de carga de SAP (como LTMC).
      1. Script de Pre-validación: Desarrollé un script que funcionaba como un “filtro de calidad”. Tomaba los datos a migrar y los contrastaba contra las reglas definidas en nuestro nuevo Estándar de Gobierno (ej. ¿El campo UNIDAD_MEDIDA es válido? ¿Está presente la FECHA_VENCIMIENTO si el material lo requiere?).
      2. Generación de Reportes de Error: El script generaba dos archivos de salida: uno con los registros “limpios” y listos para cargar, y un reporte de errores detallado con los registros que fallaron la validación y el motivo exacto del fallo. Esto permitía al equipo corregir los datos en el origen antes de intentar la carga.
    • El Impacto: El control de calidad previo a la carga fue decisivo.
    La tasa de error en la migración se desplomó del 6.5% al 2.1%.

    Esta métrica mide la “calidad a la primera” durante el proceso de carga técnica. Cuantifica el porcentaje de registros que el sistema de destino (SAP S/4HANA) rechaza durante el intento de carga por no cumplir con sus reglas de negocio o estructura.

    Escenario “Antes” (6.5% de Tasa de Error)

    Esto representa el resultado de las pruebas iniciales, donde se intentaba cargar los datos sin un proceso de validación previo.

    • Universo de Datos: El proyecto consistía en migrar 36,000 registros de materiales activos.
    • Línea Base: En las primeras simulaciones de carga, el sistema SAP rechazaba 2,340 registros.
    • Cálculo de la Tasa de Error Inicial:
      • % Tasa de Error = (Registros Rechazados​/Total de Registros)×100

      • % Tasa de Error = (2,340​/36,000)×100 = 6.5%

    Escenario “Después” (2.1% de Tasa de Error)

    La solución fue implementar un script de pre-validación. Este script actuaba como un “filtro de calidad”, comparando los 36,000 registros contra las reglas del nuevo sistema antes de la carga.

    • Acción Correctiva: El script identificó los 2,340 registros problemáticos de antemano. El equipo se enfocó en corregir este subconjunto, logrando solucionar la mayoría de los casos (1,584 registros) antes de la carga final.

    • Resultado: Gracias a esta limpieza previa, en la carga definitiva, solo 756 registros fueron rechazados por el sistema (casos más complejos que requerían análisis manual).

    • Cálculo de la Tasa de Error Final:

      • % Tasa de Error = (756/36,000​)×100 = 2.1%

    “En las pruebas iniciales, la migración de los 36,000 registros tenía una tasa de error del 6.5%, lo que significaba más de 2,300 registros rechazados. Para solucionar esto, desarrollé un proceso de pre-validación que nos permitió identificar y corregir proactivamente estos errores. Gracias a esto, en la carga final, redujimos la tasa de error a solo un 2.1%, haciendo el proceso mucho más eficiente y predecible.”

    Logramos una tasa de reconciliación final del 98.3%, garantizando que los datos en el nuevo sistema eran un reflejo fiel y de alta calidad de nuestro catálogo depurado.

    Esta métrica es diferente a la tasa de error. No mide la calidad del contenido, sino la integridad del proceso: confirma que la cantidad de registros que se intentó mover desde el origen es consistente con la que aterrizó en el destino.

    El Escenario

    La reconciliación es el conteo final para certificar que no se “perdieron” datos en el camino.

    • Registros en Origen: El punto de partida son los 36,000 registros que se planificó migrar.
    • Registros en Destino: Al finalizar la migración, se ejecutó un conteo en la tabla de destino de SAP, y el resultado fue 35,388 registros cargados exitosamente.
    • Registros en el “Log de Excepciones”: La diferencia, 36,000 − 35,388 = 612 registros, no se perdió. Estos fueron los registros que el sistema rechazó de forma definitiva por errores críticos y que fueron guardados en un reporte de excepciones para su análisis y decisión por parte del negocio.

    El Cálculo

    • % Tasa de Reconciliación = (Registros en Destino​/Registros en Origen)×100

    • % Tasa de Reconciliación = (35,388​/36,000)×100 = 98.3%

    “Para garantizar la integridad total de la migración, implementamos un control de reconciliación. Logramos una tasa del 98.3%, lo que significa que pudimos certificar la carga exitosa de 35,388 de los 36,000 registros. El 1.7% restante fue completamente trazado en un reporte de excepciones, asegurando cero pérdida de información y dándole al negocio total confianza en los datos del nuevo sistema.”

    Tags: Consumo Masivo
    Share:

    Prev
    Next

    © 2025 All rights reserved.