La capacidad de un proceso y su aplicación a la construcción

Los procesos constructivos están sujetos a variabilidad. Las causas que justifican los distintos resultados a veces dependen de factores comunes y otras veces de factores aleatorios. Sin embargo, en las obras normalmente se aborda el control de la calidad una vez está el producto o la unidad de obra terminada. Es lo que se conoce como control de producto terminado. Mejor sería abordar el control de calidad del proceso. Herramientas no nos faltan, pero no son habituales en las obras. Abordamos en este post el concepto de “capacidad de un proceso” para entender mejor la necesidad del control estadístico antes de tener un producto terminado.

No siempre una máquina o un proceso es capaz de alcanzar la calidad exigida por un cliente o por otro proceso. Hay que tener esta idea muy clara pues existe cierta variabilidad debida a causas comunes que sólo se podrá solucionar si se cambia la máquina o el proceso, lo cual implica una decisión por parte de la alta dirección. Este aspecto lo hemos explicado en un post anterior.

Después de comprobar que el proceso está bajo control, el siguiente paso es saber si es un proceso capaz, es decir, si cumple con las especificaciones técnicas deseadas, o lo que es lo mismo, comprobar si el proceso cumple el objetivo funcional. Se espera que el resultado de un proceso cumpla con los requerimientos o las tolerancias que ha establecido el cliente. El departamento de ingeniería puede llevar a cabo un estudio sobre la capacidad del proceso para determinar en que medida el proceso cumple con las expectativas.

La habilidad de un proceso para cumplir con la especificación puede expresarse con un solo número, el índice de capacidad del proceso o puede calcularse a partir de los gráficos de control. En cualquier caso es necesario tomar las mediciones necesarias para que el departamento de ingeniera tenga la certeza de que el proceso es estable, y que la media y variabilidad de este se pueden calcular con seguridad. El control de proceso estadístico define técnicas para diferenciar de manera adecuada entre procesos estables, procesos cuyo promedio se desvía poco a poco y procesos con una variabilidad cada vez mayor. Los índices de capacidad del proceso son solo significativos en caso de que el proceso sea estable (sometidos a un control estadístico).

Para aclarar estas ideas, o paso un Polimedia explicativo que espero os guste.

¿Qué es la investigación operativa?

La investigación de operaciones o investigación operativa es una rama de las matemáticas que consiste en el uso de modelos matemáticos, estadística y algoritmos con objeto de modelar y resolver problemas complejos  determinando la solución óptima y permitiendo, de este modo, tomar decisiones.  Frecuentemente trata del estudio de complejos sistemas reales, con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios o la minimización de costos.

Aunque su nacimiento como ciencia se establece durante la Segunda Guerra Mundial y debe su nombre a las operaciones militares, los verdaderos orígenes de la Investigación Operativa se remontan mucho más atrás en el tiempo, hasta el siglo XVII. Esta disciplina nació en Inglaterra durante la Segunda Guerra Mundial como estrategia para encontrar soluciones a problemas militares, para ello fue necesario crear un Grupo de Investigación de Operaciones Militares conformado por un grupo de científicos multidisciplinares. Al terminar la guerra este método fue empleado en darle solución a problemas generales como el control de inventarios, asignación de recursos, líneas de espera, entre otros. Esta técnica cumplió sus objetivos en la década de los cincuenta y sesenta, hasta su desarrollo total en la actualidad. Sin embargo su auge es debido, en su mayor parte, al gran desarrollo de la informática, gracias a la cual es posible resolver problemas en la práctica y obtener soluciones que de otra forma conllevarían un enorme tiempo de cálculo. Debido a este éxito, la Investigación Operativa  se extendió a otros campos tales como la industria, física, informática, economía, estadística y probabilidad, ecología, educación, servicio social, …, siendo hoy en día utilizada prácticamente en todas las áreas. Algunos de los promotores más importantes de la filosofía y aplicación de la investigación de operaciones son C.W. Churchman, R.L. Ackoff y R. Bellman. Actualmente la Investigación Operativa incluye gran cantidad de ramas como la Programación Lineal, Programación No Lineal, Programación Dinámica, Simulación, Teoría de Colas, Teoría de Inventarios, Teoría de Grafos, etc.

Os presento ahora un vídeo, que no llega a 3 minutos de duración, para que, tras su visionado, contestéis a las siguientes preguntas:

1        ¿Cómo definirías, con tus propias palabras, lo que es la Investigación de las Operaciones?

2        ¿Qué tiene que ver la Investigación de las Operaciones con la toma de decisiones?

3        ¿Cómo definirías con tus propias palabras lo que es un modelo matemático?

4        ¿Qué motivos pueden hacer que un modelo teórico sea diferente a la realidad que desea representar?

 

El concepto de variabilidad y sus causas

Vamos a incluir en este blog unos cuantos posts relacionados con la estadística. Es fundamental entender que tanto los modelos predictivos como muchas heurísticas precisan de una buena base estadística para poder explotar sus posibilidades. Empezaremos hoy con el concepto de variabilidad, muy empleado en procesos industriales y en calidad, pero que también sería útil cuando hablamos de heurísticas que emplean mecanismos aleatorios de búsqueda. Empecemos pues.

El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Ello se debe a múltiples motivos, más o menos evitables. Por un lado existen múltiples causas comunes, aleatorias y no controlables que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo éste el enfoque que sobre el concepto de calidad propugna Deming. Por otra parte, existen unas pocas causas asignables, que ocurren de forma fortuita y que podemos detectarlas y corregirlas. Ocurren de forma errática y, afortunadamente se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque precisan de un cambio del proceso, de la máquina o del sistema que produce los resultados, siendo ese cambio una responsabilidad de la gerencia. Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la gerencia, siendo mal recibido dicho comentario por parte de la alta dirección de las empresas.

Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.