UPV



La capacidad de un proceso y su aplicación a la construcción

Los procesos constructivos están sujetos a variabilidad. Las causas que justifican los distintos resultados a veces dependen de factores comunes y otras veces de factores aleatorios. Sin embargo, en las obras normalmente se aborda el control de la calidad una vez está el producto o la unidad de obra terminada. Es lo que se conoce como control de producto terminado. Mejor sería abordar el control de calidad del proceso. Herramientas no nos faltan, pero no son habituales en las obras. Abordamos en este post el concepto de “capacidad de un proceso” para entender mejor la necesidad del control estadístico antes de tener un producto terminado.

No siempre una máquina o un proceso es capaz de alcanzar la calidad exigida por un cliente o por otro proceso. Hay que tener esta idea muy clara pues existe cierta variabilidad debida a causas comunes que sólo se podrá solucionar si se cambia la máquina o el proceso, lo cual implica una decisión por parte de la alta dirección. Este aspecto lo hemos explicado en un post anterior.

Después de comprobar que el proceso está bajo control, el siguiente paso es saber si es un proceso capaz, es decir, si cumple con las especificaciones técnicas deseadas, o lo que es lo mismo, comprobar si el proceso cumple el objetivo funcional. Se espera que el resultado de un proceso cumpla con los requerimientos o las tolerancias que ha establecido el cliente. El departamento de ingeniería puede llevar a cabo un estudio sobre la capacidad del proceso para determinar en que medida el proceso cumple con las expectativas.

La habilidad de un proceso para cumplir con la especificación puede expresarse con un solo número, el índice de capacidad del proceso o puede calcularse a partir de los gráficos de control. En cualquier caso es necesario tomar las mediciones necesarias para que el departamento de ingeniera tenga la certeza de que el proceso es estable, y que la media y variabilidad de este se pueden calcular con seguridad. El control de proceso estadístico define técnicas para diferenciar de manera adecuada entre procesos estables, procesos cuyo promedio se desvía poco a poco y procesos con una variabilidad cada vez mayor. Los índices de capacidad del proceso son solo significativos en caso de que el proceso sea estable (sometidos a un control estadístico).

Para aclarar estas ideas, o paso un Polimedia explicativo que espero os guste.

¿Qué es la investigación operativa?

La investigación de operaciones o investigación operativa es una rama de las matemáticas que consiste en el uso de modelos matemáticos, estadística y algoritmos con objeto de modelar y resolver problemas complejos  determinando la solución óptima y permitiendo, de este modo, tomar decisiones.  Frecuentemente trata del estudio de complejos sistemas reales, con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios o la minimización de costos.

Aunque su nacimiento como ciencia se establece durante la Segunda Guerra Mundial y debe su nombre a las operaciones militares, los verdaderos orígenes de la Investigación Operativa se remontan mucho más atrás en el tiempo, hasta el siglo XVII. Esta disciplina nació en Inglaterra durante la Segunda Guerra Mundial como estrategia para encontrar soluciones a problemas militares, para ello fue necesario crear un Grupo de Investigación de Operaciones Militares conformado por un grupo de científicos multidisciplinares. Al terminar la guerra este método fue empleado en darle solución a problemas generales como el control de inventarios, asignación de recursos, líneas de espera, entre otros. Esta técnica cumplió sus objetivos en la década de los cincuenta y sesenta, hasta su desarrollo total en la actualidad. Sin embargo su auge es debido, en su mayor parte, al gran desarrollo de la informática, gracias a la cual es posible resolver problemas en la práctica y obtener soluciones que de otra forma conllevarían un enorme tiempo de cálculo. Debido a este éxito, la Investigación Operativa  se extendió a otros campos tales como la industria, física, informática, economía, estadística y probabilidad, ecología, educación, servicio social, …, siendo hoy en día utilizada prácticamente en todas las áreas. Algunos de los promotores más importantes de la filosofía y aplicación de la investigación de operaciones son C.W. Churchman, R.L. Ackoff y R. Bellman. Actualmente la Investigación Operativa incluye gran cantidad de ramas como la Programación Lineal, Programación No Lineal, Programación Dinámica, Simulación, Teoría de Colas, Teoría de Inventarios, Teoría de Grafos, etc.

Os presento ahora un vídeo, que no llega a 3 minutos de duración, para que, tras su visionado, contestéis a las siguientes preguntas:

1        ¿Cómo definirías, con tus propias palabras, lo que es la Investigación de las Operaciones?

2        ¿Qué tiene que ver la Investigación de las Operaciones con la toma de decisiones?

3        ¿Cómo definirías con tus propias palabras lo que es un modelo matemático?

4        ¿Qué motivos pueden hacer que un modelo teórico sea diferente a la realidad que desea representar?

 

3 octubre, 2016
 
|   Etiquetas: ,  ,  |  

El concepto de variabilidad y sus causas

Vamos a incluir en este blog unos cuantos posts relacionados con la estadística. Es fundamental entender que tanto los modelos predictivos como muchas heurísticas precisan de una buena base estadística para poder explotar sus posibilidades. Empezaremos hoy con el concepto de variabilidad, muy empleado en procesos industriales y en calidad, pero que también sería útil cuando hablamos de heurísticas que emplean mecanismos aleatorios de búsqueda. Empecemos pues.

El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Ello se debe a múltiples motivos, más o menos evitables. Por un lado existen múltiples causas comunes, aleatorias y no controlables que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo éste el enfoque que sobre el concepto de calidad propugna Deming. Por otra parte, existen unas pocas causas asignables, que ocurren de forma fortuita y que podemos detectarlas y corregirlas. Ocurren de forma errática y, afortunadamente se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque precisan de un cambio del proceso, de la máquina o del sistema que produce los resultados, siendo ese cambio una responsabilidad de la gerencia. Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la gerencia, siendo mal recibido dicho comentario por parte de la alta dirección de las empresas.

Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.

Multiobjective optimization of post-tensioned concrete box-girder road bridges considering cost, CO2 emissions, and safety

Sin título

ACCESO LIBRE AL ARTÍCULO:

The following personal article link, which will provide free access to your article, and is valid for 50 days, until September 14, 2016

http://authors.elsevier.com/a/1TROAW4G4Bhqk

Abstract: This paper presents a multiobjective optimization of post-tensioned concrete road bridges in terms of cost, CO2 emissions, and overall safety factor. A computer tool links the optimization modulus with a set of modules for the finite-element analysis and limit states verification. This is applied for the case study of a three-span continuous post-tensioned box-girder road bridge, located in a coastal region. A multiobjective harmony search is used to automatically search a set of optimum structural solutions regarding the geometry, concrete strength, reinforcing and post-tensioned steel. Diversification strategies are combined with intensification strategies to improve solution quality. Results indicate that cost and CO2 emissions are close to each other for any safety range. A one-euro reduction, involves a 2.34 kg CO2 emissions reduction. Output identifies the best variables to improve safety and the critical limit states. This tool also provides bridge managers with a set of trade-off optimum solutions, which balance their preferences most closely, and meet the requirements previously defined.

Keywords

  • Multiobjective optimization;
  • CO2 emissions;
  • Safety;
  • Post-tensioned concrete;
  • Box-girder bridge;
  • Multiobjective harmony search

Highlights

  • A multiobjective optimization of post-tensioned concrete road bridges is presented.
  • A computer tool combines finite-element analysis and limit states verification.
  • Output provides a trade-off between cost, CO2 emissions, and overall safety factor.
  • Near the optima, a one-euro reduction represents a 2.34 kg CO2 emissions reduction.
  • Results show the cheapest and most eco-friendly variables for improving safety.

Reference:

GARCÍA-SEGURA, T.; YEPES, V. (2016). Multiobjective optimization of post-tensioned concrete box-girder road bridges considering cost, CO2 emissions, and safety. Engineering Structures, 125:325-336. DOI: 10.1016/j.engstruct.2016.07.012.

6 septiembre, 2016
  Comentarios
|   Etiquetas: ,  ,  ,  ,  ,  |  

El profesor Dan M. Frangopol de estancia con nosotros en la Universitat Politècnica de València

20160226_dan_frangopol_nsf_awardTenemos la gran suerte de contar con el profesor Dan M. Frangopol como profesor visitante en la Universitat Politècnica de València. Se trata de una estancia que solicitó nuestro grupo de investigación dentro del proyecto de investigación BRIDLIFE y que también ha sido apoyada por nuestra universidad. Es una magnífica oportunidad de poder colaborar en líneas de investigación que confluyen en la optimización multiobjetivo de estructuras a lo largo de su ciclo de vida. Ya estuvo nuestra investigadora Tatiana García Segura cuatro meses de estancia en la Universidad de Lehigh.

El curriculum y la trayectoria académica del profesor Frangopol es impresionante. Es el primer titular de la Cátedra Fazlur R. Khan de Ingeniería Estructural y Arquitectura de la Universidad de Lehigh, en Bethlehem, Pensilvania. Antes de incorporarse a esta universidad, fue profesor de ingeniería civil en la Universidad de Colorado en Boulder, donde ahora es profesor emérito. Sus líneas de investigación se centran en la aplicación de los conceptos probabilísticos y métodos de la ingeniería civil tales como la fiabilidad estructural, el diseño basado en la probabilidad y la optimización de edificios, puentes y barcos navales, vigilancia de la salud estructural, mantenimiento y gestión a lo largo de su ciclo de vida, gestión de infraestructuras en condiciones de incertidumbre, evaluación basada en el riesgo, sostenibilidad y resistencia a los desastres.

De acuerdo con el ASCE (Sociedad Estadounidense de Ingenieros Civiles) “Dan M. Frangopol is a preeminent authority in bridge safety and maintenance management, structural system reliability, and life-cycle civil engineering. His contributions have defined much of the practice around design specifications, management methods, and optimization approaches. From the maintenance of deteriorated structures and the development of system redundancy factors to assessing the performance of long-span structures, Dr. Frangopol’s research has not only saved time and money, but very likely also saved lives… Dr. Frangopol is a renowned teacher and mentor to future engineers.”

A parte de cuatro doctorados honoris causa, el profesor Frangopol presenta un índice h de 54 y más de 11900 citas (Google Scholar, 2015). Ha dirigido más de 40 tesis doctorales y ha sido profesor visitante en numerosas universidades de todo el mundo. Lo mejor es que veáis su currículum entero en su página web: http://www.lehigh.edu/~dmf206/

Os dejo a continuación los seminarios y conferencias que impartirá este mes en la Universitat Politècnica de València. Si tenéis alguna duda, me podéis enviar un correo electrónico. La entrada es libre. Os iré contando en sucesivos posts más sobre nuestra actividad este mes con el profesor Frangopol.

Download (PDF, 108KB)

10 mayo, 2016
  Comentarios
|   Etiquetas: ,  |  

Metodología de la superficie de respuesta

La Metodología de la Superficie de Respuesta (RSM) es un conjunto de técnicas matemáticas y estadísticas utilizadas para modelar y analizar problemas en los que una variable de interés es influenciada por otras.  El propósito inicial de estas técnicas es diseñar un experimento que proporcione valores razonables de la variable respuesta y, a continuación, determinar el modelo matemático que mejor se ajusta a los datos obtenidos. El objetivo final es establecer los valores de los factores que optimizan el valor de la variable respuesta. Esto se logra al determinar las condiciones óptimas de operación del sistema.

La direrencia entre (RSM) y un diseño experimental corriente estriba en que un diseño experimental por si solo tiene como objetivo localizar el tratamiento “ganador” entre todos aquellos que se han probado. En cambio, RSM pretende localizar las condiciones óptimas de operación del proceso. Ello supone un reto para el investigador, requiere una estrategia más completa e incluye la posibilidad de efectuar varios experimentos secuenciales y el uso de técnicas matemáticas más avanzadas.

Os dejo a continuación un vídeo explicativo que espero os aclare la metodología.

Referencias:

  • Box, G. E. P., Wilson, K. G. (1951), On the experimental attainment of optimum conditions,Journal of the Royal Statistical Society, B 13, 1-45
  • Cornell, John A. (1984), How to apply Response Surface Methodology, American Society for Quality Control, Milwaukee, WI.
  • Kuehl, Robert O. (2001) Diseño de Experimentos, 2a. Edición, Thomson Learning.
  • Melvin T. A. Response Surface Optimization using JMP Software, < http://www2.sas.com/proceedings/sugi22/STATS/PAPER265.PDF>
  • Montgomery, D. C. (2002), Diseño y Análisis de Experimentos, Editorial Limusa, Segunda Edición.
  • http://www.cicalidad.com/articulos/RSM.pdf
  • http://catarina.udlap.mx/u_dl_a/tales/documentos/lii/peregrina_p_pm/capitulo2.pdf
18 abril, 2016
 
|   Etiquetas: ,  |  

One-minute paper

Una innovación docente efectiva no tiene por qué ser difícil de aplicar en clase. Estamos hablando del One-minute paper, que en español se podría traducir como “trabajos de un minuto”, aunque todo el mundo conoce el término popularizado en inglés.

Este es un recurso didáctico, probablemente reinventado muchas veces, pero que es extraordinariamente sencillo. Se trata de preguntar al final de la clase a los alumnos dos cosas:

  1. ¿Qué ha sido para tí  lo más importante que has aprendido en esta clase?
  2. ¿Qué es lo que te ha quedado más confuso?

Para contestar se reparten a los alumno unas papeletas, sin demasiado espacio, donde queda reflejada la fecha y, si se estima oportuno, el nombre del alumno. Aunque muchas veces funciona mejor si es anónimo. Otras veces se puede realizar una pequeña actividad grupal para que se puedan comentar las respuestas entre los compañeros antes de entregar la papeleta.

Es una forma sencilla de que el profesor reciba una retroalimentación de la clase anterior y que pueda, al comienzo de la siguiente clase, comentar alguna de las preguntas que quedaron menos claras. Las preguntas suelen referirse sobre todo a opiniones, sentimientos o percepción, más que a verificar un aprendizaje de conocimientos en sentido propio. Además, se puede utilizar la técnica no sólo al final de una clase, sino al final de un trabajo, una evaluación, etc.

Este método tiene muchas ventajas: indica al profesor si los alumnos nos van siguiendo en las explicaciones, nos da una oportunidad para comentar “otras” cosas en clase, mejora el clima en clase, e incluso puede servirnos para “pasar lista” de una forma discreta. A los alumnos les obliga a adoptar una actitud reflexiva, aprenden a aprender en clase, se prolonga la retención de lo explicado, se ejercitan en redactar y puede ser una oportunidad para los más tímidos para exponer sus opiniones.

En este vídeo podemos ver una pequeña explicación de la técnica:

 

Referencias:

Morales Vallejo, Pedro (2011). Escribir para aprender, tareas para hacer en casa. Guatemala: Universidad Rafael  Landívar. Disponible en http://www.upcomillas.es/personal/peter/otrosdocumentos/OneMinutePaper.pdf

3 febrero, 2016
 
|   Etiquetas: |  

La Programación Lineal. El método Simplex.

La programación lineal es un procedimiento o algoritmo matemático mediante el cual se resuelve un problema indeterminado, formulado a través de un sistema de inecuaciones lineales, optimizando la función objetivo, también lineal. Consiste en optimizar (minimizar o maximizar) una función lineal, denominada función objetivo, de tal forma que las variables de dicha función estén sujetas a una serie de restricciones que expresamos mediante un sistema de inecuaciones lineales.

Os dejo un vídeo tutorial donde se explica la programación lineal y se avanzan las ideas básicas del método Simplex.

Existen páginas web, como PHPSimplex, donde puedes solucionar on-line problemas sencillos. También puede resolverse este tipo de problemas con las herramientas de MATLAB: Optimization Toolbox.

A continuación os dejo un vídeo donde se explica cómo resolver un problema de Programación Lineal mediante MS Excel 2007. Es importante que aprendáis a utilizar el Solver. Espero que os guste el vídeo.

Tenéis que resolver con dicho programa los siguientes problemas:

  1. Una empresa produce hormigón usando los ingredientes A y B. Cada kilo de ingrediente A cuesta 60 unidades monetarias y contiene 4 unidades de arena fina, 3 unidades de arena gruesa y 5 unidades de grava. Cada kilo de ingrediente B cuesta 100 unidades monetarias y contiene 3 unidades de arena fina, 6 unidades de arena gruesa y 2 unidades de grava. Cada amasada debe contener, por lo menos, 12 unidades de arena fina, 12 unidades de arena gruesa y 10 unidades de grava. Formule un modelo de programación lineal y resuélvalo gráficamente.
  2. Una empresa especializada en la construcción de estructuras de edificios tiene patentes de tres tipos de forjados F1, F2 y F3. Los beneficios que consigue por metro cuadrado de forjado construido son 100, 90 y 120 unidades monetarias respectivamente. Por razones de almacenamiento y financiación, diariamente sólo se dispone de dos toneladas de acero, 200 m3 de hormigón y 8 m3 de madera para encofrados. Las cantidades de acero, hormigón y madera que se necesitan por m2 en cada uno de los forjados son:

Tipo de forjado

Materia prima

Cantidad

F1

Acero

0,2 kg/m2

Hormigón

80 dm3/m2

Madera

0,001 m3/m2

F2

Acero

0,25 kg/m2

Hormigón

37,5 dm3/m2

Madera

0,00125 m3/m2

F3

Acero

0,225 kg/m2

Hormigón

35 dm3/m2

Madera

0,0015 m3/m2

 

Maximizar el beneficio que se puede obtener.

El entregable tiene una bonificación de 0,05 puntos y deberá subirse a la carpeta Espacio Compartido de PoliformaT antes del 8 de febrero de 2016.

2 febrero, 2016
 
|   Etiquetas: ,  ,  ,  |  

Estimación puntual y por intervalos para una muestra de una población normal

El problema de la  estimación puntual y por intervalos para una muestra de una población normal es una actividad muy frecuente en el ámbito de la ingeniería y de la investigación. Supongamos que tenéis una muestra de 5 elementos extraída de una población normal (por ejemplo, de la resistencia a compresión simple de una probeta de hormigón a 28 días procedente de una misma amasada). El objetivo es establecer inferencias estadísticas usando un nivel de significación α=0.05. Deberíais ser capaces de realizar las siguientes actividades:

  1. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es conocida y vale lo mismo que la desviación típica de la muestra. (Se empleará la distribución normal).
  2. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es desconocida. (Se empleará la distribución t de Student).
  3. Calcular el intervalo de confianza para la desviación típica de la muestra. (Se empleará la distribución chi-cuadrado).

A continuación os dejo un pequeño tutorial para proceder al cálculo de dichos intervalos utilizando el paquete estadístico Minitab.

 

Os paso unos vídeos explicativos para que entendáis los conceptos. Espero que os gusten:

(más…)

1 febrero, 2016
 
|   Etiquetas: ,  ,  ,  |  

Análisis estadístico en SPSS

Como el programa básico que vamos a utilizar es el SPSS, os paso unos apuntes de Francisco Parra, Juan Antonio Vicente y Mauricio Beltrán que podéis encontrar en el siguiente enlace: http://econometria.files.wordpress.com/2009/04/curso-basico-de-analisis-estadistico-en-spss.pdf. Espero que os sean útiles.

18 enero, 2016
 
|   Etiquetas: ,  |  

Previous Posts

Universidad Politécnica de Valencia