Con el fin de abundar en los temas de metodología científica, os dejo dos polimedias sobre el método científico y tipos de investigación, de la Universidad Politécnica de Cartagena. Espero que os gusten.
Optimization of buttressed earth-retaining walls using hybrid harmony search algorithms
Para empezar este año 2017, nada mejor que te comuniquen la publicación de un artículo de investigación el mismo día 1. Se trata en este caso de la utilización de algoritmos heurísticos híbridos para optimizar el coste de muros de contrafuertes. Se ha publicado en la revista Engineering Structures.
Como suele ser habitual en la editorial Elsevier, os podéis descargar GRATUITAMENTE el artículo hasta el 20 de febrero accediendo al siguiente enlace:
https://authors.elsevier.com/a/1UJQQW4G4Bl2d
Abstract:
This paper represents an economic optimization of buttressed earth-retaining walls. We explore the optimum solutions using a harmony search with an intensification stage through threshold accepting. The calibration of the resulting algorithm has been obtained as a result of several test runs for different parameters. A design parametric study was computed to walls in series from 4 to 16 m total height. The results showed different ratios of reinforcement per volume of concrete for three types of ground fill. Our main findings confirmed that the most sensitive variable for optimum walls is the wall-friction angle. The preference for wall-fill friction angles different to 0 in project design is confirmed. The type of fill is stated as the main key factor affecting the cost of optimum walls. The design parametric study shows that the soil foundation bearing capacity substantially affects costs, mainly in coarse granular fills (F1). In that sense, cost-optimum walls are less sensitive to the bearing capacity in mixed soils (F2) and fine soils of low plasticity (F3). Our results also showed that safety against sliding is a more influential factor for optimum buttressed walls than the overturning constraint. Finally, as for the results derived from the optimization procedure, a more suitable rule of thumb to dimension the footing thickness of the footing is proposed.
Keywords:
Structural design; Heuristics; Harmony search; Cost optimization; Concrete structures
Reference:
MOLINA-MORENO, F.; GARCÍA-SEGURA, T.; MARTÍ, J.V.; YEPES, V. (2017). Optimization of buttressed earth-retaining walls using hybrid harmony search algorithms. Engineering Structures, 134:205-216. http://dx.doi.org/10.1016/j.engstruct.2016.12.042
La capacidad de un proceso y su aplicación a la construcción
Los procesos constructivos están sujetos a variabilidad. Las causas que justifican los distintos resultados a veces dependen de factores comunes y otras veces de factores aleatorios. Sin embargo, en las obras normalmente se aborda el control de la calidad una vez está el producto o la unidad de obra terminada. Es lo que se conoce como control de producto terminado. Mejor sería abordar el control de calidad del proceso. Herramientas no nos faltan, pero no son habituales en las obras. Abordamos en este post el concepto de “capacidad de un proceso” para entender mejor la necesidad del control estadístico antes de tener un producto terminado.
No siempre una máquina o un proceso es capaz de alcanzar la calidad exigida por un cliente o por otro proceso. Hay que tener esta idea muy clara pues existe cierta variabilidad debida a causas comunes que sólo se podrá solucionar si se cambia la máquina o el proceso, lo cual implica una decisión por parte de la alta dirección. Este aspecto lo hemos explicado en un post anterior.
Después de comprobar que el proceso está bajo control, el siguiente paso es saber si es un proceso capaz, es decir, si cumple con las especificaciones técnicas deseadas, o lo que es lo mismo, comprobar si el proceso cumple el objetivo funcional. Se espera que el resultado de un proceso cumpla con los requerimientos o las tolerancias que ha establecido el cliente. El departamento de ingeniería puede llevar a cabo un estudio sobre la capacidad del proceso para determinar en que medida el proceso cumple con las expectativas.
La habilidad de un proceso para cumplir con la especificación puede expresarse con un solo número, el índice de capacidad del proceso o puede calcularse a partir de los gráficos de control. En cualquier caso es necesario tomar las mediciones necesarias para que el departamento de ingeniera tenga la certeza de que el proceso es estable, y que la media y variabilidad de este se pueden calcular con seguridad. El control de proceso estadístico define técnicas para diferenciar de manera adecuada entre procesos estables, procesos cuyo promedio se desvía poco a poco y procesos con una variabilidad cada vez mayor. Los índices de capacidad del proceso son solo significativos en caso de que el proceso sea estable (sometidos a un control estadístico).
Para aclarar estas ideas, o paso un Polimedia explicativo que espero os guste.
¿Qué es la investigación operativa?
La investigación de operaciones o investigación operativa es una rama de las matemáticas que consiste en el uso de modelos matemáticos, estadística y algoritmos con objeto de modelar y resolver problemas complejos determinando la solución óptima y permitiendo, de este modo, tomar decisiones. Frecuentemente trata del estudio de complejos sistemas reales, con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios o la minimización de costos.
Aunque su nacimiento como ciencia se establece durante la Segunda Guerra Mundial y debe su nombre a las operaciones militares, los verdaderos orígenes de la Investigación Operativa se remontan mucho más atrás en el tiempo, hasta el siglo XVII. Esta disciplina nació en Inglaterra durante la Segunda Guerra Mundial como estrategia para encontrar soluciones a problemas militares, para ello fue necesario crear un Grupo de Investigación de Operaciones Militares conformado por un grupo de científicos multidisciplinares. Al terminar la guerra este método fue empleado en darle solución a problemas generales como el control de inventarios, asignación de recursos, líneas de espera, entre otros. Esta técnica cumplió sus objetivos en la década de los cincuenta y sesenta, hasta su desarrollo total en la actualidad. Sin embargo su auge es debido, en su mayor parte, al gran desarrollo de la informática, gracias a la cual es posible resolver problemas en la práctica y obtener soluciones que de otra forma conllevarían un enorme tiempo de cálculo. Debido a este éxito, la Investigación Operativa se extendió a otros campos tales como la industria, física, informática, economía, estadística y probabilidad, ecología, educación, servicio social, …, siendo hoy en día utilizada prácticamente en todas las áreas. Algunos de los promotores más importantes de la filosofía y aplicación de la investigación de operaciones son C.W. Churchman, R.L. Ackoff y R. Bellman. Actualmente la Investigación Operativa incluye gran cantidad de ramas como la Programación Lineal, Programación No Lineal, Programación Dinámica, Simulación, Teoría de Colas, Teoría de Inventarios, Teoría de Grafos, etc.
Os presento ahora un vídeo, que no llega a 3 minutos de duración, para que, tras su visionado, contestéis a las siguientes preguntas:
1 ¿Cómo definirías, con tus propias palabras, lo que es la Investigación de las Operaciones?
2 ¿Qué tiene que ver la Investigación de las Operaciones con la toma de decisiones?
3 ¿Cómo definirías con tus propias palabras lo que es un modelo matemático?
4 ¿Qué motivos pueden hacer que un modelo teórico sea diferente a la realidad que desea representar?
El concepto de variabilidad y sus causas
Vamos a incluir en este blog unos cuantos posts relacionados con la estadística. Es fundamental entender que tanto los modelos predictivos como muchas heurísticas precisan de una buena base estadística para poder explotar sus posibilidades. Empezaremos hoy con el concepto de variabilidad, muy empleado en procesos industriales y en calidad, pero que también sería útil cuando hablamos de heurísticas que emplean mecanismos aleatorios de búsqueda. Empecemos pues.
El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Ello se debe a múltiples motivos, más o menos evitables. Por un lado existen múltiples causas comunes, aleatorias y no controlables que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo éste el enfoque que sobre el concepto de calidad propugna Deming. Por otra parte, existen unas pocas causas asignables, que ocurren de forma fortuita y que podemos detectarlas y corregirlas. Ocurren de forma errática y, afortunadamente se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque precisan de un cambio del proceso, de la máquina o del sistema que produce los resultados, siendo ese cambio una responsabilidad de la gerencia. Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la gerencia, siendo mal recibido dicho comentario por parte de la alta dirección de las empresas.
Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.
Multiobjective optimization of post-tensioned concrete box-girder road bridges considering cost, CO2 emissions, and safety
ACCESO LIBRE AL ARTÍCULO:
The following personal article link, which will provide free access to your article, and is valid for 50 days, until September 14, 2016
http://authors.elsevier.com/a/1TROAW4G4Bhqk
Abstract: This paper presents a multiobjective optimization of post-tensioned concrete road bridges in terms of cost, CO2 emissions, and overall safety factor. A computer tool links the optimization modulus with a set of modules for the finite-element analysis and limit states verification. This is applied for the case study of a three-span continuous post-tensioned box-girder road bridge, located in a coastal region. A multiobjective harmony search is used to automatically search a set of optimum structural solutions regarding the geometry, concrete strength, reinforcing and post-tensioned steel. Diversification strategies are combined with intensification strategies to improve solution quality. Results indicate that cost and CO2 emissions are close to each other for any safety range. A one-euro reduction, involves a 2.34 kg CO2 emissions reduction. Output identifies the best variables to improve safety and the critical limit states. This tool also provides bridge managers with a set of trade-off optimum solutions, which balance their preferences most closely, and meet the requirements previously defined.
Keywords
- Multiobjective optimization;
- CO2 emissions;
- Safety;
- Post-tensioned concrete;
- Box-girder bridge;
- Multiobjective harmony search
- A multiobjective optimization of post-tensioned concrete road bridges is presented.
- A computer tool combines finite-element analysis and limit states verification.
- Output provides a trade-off between cost, CO2 emissions, and overall safety factor.
- Near the optima, a one-euro reduction represents a 2.34 kg CO2 emissions reduction.
- Results show the cheapest and most eco-friendly variables for improving safety.
Reference:
GARCÍA-SEGURA, T.; YEPES, V. (2016). Multiobjective optimization of post-tensioned concrete box-girder road bridges considering cost, CO2 emissions, and safety. Engineering Structures, 125:325-336. DOI: 10.1016/j.engstruct.2016.07.012.
El profesor Dan M. Frangopol de estancia con nosotros en la Universitat Politècnica de València
Tenemos la gran suerte de contar con el profesor Dan M. Frangopol como profesor visitante en la Universitat Politècnica de València. Se trata de una estancia que solicitó nuestro grupo de investigación dentro del proyecto de investigación BRIDLIFE y que también ha sido apoyada por nuestra universidad. Es una magnífica oportunidad de poder colaborar en líneas de investigación que confluyen en la optimización multiobjetivo de estructuras a lo largo de su ciclo de vida. Ya estuvo nuestra investigadora Tatiana García Segura cuatro meses de estancia en la Universidad de Lehigh.
El curriculum y la trayectoria académica del profesor Frangopol es impresionante. Es el primer titular de la Cátedra Fazlur R. Khan de Ingeniería Estructural y Arquitectura de la Universidad de Lehigh, en Bethlehem, Pensilvania. Antes de incorporarse a esta universidad, fue profesor de ingeniería civil en la Universidad de Colorado en Boulder, donde ahora es profesor emérito. Sus líneas de investigación se centran en la aplicación de los conceptos probabilísticos y métodos de la ingeniería civil tales como la fiabilidad estructural, el diseño basado en la probabilidad y la optimización de edificios, puentes y barcos navales, vigilancia de la salud estructural, mantenimiento y gestión a lo largo de su ciclo de vida, gestión de infraestructuras en condiciones de incertidumbre, evaluación basada en el riesgo, sostenibilidad y resistencia a los desastres.
De acuerdo con el ASCE (Sociedad Estadounidense de Ingenieros Civiles) “Dan M. Frangopol is a preeminent authority in bridge safety and maintenance management, structural system reliability, and life-cycle civil engineering. His contributions have defined much of the practice around design specifications, management methods, and optimization approaches. From the maintenance of deteriorated structures and the development of system redundancy factors to assessing the performance of long-span structures, Dr. Frangopol’s research has not only saved time and money, but very likely also saved lives… Dr. Frangopol is a renowned teacher and mentor to future engineers.”
A parte de cuatro doctorados honoris causa, el profesor Frangopol presenta un índice h de 54 y más de 11900 citas (Google Scholar, 2015). Ha dirigido más de 40 tesis doctorales y ha sido profesor visitante en numerosas universidades de todo el mundo. Lo mejor es que veáis su currículum entero en su página web: http://www.lehigh.edu/~dmf206/
Os dejo a continuación los seminarios y conferencias que impartirá este mes en la Universitat Politècnica de València. Si tenéis alguna duda, me podéis enviar un correo electrónico. La entrada es libre. Os iré contando en sucesivos posts más sobre nuestra actividad este mes con el profesor Frangopol.
Metodología de la superficie de respuesta
La Metodología de la Superficie de Respuesta (RSM) es un conjunto de técnicas matemáticas y estadísticas utilizadas para modelar y analizar problemas en los que una variable de interés es influenciada por otras. El propósito inicial de estas técnicas es diseñar un experimento que proporcione valores razonables de la variable respuesta y, a continuación, determinar el modelo matemático que mejor se ajusta a los datos obtenidos. El objetivo final es establecer los valores de los factores que optimizan el valor de la variable respuesta. Esto se logra al determinar las condiciones óptimas de operación del sistema.
La direrencia entre (RSM) y un diseño experimental corriente estriba en que un diseño experimental por si solo tiene como objetivo localizar el tratamiento “ganador” entre todos aquellos que se han probado. En cambio, RSM pretende localizar las condiciones óptimas de operación del proceso. Ello supone un reto para el investigador, requiere una estrategia más completa e incluye la posibilidad de efectuar varios experimentos secuenciales y el uso de técnicas matemáticas más avanzadas.
Os dejo a continuación un vídeo explicativo que espero os aclare la metodología.
Referencias:
- Box, G. E. P., Wilson, K. G. (1951), On the experimental attainment of optimum conditions,Journal of the Royal Statistical Society, B 13, 1-45
- Cornell, John A. (1984), How to apply Response Surface Methodology, American Society for Quality Control, Milwaukee, WI.
- Kuehl, Robert O. (2001) Diseño de Experimentos, 2a. Edición, Thomson Learning.
- Melvin T. A. Response Surface Optimization using JMP Software, < http://www2.sas.com/proceedings/sugi22/STATS/PAPER265.PDF>
- Montgomery, D. C. (2002), Diseño y Análisis de Experimentos, Editorial Limusa, Segunda Edición.
- http://www.cicalidad.com/articulos/RSM.pdf
- http://catarina.udlap.mx/u_dl_a/tales/documentos/lii/peregrina_p_pm/capitulo2.pdf
One-minute paper
Una innovación docente efectiva no tiene por qué ser difícil de aplicar en clase. Estamos hablando del “One-minute paper“, que en español se podría traducir como “trabajos de un minuto”, aunque todo el mundo conoce el término popularizado en inglés.
Este es un recurso didáctico, probablemente reinventado muchas veces, pero que es extraordinariamente sencillo. Se trata de preguntar al final de la clase a los alumnos dos cosas:
- ¿Qué ha sido para tí lo más importante que has aprendido en esta clase?
- ¿Qué es lo que te ha quedado más confuso?
Para contestar se reparten a los alumno unas papeletas, sin demasiado espacio, donde queda reflejada la fecha y, si se estima oportuno, el nombre del alumno. Aunque muchas veces funciona mejor si es anónimo. Otras veces se puede realizar una pequeña actividad grupal para que se puedan comentar las respuestas entre los compañeros antes de entregar la papeleta.
Es una forma sencilla de que el profesor reciba una retroalimentación de la clase anterior y que pueda, al comienzo de la siguiente clase, comentar alguna de las preguntas que quedaron menos claras. Las preguntas suelen referirse sobre todo a opiniones, sentimientos o percepción, más que a verificar un aprendizaje de conocimientos en sentido propio. Además, se puede utilizar la técnica no sólo al final de una clase, sino al final de un trabajo, una evaluación, etc.
Este método tiene muchas ventajas: indica al profesor si los alumnos nos van siguiendo en las explicaciones, nos da una oportunidad para comentar “otras” cosas en clase, mejora el clima en clase, e incluso puede servirnos para “pasar lista” de una forma discreta. A los alumnos les obliga a adoptar una actitud reflexiva, aprenden a aprender en clase, se prolonga la retención de lo explicado, se ejercitan en redactar y puede ser una oportunidad para los más tímidos para exponer sus opiniones.
En este vídeo podemos ver una pequeña explicación de la técnica:
Referencias:
Morales Vallejo, Pedro (2011). Escribir para aprender, tareas para hacer en casa. Guatemala: Universidad Rafael Landívar. Disponible en http://www.upcomillas.es/personal/peter/otrosdocumentos/OneMinutePaper.pdf
Análisis estadístico en SPSS
Como el programa básico que vamos a utilizar es el SPSS, os paso unos apuntes de Francisco Parra, Juan Antonio Vicente y Mauricio Beltrán que podéis encontrar en el siguiente enlace: http://econometria.files.wordpress.com/2009/04/curso-basico-de-analisis-estadistico-en-spss.pdf. Espero que os sean útiles.