El concepto de variabilidad y sus causas

Vamos a incluir en este blog unos cuantos posts relacionados con la estadística. Es fundamental entender que tanto los modelos predictivos como muchas heurísticas precisan de una buena base estadística para poder explotar sus posibilidades. Empezaremos hoy con el concepto de variabilidad, muy empleado en procesos industriales y en calidad, pero que también sería útil cuando hablamos de heurísticas que emplean mecanismos aleatorios de búsqueda. Empecemos pues.

El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Ello se debe a múltiples motivos, más o menos evitables. Por un lado existen múltiples causas comunes, aleatorias y no controlables que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo éste el enfoque que sobre el concepto de calidad propugna Deming. Por otra parte, existen unas pocas causas asignables, que ocurren de forma fortuita y que podemos detectarlas y corregirlas. Ocurren de forma errática y, afortunadamente se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque precisan de un cambio del proceso, de la máquina o del sistema que produce los resultados, siendo ese cambio una responsabilidad de la gerencia. Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la gerencia, siendo mal recibido dicho comentario por parte de la alta dirección de las empresas.

Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.

Diseño de experimentos

El diseño de experimentos (DOE) es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental de forma que con el mínimo número de pruebas se consiga extraer información útil para obtener conclusiones que permitan optimizar la configuración de un proceso o producto.

Aunque el diseño de experimentos comenzó a aplicarse en el campo de la agricultura, hoy en día tiene muchas aplicaciones en otros campos. Por ejemplo en control de calidad y en diseño de productos y procesos industriales y en todo tipo de ciencias experimentales. Se puede decir que el diseño de experimentos ocupa un papel crucial en la industria y en la investigación experimental en nuestros días.

En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa-efecto.

Los pasos básicos a seguir en el diseño de experimentos son los siguientes: Continue reading “Diseño de experimentos”

Caracterización estadística de una muestra y prueba de normalidad con SPSS


Una tarea básica en cualquier trabajo científico o tecnológico que requiera el análisis de una muestra de datos es su caracterización estadística y la comprobación de la normalidad de dicha muestra. Dado un conjunto de datos, por ejemplo 20 resultados de rotura a compresión simple de una probeta normalizada de hormigón a 28 días, deberíais ser capaces de calcular lo siguiente:

  1. Calcular la media aritmética muestral, la desviación típica muestral, la varianza muestral , el coeficiente de variación muestral, la mediana y la moda
  2. Determinar el intervalo de confianza para la media muestral y para la desviación típica muestral para un nivel de confianza del 95%.
  3. Determinar las medidas de forma –coeficientes de asimetría y curtosis-.
  4. Determinar el recorrido o rango de la muestra. También el recorrido relativo de la muestra.
  5. Representar el histograma con un número de barras que sea la raíz cuadrada del número de datos
  6. Calcular la desviación media respecto al valor mínimo.
  7. Determinar el primer, segundo y tercer cuartil, así como el rango intercuartílico.
  8. Determinar el cuantil del 5%, del 50% y del 95%.
  9. Dibujar el diagrama de caja y bigotes y determinar los valores atípicos potenciales.
  10. Establecer con un nivel de confianza del 95% si la muestra procede de una población normal mediante la prueba de normalidad de Kolmogorov-Smirnov.

Para ello podéis utilizar cualquier programa estadístico. Para facilitar vuestro aprendizaje, os dejo un vídeo tutorial sobre cómo extraer datos estadísticos básicos con el programa SPSS. Espero que os sea útil