Dpto. Matemática Aplicada y Estadística

ESTADÍSTICA
INDUSTRIAL

 

 

ETSII

INICIO DATOS PROFESOR DOCENCIA TUTORÍAS INVESTIGACIÓN ENLACES

MATERIAL DISPONIBLE

Portada de la asignatura

Programa de la asignatura

Criterios de evaluación

¿Por dónde vamos?

Apuntes

Problemas

Prácticas

Exámenes de otros cursos

Fechas de exámenes

¿Por dónde vamos?

 

Desde esta página se puede seguir el ritmo de la clase. Todas las semanas se actualizará con la materia explicada en clase, así como los ejercicios resueltos y las prácticas realizadas.

Fecha
Materia explicada
27-09-2006 Repaso de estadística básica:

Estadística descriptiva: Estudio de cada variable por separado (gráficos resumen, medidas numéricas, valores atípicos). Estudio conjunto de dos variables (diagrama de dispersión, covarianza, correlación y ajustes por mínimos cuadrados. Matriz de covarianzas y matriz de correlaciones.

Variables aleatorias: Concepto de variable aleatoria, tipos de v.a. (discretos y continuos), algunos modelos continuos (modelo Normal y Exponencial).

Introducción a la Inferencia: Intervalos de confianza y contrastes de hipótesis paramétricos. Interpretación del p-valor en un contraste de hipótesis. 

28-09-2006 Comienza el Tema 1: Regresión Múltiple

Planteamiento del modelo de Regresión Lineal Simple y Múltiple. Transformaciones sobre modelos linealizables. Hipótesis del modelo. Planteamiento del modelo en forma matricial. Estimación de los parámetros del modelo. Distribución de los estimadores.

 

04-10-2006 Contrastes de hipótesis sobre los coeficientes de regresión: prueba de significación de la regresión y contrastes sobre coeficientes individuales. Predicciones: intervalos de confianza para la respuesta promedio e intervalos de predicción. El coeficiente de determinación múltiple y el coeficiente de determinación corregido (o ajustado).

Validación del modelo de regresión múltiple: hipótesis de Normalidad de la variable respuesta y de los residuos (histograma, gráficos P-P o Q-Q y contrastes no paramétrico de Kolmogorov-Smirnoff); hipótesis de homocedasticidad, es decir, residuos con varianzas iguales (diagrama de dispersión de los residuos frente a los valores ajustados); hipótesis de independencia entre los residuos (estadístico de Durbin-Watson, gráfico  temporal de los residuos en función del orden de recopilación de datos). Transformaciones de Box-Cox.

El problema de la Multicolinealidad: El factor de varianza inflada (VIF).

11-10-2006 PRÁCTICA 1: INTRODUCCIÓN AL SPSS Y REPASO DE ESTADÍSTICA BÁSICA
18-10-2006 Recordatorio de la clase anterior.

Detección de observaciones influyentes: residuos distanciados, valores de influencia y distancia de Cook.

Métodos de selección del "mejor" modelo de regresión: 1) Mejor subconjunto de regresores: criterios del R cuadrado y del R cuadrado ajustado. 2) Regresión por pasos: las correlaciones parciales y los p-valores de entrada y salida. 3) Regresión hacia delante 4) Regresión hacia atrás

Ejemplo de aplicación.

19-10-2006 Comienza el Tema 2: Análisis de Componentes Principales

Introducción: objetivo del análisis. Solución gráfica para el caso de datos bidimensionales. Obtención de las componentes principales. Propiedades de las componentes principales. Ejemplo de aplicación.

25-10-2006 PRÁCTICA 2: REGRESIÓN LINEAL MÚLTIPLE CON SPSS
26-10-2006 Resolución de problemas de regresión lineal múltiple con SPSS (problemas propuestos).
02-11-2006 Criterios de selección del número de componentes principales. Interpretación de las componentes principales (gráfico de saturaciones). Ejemplo de aplicación.

Comienza el Tema 3: Análisis Factorial

Introducción: objetivo del análisis. El modelo de Análisis Factorial: factores comunues, cargas factoriales y perturbaciones específicas. Hipótesis del modelo, propiedades y unicidad.

Métodos de estimación del modelo Factorial: método de las componentes principales. Otros métodos: ejes principales, máxima verosimilitud, etc. Comparación entre los distintos métodos.

Criterios de selección del número de factores a retener.

08-11-2006 Contrastes en el Modelo Factorial. Análisis previo: contraste de esfericidad de Barlett y medidas de adecuación muestral. Análisis posterior (bondad del ajuste): comparación entre correlaciones observadas y reproducidas; estudio de las comunalidades.

Rotación de los factores: rotaciones ortogonales (Varimax, Quartimax y Equamax); rotaciones oblicuas. Interpretación de los factores y gráfico de saturaciones.

Cálculo de las puntuaciones factoriales.

PRÁCTICA 3: COMPONENTES PRINCIPALES Y ANÁLISIS FACTORIAL CON SPSS

09-11-2006 Comienza el Tema 4: Análisis de Conglomerados o Análisis Cluster

Introducción: objetivo del análisis. Planteamiento del problema: selección de las observaciones y de las variables del problema.

Medidas de distancia y de similitud: caso de variables cuantitativas continuas; caso de variables binarias.

Métodos jerárquicos (aglomerativos) de clasificación. Tipos de enlace: vecino más próximo, vecino más lejano, enlace medio, método del centroide y método de Ward. El dendograma. Determinación del número de grupos.

Métodos de partición: el algoritmo de las k-medias. Determinación del número de grupos.

Clasificación de variables.

15- 11-2006 PRÁCTICA 4: ANÁLISIS CLUSTER CON SPSS
16- 11-2006 SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE PROBLEMAS DE ANÁLISIS MULTIVARIANTE CON SPSS
22-11-2006 Comienza el Tema 6: Conceptos Básicos y Análisis Clásico de Series Temporales

Concepto de serie temporal. Gráfico temporal. Componentes de una serie temporal: Tendencia, Ciclo, Estacionalidad y componente Irregular. Concepto de ruido blanco. Esquemas de integración: aditivo, multiplicativo y mixto. ¿Cómo determinar el esquema de integración?.

Análisis de la Tendencia de una serie: ajuste por mínimos cuadrados, diferenciación de la serie, método de las medias móviles.

23-11-2006 Aplicaciones de las medias móviles.

Análisis de la Estacionalidad. Desestacionalización de una serie: método de la razón a la media móvil y método de la diferencia a la media móvil. Determinación de los factores estacionales o Índices de Variación Estacional.

Determinación de un modelo predictivo o modelo determinista en análisis clásico. Medidas de error asociadas a un modelo predictivo: error cuadrático medio y error absoluto medio.

PRÁCTICA 5: ANÁLISIS CLÁSICO DE SERIES TEMPORALES CON SPSS

29-11-2006 SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE PROBLEMAS DE ANÁLISIS CLÁSICO DE SERIES TEMPORALES CON SPSS
30-11-2006 Comienza el Tema 7: Métodos básicos en la predicción de series: alisado exponencial

Características de los métodos de Alisado Exponencial.

Alisado exponencial simple. Método de Holt. Método de Holt-Winters.

Interpretación de los parámetros de alisado.

01-12-2006 PRÁCTICA 6: MÉTODOS DE ALISADO EXPONENCIAL CON SPSS
13-12-2006 SESIÓN DE PRÁCTICAS: REPASO DE PROBLEMAS DE ANÁLISIS MULTIVARIANTE CON SPSS
20-12-2006 Comienza el Tema 8: Procesos Estocásticos y Modelos ARIMA

Concepto de proceso estocástico. Características de un proceso: función de medias, varianzas, covarianzas y correlaciones. Las series temporales como realizaciones de un proceso estocástico.

Procesos estocásticos estacionarios. El autocorrelograma.

Procesos Lineales Estacionarios: Ruido Blanco, AR(p), MA(q), ARMA(p,q). Procesos Lineales No Estacionarios: modelos ARIMA(p,d,q).

Identificación y validación del modelo. Predicciones.

21-12-2006 PRÁCTICA 7: DETERMINACIÓN DE MODELOS ARIMA CON SPSS
10-01-2007 SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE PROBLEMAS ARIMA CON SPSS
11- 01-2007 SESIÓN DE PRÁCTICAS: REPASO DE PROBLEMAS DE SERIES TEMPORALES CON SPSS
17-01-2007 Comienza el Tema 9: Introducción a la Fiabilidad de sistemas

Concepto de fiabilidad. Función de supervivencia y función de razón de fallo. Tipos de envejecimiento: creciente en razón de fallo, decreciente en razón de fallo y constante en razón de fallo. La curva de bañera. Distribuciones usuales en fiabilidad: exponencial y Weibull.

Datos censurados: tipos de censuras.

Fiabilidad de sistemas: sistemas en serie, sistemas en paralelo y sistemas mixtos. Propiedades. Sistemas k-out-of-n.