Fecha
|
Materia explicada
|
27-09-2006 |
Repaso de estadística básica:
Estadística descriptiva: Estudio de cada variable por separado
(gráficos resumen, medidas numéricas, valores atípicos). Estudio
conjunto de dos variables (diagrama de dispersión, covarianza,
correlación y ajustes por mínimos cuadrados. Matriz de covarianzas y
matriz de correlaciones.
Variables aleatorias: Concepto de variable aleatoria, tipos de v.a.
(discretos y continuos), algunos modelos continuos (modelo Normal y
Exponencial).
Introducción a la Inferencia: Intervalos de confianza y contrastes
de hipótesis paramétricos. Interpretación del p-valor en un contraste
de hipótesis. |
28-09-2006 |
Comienza el Tema 1: Regresión
Múltiple Planteamiento del modelo de Regresión Lineal Simple y
Múltiple. Transformaciones sobre modelos linealizables. Hipótesis del
modelo. Planteamiento del modelo en forma matricial. Estimación de los
parámetros del modelo. Distribución de los estimadores.
|
04-10-2006 |
Contrastes de hipótesis sobre los
coeficientes de regresión: prueba de significación de la regresión y
contrastes sobre coeficientes individuales. Predicciones: intervalos
de confianza para la respuesta promedio e intervalos de predicción. El
coeficiente de determinación múltiple y el coeficiente de
determinación corregido (o ajustado). Validación del modelo de
regresión múltiple: hipótesis de Normalidad de la variable respuesta y
de los residuos (histograma, gráficos P-P o Q-Q y contrastes no
paramétrico de Kolmogorov-Smirnoff); hipótesis de homocedasticidad, es
decir, residuos con varianzas iguales (diagrama de dispersión de los
residuos frente a los valores ajustados); hipótesis de independencia
entre los residuos (estadístico de Durbin-Watson, gráfico
temporal de los residuos en función del orden de recopilación de
datos). Transformaciones de Box-Cox.
El problema de la Multicolinealidad: El factor de varianza inflada
(VIF). |
11-10-2006 |
PRÁCTICA 1: INTRODUCCIÓN AL SPSS Y
REPASO DE ESTADÍSTICA BÁSICA |
18-10-2006 |
Recordatorio de la clase anterior.
Detección de observaciones influyentes: residuos distanciados, valores
de influencia y distancia de Cook.
Métodos de selección del "mejor" modelo de regresión: 1) Mejor
subconjunto de regresores: criterios del R cuadrado y del R cuadrado
ajustado. 2) Regresión por pasos: las correlaciones parciales y los
p-valores de entrada y salida. 3) Regresión hacia delante 4) Regresión
hacia atrás
Ejemplo de aplicación. |
19-10-2006 |
Comienza el Tema 2: Análisis de
Componentes Principales Introducción: objetivo del análisis.
Solución gráfica para el caso de datos bidimensionales. Obtención de
las componentes principales. Propiedades de las componentes
principales. Ejemplo de aplicación. |
25-10-2006 |
PRÁCTICA 2: REGRESIÓN LINEAL MÚLTIPLE
CON SPSS |
26-10-2006 |
Resolución de problemas de regresión
lineal múltiple con SPSS (problemas propuestos). |
02-11-2006 |
Criterios de selección del número de
componentes principales. Interpretación de las componentes principales
(gráfico de saturaciones). Ejemplo de aplicación. Comienza el Tema
3: Análisis Factorial
Introducción: objetivo del análisis. El modelo de Análisis
Factorial: factores comunues, cargas factoriales y perturbaciones
específicas. Hipótesis del modelo, propiedades y unicidad.
Métodos de estimación del modelo Factorial: método de las
componentes principales. Otros métodos: ejes principales, máxima
verosimilitud, etc. Comparación entre los distintos métodos.
Criterios de selección del número de factores a retener. |
08-11-2006 |
Contrastes en el Modelo Factorial.
Análisis previo: contraste de esfericidad de Barlett y medidas de
adecuación muestral. Análisis posterior (bondad del ajuste):
comparación entre correlaciones observadas y reproducidas; estudio de
las comunalidades. Rotación de los factores: rotaciones ortogonales
(Varimax, Quartimax y Equamax); rotaciones oblicuas. Interpretación de
los factores y gráfico de saturaciones.
Cálculo de las puntuaciones factoriales.
PRÁCTICA 3: COMPONENTES PRINCIPALES Y ANÁLISIS FACTORIAL
CON SPSS |
09-11-2006 |
Comienza el Tema
4: Análisis de Conglomerados o Análisis Cluster Introducción:
objetivo del análisis. Planteamiento del problema: selección de las
observaciones y de las variables del problema.
Medidas de distancia y de similitud: caso de variables
cuantitativas continuas; caso de variables binarias.
Métodos jerárquicos (aglomerativos) de clasificación. Tipos de
enlace: vecino más próximo, vecino más lejano, enlace medio, método
del centroide y método de Ward. El dendograma. Determinación del
número de grupos.
Métodos de partición: el algoritmo de las k-medias. Determinación
del número de grupos.
Clasificación de variables. |
15- 11-2006 |
PRÁCTICA 4: ANÁLISIS CLUSTER CON SPSS |
16- 11-2006 |
SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE
PROBLEMAS DE ANÁLISIS MULTIVARIANTE CON SPSS |
22-11-2006 |
Comienza el Tema
6: Conceptos Básicos y Análisis Clásico de Series Temporales
Concepto de serie temporal. Gráfico temporal. Componentes de una serie
temporal: Tendencia, Ciclo, Estacionalidad y componente Irregular.
Concepto de ruido blanco. Esquemas de integración: aditivo,
multiplicativo y mixto. ¿Cómo determinar el esquema de integración?.
Análisis de la Tendencia de una serie: ajuste por mínimos
cuadrados, diferenciación de la serie, método de las medias móviles. |
23-11-2006 |
Aplicaciones de las medias móviles.
Análisis de la Estacionalidad. Desestacionalización de una serie:
método de la razón a la media móvil y método de la diferencia a la
media móvil. Determinación de los factores estacionales o Índices de
Variación Estacional.
Determinación de un modelo predictivo o modelo determinista en
análisis clásico. Medidas de error asociadas a un modelo predictivo:
error cuadrático medio y error absoluto medio.
PRÁCTICA 5: ANÁLISIS CLÁSICO DE SERIES TEMPORALES CON SPSS |
29-11-2006 |
SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE
PROBLEMAS DE ANÁLISIS CLÁSICO DE SERIES TEMPORALES CON SPSS |
30-11-2006 |
Comienza el Tema
7: Métodos básicos en la predicción de series: alisado exponencial
Características de los métodos de Alisado Exponencial.
Alisado exponencial simple. Método de Holt. Método de Holt-Winters.
Interpretación de los parámetros de alisado. |
01-12-2006 |
PRÁCTICA 6: MÉTODOS DE ALISADO
EXPONENCIAL CON SPSS |
13-12-2006 |
SESIÓN DE PRÁCTICAS: REPASO DE
PROBLEMAS DE ANÁLISIS MULTIVARIANTE CON SPSS |
20-12-2006 |
Comienza el Tema
8: Procesos Estocásticos y Modelos ARIMA
Concepto de proceso estocástico. Características de un proceso:
función de medias, varianzas, covarianzas y correlaciones. Las series
temporales como realizaciones de un proceso estocástico.
Procesos estocásticos estacionarios. El autocorrelograma.
Procesos Lineales Estacionarios: Ruido Blanco, AR(p), MA(q), ARMA(p,q).
Procesos Lineales No Estacionarios: modelos ARIMA(p,d,q).
Identificación y validación del modelo. Predicciones.
|
21-12-2006 |
PRÁCTICA 7: DETERMINACIÓN DE MODELOS
ARIMA CON SPSS |
10-01-2007 |
SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE
PROBLEMAS
ARIMA CON SPSS |
11- 01-2007 |
SESIÓN DE PRÁCTICAS: REPASO DE
PROBLEMAS DE SERIES TEMPORALES CON SPSS |
17-01-2007 |
Comienza el Tema
9: Introducción a la Fiabilidad de sistemas Concepto de
fiabilidad. Función de supervivencia y función de razón de fallo.
Tipos de envejecimiento: creciente en razón de fallo, decreciente en
razón de fallo y constante en razón de fallo. La curva de bañera.
Distribuciones usuales en fiabilidad: exponencial y Weibull.
Datos censurados: tipos de censuras.
Fiabilidad de sistemas: sistemas en serie, sistemas en paralelo y
sistemas mixtos. Propiedades. Sistemas k-out-of-n.
|