Fecha
|
Materia explicada
|
23-09-2009 |
Presentación de la asignatura.
Repaso de estadística básica.
Estadística descriptiva:
Estudio de cada variable por separado: gráficos resumen (histograma), medidas numéricas
(centralización, posición, dispersión y forma), valores atípicos
(diagrama de caja y bigotes). Transformaciones lineales y no lineales:
efecto en la forma del histograma.
|
31-09-2009 |
Estudio conjunto de dos variables (diagrama de dispersión, covarianza,
correlación y ajustes por mínimos cuadrados). Matriz de covarianzas y
matriz de correlaciones.
Variables aleatorias: Concepto de variable aleatoria, tipos de v.a.
(discretas y continuas). Función de distribución y densidad. El modelo
Normal.
Introducción a la Inferencia: Intervalos de confianza y contrastes
de hipótesis paramétricos. Interpretación del p-valor en un contraste
de hipótesis.
Ejemplo: Estudio descriptivo de dos variables. |
02-10-2009 |
PRÁCTICA 1: INTRODUCCIÓN AL SPSS Y
REPASO DE ESTADÍSTICA BÁSICA |
07-10-2009 |
Comienza el Tema 1: Regresión
Múltiple
Planteamiento del modelo de Regresión Lineal Simple: Hipótesis del
Modelo. Ejemplo gráfico y nomenclatura: recta de regresión (teórica),
recta de regresión ajustada, residuos.
Planteamiento del modelo de Regresión Lineal Múltiple: Hipótesis
del Modelo.
Transformaciones sobre modelos linealizables.
Esquema resumen del tema. |
09-10-2009 |
PRÁCTICA 1 (CONTINUACIÓN): RESOLUCIÓN
DEL PROBLEMA 1 DE LA PRÁCTICA 1. PRÁCTICA 2: REGRESIÓN LINEAL MÚLTIPLE
CON SPSS (sólo una parte) |
14-10-2009 |
Estimación de los parámetros del
modelo. Distribución de los estimadores. Contrastes de hipótesis sobre
los coeficientes de regresión: prueba de significación de la regresión
y contrastes sobre coeficientes individuales.
Predicciones: intervalos de confianza
para la respuesta promedio e intervalos de predicción. El coeficiente
de determinación múltiple y el coeficiente de determinación corregido
(o ajustado).
Validación del modelo de
regresión múltiple: hipótesis de Normalidad de la variable respuesta y
de los residuos (contrastes no paramétrico de Kolmogorov-Smirnoff); hipótesis de homocedasticidad, es
decir, residuos con varianzas iguales (diagrama de dispersión de los
residuos frente a los valores ajustados); hipótesis de independencia
entre los residuos (estadístico de Durbin-Watson, gráfico
de autocorrelaciones). Transformaciones de Box-Cox.
El problema de la Multicolinealidad: El factor de varianza inflada
(VIF). Detección de observaciones influyentes: residuos distanciados, valores
de influencia y distancia de Cook. |
16-10-2009 |
Métodos de selección del "mejor"
modelo de regresión: 1) Regresión por pasos: las correlaciones parciales y los
p-valores de entrada y salida. 2) Regresión hacia delante 3) Regresión
hacia atrás. PRÁCTICA 2: REGRESIÓN LINEAL MÚLTIPLE
CON SPSS (continuación) |
21-10-2009 |
Comienza el Tema 2: Análisis de
Componentes Principales
Introducción: objetivo del análisis. Solución gráfica para el caso
de datos bidimensionales. Obtención de las componentes principales.
Propiedades de las componentes principales. Criterios de selección del número de
componentes principales. Interpretación de las componentes principales
(gráfico de saturaciones). Ejemplo de aplicación. |
23-10-2009 |
SESIÓN DE PRÁCTICAS: Problemas propuestos nº 2 Y nº 3 de Regresión Lineal Múltiple
(ficheros cemento.dat y cerezos.dat) |
27-10-2009 |
Comienza el Tema
3: Análisis Factorial
Introducción: objetivo del análisis. El modelo de Análisis
Factorial: factores comunues, cargas factoriales y perturbaciones
específicas. Hipótesis del modelo, propiedades y unicidad.
Métodos de estimación del modelo Factorial: método de las
componentes principales. Otros métodos: ejes principales, máxima
verosimilitud, etc. Comparación entre los distintos métodos.
Criterios de selección del número de factores a retener. Contrastes en el Modelo Factorial.
Análisis previo: contraste de esfericidad de Barlett y medidas de
adecuación muestral. Análisis posterior (bondad del ajuste):
comparación entre correlaciones observadas y reproducidas; estudio de
las comunalidades. |
29-10-2009 |
Rotación de los factores: rotaciones ortogonales
(Varimax, Quartimax y Equamax); rotaciones oblicuas. Interpretación de
los factores y gráfico de saturaciones.
Cálculo de las puntuaciones factoriales.
PRÁCTICA 3: COMPONENTES PRINCIPALES Y ANÁLISIS FACTORIAL
CON SPSS |
04-11-2009 |
Comienza el Tema
4: Análisis de Conglomerados o Análisis Cluster Introducción:
objetivo del análisis. Planteamiento del problema: selección de las
observaciones y de las variables del problema.
Medidas de distancia y de similitud: caso de variables
cuantitativas continuas.
Métodos jerárquicos (aglomerativos) de clasificación. Tipos de
enlace: vecino más próximo, vecino más lejano, enlace medio, método
del centroide y método de Ward. El dendograma. Determinación del
número de grupos.
Métodos de partición: el algoritmo de las k-medias. Determinación
del número de grupos.
Clasificación de variables. |
06-11-2009 |
PRÁCTICA 4: ANÁLISIS CLUSTER CON SPSS
|
11- 11-2009 |
Resolución del problema propuesto nº 1 de Análisis Cluster (ficheros
medifis.txt, medifis.dat, datos_todos.xls)
Problema propuesto nº 2 de
Componentes Principales y Análisis Factorial (fichero desarrollo.sav)
|
13- 11-2009 |
PRIMERA
SESIÓN DE EXPOSICIÓN DE TRABAJOS: REGRESIÓN MÚLTIPLE |
18- 11-2009 |
Comienza el Tema
5: Análisis Clásico de Series Temporales
Concepto de serie temporal. Gráfico temporal. Componentes de una serie
temporal: Tendencia-Ciclo, Estacionalidad y Componente Irregular.
Concepto de ruido blanco. Esquemas de integración: aditivo,
multiplicativo y mixto. ¿Cómo determinar el esquema de integración?.
Análisis de la Tendencia de una serie: ajuste por mínimos
cuadrados. Método de las medias móviles. Aplicaciones de las medias
móviles.
Análisis de la Estacionalidad. Desestacionalización de una serie:
método de la razón a la media móvil y método de la diferencia a la
media móvil. Determinación de los factores estacionales o Índices de
Variación Estacional. |
20 -11-2009 |
PRÁCTICA 5: ANÁLISIS CLÁSICO DE SERIES TEMPORALES CON SPSS |
25 -11-2009 |
Aplicaciones de las medias móviles.
Diferenciación de una serie. Medidas de error asociadas a un modelo predictivo:
error cuadrático medio y error absoluto medio. Ejemplos con SPSS. RESOLUCIÓN DE
PROBLEMAS DE ANÁLISIS CLÁSICO DE SERIES TEMPORALES CON SPSS: problema 4 (fichero Temp_Madrid.sav) |
27 -11-2009 |
SEGUNDA
SESIÓN DE EXPOSICIÓN DE TRABAJOS:
ACP-AF Y CLUSTER |
02-12-2009 |
Comienza el Tema
6: Métodos básicos en la predicción de series: alisado exponencial
Características de los métodos de Alisado Exponencial.
Alisado exponencial simple.
Método de Holt. Interpretación de los parámetros de alisado.
Método de Holt-Winters para esquemas multiplicativos y aditivos. Interpretación de los parámetros de alisado.
|
04-12-2009 |
PRÁCTICA 6: MÉTODOS DE ALISADO
EXPONENCIAL CON SPSS |
09-12-2009 |
Comienza el Tema
7: Procesos Estocásticos y Modelos ARIMA
Concepto de proceso estocástico. Características de un proceso:
función de medias, varianzas, covarianzas y correlaciones. Las series
temporales como realizaciones de un proceso estocástico.
Procesos estocásticos estacionarios. El autocorrelograma.
Procesos Lineales Estacionarios. Ruido Blanco. Modelo Autorregresivo
de orden p, AR(p).
Identificación de un modelo AR(p) con SPSS.
|
11 -12-2009 |
Modelo de medias móviles de orden q, MA(q).
Identificación de un modelo MA(q) con SPSS.
Los modelos ARMA(p,q).
Identificación de un modelo ARMA(p,q) con SPSS.
Procesos Lineales No Estacionarios: modelos ARIMA(p,d,q).
Validación del modelo. Predicciones.
PRÁCTICA 7: DETERMINACIÓN DE MODELOS
ARIMA CON SPSS
|
16-12-2009 |
SESIÓN DE PRÁCTICAS: RESOLUCIÓN DE
PROBLEMAS
ARIMA CON SPSS |
18-12-2009 |
TERCERA
SESIÓN DE EXPOSICIÓN DE TRABAJOS: ANÁLISIS CLÁSICO Y ALISADO EXPONENCIAL |
08-01-2010 |
Resolución de exámenes de cursos anteriores. |
13-01-2010 |
CUARTA SESIÓN DE EXPOSICIÓN DE TRABAJOS: MODELOS ARIMA
|
15-01-2010 |
Resolución de exámenes de cursos
anteriores. |
|
|
|
|