El test de hipótesis mide la probabilidad de error que cometo si rechazo la hipótesis nula.
Con
una misma muestra podemos aceptar o rechazar la hipótesis nula. Todo depende de
una error, al que llamamos α.
-El
error α es la probabilidad de equivocarnos al rechazar la hipótesis nula.
-El
error α más pequeño al que podemos rechazar H0 es el error p.
Habitualmente
rechazamos H0 para un nivel α máximo del 5% (p< 0.05).Es
lo que llamamos “significación estadística".
A continuación voy a hablaros sobre los Test de hipótesis que hemos visto en clase, los cuales, son el Test de Chi cuadrado, el Test de la T Student y el Test de Kau de Kendall.
-Test de Chi cuadrado.
Para
comparar variables cualitativas (dependiente e independiente).
Razonamiento
a seguir: suponemos
la hipótesis cierta y estudiamos como es de probable que siendo iguales dos
grupos a comparar se obtengan resultados como los obtenidos o haber encontrado
diferencias más grandes por grupos.
- Test De Hipótesis. T De Student.
Se utiliza cuando la variable independiente es dicotómica y
la variable dependiente es continua.
Y por último os hablaré de la regresión lineal simple (correlación y determinación). La correlación lineal consiste en estudiar la asociación lineal entre dos
variables cuantitativas. Hay 2 tipos de regresión:
- Regresión lineal simple: una sola variable
independiente
-Regresión lineal múltiple: más de una variable
independiente.
La ecuación de la recta y=ax + b .
Pendiente de la recta a=β1. El valor de a positivo la
correlación entre las dos variables es directa y si el valor de a es negativo
la correlación entre las dos variables es indirecta.
Punto de inserción con el eje de coordenadas b=βo. β1 expresa
la cantidad de cambios que se produce en la variable dependiente por unidad de
cambio de la variable independiente. Βo
expresa cuáles el valor de la variable dependiente cuando la independiente vale
0.
-Modelos
lineales deterministas: la variable independiente determine el valor de la
variable dependiente. Entonces para cada valor de la variable independiente
solo habría un valor de la dependiente.
-Modelos
lineales probabilísticos: para cada valor de la variable independiente existe
una distribución de probabilidad de valores de la dependiente, con una
probabilidad entre 0 y 1.
La
recta a determinar es aquella con la menor de cada punto a ella.
Y= ß1 X + ß0
Yi= ß1
X + ß0 + ei
Y sería la media de la variable dependiente en un grupo con el mismo valor de la
variable independiente Yi= y + ei.
Para
construir un modelo de regresión lineal hace falta conocer: Punto de inserción
con el eje de coordenadas = ß0 y la pendiente de la recta a = ß1
(mayor valor de beta 1 la pendiente será muy pronunciada en sentido
directo o inverso).
No
hay modelo determinista: hay una nube de puntos y buscamos la recta que mejor
explica l comportamiento de la variable dependiente en función de la variable
independiente.
Como
calcular ß1 y ß0
ß1 =
Σ (Xi – X)
ß0 =
y - ß1 *X
·
Coeficiente
de correlación (Pearson y Speerman) : Número adimensional (entre -1 y 1) que
mide la fuerza y el sentido de la relación lineal entre variables,
R = ß1 Sx
/Sy
·
Coeficiente
de determinación: número adimensional (entre 0 y 1) que da idea de la relación
entre las variables relacionadas linealmente, es r2.
Finalmente para la regresión lineal se utiliza el Test de Tau de Kendall, de este modo aceptaremos o no la hipótesis nula que habíamos planteado al comienzo del estudio.
No hay comentarios:
Publicar un comentario