Fundamentos y Aplicaciones de Métodos Estadísticos Clave: Distribución Normal, Correlación y ANOVA


Distribución Normal y Teorema Central del Límite

La Distribución Normal es una distribución de variable continua que se especifica por dos parámetros: la media y la desviación típica. Su estudio teórico se introduce a partir de su función de densidad. Se utiliza para modelar características cuantitativas de casi todas las grandes poblaciones o puntajes. Muchas distribuciones en la vida tienden a acercarse a la distribución normal.

Teorema Central del Límite

Las variables causadas por un gran número de pequeños efectos tienden a tener esta distribución.

Asimetría y Curtosis: Medidas de Forma

Asimetría

Indica hacia dónde se sitúan los valores extremos. Se refiere a cómo se distribuyen los datos por encima y por debajo del centro. Se puede evaluar por la posición relativa de la media y la mediana. La asimetría se rompe cuando los casos se alejan del centro más por un extremo que por el otro.

Curtosis

Se refiere al grado de apuntamiento de una distribución. Se valora por comparación con la curva normal.

Clasificación de la Curtosis

  • Leptocúrticas: Más puntiagudas que la curva normal; acumulan más casos en sus colas.
  • Platicúrticas: Más aplastadas que la curva normal; acumulan menos casos en sus colas.
  • Mesocúrticas: Curva normal.

Conceptos Fundamentales de Estadística

Inducción:
Desde lo particular a lo general (generalización).
Deducción:
Desde lo general a lo particular (operacionalización).
Población o Universo:
Conjunto de elementos con una o más características en común. Puede ser finita o infinita.
Muestra:
Subconjunto de elementos de una población, suele ser de tamaño reducido.
Muestreo:
Proceso para extraer una muestra. Puede ser:
  • Probabilístico: Permite conocer la probabilidad de que cada individuo sea incluido (selección al azar).
  • No-Probabilístico: La selección depende de características o criterios; puede ser poco válido, no da certeza de que cada sujeto represente a la población.

Hipótesis y Contraste de Hipótesis

Hipótesis

Respuestas tentativas al problema de investigación, con o sin consecuencias deductivas de la teoría. Establecer una hipótesis implica afirmar que los cambios en una variable van acompañados de cambios en otra.

Contraste de Hipótesis

Proceso de toma de decisiones para determinar si una afirmación estadística es compatible con los datos empíricos.

Tipos de Hipótesis

  • Hipótesis Nula (H0): Se plantea en términos de no-diferencias o no-relación (relaciones nulas).
  • Hipótesis Alternativa (Ha): Enunciados que hacen los científicos para resolver o aclarar un problema.

Regla de Decisión (Nivel de Significación)

Define cuán compatible es la H0 con los datos, utilizando el nivel crítico o valor p (usualmente 0,05):

  • Si el Nivel de Significación (p) < 0,05: Los datos son incompatibles con H0. Se debe rechazar la H0. El efecto no es nulo (hay diferencias o relación).
  • Si el Nivel de Significación (p) > 0,05: Los datos son compatibles con H0. Se debe mantener la H0. El efecto es nulo (no hay diferencias o relación).

Pruebas de Normalidad

Tienen como objetivo analizar cuánto difiere la distribución de los datos observados respecto a una distribución normal teórica.

Pruebas Específicas

  • Prueba de Kolmogorov-Smirnov: Prueba de bondad de ajuste que verifica si las puntuaciones siguen o no una distribución normal.
  • Prueba de Shapiro-Wilk: Homóloga a Kolmogorov-Smirnov, pero para muestras pequeñas (<30 a 50 participantes).

Criterio de Decisión (Criterio p)

  • Mantener la H0: Hay normalidad en la distribución de los datos (p > 0,05).
  • Rechazar la H0: No hay normalidad en la distribución de los datos (p < 0,05).

Análisis de Relaciones: Correlación y Regresión

Coeficiente r de Pearson (Prueba Paramétrica)

Mide el grado de asociación lineal entre dos variables. El signo indica la dirección (positiva o negativa). El valor numérico indica la magnitud o fuerza. El rango definido es entre -1 y 1.

Interpretación de la Magnitud |rxy|

  • 0,00 < |rxy| < 0,10: Correlación nula.
  • 0,10 < |rxy| < 0,30: Correlación débil.
  • 0,30 < |rxy| < 0,50: Correlación moderada.
  • 0,50 < |rxy| < 1,00: Correlación fuerte.

Regresión Lineal

Permite predecir el comportamiento de una variable dependiente (predicha) a partir de otra independiente (predictora). No prueba causalidad.

Presunciones de la Regresión

Linealidad, normalidad, aleatoriedad de la muestra y homogeneidad de las varianzas.

Procedimientos de Regresión

  • Regresión Simple: Una sola variable predictora.
  • Regresión Múltiple: Muchas variables predictoras (extensión de la simple).

Requisitos para Regresión Simple

  • Coeficiente de Determinación (R²): Debe ser alto, de preferencia del 60% en adelante.
  • Error Estándar de Medición: Debe ser pequeño, de preferencia menor a 1,0.
  • La F obtenida debe ser estadísticamente significativa (p < 0,05).
  • El coeficiente de regresión (B) de la variable predictora debe tener una F asociada con p < 0,05.

Análisis de Diferencias de Medias

Prueba t de Student (Paramétrica)

Conjunto de curvas estructuradas por datos de muestras particulares. Diseñada para comparar dos muestras independientes y pequeñas (< 30) que tengan distribución normal. Permite determinar si:

  • Un promedio es diferente al hipotetizado.
  • Dos grupos tienen medias diferentes.
  • Los promedios pareados son diferentes.

Presunciones Generales

  • Valores independientes (no guardan relación entre sí).
  • Valores continuos.
  • Muestra aleatoria de la población.
  • Población con distribución normal.

Prueba t para Muestras Relacionadas (Pareadas)

Se utiliza cuando los datos vienen dados por parejas para cada sujeto (ej. pre-test y post-test). Asunciones específicas: muestra representativa, observaciones independientes, medición continua, distribución normal de los datos, tamaño de la muestra > 20.

ANOVA (Análisis de Varianza) (Paramétrica)

Evalúa la diferencia de promedios entre grupos. Permite determinar si hay diferencias en al menos dos grupos.

Hipótesis en ANOVA

  • Nula (H0): Todos los grupos tienen promedios iguales.
  • Alternativa (HA): No todos los grupos tienen promedios iguales.

Requisitos de ANOVA

  • Muestra aleatoria.
  • Grupos independientes.
  • Variable dependiente continua.
  • Variable independiente categórica.

ANOVA de Medidas Repetidas

Se utiliza cuando se mide la misma variable en los mismos participantes en dos o más momentos o condiciones (ej. antes, durante y después de una intervención).

Tamaño del Efecto (d de Cohen)

Mide cuán grande es la diferencia entre dos medias en relación con la variabilidad de los datos. Indica cuánto cambia algo, más allá de si es estadísticamente significativo.

Interpretación Típica de d de Cohen

  • d = 0,20: Pequeño (cambio leve, apenas perceptible).
  • d = 0,50: Mediano (cambio visible, pero poco relevante).
  • d = 0,80: Grande (cambio fuerte).

Ejemplos de Redacción de Resultados Estadísticos

Prueba t de Student para Muestras Independientes

Existe una diferencia estadísticamente significativa en las tres dimensiones del Estrés Parental según el Género (todos los p < 0,049). En el Estrés Parental General y Escape a la Frustración, las Mujeres presentan una media ligeramente superior que los Hombres. Por el contrario, en Estrategias de Confrontación, los Hombres presentan una media ligeramente superior que las Mujeres, siendo estas diferencias estadísticamente significativas.

Correlación de Pearson (r)

Todas las dimensiones del Bienestar Psicológico presentan una correlación estadísticamente muy significativa entre sí (todos los p < 0,002). Todas las correlaciones son positivas. La relación más fuerte se observa entre las variables autoaceptación y propósito en la vida, con un coeficiente de r = 0,599, lo que indica una relación positiva de fuerza moderada/alta.

Prueba t de Student para Muestras Pareadas

Existe una diferencia estadísticamente muy significativa en la puntuación de Afrontamiento al Estrés entre el Momento 1 (antes) y el Momento 2 (después) (p < 0,001). El promedio de diferencias es negativo (-5,7), lo que indica que la puntuación aumentó significativamente en el Momento 2. Dado que un mayor Afrontamiento al Estrés es una mejora, la intervención tuvo un efecto positivo y significativo.

Modelo de Regresión Múltiple

El modelo de regresión múltiple que utiliza Afecto Positivo, Afecto Negativo y R.R. para predecir el Bienestar Mental es estadísticamente muy significativo (F = 77,0; p < 0,001). En conjunto, estas variables explican el 43,7% de la varianza total del Bienestar Mental (R² ajustado). Las tres variables predictoras son individualmente significativas en el modelo (todos los p < 0,001), siendo la variable R.R. la que presenta el mayor impacto en la predicción.

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *