Conceptos Fundamentales de Probabilidad y Estadística: Teoría y Aplicaciones


Probabilidad: Definiciones y Axiomas

Probabilidad Clásica (Laplace): Es la probabilidad más utilizada y la que aprendemos desde chicos, donde todos los resultados tienen la misma posibilidad. Se utilizan casos favorables sobre casos posibles. En sus propiedades, tenemos que la probabilidad de un suceso A debe estar entre 0 y 1, y la suma de la probabilidad de todo el espacio muestral es 1. El complemento es P(A’) = 1 – P(A).

Reglas de Probabilidad

  • Adición:
    • Si son disjuntos (mutuamente excluyentes): P(A∪B) = P(A) + P(B)
    • Si no son disjuntos: P(A∪B) = P(A) + P(B) – P(A∩B)
  • Multiplicación:
    • Si son independientes: P(A∩B) = P(A) × P(B)
    • Si son dependientes: P(A∩B) = P(A) × P(B|A)

Probabilidad Frecuencial: Esta probabilidad se basa en una cantidad alta de repeticiones del experimento, dando como resultado: P(A) = (n.º de veces que ocurrió A) / (total del experimento).

Probabilidad Subjetiva: Esta probabilidad se basa en la creencia personal sobre qué tan probable es que ocurra algo o como medida personal.

Axiomas de Probabilidad

  1. Para todo suceso A existe una probabilidad asociada P(A).
  2. La probabilidad de cualquier suceso nunca será negativa.
  3. La probabilidad de que ocurra todo el espacio muestral es 1 (es un suceso seguro).
  4. Asegura que la medida de probabilidad es consistente, limitando los resultados al espacio muestral total que tiene probabilidad 1.

Variables Aleatorias

Esperanza Matemática

Es el promedio ponderado teórico de una variable aleatoria. Se interpreta como el valor medio que esperas obtener si el experimento se repite varias veces. Cada valor posible de la variable aleatoria contribuye al promedio en proporción a cuán probable es.

  • Variables discretas: Es la sumatoria de todas las variables por su probabilidad asociada.
  • Variables continuas: Es la integral de la variable aleatoria por su función de densidad continua (ejemplo: lanzamiento de un dardo).

Propiedades: E(K) = K; E(X·K) = K · E(X); E(X+Y) = E(X) + E(Y); E(X·Y) = E(X) · E(Y).

Varianza

Es una medida de dispersión que muestra cuán separados están los valores respecto a la media. Si los valores se concentran alrededor de la media, la varianza es pequeña. Su fórmula es: Var(X) = E(X²) – [E(X)]².

Propiedades: Var(K) = 0; Var(X·K) = K² · Var(X); Var(X+K) = Var(X); Var(X±Y) = Var(X) + Var(Y).

Desviación Típica

Es una medida de dispersión que trabaja con las mismas unidades de medida de la variable original. Sirve para interpretar mejor la dispersión de la varianza y definir rangos en distribuciones. (σ = √Var(X)).

Distribuciones Discretas

  • Distribución Binomial: Mide el número de éxitos en n ensayos independientes. Hay dos tipos de resultado (Éxito/Fracaso) con probabilidad constante p. Fórmula: P = C(n,x) · pˣ · qⁿ⁻ˣ. Propiedades: E(X) = np, Var(X) = npq (donde q = 1-p).
  • Distribución de Poisson: Modela el número de eventos que ocurren en un intervalo fijo de espacio o tiempo. Los eventos ocurren de forma independiente, el número de pruebas (n) es grande y la probabilidad de éxito es pequeña (suceso raro). La tasa de ocurrencia promedio (λ) es constante. Fórmula: P(X=x) = (λˣ · e⁻λ) / x!.
  • Hipergeométrica: Se aplica cuando extraes elementos sin repetición de una población finita. Fórmula: P(X=x) = [C(K,x) · C(N-K, n-x)] / C(N,n).

Estadística Inferencial

  • t de Student: Compara media muestral vs. media poblacional con varianza poblacional desconocida y muestra pequeña. Se aproxima a la normal cuando n crece.
  • Chi cuadrado (χ²): Se utiliza para pruebas de bondad de ajuste o comparar frecuencia observada vs. esperada. Se aplica principalmente en variables cualitativas. Fórmula: χ² = Σ(Oi – Ei)² / Ei.
  • F de Fisher: Se utiliza para comparar varianzas muestrales. Muy común en ANOVA.

Distribuciones Continuas y Teoremas

Normal: Modelo en forma de campana simétrica respecto a su media (μ), con concentración de datos cerca de la misma. Tipificación: Z = (x – μ) / σ.

Teorema Central del Límite: Para muestras grandes, la media muestral sigue una aproximación normal, incluso si la población no lo es. gvQAAAABJRU5ErkJggg==

Desigualdad de Chebyshev: Acota la probabilidad de que una variable aleatoria se aleje de su media sin importar su distribución. Es una cota superior conservadora. eveDxeNi3bx8GDRqE4OBgHDt2DCNHjpSLVQU6I42iqB6lqakJGRkZ6NOnD6ysrNq8cn3z5g3u378PkUiESZMmqW2DUpp0KYqi1Ih2L1AURakRTboURVFqRJMuRVGUGv0faFpGDFL+oM4AAAAASUVORK5CYII=

Probabilidad Condicional y Bayes

Probabilidad Condicional: Es la probabilidad de que ocurra un evento A dado que ocurrió un evento B. Fórmula: P(A|B) = P(A∩B) / P(B) con P(B) > 0.

Teorema de Bayes: Permite invertir la probabilidad condicional para conocer la probabilidad de una causa dado un efecto (a posteriori).

Gráficos y Análisis de Datos

Ojiva: Gráfica de frecuencia acumulada. Es un polígono que representa una distribución acumulada. Sirve para determinar la proporción de datos por debajo de un valor, encontrar medianas, cuartiles y realizar interpolaciones. Solo para variables cuantitativas.

Gráficos Especiales

  • Histograma: Para variables continuas.
  • Polígono de frecuencias: Unir puntos medios.
  • Boxplot: Representa mediana, cuartiles y valores atípicos.

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *