Probabilidad absoluta


Teoría Para final de estadística

Capítulo 2: Parámetros estadísticos

Un Parámetro estadístico es un número que se obtiene a partir de los datos de una distribución estadística. Los parámetros estadísticos sirven para sintetizar la Información dada por una tabla o gráfica.

Tipos de parámetros:


1.Centralización

2.Posición

3.Dispersión

Medidas de centralización

Son Valores que suelen situarse hacia el centro de la distribución de datos. Los Más destacados son las medias o promedios (incluyendo la media aritmética, la Media geométrica y la media armónica), la mediana y la moda.

Se pueden Definir como los procesos que se utilizan para indicar el valor que tiende a Ser el más representativo de un conjunto de números.

Media aritmética

Lamedia aritmética(también llamada promedioo simplementemedia) de un conjunto finito de números es el valor carácterístico De una serie de datos cuantitativos objeto de estudio que parte del principio De la esperanza matemática o valor esperado, se obtiene a partir de la suma de Todos sus valores dividida entre el número de sumandos. Cuando el conjunto es Unamuestra Aleatoriarecibe el Nombre demedia muestralsiendo Uno de los principalesestadísticos muéstrales.

Media aritmética: Datos agrupados

Cuando Se trata de datos agrupados (tabla de frecuencias que consta de datos agrupados En clases). Cada valor de una observación cae dentro de alguna de las clases. En los datos agrupados a diferencia de los no agrupados es que no conocemos Exactamente el valor individual de cada variable.

Media geométrica

La Media geométrica de una cantidad arbitraria de números (por decir n números) es La raíz n-ésima del producto de todos los números, es recomendada para datos de Progresión geométrica, para promediar razones, interés compuesto y números índices.

Media armónica

La Media armónica de una cantidad finita de números es igual al recíproco, o Inverso, de la media aritmética de los recíprocos de dichos valores y es Recomendada para promediar velocidades.

Propiedades de la media

·Requiere De una escala de intervalo.

·Todos Los valores son utilizados.

·Es única.

·La Suma de las desviaciones con respecto a la media es cero.

·La Media es afectada por valores inusualmente grandes o pequeños.

·La Media aritmética es la única medida de tendencia central donde la suma de las Desviaciones de cada valor, respecto de la media, siempre es igual a cero.

Existen Otras diferencias entre la media poblacional y la media muestral. Tal es el Caso del concepto de los siguientes términos:

·Un Parámetro es una carácterística de una medida de la población.

·Un Estadístico es una carácterística de una medida de una muestra.

Mediana

En el ámbito de la estadística, la mediana representa el valor de la variable de Posición central en un conjunto de datos ordenados.

Propiedades de la mediana

·Es única.

·No Se ve afectada por valores extremadamente grandes o muy pequeños, y por tanto Es una medida valiosa de tendencia central cuando esto sucede.

·Puede Calcularse para datos de nivel de razón, de intervalo y ordinal.

·Puede Calcularse para una distribución de frecuencias con una clase de extremo Abierto, si la mediana no se encuentra en tal clase.

Moda

En Estadística, la moda es el valor con mayor frecuencia en una distribución de Datos. Por ejemplo las calificaciones de tu escuela, sacas: 7,8,9,8,8 y 9, la Moda seria 8 ya que es el numero o calificación más repetida.

Propiedades de la moda

·Cálculo Sencillo.

·Interpretación Muy clara.

·Al Depender sólo de las frecuencias, puede calcularse para variables cualitativas.

·Se Utiliza para cualquier tipo de medición.

·Al Igual que la mediana no se ve afectado por valores extremos.

Inconvenientes de la moda

·Su Valor es independiente de la mayor parte de los datos, lo que la hace muy sensible A variaciones muéstrales. Por otra parte, en variables agrupadas en intervalos, Su valor depende excesivamente del número de intervalos y de su amplitud.

·Usa Muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera De la moda, no afectan en modo alguno a su valor.

·No Siempre se sitúa hacia el centro de la distribución.

·Puede Haber más de una moda en el caso en que dos o más valores de la variable Presenten la misma frecuencia.

Medidas de posición

Se Trata de valores de la variable estadística que se caracterizan por la posición Que ocupan dentro del rango de valores posibles de esta. Entre ellos se Distinguen:

·Las Medidas de tendencia central: medias, moda y mediana.

·Las Medidas de posición no central: cuantiles (cuartiles, deciles y percentiles)

Cuartiles

Los Cuartiles son los tres valores que dividen un conjunto de datos ordenados en Cuatro partes porcentualmente iguales.

La Diferencia entre el tercer cuartil y el primero se conoce como rango intercuartílico. Se representa gráficamente como la anchura de las cajas en los llamados Diagramas de cajas.

Dada Una serie de valores X1, X2, X3… Xn ordenados en forma creciente, podemos Pensar que su cálculo podría efectuarse:

·Primer Cuartil (Q1) como la mediana de la primera mitad de valores.

·Segundo Cuartil (Q2) como la propia mediana de la serie.

·Tercer Cuartil (Q3) como la mediana de la segunda mitad de valores.

Pero Esto conduce a distintos métodos de cálculo de los cuartiles primero (así como tercero) Según la propia mediana se incluya o excluya en la serie de la primera (respecto de la segunda) mitad de valores.

Deciles

Dividen A la distribución en diez partes. El primer decil es aquel valor de una serie Que supera a 1/10 parte de los datos y es superado por 9/10 partes restantes (respectivamente hablando en porcentajes, supera al 10% y es superado por el 90% restante.

Percentil

El Percentil es una medida de tendencia central usada en estadística que indica, Una vez ordenados los datos de menor a mayor, el valor de la variable por Debajo del cual se encuentra un porcentaje dado de observaciones en un grupo de Observaciones.

Diagrama de caja

Los Diagramas de caja son una presentación grafica visual que describe varias carácterísticas Importantes, al mismo tiempo, tales como la dispersión y simetría.

Utilidad

·Proporcionan Una visión general de la simetría de la distribución de los datos; si la mediana No está en el centro del rectángulo, la distribución no es simétrica.

·Son útiles para ver la presencia de valores atípicos también llamados outliers y Los extremadamente atípicos.

·Pertenece A las herramientas de la estadística descriptiva. Permite ver como es la dispersión De los puntos con la mediana, los percentiles 25 y 75 y los valores máximos y Mínimos.

Capítulo 3: Medidas de dispersión

Las Medidas de dispersión, también llamadas medidas de variabilidad, muestran la Variabilidad de una distribución, indicando por medio de un número si las Diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto Mayor sea ese valor, mayor será la variabilidad, y cuanto menor sea, más Homogénea será a la media. Así se sabe si todos los casos son parecidos o Varían mucho entre ellos.

Rango

El rango De una variable estadística es la diferencia entre el mayor y el menor valor Que toma la misma. Es la medida de dispersión más sencilla de calcular, aunque Es algo burda porque sólo toma en consideración un par de observaciones. Basta Con que uno de estos dos datos varíe para que el parámetro también lo haga, Aunque el resto de la distribución siga siendo, esencialmente, la misma.

Desviación media

En Estadística la desviación absoluta promedio o, sencillamente desviación media o Promedio de un conjunto de datos es la media de las desviaciones absolutas y es Un resumen de la dispersión estadística.

Varianza

En Teoría de probabilidad, la varianza de una variable aleatoria es una medida de Dispersión definida como la esperanza del cuadrado de la desviación de dicha Variable respecto a su media.

Desviación típica

La Desviación típica, se define como la raíz cuadrada de la varianza.

Teorema de Chebyshov

En Probabilidad, la desigualdad de Chebyshov es un resultado que ofrece una cota Inferior a la probabilidad de que el valor de una variable aleatoria con Varianza finita esté a una cierta distancia de su esperanza matemática. La Desigualdad recibe su nombre del matemático ruso Pafnuti Chebyshov.

Regla empírica

Esta regla permite encontrar el porcentaje de Datos que debe estar dentro de determinadas desviaciones estándar respecto a la Media.

Coeficiente de variación de Pearson

Enestadística, Cuando se desea hacer referencia a la relación entre el tamaño de la media y la Variabilidad de la variable, se utiliza elcoeficiente de variación. Su fórmula Expresa la desviación estándar como porcentaje de la media aritmética, Mostrando una mejor interpretación porcentual del grado de variabilidad que la Desviación típica o estándar.

Sesgo

En Estadística se llama sesgo de un estimador a la diferencia entre su esperanza Matemática y el valor numérico del parámetro que estima. Un estimador cuyo Sesgo es nulo se llama insesgado o centrado.

Curtosis

En Teoría de la probabilidad y estadística, la curtosis es una medida de la forma. Así, las medidas de curtosis tratan de estudiar la proporción de la varianza Que se explica por la combinación de datos extremos respecto a la media en Contraposición con datos poco alejados de la misma.

Capítulo 4: Probabilidades

Conceptos Básicos:

Fenómeno determinístico

: Cuando al repetirlo bajo idénticas condiciones iniciales se obtienen siempre Los mismos resultados.

Fenómeno aleatorio

: Cuando al repetirlo bajo idénticas condiciones iniciales no se obtienen siempre Los mismos resultados. Ejemplo: cuando lanzamos una moneda al aire observando La sucesión de caras y cruces que presentan.

Experimento aleatorio

: Operación que repetimos bajo idénticas condiciones iniciales y no se obtienen Siempre los mismos resultados. Ejemplo: lanzamiento de un dado observando la Sucesión de números que se presentan {1, 2, 3, 4, 5, 6}.

Suceso elemental

: Cada uno de los resultados posibles del experimento aleatorio; luego un suceso Elemental consta de un solo elemento del espacio muestral (E).

Espacio muestral

: Conjunto de todos los sucesos elementales del experimento aleatorio y lo Designaremos como (E).

Suceso

: Conjunto formado por uno o más sucesos elementales, es decir, un subconjunto de Resultados elementales del experimento aleatorio.

Suceso seguro

: Coincide con el suceso elemental, ya que al realizar el experimento aleatorio Se obtendrá con seguridad uno de los posibles resultados o sucesos elementales, Y por tanto ocurrirá.

Suceso imposible

: Es el que no tiene ningún elemento del espacio muestral (E), y por tanto no Ocurrirá nunca, y se representa como .

Suceso complementario a un Suceso A

: Es el suceso que se verifica si, como resultado Del experimento aleatorio, no se verifica A. Se acostumbra a denotar con el símbolo Ā.

Sucesos incompatibles

: Los sucesos A y B son incompatibles o mutuamente excluyentes si no pueden Ocurrir simultáneamente.

Determinación de conjuntos

Un Conjunto se puede determinar de dos maneras: por extensión y por comprensión.

Por Extensión: Un conjunto está determinado por extensión cuando se escriben uno a Uno todos sus elementos. Por ejemplo, el conjunto de los números naturales Menores que 9:

A= {1, 2, 3, 4, 5, 6, 7,8}

Por Comprensión: Un conjunto está determinado por comprensión cuando solamente se Menciona una carácterística común de todos los elementos. Por ejemplo, el Conjunto formado por las letras del abecedario:

B= {x: X es una letra}

Conjunto Universal

: Depende de lo que se estudie en el momento, es fijado de antemano y está Formado por todos los elementos que intervienen en el tema de interés. Se Denotará como U.

Conjunto Vacío

: Es aquel que carece de elementos. Se denotará por .

Conjunto Unitario

: Formado por un único elemento. Ejemplo: A = {5}

Conjuntos Finitos y Conjuntos Infinitos

: Intuitivamente, un conjunto finito consta de Un cierto número de elementos, es decir, que el conteo de elementos puede “acabar”, de lo contrario, el conjunto será infinito.

Cardinal de un conjunto finito

: Es el número de elementos que posee el conjunto.

Inclusión de Conjuntos o Subconjunto

: Sean A y B dos conjuntos. Si todo Elemento de A pertenece a B diremos que A está incluido en B o que A es un Subconjunto de B.

Igualdad de Conjuntos

: Dos conjuntos A y B son iguales si contienen los mismos elementos

Operaciones con conjuntos

Uníón: La Uníón de dos conjuntos A y B es el conjunto formado por los elementos que pertenecen A A o a B.

Intersección: La intersección de dos conjuntos A y B es el conjunto formado por los elementos Que pertenecen a A y a B.

Diferencia:La diferencia de dos conjuntos A y B es el Conjunto formado por los elementos que pertenecen a A pero que no pertenecen a B.

Diferencia Simétrica: La diferencia simétrica de dos conjuntos A y B es la uníón de los conjuntos A−B y B−A.

Probabilidad

La Probabilidad es un método por el cual se obtiene la frecuencia de un Acontecimiento determinado mediante la realización de experimentos aleatorios, De los que se conocen todos los resultados posibles, bajo condiciones Suficientemente estables. La probabilidad es un evento o suceso que puede ser Improbable, probable o seguro.

Definición de Laplace

La Regla de Laplace establece que:

·La Probabilidad de ocurrencia de un suceso imposible es 0.

·La Probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1.

Para Aplicar la regla de Laplace es necesario que los experimentos den lugar a Sucesos equiprobables, es decir, que todos tengan o posean la misma Probabilidad.

Combinatoria

El Análisis combinatorio se ocupa de la ordenación de los objetos dentro de un Conjunto. En este sentido nos facilitará métodos que serán útiles para Determinar el número de resultados posibles de un experimento.

Capítulo 6: Distribución de probabilidades

En Teoría de la probabilidad y estadística, la distribución de probabilidad de una Variable aleatoria es una función que asigna a cada suceso definido sobre la Variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución De probabilidad está definida sobre el conjunto de todos los sucesos, cada uno De los sucesos es el rango de valores de la variable aleatoria.

Variables aleatorias continuas

Distribución de probabilidad acumulada


: La función de distribución acumulada, F(x), de una variable aleatoria continúa X expresa la probabilidad de que X no sea mayor que el valor de x, en función De x.

F(x) = P(X≤x) [6-1]

Función de probabilidad de densidad


: En la teoría de la probabilidad, la función de densidad de probabilidad, Función de densidad, o, simplemente, densidad de una variable aleatoria Continua describe la probabilidad relativa según la cual dicha variable Aleatoria tomará determinado valor. Estas son sus propiedades:

·f (x)>0 para todos los valores de x.

·El área situada debajo de la función de densidad de probabilidad, f (x), cuando se Abarcan todos los valores de la variable aleatoria, X, es igual a 1,0.

·Supongamos Que se representa gráficamente esta función de densidad. Sean a y b dos valores Posibles de la variable aleatoria X, siendo a<b. En ese caso, la Probabilidad de que X se encuentre entre a y b es el área situada debajo de la Función de densidad entre estos puntos.

Áreas situadas debajo de funciones de probabilidad continua

Sea X Una variable aleatoria continua que tiene una función de densidad de Probabilidad f (x) y una función de distribución acumulada F(x). Se cumplen las Siguientes propiedades:

·El área total situada debajo de la curva f (x) es 1.

·El área situada debajo de la curva f (x) a la izquierda de x0 es F(x0), donde x0 Es cualquier valor que pueda tomar la variable aleatoria.

Distribución uniforme

En Teoría de probabilidad y estadística, la distribución uniforme continua es una Familia de distribuciones de probabilidad para variables aleatorias continuas, Tales que para cada miembro de la familia, todos los intervalos de igual Longitud en la distribución en su rango son igualmente probables.

Distribución normal

En Estadística y probabilidad se llama distribución normal, o distribución de Gauss, a una de las distribuciones de probabilidad de variable continua que con Más frecuencia aparece aproximada en fenómenos reales. Se utiliza Frecuentemente porque:

·La Distribución normal es una aproximación muy buena de las distribuciones de probabilidad De una amplia variedad de variables aleatorias. Por ejemplo, las dimensiones de Las piezas y el peso de los paquetes de alimentos a menudo siguen una Distribución normal, por lo que tiene muchas aplicaciones en el control de Calidad. Las ventas o la producción a menudo siguen una distribución normal, Por lo que ésta tiene una gran cantidad de aplicaciones en el marketing y en la Gestión de la producción. Las pautas de los precios de las acciones y de los Bonos a menudo se analizan utilizando la distribución normal en grandes modelos Informáticos de contratación financiera. Los modelos económicos utilizan la Distribución normal para algunas medidas económicas.

·Las Distribuciones de las medias muéstrales siguen una distribución normal, si el Tamaño de la muestra es «grande».

·El Cálculo de probabilidades es directo e ingenioso.

·La Razón más importante es que la distribución de probabilidad normal ha llevado a Tomar buenas decisiones empresariales en algunas aplicaciones.

Distribución exponencial

En Estadística la distribución exponencial es una distribución de probabilidad Continua. Se limita a las variables aleatorias que tienen valores positivos y Su distribución no es simétrica.

Distribución conjunta

En Probabilidad, dados dos eventos aleatorios X y Y, la distribución conjunta de X Y Y es la distribución de probabilidad de la intersección de eventos de X y Y, Esto es, de los eventos X e Y ocurriendo de forma simultánea. En el caso de Solo dos variables aleatorias se denomina una distribución bivariada, pero el Concepto se generaliza a cualquier número de eventos o variables aleatorias.

Distribución de Poisson

En Teoría de probabilidad y estadística, la distribución de Poisson es una Distribución de probabilidad discreta que expresa, a partir de una frecuencia De ocurrencia media, la probabilidad de que ocurra un determinado número de Eventos durante cierto período de tiempo. Concretamente, se especializa en la Probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o Sucesos “raros”.

Covarianza

En Probabilidad y estadística, la covarianza es un valor que indica el grado de Variación conjunta de dos variables aleatorias. Es el dato básico para Determinar si existe una dependencia entre ambas variables y además es el dato Necesario para estimar otros parámetros básicos, como el coeficiente de Correlación lineal o la recta de regresión.

Correlación

En Probabilidad y estadística, la correlación indica la fuerza y la dirección de Una relación lineal y proporcionalidad entre dos variables estadísticas. Se Considera que dos variables cuantitativas están correlacionadas cuando los Valores de una de ellas varían sistemáticamente con respecto a los valores Homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al Aumentar los valores de A lo hacen también los de B y viceversa.

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>