Estadística Descriptiva y sus Herramientas
La estadística descriptiva se enfoca en resumir y describir las características de un conjunto de datos. Utiliza representaciones gráficas como histogramas, gráficos de barras y diagramas de caja para visualizar la distribución de los datos. Las medidas de tendencia central, como la media, mediana y moda, identifican el valor central de un conjunto de datos. Las medidas de dispersión, como el rango, la varianza y la desviación estándar, evalúan la variabilidad de los datos. Las medidas de posición, como los cuartiles y percentiles, proporcionan información sobre la distribución relativa de los datos en el conjunto.Medidas de Tendencia Central
Las medidas de tendencia central son estadísticas resumidas que indican el punto central de un conjunto de datos. La media aritmética es el promedio de todos los valores, la mediana es el valor que divide al conjunto en dos partes iguales cuando los datos están ordenados, y la moda es el valor que aparece con mayor frecuencia. La media geométrica y la media armónica son otras medidas utilizadas en contextos específicos, como en el análisis de tasas de crecimiento o en el cálculo de promedios de velocidades, respectivamente.Medidas de Dispersión
Las medidas de dispersión informan sobre la extensión en que los datos se alejan de una medida de tendencia central. El rango es la diferencia entre los valores máximo y mínimo. La desviación media es el promedio de las diferencias absolutas entre cada dato y la media. La varianza mide la dispersión de los datos cuadrando estas diferencias, y la desviación estándar, que es la raíz cuadrada de la varianza, proporciona una medida de dispersión en las mismas unidades que los datos originales.Fundamentos de Probabilidad
La probabilidad es una medida de la certeza de que ocurra un evento y es esencial para la estadística inferencial. El espacio muestral es el conjunto de todos los resultados posibles de un experimento aleatorio. Los eventos pueden ser simples o compuestos y se clasifican como mutuamente excluyentes si no pueden ocurrir al mismo tiempo, o independientes si la ocurrencia de uno no afecta la del otro. La probabilidad de un evento se calcula como la frecuencia relativa con la que se espera que ocurra bajo condiciones equiprobables. Los axiomas de probabilidad son principios que fundamentan el cálculo de probabilidades, y los teoremas de probabilidad permiten manejar la probabilidad de eventos complejos y sus interacciones.Probabilidad Condicional y Eventos Independientes
La probabilidad condicional es la probabilidad de que un evento A ocurra dado que otro evento B ya ha ocurrido. Es fundamental para analizar la dependencia entre eventos. Dos eventos son independientes si la ocurrencia de uno no influye en la probabilidad del otro. El concepto de independencia es clave para el análisis de fenómenos aleatorios y para calcular la probabilidad de eventos compuestos.Variables Aleatorias y sus Distribuciones
Una variable aleatoria asigna un valor numérico a cada resultado de un espacio muestral y puede ser discreta o continua. La función de masa de probabilidad de una variable aleatoria discreta asigna una probabilidad a cada valor posible, mientras que la función de densidad de probabilidad de una variable continua describe la probabilidad relativa de los valores. La esperanza matemática o valor esperado y la varianza son medidas que caracterizan la distribución de una variable aleatoria, indicando su tendencia central y su dispersión, respectivamente.Teorema de Probabilidad Total y Teorema de Bayes
El teorema de la probabilidad total es una herramienta que permite calcular la probabilidad de un evento A utilizando una partición del espacio muestral en eventos mutuamente excluyentes y exhaustivos. El teorema de Bayes es esencial en estadística inferencial, ya que permite actualizar la probabilidad de un evento basándose en nueva información o evidencia, facilitando la revisión y ajuste de hipótesis previas.