Estadistica Definiciones
"La estadística es una técnica especial apta para el estudio cuantitativo de los fenómenos de masa o colectivo, cuya mediación requiere una masa de observaciones de otros fenómenos más simplesllamados individuales o particulares". (Gini, 1953.)
Probabilidad : Mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia yla filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la mecánica subyacente de sistemas complejos.
Experimentos aleatorios: Son aquellos que son realizados, de una misma forma y con las mismas condiciones iniciales, ofrecen siempre el mismo resultado. Como ejemplo, tenemos que un objeto de cualquier masa partiendo de un estado inicial de reposo, y dejado caer alvacío desde una torre, llega siempre al suelo con la misma velocidad
Experimentos determinativos: Este es el caso cuando lanzamos un dado y observamos su resultado. En los experimentos aleatorios se observa que cuando el número de experimentos aumenta, las frecuencias relativas con las que ocurre cierto suceso e, fn(e),
Espacio Muestra: Es el conjunto de todo lo posibles resultados de unexperimento.
Evento mutuamente excluyente: Es aquel evento que no tiene ningún elemento en común entre ambos eventos.
Asignación de probabilidad
La teoría de la probabilidad es la teoría matemática que modela los fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinísticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condicionesdeterminadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo.
Los procesosreales que se modelizan como procesos aleatorios pueden no serlo realmente; cómo tirar una moneda o un dado no son procesos de aleación en sentido estricto, ya que no se reproducen exactamente las mismas condiciones iniciales que lo determinan, sino sólo unas pocas. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen apriori todos los parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.
En 1933, el matemático soviético Andrés Colmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrolladapocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentraaplicación en las más variadas ramas del conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Brownia), o las finanzas (donde destaca el modelo de Blacko y Schol para la valuación de acciones).
Frecuencia Relativa: La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el número total de datos....
Regístrate para leer el documento completo.