LA COMPUTADORA EN EL ESTUDIO DE LA ESTADISTICA
ESTADISTICA.
La
estadística
es una ciencia referente a la recolección, análisis e
interpretación de datos, ya sea para ayudar en la resolución de la toma de
decisiones o para explicar condiciones regulares o irregulares de algún
fenómeno o estudio aplicado, de ocurrencia en forma
aleatoria
o
condicional. Sin embargo estadística es más que eso, en otras palabras es el
vehículo que permite llevar a cabo el proceso relacionado con la
investigación científica.
También se denominan estadísticas (en plural) a los datos estadísticos.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las
ciencias sociales
, desde las
ciencias de la salud
hasta el
control de calidad
. Se usa para la toma de decisiones en áreas de
negocios
o instituciones
gubernamentales
.
La estadística se divide en dos grandes áreas:
●
●
La
estadística descriptiva
, se dedica a los métodos de recolección,
descripción, visualización y resumen de datos originados a partir de
los fenómenos de estudio. Los datos pueden ser resumidos numérica
o gráficamente. Ejemplos básicos de
parámetros estadísticos
son: la
media y la
desviación estándar
. Algunos ejemplos gráficos son:
histograma
,
pirámide poblacional
,
clústers
, entre otros.
La
estadística inferencial
, se dedica a la generación de los
modelos
,
inferencias y predicciones asociadas a los fenómenos en cuestión
teniendo en cuenta la
aleatoriedad
de las observaciones. Se usa para
modelar patrones en los datos y extraer inferencias acerca de la
población
bajo estudio. Estas inferencias pueden tomar la forma de
respuestas a preguntas si/no (
prueba de hipótesis
), estimaciones de
características numéricas (
estimación
),
pronósticos
de futuras
observaciones, descripciones de asociación (
correlación
) o
modelamiento de relaciones entre variables (
análisis de regresión
).
Otras técnicas de modelamiento
incluyen
anova
,
series de tiempo
y
minería de datos
.
El rápido y sostenido incremento en el poder de cálculo de la computación
desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la
práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi
siempre de la clase de los
modelos lineales
. Ahora, complejos computadores junto con apropiados
algoritmos
numéricos, han causado un
renacer del interés en
modelos no lineales
(especialmente
redes neuronales
y
árboles de decisión
) y la creación de nuevos tipos tales como
modelos
lineales generalizados
y
modelos multinivel
.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en
remuestreo
, tales como tests de permutación y de
bootstrap
, mientras
técnicas como el
muestreo de Gibbs
han hecho los métodos bayesianos más
accesibles. La revolución en computadores tiene implicaciones en el futuro
de la estadística, con un nuevo énfasis en estadísticas «experimentales» y
«empíricas». Un gran número de
paquetes estadísticos
está ahora disponible para los investigadores. Los
sistemas dinámicos y teoría del caos
, desde
hace una década, empezaron a interesar en la comunidad hispana, pues en
la anglosajona de Estados Unidos estaba ya establecida la «conducta
caótica en sistemas dinámicos no lineales» con 350 libros para 1997 y
empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones de la física. También se estaba contemplando su uso en
analítica.
Los primeros usos del software estadístico en la enseñanza de la estadística
han sido la presentación de "output" impresos a los alumnos para
interpretar resultados.
Esta forma de presentación no hacía más que sustituir la antigua
formulación del problema por la que proporciona el output. El alumno ...
Regístrate para leer el documento completo.