RESUMEN ESTADISTICA

3
3. LA TEORÍA MODERNA DE LA PROBABILIDAD En el siglo XIX el cálculo de probabilidades se convierte en la parte matemática de la estadística. La teoría de límites fue mejor que el análisis combinatorio. El matemático alemán Karl Friedrich Gauss, desarrolló la teoría de errores junto a Bessel y a Laplace, estableciendo el método de mínimos cuadrados como el adecuado para resolver los problemas de la teoría de errores. Gauss y Laplace, aplicaron teoría probabilística al análisis de los errores de medida de las observaciones físicas y astronómicas. La probabilidad en la física también jugó un papel importante. Uno de los resultados importantes en teoría de errores de Gauss que demostraba que, bajo ciertas condiciones generales, la función de densidad de los errores de medida tiene la forma: Simeon Denis Poisson (1781-1840) que descubrió que la media aritmética no es siempre mejor que una única observación.El francés Poisson aportó la distribución que lleva su nombre y que es aplicable a fenómenos poco comunes y extraños. En 1837 publicó su trabajo en Recherches sur la Probabilité des Jugements. Poisson originalmente estudió Medicina, y en 1789 se dedicó al campo matemático en la Escuela Politécnica. Sin embargo lo que sí hizo Poisson, fue introducir de alguna manera el concepto de variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros pasos como un conjunto de cada uno con su probabilidad . Estos conjuntos de los que hablaba Poisson eran independientes y fue A.Liapunov (1857-1918) quien especificó que estas variables no serían siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones. Además Liapunov dio una definición de distribución casi exacta a la actual: PERFECCIONAMIENTO DE LA LEY DE LOS GRANDES NÚMEROS Y EL TCL La ley de los Grandes Números propuesta por Jacob Bernoulli fue generalizada por primera vez en 1837 por Poisson, que además la bautizó con este nombre. El francés consideró el

description

HISTORIA DE LA ESTADISTICA

Transcript of RESUMEN ESTADISTICA

Page 1: RESUMEN ESTADISTICA

3. LA TEORÍA MODERNA DE LA PROBABILIDAD

En el siglo XIX el cálculo de probabilidades se convierte en la parte matemática de la estadística. La teoría de límites fue mejor que el análisis combinatorio. El matemático alemán Karl Friedrich Gauss, desarrolló la teoría de errores junto a Bessel y a Laplace, estableciendo el método de mínimos cuadrados como el adecuado para resolver los problemas de la teoría de errores. Gauss y Laplace, aplicaron teoría probabilística al análisis de los errores de medida de las observaciones físicas y astronómicas. La probabilidad en la física también jugó un papel importante. Uno de los resultados importantes en teoría de errores de Gauss que demostraba que, bajo ciertas condiciones generales, la función de densidad de los errores de medida tiene la forma:

Simeon Denis Poisson (1781-1840) que descubrió que la media aritmética no es siempre mejor que una única observación.El francés Poisson aportó la distribución que lleva su nombre y que es aplicable a fenómenos poco comunes y extraños. En 1837 publicó su trabajo en Recherches sur la Probabilité des Jugements. Poisson originalmente estudió Medicina, y en 1789 se dedicó al campo matemático en la Escuela Politécnica. Sin embargo lo que sí hizo Poisson, fue introducir de alguna manera el concepto de variable aleatoria, no como lo entendemos actualmente, sino esbozando sus primeros pasos como un conjunto de cada uno con su probabilidad

. Estos conjuntos de los que hablaba Poisson eran independientes y fue A.Liapunov (1857-1918) quien especificó que estas variables no serían siempre independientes y que esa dependencia estaba sujeta a ciertas condiciones. Además Liapunov dio una definición de distribución casi exacta a la actual:

PERFECCIONAMIENTO DE LA LEY DE LOS GRANDES NÚMEROS Y EL TCLLa ley de los Grandes Números propuesta por Jacob Bernoulli fue generalizada por primera vez en 1837 por Poisson, que además la bautizó con este nombre. El francés consideró el siguiente experimento: Sea una sucesión de n pruebas independientes, en cada una de las cuales un suceso B puede ocurrir con probabilidad:

En 1909, Émile Borel (1871-1956) se dio cuenta de que el trabajo de Bernoulli llevaba a una afirmación más importante que simplemente la ley de los Grandes Números para p = 0´5 y el matemático italiano Francesco Cantelli (1875-1966) descubrió lo que se denomina ley Fuerte de los Grandes Números añadiendo el

hecho de que para cualquier valor de p: .

Page 2: RESUMEN ESTADISTICA

Teorema Central del Límite. No sería hasta el año 1887, cuando Chebyshev demostró un teorema acerca de la acotación de la suma de una variable aleatoria con esperanza 0. Para demostrar esto, inventó el Método de los momentos, pieza fundamental de la teoría estadística actual. A.Markov estudiante de Chebyshev, se dio cuenta posteriormente de algunos errores de su maestro y arreglo la fórmula así:

ESCUELAS DEL SIGLO XXLa escuela rusa: Los matemáticos rusos en el siglo XX formaron una escuela dirigida principalmente por Andrei N.Kolmogorov (1903- 1987). En 1930 se hace eco de la ley Fuerte de los Grandes Números de Cantelli, y trabaja para mejorarla y generalizarla. El año anterior había publicado "La Teoría General de la Medida y el Cálculo de Probabilidades". En 1950 completó uno de los trabajos más importantes en Estadística "Estimadores Insesgados". Kolmogorov dio solución a una parte del sexto problema de Hilbert, en el que se pedía un fundamento axiomático de la teoría de probabilidades, utilizando la medida de Lebesgue. Este fue el comienzo del aporte más importante que Kolmogorov hizo a la teoría del cálculo de probabilidades, o al menos por el que más se le conoce y del que hablaremos posteriormente: la axiomatización de la probabilidad.

La escuela estadounidense:Nortber Wiener (1894-1964) quien desarrolló una medida de las probabilidades para conjuntos de trayectorias que no son diferenciables en ningún punto, asociando una probabilidad a cada conjunto de trayectorias. Construyó así una probabilidad que permitía describir el fenómeno en términos matemáticos en lo que se refería a la trayectoria y posición de las partículas a través del tiempo.

La escuela francesa:Un grupo de matemáticos encabezados por Laurent Schuwartz generalizaron el concepto de diferenciación utilizando la teoría de distribuciones. Esta aportación fue de vital importancia, ya que en la actualidad no es posible dar explicaciones rigurosas de probabilidad sin utilizar estos conceptos.

KOLMOGOROV Y LA AXIOMATIZACIÓN DE LA PROBABILIDAD

En el año 1933 Kolmogorov se propuso construyó la teoría de la probabilidad totalmente rigurosa basada en axiomas fundamentales. Así, la definición axiomática las incluye como casos particulares y supera las carencias de ambas. De esta manera, la probabilidad pudo desarrollarse como una teoría

Page 3: RESUMEN ESTADISTICA

completamente lógica al mismo tiempo que siguió permitiendo resolver los problemas aplicados de las ciencias modernas y la tecnología.