el eje x es una
asíntota, siendo la probabilidad del error igual a 0;
la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables.
Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
El
método de mínimos cuadrados se debe a
Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense,
Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,
siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de
John Herschel (1850).
Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823),
James Ivory (1825, 1826), Hagen (1837),
Friedrich Bessel (1838),
W. F. Donkin (1844, 1856) y
Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844),
De Morgan (1864),
Glaisher (1872) y
Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida.
En el
siglo XIX, los autores de la teoría general incluían a
Laplace,
Sylvestre Lacroix (1816), Littrow (1833),
Adolphe Quetelet (1853),
Richard Dedekind (1860), Helmert (1872),
Hermann Laurent (1873), Liagre, Didion, y
Karl Pearson.
Augustus De Morgan y
George Boole mejoraron la exposición de la teoría.
En la parte geométrica (véase
geometría integral) los colaboradores de
The Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin).
TeoríaArtículo principal:
Teoría de la probabilidadLa probabilidad constituye un importante parametro en la determinacion de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadistico.
Existen diversas formas como metodo abstracto, como la
teoría Dempster-Shafer y la
teoría de la relatividad numerica, esta ultima con un alto grado de aceptacion si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel minimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.
AplicacionesDos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de
riesgo y en el comercio de los
mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en
regulación ambiental donde se les llama "
análisis de vías de dispersión", y a menudo
miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la
estadística está incluida en el propio modelado, ya que típicamente los análisis de
riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una
ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las
finanzas conductuales surgió para describir el efecto de este
pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una
democracia.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la
fiabilidad. Muchos bienes de consumo, como los
automóviles y la electrónica de consumo, utilizan la
teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la
garantía del producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios.
En un universo determinista, basado en los conceptos
newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la
teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la
constante de Avogadro ) que sólo la descripción estadística de sus propiedades es viable.
La
mecánica cuántica, debido al
principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso.[
cita requerida] Otros no se conforman con la pérdida del determinismo.
Albert Einstein comentó estupendamente en una carta a
Max Born: Jedenfalls bin ich überzeugt, daß der Alte nicht würfelt. (Estoy convencido de que Dios no tira el dado). No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.