Hola lectores, voy a hablaros en el ámbito de las matemáticas de la llamada ley de los números anómalos de Benford. La historia
comenzó en 1881, cuando el
matemático y astrónomo Simon Newcomb
observó que la tabla de logaritmos que usaba para sus cálculos presentaba un
progresivo desgaste en las páginas; las primeras estaban considerablemente más
desgastadas que las últimas.
Antes de la
aparición de las calculadoras, las tablas de logaritmos eran el método que se
usaba para cálculos en astronomía e
ingeniería. Para los “jóvenes estudiantes de ciencias” describiré brevemente lo
que era una tabla de logaritmos: la tabla de logaritmos, herramienta que en la
actualidad no se utiliza ya que ha quedado obsoleta con el uso de las
calculadoras científicas, era un voluminoso libro donde aparecía el valor de
los logaritmos naturales de los números reales ordenados de manera creciente y,
antes de la era informática, el libro de cabecera de científicos e ingenieros.
Retomando el
tema, Simon se preguntó: ¿A qué
podría deberse este selectivo desgaste? ¿Cómo se podría justificar este hecho
tan curioso? Este asombroso desgaste selectivo sólo podía haberse producido por
el uso continuado de las páginas donde aparecían los datos que con más
frecuencia se usaban para los cálculos que Simon Neewcob necesitaba realizar. Debía
suceder que los datos cuyos dígitos comenzaban por uno eran más frecuentes que
los que comenzaban por dos, y así sucesivamente.
Pasó el
tiempo, y esta propiedad no pasó de ser considerada una mera anécdota hasta que
en 1938, el físico Frank Benford,
observó que la misma propiedad se presentaba cuando se analizaban
estadísticamente las frecuencias de 20.229 números provenientes de 20 muestras
procedentes de campos tan diferentes como constantes y magnitudes físicas,
longitudes de ríos, estadísticas de béisbol, direcciones de personas, etc.
Benford postuló la "ley de los números anómalos de
Benford" que
nos dice que la probabilidad de que en una serie de muchos datos el primer
digito sea el número 1 es del 30%, de 17,6% para un 2, del 12'5% para el 3 y
así sucesivamente, con probabilidades decrecientes para los dígitos con mayor
valor. La demostración matemática formal de la ley de Benford la obtuvo en 1996 el matemático Ted Hill (demostración
compleja que utiliza el teorema del límite central y su relación con el
comportamiento de las mantisas en las multiplicaciones de valores aleatorios).
Hoy en día la ley de Benford tiene útiles e
“inquietantes” aplicaciones en muy diversos campos, tales como la detección de fraude fiscal, ya que la
falsificación de datos, por ejemplo, para la declaración de la renta, puede ser
detectada si los datos aportados no verifican la ley de Benford; detección de irregularidades en datos de Auditorías
Internas, debido a que el análisis de frecuencia de los dígitos es una potente
herramienta analítica en la detección de irregularidades y fraudes; verificación de modelos demográficos, e incluso detección de fraudes electorales;
mejora del aprovechamiento del espacio de almacenamiento y aumento de la
velocidad de acceso en disco duro
de un ordenador; en computación científica y aritmética en punto flotante, para
facilitar la detección de errores.
Usando las palabras del matemático Mark
J. Nigrini podemos decir que
“la
ley de Benford no es mágica, pero a veces lo parece”.
Publicado en Dyna | Marzo - Abril 2015 | Vol. 90 nº2
Muy interesante, de verdad parece increíble
ResponderEliminarUn post muy interesante, la ley de Benford que empezo como una anecdota tiene unas aplicaciones muy importantes
ResponderEliminarun post muy interesante, hay cosas en el mundo que parecen increíbles pero ahora se pueden explicar científicamente gracias a estas leyes
ResponderEliminar