Magnitud
Escala de medida del brillo de los astros en el firmamento.
La primera clasificación de las estrellas en función de su magnitud fue realizada por el astrónomo griego Hiparco de Nicea en el siglo II antes de Cristo. Hiparco asignó la primera magnitud a las estrellas más brillantes y la sexta a las que se encontraban en el límite de la visibilidad a simple vista, correspondiéndoles valores intermedios al resto.
Aunque este método es el que se sigue empleando hoy en día, a mediados del siglo XIX fue sistematizado por el astrónomo inglés Norman Pogson, que estableció un factor de 100 para la diferencia de brillo entre la magnitud 1 y la magnitud 6, es decir, un valor de 2,512 -llamado en su honor Razón de Pogson- entre una magnitud y la siguiente. Esto permitió ampliar la escala por un extremo hasta las magnitudes negativas para los astros más brillantes como Venus, Júpiter o Sirio, y por el otro hasta magnitudes mayores que la sexta para objetos que sólo son visibles con telescopios. Asimismo, gracias al uso de instrumentos de medida lo suficientemente precisos se pudo establecer una escala absoluta de magnitudes con una precisión de dos decimales.
El hecho de utilizar una escala exponencial -o progresión geométrica- en lugar de una más sencilla escala lineal -o progresión aritmética- se debe a que la primera se ajusta mejor a la percepción del ojo humano, que es el criterio que siguió Hiparco. Por otro lado, el poco redondo factor por el que hay que multiplicar para pasar de una magnitud a la siguiente viene impuesto por la necesidad de repartir el factor global de 100 en cinco intervalos -de la primera magnitud a la sexta-, dado que:
2,512 × 2,512 × 2,512 × 2,512 × 2,512 = 2,5125 = 100
O, si se prefiere, 2,512 es la raíz quinta de 100.
Publicado el 4-9-2009
Actualizado el 29-10-2012