Magnitudes
La escala de magnitudes fue implementada por primera vez en
el siglo II antes de Cristo por Hiparco de Nicea, donde las estrellas mas
brillantes eran de primera magnitud, mientras que las mas pálidas perceptibles
a simple vista eran de sexta magnitud. Esta escala fue dotada de una base
matemática hacia el siglo XIX.
Las mediciones establecieron que una diferencia de 5
magnitudes se correspondía con un factor de aproximadamente 100 veces el
brillo. Hoy en día se fijo que un factor de 100 en la diferencia de brillo
corresponde exactamente a una diferencia de 5 magnitudes. Así resulto que
algunas estrellas tenían un brillo superior al de la 1ra magnitud, de tal forma
que se les asignaron magnitudes menores que 1, incluso negativas. Por ejemplo
la estrella mas brillante del cielo es Sirius (en la constelación de Canis
Major) con una magnitud de -1.46.
Esta escala se distingue de muchas otras porque al pasar de
una unidad a la siguiente se debe multiplicar por un numero fijo (unos 2.512, o
raíz quinta de 100). Esto quiere decir que una estrella de 1ra magnitud es
2.512 veces mas brillante que una de 2da magnitud. En el siguiente cuadro se
dispone el factor de brillo en relación a la magnitud:
Diferencia en cuanto a
magnitud Factor
en cuanto a
brillo
1 2.512 veces
2 6.31 veces
3 15.85 veces
4 39.81 veces
5 100 veces
6 251 veces
7 631 veces
8 1585 veces
9 3981 veces
10 10000 veces
15 1000000 veces
Por definición, cada 5 magnitudes adicionadas las estrellas
son 100 veces menos brillantes. Un incremento o decremento de 2 magnitudes
corresponde a 2.512E2 (2.512 al cuadrado), de 3 magnitudes corresponde a
2.512E3 (al cubo), etc.