Quando observamos o céu
estrelado, uma das primeiras coisas que percebemos é que as estrelas
possuem diferentes brilhos. Algumas chamam nossa atenção pela luz
intensa, enquanto outras são tão pálidas que mal podemos identificá-las.
Essa “diversidade sideral” chamou a atenção dos antigos gregos, onde
teve origem o primeiro sistema de classificação das estrelas segundo seu
brilho. Tudo começou a mais de 2.000 anos, quando um dos maiores astrônomos e
matemáticos de toda a Antiguidade, o célebre Hiparco, agrupou todas as
estrelas que conseguia ver a olho nu em seis categorias de brilho, que
ele chamou de grandezas.
Em seu sistema, um
grupo com cerca 20 estrelas mais brilhantes – aquelas que primeiro
surgiam após o pôr do Sol – foram classificadas como de 1ª grandeza.
Em seguida, ele classificou as estrelas um pouco menos brilhantes como
pertencentes à 2ª grandeza. E assim continuou, até aquelas que mal podia
enxergar, e que Hiparco agrupou na 6ª grandeza.
Naquela época se pensava que as estrelas se encontravam fixas numa
imensa abóbada celeste, portanto à mesma distância da Terra. Sendo
assim, seus diferentes brilhos dependiam de seus tamanhos – o que não é
verdade.
O termo “grandeza” não se encontra mais em uso na Astronomia. Ele foi
substituído por magnitude.
A magnitude é definida de forma bem mais rigorosa. É que ainda no século XIX descobriu-se que a
visão humana responde aos estímulos luminosos de forma não linear.
No caso do brilho das estrelas, isto significa que para se ter a mesma
sensação produzida pelo brilho de uma estrela de primeira grandeza são
necessárias aproximadamente 2,5 estrelas de “segunda grandeza” ou 2,5 ×
2,5 = 2,5² estrelas de “terceira grandeza” e assim por diante.
Em outras palavras, entre duas magnitudes deve haver um fator de 2,5.
Assim, um objeto de magnitude 1 é 2,5 vezes mais brilhante que um de
magnitude 2.
Na verdade, o número é 2,512 e é chamado “Fator de Pogson”. Ele vem da
própria definição de magnitude, pois ou (2,512)5=100. Isto é, uma
diferença de 5 magnitudes equivale a 100.
A magnitude é diferente da maioria das escalas que costumamos usar, pois funciona de modo
inverso. Quanto menor seu valor, mais brilhante é o astro.
Observando a equação de Pogson, mostrada abaixo, verifica-se que a
escala de magnitudes é uma relação logarítmica. Isso porque, como já
vimos, nossa resposta a um estímulo visual é não linear e proporcional
ao logaritimo da intensidade da luz.
Os astrônomos escolheram a estrela Vega, a mais brilhante da constelação
de Lira, para representar o zero da escala, que vai tanto na direção
dos números positivos quanto negativos.
As magnitudes são medidas através de instrumentos muito sensíveis,
permitindo expressar os valores com algumas casas decimais de precisão.
Exemplos brilhantes
DISTINGUEM-SE TAMBÉM A MAGNITUDE aparente (ou visual) que é a
luminosidade de uma estrela como vista da Terra, e a magnitude absoluta
que é a medida da luminosidade total emitida pelo astro, independente de
sua distância ao observador.
O Sol tem magnitude absoluta próxima de +5 (talvez daí venha o uso
equivocado do conceito de grandeza de Hiparco na frase: “o Sol é uma
estrela de quinta grandeza”). O planeta Vênus – a popular estrela D’Álva
– pode atingir magnitude aparente -5.
A magnitude aparente do Sol é de aproximadamente -27 enquanto a Lua
Cheia fica em torno de -13. O limite da percepção humana está um pouco
abaixo da magnitude +6,0. Na tabela abaixo, um comparativo entre
magnitudes (aparente e absoluta) de várias estrelas.
Fonte: Costa, J. R. V. Grandezas e magnitudes. Astronomia no Zênite, jun 2007. Disponível em: http://www.zenite.nu/grandezas-e-magnitudes/
Fonte: Costa, J. R. V. Grandezas e magnitudes. Astronomia no Zênite, jun 2007. Disponível em: http://www.zenite.nu/grandezas-e-magnitudes/
Fonte: Costa, J. R. V. Grandezas e magnitudes. Astronomia no Zênite, jun 2007. Disponível em: http://www.zenite.nu/grandezas-e-magnitudes/
Fonte: Costa, J. R. V. Grandezas e magnitudes. Astronomia no Zênite, jun 2007. Disponível em: http://www.zenite.nu/grandezas-e-magnitudes/
0 Comentários