Image by NASA

Revisão na estimativa de massa da estrela Earendel recém descoberta com o Hubble

 

Foi veiculada ontem (30/3/2022) a notícia da descoberta de uma estrela situada a 28 bilhões de anos-luz (*) com o uso do telescópio espacial Hubble. Infelizmente não encontrei o artigo original em Arxiv.org nem no ResearchGate, mas com base nos dados divulgados no site da NASA já se pode encontrar dados suficientes para identificar um erro de estimativa.

 

A estimativa de massa apresentada no artigo é de cerca de 50 a 100 massas solares, porém a massa correta deve ser muito menor. Seria necessário dispor de mais dados para calcular com maior precisão, mas numa estimativa preliminar, se quisesse tentar acertar num alvo estreito, situaria entre 7 e 30 massas solares, e se quisesse fazer uma estimativa “inteligente” (**) para estar mais perto do valor correto que o autor do artigo, diria 49,9999 massas solares, assim praticamente qualquer valor abaixo de 50 me favoreceria.

 

Quando comecei a ler a matéria, meu primeiro pensamento foi que deveria ser algum objeto de uma classe ainda desconhecida, talvez algum transiente com evolução lenta, por isso ainda não havia sido reconhecido como tal. Ainda não descarto essa possibilidade. Mas se for de fato uma estrela, deve ter massa perto do limite de Eddington, 100 a 150 massas solares, para que seja possível registrá-la mesmo estando tão distante. No modelo atual de evolução estelar, uma estrela não pode conservar seu equilíbrio hidrostático se sua massa for maior do que esse limite, e para que fosse possível detectar uma estrela tão distante, sem destinar anos de tempo de exposição apontando exclusivamente em sua direção, ela precisaria ter a maior luminosidade possível. Pela “Lei“ de Stefan-Boltzmann, sabe-se que a luminosidade está estreitamente relacionada com a massa, teoricamente por uma relação do tipo L ∝ M^k, onde k = 4, mas os dados empíricos mostram uma relação ligeiramente diferente, onde o valor de k varia entre 2,5 e 4, dependendo da metalicidade e de outras propriedades da estrela.

 

O fato é que quanto maior a massa, maior é a luminosidade. Por isso a massa precisaria ser grande, talvez no limiar do que a Física que conhecemos “permitiria”, por isso 100 a 150 massas solares seria uma estimativa adequada. O limite de Eddington não estabelece explicitamente um limite superior de massa, mas sim um limite de massa em relação à luminosidade, e como uma depende da outra, isso equivale a um limite assintótico para a massa, mas não é um limite bem definido porque o valor de k não é constante nem é bem conhecido. Enfim, o título da matéria e as primeiras linhas me levaram a essas reflexões. Em seguida, aparece a estimativa do autor do artigo de que a massa era cerca de 50 a 100 vezes a massa do Sol, o que me pareceu bastante plausível, corroborando minha impressão inicial, e prossegui na leitura.

 

Pouco depois, deparei com a informação de que seu brilho estava sendo ampliado milhares de vezes por uma microlente gravitacional. Esse é o ponto-chave para detecção do erro da estimativa. Se não houvesse uma lente gravitacional envolvida, eu esperaria que realmente a massa fosse muito grande, perto do limite de Eddington, mas com essa informação adicional a situação muda completamente.

 

O problema é que o tamanho da incerteza sobre quantas vezes a lente gravitacional está “intensificando” o brilho dessa estrela é muito grande, chegando facilmente a mais de 3 ou 4 ordens de grandeza, enquanto a incerteza na massa, embora também seja grande, é comparativamente menor, talvez em torno de 1 ordem de grandeza. Isso exige uma abordagem bayesiana para que se possa chegar a uma estimativa realista e razoavelmente acurada da massa. Como as incertezas são muito grandes, uma maneira razoável de tratar o problema é usando logaritmos das variáveis, em vez de usar as próprias variáveis.

 

Nesse contexto, a massa precisa ser estimada com base em parâmetros que levem em conta os seguintes pontos:

 

  1. Distribuição de frequências de estrelas em função da massa e da luminosidade, que determinam o tempo de permanência na sequência principal. Quanto maior a massa, menor o tempo de permanência na sequência principal, logo menor a abundância relativa de estrelas com maior massa e menor a probabilidade de uma estrela sorteada ao acaso tenha tal massa.

  2. Distribuição de intensidades da luz ampliadas por lentes gravitacionais.

  3. Limite teórico superior de massa que uma estrela pode ter.

  4. Tempo transcorrido desde a origem do Universo até que começaram a se formar as primeiras estrelas. No modelo atual, estima-se que esse limite esteja entre 100 milhões e 250 milhões de anos depois do Big-Bang.

  5. Probabilidade de formação de nebulosas com heterogeneidades suficientemente concentradas para formar estrelas com diferentes massas.

  6. Outros parâmetros também poderiam ser considerados para tornar a estimativa mais completa, mas como dois deles são muito inacurados e imprecisos, não adiantaria tentar refinar o cálculo se parte dos dados necessários a esse refinamento não estão disponíveis.

 

São conhecidas cerca de 2500 lentes gravitacionais, mas não encontrei dados sobre a distribuição de níveis de intensidade dessas lentes. Portanto não dispomos do segundo parâmetro. Mas os parâmetros 2, 3 e 4 estão disponíveis. O quinto parâmetro será comentado nos próximos parágrafos.

 

O limite superior de massa, conforme já foi comentado, é cerca de 150 massas solares, e o tempo de permanência na sequência principal (t) em função da massa é dado aproximadamente por t = e^[9,1 -2ln(M)], onde M é a massa da estrela em unidades de massa solar e t é medido em milhões de anos. No caso do Sol, por exemplo, ao aplicar essa fórmula, chega-se a 9 bilhões de anos para seu tempo de permanência na sequência principal. Para uma estrela muito mais massiva, como Rigel, com 21 vezes a massa do Sol, o tempo de permanência na sequência principal é cerca de 20 milhões de anos.

 

No caso dessa estrela recém descoberta, se sua massa fosse de fato 50 vezes a do Sol, seu tempo de permanência na sequência principal seria cerca de 3,6 milhões de anos. E se sua massa fosse 100 vezes a do Sol, seu tempo de permanência na sequência principal seria de apenas 900.000 anos. Estrelas muito menos massivas, como anãs vermelhas de classe espectral M8 ou M9, chegam a permanecer trilhões de anos na sequência principal. Mas nesse caso, como o Universo tinha apenas 800 a 900 milhões de anos, sendo que as primeiras estrelas só haviam se formado entre 600 e 800 milhões de anos, então a abundância relativa de estrelas com massa menor que 3,8 vezes a massa do Sol não era muito maior que a abundância de estrelas com exatamente 3,8 massas solares, porque não houve tempo suficiente para que estrelas com “expectativa de vida” abaixo de 600 milhões de anos tenham esgotado seu combustível nuclear.

 

Mas o tempo de permanência na sequência principal não deveria ser o único critério para determinar a abundância relativa. Como os nomes das variáveis que citarei em seguida são extensos, atribuirei nomes curtos:

 

  • “tempo de permanência na sequência principal” chamarei “tp”

  • “probabilidade de formação de nebulosas com heterogeneidades suficientemente concentradas para formar estrelas com diferentes massas” chamarei “pm”

  • “abundância relativa de estrelas de diferentes classes espectrais” chamarei “ar”

 

O tp não deveria ser o único critério para determinar a ar. Seria necessário considerar também a pm. Concentrações menores devem ser mais prováveis do que concentrações maiores. Entretanto, o tp não é uma variável medida diretamente. É uma variável calculada a partir da hipótese (incorreta) de que o tp seja o único critério relevante para determinar a ar, por isso quando se usa a ar observada empiricamente para calcular o tp, na verdade já estão embutidos nesse cálculo outros parâmetros, inclusive a pm.

 

Portanto os tp calculados atualmente estão incorretos, porque não tratam separadamente quanto cada variável, ar e pm, contribui para a determinação de tp. A ausência de dados sobre pm aumenta a incerteza no cálculo.

 

Desse modo, temos o seguinte cenário:

 

Se uma estrela fosse sorteada ao acaso naquela época, a probabilidade de sua massa ser maior que 3,8 vezes a massa do Sol seria muito menor do que a probabilidade de sua massa ser menor do que esse valor. A inexistência da informação sobre a pm impossibilita que seja determinada essa distribuição de probabilidades para massas menores que 3,8, mas sabemos que a probabilidade de que a massa típica naquela época fosse menor do que esse valor é maior do que a probabilidade de ser maior. Assim, podemos estimar que a massa média naquela época era cerca de 2 massas solares. Também podemos estimar que a abundância de estrelas com massa 3 massas solares ou menos era 200 vezes maior que a abundância de estrelas com 50 massas solares ou mais.

 

Por outro lado, quanto menor a massa, maior precisa ser a intensificação produzida pela lente gravitacional para produzia o brilho que foi registrado, e menor é a probabilidade de formação de uma lente gravitacional com as especificidades necessárias para alcançar esse efeito. Por um lado, o universo inteiro está recheado com deformações produzidas por campos gravitacionais, isso é muito comum. Por outro lado, uma “lente gravitacional” exige que as curvas produzidas sejam bastante específicas, formando uma cáustica cujo plano de corte seja perpendicular ao eixo óptico do observador e esse mesmo eixo óptico precisa passar muito próximo do objeto cuja luz será intensificada. Para fazer o cálculo correto, seria necessário conhecer a frequência com que ocorrem lentes gravitacionais com diferentes intensidades, mas nesse caso, não temos quase nenhuma informação sobre essa distribuição de frequências. Podemos supor que a incerteza no log dessa variável seja 3 a 4 vezes maior que a incerteza na estimativa da massa, como “pior” das hipóteses, e seja igual nos dois casos, na “melhor” das hipóteses.

 

Como “sabemos” que a massa não pode ser maior que 150 massas solares, precisamos encontrar o ponto entre 2 e 150 massas dólares no qual a probabilidade se equilibra. Se não houvesse essa lente gravitacional, a estrela não seria visível, ou precisaria ter massa centenas a milhares de vezes maior que a massa do Sol, o que seria inconsistente com a Física que conhecemos.

 

Eu precisaria dos dados do artigo original para determinar corretamente isso, porque no site do Hubble não consta informação de quanto foi o tempo de exposição.

 

A mv informada é cerca de 27,2, portanto sua magnitude absoluta precisa ser cerca de -17,5 para ser consistente com o redshift observado. Isso corresponde a 170 massas do Sol se atribuir a k o valor 4. Se atribuir o valor 3, a massa seria 900 vezes a do Sol. Um valor razoável para k seria cerca de 3,5, em cujo caso a massa seria 350 vezes a do Sol. Nessa conjuntura, o brilho aparente combinado à intensificação desse brilho provocado pela caustica determinaria a massa conforme a tabela abaixo:

EARENDEL.png

 

Quanto maior a intensificação provocada pela lente, menor seria a massa necessária para produzir o brilho aparente detectado. A massa estimada estava assumindo uma ampliação da lente em torno de 300 vezes. Mas a incerteza nesse valor é muito grande, podendo chegar a milhares de vezes, e para objetos muito distantes, uma pequena deflexão na luz pode produzir um gigantesco aumento na intensidade do brilho. Por isso uma lente gravitacional pode chegar a aumentar milhões de vezes a intensidade luminosa de um objeto, desde que seu posicionamento em relação às massas que estão provocando a distorção seja muito específico. E parece ser exatamente esse o caso.

 

Sem conhecer a distribuição de intensidades das diferentes lentes registradas, não há elementos suficientes para uma estimativa mais acurada, inclusive porque a ampliação da intensidade do brilho não é provocada pela lente em si, mas pelo alinhamento do objeto com determinada região da lente, porque a lente gravitacional não é uma cáustica cuidadosamente polida e com curvatura planejada para nos proporcionar um efeito óptico específico. Ela é fruto do acaso, que por “sorte” promoveu uma curvatura no espaço-tempo em determinada região, uma curvatura cheia de irregularidades, mas que em áreas muito específicos produz alguns efeitos “desejáveis” como esse. Então não é algo que se possa calcular teoricamente com base em algum modelo simples, mas sim algo que precisa de dados empíricos a partir dos quais se pode verificar a frequência com ocorrem diferentes níveis de intensificação da luz.

 

Também é importante lembrar que os objetos no universo estão se movendo uns em relação aos outros, por isso o alinhamento extremamente preciso que está se formando atualmente entre essa estrela, a cáustica e a Terra está mudando, e como resultado o brilho da estrela que chega até nós deve variar conforme a posição relativa da lente vai mudando. Isso dificulta a distinção de uma estrela para uma nova ou supernova, porque dependendo das propriedades da lente e do alinhamento dos objetos, conforme a luz da nova ou supernova aumenta, pode estar ocorrendo uma redução devido à lente, resultando numa aproximada compensação sob o ponto de vista do observador, que perceberia como se o brilho quase não mudasse. Claro que isso exigiria uma configuração muito específica, portanto muito improvável. Mas entre bilhões de objetos astronômicos catalogados, não é tão surpreendente que um desses objetos se encontre numa situação que produza tal efeito. Por isso ainda não se pode descartar a possibilidade de que seja simplesmente uma nova ou supernova, ou algum outro transiente mais lento. Se for o caso, em algum momento o brilho deverá começar a reduzir persistentemente até desaparecer. Mesmo que não seja esse o caso, o brilho também deverá começar a diminuir conforme a colimação do sistema óptico for degringolando, mas será um processo mais lento e com uma curva de luz diferente das curvas típicas de novas e supernovas. Inclusive é provável que a lente apresente irregularidades que façam o brilho aumentar e diminuir durante esse processo, com oscilações que podem durar alguns meses ou dias, enquanto a evolução da curva de luz de uma nova ou supernova só aumenta uma vez e depois só diminui (exceto se houver outro transiente próximo).

 

Por isso uma estimativa entre 7 e 30 massas solares parece ser mais realista para essa estrela do que 50 a 100 massas solares. Talvez entre 3 e 45 massas solares seja um intervalo mais seguro para a estimativa.

Estava relendo sobre algumas revisões antigas que fiz em artigos da NASA e ESA, para conferir se estudos posteriores haviam corroborado minhas revisões. Há alguns anos, já havia constatado que um método que propus em 2003, tornou-se padrão alguns anos depois, e hoje notei que meu artigo de 2008 sobre o CoRoT Exo-3b foi corroborado em 2018.

Na época que o CoRoT Exo-3b foi descoberto, em fevereiro de 2008, eu havia escrito um artigo mostrando que a densidade (26,4 g/cm³) deveria ser muito menor, perto de 14,8 g/cm³, e numa revisão posterior, em janeiro de 2010, usando uma amostra maior de exoplanetas para estimar a distribuição de densidades, cheguei a 9,1 g/cm³, que deve ser o mais próximo do correto. Meu artigo está em

https://web.archive.org/web/20100202103724/http://www.sigmasociety.com/Corot-Exo-3b.pdf

Estava vendo agora que em 2018, estudos com base nos dados do GAIA DR2, revisaram o cálculo da densidade do CoRoT Exo-3b de 26,4 para 17,3 g/cm³, chegando mais perto de meu resultado de 2008: https://arxiv.org/abs/1808.04533 e provavelmente em mais alguns anos devem chegar perto do resultado que publiquei em 2010...

 

Acho que há muito mais fatores publicitários do que científicos nesses estudos. A pessoa sabe que se divulgar os resultados corretos, a probabilidade de ser aceito para publicação é baixa, pq não é impactante. Então empurram os dados para algum lado, maquiam a incerteza verdadeira etc. E na maioria das vezes não se faz nenhuma revisão, o artigo é apenas citado, sem que ninguém confira se aquilo está pelo menos razoavelmente perto da realidade. Acho meio assustador isso. Acho que os dados com indício de fraude do NHANES seja o mais assustador que vi até agora. No caso da massa da estrela Earendel, vamos ver quantos anos leva até ser revisado...

 

 

----------------------------

(*) Várias notícias mencionam a distância de 12,9 bilhões de anos-luz, mas na verdade o que esse número significa é o tempo que levou para que a luz emitida pela estrela tenha chegado aos sensores do Hubble. Isso não é a mesma coisa que a distância da estrela, porque como o Universo está se expandindo, a distância é muito maior. O termo que se utiliza em Cosmologia é “distância comóvel” para indicar a distância correta, e o termo “tempo de viagem da luz” para se referir ao intervalo de 12,9 bilhões de anos.

 

(**) Quando Einstein realizou seus primeiros cálculos sobre o ângulo de deflexão da luz ao passar pelas imediações do Sol, em 1911, encontrou o valor 0,83”, enquanto o valor previsto em 1801 por Johann Georg von Söldner, com base na Gravitação Newtoniana, era 0,84”. Há divergências sobre se Einstein conhecia os trabalhos de Söldner, inclusive Einstein foi acusado de plágio por não ter citado Söldner em suas estimativas de 1911, especialmente devido à elevada similaridade entre os resultados, encontrados por métodos muito diferentes. Quando Einstein refez seus cálculos em 1916, chegou ao valor 1,74”, que foi consistente com os resultados medidos em Princípio (1,61”) e com um dos instrumentos usados em Sobral (1,98”), mas os resultados obtidos com outro instrumento de Sobral (0,93”) foram favoráveis a Newton. Uma análise mais completa desse episódio pode ser encontrada em meu artigo sobre o eclipse de 1919.

 

Essa é uma história que me entristece profundamente, porque Söldner era um autodidata, que não recebeu educação formal, assim como eu, e fez uma das descobertas mais importantes da história, 100 anos antes de Einstein, descoberta que projetou Einstein mundialmente. Söldner também foi o primeiro a determinar o valor da constante de Ramanujan-Söldner (1,451369...), várias décadas antes do nascimento de Ramanujan.

 

A polêmica sobre se Einstein teria conhecimento dos trabalhos de Söldner quando publicou suas primeiras estimativas, embora seja um caso complexo, parece ter como entendimento pacificado que talvez Einstein soubesse, mas independentemente de ele saber disso, os resultados de Söldner foram um “tiro de sorte”, enquanto os trabalhos de Einstein representaram uma verdadeira revolução na Física. Isso é verdade, Söldner fez apenas um cálculo ingênuo de uma situação hipotética elementar: se partículas se movendo a 300.000 km/s passassem pelas proximidades de um campo gravitacional com aceleração de 274 m/s^2, qual seria o ângulo de deflexão dessas partículas? Ele não considerou, nem de longe, todas as implicações filosóficas e científicas que isso poderia ter, mesmo porque, antes dos experimentos de Michelson e Morley, antes das equações de Maxwell e de Lorentz, não havia como interpretar esse fenômeno da maneira como Einstein interpretou. Seria como a “estrela negra” de Laplace e Mitchell, que foram antecipações do conceito posterior de buraco negro, mas ambos consideravam apenas uma situação ingênua na qual a luz não “conseguia” escapar de um objeto cuja massa e o raio atendessem a determinados critérios. Schwarzschild foi o primeiro a fazer uma interpretação adequada das peculiaridades que teria um objeto com essas características, e mesmo que Schwarzschild conhecesse os trabalhos de Mitchell e Laplace sobre esse assunto, não faria sentido acusar Schwarzschild de plágio. Por isso a acusação de plágio contra Einstein não procede. Por outro lado, se Einstein realmente tinha conhecimento desse trabalho de Söldner, teria sido elegante por parte de Einstein se tivesse citado Söldner, isso não teria reduzido os méritos de Einstein e teria conferido a Söldner os méritos que lhe cabiam.

 

“Futuristas” como Demócrito, Aristarco, Anaximandro, Leonardo Da Vinci e até mesmo Julio Verne e Icaac Asimov, são reconhecidos por se antecipar, ainda que de maneira muito vaga, a descobertas posteriores. No caso de Söldner, não foram previsões vagas. Ele calculou concretamente o desvio em 1801, chegando ao resultado de 0,84”, e o próprio Einstein chegou basicamente ao mesmo resultado em 1911, portanto os méritos de Söldner nesse caso foram maiores que o de Demócrito em relação ao átomo, e comparáveis aos méritos de Aristarco em relação ao Heliocentrismo, ou até maiores, porque a teoria heliocêntrica de Aristarco entrava em forte conflito com a Física Aristotélica, que era o paradigma vigente, enquanto a teoria corpuscular da luz era muito mais plausível na época em que Söldner sugeriu a deflexão da luz nas imediações de um campo gravitacional intenso. Portanto, ainda que os méritos de Söldner não sejam comparáveis aos de Einstein, foram suficientemente notáveis para que ele merecesse no mínimo um reconhecimento comparável ao de Aristarco.

 

Ok. Mas o que esse episódio envolvendo Söldner e Einstein tem a ver com essa estimativa de massa da estrela Earendel? O fato é que se Einstein conhecia o texto de Söldner no qual ele havia calculado que o desvio seria de 0,84”, e se Einstein acreditava que o desvio correto deveria ser menor, então, considerando que em 1911 ainda não havia solução analítica para essas equações, o melhor que Einstein podia fazer era uma estimativa, e essa estimativa pode ter sido fortemente influenciada pelos resultados anteriores de Söldner. Suponhamos um programa de TV com determinado número de feijões dentro de uma colher, e duas pessoas precisam tentar acertar qual é o número. A primeira pessoa estima em 84 feijões. A segunda pessoa não precisa acertar o valor exato. Precisa apenas chegar mais perto que a primeira. Por isso ela só precisa estimar se considera que o correto é mais que 84 ou menos que 84. Se ela achar que é 45, não faz sentido ela responder 45, porque nesse caso ela só venceria se o valor correto fosse 64 ou menos. Se ela acha que é 45, então o número mais inteligente a ser “chutado” é 83, porque nesse caso ela ganharia para qualquer valor menor que 84. Foi basicamente isso que Einstein fez. Até 1919, a grande maioria dos cientistas não pensava que a luz sofreria essa deflexão, mas se houvesse de fato, e esse desvio fosse menor que o previsto por Söldner, então o melhor palpite que Einstein poderia seria 0,83”, pois assim qualquer valor abaixo de 0,84” estaria mais próximo da previsão dele do que da previsão baseada na Gravitação Newtoniana. Como Einstein não havia ainda encontrado um valor acurado e preciso para esse desvio, um pensamento natural de Einstein poderia ser:

 

‘’’Se o desvio fosse grande, já teria sido medido, pois os instrumentos atuais (~1910) já permitem medir paralaxes menores que 0,5”, então é mais provável que esse desvio seja menor do que 0,84” do que maior.‘’’

 

Embora essa seja apenas especulação sobre o que Einstein pode ter pensado, é uma especulação bastante plausível. Fazendo engenharia reversa, sabendo que Einstein “chutou” 0,83”, e sabendo que esse seria o melhor valor que ele chutaria se ele conhecesse o valor 0,84” de Söldner, esses detalhes parecem se encaixar bem.