top of page
Image by NASA

 Sobre a diferença entre massa teórica e a experimental (CDF II) para o bóson W 

 

Há alguns meses, recebi convite no Facebook de Sabine Hossenfelder, o qual aceitei com muito prazer. Eventualmente leio as interessantes publicações que ela posta em seu perfil. Hoje ela postou um vídeo sobre a massa do bóson W, e rapidamente recebeu uma interessante e detalhada resposta de Chip Brock.

 

Sabine é uma respeitada professora de Física com três pós-doutorados e uma famosa youtuber, que produz conteúdos para um dos principais canais de divulgação científica, com mais de 450.000 inscritos. Chip é um Distinguished Professor pela universidade de Michigan, já trabalhou no CERN e no Fermilab, portanto com vasta experiência nesse tipo específico de investigação.

 

Creio que o artigo ao qual eles se referem seja este: https://arxiv.org/pdf/2204.03796.pdf

 

Esse artigo também proporciona uma boa visão panorâmica sobre o caso: https://indico.cern.ch/event/570151/contributions/2533535/attachments/1452869/2240967/SMLHC_Wmass_030517.pdf

 

Uma versão mais popular do artigo: https://www.nature.com/articles/d41586-022-01014-5

 

O vídeo da Sabine é este: https://www.youtube.com/watch?v=96VECuUXbEs

 

E as postagens da Sabine com resposta de Chip estão em: https://www.facebook.com/sabine.hossenfelder

 

Copiarei as postagens dela e dele, antes de fazer meus comentários:

 

Sabine:

"You have probably seen the headlines, that something weird is going on with a particle called a W-boson. And supersymmetry is once again the alleged explanation. How seriously should you take this? In this video I sort it out for you."

​

Chip:

"A long reaction.

​

This is not a transitory 3 sigma bump.

 

The vast majority of particle physicists do their best to search for behavior in data that are not expected - these are the experimentalists. We publish and we almost never draw speculative conclusions. That experimental community vastly outnumbers the fraction of the theory community that then speculates about such data.

 

The other part of the theory community is working with experimentalists to help us model and to evaluate dominating theoretical systematic uncertainties which we must attach to our measurement reports. That speculative group are the folks that you have trouble with, and I wish you’d make a distinction between them and the rest of us who just wrestle with data. Which is hard work.

 

Now, about this measurement. The W mass determination is the most challenging measurement that any collider experiment will make. It requires exquisite precision in understanding how the energies and momenta are measured of the particles and clusters in each candidate W event. It’s like determining the mass of a 2000 pound car to the precision of a 3 ounce screw. There has been tension for a decade in the comparison of the direct measurement of the W mass and the top quark mass…and the prediction of that correlation from the SM. Always a little bit high, that W mass. The top seems to be in agreement.

 

Everyone is mesmerized by the 7 sigma difference from the SM prediction. I think the focus should be on the sort of 3 sigma difference with the other direct W mass measurements. As you point out, they’re all sorta leaning high. But not definitively so…yet.

 

There are essentially 6 different ways to measure the W mass, as you know. They are correlated. Some emphasize the determination of the pt of the outgoing charged lepton, which minimizes direct measurement of the hadronic deposition. The transverse mass technique relies on both the hadronic and the leptonic measurements. The electrons’ energies can be measured two ways, using the calorimeter energy deposition or using the momentum as determined by the tracker in the magnetic field. So a direct cross-check for electrons. Finally, there is the measurement of the missing energy pt, pretty much solely a hadronic measurement. So: essentially 3 ways that use muons in the final state and 3 ways using electrons in the final state.

Knowledge of the accuracy and precision of these measurements comes from measuring the Z boson mass using electron pairs and muon pairs and various strategies to model and compare the hadronic recoils. There are standard techniques for this.

 

What CDF did was to separately blind both the electron and muon analyses, for both the Z measurements and the W measurements. That is, they forced their data to use parameters that were fake, then they did their entire analysis without a bias that might creep in and tell them that they’re close or far from other experiments’ results. Only after they had completed both “faked” analyses, were the true parameters then inserted and the true final results were revealed. It must have been a tense moment.

 

What impresses me greatly about this measurement is that once unblinded: the Z masses from electrons and muons are independently bang-on what the world’s electron-position results demand with precisions as predicted. And, for all of those different ways of measuring the W mass itself? All agree very well with one another. This is an heroic effort over many, many years. I've competed with these folks for decades, and I have huge respect for what they've done.

 

When it comparing to a Standard Model expectation, measuring a fixed parameter like a mass or a branching fraction or a cross section is not the same kind of measurement as setting a limit on an hypothesized new physics object.

 

So, "going away” is not really the thing here. This is not a bump that more statistics will resolve or enhance. This is a very difficult measurement of a single number that needs more confirmation from ATLAS and CMS. Note it’s so hard - and a pp collider is different from a pbarp collider and LHC backgrounds are tough - that it took ATLAS a long time to come up with our first result and CMS has yet to publish their result underscores that difficulty.

 

You know that there were two experiments at the Tevatron, CDF and DZero. I led the first W mass measurement at DZero, and then we published another high statistics one before CDF, but there won’t be another one to compare with CDF’s full data set. We made many final measurements in DZero using our detector with the same data collection that CDF used in their W mass result, but our inner tracker was radiation damaged in that last run, not enough to harm many results, but enough to make this particular measurement of W mass not possible. That’s how hard this is."

​

Sabine:

"I don't have strong opinions about the W mass (or any other current anomaly for that matter), we'll see how things develop. But as I've told you before, the "speculative group", as you call them, is your problem to sort out. Like that or not, they're the most visible part of your community. I've also told you before that this is a bigger problem than you acknowledge, though I understand that you don't agree with that."

​

Chip:

"Sabine Hossenfelder Hi. No, I really don't agree with that. There are a 1000 US physicists at the LHC working very hard for years to build the detectors and make measurements using them. Disparaging the whole field includes these dedicated folks and I just don't agree with that characterization and I wish you'd be more specific in your criticisms. We might even agree about some of this."

​

Sabine:

"Your "dedicated folks" are turning a blind eye on what's basically organized pseudoscience. In my eyes, that makes you as guilty as them. I can totally see why you'd want me to be more "specific" about my criticism. But maybe you can see that I have no reason to."

​

Minha opinião:

 

Eu gostaria de opinar sobre esse assunto, mas antes eu gostaria de falar um pouco sobre a velha rivalidade entre teóricos e experimentalistas. Eu já tive um preconceito muito forte contra experimentalistas e eu só comecei a perceber o valor do trabalho que eles desenvolvem quando eu mesmo tive que planejar e executar experimentos adequados para extrair dados úteis com o propósito de investigar as hipóteses que eu gostaria de testar [*]. Quando tive que lidar com esse tipo de problema, percebi que essa tarefa está muito longe de ser operacional, diferentemente como eu pensava. É um trabalho intelectual complexo, profundo e requer muita criatividade e engenhosidade. Quando a pessoa faz uma crítica leviana e generalizada (como eu fazia) ao trabalho dos físicos experimentais é porque essa pessoa não sabe e não compreende o que eles realmente fazem, e nunca esteve diretamente envolvida em assuntos verdadeiramente difíceis e complexos relacionados à experimentação. Quando a pessoa conhece mais de perto desses problemas, ela naturalmente revisa sua opinião.

 

Eu, particularmente, prefiro o trabalho teórico, gosto da modelagem matemática para reduzir o gigantesco volume de dados experimentais a um pequeno número de parâmetros capazes de explicar todos aqueles dados e ainda generalizar a situação para uma grande variedade de casos diferentes das situações particulares dos experimentos realizados, e gosto principalmente de tentar oferecer uma explicação conceitual aos resultados empíricos, acho isso fascinante e estimulante, mas também tenho profundo respeito pelos trabalhos realizados pelos experimentalistas mais sérios e competentes. Claro que há trabalhos ruins de experimentalista e de teóricos, mas geralmente o trabalho teórico ruim não chega a ser publicado – e se eventualmente chegar a ser publicado, é rapidamente identificado como “devaneio” e não ganha muitos leitores nem citações –, enquanto os trabalhos experimentais, mesmo quando são ruins, acabam sendo publicados e amplamente consultados. Essa seleção enviesada dos melhores trabalhos experimentais, que não é tão rigorosa quanto a dos trabalhos teóricos, pode causar a falsa impressão de que o trabalho médio do físico experimental seja pior que o trabalho médio do físico teórico, mas isso se deve a esse viés de publicação.

 

Outro detalhe é que a parte intelectual do trabalho realizado pelo físico experimental geralmente não é descrito com suficientes detalhes nos artigos, por isso não deixa transparecer as dificuldades envolvidas, as ideias que foram necessárias para resolver pormenores técnicos, os numerosos testes para tentar identificar problemas que estavam causando algum ruído e não se identificava a fonte, as numerosas otimizações para tentar maximizar a acurácia e a precisão nos resultados, maximizar a relação sinal/ruído etc. Tudo isso fica oculto nos “bastidores”, enquanto o artigo expõe apenas os dados que foram coletados, fazendo parecer uma mera tarefa de registro e tabulação, acompanhada de algumas interpretações básicas, um relatório resumido da parte bem-sucedido do experimento, mas não chegam a ser mencionadas as centenas ou milhares de tentativas que falharam e tiveram que ser corrigidas, nem as soluções engenhosas ao longo desse processo. Eu achava que tudo isso era apenas mais trabalhoso, mas não achava que fosse igualmente difícil e complexo se comparado à tarefa de interpretar os dados resultantes, por isso acredito que muitos físicos teóricos também subestimem o trabalho realizado pelos experimentalistas. Para compreender a real dificuldade do que fazem, é necessário “meter a mão na massa” e fazer a coisa acontecer, para sentir quais são os problemas que precisam ser resolvidos durante a produção e a coleta de dados, além do desenho experimental, o planejamento de numerosos detalhes que precisam filtrar muitas fontes de ruídos, já pensando nos métodos estatísticos para a filtragem complementar posterior dos ruídos. Isso tudo requer uma profunda compreensão sobre como o mundo funciona, sobre como todas as “leis” físicas se harmonizam, como evitar inconsistências entre Relatividade de MQ, isso está longe de ser trivial, e quanto maior o nível de acurácia e precisão que se deseja alcançar, maior é o número de fatores que podem provocar ruídos relevantes. Antes de Michelson e Morley fazerem seus primeiros experimentos, não se imaginava que uma carruagem passando a algumas dezenas de metros poderia interferir nos resultados. Esse tipo de fonte de erro é muito difícil de prever e algumas vezes é difícil de identificar, medir e filtrar. Por isso a realização de um esmerado trabalho experimental pode envolver tanto ou mais brilho do que os mais importantes trabalhos teóricos. Newton, por exemplo, embora tenha se notabilizado mais como teórico, ele próprio conduzia seus experimentos (pelo menos enquanto era jovem).

 

Por esses motivos, em minha opinião, o ideal seria que houvesse uma relação mais harmoniosa e de respeito mútuo entre teóricos e experimentalistas, tal como havia entre Faraday e Maxwell, por exemplo. Creio que todos teriam muito a ganhar com isso.

 

Em relação ao vídeo da Sabine e os comentários de Chip: o gráfico apresentado por Sabine em 2:15 é muito esclarecedor.

 

boson.png

 

Se eu não tivesse visto um número razoável de artigos científicos com subestimativas dos erros de medida, e tivesse apenas conhecimento teórico sobre Estatística, eu discordaria dela, porque o peso relativo de cada grupo de experimentos deve ser inversamente proporcional à incerteza, bem como a tolerância ao erro é proporcional à incerteza, portanto o fato de haver outros pontos distantes do valor teórico, inclusive mais distantes do que esse, não podem ser interpretados como tendo peso tão grande quanto esse resultado, cuja incerteza é muito menor.

 

O problema é que a fração de artigos científicos com esse tipo de erro é muito grande, estimo em mais de 95%, porque os experimentadores querem que as incertezas sejam menores do que realmente são, e isso também ajuda na aceitação para publicação. Mas conforme as décadas e séculos se passam e o nível de acurácia dos instrumentos evolui, descobre-se que havia subestimativa nos erros dos experimentos mais antigos. Analogamente, é provável que nas próximas décadas se descubra subestimativas nos erros dos experimentos atuais. Um exemplo grave disso é citado em meu artigo sobre a densidade de CoRoT-Exo 3b, de 2008, que postei novamente há poucos dias, justamente enfatizando esse tipo de erro. Nesse caso, havia vários outros problemas envolvendo subestimativa de erros, inclusive uma citação de incerteza percentual no diâmetro do planeta menor do que a incerteza na distância, mas a incerteza na distância é uma das componentes da incerteza no diâmetro. Erro grave e primário, além de vários outros erros que discuti em meu artigo.

 

Por outro lado, conforme destacou Chip, esse não é um experimento “caseiro” realizado por um professor inexperiente acompanhado de meia dúzia de novatos que se limitam a engolir o que o professor diz. É um trabalho conjunto que envolve milhares de pesquisadores competentes. Naturalmente não estão imunes a erros, e há vários casos de equipes igualmente numerosas e competentes que deixam passar despercebidos erros relativamente básicos. A curvatura da superfície da placa corretora [**] do HST é um exemplo dramático, em que milhares de pessoas altamente capacitadas deixaram passar um erro primário que teve custo altíssimo, mas felizmente conseguiram “remendar” bem; entretanto, poderia ter sido um completo desastre.

 

Por isso o argumento de Chip sobre milhares de pesquisadores capacitados terem trabalhado nisso não pode ser encarado como uma simples falácia de autoridade ou ad populum, porque se houver N membros numa equipe, supondo todos igualmente competentes, e se cada membro da equipe tiver probabilidade p de deixar escapar um erro desse tipo, então a probabilidade de que nenhum membro perceba o erro é p^N, portanto o risco se torna realmente menor se houver muitos membros competentes na equipe. O argumento está qualitativamente correto, mas há alguns detalhes quantitativos que precisam ser analisados: embora haja milhares membros, quase todos eles pensam de forma muito redundante. Num grupo de matemáticos com 1000 ergodicistas, talvez a capacidade de detecção de erros seja menor do que num grupo que tenha 1 topologista e 1 ergodicista, porque nesse segundo caso a redundância de conhecimento seria muito menor e a abrangência total de conhecimento multidisciplinar poderia ser maior. Então, na verdade, num grupo com N colaboradores a probabilidade de deixarem passar algum erro não cai de p para p^N, talvez nem sequer caia para p^2. A probabilidade de passar algum erro diminui, se houver muitas pessoas atentas a isso, mas não diminui na mesma proporção do número de pessoas que estejam monitorando e filtrando erros. Longe disso. Se houver apenas 1 ou 2 pessoas filtrando, a probabilidade de passar algum erro pode ser similar à de ter milhares de pessoas fazendo essa filtragem. Isso se verifica repetidas vezes ao longo da história. A Física Aristotélica, por exemplo, poderia ter sido testada pelo próprio Aristóteles, mas precisou esperar por 1500 anos para que Buridano deixasse de repetir a mesma ladainha que todos os outros e testasse, para descobrir que corpos com massa diferentes não caíam a velocidades tão diferentes, e Galileu fez um estudo mais completo e sistemático sobre isso, mostrando que havia muitos erros que milhões de pessoas vinham repetindo por quase 20 séculos, erros muito simples, que seriam facilmente descobertos.

 

Por isso ter milhares de pesquisadores na equipe ajuda realmente a evitar erros, em comparação a um trabalho realizado por apenas 1 pessoa, mas a diferença na qualidade da filtragem não cresce na mesma proporção do número de pesquisadores que integram a equipe. Longe disso, talvez num grupo com milhares de pesquisadores, a filtragem seja só um pouco melhor do que se houvesse apenas o melhor da equipe trabalhando sozinho. Isso também é verificado empiricamente, no famoso confronto “Kasparov x resto do mundo” de 1999, no qual Kasparov sozinho jogou Xadrez com 250.000 oponentes e venceu. Há vários detalhes que precisariam ser analisados com mais detalhes sobre esse confronto do Kasparov, e quem tiver interesse pode encontrar meus artigos sobre isso. Aqui não desviarei mais do foco.

 

Eu gostaria de comentar mais alguns dos argumentos utilizados pela Sabine e pelo Chip:

 

Entre 3:24 e 3:30 do vídeo, Sabine faz um comentário que talvez algumas pessoas interpretem como provocativo. Eu não sei se a intenção dela foi essa, mas eu já fiz comentários semelhantes muitas vezes, sem qualquer intenção de provocar nem ofender, e me desagrada quando alguém interpreta meus comentários impessoais como se tivessem alguma motivação pessoal.

 

Minha interpretação sobre o comentário dela é que sua intenção foi dizer que muito do que se acredita saber, na verdade não se conhece de fato. Tem-se modelos úteis, mas que não são necessariamente boas representações estruturais para a realidade subjacente, e raramente nos damos conta das diferenças entre os dados coletados e as entidades que esses dados tentam representar, as propriedades dessas entidades e os fenômenos dos quais elas participam. Por isso eu não acho que ela fez o comentário com a intenção de ofender ou provocar os físicos experimentais. Portanto, não vi problema nesse comentário.

 

Em seguida, ela sugere que a diferença entre a massa experimental e a teórica pode ser uma simples subestimativa do erro. Creio que esse ponto tenha dado início à discussão, porque de um lado Chip sabe o volume de trabalho e o nível de rigor com que o trabalho é realizado para evitar esse tipo de erro, e talvez ele se sinta ofendido com esse comentário. Por outro lado, analisando objetivamente a frequência que esse tipo de erro é observado, não se pode fechar os olhos para essa possibilidade como sendo bastante plausível. Devo dizer que concordo com a Sabine sobre essa interpretação, e subestimativa de erro também seria meu primeiro “palpite”. Não digo isso por subestimar o conhecimento e a competência do pessoal envolvido no estudo. Ao contrário, desde 2000, sempre que me pedem recomendações para estudar ou pesquisar sobre Estatística, eu recomendo o handbook do NIST como principal fonte. Os protocolos seguidos pelos pesquisadores da NASA, MIT, CERN, Fermilab etc. são basicamente os recomendados pelo NIST. Portanto reconheço a excelência e a seriedade nesse trabalho, mas mesmo com todo esse esforço e todos esses cuidados, continuam ocorrendo subestimativas nos erros, e isso se pode conferir em grande número de artigos.

 

Claro que há possibilidade de uma descoberta extraordinária por trás dessa diferença, que conduza a uma reformulação substancial no modelo padrão, mas esse resultado ainda é um indício muito frágil para que se faça grandes alardes. E entre as explicações, quase todas as vezes que surgem situações desse tipo, eu aposto em erro de medida ou erro estatístico.

 

Em relação ao problema em si, e algumas possíveis explicações, há vários detalhes que eu gostaria de comentar, mas tentarei focar nos que me parecem mais importantes:

 

  1. A hipótese de normalidade ser aceita para o intervalo entre -2,5σ e +2,5σ não diz quase nada sobre a forma da distribuição no intervalo entre -7σ e +7σ. Uma ou ambas as caudas podem ser extremamente densas fora do intervalo de -2σ e +2σ ou -3σ e +3σ, de modo que uma ocorrência 7σ distante da média pode ser milhões ou bilhões de vezes mais comum do que seria esperado se a distribuição fosse aderente a uma gaussiana em todo seu espectro. Isso torna a probabilidade real de que a diferença chegue a 7σ muito maior.

  2. Não é apropriado medir a distância dos resultados experimentais à faixa de valores do modelo, tratando o valor do modelo como se tivesse erro comparativamente desprezível, porque em última instância o modelo também foi construído a partir de valores experimentais e também apresenta determinada incerteza. Esse detalhe também torna a probabilidade de que a diferença chegue a 7σ muito maior.

  3. Um problema semelhante ao item 2, porém mais sutil, é que pode haver partículas ainda não conhecidas com massa só um pouco maior que a massa do bóson W, mas pode não haver uma partícula equivalente com massa só um pouco menor. Como resultado, a partícula com massa um pouco maior produziria alguns falsos positivos que seriam interpretados como assinaturas do W e empurrariam o valor experimental um pouco para cima, sem que houvesse um correspondente simétrico para baixo. Esse tipo de anomalia poderia ser detectada por meio de estudos detalhados da distribuição dos dados brutos, comparando modelos com 1 tendência central e modelos com 2 ou 3 tendências centrais sobrepostas.

  4. Seria interessante fazer uma análise de clusters e/ou análise fatorial hierárquica para investigar se os erros medidos nesse experimento em comparação às medições de experimentos anteriores aconteceram predominantemente em horários específicos, ou épocas do ano específicas, ou condições climáticas específicas etc. Seria importante investigar se alguma variável está associada a essa diferença, de modo que alguma fonte externa de ruídos esteja contaminando sistematicamente os resultados, ou pelo menos possa fornecer pistas úteis que ajudem a descobrir pelo menos algumas partes do problema. Nesse tipo de situação não se pode ter preconceitos e não se pode filtrar hipóteses “bizarras” antes de testá-las estatisticamente. Quando Ignaz Semmelweis descobriu que lavar as mãos antes de auxiliar mulheres no parto reduzia em 80% a taxa de mortalidade dessas mulheres, ele não compreendia os processos biológicos responsáveis por esse efeito, ninguém na época compreendia, mas os fatos estatísticos eram evidentes. Então ele sugeriu corretamente que se adotasse o procedimento com base na evidência experimental e depois se tentasse explicar porque aquilo acontecia. O mesmo acontece nesse caso. Se houver alguma evidência de que as medidas às 12h são sistematicamente maiores do que às 00h ou às 18h e 6h, mesmo que não se saiba explicar o motivo, isso pode ser uma boa pista inicial, e nesse estágio é importante reunir o máximo de pistas úteis.

  5. Se as medidas recentes publicadas em 7/4/22 são de fato tão acuradas quanto alegado, ou perto disso, então elas devem puxar o valor da linha cinza do modelo teórico um pouco para cima, de modo que as probabilidades se equilibrem. Sob uma perspectiva Bayesiana, esse é o procedimento a ser seguido, e numa situação como essa não há alternativa a não ser utilizado métodos bayesianos, porque há muitas probabilidades combinadas que precisam ser consideradas. Se negligenciar algumas delas, o resultado final seria ingênuo e distorcido.

  6. Chip mencionou um detalhe importante no processo de coleta de dados: “What CDF did was to separately blind both the electron and muon analyses, for both the Z measurements and the W measurements. That is, they forced their data to use parameters that were fake, then they did their entire analysis without a bias that might creep in and tell them that they’re close or far from other experiments’ results.” Isso também contribui para explicar a grande diferença observada.

 

Outro ponto que eu gostaria de comentar é sobre o uso do termo “especulação”. Parece-me que Sabine não achou esse termo apropriado, no entanto não achei que Chip utilizou esse termo com a finalidade de ofender. Aliás, achei o termo apropriado no contexto, porque antes de se estabelecer uma teoria bem consolidada e amplamente corroborada, são propostas muitas e muitas especulações, que passam por uma seleção natural até que as melhores sobrevivam. Então o trabalho do físico teórico é majoritariamente especulativo, com alguns raros sucessos. Digo isso com dor no coração, porque conforme já comentei, tenho leve preferência pelo trabalho teórico, mas isso não me impede de reconhecer os fatos tais como são. No Mercado Financeiro também tentamos (os melhores analistas quantitativos) fazer Ciência, mas na maioria parte do tempo o que se faz é especulação.

​

*
**

Em relação à crítica de que a Supersimetria seja uma panaceia, não é bem assim. Por analogia, os epiciclos eram realmente uma panaceia que não precisavam respeitar nenhum parâmetro, nem havia uma quantidade limitada do número de epiciclos que poderiam ser utilizados, o que fazia deles praticamente o equivalente a regressões polinomiais que funcionam para qualquer tipo de interpolação, mas não servem para extrapolações nem para generalizações. No caso da SM é diferente, há uma série de restrições a serem respeitadas, o que torna o “ajuste” baseado em SM comparativamente mais legítimo e com um fundo conceitual mais respeitável.

 

De maneira geral, eu concordo com praticamente todos os pontos defendidos por Sabine, ela se posiciona firmemente contra a publicidade barata, o sensacionalismo na Ciência e a “industrialização” na produção em série de papers medíocres. Concordo com todos esses pontos, mas esses não são problemas exclusivos da Física de Partículas. Eu até diria que esse campo está entre os menos degenerados. A grande maioria das outras áreas se encontra em situação muito mais calamitosa. Uma exceção talvez seja a Matemática, creio que nessa área a produção mantenha um padrão elevado de seriedade, por isso (entre outros motivos) é que raramente se vê alguma notícia em revistas não-especializadas tratando de Matemática. Nas hard sciences, em geral, a situação não é boa, mas é menos trágica do que fora das hard sciences. Na Física de Partículas, não vejo muita diferença em comparação a outros ramos da Física, em termos de qualidade do que está sendo produzido.

​

[* Fiz isso em Investimentos, não em Física de Partículas, mas as ferramentas estatísticas são semelhantes e muitas vezes são as mesmas, além disso a metodologia utilizada é essencialmente a mesma.]

 

[** A “placa corretora” no design Ritchey–Chrétien, assim como no Schmidt-Cassegrain, equivale ao “espelho primário” do Newtoniano ou ao “Menisco” do Maksutov-Cassegrain, ou seja, é o elemento óptico principal].

​

bottom of page