top of page
Image by Moritz Kindler

Entrevista com Melão para o jornal canadense In-Sight Journal

No dia 8/6/2022, foi publicada a primeira parte de uma entrevista comigo no jornal canadense In-Sight Journal, um dos mais importantes periódicos das sociedades de alto QI. O convite partiu do amigo Tor Arne Jørgensen, da Noruega, eleito em 2019 “Genius of the Year” no segmento do continente europeu.

Essa é uma de minhas entrevistas mais completas e agradáveis, abordando muito temas interessantes, inclusive Educação e Ciência no Brasil, uso inadequado da Ciência por eugenistas e neonazistas, Psicometria, Ciência Cognitiva, utilidade e limitações dos testes de QI, Inteligência Artificial, polêmicas sobre os critérios para homologação do prêmio Nobel e de outros prêmios, críticas à maneira superficial como a sociedade encara as titulações e os certificados, Filosofia, Religião, o futuro em relação à colonização de outros planetas, integração/rivalidade entre humanos e máquinas e muito mais.

A versão em inglês está em:

Parte 1: https://in-sightpublishing.com/2022/06/08/melao-1/

Parte 2: https://in-sightpublishing.com/2022/06/15/melao-jorgensen-1/

Ao longo da entrevista, também tivemos algumas conversas paralelas, em que o editor chefe de In-Sight Journal, Scott Jacobsen, me fez um honroso convite para representar a América Latina no "Intercontinental High-I.Q. Forum" com alguns dos membros mais proeminentes de sociedades de alto QI. Os outros 5 participantes são: 
 

  • Europa: Tor Arne Jørgensen, QI acima de 200 (σ=16), Genius of the year 2019

  • América do Norte: Rick Rosner, QI acima de 196 em 9 testes, Genius of the year 2013

  • Ásia: Tianxi Yu, QI acima de 200 em diferentes testes

  • África: David Udbjørg, QI acima de 165, fundador de CAILI e High IQ Society for Humanity (em aberto)

  • Oceania: Tim Roberts, com QI acima de 185, responsável pelo site “Unsolved Problems

Entrevista para Scott Douglas Jacobsen

Preâmbulo:

 

Em primeiro lugar eu quero agradecer à minha namorada Tamara, pela paciência de ler esse texto e me ajudar a cortar longos trechos desnecessários, a Tor pela gentileza de me indicar para essa entrevista e a você (Scott) por aceitar essa indicação e por sua amável ajuda com a revisão da tradução.

Na medida do possível, procurei sintetizar e simplificar, mas sempre que foi necessário decidir entre a resposta mais curta e a mais correta, optei por aquela que me parecia a mais correta. Como resultado, acabei me estendendo mais do que gostaria e ramificando algumas respostas por detalhes que aparentemente perdem o vínculo com a pergunta, mas que, na verdade, estão indiretamente conectados por dois, três ou mais nós, de modo que se esses trechos fossem removidos, ficariam lacunas que comprometeriam a coerência.

 

Antes de apresentar as respostas é necessário fazer alguns esclarecimentos importantes: quando a pergunta é simples, basta dar uma resposta curta para que a interpretação seja unívoca, mas para questões complexas, antes de responder é necessário conceituar alguns dos termos utilizados, para minimizar as diferenças entre a mensagem a ser transmitida e a interpretação que dela será feita. Uma questão do tipo “Por que, no Xadrez, nem todos os Peões dobrados são debilidades?” Não há como responder de modo a proporcionar uma ideia correta em apenas 1 ou 2 parágrafos, nem mesmo se a resposta fosse simplificada e resumida. Para tentar proporcionar uma ideia razoavelmente correta e completa, são necessárias pelo menos 20 páginas, com vários exemplos comentados. Nessa entrevista, algumas perguntas envolvem situações semelhantes.  

 

Esse tipo de dificuldade é inerente a qualquer pergunta envolvendo QI, porque o conceito atualmente disseminado apresenta algumas falhas que precisam ser devidamente revisadas, e algumas dessas revisões não são triviais, exigindo um volume considerável de esclarecimentos preliminares para garantir que a interpretação da resposta seja suficientemente acurada e fidedigna.

 

Fora das sociedades de alto QI é comum que façam confusão entre escalas com desvios padrão diferentes. O escore 1579 de James Woods no SAT é frequentemente convertido em 180, enquanto o escore 1590 de Bill Gates é convertido em 154 (às vezes 160), e ambos aparecem na mesma lista como se o QI de Woods fosse maior que o de Gates, embora seja o contrário. Esse tipo de erro primário foi praticamente erradicado nas sociedades de alto QI, mas ainda há erros sistemáticos sendo repetidos ostensivamente, alguns dos quais são grandes e graves. Esses erros provocam muitas confusões e dificultam a correta interpretação de questões fundamentais. Eu não me refiro a erros individuais, cometidos por algumas pessoas, mas sim a erros “institucionalizados”, universalmente aceitos como se fossem corretos e cometidos por praticamente todas as pessoas.

 

Em 2000, resolvi um problema central da Psicometria que vinha se arrastando desde os anos 1950, quando Thurstone e Gardner perceberam a importância de padronizar testes cognitivos de modo a produzir escores em escala de proporção. Bob Seitz, da Mega Society, referiu-se a esse problema como “O Santo Graal da Psicometria”. Depois de investigar esse problema e resolvê-lo, publiquei um artigo descrevendo meu método e mostrando como os testes deveriam ser normatizados. Também revisei as normas do Mega Test e Titan Test utilizando esse método. Em 2003, apliquei o mesmo método ao Sigma Test e publiquei outro artigo, mais detalhado, descrevendo passo-a-passo todo o processo de normatização e explicando os motivos pelos quais esse procedimento é superior aos métodos utilizados. Entre os problemas crônicos que são solucionados de forma natural com a aplicação desse método, um dos mais importantes é a correção nos cálculos dos percentis e dos níveis de raridade. Esse é um erro sistemático que vem sendo cometido desde 1905. Comentarei essa questão com um pouco mais de detalhes ao responder a questões que tratam desse tema.

 

Há dois outros erros que são cometidos sistematicamente, embora as soluções para eles já sejam conhecidas, mas não são aplicadas, em parte porque esses problemas não são bem compreendidos: o problema de validade de constructo e o problema da adequação do nível de dificuldade das questões ao nível de inteligência que se pretende medir. De certo modo, esses problemas estão conectados, porque geralmente os testes apresentam boa validade de constructo para determinado intervalo de níveis de habilidade, mas não para todo o intervalo no qual o teste pretende medir, assim os resultados acabam se mostrando razoavelmente acurados e fidedignos para pessoas cujos escores estejam dentro do intervalo de validade, mas começam a apresentar sérias distorções fora desse intervalo. Um exemplo clássico para ilustrar esse problema é o Stanford-Binet V. Os processos cognitivos exigidos para solucionar as questões do SBV podem ser apropriados para medir corretamente a inteligência no intervalo de 60 a 140, mas começam a se mostrar menos apropriados entre 140 a 150, por isso os escores acima de 150 já estão representando predominantemente um traço latente que não é o que se pretendia medir. Isso compromete inteira a validade desse tipo de instrumento para a aferição acima de 150, e coloca em dúvida em que medida os escores entre 140 e 150 estão de fato refletindo o nível intelectual.

 

Para organizar melhor as informações, antes de prosseguir citarei 3 erros importantes que são cometidos sistematicamente pelos psicometristas profissionais e nas sociedades de alto QI:

 

  1. A maneira como os testes são padronizados, tanto os testes clínicos quanto os high range IQ tests (hrIQts) – seja pelo uso de Teoria de Resposta ao Item, seja pela Teoria Clássica dos Testes –, produz distorções na escala, e a maneira como os percentis são calculados conduz a resultados muito distantes da realidade. Essa distorção na escala já foi apontada desde os anos 1950, por Thurstone, e já havia sido notada (embora não tivesse sido descrita) pelo próprio Binet em 1905. Um bom método para normatização de testes de inteligência deveria produzir escores numa escala de proporção, mas os escores de QI se apresentam numa escala ordinal (https://www.questionpro.com/blog/nominal-ordinal-interval-ratio/). Além disso, os erros nos cálculos dos níveis de raridade apresentam distorções muito grandes nos escores mais altos, chegando a mais de 3 ordens de grandeza. Isso acontece porque os cálculos partem da hipótese incorreta de que a distribuição dos QIs é gaussiana em toda sua extensão. A morfologia da distribuição é de fato muito semelhante à de uma gaussiana no intervalo -2σ a +2σ, mas começa a degringolar fora desse intervalo. Esse fato não pode ser negligenciado quando se calcula os percentis. Da maneira como os cálculos são feitos atualmente pelos psicometristas e nas comunidades de alto QI, chega-se a resultados muito distantes dos corretos. Por isso, quando se fala em percentil 99,9999% ou QI 176 (σ=16), os significados são muito diferentes, embora sejam usados como se fossem a mesma coisa. A raridade correta para o QI=176 não é 1 em 983.000, mas sim 1 em 24.500. E isso não acontece porque o desvio padrão seja maior. O desvio padrão é o mesmo (16 nesse exemplo), porém a cauda direita é mais densa do que numa distribuição normal, tornando os escores mais altos mais abundantes do que seria esperado se a distribuição fosse exatamente gaussiana. Trata-se de um problema relacionado à morfologia da distribuição verdadeira, que não se ajusta ao modelo teórico de distribuição normal. Na verdade, não se ajusta bem a nenhuma das mais de 100 distribuições testadas, inclusive as mais versáteis, como a distribuição de Weibull com 3 parâmetros.

  2. Outro problema é que o nível de dificuldade das questões mais difíceis de cada teste não é compatível com o teto nominal do teste. Como consequência, tal teste mostra-se inapropriado para o intervalo de QIs que deveria medir. O teste funciona adequadamente dentro de certo intervalo, no qual contenha questões com dificuldade compatível, mas deixa de funcionar fora desse intervalo. Isso é muito mais grave nos testes clínicos, cujo teto de dificuldade raramente ultrapassa 135 a 140, mas o teto nominal pode chegar a mais de 200 (Stanford-Binet V, por exemplo). Acima de 140, os testes clínicos medem a rapidez para resolver problemas elementares, que não é necessariamente uma métrica apropriada para representar a inteligência nos níveis mais altos. Nos casos de hrIQt, no quesito “dificuldade”, as questões geralmente são apropriadas até cerca de 170 ou 180, mas não muito acima disso. Aqui seria necessário abrir um extenso parêntesis para discutir o significado desses escores, porque até 130 ou um pouco acima, a raridade teórica é quase igual à raridade verdadeira, mas para 140, 150 e acima, a raridade teórica vai se tornando cada vez mais distante da raridade verdadeira. Então quando falamos em 180 de QI (σ=16), não basta informar o desvio padrão. Além disso é necessário informar se estamos falando do escore medido em um teste ou se é um percentil verdadeiro convertido em QI. Se a distribuição dos QIs fosse exatamente gaussiana em todo o seu espectro, então um QI 180 (σ=16) deveria corresponder ao nível de raridade de 1 em 3.500.000, mas a raridade verdadeira de escores 180 fica em torno de 1 em 48.000. Mais adiante, menciono link no qual descrevo como chegar a esse nível de raridade de 1 em 48.000.

  3. Outro problema está relacionado à validade de constructo, isto é, se aquilo que o teste está medindo é de fato aquilo que se pretende medir. Os melhores testes clínicos (WAIS e SB) são muito bons nesse critério para o intervalo de 70 a 130, porque esse tema tem sido amplamente debatido entre bons psicometristas ao longo de décadas e se conseguiu estabelecer alguns bons critérios para avaliar (ainda que subjetivamente) se os itens estão medindo o que deveriam medir (a inteligência, nesse caso, ou o fator g). Entretanto, fora desse intervalo de 70 a 130, a variável medida vai se tornando cada vez mais destoante daquilo que se pretendia medir. Nos hrIQts o alcance é um pouco maior, chega a cerca de 160, alguns testes chegam 170 ou até 180.

 

Além desses 3 problemas que são observados em praticamente todos os testes clínicos e todos os hrIQts, há também alguns problemas individuais, que são mais básicos e afetam apenas alguns testes específicos, como norma inflada, erros no gabarito, erros nos enunciados etc. Não tratarei desses, porque já são bastante conhecidos e fáceis de identificar e corrigir.

 

É importante não confundir a validade de constructo com a adequação do nível de dificuldade. Uma questão muito elementar, com um prazo muito curto para ser resolvida, pode ter dificuldade adequada para medir no nível de raridade 1 em 10 milhões, porque embora seja intrinsecamente fácil, como o prazo é reduzido, acaba se tornando difícil resolver dentro daquele prazo. Em casos assim, a dificuldade pode ser apropriada para medir alguma coisa em níveis muito altos de raridade, mas esse traço latente que está sendo medido não é o que deveria ser medido. Além disso, o fato de um teste ter validade de construto num determinado intervalo não implica que terá necessariamente validade em níveis muito acima ou muito abaixo daquele intervalo. Esse é um dos erros mais comuns, porque ao validar um teste de inteligência para 98% da população, isso não garante que ele continue medindo corretamente a inteligência no nível dos 1% ou 0,1% de escores mais altos. A validação precisa ser cuidadosa em todos os intervalos nos quais se pretende que o teste seja capaz de medir corretamente.

 

Há também alguns problemas mais sutis. O Raven Standard Progressive Matrices, por exemplo, tem sido utilizado pela Mensa em vários países durante décadas, mas é inadequado para medir corretamente acima de 120, talvez até acima de 115. O motivo é que o teste é constituído por 60 questões, mas apenas 1 ou 2 dessas questões (as mais difíceis) são úteis para discriminar no nível de 133, que é onde a Mensa pretende selecionar. Então é como se fossem utilizadas apenas 2 das 60 questões, e uma amostra com apenas 2 elementos não pode ser considerada válida estatisticamente. Na verdade, o corte em 133 não é determinado exatamente por 1 ou 2 questões, mas estas 2 questões respondem por mais de 90% do poder discriminante do teste nesse nível de corte.

 

Por essas razões, se há interesse sincero em que perguntas sobre QI recebam respostas representativas da realidade, esses três problemas precisam ser corrigidos:

 

  1. Extrapolação infundada da validade de constructo;

  2. Inadequação da dificuldade dos itens para o nível intelectual que o teste pretende medir;

  3. Adoção de hipóteses incorretas sobre a forma da distribuição dos escores nos níveis mais altos, com base na forma na região próxima à tendência central.

 

Além desses, há outros pontos que precisam ser esclarecidos. Há um mito amplamente disseminado de que testes aplicados em clínicas são “melhores” (mais confiáveis, mais acurados, mais fidedignos) do que hrIQts. Em alguns casos, realmente são. Mas não em todos. Para escores abaixo de 130, como os testes supervisionados são normatizados com base em amostras maiores e não-seletas, isso constitui uma vantagem real dos testes clínicos em comparação aos hrIQts. Outra vantagem é que os bons psicometristas conhecem maior número de técnicas estatísticas, por isso na faixa de 70 a 130 geralmente os melhores testes supervisionados produzem escores mais fidedignos. Porém acima de 130 e, principalmente, acima de 140, os testes supervisionados apresentam vários problemas, a começar pelo teto inadequado de dificuldade. As questões mais difíceis do WAIS, por exemplo, são excessivamente fáceis para que possam medir a inteligência acima de 135. Outro problema é que a validade de constructo dos testes supervisionados é planejada para o intervalo de 70 a 130, não se aplicando tão bem fora desse intervalo.

 

 

Fiz um exemplo simulado para mostrar em que consiste o problema da variável de constructo:

1.png

 

A linha azul representa o traço latente[*] que gostaríamos de medir (inteligência ou fator g ou algo assim). Os círculos vermelhos representam os escores obtidos no teste convertidos em QI. No intervalo entre 0 e 120, os escores medidos são representações muito boas do traço latente, porque os pontos se distribuem estreitamente perto da linha azul, indicando forte correlação entre a variável que gostaríamos de medir e a variável que estamos realmente medindo. [* https://dictionary.apa.org/latent-trait-theory, https://www.jstor.org/stable/1434009]

 

A partir de 120, e principalmente a partir de 130, os círculos vermelhos começam a se afastar cada vez mais da linha azul, indicando que a correlação entre a variável que gostaríamos de medir e a variável que está sendo realmente medida se torna cada vez mais fraca, portanto aquilo que estamos medindo está cada vez sendo menos representativo do que gostaríamos de medir. Se considerar o intervalo inteiro de 0 a 200, ou mesmo de 70 a 200, a correlação ainda parece forte, mas isso só acontece porque o intervalo de 70 a 120 está contido dentro do intervalo de 70 a 200, e como no intervalo 70 a 120 a correlação é forte, isso melhora a correlação média do intervalo inteiro de 70 a 200, mas quando se considera exclusivamente a correlação entre 130 e 200, percebe-se que a correlação é fraca nessa região e vai se tornando mais fraca para os escores mais altos. Por isso para escores acima de 130 o que importa não é a correlação global, mas sim a correlação local.

 

Em testes de QI como o Stanford-Binet, por exemplo, algumas pessoas muito rápidas com QI verdadeiro 150 podem obter escore 190 ou mais, como consequência do problema descrito acima. Também pode acontecer o efeito oposto, e pessoas com QI verdadeiro 190, se forem muito lentas, podem ter escore 150, 140 ou até menos. O tamanho dos erros pode chegar a níveis realmente muito altos, tanto para mais que o correto quanto para menos que o correto, por isso é que a validade de constructo[*] é um quesito extremamente importante. [* https://en.wikipedia.org/wiki/Construct_validity]

 

Um teste que tenha boa validade de constructo deve apresentar comportamento como o do gráfico abaixo, em que os círculos vermelhos permanecem próximos à linha azul ao longo de todo espectro dentro do qual se pretende medir:

2.png

 

Naturalmente, se a amostra tiver distribuição normal, os dados se distribuirão aproximadamente como uma elipse, não como uma linha que foi representada acima, mas para fins didáticos esse exemplo precisa ser assim para ficar visualmente mais claro o aumento na amplitude da dispersão das medidas em relação ao traço latente que gostaríamos de medir.  Também convém enfatizar que, no mundo real, situações como a do gráfico acima praticamente não existem, porque o alinhamento está excessivamente bom. Mas é desejável que os escores medidos sejam capazes de oferecer boas representações para o traço latente dentro de um intervalo tão largo quanto possível.

 

Nos testes de QI supervisionados, utilizados em clínicas, geralmente as disparidades começam a se tornar graves a partir de 130 e principalmente a partir de 140, ou seja, aquilo que o teste mede acima de 140 deixa de ser uma boa representação da Inteligência. Nos casos dos melhores hrIQts, os escores continuam sendo representações razoavelmente boas do traço latente até QI 160 ou um pouco mais.

 

Um teste pode ter questões com nível de dificuldade apropriado, mas aquilo que as questões estão medindo pode não ser a inteligência. Ou pode acontecer de que a variável medida seja a inteligência, mas apenas num intervalo específico (como no primeiro gráfico). Alguns quebra-cabeças para crianças, por exemplo, podem ser eficientes para medir corretamente no intervalo entre idade mental de 8 a 16 anos, ou 50 a 100 de QI numa escala para adultos, mas se utilizar esses mesmos quebra-cabeças para tentar medir os QIs de adultos acima de 160 ou 170, o resultado será desastroso, porque a habilidade para resolver rapidamente esses quebra-cabeças não pode ser interpretada como uma boa representação da inteligência nesse nível. Por isso o tipo de problema precisa ser compatível com o nível intelectual que se pretende medir.

 

Geralmente as pessoas mais inteligentes também são mais rápidas para resolver questões básicas, mas o fato de resolver rapidamente questões simples não oferece uma boa garantia de que a pessoa também será capaz de resolver questões mais complexas, profundas e que exijam criatividade. Além disso, o fato de a pessoa ser capaz de resolver questões complexas, profundas e que exigem criatividade não oferece boa garantia de que ela será capaz de resolver rapidamente questões básicas. Como os testes utilizados em clínicas incluem exclusivamente questões básicas, o efeito apresentado no gráfico 1 acaba sendo muito frequente.

 

Essa questão é analisada com mais detalhes no texto introdutório do Sigma Test Extended.

 

Também é necessário padronizar os significados de alguns termos que vou utilizar nas respostas:

 

rIQ = QI de raridade, ou QI (σ=16 G), ou rIQ (σ=16 G)

pIQ = QI de potencial, ou QI (σ=16 T), ou pIQ (σ=16 T)

 

Explicações detalhadas podem ser encontradas em https://www.sigmasociety.net/escalasqi. Aqui darei uma explicação resumida: rIQ é o valor que teria o QI convertido a partir da raridade verdadeira. Isso não é o QI medido nos testes de QI nem em hrIQts. O QI medido é o pIQ, cuja distribuição não é gaussiana, a distribuição tem uma cauda densa, por isso os escores de pIQ são mais abundantes do que o previsto com base na hipótese de normalidade da distribuição. Isso não tem relação com o desvio padrão ser maior. O desvio padrão é o mesmo. A forma da distribuição que é diferente, concentrando mais casos na cauda direita e menos na região central. Nas regiões próximas à tendência central, pIQ é quase igual ao rIQ e se mantém assim até cerca de 130. A partir de então, pIQ vai se tornando maior que rIQ. Alguns exemplos:

 

rIQ 100 equivale a pIQ 100,00

rIQ 130 equivale a pIQ 130,87

rIQ 150 equivale a pIQ 156,59

rIQ 180 equivale a pIQ 204,93

(Uma tabela completa está disponível na página do Sigma Test Extended)

 

A diferença entre pIQ e rIQ aumenta conforme o rIQ aumenta, porque a proporção em que a densidade real da cauda fica maior que a densidade teórica é cada vez maior à medida que o QI se afasta da média.

 

Quando se compara QIs estimados com base na raridade com QIs medidos em testes, é fundamental colocar ambos na mesma escala. Por exemplo: digamos que Newton seja considerado a pessoa mais inteligente da História e digamos que o número de pessoas que já nasceram seja 100 bilhões. Então o QI de Newton estimado com base na raridade e com base na hipótese de que a distribuição dos escores é normal seria rIQ=207,3 (σ=16, G). Mas a distribuição real dos escores não é normal, por isso não se pode comparar esse 207,3 com um escore 207 medido num teste, porque estão em escalas diferentes. Ambos podem ter mesmo desvio padrão (16, nesse caso), mas a forma da distribuição é diferente e isso não pode ser negligenciado porque a distorção produzida é gigantesca.

 

O rIQ de Newton seria 207,3 mas seu pIQ seria 261,8. Repetindo: ambos os escores são com desvio padrão 16, tanto o rIQ quanto o pIQ. Não se deve confundir esse processo com a mudança de escalas com desvios padrão diferentes. Os desvios padrão são iguais, mas a forma da curva é diferente. Eu estou repetindo isso várias vezes porque já vi pessoas confundindo isso apenas um parágrafo depois de isso ter sido esclarecido.

 

Esse ajuste é necessário para corrigir as distorções das normas e possibilitar o cálculo correto das raridades a partir dos escores medidos nos testes, ou o processo inverso de calcular o QI a partir do nível de raridade.

 

Desse modo, a pessoa com maior rIQ (σ=16 G) numa população de 7,9 bilhões tem rIQ 201,2 que equivale a pIQ (σ=16 T) 247,8. Os escores 201,2 (σ=16 G) e 247,8 (σ=16 T) são equivalentes, como 0ºC e 32ºF. O uso do termo rIQ equivale ao uso do termo QI (σ=16 G), enquanto o uso do termo pIQ equivale ao uso do termo (σ=16 T). Também posso eventualmente utilizar rIQ (σ=16 G) ou pIQ (σ=16 T).  

 

Por isso os testes podem produzir (e de fato produzem) escores acima de 200 com desvio padrão 15 ou 16, mas o cálculo correto dos níveis de raridade ou dos percentis não deve ser realizado da maneira como tem sido feito há décadas. Os cálculos de percentis e de raridade estão errados, conforme já demonstrei desde meus artigos de 2000 a respeito disso. Eu não estou me referindo a testes com normas infladas. Claro que esse problema se torna mais grave quando as normas estão infladas, mas mesmo quando as normas foram calculadas adequadamente, como nos casos da norma do Mega Test ou do Titan Test, tanto a versão de Hoeflin quanto a versão de Grady Towers, ambas fornecem valores incorretos para os percentis. Os escores de QI estão muito próximos dos valores “corretos”, que seriam os valores ajustados a uma escala de intervalo bem padronizada. O problema não está nos QIs medidos, mas sim nos percentis calculados com base na hipótese incorreta de que esses escores teriam uma distribuição normal. Esse tema voltará a ser analisado outras vezes, com mais detalhes, quando os tópicos abordados exigirem isso. Por enquanto, essa introdução deve ser suficiente para desfazer boa parte das confusões que acontecem com uso indiscriminado do termo “QI”, sem fazer a correta distinção entre pIQ e rIQ.

 

Quando Chris Harding foi registrado no Guinness Book de 1966 com QI 197, com base em seus resultados no Stanford-Binet, isso foi um erro relativamente primário e grave, porque incorre em todos os 3 itens problemáticos que citei acima: o SB não inclui questões suficientemente difíceis para medir corretamente acima de 135; os processos cognitivos exigidos nas soluções não são apropriados para QIs acima de 150; o nível de raridade calculado é incorreto.

 

Em 1966, a população mundial era de 3,41 bilhões de pessoas, e o nível teórico de raridade para escores 197, assumindo que a distribuição dos escores fosse uma gaussiana com média 100 e desvio padrão 16, era 1 em 1,49 bilhões. Então parecia ser plausível que uma pessoa com esse escore poderia ser proclamada a mais inteligente do mundo, ou pelo menos a pessoa com maior QI do mundo. Entretanto, uma análise correta da situação revela que o escore 197 no SB não indica nível de raridade de 1 em 1.490.000.000, mas sim 1 em 870.000 (cerca de 2000 vezes mais abundante). Além disso, a variável medida no nível de raridade de 1 em 870.000 não é a inteligência. Nessa conjuntura, o máximo que se poderia afirmar com base num escore 197 no SB é que a pessoa apresentou evidência consistente de possuir nível intelectual acima de 135 de QI, e como seu escore nominal foi muito acima de 135, há boas probabilidades de que seu QI correto seja maior que 150, talvez maior que 160, mas seria necessário prescrever um exame complementar, com questões mais difíceis e com validade constructo apropriada, para investigar qual o nível intelectual real dessa pessoa, já que os escores acima de 135 ficam fora do intervalo no qual o teste é capaz de medir corretamente.

 

Nos anos seguintes, começaram a surgir várias outras pessoas reivindicando o mesmo recorde, com escores 196-197. Isso prosseguiu até 1978, quando a situação se agravou, primeiramente com Kim Ung-Yong com escore 210, depois Marilyn vos Savant com escore 230, corrigido para 228, depois corrigido para 218, e finalmente Keith Raniere, em 1989, com escore 242. Todos baseados em testes clínicos que não são apropriados para medir corretamente acima de 135.

 

Um problema similar aconteceu com Langan, no Mega Test. O nível de dificuldade das questões do Mega Test é apropriado para medir corretamente até cerca de pIQ 194, equivalente a cerca de rIQ 177, que corresponde a um nível de raridade de 1 em 1.340.000. Esse é o nível de raridade realista correspondente ao teto do Mega Test. Em 2000 eu havia calculado para o Mega Test um teto de pIQ 186, equivalente a rIQ 169, portanto nível de raridade de 1 em 124.000, mas eu estava me baseando na amostra de 520 testees disponível no site do Miyaguchi. Porém essa amostra não é representativa do conjunto de mais de 4.000 pessoas examinadas com o Mega Test. Essa amostra está estratificada de 10 em 10 (10 pessoas com cada QI, quando possível). Por isso há uma concentração de escores altos acima do “correto”, fazendo com que a dificuldade dos itens, especialmente os itens mais difíceis (que é determinada pela proporção entre os erros e acertos) acabe sendo menor do que a correta, já que havendo mais pessoas com escores mais altos, haverá maior porcentagem de acertadores do que se tivesse sido considerada a amostra inteira. Outro fator é que mesmo considerando todas as mais de 4.000 pessoas avaliadas pelo Mega Test, há uma self-selection que produz uma concentração de pessoas com escores altos maior do que a observada entre a população em geral. Com esses dois ajustes complementares, refiz meus cálculos para essa norma e cheguei aos números que citei acima.

 

Portanto, com um escore bruto 47/48, obtido por Langan em sua segunda tentativa, o rIQ correspondente é 176, equivalente a pIQ 192, isto é, nível de raridade de aproximadamente 1 em 983.000. O nível de raridade real da Mega Society fica em torno de 1 em 62.000 e da Prometheus 1 em 8.000. Nos casos de ISPE, TNS etc., como estão numa faixa em que as distorções são menores, a raridade verdadeira também fica mais próxima da raridade teórica. 1 em 600. E no caso da Intertel e Mensa, praticamente não são afetadas. O percentil teórico 98,04% para escore pIQ 133 equivale a rIQ 131,8, portanto percentil 97,66%.

 

Há dois outros pontos que eu gostaria de comentar nesse texto introdutório, antes de prosseguir: sobre o significado de “inteligência” e sobre o significado de “certificado”, mas o texto ficou muito extenso e talvez seja melhor remover, bem como outras partes de algumas respostas. De qualquer modo, salvei o texto integral num arquivo separado, caso tenha alguma utilidade complementar ou para ser utilizado em outra ocasião.

 

Feitos esses esclarecimentos, agora podemos dar início às respostas.

 

Parte 1
Image by Hal Gatewood

Entrevista com Melão para o jornal canadense In-Sight Journal

Parte 1

Scott Douglas Jacobsen: Quando você estava crescendo, quais eram algumas das histórias familiares proeminentes sendo contadas ao longo do tempo?

Hindemburg Melão Jr.: não me interesso muito por histórias.

Jacobsen: Essas histórias ajudaram a dar uma noção de um eu estendido ou uma noção do legado da família?

Melão Jr.: meus avós eram muito pobres, meu pai só estudou até o segundo ano do Ensino Fundamental (2º ano). Ele era excepcionalmente inteligente, criativo, tinha hipermnésia e uma grande variedade de talentos intelectuais e sinestésicos. Isso permitiu que ele saísse de uma situação de extrema pobreza e proporcionasse um ambiente satisfatório para os filhos, mas não muito além disso. O legado de meus pais é quase exclusivamente genético.

Jacobsen: Qual era a origem familiar, por exemplo, geografia, cultura, idioma e religião ou a falta dela?

Melão Jr.: meu bisavô materno era índio nativo do Brasil, meu bisavô paterno era português. Minha família era católica na época que nasci, mas posteriormente se converteram ao Kardecismo, preservando alguns hábitos católicos. Eu me tornei ateu, aproximadamente aos 11 anos, depois agnóstico aos 17 e deísta desde os 27. Tive interesse na Fé Bahá'í por algum tempo, mas não cheguei a participar de nenhuma atividade. Estou escrevendo um livro que trata de Ciência e Religião, no qual abordo alguns desses tópicos com mais detalhes.

Jacobsen: Como foi a experiência com colegas e colegas de escola quando criança e adolescente?

Melão Jr.: foi razoavelmente tranquilo, não tive problemas com bullying que pudessem ser associados a alguma discriminação por motivos cognitivos. Sofri bullying por outros motivos, porque eu tinha as sobrancelhas unidas, mas nada que chegasse ao ponto de me causar grandes constrangimentos, mesmo porque eu praticava artes marciais desde os 7 anos, por isso se eu achasse que estavam passando dos limites, eu reagia de forma enérgica e isso evitava que voltassem a me importunar.

 

Meus problemas foram com alguns professores, mais do que com colegas, porque eu tinha a visão incorreta de que os professores não podiam cometer erros na disciplina deles, mas no mundo real é muito diferente disso. Praticamente todos os professores cometiam vários erros todos os dias, e eu costumava apontar os erros mais graves. A maioria deles reagia positivamente a isso, alguns agradeciam pelas correções e revisavam imediatamente, mas outros não aceitavam esse tipo de correção, especialmente quando vinha de uma criança de 7 ou 8 anos. Um episódio marcante ocorreu numa aula de Geografia, quando eu tinha 9 anos, e a professora solicitou aos alunos que calculassem o tamanho do litoral brasileiro. Quando comecei a executar a tarefa, percebi que aquilo não fazia sentido, porque a medida dependeria do nível de detalhes do mapa, logo não havia uma resposta possível. Então expliquei o problema a ela, mas ela não entendeu minha explicação. Ela achou que eu estivesse me referindo ao fato de o mapa estar numa escala diferente do tamanho real. Então expliquei novamente, mas não adiantou, ela continuou sem entender, ficou irritada e acabou agindo de forma opressiva, ordenando que eu me calasse, e continuou a “ensinar” incorretamente. Foi um episódio muito desagradável. Geralmente os erros que eu identificava eram erros dos professores, mas nesse caso era muito mais grave, porque era um erro institucionalizado e aceito como se fosse correto pelas “autoridades” naquela disciplina, estava errado no livro e provavelmente em todos os outros livros, sendo ensinado incorretamente a todos os alunos. Aliás, isso continua errado até hoje, 40 anos depois, em praticamente todas as fontes sobre o assunto, inclusive na Wikipedia, Enciclopédia Britânica, IBGE, Cia World Factbook, U.S. Bureau of Labor Statistics etc. O problema não é que o número da medida esteja errado. O problema é que a pergunta não faz sentido porque não há um “comprimento” do litoral, não existe uma resposta possível com dimensão 1, porque o perímetro tem uma dimensão maior que 1 e menor que 2. Embora tenha sido desagradável, foi também um evento do qual me lembro com orgulho, por ter deduzido um dos fundamentos da Geometria Fractal, de improviso, aos 9 anos.

Jacobsen: Quais foram algumas certificações, qualificações e treinamentos profissionais obtidos por você?

Melão Jr.: a finalidade primordial das certificações deveria ser atestar que determinada pessoa ou determinada entidade cumpre quesitos que não seriam facilmente verificáveis por uma pessoa da população em geral. Por exemplo: uma pessoa sem muita instrução teria dificuldade para avaliar corretamente se um médico está capacitado para tratar da saúde dela, ou decidir se seria melhor receber tratamento de um método alopata ou de um curandeiro. Por isso há entidades reguladoras, constituídas por especialistas experientes e supostamente competentes, que estabelecem normas que teoricamente deveriam ser necessárias e suficientes para distinguir entre profissionais qualificados e não-qualificados, protegendo a população menos esclarecida contra a prestação de serviços e produtos insatisfatórios ou até mesmo nocivos. Isso é bonito na teoria, mas na prática não funciona tão bem, e a indústria das certificações acaba servindo a outros propósitos, entre os quais a reserva de mercado, o nepotismo, o culto à vaidade e egolatria.

 

Os certificados muitas vezes não cumprem a função para a qual foram criados, ora aprovando pessoas/entidades insuficientemente capacitado, ora deixando de aprovar pessoas sobrequalificadas. Por essa razão, mais importante e mais justo seria examinar as realizações, as competências e os méritos reais, em vez de examinar as certificações que reconheceriam esses méritos, porque os méritos têm valor intrínseco, enquanto as certificações são meras aparências que algumas vezes tentam representar os méritos, mas nem sempre acertam.

 

Há inclusive uma ampla indústria para comércio de certificados fraudulentos, e pouca fiscalização sobre isso. A American Biographical Institute (ABI) é famosa pela venda de certificações sem valor, e continua atuando desde 1967. Há muitas entidades similares, especializadas na impressão de certificados bonitos, promoção de cerimônias de homologação etc. Geralmente as pessoas que consomem esses produtos são vítimas ingênuas, mas também é possível que algumas pessoas comprem esses certificados cientes de que eles significam (ou não significam).

 

Na Wikipedia consta a seguinte descrição para a ABI:

 

“The American Biographical Institute (ABI) was a paid-inclusion vanity biographical reference directory publisher based in Raleigh, North Carolina which had been publishing biographies since 1967. It generated revenue from sales of fraudulent certificates and books. Each year the company awarded hundreds of "Man of the Year" or "Woman of the Year" awards at between $195 and $295 each.” Fonte: https://en.wikipedia.org/wiki/American_Biographical_Institute

 

Atualmente há várias universidades de P.O. Box distribuindo títulos de Ph.D. como água. Eu assisti a algumas declarações de pessoas que compraram esses títulos, a grande maioria dessas pessoas realmente acreditava que tinham algum valor e se mostravam emocionadas, felizes e orgulhosas ao receber o título. Mas talvez nem todos sejam ingênuos e alguns compreendam que esses títulos não representam algo real, mas usam isso com finalidades obscuras. Há um membro da mensa brasil que possui mais de 50 títulos acadêmicos por uma universidade de P.O. Box, fundada em 2021, mas no site da “instituição” alega ter sido fundada em 2006. Acho engraçado, e ao mesmo tempo triste, que os jornalistas que publicam as matérias sobre isso não desconfiam que seja estranho uma pessoa de 40 anos, que tinha apenas 1 B.Sc. até 2020, de repente passou a ter mais de 50 títulos acadêmicos em 2022, inclusive vários Ph.Ds. e pós-doutorados. Além dos certificados comprados, essa pessoa também afirma que a TNS é a sociedade de alto QI mais exclusiva do mundo, ele usa o QI dele com desvio padrão 24 para comparar com um “QI” fictício 160 atribuído a Einstein, entre outras coisas, e os jornalistas publicam tudo sem conferir.

 

Há também pessoas que compram esses certificados, sabendo que não têm valor, sem a intenção de fazer uso desonesto, talvez como um enfeite de mesa ou algo assim. Por exemplo, Chris Harding é cliente da ABI, possui vários títulos adquiridos dessa empresa, conforme ele mesmo declara em seu perfil na OlympIQ Society. Harding tem alguns méritos reais, porque mesmo que o SB não avalie corretamente acima de 140, é reconhecido que esse teste avalia algum tipo de habilidade misturado com inteligência, e poucas pessoas alcançam o escore de Harding nesse exame. Portanto, embora alguns certificados dele sejam comprados, outros são baseados em méritos reais e emitidos por instituições sérias, como os relacionados a seus recordes de QI e suas filiações a sociedades de alto QI. Entretanto, mesmo os certificados idôneos, que tentam representar méritos verdadeiros, muitas vezes atestam algo que não é uma boa representação da realidade. Conforme comentei no início, o escore 197 ou 196 no SB não poderia ser interpretado da maneira como foi, e os laudos oficiais e os certificados emitidos estão dizendo algo que representa uma crença coletiva, mas muito diferente da realidade concreta.

 

Harding é muito inteligente, mas não com base no escore que ele obteve no SB, e sim com base em várias opiniões dele sobre diferentes assuntos. Os méritos reais dele estão em sua essência, em suas ações, seus pensamentos, não em pedaços de papel.

 

A partir do momento em que a pessoa canaliza seus pensamentos e suas ações para produzir algo concreto, ela passa a compartilhar com o mundo sua essência, disseminando conhecimento e sabedoria, ou disseminando futilidade e desinformação, dependendo da qualidade daquilo que ela compartilha. E a percepção que as outras pessoas têm sobre aquilo que ela compartilhou dependerá não apenas da qualidade do que ela exteriorizou, mas também da sensibilidade e perspicácia de quem recebe a informação. Se uma pessoa brilhante disseminar conhecimentos de um nível muito elevado entre um público muito fútil, o valor desse conhecimento não será reconhecido e ela não terá certificações, nem prêmios, nem qualquer reconhecimento, enquanto outras pessoas que estejam disseminando conhecimentos vulgares e rasos, compatíveis com o público que o recebe e que emite as certificações, essas pessoas serão aclamadas e glorificadas.

 

As pessoas não são premiadas ou certificadas por suas realizações serem grandiosas, mas sim por suas realizações serem percebidas como grandiosas pelos membros dos comitês responsáveis pela homologação de prêmios e certificações. Além disso, há uma série de outros vieses de caráter político, social, racial, etc., que interferem nas decisões dos membros dos comitês, tornando as certificações e os prêmios ainda mais destoantes do objetivo que deveriam ter.

 

Esse efeito ocorre, por exemplo, em alguns testes de Cooijmans, em que o teste não mede o QI, mas sim quão semelhante é o QI da pessoa examinada em comparação ao QI do Cooijmans. Se a pessoa tiver o mesmo QI de Cooijmans, ela terá escore máximo. Se ela tiver QI muito maior ou muito menor que o QI de Cooijmans, o escore dela será baixo. Na questão sobre testes de QI, comento mais detalhadamente esse problema.

 

Citarei alguns poucos exemplos marcantes, alguns bastante conhecidos, mas vale a pena rememorá-los. Creio que um dos mais trágicos e marcantes seja o de Galileu, que em vez de ser premiado por suas notáveis contribuições à compreensão do Universo, ele foi severamente punido. Aliás, sua filha Celeste acabou sendo punida em lugar dele. Nos tempos mais recentes, um dos casos que acho muito tristes é o de George Zweig, que desenvolveu sua Teoria dos Ases na mesma época em que Murray Gell-Mann desenvolveu a Teoria dos Quarks. Ambas eram essencialmente iguais, entretanto a revista para a qual Zweig enviou seu artigo se recusou a publicá-lo, enquanto o artigo de Gell-Mann lhe rendeu o prêmio Nobel de Física. Há pelo menos 45 casos conhecidos de prêmios Nobel polêmicos, de pessoas que receberam sem merecer ou mereciam, mas não receberam. O prêmio mais respeitado do mundo está profanado por dezenas de injustiças, talvez centenas, se considerar as que não chegaram a ser descobertas. Inclusive Einstein é uma das maiores vítimas, já que merecia ter recebido 5 prêmios Nobel, entretanto recebeu apenas 1, por motivos raciais, xenofóbicos, nazistas etc.

 

Creio que agora eu possa responder a essa questão, dividindo-a em duas partes:

 

  1. Prêmios e certificações.

  2. Méritos até o momento não reconhecidos.

 

Tenho poucos certificados. Quando eu era jovem, tinha o hábito de colocar troféus e medalhas de Xadrez, Artes Marciais, Educação Artística etc. numa estante, mas numa das mudanças de endereço, um de meus troféus quebrou. Inicialmente fiquei triste, porque eram importantes para mim. Mas ao refletir melhor sobre o “desastre”, percebi que na verdade não tinham nenhuma importância. O que realmente importava eram os méritos que me levaram à conquista daqueles prêmios, bem como alguns méritos que não chegaram a ser premiados. Havia também casos nos quais eu não tinha mérito algum, mas havia sido premiado devido a alguma fatalidade da sorte. Isso não significa que eu não seja uma pessoa vaidosa. Eu sou, mas aprendi que na maioria das vezes não se recebe nada ou quase nada por algo valoroso, enquanto outras vezes se recebe mais do que o justo por algo de pouco valor ou até mesmo sem valor. Infelizmente o mundo recompensa muito mais as aparências do que a essência.

 

Um de meus poucos certificados é o de detentor do recorde mundial de mate anunciado mais longo em simultâneas de Xadrez às cegas, registrado no Guinness Book de 1998. Talvez algumas pessoas não estejam familiarizadas com o significado de “Xadrez às cegas” e “mate anunciado”. Esse vídeo ajuda a entender a dinâmica de uma simultânea às cegas: https://youtu.be/LUo89Cl9FPY. É um vídeo antigo e de baixa qualidade, mas para exemplificar o mecanismo do evento, creio que seja apropriado.

 

Farei uma descrição resumida: numa simultânea, uma pessoa (simultanista) joga ao mesmo tempo contra vários oponentes (simultaneados), cada um dos quais com seu próprio tabuleiro. É diferente de um jogo em consulta, em que vários jogadores podem se consultar mutuamente num único tabuleiro e decidem sobre o melhor lance por votação. Numa simultânea, cada simultaneado tem seu próprio tabuleiro e cada partida segue seu próprio rumo.

 

Nesse caso, como se trata de uma simultânea às cegas, o simultanista não tem acesso visual a nenhum dos tabuleiros, nem às peças, nem às súmulas, nem a qualquer tipo de registro dos lances ou das posições. Em nenhum momento o simultanista pode olhar para nenhum dos tabuleiros, nem solicitar qualquer tipo de informação que o ajude a se lembrar das posições das peças, nem de qualquer peça específica, nem que o ajude a se lembrar da ordem dos lances, nem qualquer outro tipo de informação que possa de algum modo auxiliar sobre as partidas. A posição de cada uma das peças em cada um dos tabuleiros fica registrada exclusivamente na memória do simultanista e essas posições são atualizadas mentalmente a cada lance. Além disso, a cada lance o simultanista precisa fazer os cálculos das variantes e sub-variantes necessários para tomar suas decisões sobre o lance a ser executado, tomando cuidado para não confundir as lembranças das variantes calculadas com as lembranças das variantes efetivamente jogadas, entre outros cuidados.

 

O jogo se desenvolve da seguinte forma: o simultanista permanece de costas para os tabuleiros e comunica seus lances a um assistente (speaker), que executa cada lance do simultanista no respectivo tabuleiro. Em seguida, o simultaneado daquele tabuleiro executa sua resposta sobre o tabuleiro e o speaker comunica verbalmente ao simultanista qual foi o lance executado por aquele simultaneado. Então o speaker passa ao tabuleiro seguinte, onde novamente o simultanista declara seu lance e este é executado nesse tabuleiro pelo speaker etc.

 

Há versões mais “fáceis” (ou menos difíceis), nas quais o jogador às cegas pode ter acesso a uma lista com todos os lances anotados, como nos torneios de Melody Amber, em que, além de serem jogos individuais, em vez de simultâneos, os competidores podem também visualizar um tabuleiro vazio, o que facilita os cálculos e reduz os riscos de se esquecer da posição de alguma peça. Mas nas regras mais rigorosas, como no meu recorde de 1997 que foi registrado no Guinness, não era permitido ter acesso ao histórico dos lances, nem ver um tabuleiro vazio, nem qualquer outro tipo de auxílio similar. É equivalente a estar todo o tempo com os olhos vendados, do início ao fim do evento.

 

Esse recorde estabelecido em 1997 foi numa simultânea às cegas a 9 tabuleiros, num dos quais anunciei mate em 12 lances. O rating médio de meus oponentes foi estimado em cerca de 1400. Obtive 7 vitórias, 1 empate e 1 derrota.

 

Os recordistas anteriores eram: Joseph Henry Blackburne (mate em 8 lances numa simultânea às cegas a 10 tabuleiros, no ano 1877), Samuel Rosenthal (mate em 8 lances numa simultânea às cegas a 4 tabuleiros, no ano 1885) e Garry Kasparov (mate em 8 lances numa simultânea às cegas a 8 tabuleiros, no ano 1985). Houve também um evento em 1899, no qual Harry Nelson Pillsbury anunciou mate em 8 numa simultânea às cegas a 10 tabuleiros, mas houve erro de contagem. Seguindo a sequência ditada por Pillsbury, o mate se produzia em 7 lances.

 

No caso de Kasparov, há alguns detalhes que precisam ser esclarecidos: ele jogou uma simultânea às cegas contra os 8 melhores computadores da época, inclusive o campeão mundial Mephisto Amsterdam 68000 RISC 12MHz. O rating médio dessas máquinas era cerca de 1500 e os melhores chegavam a 1800. O melhor computador do mundo em 1985 era justamente o Mephisto Amsterdam, cujo rating divulgado pelo fabricante era 2265, mas posteriormente foi medido pela SSDF em 1827 (com base em 1020 partidas). Na partida contra Mephisto Amsterdam, Kasparov jogou uma bela combinação com sequência de mate em 8 lances, mas não há registro sobre ele ter anunciado o mate. De qualquer modo, como ele sacrificou uma Torre e duas peças no início da combinação, está claro que ele calculou corretamente a sequência inteira.

 

Em 2005, a rede Globo fez uma reportagem para o programa “Fantástico” celebrando os 100 anos dos testes de QI, e fui indicado como a pessoa com QI mais alto do Brasil, no nível de 1 em 200 milhões. Esse é um exemplo de “reconhecimento” que eu não tenho certeza se foi corretamente atribuído. Na pergunta sobre QI, comento esse assunto com mais detalhes.

 

Recentemente, o amigo Domagoj Kutle me honrou com um amável convite para publicar em sua excelente revista DEUS VULT, e solicitou que eu enviasse também uma pequena biografia. Minha namorada Tamara gentilmente me ajudou a elaborar esse material, incluindo algumas de minhas realizações. Creio que isso se encaixaria aqui, por isso vou colar o texto:

Melao mini-bio, by Tamara Rodrigues:

Hindemburg Melao Jr. was born in Brazil, in a family with few resources, and only attended school until the 11th grade, having learned almost completely as self-taught.

In 1998 he was registered in the Guinness Book as the holder of the world record for longest announced checkmate in blindfold simultaneous chess games. (video)

 

Between 2006 and 2010 he developed an artificial intelligence system to trade in the Financial Market; in 2015, his friend and partner Joao A.L.J. incorporated a hedge fund to use this system and started to be registered in fund rankings (BarclayHedge, IASG and Preqin), winning 21 international high performance awards.

In 2007, Melao solved a problem that had been unsatisfactorily solved for 22 years, by creating "Melao index", an index to measure performance adjusted at risk that was more accurate, more predictive and conceptually better founded than the traditional indexes of William Sharpe (Nobel prize 1990) and Franco Modigliani (Nobel 1985). (video)

In 2003 he solved a 160+ year old problem by proposing a new formula for calculating BMI, superior to the traditional one and superior to the formula proposed in 2013 by Nick Trefethen, Chief of the Dept. of Numerical Analysis at the University of Oxford, Leslie Fox Prize(1985), FRS prize, (2005), IMA Gold Medal (2010). Trefethen's 2013 formula is an incomplete version of Melao's 2003 formula.

In 2000 Melao developed the first method for standardization of intelligence tests that produces scores in scale of ratio and in 2003 he applied this method in the Sigma Test norm (he also calculated new norms for Mega and Titan tests using the same method), thereby solving a problem of Psychometry that exists more than 90 years ago and was pointed by Thurstone and Gardner as a central question of Psychometry more than 45 years ago.

In 2002 Melao found the best solution to a problem that has existed for more than 520 years and had been attacked for more than 65 years, the Shannon Number, which was only matched in 2014 by Stefan Steinerberger, professor of mathematics at Yale University.

 

In 2015 Melao showed that the method recommended by the Nobel Prize in Economics Harry Markowitz, for portfolio optimization, has some flaws, and proposed some improvements that make this method more efficient and safer.

 

In 2021 Melao pointed out flaws in the recommendation of the 2003 Nobel Prize in Economics, Clive Granger, regarding the use of the concept of cointegration, and presented a more adequate solution to the same problem.

 

In 2022, Melao solved a problem that had been open for 16 years, in which he established a method for calculating chess ratings based on the quality of the moves. Also presented an improved version of the Elo system, applying both methods to calculate the ratings of more than 100,000 players between years 1475 and 2021, the results were published in a book, along with the description of the two methods.

 

At 9 years old Melao deduced one of the fundamentals of Fractal Geometry and at 13 he developed a method to calculate logarithms. At age 19 he developed a method for calculating factorials of decimal numbers without using Calculus. (more details)

 

Also at the age of 19 (1991) he developed an invisibility machine project, which in 1993 he inscribe in a contest of ficction Literature (although the project is consistent with Scientific Method), but did not win. In 2003 Susumu Tachi, Emeritus Professor at the University of Tokyo and guest Professor at MIT, created (independently) a simplified version of this project and built a prototype.

 

In 2020 Hindemburg presented a study showing that Jupiter's Great Red Spot cannot be 350+ years old, as was believed. The correct age is around 144 years old. (interview)

 

In 2000 Melao had a chess theoretical novelty elected one of the 10 most important in the world by the Sahovski Informator jury, the world champion Anand was one of the judges and Anand's vote was that this novelty should be the 8th most important.

 

In 2004 Baran Yonter, founder of Pars Society (IQ>180, sd=16), estimated that Melao IQ should be above 200 (sd=16).

 

In 2005 the production of the program "Fantástico", from Globo (second-largest commercial TV network in the world), made a special report on intelligence, celebrating the centenary of the creation of IQ tests, and Melao was nominated as the person with the highest IQ in Brazil, with a rarity level of 1 in 200 million. (video1, video2)

In 2009 Melao was nominated by Albert Frank to participate in a John Hallenborg project with people whose IQ is at the rarity level above 1 in 1 million.

 

In 2000 Melao updated and extended his “Alpha Tests” that he had created in 1991, added new questions, and created the Sigma Test.

In 2022 he extended the Sigma Test by creating the extended version.

 

Melao is author of more than 1700 articles on Science, Statistics, Psychometrics, Econometrics, Chess, Mathematics, Astronomy, Physics, Cognitive Science, Ethics, Philosophy of Science, History of Science, Education etc.

 

Detailed bio of Melao (documents, videos, interviews, articles, reports etc.) at: https://www.sigmasociety.net/hm

Embora eu tenha praticado Artes Marciais por vários anos (talvez ~11 anos se somar todos os períodos ativos), não cheguei a obter nenhuma certificação, porque o tempo foi distribuído entre muitas modalidades diferentes e não cheguei à faixa preta em nenhuma delas. Mas cheguei a alcançar um nível técnico razoável. Para armas curtas, talvez eu esteja no percentil 99,9% e no caso específico de nunchaku, talvez 99,999%. Esse é um vídeo de 2016, eu já estava meio velho e enferrujado https://youtu.be/jCw--5H34x4. No mesmo canal há também vídeos com outras armas (espada, tonfa, kama, sam-tien-kuan etc.).

 

Em 2020 fui convidado para um grupo dos 26 melhores astrofotógrafos planetários do Brasil. Embora não haja certificado para isso, fiquei muito feliz porque é um de meus hobbies favoritos. Eu gostaria de aproveitar essa oportunidade para agradecer ao amigo Vinícius Martins, que me ensinou quase tudo que sei sobre processamento de imagens planetárias, creio que em pouco tempo ele será um dos 5 melhores astrofotógrafos do mundo, ele combina 3 elementos fundamentais para isso: um talento extraordinário, um amor imenso por essa atividade e um profundo conhecimento que se amplia e se atualiza constantemente.

 

Entre as certificações que não possuo, uma das mais interessantes é a de CFA, conferida a gestores de investimentos. É interessante porque entre 2006 e 2010 desenvolvi um sistema de inteligência artificial para operar no Mercado Financeiro que entre 2015 e 2020, quando foi utilizado por um fundo europeu, conquistou 21 prêmios internacionais de alta performance nos rankings da Barclay’s Hedge, Preqin e IASG, sendo também o segundo melhor sistema de investimentos do mundo entre 2011 e 2016. Entretanto, eu fui proibido pela CVM de prestar serviços de gestão porque não possuo o certificado CFA. Em 2014, foi realizado um abaixo-assinado para pleitear que a CVM (entidade reguladora do Mercado de Capitais no Brasil) emitisse para mim um certificado em caráter extraordinário. A reivindicação se apoiava na redação da Instrução 306 da CVM e no fato de que meu sistema tinha acumulado mais que o dobro do lucro do fundo que ocupava o primeiro lugar (à frente de 282 outros fundos, todos administrados por gestores certificados) no ranking da InfoMoney, maior ranking de fundos do Brasil. Entre as pessoas que assinaram a petição em meu favor, houve vários professores universitários, vários gestores profissionais e vários membros de sociedades de alto QI, inclusive Dany Provost de Giga Society. Entretanto, a reivindicação não foi aceita e continuo não possuindo esse certificado. Aliás, os dois gestores mais famosos do mundo, Warren Buffett e George Soros, também não possuem certificado de gestor, então estou em boa companhia. Buffett resolveu esse problema incorporando uma empresa que compra outras empresas, em vez de administrar um fundo. Soros resolveu o problema colocando seu amigo Jimmy Rogers como gestos (Jimmy possuía a certificação necessária), eu resolvi o problema comercializando licenças de uso de meu sistema, com um limite de volume de aplicação para cada licença e um período de renovação.

 

Entre as certificações que não possuo, posso incluir também CNH, embora eu dirija fora da Lei (sou praticamente um gângster). Eu deixei de ir à escola no 5º ano, depois eu retornei algumas vezes, por pressão de meus pais. Eu voltava, continuava matriculado alguns meses, esgotava minha paciência, parava novamente, meus pais me pressionavam a voltar, eu novamente voltava etc. Cheguei a concluir o ensino médio (11º ano) e entrei na faculdade de Física, mas não gostei do curso e parei definitivamente depois de 2 meses. Na primeira semana de aula, eu revisei o livro de Física I e apontei mais de 200 erros, enviei meus comentários ao autor, com uma nota introdutória tentando ser diplomático, para que ele não se sentisse ofendido, mas ele nunca respondeu. Também apontei dois erros conceituais graves nos métodos utilizados no laboratório de Física, que deveriam impactar nos resultados dos experimentos; um deles, sobre as bolas de papel amassado, é o mesmo “experimento” realizado no Departamento de Matemática da Universidade de Yale, onde também cometem o mesmo erro. Nesse caso, o Prof. Dr. Paulo Reginaldo Pascholati teve uma conduta honrada, recebeu com humildade minhas críticas, fez alguns experimentos para investigar se o erro que eu indicava era procedente, constatou que eu tinha razão e, na aula seguinte, ele assumiu publicamente o erro. Achei a conduta dele exemplar, nesse aspecto, entretanto a apostila não foi corrigida e continuaram a fazer o experimento incorretamente.

 

Enfim, decidi que universidade era perda de tempo e seria mais produtivo estudar por conta própria, mas não é tão simples assim, e essa decisão se mostrou questionável em algumas ocasiões. O distanciamento da carreira acadêmica tem alguns aspectos positivos, outros negativos. Um dos aspectos positivos é que posso selecionar minha própria grade curricular, seguir meu próprio ritmo e me aprofundar o quanto quiser em cada tópico. Um dos aspectos negativos é que se torna mais difícil ter acesso a bibliografia satisfatória e mais difícil ainda publicar em periódicos indexados. Com isso, praticamente coloquei a mim mesmo numa situação de ostracismo.

 

Portanto certificados são úteis, mas é importante compreender as limitações e as distorções que podem apresentar, para não correr o risco de tratá-las de forma burocrática, a ponto de serem colocados acima da real capacidade verificada empiricamente de forma contínua. Certificados refletem as opiniões de pessoas ou de instituições que muitas vezes não estão suficientemente qualificadas para fazer avaliações corretas sobre os méritos e para decidir com imparcialidade. No exemplo do CFA, as certificações são literalmente distribuídas com base em critérios excessivamente condescendentes, que nem de longe são suficientes para selecionar as pessoas qualificadas ao exercício da função de gestor, por isso mais de 95% dos gestores certificados geram prejuízos a seus clientes. Talvez esse efeito seja mais notável no Mercado de Capitais do que em qualquer outra atividade, mas também ocorre frequentemente em Jornalismo, Publicidade, Administração etc., em que algumas pessoas sem formação nessas disciplinas eventualmente podem ser mais qualificadas do que pessoas certificadas, mas para proteger os menos competentes, são criadas leis que impedem as empresas de contratar os mais competentes, usando certificados como instrumento de discriminação e de apologia à mediocridade.

 

Escrevi uma versão extensa dessa resposta, na qual discuto algumas falhas no sistema educacional no Brasil e no mundo, justificando porque me afastei da vida acadêmica. Também aponto e analiso os erros cometidos por Richard Lynn em seu estudo sobre os QIs em diferentes países e explico porquê não seria correto tentar justificada o problema educacional no Brasil com base no suposto baixo QI médio da população, bem como reviso a estimativa para o QI médio de alguns países, inclusive Guiné Equatorial, Israel e Brasil. O texto ficou com 10 páginas A4, por isso achei melhor colocar como um apêndice.

Jacobsen: Qual é o propósito dos testes de inteligência para você?

Melão Jr.: o atributo mais importante dos seres vivos é a inteligência. Sem inteligência não existiria Ética, Leis, Ciência ou Arte. Para delegar corretamente as tarefas mais importantes às pessoas mais qualificadas, é necessário identificar e ranquear corretamente as pessoas de acordo com as habilidades de cada uma. Por isso medir corretamente a inteligência e utilizar os resultados como critério para atribuir cargos e tarefas, conforme o nível de competência, é extremamente importante, mas infelizmente não é o que acontece. Há dois grandes problemas:

 

  1. O primeiro é que o mundo é dominado pelo nepotismo;

  2. O segundo é que não existem testes de inteligência apropriados para medir corretamente nos níveis mais altos.

 

No final do século XIX, os primeiros testes de Galton e Cattell não conseguiam medir satisfatoriamente a inteligência, mas foi uma tentativa interessante. A hipótese de que a velocidade dos reflexos, a acuidade visual, a acuidade auditiva etc. poderiam ser indicativos relevantes do nível intelectual se mostrou inadequada. Em 1904, Binet e Otis conseguiram resolver esse problema, utilizando questões que exigiam a o uso combinado de várias habilidades cognitivas – em vez de tentar medir aptidões primárias, como fez Galton –, mas os testes de Binet só mediam corretamente até cerca de 140. As tentativas de Terman, em 1921, de utilizar os testes de Binet para selecionar futuros gênios falharam. Entre as 1528 crianças selecionadas com QI acima de 135 (mais de 70 com QI acima de 177), nenhuma ganhou um Nobel nem qualquer prêmio similar, enquanto duas das crianças não selecionadas ganharam prêmios Nobel. O teste funcionava muito bem até cerca de 130, as crianças selecionadas publicaram mais livros, mais artigos, tiveram maior renda média do que as crianças do outro grupo, porém nos níveis mais elevados, o teste falhou e deixou escapar algumas das crianças mais brilhantes. Os resultados desse estudo tiveram um efeito extremamente deletério, prejudicando a credibilidade nos testes de QI aos olhos do público em geral e aos olhos de muitos expoentes intelectuais de áreas científicas, tecnológicas, culturais e educacionais, por isso seria importante esclarecer os limites de até que ponto esses testes podem medir corretamente, para que não se crie expectativas irreais e para que não sejam aplicados incorretamente fora de desses limites.

 

Em 1973, Kevin Langdon criou o LAIT (Langdon Adult Intelligence Test) e com isso conseguiu elevar o nível de dificuldade até perto de 170 e a validade de constructo até 150; em 1985, Ronald Hoeflin deu mais um passo importante com o Mega Test, elevando o nível de dificuldade até cerca de pIQ 190 e validade de constructo até 170, e essas contribuições ampliaram os horizontes de aplicação dos testes de inteligência, que antes funcionavam bem até o nível aproximada de 1 em 100, enquanto os novos testes passaram a funcionar até 1 em 100.000. Por outro lado, a partir dos anos 1990, começaram a surgir alguns testes de fantasia com tetos nominais que chegavam a 250, embora o teto real de dificuldade não chegasse a 180 e o teto de validade de construto fique em torno de 150, como o ISIS Test de Paul Cooijmans. Alguns desses testes de fantasia continuam surgindo até hoje e isso agrava o preconceito nutrido por muitas pessoas contra os testes de QI, porque se a pessoa tem um pensamento crítico refinado e uma atitude cética, ela percebe que há inconsistências em resultados como o de Feynman (123) e Rosner (193, 196, 198 etc.). Ambos são muito inteligentes, e os problemas que Feynman resolveu são mais difíceis que os problemas que Rosner resolveu, o que poderia ser interpretado como indicativo de que Feynman fosse mais inteligente, então como é possível que um sistema padronizado sério de avaliação atribua 190+ para Rosner e 123 para Feynman? Alguma coisa obviamente não está certa nisso, e as pessoas geralmente não identificam exatamente onde está o erro, por isso concluem, de forma generalizada, que todos os testes de QI não funcionam, ou sequer elas sabem que existe mais de um tipo de teste de QI. Por isso o esclarecimento sobre qual é o intervalo no qual cada tipo de teste funciona contribui para combater esse tipo de preconceito. Se o QI verdadeiro de Feynman, com base na dificuldade, complexidade e profundidade dos problemas que ele resolveu sobre eletrodinâmica quântica, superfluidos etc. fosse colocado na mesma escala em que é representado o QI de Rosner, o QI correto de Feynman estaria perto de 235. E para explicar esse número acima de 200, teria antes que mostrar que a distribuição dos escores não é gaussiana etc. etc. Então aquela aparente inconsistência inicial desapareceria e tudo ficaria mais claro e mais lógico. O mesmo acontece para o QI fictício de Einstein de 160, cujo valor correto, se colocado na mesma escala dos escores medidos pelos testes, seria perto de 250.

 

Em 2000, o Sigma Test trouxe soluções aos 3 problemas citados no texto introdutório, tendo como foco principal a validade de constructo, utilizando questões baseadas em problemas do mundo real que exigem uma combinação de pensamento convergente e divergente em diferentes níveis de dificuldade, complexidade e profundidade, compatíveis com os níveis de QI a serem medidos. Mais recentemente, o Sigma Test Extended elevou o teto de dificuldade até cerca de pIQ 225 e de validade de constructo até cerca de 210. Entretanto, numa população com 7,9 bilhões, a pessoa adulta mais inteligente do mundo deve ter rIQ em torno de 201, equivalente a cerca de pIQ 245, portanto bastante fora dos limites que o STE pode medir. Apesar disso, para algumas das 100 ou 200 pessoas mais inteligentes vivas, o STE poderia fornecer medidas fidedignas da inteligência real, com boa validade de constructo nesse patamar, além de oferecer um desafio intelectual estimulante. Isso consertaria algumas lendas urbanas disseminadas em várias fontes, como a de que o QI médio dos ganhadores do Nobel em Ciência é “apenas” 154. Com o uso de um teste adequadamente padronizado, com nível de dificuldade apropriado e boa validade de constructo, o QI médio dos ganhadores do Nobel em Ciência deve ficar entre 170 e 190. Com o uso de testes apropriados é possível reposicionar corretamente os escores, tanto para cima quanto para baixo. Isso também venceria alguns preconceitos contra os testes de QI, porque uma das razões para rejeição se deve justamente aos resultados bizarros para Feynman (123), Fischer (123*), Kasparov (123, 135), Shockley (<135), Alvarez (<135), irmã de Feynman (124) etc., porque isso tira a credibilidade dos testes, já que é muito mais provável que esses escores estejam errados do que essas pessoas terem QI abaixo do nível de 1 em mil, quando na verdade devem estar acima de 1 em 1 milhão (e Feynman perto de 1 em 1 bilhão). Quando podemos mostrar que os testes são capazes de medir corretamente também nos níveis muito altos e fornecer resultados realistas, consistentes com as realizações dessas pessoas em problemas do mundo real, consegue-se restaurar a credibilidade para testes de inteligência como instrumentos sérios e confiáveis, capazes de desempenhar uma das funções mais importantes que é justamente fazer prognósticos precoces de genialidade. [* Embora muitas fontes mencionem o QI 187, 181 ou 180 para Fischer, seus laudos de 1958 mostram um escore 123]

 

Assim, embora não haja testes capazes de medir corretamente no nível necessário para apontar a pessoa mais inteligente viva, ou ranquear as 10 mais inteligentes, houve um progresso substancial desde os primeiros testes de Binet, e se Terman estivesse vivo hoje e desenvolvesse o mesmo estudo de 1921, mas começando em 2000, e se ele utilizasse o STE em vez do SB, muito provavelmente as crianças mais inteligentes estariam todas (ou quase todas) selecionadas em seu grupo, e os resultados subsequentes teriam sido confirmatórios inclusive nos níveis mais altos, corroborando a tese que ele defendia, de que é possível prever precocemente a genialidade, mas não com os testes que existiam naquela época. A tese, em si, estava correta, assim como o helicóptero de Leonardo Da Vinci, mas a tecnologia ainda precisava avançar um pouco mais para que a tese dispusesse dos subsídios necessários para ser testada adequadamente.

 

Jacobsen: Quando a alta inteligência foi descoberta para você?

Melão Jr.: Acho difícil determinar isso com precisão. A primeira vez que fui examinado em clínica, tinha 3 anos, mas aos 6 meses de idade eu conversava com razoável fluência, então havia algumas evidências mais precoces.

Jacobsen: Quando você pensa nas maneiras pelas quais os gênios do passado foram ridicularizados, vilipendiados e condenados, se não mortos, ou elogiados, lisonjeados, plagiados e reverenciados, o que parece ser a razão para as reações extremas e o tratamento de gênios? Muitos vivos hoje parecem tímidos diante das câmeras – muitos, nem todos.

Melão Jr.: não creio que seja um problema do passado. Continua presente em muitas culturas primitivas, como no Brasil e em vários países da África. A grande maioria da população adota uma postura de hostilidade, inveja e boicote não apenas contra gênios, mas contra qualquer pessoa que possa estar obtendo algum tipo de sucesso. Recentemente minha namorada me mostrou um vídeo de Ozires Silva, que foi Ministro da Infraestrutura e presidente da Petrobrás. Ele comenta que durante um jantar no qual estavam presentes alguns membros do comitê do Nobel (link par ao vídeo: https://youtu.be/m3u-E5XdzZ4) ele perguntou por que eles achavam que o Brasil não tinha nenhum ganhador do Nobel, já que vários países latino-americanos com menor população e menor PIB tinham inclusive mais de um Nobel. Um dos membros do comitê comentou “vocês, brasileiros, são destruidores de heróis”. Infelizmente isso é um fato que continua presente em nosso cotidiano.

 

Na época que eu conheci as comunidades de alto QI, 1999, alguns nomes famosos eram William James Sidis, Marilyn vos Savant, Chris Langan, Rick Rosner, Grady Towers etc. Langan era segurança numa boate, Rosner era modelo nudista e também trabalhou algum tempo como segurança, Grady Towers era segurança em um parque e teve uma morte trágica e prematura em 2000. Sidis passou suas últimas décadas de vida em subempregos e colecionando placas de carro. Marilyn foi colunista de uma revista e conseguiu um padrão de vida razoável com isso, bem como um bom prestígio e reconhecimento fora das comunidades de alto QI, e também muitos invejosos odiosos. Com exceção de Marilyn, as outras pessoas que citei ganhavam um salário mínimo e ainda passavam parte do tempo sem emprego, enquanto muitas pessoas são contratadas para ocupar cargos que elas nem sequer estão qualificadas, ganhando pequenas fortunas, além de prestígio e reconhecimento.

 

Essa situação é muito triste. Embora Langan não fosse o homem mais inteligente das Américas, como ele reivindicava em 2000, ou da história do mundo, como ele começou a reivindicar algum tempo depois, ele é indiscutivelmente uma pessoa muito mais inteligente e mais competente do que 99% dos Ph.Ds. em qualquer área e mais do que 99,9% dos CEOs das empresas. Ele talvez não tivesse uma cultura tão vasta e os conhecimentos especializados necessários para resolver grandes problemas científicos, mas certamente ele daria melhores soluções administrativas e políticas do que qualquer presidente que os EUA já tiveram. Eu não sei se ele seria o melhor presidente, porque ser um excelente presidente não se resume a resolver problemas. Ele precisaria também ter sensibilidade, empatia, bondade, honestidade e outros atributos. Mas geralmente muitas pessoas têm esses atributos no nível necessário. O que normalmente falta a elas é exatamente a inteligência. Eu não estou dizendo que Langan ou Rosner deveriam ser presidentes. Mas, ponderando sobre pontos positivos e negativos, eu apostaria neles como presidentes melhores que a média dos presidentes recentes.

 

A perseguição e a opressão algumas vezes podem acontecer de maneira silenciosa, e isso costuma ser até pior, porque é mais difícil de detectar e combater. Como é possível que uma pessoa com o potencial intelectual de Langan não tenha sido descoberto por uma grande empresa que o contratasse pagando um salário milionário para que ele resolvesse os problemas internos de modo a gerar mais lucro para a empresa do que outras pessoas menos competentes trabalhando na mesma função? Há erros grotescos nisso. A grande maioria das empresas está contaminada por multidões de incompetentes e trapaceiros, que em vez de contratar e promover com base nos méritos, fazem quase exatamente o contrário, porque se sentem ameaçados por quem é mais competente do que eles. Isso é um completo desastre não só para as empresas nas quais eles trabalham, mas para toda a harmonia da civilização. Na Noruega, na Suécia, na Holanda, na Finlândia, na Suíça, na Dinamarca etc. esses problemas são muito raros, mas no brasil isso é uma constante que afunda o país. Nos EUA talvez o problema não seja tão grave quanto é no brasil, mas quando olhamos para os casos de Langan e Rosner, fica claro que há falhas graves na atuação dos headhunters, deixando de contratar algumas das pessoas mais capacitadas do país, que passaram a maior parte da vida em atividades subprofissionais. Eu citei os exemplos de Langan e Rosner, mas o mesmo vale para um grande número de pessoas com QI muito acima da média, que estão trabalhando em atividades incompatíveis, com rendimentos muito abaixo do que merecem, produzindo menos do que deveriam, enquanto pessoas muito menos capacitadas estão em cargos elevados, cometendo erros absurdos e afundando empresas ou até mesmo afundando nações inteiras. Minha namorada é engenheira ambiental e excepcionalmente inteligente, ela trabalhou numa empresa de grande porte onde ela resolvia problemas que economizavam mensalmente dezenas de milhares de dólares cortando desperdício, além de contribuir para reduzir a poluição. Uma das soluções envolvendo a substituição de um duto gerou uma economia de alguns milhões. Se ela fosse colocada num cargo mais elevado, no qual a atuação dela tivesse maior alcance, poderia poupar dezenas ou centenas de milhões para empresa. Entretanto, ela foi convidada para participar de um esquema de corrupção, ela se recusou, a pessoa que fez o convite ficou com receio de que ela os denunciasse e a demitiu.

 

Em “A República”, Platão comentava sobre a importância de que os reis fossem filósofos e os filósofos fossem reis. Isso me parece o mais natural, substituindo “filósofos” por “competentes” o que geralmente é quase sinônimo de “inteligentes”. E substituindo “reis” por um significado moderno equivalente, que pode ser CEO de grandes empresas, prefeitos, governadores e presidentes. Nos EUA há vários mecanismos para descobrir e orientar crianças e jovens talentosos, há vários programas especializados. De acordo com Eunice Maria Lima Soriano de Alencar, nos anos 1970 havia mais de 1200 programas educacionais para crianças superdotadas nos EUA. Como é possível que esses programas tenham “deixado escapar” Langan e Rosner? Como uma entidade respeitada como instituto Hollingworth não os descobriu? Não é possível que eles não tenham se destacado na escola. No brasil eu acharia normal isso, o brasil deixa quase todos os grandes talentos escorrerem pelo ralo. Mas nos EUA acho surpreendente que isso tenha acontecido. Há registros de que Langan teve escore perfeito no SAT e recebeu bolsas de estudo em duas universidades, mas parece que ele perdeu a bolsa porque chegou atrasado um dia, porque seu carro quebrou. Isso é bastante ridículo. Mesmo que ele faltasse em todas as aulas, provavelmente ele aprenderia mais e melhor do que 99% dos colegas que estivessem presentes em todas as aulas. As universidades não concederam bolsas como reconhecimento pela genialidade dele, mas como uma “esmola”, com condições restritivas de retirar a esmola se ele não cumprisse determinados critérios.

 

Esse desperdício de grandes talentos é um dos principais motivos que leva um país à ruína. A China está alcançando e superando os EUA em grande parte porque a China tem investido mais seriamente e mais pesadamente em educação especial de crianças talentosas, enquanto os EUA estão cometendo erros grosseiros como esse, deixando que grandes mentes como a de Langan, Rosner, Towers sejam desperdiçadas em trabalhos como segurança de boate ou de parque, enquanto pessoas menos capacitadas lideram grandes empresas, governam cidades e estados.

 

O nepotismo não é um fenômeno exclusivamente familiar. É muito mais abrangente, levando à colocação de pessoas subqualificadas em cargos que deveriam ser ocupados por outras com mais méritos. Não há otimização na delegação de cargos, responsabilidades, tarefas, incentivos, prêmios etc. E essa ausência de otimização é obviamente penalizada. Concorrentes que otimizam melhor isso, assumem a liderança.
 

No Brasil a situação é muito mais grave, porque não existem tais programas. Houve algumas poucas iniciativas isoladas, que chegavam a atender poucas dezenas de crianças, mas que não duraram muito tempo.

 

Os testes de inteligência são extremamente importantes para serem utilizados nesses processos de descobertas de talentos. Ainda que os testes apresentem várias falhas, é melhor que sejam aplicados na medida do possível, com os erros e remendos, do que se deixassem de ser aplicados e essa calamidade se perpetuasse. Algumas das gigantes de tecnologia criam seus próprios testes para selecionar seus colaboradores, geralmente esses testes não são tão bons quanto os hrIQts, mas pelo menos eles demonstram compreender a necessidade disso. Embora estejam remendando mal o problema, pelo menos estão tentando fazer algo para identificar jovens talentos e engajá-los em projetos relevantes, nos quais possam contribuir para o desenvolvimento da Ciência, da Tecnologia e para o bem comum, portanto essas empresas agem melhor que o governo em relação a isso.

 

Jacobsen: Quem parece ser os maiores gênios da história para você?

Melão Jr.: Leonardo, Newton, Aristóteles, Gauss, Ramanujan, Arquimedes, Euler e Einstein.

 

É difícil julgar os casos de Hawking, Galois, Faraday, Al-Hazen e outros, porque Hawking teve que enfrentar dificuldades extremas, é difícil saber qual teria sido a magnitude de seu legado se ele não tivesse adoecido. É possível que Hawking seja uma das 5 ou 10 pessoas mais inteligentes da História, embora sua obra efetiva não seja uma das 100 mais expressivas, por não ser uma representação justa de seu potencial, pois ele infelizmente não teve a oportunidade de “competir” em condições de igualdade com outros grandes gênios. Galois nasceu numa condição muito privilegiada culturalmente, intelectualmente e economicamente, mas infelizmente morreu muito jovem. Isso não significa que ele teria produzido muito mais se tivesse vivido até os 90 ou 100 anos, porque analisando a vida de outros grandes matemáticos e cientistas, a maioria dos trabalhos mais importantes que realizaram foi antes dos 25 anos, eventualmente entre 25 e 30. Além disso, há muitos casos de pessoas que produziram quase tudo que puderam antes dos 20, depois não apresentaram avanço nem acúmulo de produção (Paul Morphy, por exemplo, ou Arthur Rubin). Então a notável precocidade de Galois não indica necessariamente que ele teria produzido mais do que Gauss ou Euler, se tivesse vivido muito mais tempo. Mas mesmo que ele não alcançasse o nível de Euler, é provável que ele teria deixado um legado monumental. Faraday – assim como Edison, Leonardo e eu – não recebeu educação formal, o que pode ser interpretado como uma desvantagem, embora talvez não seja de fato. A vida acadêmica pode atrapalhar, em muitos casos, é difícil julgar com segurança. Para saber se pessoas com QI acima de determinado nível teriam vantagem ou desvantagem estudando como autodidatas, seria necessário realizar experimentos com vários pares de gêmeos com QI no intervalo desejado, em que um entre cada par de gêmeos seria forçado a seguir carreira a acadêmica e o outro forçado a não seguir. Haveria vários problemas para executar tal experimento, porque gêmeos são raros e gêmeos com QI acima de determinado nível talvez simplesmente não exista nenhum caso como exemplo, e o estudo exigiria uma amostra com pelo menos algumas dezenas. Outro problema é a questão ética, de forçar uma pessoa a frequentar a unidade e forçar outra a não frequentar. Isso é especialmente grave no caso de gêmeos monozigóticos, porque provavelmente ambos teriam preferências semelhantes, e algum deles teria que ser “sacrificado” nessa situação, forçado a fazer algo diferente do que gostaria.

 

Na época em que conheci as comunidades de alto QI, falava-se muito em Sidis como o maior gênio da história, um gênio injustiçado e incompreendido. Há um pouco de verdade nisso, mas também há muitos exageros e distorções. Sidis é um caso incomum e muito difícil de julgar, porque a história dele está misturada com lendas e fantasias. Meu primeiro contato com a “história” de Sidis foi por meio de um artigo de Grady Towers, em 1999, que depois ele modificou em 2000. Hoje sei que havia muitas informações incorretas naquele texto, mas na época eu acreditei no que estava lá, e cheguei a considerar a possibilidade de que Sidis realmente fosse a pessoa mais inteligente da História. Atualmente vejo Sidis como uma vítima de seus pais, um prodígio forçado com talvez 180 a 200 de QI, que poderia ter sido um bom pesquisador e levado uma vida agradável e produtiva, mas foi transformado numa atração circense. O QI 250-300 que durante anos foi atribuído a ele parece ter sido invenção de sua irmã, os 54 idiomas que se afirmava que ele falava foram reduzidos para 52, depois 40, depois 26 e atualmente parece que se considera que ele talvez falasse de fato 15 a 20 idiomas. A lenda sobre ele conseguir aprender 1 idioma em 1 dia parece ser simplesmente falsa. Ele não obteve um Ph.D. Cum Laude em Harvard aos 16 anos, mas sim um B.Sc., o que ainda é uma realização expressiva, mas não tanto. Cerca de 12% dos estudantes de Yale se graduam Cum Laude, Magna Cum Laude ou Summa Cum Laude. Em alguns anos (como 1988) essas porcentagens podem aumentar bastante, chegando a mais de 30%. Eu não sei as porcentagens em Harvard, mas suponho que não seja tão diferente. Então é de fato expressivo, mas não tão impressionante quanto seria esperado por alguém com supostos 250-300 de QI.

 

A tendência da irmã dele em exagerar quase tudo acaba aumentando o ceticismo sobre quais alegações sobre ele são reais. O fato é que ele não deixou um legado científico nem matemático que justifique a superavaliação que se costuma fazer sobre ele. As ideias dele sobre buracos negros foram precedidas em mais de 100 anos por Laplace e Michell, as ideias dele sobre Evolução já haviam sido mais bem desenvolvidas por Darwin e Wallace, aliás, a abordagem de Sidis é bem mais superficial que a de Darwin e Wallace, sendo mais semelhante à de Anaximandro e Aristóteles. Contudo, permanece a dúvida sobre o nível de produção intelectual que ele poderia ter alcançado se não tivesse se afastado da vida acadêmica, ou, mesmo afastado da vida acadêmica, mas produzindo Ciência e Matemática fora da universidade.

 

Em termos de precocidade, Gauss, Galois, Neumann e Pascal me parecem mais notáveis que Sidis, inclusive porque Gauss foi um prodígio natural, enquanto Sidis foi uma mistura de prodígio natural e prodígio forçado. Galois, Pascal, Neumann também foram prodígios naturais e forçados, mas não tão forçados quanto Sidis. Essa pressão a que Sidis foi submetido talvez o tenha prejudicado e provocado o desfecho que essa novela acabou tendo. Acho difícil avaliar.

 

Por isso se essa pergunta me tivesse sido feita em 2000, talvez eu fizesse uma análise menos crítica e mais superficial e apontasse Sidis como o maior gênio. Atualmente eu teria dúvidas inclusive se ele teria escore muito alto nos hrIQts, talvez ele chegasse a 190 em alguns testes, mas em outros não passaria de 180. No que diz respeito à produção intelectual, os registros não mostram nada tão extraordinário.

 

Jacobsen: O que diferencia um gênio de uma pessoa profundamente inteligente?

Melão Jr.: habitualmente o conceito de “gênio” é utilizado para indicar capacidade excepcional em diferentes áreas científicas, artísticas, esportivas, culturais etc. Nesse contexto, uma das principais diferenças seria o nível de especificidade, pois o gênio poderia indicar um talento notável em qualquer área de atuação (Música, Futebol, Ballet etc.), inclusive atividades nas quais não seja exigida inteligência em alto nível. Em contraste a isso, a pessoa profundamente inteligente teria seu talento ligado exclusivamente a atividades nas quais a notabilidade exija nível intelectual muito elevado (Física, Matemática, Literatura, Xadrez etc.).

 

Mas esse conceito é inadequado, em minha opinião, porque com o desenvolvimento de máquinas que superam os melhores humanos em diferentes modalidades, torna-se importante não misturar máquinas “inteligentes” com outras máquinas. Poderia parecer aceitável dizer que Usain Bolt é um gênio do atletismo, mas seria estranho dizer que um Bugatti Chiron é um gênio, embora o que o Chiron faz excepcionalmente seja o mesmo que Usain Bolt faz. Por isso é necessário determinar critérios objetivos de classificação que sejam aplicáveis igualmente a todas as entidades orgânicas e inorgânicas, sem discriminação, um critério que funcione bem e não produza classificações bizarras. Não seria razoável dizer “ah, Chiron é um carro, portanto critério não se aplica a ele”. Isso seria uma discriminação rasa e incorreta, porque em poucas décadas haverá carros capazes de conversar sobre Filosofia e demonstrar teoremas matemáticos, inclusive híbridos que sejam parte humanos e parte carros, e se um dos critérios para ser considerado genial for “não pode ser um carro”, haveria uma grave inconsistência. Um critério sério e justo precisa ser bem planejado, não pode ser um palpite ingênuo que não contempla as possíveis exceções.

 

Os talentos para modalidades intelectuais, quando atingem determinado nível de excelência (algo como 5 desvios padrão acima da média) podem ser considerados “gênios”, mas para atividades nas quais o nível intelectual não desempenha um papel importante (Boxe, Futebol, Atletismo etc.), creio que o termo correto deveria ser escolhido com mais cuidado, para evitar que máquinas não intelectuais sejam incorretamente classificadas como “gênios” (um carro veloz ser classificado como “gênio” por ser veloz me parece um erro etimológico, mas se este carro pudesse realizar tarefas intelectuais, a situação mudaria). Em algumas circunstâncias, as máquinas precisam ser reconhecidas como gênios, caso contrário haverá inconsistências graves na sintaxe do idioma, apoiadas exclusivamente em preconceito contra máquinas. AlphaZero ou MuZero, por exemplo, em minha opinião eles (especialmente MuZero) se encontram numa “zona cinza” de difícil avaliação. MuZero pode aprender sozinho a jogar Xadrez, Go, Shogui, jogos de Atari, e alcançar nível muito alto, superior ao dos melhores humanos do mundo em alguns desses jogos, que são reconhecidos como jogos intelectuais. Por isso uma tentativa de ajuste post facto nos critérios, com o único propósito de desqualificar MuZero como um gênio, isso me pareceria um sinal de discriminação injusta. Mesmo porque, as próximas gerações de MuZero tendem a apresentar cada vez melhor o que entendemos como “inteligência geral”, e em algum momento não haverá como evitar reconhecer que algumas máquinas também precisam ser classificadas como “inteligentes”.

 

A dúvida é se caberia melhor a MuZero a classificação de “idiot savant” ou de “gênio”. A meu ver, seria melhor “gênio”, porque idiot savants normalmente não são muito criativos e não se sobressaem em atividades que exijam resolver problemas sofisticados e profundos. São muito bons em memorizar e repetir, sejam cálculos mentais ou execuções de músicas, mas não conheço nenhum caso de idiot savant que tenha se destacado como enxadrista ou como cientista. Talvez fosse possível reformular os significados de gênio e de idiot savant de maneira que MuZero ficasse mais bem classificado como savant, sem comprometer a essência desses significados. Uma classificação adequada não poderia “empurrar” Bobby Fischer ou Kasparov para o grupo de savants, por exemplo. A classificação precisaria ser cuidadosa, para não criar inconsistências com o único objetivo de remover MuZero do grupo de gênios, nem apresentar outros tipos de arbitrariedades.

 

Em algumas outras atividades nas quais não há necessidade de um intelecto excepcional, sendo suficiente QI perto de 120 aliado a um talento excepcional para uma área específica, creio que o termo “gênio” não deveria ser aplicável. Mike Tyson ou Usain Bolt não precisam de muito mais que 120 de QI, e alguns veículos sem qualquer traço de inteligência, que não pensam, podem vencer Bolt na modalidade que ele se notabilizou, então a excelência nessa modalidade talvez não deva ser encarada como “genialidade”.

 

Em alguns casos é mais difícil avaliar se o termo “gênio” seria ou não aplicável. Sistemas de Inteligência Artificial como AIWA, que é especializada em compor músicas, e faz isso num nível muito alto, a meu ver, também não deveria ser classificado como “gênio”, e nesse caso os grandes compositores humanos também não deveriam ser classificados como “gênios” com base exclusivamente em seu talento para compor. Se esse talento para compor músicas estivesse acompanhado de um nível intelectual compatível com o critério intelectual de genialidade, então a classificação como “gênio” seria aplicável com base nisso. O mesmo valeria para lutadores de Boxe, agricultores ou profissionais de qualquer área, que não seriam classificados como “gênios” com base em seus talentos para suas atividades de maior destaque, mas sim por sua inteligência.

 

Nessa acepção, poderia haver gênios latentes e gênios efetivos. A genialidade latente estaria no potencial intelectual de produzir contribuições relevantes para ampliar os horizontes do conhecimento, revolucionar os paradigmas científicos, etc. Enquanto o gênio efetivo seria aquele que concretamente faz essas coisas. Uma pessoa profundamente inteligente, que não tenha realizado contribuições notáveis, poderia ser um gênio latente, tendo em aberto a constante oportunidade de se tornar um gênio efetivo, a partir do momento que utiliza seu potencial para o desenvolvimento científico, ou para inovações em matemática ou em algum campo importante do conhecimento.

 

Algumas pessoas consideram que a diferença fundamental entre um gênio e uma pessoa profundamente inteligente está na criatividade, mas a criatividade é um dos componentes da inteligência. As pessoas muitas vezes confundem o raciocínio lógico (que também é um dos componentes da inteligência) com a própria inteligência. Mas o comportamento inteligente é uma combinação ampla de muitos processos cognitivos, inclusive memória e criatividade.

 

A diferença entre “gênio” e “profundamente inteligente” é mais quantitativa e está associada às proporções em que estão presentes determinados atributos. A criatividade aparece no gênio como um elemento fundamental, mas não porque o gênio seja criativo e a pessoa profundamente inteligente não seja (ambos são), ou sequer porque o gênio seja sempre mais criativo (embora geralmente seja). No conjunto de atributos, considerando raciocínio lógico, criatividade, memória de trabalho, memória de longo prazo etc., o gênio possui e utiliza esse conjunto de traços latentes na resolução de problemas inéditos com maior eficiência. Como a criatividade geralmente é um dos quesitos mais importantes para isso, acaba sendo natural associar a genialidade à criatividade.

 

Jacobsen: A inteligência profunda é necessária para o gênio?

Melão Jr.: Para o conceito de gênio que descrevi, sim. Na resposta anterior acabei respondendo a essa.

 

Jacobsen: Quais foram algumas experiências de trabalho e empregos que você teve?

Melão Jr.: Desde 2006 trabalho no desenvolvimento de sistemas de inteligência artificial para operar no Mercado Financeiro. Atualmente estou interessado em resolver o problema de prolongar a vida indefinidamente, preservar a memória e a identidade em dispositivos inorgânicos que tenham uma interface adequada de comunicação com o cérebro, ressuscitar pessoas, restaurar corpos severamente danificados e outros problemas menores que são subconjuntos desses e pré-requisitos para esses.

 

Jacobsen: Por que seguir esse caminho de trabalho específico?

Melão Jr.: o desenvolvimento de sistemas automáticos para operar no Mercado Financeiro é uma atividade desafiadora intelectualmente e oferece uma recompensa monetária razoavelmente justa, embora a ausência de uma network empresarial imponha muitos obstáculos. O nível de dificuldade, complexidade e profundidade dos problemas que precisam ser resolvidos para obter lucros consistentes a longo prazo com operações long-short é extremamente elevado. Há algumas maneiras fáceis de ganhar 3% ao ano ou pouco mais, praticando Buy & Hold do índice ou de Blue Chips, em que o ganho é pequeno, mas muito fácil. Porém se a pessoa quiser lutar para obter lucros perto de 30% ao ano ou acima, o desafio é extraordinariamente difícil e poucas pessoas no mundo conseguem isso de fato. Como parte desse trabalho, fiz alguns avanços interessantes em Econometria e Gerenciamento de risco. Em 2007, solucionei um problema que havia sido resolvido de forma insatisfatória durante 22 anos, ao criar um índice para medir o desempenho ajustado ao risco que era mais acurado, mais preditivo e conceitualmente mais bem fundamentado do que os índices tradicionais de William Sharpe (prêmio Nobel 1990) e Franco Modigliani (Nobel 1985). Em 2015 mostrei que o método recomendado pelo Prêmio Nobel de Economia Harry Markowitz, para otimização de portfólio, apresenta algumas falhas, e propus algumas melhorias que tornam esse método mais eficiente e seguro. Em 2021 apontei falhas na recomendação do Prêmio Nobel de Economia de 2003, Clive Granger, quanto ao uso do conceito de cointegração, e apresentou uma solução mais adequada para o mesmo problema. Entre outras contribuições em processos de otimização de algoritmos genéticos, ranqueamento e seleção de genótipos, reconhecimento de padrões etc.

 

Jacobsen: Quais são alguns dos aspectos mais importantes da ideia de superdotados e gênios? Esses mitos que permeiam as culturas do mundo. Quais são esses mitos? Que verdades os dissipam?

Melão Jr.: parece haver diferentes mitos entre diferentes estratos intelectuais. Para a maior parte da população, com QI abaixo de 130, parece que pensam no gênio como uma pessoa maluca, reclusa, antissocial, fisicamente frágil, e todos os defeitos físicos e psicológicos que eles conseguem imaginar, como uma necessidade mórbida de empurrar para baixo a pessoa por não tolerarem o fato de que ela se sobressai em alguma coisa e ainda por cima ter pequena vantagem em quase tudo. Muitos filmes, livros e revistas tentam reforçar esse estereótipo. Mas há outras ideias incorretas que são disseminadas em outras faixas de QI. No nível de 130 a 180, por exemplo, parece haver uma supervalorização dos resultados em testes de QI, sem uma compreensão correta sobre os limites de até que ponto esses testes produzem escores acurados e fidedignos.

Outro mito está relacionado ao nível de raridade. Pessoas que não tenham noções de Psicometria (quase todas fora das sociedades de alto QI) acham que superdotados são muito raros, algo como 1 em 1 milhão ou até mais raros. Eles geralmente também não têm noção da diferença entre “superdotado” e “gênio”, inclusive alguns acham que superdotado é mais inteligente do que gênio.

Jacobsen: Alguma opinião sobre o conceito de Deus ou a ideia de deuses e filosofia, teologia e religião?

Melão Jr.: minha família era católica. Eu me tornei ateu aos 11 anos, depois de estudar sobre algumas religiões. Num processo de transição que durou alguns anos entre os 17 e 25 anos, acabei me tornando agnóstico. Eu cheguei a me interessar pela Fé Bahá'í aos 27 anos e aos 28 me tornei deísta e escrevi um artigo no qual apresento argumentos científicos sérios sobre a existência de Deus. Digo “argumentos sérios” porque todos os argumentos pseudocientíficos que conheço sobre o assunto são tentativas desesperadas de “provar” uma crença a priori. É diferente de uma análise imparcial que conduz a uma conclusão que não havia servido como motivação inicial. Continuo sendo deísta, cheguei a fundar minha própria religião e estou escrevendo um livro sobre o assunto.

Jacobsen: Quanto a ciência influencia na visão de mundo para você?

Melão Jr.: A Ciência é o único caminho que conhecemos por meio do qual se pode desenvolver modelos adequados para representar a realidade senciente, modelos funcionais, capazes de fazer generalizações e previsões, em que os resultados obtidos são razoavelmente conforme as previsões, sem que as previsões dependam da sorte para acertos casuais. A Ciência é imprescindível no processo de aquisição do conhecimento e desenvolvimento tecnológico. Por outro lado, é importante compreender as limitações da Ciência, como um corpo de disciplinas que nos oferece um método valioso, mas que não está imune a falhas. O grande diferencial da Ciência não está no conhecimento que ela produz, mas sim no método que permite que ela se corrija a si mesma e faça isso constantemente, atualizando-se, refinando-se, ampliando-se etc., de modo que todo o conhecimento científico, mesmo que seja fundamentalmente incorreto, tem alguma utilidade prática e funciona razoavelmente bem dentro dos limites que a Teoria da Medida estabelece. O modelo cosmológico de Ptolomeu, por exemplo, mesmo sendo fundamentalmente errado, permitia fazer previsões muito acuradas. Algumas vezes as teorias científicas podem não representar estruturalmente de forma acurada os fenômenos naturais, mas ainda que as explicações teóricas não sejam as mais corretas, elas funcionam. Os conhecimentos obtidos por outros meios, como a Filosofia, a Religião ou a cultura popular, geralmente têm menor probabilidade de “funcionar”, e mesmo quando funcionam, é difícil regular os parâmetros que determinam seu funcionamento, devido à ausência de uma teoria subjacente que esteja organizada por um modelo matemático.

 

Jacobsen: Quais foram alguns dos testes realizados e pontuações obtidas (com desvios padrão) para você?

Melão Jr.: não há uma resposta simples a essa pergunta. Aliás, entre todas as perguntas dessa entrevista, talvez essa seja a mais difícil, porque além de dar uma resposta correta, preciso tentar ser diplomático para não parecer muito arrogante. Minha namorada já me perguntou dezenas de vezes qual é o meu QI, Tor já me perguntou isso pelo menos 5 vezes, e eu geralmente me esquivo do assunto, porque é demorado ter que explicar tudo. Mas eu vou responder aqui e quando outras pessoas me perguntarem novamente, eu vou fornecer o link dessa resposta, inclusive porque em questões anteriores e no texto introdutório comentei um pouco sobre testes clínicos, hrIQts, estimativas e comparações. Com isso, creio que será possível expressar minha opinião sobre esse tema de forma razoavelmente completa e acurada em menos de 50 páginas, aproveitando as respostas anteriores como pré-requisitos.

 

Fui examinado pela primeira vez aos 3 anos de idade, e cheguei até os testes para 9 anos, porque não tinham acima de 9 anos para crianças que não sabiam ler. Eu não sei qual o nome dos testes, mas o desvio padrão provavelmente era 24. Há vários pontos complexos que precisam ser examinados sobre isso, porque a evolução da inteligência em função da idade não é linear, como na fórmula simplificada de Stern, o desvio padrão não é 24 em todas as faixas etárias abaixo de 16 anos, a maioria das crianças muito jovens examinadas são prodígios forçados que os pais tentaram ensinar muita coisa desde que nasceram, mas não foi assim no meu caso, meu pai saía para trabalhar antes de eu acordar e voltava depois que eu já estava dormindo, minha mãe trabalhava quase o dia todo, por isso nenhum deles tinha sequer tempo para ficar muito comigo, quanto menos para me treinar como um prodígio forçado. Outros pontos a considerar são que o desenvolvimento intelectual não termina aos 16 anos (nem 17 ou 18 ou 19), nem chega ao limite numa idade fixa para todas as pessoas, nem permanece estável ao chegar em determinada idade. Portanto a interpretação de que a idade mental de 9 anos aos 3 anos corresponde a um ratio IQ 300 é grosseiramente incorreta e ingênua. Mesmo depois de converter a escala com desvio padrão 24 para 16, chegando a 233, continua incorreta. A curva de evolução da inteligência em função da idade também varia de uma pessoa para outra. Por isso não é razoável tomar como base testes aplicados na infância para tentar estimar qual será o QI em idade adulta. Há vários casos de QIs medidos na infância que se mostram muito distantes dos corretos em idade adulta, embora alguns possam “acertar por sorte”, como no caso de Terrence Tao, que teve o QI medido em 230 e, por sorte, realmente o QI dele está perto disso. No meu caso, é possível que também o QI medido tenha chegado perto do valor correto “por sorte”, mas os testes utilizados, o método utilizado, etc. não são apropriados.

 

Outro detalhe é que eu não sei se eu continuaria resolvendo as tarefas típicas de crianças com mais de 10 anos, mas é possível que sim, porém a precocidade em resolver tarefas típicas de crianças mais velhas não diz quase nada, ou diz muito pouco, sobre o nível intelectual que será alcançado em idade adulta, porque as habilidades medidas não fornecem informações úteis para esse tipo de prognóstico. O tipo de habilidade que indicaria um nível intelectual muito alto (200+) em idade adulta não tem relação com o mesmo tipo de tarefa que uma criança de 8, 9 ou 10 anos, ou mesmo 20 anos, poderia realizar, mas sim com a solução de problemas que indicassem traços de criatividade e pensamento profundo para aquela idade. O evento na aula de Geografia aos 9 anos, por exemplo, foi um indicativo muito mais relevante do que o resultado do teste aos 3 anos, não apenas porque aos 9 anos já havia alcançado maior maturidade e estava mais perto do potencial que teria quando adulto, mas também, e principalmente, porque o tipo de problema envolvido estava mais estreitamente relacionado aos processos cognitivos necessários a adultos geniais.

 

Conforme comentei no texto introdutório, em outras respostas, em alguns artigos e em alguns fóruns, os testes de QI e os hrIQts apresentam problemas na validade de constructo, erros no cálculo da norma e inadequação do nível de dificuldade. Eu já tive uma experiência muito ruim com Paul Cooijmans em 2001 e eu não pretendo voltar a perder tempo com isso. O Space, Time & Hyperspace (STH) de Cooijmans propunha medir o QI até 207 (σ=16), embora a dificuldade real das questões mais difíceis desse teste não seja muito maior que 170. Mas isso não é o principal problema. O STH contém vários erros primários que invalidam completamente o teste e a norma, embora muitas pessoas o considerem um dos “melhores” hrIQts. Em 2001 escrevi para Cooijmans sobre isso e apontei a ele um desses erros, mas ele se recusou a conversar a respeito disso e não admitiu o erro dele. Eu não tenho paciência para lidar com pessoas que agem como ele. Vou descrever exatamente qual o problema usando um exemplo:

 

O enunciado geral para todas as questões do STH era a seguinte:

 

a : b :: c : d

 

Significando: “a” está para “b” assim como “c” está para “d”.

Dados “a, b, c” determine “d”.

 

O enunciado, juntamente com o teste, podem ser acessados em https://web.archive.org/web/20040812113534/http://www.gliasociety.org/

 

Segue um print do que está no link acima:

3.png

 

O enunciado geral diz que há uma relação da 1ª figura para a 2ª figura que deve ser descoberta e, em seguida, essa mesma relação deve ser aplicada na 3ª figura para produzir a 4ª figura. Esse é o único enunciado geral para todas as questões desse teste, apresentado no início do teste, e funciona assim nas questões 1 até 9, mas não é assim na questão 10 nem em 16 outras questões entre as 28 que constituem esse teste.

 

Ele queria que na questão 10 fosse descoberta a relação da 1ª figura para a 3ª figura e, em seguida, essa mesma relação fosse aplicada na 2ª figura para produzir a 4ª figura! Mas em nenhum momento ele pediu isso no enunciado. O que o enunciado pede é exatamente o que descrevi acima. Se a pessoa responde exatamente o que o enunciado está pedindo, a pessoa perde 1 ponto!
 

Há várias outras questões no STH com esse mesmo erro básico de lógica. Nessa situação surreal, se a pessoa acertar todas as 28 questões exatamente em conformidade com o que pede o enunciado do teste, a pessoa receberá apenas 11 certos e terá escore 135 em vez de 205 pela norma atual, ou 140 em vez de 207 pela norma antiga.

 

Como Cooijmans não aceitou conversar a respeito disso, eu conversei (na época) com 3 outras pessoas capacitadas para opinar: Petri Widsten, Albert Frank e Guilherme Marques dos Santos Silva.

 

Petri Widsten teve o escore mais alto no Sigma Test, no STH e foi campeão em vários concursos de lógica e de QI, inclusive http://www.worldiqchallenge.com/rankings.html, onde Petri teve quase o dobro do escore bruto de Rick Rosner. Petri rapidamente concordou comigo sobre isso, inclusive com prejuízo para as próprias respostas dele, porque ele havia respondido o que ele achava que o Cooijmans gostaria de receber como resposta, não o que seria a resposta mais certa. Todas as vezes que me lembro desse assunto, fico estressado, porque Cooijmans é uma pessoa muito teimosa. Eu não acho que Cooijmans seja estúpido ou desonesto; eu acho que ele é inteligente e ele tenta fazer o que ele acredita ser certo, mas a teimosia dele é maior do que a inteligência dele.

 

Albert Frank foi professor de Lógica e Matemática na Universidade de Bruxelas, campeão veterano de Xadrez na Bélgica. Albert também concordou comigo e fez alguns comentários sobre Lógica formal que categorizam o tipo de erro cometido pelo Cooijmans.

 

Guilherme Marques dos Santos Silva é membro de Sigma V e foi campeão no concurso de QI “Ludomind International Contest IV", também concordou comigo e “desistiu” de terminar de fazer o STH depois que viu esse erro absurdo. Ele disse que faltavam poucas questões para terminar, mas devido ao grave viés na correção, não teve interesse em prosseguir.

 

Além das pessoas com as quais conversei naquela época, também conversei recentemente com Tianxi Yu sobre esse tipo de problema. Yu tem escore 196, σ=15 no Death Numbers, que é considerado um teste sério e com norma desinflada. Ele comentou que já encontrou erros em vários testes, e ele postou uma extensa e detalhada crítica pública sobre isso em um grupo, citando os diversos tipos de erros que o incomodam. Há vários pontos nos quais discordo das opiniões de Yu, mas em relação aos testes, nossas opiniões são muito semelhantes.

 

Logo que tomei meu primeiro contato com as sociedades de alto QI e conheci o site do Miyaguchi (1999), cheguei a me interessar em fazer o Power Test, que eu considero um dos melhores em termos de validade de constructo e com nível adequado de dificuldade. Na época eu tinha 27 anos e uma opinião diferente da atual, eu tinha três objetivos com o Power Test: um deles era a diversão, outro era bater o recorde de Rick Rosner de QI~193 e o terceiro era entrar em Mega Society. Naquela época era utilizada a norma calculada por Garth Zietsman para o Power Test, com teto 197, mas antes de eu terminar de resolver todas as questões, o Power Test deixou de ser aceito em Mega Society e o teto foi “revisado” para 180. Então eu perdi completamente o interesse.

 

Garth Zietsman é um estatístico competente e a norma que ele calculou, provavelmente utilizando Teoria de Resposta ao Item, é consistente e muito bem fundamentada. Se os mesmos itens utilizados no Mega, Titan e Ultra estavam no Power, então as dificuldades individuais desses itens foram mantidas e determinavam a norma do Power. Por isso quando o teto do Power Test foi modificado para 180, isso foi um erro. Simplesmente foram desconsideradas as mais de 4.000 aplicações do Meta, Titan e Ultra, que serviram de base para a norma calculado por Zietsman, e foi calculada uma nova norma baseada em poucas dezenas de pessoas. O procedimento correto seria somar os novos dados (sobre os resultados de cada item respondido pelas pessoas examinadas com o Power) ao banco de itens que continha as questões do Mega, Titan e Ultra, calibrar novamente os parâmetros de dificuldade, poder discriminante e acerto casual (se aplicável) de cada item, então revisar as normas dos 4 testes de Hoeflin que compartilhavam aqueles itens. Assim os níveis de dificuldade seriam preservados igualmente em todos os testes, mantendo uma escala unificada.

 

Mas da maneira como foi feito, a norma do Power ficou distorcida para baixo em relação aos outros três testes de Hoeflin. Para esclarecer melhor o problema, vou citar um exemplo: no Power Test a questão sobre a fita de Moebius está sendo tratada estatisticamente como se tivesse parâmetro b = +2.81, ou seja, 50% das pessoas com QI 145 (σ=16) devem acertar essa questão. Entretanto, a mesma questão sobre a fita de Moebius ao ser aplicada em outro dos testes de Hoeflin está sendo tratada estatisticamente como se tivesse parâmetro b = 3,88 ou seja, 50% das pessoas com QI 162 (σ=16) devem acertar essa questão. Isso é uma inconsistência grave, porque ou a questão tem dificuldade 2,81 em todos os testes nos quais ela é utilizada, ou 3,88 em todos os testes. A questão não pode ter dificuldade 3,88 em alguns testes e 2,81 em outros. A normatização de Zietsman é consistente nesse aspecto, de modo que o teto do Power produz uma norma na mesma escala em que estão as normas do Mega, Titan e Ultra.

 

Um dos motivos que provocou essa redução no teto do Power é porque algumas pessoas já haviam levado um ou mais dos outros testes de Hoeflin nos quais os itens do Power estavam presentes, por isso a probabilidade de acertar esses itens na segunda tentativa era maior, aumentando ainda mais na terceira e quarta tentativas. Mas a maneira correta de lidar com isso seria ajustando todas as normas de todos os testes que continham aqueles itens, em função do número de vezes que aqueles itens já haviam sido resolvidos pela pessoa examinada, com normas personalizadas para cada pessoa, ou com base em quantos e quais dos três outros testes a pessoa já havia resolvido (uma equação para isso poderia ser facilmente determinada com o uso de análise de clusters, por exemplo).

 

Também poderia simplesmente verificar os escores de pessoas que haviam feito mais de um teste (ou o mesmo teste mais de uma vez) e o efeito disso sobre a probabilidade de acertar cada item repetido no segundo, terceiro ou quarto teste que continha o mesmo item. Embora esse ajuste global no conjunto de itens não fosse tão acurado e refinado quanto a análise desse efeito sobre cada item individual, como sugeri acima, isso já ajudaria a aprimorar as normas em todos os 4 testes, em vez de distorcer a norma do Power em relação a todos os outros.  

 

Enfim, há uma quantidade preocupante de erros nos hrIQts, tanto nos cálculos das normas quanto nas respostas aceitas como corretas, entre outros problemas. Por isso o Sigma Test sempre adotou uma política de transparência, sendo aberto a debates, se a pessoa tivesse algum escore acima de 180 em qualquer teste e ela acreditasse que alguma resposta dela estava certa e ela achasse que recebeu uma avaliação incorreta, ela podia contestar a correção de uma questão que ela escolhesse. Se ela tivesse razão, ela podia contestar a correção de mais uma questão, e assim por diante, até que a contestação dela fosse improcedente. O Moon Test e o Sigma Test Extended adotam uma política semelhante de transparência, mas o escore mínimo em outros testes para ter esse direito a contestação é 190 tanto no Moon Test quanto no Sigma Test Extended. Isso permite revisar eventuais erros, além de permitir que a pessoa examinada tenha a oportunidade de defender o que ela considera certo, na hipótese de ela achar que merecia mais pontos do que recebeu. Em minha opinião, todos os testes deveriam adotar uma política semelhante.

 

Se houvesse algum teste com características apropriadas, eu consideraria a possibilidade de fazer outro teste, embora eu esteja mais velho e mais burro. Basicamente deveria ser um teste com boa validade de constructo nos níveis mais altos, teto apropriado e dificuldade apropriada. Além disso, deveria ter um sistema formal de “reclamação” que permitisse contestar o resultado. Sem isso, não vejo razão para perder tempo com essas coisas. Um hrIQt pode facilmente consumir 50 horas e se for um teste realmente difícil, com nível adequado de dificuldade, pode consumir mais de 500 horas. É um tempo que poderia ser aplicado em atividades mais interessantes e produtivas. Por isso, a menos que o teste reúna uma série de virtudes notáveis que justifiquem o esforço, eu não teria interesse. Na verdade, há um teste que, na minha opinião, atende a esses quesitos, mas eu não posso resolver porque eu sou o autor. Isso me faz lembrar de um assunto que foi discutido há poucas semanas num grupo:

4.png

 

Na verdade, alguns problemas que eu já resolvi são mais difíceis que os problemas mais difíceis do Sigma Test Extented. Então há algumas pistas úteis nisso.

 

Algumas pessoas já fizeram estimativas de meu QI e já fizeram algumas comparações. Em 2004, o fundador de Pars Society (QI>180), Baran Yonter, estimou meu QI em mais de 200 (σ=16, G), isso é equivalente a mais de 240 pIQ (σ=16, T). Achei que ele estivesse sendo gentil, mas em 2005, quando fui indicado para a produção do programa de TV “Fantástico”, da rede Globo, como a pessoa mais inteligente do Brasil, descobri que outras pessoas tinham opiniões semelhantes à de Baran sobre mim. Eu me senti lisonjeado com as indicações, mas eu não sei se realmente sou a pessoa mais inteligente do Brasil e eu disse isso ao jornalista, mas ele insistiu, e como eu havia sido o mais indicado, e também por uma questão de vaidade, acabei aceitando fazer a matéria, cujo vídeo está disponível em minha página e meu canal.

 

É necessário fazer uma ressalva importante em relação à correta determinação da pessoa mais inteligente do Brasil, porque há um brasileiro que ganhou uma medalha Fields (Artur Ávila) e há um brasileiro que prestou contribuições fundamentais ao desenvolvimento das lógicas paraconsistentes (Newton da Costa), ambos são pessoas muito inteligentes, mas com perfis diferentes do meu, por isso seria difícil fazer uma comparação adequada para saber com segurança quem é o mais inteligente do Brasil, porque cada um deles é profundamente especializado em uma área muito específica, enquanto meus talentos e realizações se distribuem por uma grande variedade de áreas diferentes. Como resultado da maior especialização, o nível de profundidade que eles alcançaram é maior, mas essa maior profundidade não reflete uma maior profundidade de raciocínio, e sim maior profundidade de conhecimento. Além disso, eu só estudei até o 11º ano, enquanto eles fizeram doutorado e pós-doutorados com excelentes orientadores, o que me coloca numa situação de “correr com as pernas amarradas” em comparação a pessoas que correm montadas em cavalos. As pessoas que trabalharam nos mesmos problemas nos quais eu trabalhei estavam equipadas com ferramentas matemáticas mais sofisticadas, acesso a computadores muito mais potentes, acesso a vasta bibliografia de alta qualidade, receberam treinamento formal muito mais prolongado, intensivo e sob orientação de cientistas experientes, enquanto todo o meu “treinamento” foi auto-administrado, praticamente sem recursos bibliográficos e com modestos recursos computacionais. Muitas vezes precisei criar minhas próprias ferramentas estatísticas antes de usá-las na resolução dos problemas, e depois eu descobria que já existiam ferramentas prontas para as mesmas finalidades. Durante o desenvolvimento de meu sistema para operar no Mercado Financeiro, situações como essa se repetiram muitas vezes.

 

Um detalhe que é importante esclarecer: eu comentei (no apêndice) que a qualidade média do ensino no Brasil é péssima, então qual seria minha desvantagem por não ter frequentado esse ambiente péssimo? E a resposta é simples: muitos dos melhores acadêmicos brasileiros vão estudar nos melhores centros de pesquisa e universidades da Europa, dos EUA, Canadá, Austrália, Japão etc. Além disso, há alguns poucos pesquisadores realmente bons no Brasil, e quando um jovem talento recebe orientação de um pesquisador de primeira magnitude, isso faz uma diferença muito grande. Portanto há uma vantagem substancial nas oportunidades de Artur e Newton da Costa se comparados com a minha situação, porque eles tiveram acesso a muito mais recursos, além das vantagens em orientação e treinamento.

 

Em relação às outras pessoas que trabalharam nos mesmos problemas que eu, e eu resolvi esses problemas antes delas ou melhor do que elas ou as duas coisas, quase todos são de outros países: Nick Trefethen é Chefe do Dep. de Cálculo Numérico na Universidade de Oxford e coleciona alguns prêmios internacionais de Matemática (Leslie Fox Prize 1985, FRS Prize 2005, IMA Gold Medal 2010), Susumu Tachi é Professor Emérito na Universidade de Tóquio e Professor Convidado no MIT, Stefan Steinerberger é professor de Matemática em Yale, William Sharpe é professore na Universidade da Califórnia e Nobel de Economia em 1990, Franco Modigliani é Professor na Universidade de Roma e Nobel de Economia em 1985, Clive Granger foi professor na Universidade de Nottingham e Nobel de Economia em 2003, entre outros. Então as pessoas que trabalharam em alguns dos problemas que eu resolvi constituem uma “concorrência de peso”, além de eles terem acesso a mais recursos, mais assessores etc., portanto acho que eu ter realizado trabalhos melhores que os deles, ou ter solucionado problemas relevantes antes deles, talvez represente algum mérito para mim, eu não tenho falsa modéstia em admitir isso.

 

O fato é que a determinação correta da pessoa mais inteligente de um país não é algo tão simples, não é um jogo de egos e vaidades. É necessário que haja embasamento real para isso. Por exemplo, eu acho que Petri Widsten tem excelentes chances de ser a pessoa mais inteligente da Finlândia, não apenas pelo excelente resultado dele no Sigma Test, mas também porque a tese dele de doutorado, além de muito inovadora, foi premiada como a melhor tese do país no biênio 2002-2003 e ele venceu vários concursos de lógica. O conjunto desses resultados, e outros detalhes menores, como ele ser fluente em mais de 10 idiomas, sugerem um nível intelectual real com raridade acima de 1 em 5 milhões, que é a população da Finlândia. Entretanto há outras pessoas muito inteligentes na Finlândia, como Rauno Lindström ou Bengt Holmström. Embora a Finlândia seja um país culturalmente mais homogêneo, de modo que não há uma diferença de oportunidades tão grande quanto no meu caso, ainda assim a comparação ainda é difícil, por isso não seria prudente afirmar categoricamente que determinada pessoa (Petri ou Rauno ou outro) é a mais inteligente da Finlândia. O mais apropriado seria atribuir uma probabilidade a cada um. Petri teria em torno de 95% de probabilidade de ser a pessoa mais inteligente da Finlândia, Talvez Rauno 2%, Bengt 1% e alguém entre as outras pessoas 5 milhões de pessoas 2%. No caso do Brasil, minha vantagem seria bem menor que a do Petri em relação aos outros fortes candidatos.

 

Em 2005, o amigo Alexandre Prata Maluf, membro de Sigma V, Pars Society e OlympIQ Society, estimou que meu QI deveria ser semelhante ou pouco acima do da Marilyn Vos Savant. Creio que a intenção dele foi fazer um elogio, porque a Marilyn é um ícone nas sociedades de alto QI, mas não gostei da comparação, porque não é uma comparação justa. Os problemas do mundo real que eu já resolvi são muito mais difíceis do que os problemas que ela resolveu. Não excluo a possibilidade de que ela talvez tenha um QI similar ao meu, mas ela precisaria provar isso com resultados concretos, solucionando problemas com grau de dificuldade compatível.

 

Recentemente, tomei conhecimento de que em 2018, num grupo privado, meu nome havia sido indicado numa postagem com título “Name the top 5 people (alive) with the highest measured IQs in the world today! Name, IQ and Test.” Achei surpreendente eu ter sido citado, porque desde 2006 eu estava afastado das sociedades de alto QI e só retornei há poucos meses, em fevereiro de 2022, mesmo assim Rasmus Waldna, da Suécia, muito gentilmente se lembrou de mim e sugeriu meu nome, e a indicação dele recebeu mais curtidas do que receberam os nomes de Terence Tao, Chris Hirata, Rick Rosner, Marilyn e Langan. Também foram indicados os nomes dos amigos Tor e Iakovos. Compreendo que foi um tópico informal, e as reações positivas das pessoas podem ter sido influenciadas por fatores extrínsecos à capacidade intelectual, algumas pessoas podem ter curtido por simpatia, por exemplo, ou porque gostam do meu cabelo, mas mesmo assim fiquei feliz com a lembrança e o reconhecimento, e feliz também por ver alguns amigos nessa lista.

 

Em 2001, David Spencer me comparou a Leonardo Da Vinci e Pascal. Em 2016 o amigo João Antonio L.J. me comparou a Newton e Galileu, e a maneira como ele escreveu e no contexto em que foi dito, achei um elogio comovente e sincero. Em 2017, novamente fui comparado a Leonardo (por Aurius). Em 2020, a revista Empiricus publicou um artigo de Bruno Mérola sobre gerenciamento de risco, no qual o autor comparou meu Melao Index com o índice de Sharpe (Nobel de 1990), e na análise que ele fez, apresentou fatos e argumentos demonstrando que meu índice é superior ao índice de Sharpe. Na verdade, meu índice também é superior ao de Modigliani (Nobel de 1985), Sortino e todos os outros, mas no artigo ele só mencionou o índice de Sharpe por ser o mais utilizado no mundo, por ser mais tradicional e mais conhecido, e citou o meu por ser o mais eficiente. Em 2021 fui comparado a Feynman e novamente a Leonardo, numa situação interessante, em que a pessoa (Francisco) fez uma análise razoavelmente detalhada da comparação para justificar sua opinião. Em 2021, novamente fui citado como possivelmente a pessoa mais inteligente do brasil por Luca Fujii, um dos maiores talentos precoces da Matemática brasileira, mas como ele ainda é muito jovem, não chegou a manifestar todo o seu brilho intelectual e por isso ainda não é tão famoso, mas será em breve. O Luca é uma pessoa com muitas virtudes morais, além de intelectuais, assim como o João Antonio L.J., por isso me sinto realmente honrado que essas pessoas tenham opiniões elevadas a meu respeito, e também porque sei que não dizem isso só para me agradar, mas sim baseados em critérios profundos, critérios muito bem fundamentados e bem ponderados. O João leu mais de 1000 de meus artigos, o Luca leu meus dois livros e seguramente leu centenas de meus artigos. Portanto, além de serem excepcionalmente capacitados, também tinham conhecimento sobre o que estavam falando.

 

Enfim, acho que os problemas do mundo real que resolvi, as pessoas que tentaram resolver os mesmos problemas e os prêmios que essas pessoas já ganharam e outros problemas que elas já resolveram, as opiniões de alguns expoentes das sociedades de alto QI a meu respeito talvez respondam um pouco sobre meu QI, certamente mais e melhor do que um teste padronizado poderia dizer.

 

Jacobsen: Que filosofia ética faz algum sentido, mesmo o sentido mais viável para você?

Melão Jr.: Não conheço nenhum autor que represente minhas opiniões sobre qualquer assunto de forma suficientemente acurada e completa. Sempre há detalhes nos quais ocorrem divergências. Em meu livro sobre a existência de Deus, um dos capítulos trata de Ética, no qual exponho minhas opiniões sobre isso. Há alguns artigos nos quais discuto questões relacionadas à Ética, esse é um deles: https://www.saturnov.org/liberdadeedireitos

 

Jacobsen: Que filosofia política faz algum sentido, até mesmo o sentido mais viável para você?

Melão Jr.: há um provérbio polonês que diz “No capitalismo o homem trai o homem. No socialismo ocorre o contrário”. Em teoria, quase todos os sistemas políticos tentam ser razoavelmente bons, com diferentes prioridades, mas cada um visando, a seu próprio modo, objetivos nobres e elevados, embora utópicos e superficiais em pontos básicos, por isso ao serem instaurados na prática, fica claro que as vicissitudes humanas corrompem qualquer sistema, porque os sistemas teóricos não fazem previsões adequadas sobre como lidar com humanos reais. Creio que num futuro não muito distante, se não nos destruirmos por uma guerra, a liderança política do planeta estará “nas mãos” de máquinas inteligentes, e haverá um sistema muito mais lógico e justo do que qualquer sistema existente atualmente. Estará longe de ser um sistema perfeito, mas será muitíssimo superior a qualquer coisa que conhecemos, pois esses sistemas serão capazes de analisar interações muito mais complexas e profundas das relações humanas entre grandes grupos e como essas relações evoluem a longo prazo, aproximadamente do mesmo modo que os melhores programas de Xadrez superam por larga margem a qualidade de análise dos humanos, “enxergando” de forma muito mais correta e mais profunda e fazendo previsões mais acuradas do que qualquer humano. O problema é que existe um risco elevado de que sejamos escravizados pelas máquinas, ou algo assim, ou haja uma união simbiótica entre humanos máquinas, ou parasitária, é difícil prever, vai depender de algumas decisões que tomarmos nos próximos anos e décadas.

 

Jacobsen: Que metafísica faz algum sentido para você, mesmo o sentido mais viável para você?

Melão Jr.: a teoria do multiverso está no limiar entre a Física e a Metafísica. A palavra “multiverso” é uma construção inadequada, mas o significado é plausível e até mesmo provável.

 

Jacobsen: Que sistema filosófico abrangente de visão de mundo faz algum sentido, mesmo o sentido mais viável para você?

Melão Jr.: o que eu descrevo no livro que citei acima, no qual apresento argumentos que me parecem conclusivos sobre a existência de Deus, e abordo outros temas filosóficos e científicos.

Jacobsen: O que dá sentido à vida para você?

Melão Jr.: não acho que haja necessidade de haver algo que dê sentido à vida além dela mesma. A vida tem um sentido intrínseco. Mas posso afirmar que proteger minha mãe e proporcionar o melhor possível a ela era algo que me dava alegria. Ela faleceu em 2016. Fiquei sem me alimentar adequadamente e sem dormir adequadamente durante alguns meses. Eu já havia pesquisado sobre criogenia e sabia que essa tecnologia não oferece perspectivas realistas de trazer a pessoa de volta à vida, porque as membranas de trilhões de células são rompidas com o choque térmico, deixando o citoplasma vazar, um processo com baixa probabilidade de ser revertido. Comecei a pensar numa forma de ressuscitá-la, mas acho muito difícil que a pessoa ressuscitada pudesse ter restaurada exatamente a mesma personalidade e mesmas memórias, portanto não seria a mesma pessoa. Se as memórias e a personalidade dela tivessem sido armazenadas integralmente em um HDD ou SSD, ou algum dispositivo com propriedades similares, então talvez fosse possível restaurar a mesma pessoa, num genuíno processo de ressuscitação. A alegria de viver se foi com a morte dela. Em 2018, conheci minha namorada, Tamara, que está morando comigo desde então e posso dizer que ela tem sido minha alegria de viver, minha vida seria muito pequena e descolorida se não fosse por ela. É uma honra para a espécie humana que existam pessoas profundamente empenhadas em fazer o que é certo e justo, como ela, que elevam a dignidade humana a um patamar próximo da perfeição.   

 

Jacobsen: O significado é derivado externamente, gerado internamente, ambos, ou algo mais?

Melão Jr.: em dedução o significado é atribuído, em última instância, arbitrariamente. A pessoa determina o que é um triângulo e aquilo será um triângulo. Em indução finita, o significado é inferido a partir da análise da amplitude de variação das propriedades observadas em entidades de mesma classe em comparação à dispersão das mesmas propriedades observadas em entidades de classes diferentes.

 

A evolução no conceito de “planeta”, por exemplo, ilustra bem como isso acontece. Os gregos classificavam a Lua, o Sol, Mercúrio, Vênus, Marte, Júpiter e Saturno como planetas. Nem todos os gregos, na verdade. Aristarco, Seleuco, Ecfanto (supondo que Ecfanto tenha de fato existido) e Filolau não adotavam o mesmo critério. Com Copérnico, o Sol deixava de ser considerado um planeta, enquanto a Terra passava a ser classificada como planeta, porque o critério dos gregos era que os planetas se moviam. Quando foi descoberto Urano, em 1781, também passou a ser classificado como planeta, porque suas propriedades gerais se ajustavam melhor a essa classe de objetos, e o mesmo aconteceu quando foi descoberto Ceres, em 1801. Porém, pouco depois, foram descobertos Palas, Vesta, Juno e outros objetos com órbitas muito semelhantes às de Ceres, todos muito menores que os demais planetas e compartilhando quase mesma órbita. Em poucos anos havia mais de 10 objetos com essas características, o que levou a reconsiderar se os critérios utilizados para classificar os planetas eram apropriados. Então surgiu o conceito de “planetoide” depois modificado para “asteroide” para incluir essa classe de objetos. Na época em que Plutão (1930) foi descoberto, como ele estava muito fora da zona de asteroides e seu tamanho foi originalmente estimado como sendo semelhante ao da Terra, foi classificado como planeta. Em poucos anos se verificou que ele era muito menor do que se pensava. As primeiras estimativas de 1931 atribuíam a Plutão 13.100 km de diâmetro, depois 6084,8 km, depois 5760 km, depois 3000 km, 2700 km, 2548 km, 2300 km, 2390 km e os dados mais recentes indicam cerca de 2376,6 km. Por isso, na época em que foi descoberto, era plausível que fosse classificado como “planeta”, mas ao constatar que era muito menor e menos massivo, a situação mudou. Essa questão é analisada com mais detalhes em meu livro sobre esse tema. Quando foram descobertos outros objetos transnetunianos, já se começou a considerar que talvez Plutão ficasse mais bem classificado como um daqueles objetos, em vez de ser considerado um planeta. Os planetas telúricos (Mercúrio, Vênus, Terra e Marte) tinham superfície rochosa, densidade média aproximadamente entre 4 e 5,5 vezes a da água, diâmetro aproximadamente entre 5.000 e 13.000 km, enquanto planetas jovianos (Júpiter, Saturno, Urano, Netuno) tinham “superfície” fluida, densidade média aproximadamente entre 0,7 e 1,7 vezes a da água, diâmetro aproximadamente entre 50.000 e 140.000 km. Mas Plutão ficava muito fora desses dois grupos, sua densidade 1,9 era semelhante à dos jovianos, mas seu tamanho era menor que o dos telúricos. Não se sabia se a superfície era rochosa, mas em princípio se acreditava que sim. Quando foi descoberto Éris – cuja massa é similar à de Plutão e talvez um pouco maior –, finalmente decidiram promover um debate sobre isso e reconsiderar os critérios para classificação de planetas. Em 2006, a UAI decidiu criar uma nova classe de objetos, os “planetas anões”, e Plutão entrou para essa categoria.

 

Eu pulei alguns eventos importantes, como a descoberta de Galileu e Simons dos 4 grandes satélites de Júpiter, que foram inicialmente considerados “planetas”, porque não existia o conceito de “satélite” até que Kepler sugeriu isso. Algumas vezes, Galileu se referia a esses objetos como “pequenas estrelas”, já que não se sabia muito bem o que eram as estrelas, embora Giordano Bruno já tivesse um palpite promissor.

 

O significado de “planeta” foi e continua sendo determinado pela comparação com outros objetos que apresentem diferentes níveis de similaridade. Em casos nos quais há grande números de objetos para comparar, como a taxonomia de animais, pode-se fazer as classificações em muitos níveis hierárquicos, com diferentes níveis de similaridade, e os significados são atribuídos de acordo com as propriedades comuns a todos os elementos da mesma classe, ao mesmo tempo em que se tenta selecionar critérios que permitam distinguir de elementos de outras classes. Nas classificações de cachorros e gatos, por exemplo, não é útil considerar o fato de terem 2 olhos, rabo e focinho, porque isso não ajuda a distinguir uma espécie da outra. Tamanho médio poderia ajudar, se a dispersão nos tamanhos fosse mais estreita, mas como as diferentes raças de cachorro variam numa amplitude muito grande, esse critério também não ajudaria muito. Nesses casos, critérios mais sutis e específicos, como morfologia do rosto, morfologia dos dentes e número de dentes acabam sendo mais úteis. O tamanho do focinho pode ajudar, mas o número de dentes tem significado semelhante, por estar relacionado ao tamanho do focinho, com a vantagem de ser mais objetivo e quantitativo.

 

Enfim, essas são as duas principais maneiras de determinar os significados. Uma é arbitrária, permite que se imponha quais características a entidade deve ter. A outra tenta descobrir quais característicos são comuns a todas as entidades de uma mesma classe e, ao mesmo tempo, são diferentes das características de entidades de classes semelhantes, de modo a possibilitar a distinção entre entidades de uma classe ou de outra. Esses significados são frequentemente incompletos, incertos e sujeitos a revisões, conforme se faz novas descobertas sobre outras entidades cujas características sejam limítrofes em determinada classe, levando a ampliar, estreitar ou reconfigurar os critérios de modo a incluir ou excluir a nova entidade em uma das classes conhecidas, ou, mais raramente, criar uma nova classe inaugurada por essa entidade. 

 

Jacobsen: Você acredita em vida após a morte? Se sim, por que e de que forma? Se não, por que não?

Melão Jr.: o conceito de “morte” é um desligamento, que por enquanto não sabemos como religar, mas brevemente será possível de diferentes maneiras. Esse é um dos tópicos analisados mais detalhadamente em meu livro. O conceito de “alma” também precisa ser examinado com detalhes, para responder a isso, e o tamanho da resposta seria imensa.

Jacobsen: O que você acha do mistério e da transitoriedade da vida?

Melão Jr.: não acho que seja transitória. Por enquanto tem sido, mas isso deve mudar em breve.

Jacobsen: O que é amor para você?

Melão Jr.: é uma tentativa desesperada de inventar uma palavra para representar um sentimento indescritível.

 

Apêndice:

 

Sistema Educacional no Brasil e estudo de Richard Lynn sobre QIs em diferentes países.

 

O sistema educacional costuma ser ruim no mundo inteiro, mas no Brasil é muito pior do que a média de países com PIB similar ao nosso. Estimo que a educação brasileira seja uma das piores do mundo. O Professor Emérito da Universidade de Ulster Richard Lynn oferece uma explicação simplista para isso em seu artigo “QI e riqueza das nações”. Ele não trata da Educação. Trata da Economia, mas o argumento que ele utiliza para justificar as diferenças de renda seria igualmente (e melhor) aplicado à Educação, desde que o argumento fosse válido. Mas o argumento parte de uma premissa falsa. Há muitos erros no trabalho de Lynn. A ideia central que ele defende está certa, mas quantitativamente ele força resultados exagerados. A tese que ele defende – de que existem diferenças étnicas e regionais – está certa, mas as diferenças não são tão grandes quanto ele quer fazer parecer. De acordo com Lynn, o QI médio em Guiné Equatorial é 56. Se isso estivesse certo, seria esperado que o país fosse uma grande tribo de nômades, eles não teriam dominado a técnica de produzir fogo, não teriam construído arados, lanças etc. Mas existe uma civilização urbana lá. Além disso, pessoas com QI abaixo de 60 têm muita dificuldade para aprender a ler e escrever, mesmo vivendo em países com ampla infraestrutura e incentivo à alfabetização. Se mais de 91% da população de Guiné Equatorial sabe ler (supondo que essa informação não seja maquiada), mesmo num ambiente com menor incentivo ao aprendizado, seria muito difícil explicar como essa população com QI médio 56 é predominantemente alfabetizada. Lynn tenta disseminar as crenças neonazistas dele e usa essas pesquisas científicas para tentar ganhar credibilidade para suas opiniões. O QI médio dos judeus Ashkenazi é cerca de 114, a média mais alta do mundo, mas Lynn conseguiu manipular os dados de sua meta-análise para que o QI médio do estado de Israel ficasse em 94.

 

No caso do Brasil, os resultados de Lynn indicavam QI médio 87 e em revisão mais recente indicam 83,38. Se isso estivesse certo, seria uma boa explicação para baixa qualidade da produção científica brasileira e a péssima qualidade de ensino. Mas os problemas reais que predominam no Brasil são uma combinação de preguiça dos alunos, preguiça dos professores, nivelamento por baixo nas aulas e péssimo metodologia “pedagógica”.

 

Uma análise mais séria da situação mostra que o QI real médio do brasileiro não é tão baixo quanto os estudos de Lynn sugerem. Muitas pessoas entregam os questionários dos testes de QI sem responder, ou “chutam” todas as alternativas, ou respondem algumas e “chutam” as demais.

 

Em uma postagem minha no perfil de nosso amigo Iakovos Koukas, fiz um comentário razoavelmente detalhado sobre isso, o qual também reproduzi no grupo IQ Olympiad e reproduzo novamente a aqui:

5.png
6.png

 

Realmente existem diferenças cognitivas em função da etnia, assim como existem em relação à altura média, tamanho médio do pênis, concentração média de melanina sob a pele etc., mas as diferenças cognitivas são muito menores do que ele tenta “vender”.

 

De um lado, existe o problema do igualismo ingênuo, defendido por alguns grupos pseudoideológicos, e isso não encontra nenhum respaldo nos fatos. No extremo oposto, existem os grupos de pessoas como Richard Lynn, Tatu Vanhanen e Charles Murray que tentam exacerbar as diferenças raciais e usá-las para justificar a situação de miséria de alguns povos. Tanto o grupo dos eugenistas radicais quanto o dos igualistaristas radicais estão errados, mas entre um extremo e outro existem algumas verdades.

Assim como há diferenças cognitivas marcantes entre espécies, há diferenças entre etnias, porém menos marcantes porque a amplitude de variação genética dentro de uma mesma espécie é menor. Fingir que essas diferenças não existem é um erro, porque o conhecimento correto sobre as particularidades de cada etnia ajuda a fazer diagnósticos mais acurados de diversas doenças cujos sintomas não são os mesmos em todos grupos étnicos, o tempo adequado de exposição ao Sol para a síntese de vitamina D não é o mesmo, e muitas características que seriam interpretadas como “saudáveis” em algumas etnias não são em outras, por isso o uso correto dessas informações ajuda a interpretar com mais eficácia os resultados de hemogramas, analisar anomalias ósseas, dermatológicas e musculares. Conhecer as diferenças fisiológicas, cognitivas e comportamentais de cada etnia é importante; o problema está em usar essas diferenças com o propósito de tiranizar, oprimir ou diminuir os méritos de um povo, isso é antiético e anticientífico, e Lynn tenta fazer isso de forma ostensiva.

 

No caso do Brasil, parece haver uma distorção perto de 10 a 15 pontos nos números apresentados por Lynn, então o QI médio correto do brasileiro deve ser cerca de 95, um pouco abaixo da média, mas não tanto a ponto de justificar os péssimos resultados do Brasil em Ciência. Os problemas reais parecem ser a preguiça e outros itens que mencionei acima. Há estudos recentes que questionam se o comportamento aparentemente preguiçoso deveria ser classificado exatamente como “preguiça” ou não, mas não vou entrar também nessa discussão para não tornar esse texto ainda mais longo.

 

Nos anos 1950 e 1960, Richard Feynman esteve algumas vezes no Brasil e fez críticas severas ao sistema educacional brasileiro, ele fez alguns experimentos sociais de improviso e mostrou que estudantes de doutorado brasileiros muitas vezes não compreendiam o básico sobre o que estavam fazendo, agiam mecanicamente, sem a menor noção sobre os fundamentos. Os brasileiros escreveram algumas palavras bonitas em relação às críticas de Feynman, dizendo que pretendiam melhorar alguma coisa, mas a situação atual é talvez até pior do que era na época em que Feynman esteve em nosso país. Além da situação vergonhosa da educação no Brasil, há ainda outros problemas nesse episódio, porque os “educadores” brasileiros demonstraram surpresa e perplexidade com os problemas apontados por Feynman, como se estivessem numa casa pegando fogo, mas não estivessem enxergando que o fogo estava devorando tudo, até que um vizinho entra e mostra o fogo a eles. Então eles agradecem, mostram-se chocados, fazem um discurso de mea-culpa, mas não fazem nada concreto em relação ao incêndio, que continua devastador... É inacreditável que não estivessem enxergando o fogo antes de o vizinho indicar a eles e é inacreditável que continuem sem tomar qualquer providência depois que o problema foi apontado.

 

Embora os cientistas e educadores não tenham se mobilizado para tentar resolver o problema, alguns expoentes brasileiros da Matemática, que tinham algumas experiências na Europa e nos Estados Unidos, decidiram tentar reproduzir um pequeno oásis, trazendo para o Brasil um pouco do que haviam experimentado em países desenvolvidos. Em 1952, foi fundado o IMPA (Instituto de Matemática Pura e Aplicada). Naquela época, o Brasil estava no Grupo I da IMU (International Mathematical Union), o nível mais baixo. Ao longo de 70 anos, o IMPA tem sido o único lugar no Brasil onde houve uma tentativa sincera de identificar e apoiar alguns talentos notáveis, tentando escapar da burocracia e da ineficiência do Sistema Educacional. Mas o IMPA é apenas 1 instituição situada no Rio de Janeiro. O Brasil é um país grande, com 8.500.000 km^2, de modo que as pessoas que moram longe do RJ muitas vezes não conseguem desfrutar o que o IMPA oferece. Por isso o alcance do IMPA ainda é pequeno. Com a popularização da Internet isso tem melhorado, mas o número de beneficiados ainda é muito limitado, inclusive porque há relativamente pouca divulgação dos eventos do IMPA, a maioria das escolas não inscreve seus alunos em OBM (Olimpíada Brasileira da Matemática), a maioria dos alunos nem sequer sabe que existe OBM. Há alguns professores espalhados pelo Brasil ligados ao IMPA, que tentam contribuir para a identificação de talentos, mas é um processo difícil, eles não recebem incentivo do governo, nem de empresas. Mesmo com esses obstáculos, entre 1952 e 2015 o IMPA elevou o Brasil do Grupo 1 para o Grupo 5 (o mais alto), do qual fazem parte apenas 11 países: Alemanha, Brasil, Canadá, China, EUA, França, Israel, Itália, Japão, Reino Unido e Rússia.

 

Não sei quais os critérios para ser incluído no Grupo 5 da IMU, mas suponho que seja uma combinação de mérito e política, talvez mais mérito do que política. Digo que há um pouco de política porque há países com duas medalhas Fields ou dois prêmios Abel, mas não fazem parte desse grupo, como Austrália, Bélgica, Irã e Suécia, enquanto o Brasil tem apenas 1 medalha Fields. Claro que esses prêmios não devem ser o único critério, mas são indicativos bastante razoáveis sobre a nata da matemática que se produz em cada país. Também há vários países com 1 medalha Fields e uma tradição matemática mais longa, que também não estão no Grupo 5. Talvez o critério leve em consideração o ritmo de crescimento, e nesse quesito o Brasil talvez seja, ao lado da China e da Índia, um dos que mais tem crescido na produção de Matemática de alto nível.

 

O fato é que se QI médio do brasileiro fosse realmente tão baixo quanto alega Richard Lynn, e o problema principal no Brasil fosse realmente o baixo QI médio da população, então as ações do IMPA não teriam sido capazes de modificar substancialmente a qualidade e a quantidade da produção matemática de alto nível. Se o problema fosse baixo QI, a solução viria de outras ações, como melhoras nutricionais, por exemplo. As ações do IMPA não alteraram o QI médio da população; apenas alteraram a eficiência na identificação de talentos que já existiam no país, e após a identificação passou a existir oferta de oportunidade e incentivo a esses talentos.

 

Os números apontados por Lynn, de que o QI médio do brasileiro seria 87, mostram-se inconsistentes com os resultados alcançados pelo IMPA. Mesmo com uma população de 213 milhões, seria difícil que algumas dessas pessoas chegassem ao topo mundial com raridade perto de 1 em 300 milhões se o Brasil estivesse 1 desvio padrão abaixo da média, mesmo porque o IMPA não consegue estender seus benefícios a mais do que 1% a 5% da população mais talentosa. Claro que outras hipóteses seriam aplicáveis, como um desvio padrão maior na distribuição de QI entre a população brasileira ou uma distribuição mais platicúrtica. Mas geralmente o que se observa em grupos com altura média menor é um desvio padrão mais estreito, em vez de mais largo. Isso acontece com praticamente todas as variáveis. O desvio padrão no diâmetro de parafusos maiores é mais largo do que em parafusos menores. Em outras palavras, o desvio padrão percentual geralmente é mantido, então seria estranho uma população com QI mais baixo ter desvio padrão maior. Além disso, seria um ajuste ad hoc para tentar salvar uma teoria que apresenta outros problemas, sendo mais plausível passar a navalha de Occam e aceitar que Lynn está equivocado sobre isso. O QI médio correto do brasileiro é substancialmente maior do que ele diz, assim como os QIs da maioria dos outros povos não-arianos, que ele tenta empurrar para baixo, também são maiores do que os números que ele apresenta.

 

Examinando objetivamente os fatos, o que os dados sugerem é que o QI médio do brasileiro provavelmente está bem mais perto de 95 do que de 87. Um pouco abaixo da média, mas não tão abaixo quanto Lynn sugere.

 

Os resultados do IMPA mostram também que talvez a preguiça seja um reflexo do péssimo sistema educacional. Se a preguiça fosse um problema generalizado no país, as soluções implementadas pelo IMPA também não teriam sido suficientes para resolver isso; seriam necessárias outras medidas complementares. Talvez a preguiça seja um problema marcante que atinge mais de 99% da população, mas cerca de 1% não poderia ser rotulada como “preguiçosa”, mas sim como vítima de um sistema educacional muito ruim. Como mais de 99% da produção intelectual vem desse 1%, temos aí um gigantesco problema, e uma completa falta de atenção sobre esse problema, porque os políticos não estão muito preocupados em empreender grandes esforços para conquistar 1% de votos, já que com menos esforço eles podem conseguir mais votos fingindo agradar a um público menos exigente, mais fácil de ludibriar e muito mais numeroso.

 

Um dos grandes problemas é que os 99% da população também são prejudicados, mas eles próprios não enxergam isso e não cobram do governo medidas que possam contribuir para melhorias a longo prazo, medidas que sejam boas e justas para todos. Cada um quer apenas que o governo adote medidas com resultados imediatos que beneficiem seus próprios umbigos. Desse modo, o problema tende a se perpetuar, como tem acontecido há décadas.

 

Muitos acadêmicos brasileiros costumam reclamar de falta de verbas e atribuir a baixa produção científica a isso. Outros fazem pior, fingem que há produção científica de boa qualidade no Brasil, apesar da falta de verba. Mas o que os fatos concretos mostram é que países realmente muito pobres, nos quais a maior parte da população vive na miséria, como Etiópia, Nigéria, Congo, Quênia, Gana etc. tiveram cidadãos laureados com o Nobel, enquanto no Brasil nunca houve um ganhador do Nobel. Além disso, quando Einstein desenvolveu seus principais trabalhos, pelos quais ele merecia 3 prêmios Nobel (e mais 2 por trabalhos posteriores), ele não estava recebendo nenhuma verba para suas pesquisas, nem nos anos anteriores. Portanto, embora a falta de recursos imponha limitações severas, não pode ser considerada um impedimento absoluto e muito menos ser usada como pretexto numa situação como essa. Grandes trabalhos foram realizados praticamente sem verba, como boa parte da obra de Newton, durante em 1665.

 

[Aqui talvez caiba uma pequena ressalva, porque conforme comentei na parte sobre prêmios e méritos, é possível que alguns brasileiros tenham realizado trabalhos com méritos para receber um Nobel, mas não foram laureados por questões políticas, burocráticas etc. Meus trabalhos sobre Econometria e Gerenciamento de Risco, por exemplo, são mais expressivos do que a maioria dos trabalhos dos laureados com o Nobel de Economia nas últimas décadas. A descoberta do méson π, embora tenha sido predominantemente um trabalho operacional, teve um brasileiro como protagonista (César Lattes), mas como o chefe da equipe era Celil Powell, Lattes tinha apenas um B.Sc. e na época (1950) o prêmio só era concedido ao chefe da equipe, Lattes acabou não recebendo o prêmio, embora tenha sido talvez o principal responsável por esse trabalho e foi o autor principal do artigo. Depois da detecção dos mésons π nos raios cósmicos (1947), Lattes era um dos poucos no mundo com o conhecimento necessário para identificar assinaturas deixadas por essas partículas nas placas de emulsão, por isso ele foi convidado a colaborar no CERN (1948) e verificar se eles também estavam conseguindo produzir mésons π, pois a energia necessária para isso era ultrapassada com folga pelo acelerador de partículas utilizado, portanto eles provavelmente já estavam produzindo pions há muito tempo (desde 1946), mas não sabiam exatamente o que deveriam procurar nas câmaras de bolha como sendo assinaturas dos mésons π. Lattes foi ao CERN e fez as identificações. Novamente o trabalho foi distinguido com o Nobel e novamente Lattes ficou fora da premiação. Ao todo, Lattes foi indicado 7 vezes para o Nobel, mas nunca chegou a ser premiado. Oswaldo Cruz também recebeu indicação ao Nobel de Medicina, mas não foi premiado. Talvez Machado de Assis também tivesse mérito para um Nobel de Literatura. Então, embora haja 0 brasileiros laureados com Nobel, talvez alguns tenham méritos para isso. Há um texto detalhado no qual analiso o caso de Lattes, sem os habituais exageros e distorções nacionalistas da maioria dos artigos sobre ele, mas ao mesmo tempo reconhecimento os méritos que ele teve e que não foram devidamente reconhecidos.]

 

Por um lado, a baixa produção científica reflete a falta de verba, por outro lado a falta de verba reflete a baixa produção científica, porque se houvesse realmente produção científica e tecnológica de boa qualidade, grandes empresas nacionais e internacionais teriam interesse em financiar essas pesquisas, pois teriam lucro com isso. Se empresas privadas não investem na ciência brasileira é porque tal “investimento” não gera expectativa de lucro, porque o nível de produção fica abaixo do que poderia justificar algum interesse sério dos empresários. Eu costumo usar o termo “doação” para a ciência brasileira em vez de “Investimento”, porque o significado de “investimento” é outro. O que os pesquisadores brasileiros reivindicam é basicamente isso: doação.

 

É importante deixar claro que não sou contra o financiamento da ciência brasileira, seja na forma de investimento, seja na forma de doação. Se eu fosse contra isso, seria uma estupidez. Eu sou contra a péssima gestão da verba destinada à Ciência, aliada ao péssimo sistema educacional e a completa falta de incentivo à produção intelectual. Produção intelectual não é escrever 50.000 papers inúteis para fingir que se está produzindo e continuar “mamando” nas bolsas das agências fomentadoras de “pesquisa”. Produção intelectual de verdade é se empenhar seriamente para resolver problemas reais e importantes. Por isso, em vez de ficar choramingando por falta de verba, o procedimento correto seria uma reformulação completa na palhaçada que acontece na Educação brasileira e na pesquisa “científica” brasileira, precisariam começar a produzir de verdade, com alta qualidade, como acontece no IMPA, e então apresentar fatos substanciais e argumentos consistentes para reivindicar investimentos. Sem isso, o discurso choroso para pedir doação é frágil. Certamente uma multidão de pesquisadores improdutivos me apedrejará por esse comentário, mas os poucos pesquisadores sérios concordarão comigo, embora talvez eles não tenham coragem de reconhecer publicamente a posição que defendem, para não serem linchados pelos colegas.

 

Talvez haja menos de 1% de pesquisadores sérios no Brasil, entre os quais tive a oportunidade de conhecer alguns, como Renato P. dos Santos, Roberto Venegeroles, André Gambaro, José Paulo Dieguez, Luis Anunciação, Antonio Piza, André Asevedo Nepomuceno, Herbert Kimura, Cristóvão Jaques, George Matsas, Doris Fontes entre outros. Mas infelizmente representam uma pequena fração, e nem sempre eles admitem abertamente a situação desastrosa em que se encontra a ciência brasileira, pois a pressão é grande para que finjam acreditar na encenação da qual a maioria dos outros faz parte. Quando a pessoa assume uma posição justa em relação a isso e diz verdades proibidas, ela começa a ser covardemente boicotadas por todos os lados, por isso é compreensível que muitos prefiram permanecer em silencia, evitando se manifestar, ou simplesmente fingir que concordam com a fantasia que tentam propagar a situação da Ciência e da Educação no Brasil. Muitos criticaram Copérnico devido ao prefácio de seu livro Revolutionibus, por ele não ter enfrentado de peito aberto as crenças dominantes, mas quando se analisa os problemas enfrentados por Galileu, fica claro que a defesa da verdade que contraria os interesses de determinados grupos pode ser muito oneroso. E seria ingênuo acreditar que as entidades que dominam o mundo atualmente (mídias, empresas, universidades, políticos etc.) sejam mais escrupulosos do que eram os eclesiásticos medievais. Certamente há algumas entidades mais idôneas e mais sinceramente empenhadas na defesa do que é certo e justo, mas são exceções, infelizmente. “Ironicamente” as mesmas pessoas que se mostram indignadas com a perseguição a Galileu são as pessoas que hoje praticam o mesmo tipo de abusos, injustiças e perseguições.

 

Essa é uma situação delicada, porque se a imensa maioria constrói uma farsa e finge que ela é real, torna-se difícil para que uma pequena minoria restabeleça a verdade. Por exemplo: Roberto de Andrade Martins é um pesquisador sério, com pós-doutorados em Cambridge e Oxford, com bons conhecimentos e boa compreensão de Física, Lógica e Epistemologia. Ele é completamente rechaçado pelos colegas e pelos que se dizem divulgadores “científicos”, porque Roberto diz verdades indesejáveis. Roberto nunca foi convidado para os grandes canais de divulgação científica do Brasil, embora ele seja de longe mais qualificado que a esmagadora maioria dos convidados para esses canais. Isso acontece porque nesses canais prefere-se as figuras mais “comerciais”, mais “carismáticas” aos olhos de quem finge se interessar por Ciência, em vez de cientistas sérios que digam verdades proibidas sobre a realidade trágica da ciência no país e da educação no país. Os youtubers que se dizem “divulgadores científicos” no brasil precisam escolher entre a verdade e a popularidade, e quase sempre preferem a segunda opção. Desse modo, vão arrastando uma farsa que em algum momento provocará o colapso do país, assim como aconteceu com a ex-URSS em 1991, ou com o banco Lehman Brothers em 2008. Foram varrendo a sujeira para baixo do tapete, até que chegou a um ponto em que a situação se torneou insustentável e o barraco caiu. Existem alguns poucos divulgadores científicos sérios no brasil, mas estes geralmente atingem um público muito menor, mais esclarecido e que já enxergam o problema sem que seja necessário que alguém mostre a eles. O público que realmente precisaria ser informado permanece “blindado”, para atender aos interesses de ninguém, já que ninguém lucrará com o naufrágio da nação. Certa vez Chomsky declarou que "o propósito da mídia não é o de informar o que acontece, mas sim moldar a opinião pública de acordo com a vontade do poder corporativo dominante". Nesse caso é pior, porque não estão moldando a opinião pública de acordo com a vontade de ninguém. Estão apenas agindo estupidamente para o malefício de todos.

 

A hipocrisia é outro problema terrível que atinge grande número de acadêmicos brasileiros e de pseudo divulgadores da Ciência. Quando um estrangeiro vem ao brasil e diz que a ciência brasileira é uma piada, como fez Feynman, pisa e cospe na ciência brasileira, os acadêmicos brasileiros certamente não gostam, ficam envergonhados, mas mesmo assim eles aplaudem o macho alfa, como primatas bajuladores. Porém quando outro brasileiro aponta o mesmo problema, eles rosnam e vociferam contra o herege e tentam evitar que ele fale sobre isso.

 

Há mais algumas complicações que não podem ser negligenciadas: a maior parte da Ciência de ponta não tem aplicação imediata e pode levar décadas ou séculos até produzir algum retorno para o investidor. O diretor do departamento de Física Matemática da USP, Ph.D. pelo MIT e Post Doctoral pelo MIT, Antonio Fernando Ribeiro de Toledo Piza, que em 1994 quis me conhecer para conversar comigo sobre um trabalho que desenvolvi aos 19 anos, sobre um método para calcular fatoriais fracionários, no meio da conversa ele citou uma ocasião na qual perguntaram a Faraday para que serviam as descobertas que ele havia feito sobre a eletricidade e o magnetismo. Faraday respondeu com outra pergunta: “para que serve uma criança que acaba de nascer?” Essa frase exprime um problema complexo no tratamento da Ciência como “investimento”, porque a expectativa de vida humana atual é curta demais para que alguns investimentos em Ciência sejam enxergados como atraentes aos investidores particulares. São investimentos que só trarão retorno daqui a 50 anos, 100 anos ou mais, para as gerações seguintes, para nossos filhos, netos, bisnetos, é uma árvore que teremos o custo e o trabalho de plantar, adubar, cultivar, proteger, mas são nossos netos que colherão os frutos. Por esse motivo, mesmo em países nos quais a ciência se mostra prolífica, pode não ser atraente aos olhos dos investidores particulares, cujo horizonte de tempo que estão dispostos a aguardar por resultados costuma ser mais curto.

 

Feita essa ressalva importante, é necessário enfatizar que esse discurso seria falacioso se utilizado para tentar salvar a péssima reputação da ciência brasileira. O que se produz no brasil raramente pode sequer ser chamado “Ciência”. Faz-se tabulação de dados e relatórios descritivos sobre a tarefa. Para usar o argumento de Faraday a citei acima, em defesa do investimento na Ciência, antes seria necessário que o Brasil começasse a produzir Ciência de verdade.

 

Ciência de verdade envolve inovação, quebra de paradigma, aprimoramento real, análise crítica, profunda, que ultrapassa o óbvio e agrega algum conhecimento novo e útil ao legado da humanidade. No Brasil raramente se faz isso. Na verdade, no mundo raramente se faz isso, mas o nível de escassez de inovações é pior no Brasil do que em outros países com situação econômica similar ou com IDH similar.

 

Quando digo “quebra de paradigma” não precisa ser algo tão grandioso quanto um novo sistema cosmológico ou a uma teoria de unificação. Pode ser algo básico, como adicionar um pouco de boro às placas de emulsão fotográfica para preservar os registros dos mésons π até descer das montanhas, como fez César Lattes, ou resolver um problema de criptografia homomórfica que estava em aberto há 15 anos, como fez João Antonio L. J., ou desenvolver um novo sistema educacional que permite ensinar em 40 dias o conteúdo de 1 ano a uma criança que tinha notas abaixo da média e depois desses 40 dias a criança passa a ter as melhores notas da escola, como fez Tamara P. C. Rodrigues, ou revisar a fórmula de IMC, como eu fiz. São contribuições pequenas, mas que revelam fatos científicos ainda desconhecidos, ou corrigem conhecimentos que vinham sendo repetidos incorretamente há muito tempo, ou de algum modo contribuem para ampliar os horizontes do conhecimento ou para redirecionar o conhecimento para um caminho mais próximo da verdade. Não é uma completa desconstrução e reconstrução do conhecimento, como fez Newton, mas é um tijolo adicionado ao lugar certo, ou removido do lugar errado e reposicionado no lugar certo. Isso é o mínimo que seria esperado de um cientista, mas na grande maioria das vezes esse mínimo não é atendido, e os títulos de Ph.D. são distribuídos quase como um ritual, em que basta o candidato mostrar que sabe escrever e sabe interpretar um pouco do que esteja em alguns gráficos – com várias interpretações erradas, diga-se de passagem. Dependendo da disciplina, basta mostrar que sabe escrever, nem precisa saber ler um gráfico. Depois de cumprir o ritual, a pessoa recebe o rótulo de Ph.D. e começa a receber verba para prosseguir com essa palhaçada, fingindo que está produzindo Ciência.

 

A franca maioria das teses de doutorado e dos artigos científicos não apresenta nada de inovador. São títulos conferidos para inflar os egos e atender à vaidade das pessoas, mas não estão associados a nenhum mérito intelectual nem à produção científica original. A pessoa faz uma pesquisa elementar, puramente mecânica, para corroborar alguns resultados sobre os quais já existem centenas de outros estudos similares, e recebe um Ph.D. por isso, e o Estado paga a essas pessoas para fingir que estão produzindo algo relevante e chamam a isso “ciência brasileira”, mas o nome correto, na melhor das hipóteses, seria “tabulação de dados” e “relatórios descritivos”. Digo “na melhor das hipóteses” porque geralmente há vários erros crassos nesses procedimentos, o que torna a situação ainda mais vexatória.

 

O problema central é que não existe uma cultura de produzir inovações. Apenas repete-se interminavelmente. Não há incentivo à inovação, não há cobrança de inovações, não à recompensa para inovações e, o pior, há inclusive penalidades para inovações. Em 1998, uma amiga (Patrícia E. C.), que estava concluindo seu doutorado na USP, verificou que alguns dados experimentais sobre a morfologia de galáxia anãs era inconsistente com as expectativas. Em vez de seu orientador ajudá-la a tentar compreender o que poderia estar causando aquilo, ele disse a ela para refazer as medições, porque ela deveria ter errado nas medidas ou nos cálculos. Até esse ponto, concordo com ele, porque esses erros costumam ser os mais comuns. Ela refez e obteve resultados estatisticamente equivalentes aos das primeiras medições. Nesse ponto o alerta amarelo se torna vermelho e o orientador dela deveria ter dado mais atenção ao caso. Entretanto, ele disse para ela refazer outra vez! Isso é um completo absurdo. É anticientífico. É destruir “provas” que poderiam contribuir para ampliar, revisar, aprimorar o que se conhecia até então. Esse é o nível a que se encontra a seita chamada de “ciência brasileira”. Se alguma descoberta se opõe aos dogmas estabelecidos, precisa ser ajustada de alguma maneira até que fique em conformidade com os dogmas. Além de não haver incentivos às descobertas, quando há algum indício de que se pode estar diante a algo novo, tenta-se apagar os vestígios da possível descoberta! As pessoas são adestradas para não produzir, não inovar, não descobrir!

 

Parte do problema da Educação no país não é culpa dos professores, alunos e pesquisadores. Eles apenas dançam conforme a música. Mas uma grande parte do problema é culpa deles, porque eles determinam a música que deve tocar. Além disso, eles podem se recusar a dançar conforme a música, podem colocar fones de ouvido com músicas melhores e podem criar seu próprio centro de excelência, como no caso do IMPA.

 

A resistência da comunidade acadêmica em admitir esses fatos agrava a situação, porque em vez de tentar consertar os problemas, fingem que os problemas não existem, varrem a sujeira para baixo do tapete e seguem em frente, como se estivesse tudo bem. Recentemente o presidente do Brasil fez um corte brutal nas verbas destinadas à “ciência”. É uma situação delicada, porque o problema da improdutividade científica não se resolve assim. O corte de verba apenas agrava a situação. É ruim destinar verba a um setor que não gera resultados satisfatórios, mas sendo um setor fundamental, o procedimento correto é restaurar esse setor e assegurar que ele funcione como deveria, em vez de matá-lo, tirando-lhe o pão e a água. Precisaria trocar pão e água por uma dieta mais rica, aumentar o investimento em Ciência e simultaneamente reformular os critérios de concessão de bolsas, concessão de verbas, desburocratizar a importação de livros e de produtos científicos e tecnológicos, promover intercâmbios com pesquisadores capacitados, criar prêmios por mérito real relacionado à excelência na produção original de trabalhos relevantes, em vez dos prêmios políticos de fachada, entre muitas outras mudanças desde a educação de base até os títulos de professores eméritos.

 

Nos anos 1970, a China, a Índia e a Tailândia eram países muito mais pobres e menos desenvolvidos que o Brasil, mas fizeram investimentos massivos na identificação de crianças talentosas e ofereceram condições diferenciadas de incentivo a essas crianças. A Tailândia interrompeu o projeto. China e Índia mantiveram. Em menos de duas décadas, começaram a colher os frutos disso, depois de uma geração, essas crianças se tornaram professores altamente capacitados, que proporcionaram à geração seguinte uma educação ainda mais primorosa, e hoje a China caminha para se tornar a maior potência econômica, cultural, científica e tecnológica do mundo, e a Índia segue de perto. Houve uma reformulação séria e profunda no sistema de ensino para que pudessem chegar onde estão agora. Em vez de fingir que estavam fazendo Ciência, admitiram a improdutividade e a baixa qualidade do que produziam, e começaram a consertar o que estava errado. Um dos grandes problemas no Brasil é exatamente essa incapacidade de admitir os erros.

Image by Hal Gatewood

Entrevista com Melão para o jornal canadense In-Sight Journal

Parte 2

Parte 2

 

Jacobsen: 1 . As sociedades de alto QI do futuro?

Melão Jr.: 

Jacobsen: 2 . Os testes de QI de alto nível podem ser legitimados na mesma medida que os testes profissionais supervisionados?

Melão Jr.: Acho que essa pergunta foi parcialmente respondida no preâmbulo da entrevista, mas há alguns detalhes que eu gostaria de acrescentar.

 

As Olimpíadas Internacionais da Matemática utilizam métodos relativamente primitivos de avaliação, se comparados aos métodos psicométricos, mas os conteúdos das perguntas são suficientemente difíceis para os níveis em que pretendem avaliar. Os tipos de problemas não são os mesmos que serão necessários para um matemático resolver, mas compartilham alguns processos cognitivos necessários. Nessas condições, os escores se mostraram bons preditivos da produção intelectual no futuro, inclusive para prêmios importantes como a medalha Fields. Os gráficos abaixo resumem essa situação:

11.png

 

Fonte: https://ramanujan.xyz/read-our-imo-research/

 

Os testes psicométricos usam métodos sofisticados de padronização, muito superiores aos utilizados na IMO, e apresentam boa validade de construto até 2 desvios padrão acima da média, e nível adequado de dificuldade até 2 desvios padrão acima da média. Mas para níveis mais altos a validade de construto e o nível de dificuldade não são adequados. Como resultado, os estudos de Terman mostraram boas predições para produção acadêmica e profissional/financeira, mas falharam nos níveis mais altos, apresentando inclusive correlação negativa.

 

Isso sugere que embora a qualidade da padronização seja importante, é menos importante do que a qualidade dos itens nos quesitos “dificuldade apropriada” e “validade de constructo apropriada” nos níveis em que se pretende medir.

 

Então para a faixa de 70 a 130, os testes clínicos são realmente melhores que os hrIQts porque utilizam amostras maiores e os métodos de padronização geralmente são mais sofisticados. Porém para escores acima de 130 os hrIQts atendem melhor aos quesitos sobre nível de dificuldade e validade de constructo, que aparentemente são critérios mais importantes para predição de resultados notáveis em problemas do mundo real.

 

Além disso, alguns hrIQts são padronizados com qualidade superior à dos testes clínicos, embora esse não seja o quesito mais importante, pode ser um diferencial.

 

Jacobsen: 3. Elon Musk é o Leonardo Da Vinci de hoje?

Melão Jr.:Musk é muito inteligente e muito criativo, seu QI é algo perto de 155 (sd=16) e seu nível de criatividade talvez seja equivalente a algo como 180.

 

No caso de Leonardo, se o QI dele fosse colocado na mesma escala, seria perto de 250 a 260 (sd=16, T). Obviamente isso só é possível porque a distribuição verdadeira dos escores não é normal, caso contrário numa população histórica de 100 bilhões a raridade máxima possível seria 10^-11, correspondente a 207,3 (sd=16). Para compreender melhor como a determinação dos escores deve ser feita, sugiro a leitura desse artigo: https://www.sigmasociety.net/escalasqi

 

Algumas pessoas são especialmente habilidosas em descobrir quais perguntas precisam ser feitas para resolver problemas importantes. Outras pessoas são especialmente habilidosas em encontrar respostas. Leonardo era excepcional nas duas coisas, tanto fazer as perguntas “certas” quando encontrar respostas eficientes e criativas, talvez 9 a 10 desvios padrão acima da média (numa distribuição com cauda densa, conforme já comentado acima). Musk é muito bom em fazer perguntas importantes (talvez 5 desvios padrão acima da média), mas (por enquanto) ele precisa de seu exército de gênios para encontrar as respostas que Leonardo encontrava sozinho. Musk também é muito bom em resolver problemas (talvez 3 a 4 desvios padrão acima da média) e tem um patrimônio gigante, o que potencializa sua produção por terceirizar o trabalho de muitos outros.

 

Se Leonardo tivesse os recursos financeiros de Musk, provavelmente teria construído helicópteros funcionais no século XV, mas com tração animal (seria improvável inventar motor naquele estágio em que se encontrava a Tecnologia), além de muitas outras coisas ainda mais extraordinárias do que as que ele efetivamente fez.

 

Por outro lado, em pouco tempo Musk “poderá” fazer implantes de próteses computacionais no cérebro e ultrapassará Leonardo. Poderá, mas provavelmente não fará tão cedo, porque não será seguro no início, precisará ser testado em macacos, depois humanos voluntários etc.

Jacobsen: 4. Podemos certamente nos ver como uma raça multiplanetária em um futuro próximo ou distante, e isso é algo que queremos ser então?

Melão Jr.: A tecnologia necessária para terraformação de planetas ou de outros astros deve ser alcançada em pouco tempo, talvez ela já esteja disponível, embora ainda não tenha sido aplicada. Mas o tempo necessário para tornar outro astro habitável depende muito de quão grande são as diferenças desse astro em comparação à Terra, além do tamanho do astro, ritmo de evolução da estrela etc. Ainda não sabemos se o empreendimento mais promissor seria terraformar Vênus, Marte ou a Lua. Eu apostaria na Lua, para curto prazo e Vênus para longo prazo, mas ainda não há dados suficientes para decidir. Alternativas como Europa, Titã ou Encélado são muito frios, talvez isso seja mais difícil de resolver.

 

Nenhum objeto do Sistema Solar, exceto a Terra, parece ser suficientemente apropriado para o desenvolvimento e/ou manutenção de vida complexa, da maneira como eles são agora. Talvez extremófilos como os tardígrafos possam viver em Marte, sem necessidade de grandes mudanças no planeta. Porém para colonizar Marte com humanos seria necessário resolver alguns problemas muito difíceis:

 

  1. O campo magnético de Marte é muito tênue, insuficiente para desviar radiação letal. Para aumentar a intensidade desse campo magnético de forma natural e sem precisar de um abastecimento contínuo que consuma energia, Marte precisaria de um núcleo metálico em rotação com determinado tamanho. Seria um processo de engenharia absurdamente difícil mudar isso e muito distante de nossa tecnologia atual.

  2. A atmosfera de Marte tem 0,6% da pressão da atmosfera terrestre e é composta por 95% de CO2, com apenas 2,8% de nitrogênio e 0,2% de oxigênio. A pressão atmosférica da Terra no topo do monte Everest é cerca de 30% da pressão ao nível do mar, e já se tem muita dificuldade para respirar no topo do Everest, com elevados riscos de hemorragias nasais e auriculares. Então precisaria aumentar 100 a 200 vezes a massa total de gases em Marte e aumentar 10.000 a 15.000 vezes a massa de oxigênio. Como fazer isso? Musk comentou sobre a possibilidade de gerar mais gases na atmosfera de Marte por meio de explosões nucleares, um palpite completamente especulativo, para “testar e ver o que acontece”. Acho um palpite razoável, apesar de não se apoiar em nada concreto. Talvez uma alternativa interessante a essa estratégia seja desenvolver plantas editadas geneticamente para transformar nutrientes do solo em oxigênio. A simples mudança de CO2 da atmosfera em O2 não resolveria porque não há CO2 suficiente. Precisaria aumentar muito a massa atmosférica, além da mudança na composição, e mesmo assim seria complicado porque como a aceleração gravitacional na superfície de Marte é 0,37 vezes da Terra, então se a densidade do ar fosse igual à da Terra, a pressão seria 0,37, só um pouco maior do que a pressão no topo do Everest. Se aumentasse a pressão 2,5 a 3 vezes para que ficasse igual à da Terra, então precisaria investigar os efeitos sobre a saúde de ter uma densidade do ar 3x maior.

 

Há vários outros pontos negativos, mas menos graves que os dois primeiros. A excentricidade orbital de Marte é 0,0934, enquanto a da Terra é 0,0167. Como consequência, a amplitude de variação térmica em Marte é muitíssimo maior. Na Terra as estações do ano são predominantemente determinadas pela inclinação do eixo de rotação, mas no caso de Marte o fator predominante seria a variação na distância ao Sol, que se somaria também as variações relacionadas à inclinação do eixo. Não chegaria a ser uma amplitude de variação proibitiva para a vida, mas criaria sérios problemas para humanos. As fotos abaixo mostram a variação no tamanho da calota polar Sul em apenas 2 dias. Não ocorre nada semelhante na Antártida (não na mesma proporção). Esse material da calota polar que foi sublimado é adicionado à atmosfera, aumentando substancialmente a pressão total média. As estações climáticas em Marte seriam muito mais marcantes do que na Terra, não apenas com variações térmicas muito maiores, mas também com alterações nas concentrações de CO2 no ar, umidade relativa etc. E não adiantaria tentar “consertar” isso nas calotas, porque é um processo relacionado às variações de temperatura inerentes ao movimento orbital e à inclinação axial.

12.png

Apesar desses pontos difíceis de resolver, Marte tem vários pontos positivos: a duração do dia é muito semelhante à do dia da Terra, por isso não exigiria grande adaptação. Nos casos da Lua e principalmente de Vênus, a duração do dia poderia ser um grande problema. O fato de o albedo de Marte ser muito menor que o da Terra contribui um pouco para que não seja tão frio, embora esteja 50% mais distante do Sol do que a Terra.

 

Vênus possui magnetosfera muito tênue também, mas isso se deve em grande parte à sua velocidade de rotação ser muito baixa. Para acelerar sua rotação seria menos difícil do que introduzir um núcleo metálico gigante em Marte, mas ainda assim seria incomensuravelmente difícil e demandaria um nível de produção de energia propulsora muito maior do que dispomos atualmente. Quando tal tecnologia estiver disponível, conectando propulsores adequados e com combustível suficiente, esse processo de acelerar a rotação poderia durar poucos milhares de anos. A própria energia solar poderia servir como fonte complementar de combustível para os propulsores. Paralelamente, seria possível drenar ou condensar parte da atmosfera. Os componentes da atmosfera não são muito “amigáveis”, mas H2SO4 inclui H2 e O4, podendo produzir água, oxigênio e ozônio. A quantidade de nitrogênio é 3 vezes maior do que na Terra, então só precisaria descobrir como produzir as reações químicas apropriadas. Talvez em 10.000 a 100.000 anos seja possível tornar Vênus habitável, com uma atmosfera similar à nossa, um dia de 24h, um campo magnético suficiente. O albedo atual de Vênus é 0,76, enquanto o da Terra é 0,39, por isso embora Vênus esteja mais próximo do Sol, como ele absorve menos luz, sua temperatura poderia ser mantida num patamar similar ao da Terra, pelo menos nas regiões das latitudes mais elevadas. Quando a atmosfera for modificada, o albedo também deve mudar, mas deve ser possível controlar razoavelmente esse parâmetro de modo a deixar a temperatura adequada. O tempo de duração do dia ser longo não me parece ser um problema em si, mas a modificação disso seria útil pelo motivo do capo magnético. No caso de Marte, cuja massa é 1/8 da de Vênus, talvez também fosse possível reduzir o dia de 24h para 6 minutos, e nesse caso talvez o campo magnético de Marte também alcançasse um nível adequado para deflexão de radiação nociva, mas produziria muitos outros problemas, porque o achatamento do planeta provocado pela pseudoforça centrífuga ficaria 250 vezes maior, isto é, o planeta ficaria alongado mais do que um ovo, alterando vários parâmetros fundamentais no equador e nos polos, e talvez a nem seja possível manter o equilíbrio hidrostático de um objeto com essas características dinâmicas, a litosfera talvez se rompesse, ou derretesse pelo aquecimento provocado pelo atrito com magma da camada inferior, o efeito Coriolis seria muito intenso e haveria furacões o tempo todo nas altas latitudes, isso sem contar na dificuldade que seria viver num planeta onde o Sol nascesse e se pudesse a cada 3 minutos, os efeitos de maré também teriam um ciclo muito curto etc. Por isso, embora a massa de Vênus seja muito maior que a de Marte, me parece mais plausível reduzir uma rotação de 243 dias para 1 dia, como em Vênus, do que reduzir uma rotação de 1 dia para 0,004 dia, como em Marte. Ambos provavelmente aumentariam o campo magnético por aumentar a velocidade de rotação do núcleo, mas os efeitos colaterais em Marte seriam catastróficos.

 

De qualquer modo, esses processos de terraformação creio que servirão apenas como “experimentos”, porque não haverá vantagem em mudar para Vênus, Lua ou Marte. Será importante usar esses astros como “laboratórios” para aprender como terraformar outros astros, pois haverá muitos imprevistos que precisarão ser resolvidos durante esse processo, e as primeiras tentativas terão altas probabilidades de falhar. Assim, durante alguns milhões de anos haverá a oportunidade de aprendizado, correção de erros etc. e depois aplicar o processo para terraformar algum exoplaneta para atender à necessidade real de sair do Sistema Solar antes que o Sol saia da sequência principal. Se fosse aprender como fazer somente quando necessário para mudar para outro sistema, e falhasse na tentativa, seria desastroso. Por isso é importante testar nos planetas vizinhos antes, embora o objetivo não seja a ocupação deles, propriamente. Embora a previsão de que o Sol demore 5 bilhões de anos para esgotar seu combustível de hidrogênio, ao longo desse processo haverá várias mudanças importantes em poucas centenas de milhões de anos, tanto no tamanho quanto na temperatura e na luminosidade. Um aumento ou diminuição de 10% na luminosidade seria um problema muito grave. O modelo atual de evolução para estrelas de classe G2-V como o Sol prevê que em 1 bilhão de anos a luminosidade do Sol será cerca de 9% maior que a atual, portanto não teremos vários bilhões de anos para nos mudar para um sistema estelar mais estável, talvez em torno de uma anã-vermelha ou algo assim. Também é discutível se uma anã-vermelha seria uma opção, porque se nossa principal fonte de energia for da luz estelar, com uma esfera de Dyson ou algo assim, talvez uma anã-vermelha não fosse capaz de atender à nossa demanda energia. Outro problema é que o modelo atual de evolução é baseado em várias hipóteses que podem estar erradas ou inacuradas. Recentemente se constatou que a metalicidade do Sol é cerca de 43% maior do que se pensava, o que tem várias implicações sobre o ritmo de evolução e sobre quanto tempo teremos até precisarmos nos mudar devido ao sobreaquecimento de nossa região. Se houver outros parâmetros revisados, o prazo de 1 bilhão de anos pode ser reduzido a poucas centenas de milhões (ou ampliado, se tivermos sorte).

 

Talvez os planetas e outros astros dentro do Sistema Solar sejam utilizados para turismo, ou para fuga de algumas pessoas “privilegiadas” no caso de uma guerra tornar a Terra inabitável, embora provavelmente seja menos difícil “consertar” a Terra depois de uma guerra nuclear do que tornar outro planeta suficientemente acolhedor. Mesmo depois de uma guerra nuclear devastadora, dificilmente a Terra ficaria tão inóspita quanto é Marte, por exemplo. Se nas próximas décadas ou séculos surgirem armas ainda mais destrutivas que as atuais, e se chegarem a ser utilizadas, então talvez sejam capazes de deixar a Terra mais inabitável do que outros planetas, e nesse caso a migração seria uma alternativa para alguns. Também é importante considerar que futuros habitantes da Terra poderão ter necessidades diferentes dos atuais, talvez sejam preservados os cérebros, mas o restante do corpo talvez seja substituído por algo mais versátil, que suporte temperaturas mais altas e mais baixas, e outras condições mais hostis, mantendo o cérebro isolado termicamente para não sofrer danos, com proteções adequadas também para radiação etc. Ou simplesmente trocar o cérebro por uma estrutura homóloga que seja mais robusta à condições climáticas adversas.  

  

Também é provável que os “humanos” não se mudem para apenas um planeta, mas para vários, já que os testes de terraformação não funcionarão todas as vezes, então precisaremos de uma amostra razoável de tentativas para ter boas chances de que pelo menos alguns testes “funcionem”. E a partir do momento que os novos planetas estiverem disponíveis para ocupação, provavelmente serão ocupados. Também é possível que sejam feitas mudanças genéticas e protéticas para tornar humanos, animais e vegetais adaptados a outros astros, em vez de alterar apenas os astros para se adaptarem a nós. Isso deve tornar todo o processo mais rápido e promover uma melhor harmonização e integração dos seres com os planetas nos quais viverão, já que alguns parâmetros planetários e estelares provavelmente serão muito difíceis de ajustar, como a quantidade emissão de raios UVB pela estrela, necessária à síntese de vitamina D, que atualmente é importante para nosso sistema imunológico, mas se passarmos a habitar um planeta em torno de uma anã vermelha, a emissão de UVB será muito menor. Enfim, é uma questão que daria para escrever um livro a respeito, porque é muito complexa. Mas esse é um esboço de algumas possibilidades.

Jacobsen: 5. Qual poderia ser a razão pela qual a NASA não pretendia reduzir os gastos galopantes e fez como SpaceX e reutilizar os foguetes da mesma forma que quando a SpaceX faz hoje?

Melão Jr.: Eu não acompanhei a evolução disso, então talvez minha resposta não faça sentido. Mas eu acho que a NASA não tinha tecnologia para isso, nem interesse em utilizar parte da verba para tentar desenvolver essa tecnologia. Se usassem verba para isso e não conseguissem resolver o problema de reutilização de foguetes, a verba seria perdida. A SpaceX fez a aposta e funcionou. Depois que a SpaceX resolveu o problema e agora a tecnologia está disponível, a NASA não precisa correr o risco do empreendimento até aprender como fazer. Basta repetir o que a SpexeX já mostrou que funciona. Então meu palpite é que talvez esse seja o motivo principal ou pelo menos um dos motivos.

 

Jacobsen: 6. Pode-se esperar que nos próximos 100 anos nós, humanos, encontremos novos extraterrestres? Corridas?

Melão Jr.: Estou supondo que a pergunta seja sobre extraterrestres vivos ou que em algum momento já estiveram vivos (fossilizados, por exemplo) e cujos ancestrais também sejam extraterrestres. Caso contrário a resposta se tornaria fácil, porque se um casal de humanos for para uma base lunar e tiverem um filho lá, a criança será um selenita, ou algo assim, ou marciano se for numa base em Marte, e isso deve ocorrer em menos de 100 anos. Mas imagino que você gostaria de descartar esse tipo de extraterrestre. Então, se estivermos falando de extraterrestres cujos ancestrais também sejam extraterrestres há mais de 100 anos, a probabilidade diminui, mas ainda continua sendo provável, na minha opinião. Provavelmente objetos como Oumuamua passam frequentemente pelo Sistema Solar, mas raramente são detectados porque não existem programas de monitoramento para isso. Quando for desenvolvido um projeto sistemático para estudo de objetos desse tipo, então nosso raio de alcance em poucas décadas será muito maior do que o atual, chegando muito além dos objetos do Sistema Solar, não porque seremos capazes de ir a outras estrelas em tão pouco tempo, mas sim porque aproveitaremos melhor as oportunidades de estudar objetos interestelares que passam em nossas imediações, mas que não estão sendo atualmente estudados com a devida atenção.

 

A resposta a essa pergunta também dependerá muito de alguns detalhes semânticos e etimológicos, relacionados à classificação de um organismo como “vivo”. Nosso conceito atual de vida é muito limitado, a tal ponto que se encontrássemos organismos vivos com determinadas propriedades muito diferentes das que conhecemos, talvez não os reconhecêssemos como “vivos”. A evolução do conceito de “vida” deverá desempenhar um papel importante nesse processo, alargando o alcance desse conceito e tornando-o mais inclusivo. Robôs, por exemplo, talvez passem a ser considerados “vivos” se atenderem a determinados critérios.

 

Em reação à comunicação com vida inteligente, em projetos como o SETI, acho menos provável, porque nossa tecnologia atual baseada em sinais de rádio não existia há 100 anos e deve se tornar obsoleta em 100 anos, por isso é bem pouco provável que civilizações alienígenas se encontrem precisamente num estágio compatível com o nosso. Outro problema é a que a intensidade do sinal, mesmo que seja muito colimado, não teria alcance muito longo (10 kpc, por exemplo). É mais provável que tecnologias de comunicação mais avançadas utilizem algo como tunelamento quântico ou algum outro método mais rápido, além de não haver perda na intensidade do sinal, isso ampliaria o alcance para o universo inteiro e permitiria respostas sem delay. Não digo que essa tecnologia virá necessariamente do tunelamento, mas de algo equivalente em termos de rapidez, preservação da “limpeza” (sem ruídos) e intensidade do sinal. Mas não sei se em 100 anos isso estará disponível. Talvez sim, mas acho que menos de 50% de probabilidade.

Jacobsen: 7. O que nós humanos podemos esperar da IA, de acordo com saúde, guerra, viagens espaciais etc... no +futuro próximo?

Melão Jr.: Depende de alguns fatores. Se houver investimentos suficientes a partir de agora, em 10 a 15 anos podemos ter algumas pessoas imortais, ou pelo menos ter algumas pessoas com o processo de envelhecimento dramaticamente desacelerado e depois paralisado, enquanto os avanços continuam para depois reverter esse processo e chegar à imortalidade e posteriormente a ressuscitação. A estratégia para isso já existe, mas para ser colocada em prática precisaria de recursos computacionais e uma equipe qualificada dedicando tempo a isso.

 

Alguns dos saltos tecnológicos importantes recentes depararam com barreiras que os pesquisadores envolvidos não estão conseguindo transpor. AlphaZero foi capaz de subir de -3000 (3000 negativo) de rating e chegar a 3500 de rating com 9 horas de treinamento, aprendendo mais nessas 9 horas do que a humanidade inteira somada conseguiu aprender sobre Xadrez durante mais de 500 anos. Entretanto, a curva de evolução de AlphaZero esbarrou num limite assintótico e se permanecesse treinando por 100 anos não conseguiria subir de 3500 a 3900, talvez nem 3800 ou 3700. Esse efeito também acontece com Shogi, Gô, jogos de Atari e provavelmente quase todos os jogos de tabuleiro e outros tipos de problemas se abordados por essa estratégia de solução.

13.png

 

Se utilizar maior poder de processamento, sim, pode chegar a 4000, mas em termos de aprimoramento das heurísticas, ficou estagnado. Um problema semelhante acontece com Lc0 e StockFish. Lc0 não apresenta melhoras reais desde a versão 13, a diferença da versão 15 para a 13 é de 4 pontos, enquanto a incerteza na medida é 17 pontos.

14.png

 

Fonte: https://ccrl.chessdom.com/ccrl/4040/rating_list_all.html

 

A ideia de Demis Hassabis para uso de aprendizado profundo por reforço da maneira como ele fez foi importante para chegar a esse estágio, mas não há perspectivas de continuar avançando enquanto não forem resolvidos os problemas que possibilitem o próximo passo. No caso de AlphaZero eu não sei exatamente o que eles fizeram além do que eles disponibilizam no site, mas no caso de Lc0 há mais informações públicas e o próprio sistema fica disponível para ser testado exaustivamente, e há muitos erros em Lc0 e detalhes da otimização inadequada que precisam ser melhorado, e suponho que haja muitos problemas semelhantes no caso de AlphaZero, talvez não exatamente os mesmos problemas de Lc0, mas igualmente graves, certamente.

 

Jacobsen: 8. Quais são as perspectivas futuras do homem de acordo com a IA e suas propriedades não estendidas em todas as falhas, onde a ênfase é colocada em: extinção da espécie homem ou coexistência?

Melão Jr.: Depende do que serão considerados “humanos”. No livro/filme de Asimov “O homem bicentenário”, os robôs adicionavam cada vez mais partes humanas, até se tornarem praticamente humanos. Mas é mais provável que o caminho seguido no mundo real seja o contrário, e os humanos coloquem cada vez mais partes inorgânicas, até chegar a um ponto que talvez só permaneça o cérebro, e talvez depois o cérebro também seja substituído por algo equivalente, mas com estrutura muito diferente.

Jacobsen: 9. O termo “gênio” desaparecem de acordo com quais capacidades a IA poderá possuir?

Melão Jr.: O conceito de “gênio” não deve ser formulado de modo a ser aplicado exclusivamente a humanos. Esse conceito pode ser subdividido na hierarquia taxonômica por espécie, por gênero, por família etc. e pode incluir novos grupos de organismos como robôs ou alienígenas orgânicos e inorgânicos, inclusive o conceito de “orgânicos” poderia ser reconsiderado para incluir seres de silício, dependendo das propriedades dos seres que eventualmente se enquadrem nesse grupo.

 

Pode-se usar o conceito de “gênio humano”, assim como “gigante humano”, ou chimpanzé gênio, chimpanzé gigante, conforme o nível de raridade ou a quantidade de desvios padrão distante da média, ou algum critério similar.

 

Dentro de cada espécie animal, vegetal, mineral, monera etc. e outras formas de vida alienígena e seres inorgânicos, os seres podem “aceitar” alguns atributos que tenham um significado coerente dentro de sua respectiva categoria, mas não aceitar outros atributos. Por exemplo: rochas gigantes, elefantes albinos, humanos geniais, peixes triboluminescentes. Mas não rochas geniais ou coelhos leptônicos ou grito amarelado, porque algumas categorias não aceitam determinados conceitos. Poderiam admitir como metáforas ou licenças poéticas, mas os significados seriam analogias com algumas perdas, distorções e prejuízo ao rigor dos significados. “Pedras geniais” não estabeleceria uma ideia inteligível. Poderia tentar forçar o atributo “genial” para pedra, mas isso começaria a ter consistência muito frágil para uma análise apropriada. Seria mais recomendável “filtrar” os atributos que cada categoria de entidades poderia receber, para manter algum rigor lógico na análise.

 

Nesse caso, entre todas as classes de organismos que aceitassem o atributo “inteligência”, também seria possível aplicar quantificadores de intensidade relativa de inteligência, tais como “genialidade”. A aplicação desses atributos dentro de uma mesma espécie seria mais fácil, porque geralmente a distribuição de uma variável dentro da mesma espécie é semelhante a uma gaussiana, ou depois de poucas transformações (logaritmo da variável, por exemplo) fica semelhante a uma gaussiana. Um cachorro gênio seria aquele com inteligência 3 (ou 4 ou 5) desvios padrão acima da média. Dentro do grupo “cachorros” há uma curva suave de níveis de intensidade para variáveis como altura, velocidade ao correr ou inteligência.

 

Quando se considera espécies diferentes misturadas, a forma de distribuição pode deixar de ser normal, pode inclusive ficar muito diferente de uma normal e fortemente assimétrica, com algumas descontinuidades ou com algumas reduções profundas na frequência nos intervalos que separam duas espécies, além disso, em vez de ter a forma de uma normal, pode ter a forma de uma distribuição em que os menores organismos sejam muito mais numerosos que os maiores. Mas o conceito de nível de raridade ainda continuaria sendo aplicável qualquer que fosse a distribuição da variável de interesse, de modo que continuaria sendo possível aplicar o atributo “gênio” a um grupo de categorias de seres, desde que os seres dessas categorias aceitassem o atributo “inteligência”. Estou simplificando as coisas, para descrever a ideia, mas naturalmente o significado de “gênio” não precisaria ser baseado exclusivamente na “inteligência”. Para expor a ideia, vamos supor que “gênio” seja simplesmente um quantificador de inteligência.

 

Ao abordar a questão dessa maneira, talvez os mamíferos contivessem todos os gênios existentes. Ou talvez os animais macroscópicos contivessem todos os gênios. Dependeria muito de como seria o critério para conceituar “gênio”. Se fosse pela raridade dentro da população de indivíduos, se os indivíduos seriam ponderados pelo tamanho, pela massa, por algum outro critério, se a raridade seria estratificada por espécie etc. Também dependeria do ponto de corte para determinar a partir de que nível de raridade a classificação “gênio” começaria a ser aplicada, se 1 em 1.000, ou 1 em 1.000.000 ou alguma outra.

 

Analisando um exemplo: se fosse considerada a distribuição de todos indivíduos de todas as espécies misturadas, sem qualquer ponderação, então como o número de micro-organismos é muito maior que o de organismos grandes, se o número de micro-organismos for 10^12 vezes maior que o número de insetos e seres ainda maiores, então os insetos já poderiam ser classificados como “gênios” porque estariam no topo de 1 em 1.000.000 dos seres mais inteligentes da população em geral, já que a população em geral seria majoritariamente de micro-organismos. Se o critério fosse diferente e considerasse a inteligência média por espécie e estratificasse por espécie, num planeta com 10 milhões de espécies, se o critério para “gênio” fosse 1 em 1 milhão, então provavelmente alguns grandes primatas e alguns grandes cetáceos ficariam classificados como gênios. Embora os humanos estejam sensivelmente acima dos outros primatas, seria um pouco mais difícil estabelecer um critério estatístico por esse caminho que possibilitasse separar “cirurgicamente” os humanos de outros animais, inclusive porque existem alguns gorilas e chimpanzés mais inteligentes do que alguns humanos.

 

Nesse contexto, seres inorgânicos como IAs mais inteligentes que humanos, ou quase tão inteligentes quanto humanos ou quanto gorilas ou golfinhos, também receberiam essa classificação de “gênios”. Se o critério fosse baseado em raridade, não haveria muita diferença numa escala ordinal entre um robô e um humano, porque estariam ambos próximos ao topo, o robô como primeiro do mundo e os humanos em segundo. Embora os robôs pudessem ser muitas ordens de grandeza mais inteligentes que os humanos, o critério baseado em raridade não ajudaria muito a criar uma classe especial para os robôs. Essa é uma situação na qual o método de padronização que descrevi em 2000 seria aplicado com sucesso, porque possibilitaria medir a proporção em que os robôs seriam mais inteligentes que os humanos, em vez de simplesmente medir os níveis de raridade de espécies.

 

No cenário atual, por exemplo, humanos estão em 1º e talvez chimpanzés ou gorilas em 2º, e a proporção é relativamente pequena dos membros da espécie que está em 1º para os membros da espécie que está em 2º. Talvez a inteligência média dos humanos seja 100 vezes a média dos chimpanzés, apenas 2 ordens de grandeza. Não é muito, inclusive há intersecção entre as distribuições de níveis intelectuais de humanos e outros grandes primatas. Nos casos de IAs, talvez a proporção em relação aos humanos seja algo como 10^6 ou 10^9, de modo que nem os humanos mais inteligentes se aproximariam ao nível intelectual das máquinas de inteligência média, ou mesmo de máquinas com defeitos. Talvez, no início, preservássemos alguns atributos intelectuais nos quais ainda pudéssemos nos sobressair, mas seria questão de tempo até que as máquinas fossem nos superando em praticamente todos os aspectos relevantes.

 

Se o critério fosse baseado em proporção de potencial intelectual, em vez de níveis de raridade, seria mais fácil e mais lógico fazer a separação do nível intelectual dos robôs e dos humanos, bem como a separação dos humanos e outros animais, embora muitas vezes não haja uma interface bem definida e os níveis se intersectem.

 

Portanto o termo gênio continuaria sendo aplicável, tanto dentro de espécies específicas quanto em grupos de espécies e grupos de entidades inteligentes. Mas em lugar do termo “gênio” poderia ser necessário usar “gênio humano” para distinguir de “gênio” entre todas as espécies. Também poderiam ser criadas subdivisões em níveis mais altos e nos mais baixos. Os testes “gênio profundo” ou “gênio universal” em escala humana seriam relativamente pouco para sistemas de IA, e um nível médio de IA poderia ser alto demais para ser alcançado por qualquer humano. Nos casos de humanos híbridos também haveria categorias conforme a amplitude da conexão e a proporção preservada de humanidade. No livro/filme de Asimov “O homem bicentenário” ele acha que os robôs desejariam se tornar humanos, mas é muito mais provável que os humanos queiram se tornar robôs, o que seria “perigoso” em vários aspectos, porque talvez o sentimento, a emoção, alguns atributos que consideramos essencialmente humanos e animais, talvez não sejam relevantes para robôs e sejam gradualmente extintos. Eu não saberia avaliar em que medida isso poderia ser ruim. Na ficção científica os robôs evoluem num sentido de desenvolverem sentimentos, mas talvez o caminho real da evolução seja no sentido de que os humanos sejam progressivamente privados de partes orgânicas associadas aos sentimentos.

 

Jacobsen: 10. Qual será a base da própria existência da IA, ela verá sua própria utilidade e tentará desenvolver e preservá-lo, mas então com que propósito?

Melão Jr.: O caminho que levou os seres à base de carbono a desenvolver uma consciência foi muito diferente do caminho que está sendo seguido pelos sistemas de silício. Os primeiros organismos surgiram espontaneamente e eles não pensavam nem lutavam conscientemente para sobreviver ou se multiplicar. Era um comportamento aleatório, entre outros comportamentos aleatórios, que acabou favorecendo algumas alternativas e tornando as populações de entidades com certas características mais numerosas do que outras. Por isso a partir do momento que surge a vida, ela tende a se multiplicar e evoluir. Ao longo desse processo, a consciência, a dor, a fome, o medo, a ganância, a lealdade, o amor, a amizade, a empatia e outros processos químicos extremamente complexos que produzem determinadas reações a determinados estímulos, reações que antes passam por um processamento muito complicado entre o momento que o organismo recebe o estímulo e reage a isso, nos levando ao que somos hoje, bem como os outros animais, vegetais, fungos, bactérias etc. ao que eles são hoje. A reação de remover a mão do fogo ao sentir dor ou o processo de escolher uma parceria com quadris mais largos para procriar foram modelados ao longo desse processo como fatores que aumentavam nossa probabilidade de gerar mais descendentes para a geração seguinte. São muitos fatores, e não foram planejados conscientemente. No caso dos robôs, estamos tentando recriar isso de forma simplificada e por um caminho muito diferente, no qual queremos evitar que eles se tornem competitivos conosco.

 

Num artigo no qual eu mostro que o paradoxo de Moravec é na verdade um pseudo-paradoxo, comento sobre o exemplo do carro, a maneira como ele se move mais rápido que outros animais, porém utilizando estruturas diferentes, estratégia diferente e se aproveitando de leis físicas diferentes. No Xadrez as máquinas jogam melhor que os humanos, mas não “pensam” de maneira similar. Antes de AlphaZero, as máquinas pensavam de maneira muito diferente, mas conseguiam resolver os mesmos problemas muito melhor do que nós, por caminhos diferentes. Nós compreendemos vários conceitos e tentamos aplicar esses conceitos em processos decisórios relativamente complexos para escolher os melhores lances, enquanto os programas não compreendiam nenhum conceito, eles apenas faziam muitos cálculos e utilizavam heurísticas apropriadas para podar a árvore de possibilidades e evitar que as bifurcações se ramificassem num número muito acima do que pudessem calcular. Mas com AlphaZero essa situação mudou muito radicalmente e ele começou realmente a simular a “compreensão” de conceitos estratégicos, e foi muito além dos humanos nisso, porque ele compreende mais e melhor os conceitos, ele descobriu muitos conceitos que ainda não entendemos.

 

Os programas de Xadrez anteriores a AlphaZero apenas recebiam uma descrição algorítmica simplificada de alguns poucos conceitos, uma pequena parte dos conceitos que nós conhecíamos e considerávamos mais relevantes, e compensavam a falta de “conhecimento” estratégico com uma imensa capacidade de cálculo e uma boa heurística para podar variantes que não mereciam ser aprofundadas. Mas AlphaZero joga como se fosse um humano, inclusive ele calcula pior que os humanos em situações com longas variantes que tenham poucas ramificações, e isso é impressionante, porque um humano calcula 1 ou 2 lances por segundo, enquanto AlphaZero calcula 30.000 lances por segundo. Mesmo assim, os humanos calculam mais longe que Alpha Zero em algumas posições. Claro que apesar disso Alpha Zero joga muito melhor, mas isso não é uma novidade importante. Desde 2007 e talvez desde 2003 os programas jogam melhor que os humanos, mas nunca eles demonstraram “compreender” o jogo melhor que os humanos e calcular pior que os humanos. Talvez eu devesse comentar um pouco mais sobre porque a vitória de Deep Blue em 1997 não poderia ser interpretada como o separador de águas de quando as máquinas superaram os humanos no Xadrez, mas isso seria um pouco extenso. Direi apenas que Deep Blue não era tão forte, venceu por “sorte” (e com algumas outras suspeitas) e foi removido de cena para que ninguém descobrisse o que realmente aconteceu. É diferente de quando Deep Junior e Deep Fritz empataram com Kasparov e Kramnik em 2000 e 2003, e finalmente quando surgiu Rybka em 2005-2007, a supremacia das maquinas se tornou inquestionável.

 

Embora 30.000 lances por segundo de AlphaZero seja muito menos que os 3.000.000.000 de lances por segundo de StockFish, é muito mais que os 2 lances por segundo dos humanos, mesmo assim os humanos calculam melhor que AlphaZero em alguns casos, enquanto AlphaZero “compreende” muito melhor os conceitos do que os humanos. De certo modo, é como se AlphaZero fosse mais humano do que os humanos, em alguns aspectos. AlphaZero seguiu um caminho em que ele próprio evoluiu para isso, sem intervenção humana, sem aprender nada com os humanos, à semelhança dos seres vivos de carbono. Então isso parece ser um caminho promissor, em alguns aspectos. Claro que a analogia não é ampla nem perfeita, AlphaZero é provavelmente mais complexo que um microorganismo, então ele começou sua evolução num ponto diferente. Além disso, há muitas outras diferenças, e algumas “orientações” humanas sobre como ele deve evoluir, embora não haja intervenções nos conteúdos que ele aprende e como ele descobre o conhecimento e como seleciona os conhecimentos mais úteis, há uma ampla estrutura prévia criada por humanos sobre os critérios e a estrutura que ele deveria adotar para aprender, enquanto os microorganismos não tiveram isso, havia uma “liberdade” muito maior para testar qualquer coisa que funcionasse, e nesse processo algumas reações como “medo” ou “fome” acabaram surgindo como “úteis”, mas para AlphaZero não seria no contexto ainda especializado no qual ele opera.

 

Então chegamos à situação do carro. Um humano se desloca de maneira muito diferente de cavalo, uma pulga, uma cobra, um pássaro ou um peixe, mas todos os animais apresentam certa similaridade no processo de deslocamento que é muito diferente de usar rodas. Talvez a cobra seja mais diferente dos outros animais, mas ela também se desloca de maneira muito diferente de um ser que use rodas. Embora esses animais sejam diferentes entre si, todos eles são muito diferentes do carro, e um carro como um Bugatti pode vencer todos os animais em velocidade (numa pista adequada). A Natureza nunca chegou a produzir algum animal que tivesse desenvolvido rodas, porque foi algo “planejado” para se adaptar a uma situação cujas propriedades eram compreendidas pelo designer das rodas e não havia muita necessidade de fazer bilhões de testes aleatórios até descobrir uma boa adaptação. Outro ponto importante é que o solo foi ajustado para se harmonizar com as rodas. Nenhum outro animal faz isso de forma muito ostensiva. Castores podem construir pequenos diques, e outros animais podem construir outras estruturas que afetam o meio, como corais ou abelhas, mas os humanos fazem isso de maneira muito mais profunda e “planejada”. O castor não pensa sobre como construir os diques, ele simplesmente segue seu instinto como um software pré-instalado de fábrica. É diferente dos humanos, que olham para uma montanha, querem fazer uma estrada passar por ali, e analisam se é melhor fazer um furo na montanha, passar por cima, passar por um dos lados ou descer e seguir outro caminho sem modificar a paisagem. Além disso, os humanos podem usar muitos métodos diferentes para furar a montanha e podem criar novas tecnologias para isso, enquanto os castores seguirão o mesmo método que seus ancestrais faziam.

 

Então a maneira como os humanos interagem com o ambiente é bem mais complexa, e os humanos conseguem otimizar e aprimorar continuamente seus métodos, em vez de depender de mudanças evolutivas aleatórias que façam as próximas gerações nascer com mutações que os leve a testar estratégias diferentes para abrir buracos em montanhas. Assim, humanos conseguem planejar as rodas e as pistas planas que combinam melhor do que pernas em caminhos com topologias irregulares. Além disso, o uso de combustíveis, motores, dispositivos diversos que aprimoram o processo de locomoção de um carro evoluem de maneira muito diferente de como acontece a evolução natural dos animais. A ideia de Leonardo Da Vinci utilizar hélices em vez de asas também foi muito interessante, embora ele provavelmente tenha se baseado no parafuso de Arquimedes. Antes dele, e depois dele, durante séculos e milênios as pessoas queriam voar imitando os pássaros, usando asas. Mas Leonardo compreendeu que não era bem assim e mostrou que esse talvez não seja o caminho mais promissor, ou pelo menos pode existir um ou mais caminhos alternativos a serem considerados.

 

Então o caminho que as máquinas estão evoluindo sob nossa orientação, talvez nunca produza algo como a consciência, porque elas fazem exclusivamente aquilo que gostaríamos que elas fizessem para atender a necessidades específicas e resolver problemas específicos, ou problemas mais abrangentes, mas com limites bem definidos. Entretanto, quando as máquinas começam a ter “liberdade” para evoluir por si mesmas, como aconteceu com AlphaGo, AlphaZero, MuZero, Lc0 etc., os rumos que as coisas podem tomar ficam fora de nosso controle e talvez elas elejam caminhos que conduzam a formação de características como medo, egoísmo, ambição, revolta etc. Como os treinamentos dessas máquinas podem ser muito rápidos, e em 10 horas uma máquina possa desenvolver uma “personalidade”, torna-se perigoso que isso escape ao nosso controle e sejam criadas máquinas psicopatas, assassinas de humanos, ou simplesmente que se sintam injustiçadas pela maneira como os humanos fazem uso delas. No estágio atual, MuZero ainda está longe de criar uma personalidade própria durante a evolução em seu treinamento, mas com 1 ou 2 saltos inovadores no processo evolucionário, isso já pode se tornar uma realidade. Estou usando “evolução” e “treinamento” misturados, mas são bastante diferentes e podem e devem ser combinados, com a diferença que no modelo Darwiniano de Evolução os organismos não transmitem caracteres adquiridos durante a vida, mas para máquinas isso pode ser configurado conforme nossa vontade, uma forma de Neo Lamarckismo.

Então a formação de consciência dependerá muito do caminho tomado no processo evolutivo, de interrupções estratégicas nesse processo para testar como estão se desenvolvendo etc. Mesmo assim é perigoso, porque as máquinas podem “fingir” que estão evoluindo por determinado caminho, para que possam prosseguir sem interrupção. Então creio que se a humanidade não se autodestruir numa guerra ou não houver escassez de energia para prosseguir nos avanços tecnológicos, ou algum outro impedimento, provavelmente as máquinas, cedo ou tarde, desenvolverão consciência, embora talvez seja um tipo de consciência muito diferente da nossa. Elas talvez compreendam que elas existem, talvez elas “queiram” continuar ativas (vivas) e lutem por isso, talvez sejam competitivas com algumas máquinas e aliadas com outras, além de possibilidade de todas se conectarem numa central única e não haver diferença entre individualidade e coletividade, enquanto estiverem conectadas. Talvez antes de tudo isso acontecer, já estejamos bem integrados com elas, com mais de 50% do corpo humano substituído por partes mecânicas/eletrônicas e façamos parte dessas conexões. Talvez elas utilizem nossos cérebros como complemento para processar a consciência delas.

bottom of page