30.11.05

Lattice day


Mais um pouco do meu peixe. Via Interactions.org fico sabendo que estão comemorando hoje as bodas de prata do artigo que inaugurou a abordagem numérica da QCD na rede (Lattice QCD). A discretização do espaço-tempo (rede euclidiana) aplicada à QCD já havia sido inventada bem antes, em 1974, pelo Prêmio Nobel Kenneth Wilson, mas enquanto técnica apenas analítica sua aplicação era de alcance limitado.
Monte Carlo study of quantized SU(2) gauge theory (PRD 21, 2308, 1980), de Michael Creutz (a figuraça aí do lado), foi publicado em 1980, sendo o paper mais citado daquele ano. Introduziu uma série de algoritmos que permitiam a simulação em computadores de teorias de calibres não-abelianas, base do Modelo Padrão das partículas. Foi um arrasa-quarteirão, pois, como se sabe, essas teorias são extremamente avessas a tratamentos analíticos num determinado regime de energia e a obtenção de predições confiáveis estava muito difícil. E, óbvio, era a região onde os fenômenos eram mais interessantes :)

O aparecimento de uma técnica que resolvia numericamente o problema injetou ânimo nos pesquisadores e esclareceu o que realmente essas teorias (em especial a QCD) prediziam, avalizando-as como boas descrições da natureza. Entre suas maiores conquistas estão uma demonstração bastante convincente do confinamento de quarks, estudo deste desconfinamento, coincidência da restauração da simetria quiral e desconfinamento, espectro de hádrons (uma das maiores conquistas da ciência segundo o Prêmio Nobel de 2004, Frank Wilczek), e muitas outras. Mesmo sem mencionar simulações, a discretização do espaço-tempo constitui um arcabouço teórico bastante poderoso.


Em homenagem à data, foi inaugurado em Brookhaven mais um supercomputador dedicado à QCD na rede, desta vez com capacidade de 10 Teraflops de processamento. Conhecido como US QCDOC (Quantum ChromoDynamics On a Chip), já é o terceiro filho de uma parceria entre a comunidade de QCD na rede americana e britânica e a IBM (BlueGene é spin-off disso). É engraçado comparar essas supermáquinas com a calculadora HP com a qual Creutz fez suas primeiras simulações (figura ao lado, grupo de calibre Z(2); note o papel quadriculado e os borrões de caneta. Depois reclamamos do gnuplot :)) ).

Esta pesada exigência computacional da QCD na rede manteve muitos países afastados desse tipo de técnica, incluindo aí o Brasil. Com o aparecimento dos clusters de PC's, na década de 90, esta situação começou a mudar, pois não era mais necessário comprar os caríssimos supercomputadores para fazer essas simulações. Grupos começaram a pipocar pelo planeta, inclusive por aqui [adic. 02.12.05: 1,2,3].

Minha modéstia me impede de destacar os benefícios de uma formação em QCD na rede, mas vocês devem imaginar que saber mexer com computadores não é uma habilidade desprezível fora do mundo acadêmico ;-)

Quem tiver interesse pode dar seus primeiros passos com o Lattice QCD for Novices, do professor Peter Lepage, ou então pode fuçar na página do professor Creutz (recomendo os Xtoys, muito divertidos).


Adicionado em 02.1205: O Daniel Ferrante me lembrou que a primeira iniciativa brasileira de fazer simulações de campos quânticos surgiu com o professor de Lyra da USP, acho que por 99-00. Lembro que ele mantinha um manual sobre o primeiro cluster que construiu pra isso, não sei se ainda está online. Chamava-o de SACI, em comparação com o nórdico BEOWULF :) Tenho certeza que este manual foi muito útil para os que queriam dar os primeiros passos na construção de um cluster, pois não havia tanta documentação como há hoje. O Daniel ainda manda o link de um texto sobre campos quânticos na rede (phi^4) produzido pelo professor de Lyra. Muito interessante, bastante voltado para a formulação rigorosa do problema de phi^4 na rede.

1 Comments:

At 1/12/05 14:20, Anonymous Anônimo said...

André: Eu não sabia que vc curtia uma "rede" também! ;)

Só pra constar: O grupo LATT do DFMA-IFUSP tem um texto muito bom, em português, sobre Lattice QFT. Ele pode ser obtido no seguinte link Teoria Quântica de Campos - Uma Abordagem Radical na Rede (PDF, 3.1Mb). (Eu tenho um texto semelhante, mas está em inglês - além dos códigos estarem em F77...)

E eu que, sem ter a menor noção, acabei parando aqui, no "colo" do G.S.Guralnik, que também trabalhava no mesmo assunto na mesma época do Kreutz (veja, por exemplo, Effective Potential for a Renormalized d-Dimensional g phi^4 Field Theory in the Limit g-->[infinity]).

Eu explico: Eu cursei o Ciências Moleculares (CM) na USP bem na época em que o Jorge deLyra foi o Diretor do curso. Então, desde a sua criação, o CM sempre teve um forte aspecto "computacional" (tanto que tivemos aulas com o próprio Jorge [deLyra], com a Renata [Funchal], com o Imre [Simon] e com o Gubi). Portanto, foi um tanto natural essa aproximação com simulações em computadores. Aliás, segundo o G. Chaitin, os computadores são os "experimentos" da matemática! ;) Aí, quando eu vim aqui pra Brown, tive que começar a procurar orientadores... o que, com a minha veia [High Energy Theory] teória, não foi fácil; até porque todos os teóricos daqui estavam com suas cotas esgotadas. E foi aí que me sugeriram o Guralnik.

Eu o conhecia [levemente] por causa da Quebra Espontânea de Simetria (o bóson de Higgs), do qual ele foi participante ativo, mas não sabia que ele também havia passeado pelas regiões mais "simulentas" da física. "Long story short", estou com ele já faz tempo e um dos nossos trabalhos foi o de atacar modelos Lorentzianos/Minkowskianos na rede, ie, não Euclidianizar a QFT. Pra isso nós desenvolvemos um método de aproximação bem legal... e, se tudo der certo e o artigo sair, eu devo falar desse trabalho no meu blog - só pra deixar vc com coceira. (Entretanto, nosso trabalho atual é completamente teórico, analítico.)

Bom, fora tudo isso, é bem verdade que "Beowulf Clusters" não são a última resposta em termos de poder computacional: Infelizmente, os cálculos mais complicados (e, portanto, mais interessantes) ainda precisam de "supercomputadores", ie, de máquinas com uma arquitetura que não seja a do PC caseiro. É realmente uma pena que as máquinas vetoriais (como os dois Crays que estão aqui, olhando pra mim ;) tenham saído de moda... o público não tem a menor noção do poder dessas máquinas (principalmente por causa da diferença da shared memory)!

Atualmente, os chips de 64 bits estão causando um certo alvoroço... mas, aí, eu acho que ainda fico com os Itaniums, que são baseados nos antigos "MultiFlows", e são realmente de grande qualidade. Infelizmente, corre na boca miúda, os Opterons da AMD (que eram os meus preferidos - principalmente pra clusters) dão alguns problemas quando vc começa a colocar muitos (8+) deles pra trabalharem juntos. Nesse sentido, a SGI tem umas máquinas bem "sexy", com memória NUMA e o diabo-a-quatro... é de dar água na boca. :)

Mas, já falei demais... porque o tópico também me dá coceiras... :)

Um abraço! []'s!

 

Postar um comentário

<< Home