Supercomputadores
Se pensa que os novos PCs a 1GHz são
poderosos, desengane-se. Há tarefas verdadeiramente complexas – como a simulação
nuclear, a previsão meteorológica ou a engenharia virtual –, que exigem máquinas
com uma potência muito superior à que estamos habituados a ver nos nossos
computadores de secretária. Os Supercomputadores são a demonstração do poder da
tecnologia e vaticinam o PC que utilizaremos no futuro próximo.
Poder titânico
Vai bem longe o tempo em
que os comuns computadores ocupavam enormes salas. O
primeiro
computador a sério – o ENIAC, ou Electronic Numerical
Integrator and Computer – era constituído por
30 blocos e pesava 30
toneladas. Foi construído em 1946 na Universidade da Pensilvânia, com
um
custo de 487.000 dólares. Desde então, as tecnologias de computação
evoluíram muito. Hoje, um
comum PC Pentium III possui mais poder de
computação do que a soma de todos os computadores
que existiam em 1950.
Mais ainda, hoje há um PC em praticamente todas as secretárias. Mas
isso
não significa que os grandes computadores – em tamanho ou em
desempenho – tenham
desaparecido. Bem pelo contrário: os cientistas têm
construído supercomputadores (SCs) com
centenas de processadores, que
efectuam muitos mi-lhares de milhões de operações por segundo.
A
construção de SCs foi impulsionada, sobretudo, pela Guerra Fria. Eram
necessários sistemas
capazes de lidar com complexos problemas
científicos e de engenharia, que usavam extensivamente
cálculos de
vírgula flutuante. As exigências computacionais deste trabalho – relacionado com
a
investigação nuclear e com a corrida ao espaço, em particular com
dese-nho de aeronaves –,
combinadas com a necessidade de alcançar
resultados rápidos, fizeram com que os custos elevados
não fossem
obstáculo. Refira-se que o primeiro sistema Cray-1, instalado em 1976 no Los
Alamos
National Laboratory, custou a módica quantia de 8,8 milhões de
dólares. Atingia 167 MFLOPS e tinha
8MB de memória.
O fim da
Guerra Fria, logo após a queda do muro de Berlim em 1989, parecia ditar também o
fim
destas poderosas máquinas. Mas isso não sucedeu – os
supercomputadores tornaram-se essenciais
nos mais variados ramos da
investigação científica.
Trabalhos pesados
A ASCI (Accelerated
Strategic Computing Initiative), uma iniciativa do Governo dos Estados
Unidos
cujo objectivo é, na essência, substituir os testes nucleares no
solo por simulações em computador,
tem sido um dos principais motores
de desenvolvimento dos SCs. A criação de simulações virtuais –
tarefa
desenvolvida em três laboratórios: Lawrence Livermore National Laboratory, Los
Alamos National
Laboratory e Sandia National Laboratories – tem sido o
principal estímulo à construção de
supercomputadores pela indústria. Os
supercomputadores são hoje usados em muitas áreas além da
investigação
militar: operações matemáticas complexas e cálculos físicos; animação
cinematográfica;
prospecção de petróleo e de minérios; previsão
meteorológica; investigação médica; crash tests;
estudos de
aerodinâmica; previsões sísmicas; gestão de bases de dados
gigantescas.
No campo da medicina, é notório o papel destas máquinas na
investigação da SIDA. Há bem pouco
tempo, cientistas de Los Alamos
traçaram um mapa da evolução do HIV nos últimos 70 anos. A
extrapolação
dos inúmeros cenários possíveis de reprodução e mutação do vírus não teria
sido
possível sem um SC. O mesmo acontece com o Projecto do Genoma
Humano – até 2003, cientistas
e supercomputadores terão feito a
descodificação da totalidade do genoma humano.
Tecnologia de ponta
Os
supercomputadores foram, inicialmente, máquinas muito caras. Mas o dinheiro não
era problema;
interessava apenas a rapidez com que eram produzidos e o
seu desempenho. Contudo, depois de
1989 os fundos dedicados à
investigação nesta área diminuíram drasticamente. Os
fabricantes
estiveram à altura do desafio: as máquinas passaram a
incluir componentes das comuns estações de
trabalho (IBM Power2, HP
PA-RISC 7200, SGI MIPS R8000); aumentou-se a escalonabilidade
através
do acréscimo de processadores e discos rígidos; passaram a
usar-se sistemas operativos de
estações de trabalho (por exemplo, IBM
AIX, Sun Solaris, SGI Irix).
O Top500 dos supercomputadores
(www.top500.org) reflecte três aspectos: a diversificação
das
tecnologias utilizadas; as brutais diferenças de desempenho entre
os modelos de diferentes gamas; e
o crescente poder de computação das
estações de trabalho topo de gama. A maioria das máquinas
no ranking
pertence a construtores americanos – IBM, Silicon Graphics (SGI), Sun
Microsystems e
Hewlett-Packard.
Boa parte dos SCs (os IBM
e Sun são um exemplo disso) emprega arquitecturas de
processamento
paralelo, cuja principal vantagem é ser escalonável.
Existem diversas variantes do processamento
paralelo, cada qual com
vantagens e desvantagens particulares. No SMP
(Symmetric
Multiprocessing), múltiplos processadores partilham a
memória RAM e o bus do sistema, o que facilita
a programação das
aplicações mas pode causar engarrafamentos no tráfego de dados. O
MPP
(Massively Parallel Processing) não usa memória partilhada,
distribuindo-a pelos processadores: a
programação de aplicações é mais
difícil e podem surgir problemas de sincronização dos dados. O
SPP
(Scalable Parallel Processing) é uma arquitectura híbrida que recorre a uma
hierarquia de dois
níveis de memória – o primeiro é do tipo SMP e o
segundo do tipo MPP. Outros supercomputadores,
como os da Cray (empresa
que pertencia à SGI e que foi, em Maio, comprada pela Tera), usam
o
processamento vectorial. Basicamente, o processamento paralelo
distribui as tarefas de computação
por muitos processadores a trabalhar
em simultâneo, ao passo que o vectorial supõe a utilização de
menos
processadores, mas mais poderosos.
Os três supercomputadores mais
poderosos usam processadores diferentes: o ASCI Red foi
construído com
o Pentium Pro da Intel; o Blue Pacific, com o Motorola PowerPC 604e; e o
Blue
Pacific, com chips da própria SGI. No que aos processadores diz
respeito, algumas empresas, como
a Vitesse Semiconductor, usam
alternativas ao silício – o arsenieto de gálio, um composto com
maior
capacidade condutora. Os microprocessadores da Vitesse têm sido
integrados nos mainframes e
supercomputadores da Convex, Sun e
HP.
Destacam-se ainda duas tendências: a crescente utilização do Linux e
das arquitecturas clustering
(ao invés de se juntarem milhares de
processadores, ligam-se centenas de poderosas estações de
trabalho). As
máquinas deste tipo têm vindo a ganhar destaque no ranking de super-PCs. Em
Abril
deste ano, uma equipa de Los Alamos criou, por 152.000 dólares
(uma pechincha), o Avalon, que
ocupa o honroso 256.º lugar no Top500.
Mais barato ainda ficou o computador construído por
investigadores da
Universidade do Tennessee, um cluster de 16 nós que custou 25.000 dólares e
foi
feito a partir de velhos PCs 486. A ideia na base destes projectos
é simples – combinar componentes
comuns com software open-source, como
o Linux. Estas máquinas são genericamente designadas
como sistemas
Beowulf.
Projectos promissores
Para os três
laboratórios americanos envolvidos na criação e manutenção de armas –
Sandia,
Lawrence a Los Alamos – é tempo de upgrade. Ao abrigo do
programa ASCI, o governo dos EUA irá
proceder à instalação de novas
supermáquinas.
Neste sentido, a IBM está a trabalhar no ASCI White, o
sucessor do Blue Pacific, instalado no
laboratório Lawrence Livermore.
O espaço onde ficará alojado o novo computador (uma área do
tamanho de
dois campos de basquetebol) começou a ser ocupado no mês de Junho. O ASCI
White
registará melhoramentos consideráveis em relação ao seu
antecessor. Ao invés do chip PowerPC 604
da Motorola (de 32 bits), o
novo ASCI utilizará processadores Power3-II de 64 bits. E, em vez
do
sistema SP da IBM, o White empregará a tecnologia Colony, para fazer
a transferência de dados entre
os nós da máquina – a capacidade de
comunicação aumentará de 150 para 500MB/s. Feitas as
contas, o ASCI
White, avaliado em 130 milhões de dólares, será 60% mais veloz que o Blue
Pacific.
Em Los Alamos, decorre a corrida aos 30 TeraFLOPS, disputada
pela SGI e pela Sun Microsystems
(terceiro maior fabricante de SCs). A
SGI, que está com problemas financeiros, concorre com o T30,
máquina em
relação à qual existem várias dúvidas. Sabe-se que a SGI vai abandonar
tecnologias por
si desenvolvidas – os chips e o sistema operativo Irix
(variante do UNIX) – e adoptar, respectivamente,
os processadores IA-64
da Intel e o SO Linux. Saber como e com que eficácia a SGI fará
esta
transição no T30 é o principal ponto de interrogação. A Sun, por
seu turno, está a trabalhar no
sucessor do E-10000, que marca lugar no
Top500. Esta máquina acomodará mais de 100 dos novos
chips UltraSparc-
-III da Sun, devendo ser lançada em meados deste ano.
A IBM está também a
trabalhar num computador dedicado à investigação científica – o Blue Gene
–,
orçamentado em 100 milhões de dólares. Quando estiver pronto, dentro
de quatro anos, o Blue Gene
servirá para compreender e replicar o modo
como os aminoácidos no corpo humano se autoconvertem
em proteínas.
Também no campo da ciência, a NEC está a construir um SC destinado ao
projecto
Earth Simulator. O Ultra Computer, que será usado na simulação
de fenómenos físicos e naturais da
Terra, será baseado em processadores
desenvolvidos pela NEC e num sistema UNIX. Prevê-se que
este SC fique
pronto em Março de 2002 e atinja os 40 TeraFLOPS.
Supercomputador hoje, PC amanhã
O
elevado ritmo de evolução da informática, traduzido de uma forma clara pelas
Leis de Moore, faz
com que o desempenho dos supercomputadores de hoje
possa, em alguns anos, estar acessível a
partir de um microcomputador
colocado sobre a nossa secretária. Uma análise da evolução
da
tecnologia informática permite tirar conclusões e até fazer
previsões bem fundadas.
Em 1976, se tivéssemos meio milhão de contos a
pesar-nos no bolso, poderíamos comprar a nata
dos supercomputadores, o
Cray 1. Este velho SC tinha uma velocidade máxima de 167 MFLOPS,
valor
bastante inferior ao dos microprocessadores da actualidade. Relativamente ao
Pentium III a
600MHz, por exemplo, o seu custo era mil vezes superior e
o desempenho quatro vezes inferior. E só
estamos a falar do Cray 1 de
base. Dependendo da configuração do hardware, poderíamos gastar
algo
como 1,5 milhões de contos e, mais ainda, precisaríamos de uma
grande casa para o alojar.
Falamos de tecnologia com mais de duas
décadas: o que podemos esperar daqui a 20 anos? Não é
de esperar ver
algo tão poderoso como o ASCI Red disponível num desktop, mas, se pensarmos
num
sistema com o mesmo nível do Cray 1 em 1976, estamos confiantes que
a máquina que teremos em
2020 será tão poderosa como o Cray T3E (264
GFLOPS), utilizado no United Kingdom Meteorological
Office (Met.
Office) ou seja, cerca de 380 vezes superior ao Pentium III 600. A barreira do
TeraFLOPS
deverá ser ultrapassada poucos anos depois, provavelmente
antes de 2030.
Além de velocidade, que mais podemos esperar desses
computadores? A memória RAM exigida
pelas aplicações aumenta anualmente
– na verdade, parece duplicar. Em 1996 eram suficientes 8MB;
em 1997,
16MB; em 98, 32MB; em 99, 64MB; e actualmente, 128MB é o tudo o que nos faz
falta para
aproveitar ao máximo as potencialidades do nosso PC. Se
seguirmos esta lógica, então em 2020
deveremos ter um sistema de 26,4
TeraBytes (TB), já para não mencionar os mais de 2000TB de
disco
rígido. Isso é muito mais do que o ASCI Red tem actualmente. Assim sendo, talvez
estes
números sejam um pouco exagerados. Mas é claro que, nessa altura,
os computadores serão
fabricados de uma forma radicalmente diferente. É
provável que, no futuro, os conceitos de DIMMs e
de discos rígidos
sejam tão hilariantes como são hoje os de válvulas e cartões perfurados. A
única
coisa de que podemos ter a certeza é que o PC do ano 2020 fará
com que o Pentium III actual pareça
um Sinclair ZX81.
A história dos Supercomputadores
1955:
O IBM 704 é apresentado. Foi o primeiro computador comercial capaz de efectuar
operações
com vírgula flutu- ante. Podia alcançar uns “extraordinários”
5 KFLOPS ou 0,005 MFLOPS.
1956: A IBM inicia o projecto STRECH com o
objectivo de produzir um supercomputador, 100 vezes
mais poderoso que
qualquer computador disponível na época, para o Laboratório Nacional de Los
Alamos.
1958: Seymour Cray funda a Control Data Corporation. O Gamma 60 é
anunciado pela Bull, com sede
em França. Foram construídos 19 destes
modelos.
1959: A IBM entrega o primeiro computador STRECH e são
construídos mais sete. Os modelos da
IBM 7079 e 7094 continuaram a
utilizar a tecnologia STRECH.
1960: A Control Data começa a trabalhar no
CDC 6600. A Honeywell lança o Honeywell 800, com
algumas capacidades
multitarefa – podia distribuir o tempo de utilização por oito
programas.
1962: A Control Data lança o CDC 1604, uma máquina similar ao
IBM 7090. Na Inglaterra, o
computador Atlas, um projecto conjunto da
Ferranti e da Universidade de Manchester, fica operacional.
É a
primeira máquina a utilizar memória virtual e é capaz de 0,2
MFLOPS.
1964: A Control Data lança o CDC 6600, que acaba por ser o
primeiro supercomputador de sucesso. A
CDC também constrói o STAR-100,
a primeira máquina a tirar verdadeiro partido da arquitectura
de
processamento paralelo.
1966: A UNIVAC entrega o 1108, uma
máquina de multiprocessadores com três processadores,
dois
controladores IO e um sistema operativo multitarefa – suporta a
execução de vários programas em
simultâneo.
1967: O
supercomputador BESM-6 começa a ser produzido em Moscovo. Contém memória virtual
e
consegue atingir 1 MIPS.
1968: A Control Data começa a
analisar o problema do processamento de imagem com um
computador. A
investigação eventualmente dá origem ao CDC AFP e ao Cyberplus. O IBM 2938
Array
Processor alcança os 10 MFLOPS.
1969: A Control Data
produz um sistema de processamento de imagens produzidas por
radar
chamado Cyberplus. Funciona 250 vezes mais rapidamente do que o
6600. A Intel introduz a primeira
CPU de um único chip, o
4004.
1972: O Seymour Cray abandona a Control Data para fundar a Cray
Research Inc.
1973: A primeira rede Ethernet é construída no centro de
desenvolvimento e investigação Xerox PARC.
1976: A Cray Research entrega
o Cray-1 ao Laboratório Nacional de Los Alamos, atingindo a
velocidade
de 167 MFLOPS.
1977: A NASA começa a planear um sistema de Massively
Parallel Processing para processamento
rápido de imagens.
1979:
Em Toulouse, o sistema dataflow com 32 processadores fica operacional. A IBM
cria o primeiro
processador RISC básico.
1981: A Silicon
Graphics Inc. é fundada e tem como objectivo produzir máquinas gráficas de
grande
desempenho – actividade que ainda hoje mantém.
1982: A
Hitachi lança o computador vectorial S-810, capaz de atingir os 800 MFLOPS. A
MITI
japonesa começa a trabalhar num projecto de dez anos para produzir
um supercomputador de 10
GFLOPS, salto de gigante para a
época.
1984: A Cray lança o CRAY X-MP, disponível nas versões de um e
quatro processadores, e um
sistema operativo chamado CX-O, muito
similar ao Unix.
1985: A Cray produz o CRAY-2 com um processador
principal e quatro processadores auxiliares e 256
MWord de
memória.
1986: Surge a primeira máquina compatível Cray: o SCS-40 – um
mini-supercomputador.
1988: A Silicon Graphics produz a Power Series, com
capacidade de suportar até oito processadores
MIPS R2000
RISC.
1989: O Seymour Cray começa de novo com a Cray Computer
Corporation.
1991: A Cray Research produz o C90. A Fujitsu produz o
supercomputador VP-2600.
1992: Um NEC SX-344 com quatro processadores
atinge os 20 GFLOPS.
1996: O supercomputador ASCI Red, com 7000
processadores Pentium Pro, quebra a barreira do
TeraFLOPS.
1997:
O ASCI Red tem agora 9200 processadores e uma velocidade máxima de 1,8 TFLOPS. O
IBM
Deep Blue torna-se o primeiro computador a bater um campeão mundial
de xadrez. Gary Kasparov foi
a vítima.
1998: O Blue Montain,
construído pela SGI, é apresentado, provando ser o sistema gráfico
mais
poderoso do mundo. O Blue Pacific SST é construído pela
IBM.
1999: A IBM inicia a construção do Blue Gene, sucessor do ASCI Blue
Pacific. Depois de terminado,
a acontecer em 2004 ou 2005, será capaz
de ultrapassar o PetaFLOPS (1000 TFLOPS), utilizando um
milhão de
processadores.
2000: A NEC recebe uma encomeda para produzir um sistema
denominado Earth Simulator de 40
TFLOPS.
Glossário
MIPS – Milhões de instruções
por segundo. Dão uma ideia básica da velocidade de um processador.
Os
MIPS não são considerados tão fidedignos como os MFLOPS.
MFLOPS – Milhões
de operações de vírgula flutuante por segundo. Os MFLOPS têm vindo a
substituir
os MIPS na medição da velocidade dos computadores. Os MFLOPS
são considerados um valor mais
representativo do poder da máquina e
indicam as operações que utilizam números com vírgula
flutuante – os
MIPS medem as operações que utilizam números inteiros. Um processador Pentium
III
a 600MHz alcança um valor ligeiramente superior a 690
MFLOPS.
GFLOPS – Mil milhões de operações de vírgula flutuante por
segundo, ou seja 1000 MFLOPS.
TFLOPS – TeraFLOPS. Equivalente a 1000
GFLOPS.
PFLOPS – PentaFLOPS. Equivalente a 1000 TFLOPS.
MPP –
Massively Parallel Processing. Os supercomputadores precisam de um grande número
de
processadores e a melhor forma de os organizar é em paralelo. Esta é
a arquitectura que permite
maior velocidade. Por outro lado, aumenta
drasticamente a complexidade da programação do software,
pois os
programas para os sistemas MIPP têm de ser criados de forma a haver uma divisão
do
trabalho pelos vários processadores.
RISC – Reduced
Instruction Set Computer. Os processadores RISC são os favoritos entre
os
fabricantes de supercomputadores, porque são mais rápidos do que os
processadores mais usuais.
São tecnologicamente mais simples e têm um
conjunto de instruções extremamente limitado. Assim,
embora seja mais
difícil programá-los, os RISC são mais eficientes.
Word – Os
supercomputadores são demasiado poderosos para utilizarem os velhos bytes
como
medida, por isso a sua memória é expressa em Words. Uma Word é
equivalente a oito bytes, assim
128KWords é o mesmo que um
megabyte.