Sítio do Piropo

B. Piropo

< Coluna em Fórum PCs >
Volte
20/07/2009

< Nova Estrutura da Marca Intel III: A arquitetura P5 >


Terminamos a coluna anterior no início da “era Pentium” quando, forçada por questões relativas ao registro de marcas, a Intel foi levada a designar seus processadores por nomes e não mais por números como vinha fazendo até então. E, no começo, tudo parecia manter certa coerência: depois do primeiro Pentium a Intel lançou o Pentium Pro mas logo retomou a sequência numérica com o lançamento sucessivo dos Pentium II, Pentium III e Pentium 4 que, fora o abandono dos algarismos romanos em troca do “4” em arábico e a inclusão de alguns modelos intermediários que por enquanto melhor omitir por amor a clareza, deixava evidente que havia uma espécie de “linha de sucessão”. O problema é que logo após o início do emprego da designação por nomes, eles passaram a se multiplicar de uma forma até então nunca vista. Só na Intel temos, além do Pentium, Xeon, Celeron, Itanium e, mais recentemente, Core, Atom e i7. Por que isso?

Não é difícil entender. Basta atentar para uma diferença crucial entre a “era Pentium” e os tempos que a antecederam. Porque, como eu já comentei, para interpretar o presente nada melhor que perscrutar o passado.

Antes do lançamento do Pentium a Intel fabricava processadores para computadores pessoais da linha PC e temos conversado. Cada vez que a arquitetura do processador era alterada para agregar alguma melhoria tecnológica, um novo modelo era lançado e sucedia ao anterior. E novos modelos surgiam, sempre um de cada vez. Ou seja: não havia, como há hoje, lançamentos conjuntos de diversos modelos, alguns compartilhando a mesma arquitetura, com diferentes desempenho e funcionalidades. E, naqueles dias, somente havia dois modelos simultaneamente no mercado na época de transição imediatamente após o lançamento do novo. Depois, a tendência era o modelo mais antigo ir desaparecendo aos poucos e o novo passar a dominar o mercado até o lançamento de seu sucessor.

Mas isso mudou.

Vamos tentar explicar as razões da mudança. Nos anos oitenta do século passado um computador pessoal da linha PC era um computador pessoal da linha PC e ponto. Quem possuía um XT, equipado com um 8088/8086, e queria uma máquina melhor, tinha que comprar um AT, com seu 80286, ou esperar pelo lançamento do próximo modelo, o i386. No máximo poderia comprar um AT mais rápido. Mas a única diferença entre este e o mais lento era a frequência de operação do microprocessador. Por exemplo: dava para trocar um IBM AT 286 de 12 MHz por outro IBM AT, equipado com o mesmíssimo 80286, porém operando a, digamos, 25 MHz. E quando digo “mesmíssimo”, não exagero: ambos usavam rigorosamente a mesma arquitetura, ofereciam os mesmos recursos, recorriam ao mesmo conjunto de instruções e apresentavam o mesmo número de pinos no mesmo encapsulamento. O de 25 MHz era mais rápido porque executava vinte e cinco milhões de ciclos de máquina por segundo enquanto o de 12 MHz executava apenas doze milhões. Fora isso, nada mudava.

Quem se recorda do exemplo da indústria usado para explicar o conceito de “arquitetura” na primeira coluna desta série, há de perceber porque eu afirmei dois parágrafos acima que a cada novo modelo correspondia uma nova arquitetura (lembre que cada novo modelo da linha x86 agregou um substancial avanço tecnológico como multitarefa, endereçamento direto, linha de montagem e superescalaridade – respectivamente nos modelos 80286, i386, i486 e Pentium). Portanto não havia necessidade de “batizar” a arquitetura. Bastava o nome do modelo para identificá-la.

A partir da era Pentium, tudo isso mudou. Com mais de uma década de vida, a “linha PC” já havia evoluído o suficiente para mostrar que os primeiros modelos, maquininhas quase inúteis que usavam fita cassete como meio de armazenamento de massa, operavam a menos de 5 MHz e vinham com 64 KB (sim, o IBM PC era fornecido assim; o drive de disquete era opcional e a memória RAM poderia ser expandida até 256 KB – quilobytes, por extenso, para evitar confusões) já haviam evoluído para um novo patamar e ofereciam poder de processamento para, em alguns casos e se ligadas em rede na configuração adequada, substituir algumas das máquinas de grande porte (os velhos “mainframes”) usadas em corporações. Eu me recordo que nos albores dos anos noventa, auge da era do i486, quando tudo o que acontecia de importante na indústria de informática era divulgado e discutido nas grandes feiras internacionais, em uma de minhas idas à COMDEX – então a Meca dos computadores – a palavra que mais se ouvia nos corredores, nos estandes e até nos restaurantes próximos ao pavilhão de exposições era “downsizing”, o termo usado para designar a substituição de máquinas de grande porte por um conjunto de micros ligados em rede. Praticamente só se falava nisso. E com isso veio a necessidade de desenvolver pelo menos duas classes de computadores, os micros comuns, que funcionavam como “clientes” da rede, e um – ou mais – modelo(s) mais “parrudo(s)”, que os alimentavam com serviços e informações e por isso eram chamados de “servidores”. O que ensejou não somente o estabelecimento do conceito de “cliente / servidor” como também a necessidade do projeto e fabricação de um tipo de processador mais poderoso (e, naturalmente, mais caro) para equipar os servidores. Que conviveria harmoniosamente no mercado com os processadores mais simples, usados nos clientes.

Mas não foi só isso. Também nos anos noventa do século passado surgiram – e logo se popularizaram – os computadores portáteis, no começo chamados de “laptops”, depois de “notebooks” (sim, sei que há diferenças, mas para o que nos interessa poderemos considerar ambos como membros de uma única classe, a dos portáteis). E com eles a necessidade de desenvolver processadores específicos para equipá-los, eventualmente menos poderosos, mas obrigatoriamente de menor consumo de energia.

Tudo isso, aliado à grande disseminação dos computadores pessoais que ocorreu no final do século passado, fez com que máquinas de diferentes capacidades de processamento – e, naturalmente, preços diferentes – passassem a conviver no mesmo mercado. E havia que atender a estes diferentes segmentos com diferentes modelos de processadores, mais caros ou mais baratos.

Finalmente, com a disseminação da Internet e das comunicações sem fio, surgiu a necessidade de dotar os computadores portáteis da capacidade de comunicação, surgindo modelos quase que específicos para este fim, os “netbooks”.

Em resumo: acabaram os tempos “do microcomputador”. Começava uma nova era, a “dos microcomputadores”, agrupados em diferentes classes para atender a diferentes necessidades. E começaram a aparecer modelos diferentes, alguns compartilhando a mesma arquitetura. E cada um deles, naturalmente, recebeu um nome diferente.

Para tentar deixar mais claro, vamos buscar uma analogia (um tanto tosca mas, espero, eficaz) na indústria automotiva. Como na dos microprocessadores, há mais de um fabricante de automóveis. Tomemos dois como exemplo: Fiat e Volkswagen. Ambas, no começo (pelo menos quando se estabeleceram aqui no Brasil) fabricavam veículos usando apenas uma “arquitetura”: a da Fiat representada pelo velho 147 e a da VW pelo saudoso Fusca. Modelos se sucediam, com alterações na carroceria, forma e tamanho dos faróis e até mesmo diferentes potências dos motores, mas o Fusca continuava sendo o Fusca e o 147 era o 147.

Então, devido à demanda do mercado, surgiu a necessidade de fabricar novos modelos usando diferentes “arquiteturas” para atender a diferentes solicitações dos usuários. Hoje, a
Volkswagen do Brasil fabrica mais de uma dezena de modelos totalmente diferentes, desde o Gol para o mercado de carros econômicos até a Parati para quem deseja uma perua, passando pelo Passat para quem deseja um modelo mais luxuoso. Da mesma forma a Fiat fabrica o Uno, o Palio, o Linea e diversos outros modelos, cada um atendendo um segmento específico do mercado. Por isso ninguém deve estranhar que a AMD fabrique o Sempron, o Athlon e o Opteron, por exemplo, enquanto a Intel fabrique o Celeron, o Core e o Xeon. Com a multiplicação da demanda, multiplicaram-se os modelos. E, naturalmente, cada um usa um nome diferente. Mas a idéia é bastante semelhante à que norteia a indústria de automóveis: fornecer modelos diferentes, com nomes diferentes, baseados ou não em arquiteturas diferentes, para atender a diferentes segmentos do mercado. É simples assim. O problema é que esta aparente simplicidade acabou resultando em um cipoal de nomes, números, marcas, modelos e arquiteturas que, este sim, ficou difícil de entender. Por isso a Intel resolveu agora alterar sua estrutura de marcas.

Então vamos tentar organizar um pouco este aparente caos acompanhando a sucessão de lançamentos dos principais modelos, agora agrupados por arquitetura.

Figura 1: Pentium de 1992

Comecemos, justamente, pelo início daquilo que podemos chamar de “era Pentium”. A arquitetura usada no Pentium (lançado em 1992, o primeiro da série, por isso conhecido apenas como Pentium) recebeu o nome de “P5” por representar a quinta geração da arquitetura x86. Ela foi a primeira a adotar a superescalaridade (mais de uma linha de montagem, ou “pipeline”) na linha PC. Era uma extensão da arquitetura adotada no i486, porém com duas “pipelines”, um coprocessador matemático mais rápido e um cache interno subdividido em dois conjuntos de 8 KB cada, um usado apenas para instruções, outro para dados, tudo isto no interior de um único encapsulamento.

Foram fabricados diversos modelos de Pentium baseados na arquitetura P5. As diferenças entre eles se limitavam à capacidade dos caches internos, frequências de operação e do barramento frontal (50MHz, 60MHz e 66MHz), tensão de alimentação e espessura da camada de silício e outros tantos detalhes, nenhuma delas suficientemente radical para justificar a criação de uma nova arquitetura. Por isso mesmo, do ponto de vista funcional, havia poucas diferenças entre eles.

As principais variantes da arquitetura P5 foram a P54, P55 (também conhecida pelo nome de código “Tillamook”). Esta última foi a única que apresentou uma alteração significativa se comparada às demais por incluir uma extensão do conjunto de instruções constituído por 57 novas instruções, cada uma delas passível de operar simultaneamente diversos dados. Esta tecnologia, conhecida como SIMD (Single Instruction, Multiple Data), não chegou a caracterizar uma nova arquitetura mas correspondeu a um avanço razoável de desempenho se comparada às demais. E por isso o processador que a incorporou foi lançado no mercado em outubro de 1996 com o pomposo nome de Pentium MMX.

O que merece um comentário. Que, embora pareça extemporâneo ou impertinente, logo se verá que tem tudo a ver com o tema principal destas colunas: a forma um tanto atabalhoada que a Intel usa para escolher nomes e marcas.

O último lustro do século passado (poupando uma corrida ao dicionário: “lustro” é o mesmo que quinquênio e significa “período de cinco anos”; o último do século passado transcorreu entre 1996 e 2000, embora haja controvérsias...) foi a época em que mais se falou em “multimídia”. Um conceito que corresponde a algo que hoje se tornou tão corriqueiro que talvez haja até quem o desconheça por achá-lo tão natural que pode até ser levado a pensar que “computador foi feito para isso”. Mas na época não se falava em outra coisa.

“Multimídia” significa, segundo o Houaiss (rubrica informática) a “técnica para apresentação de informações que recorre simultaneamente a diversos meios de comunicação, mesclando texto, som, imagens fixas e animadas”. Ou seja: a possibilidade de usar o computador para reproduzir sons e imagens, estáticas ou em movimento. Como se vê, nada de extraordinário. Hoje, qualquer micrinho vagabundo faz isso e pode ser usado com maior ou menor eficiência para “jogar joguinhos”, “tocar música” e “passar filmes”.

Mas há quinze anos as coisas eram muito diferentes...

Havia, é claro, as “placas de som”. Eram as chamadas “placas de oito bits”, monofônicas, com taxa de amostragem de 11 KHz e qualidade de som bem chinfrim, mas aceitável. Dava para ouvir, mas não entusiasmava ninguém. Mas o vídeo...

O problema estava no vídeo. Isso porque a qualidade de uma imagem estática depende de dois fatores básicos: o número de cores usado para reproduzi-la e a definição, ou seja, o número de pontos em que ela é subdividida. E, em ambos os casos, quanto maior, melhor. Já a imagem em movimento (filmes, jogos, animações) depende, além destes dois fatores, de um terceiro que é o número de vezes que a tela é renovada em cada segundo, o que por sua vez é função da frequência vertical da varredura de vídeo (de novo: aqui não cabem detalhes, mas quem estiver interessado neles pode encontrá-los na coluna “Computadores IV: Digitalização de imagens” e nas quatro seguintes). E tudo isso depende de capacidade de processamento.

Hoje em dia quase todo computador de boa qualidade dispõe de uma controladora de vídeo, integrada ou não à placa-mãe, na qual um processador auxiliar, o chamado “coprocessador gráfico” ou GPU (“Graphics Processor Unit”, unidade de processamento gráfico) chama para si a responsabilidade de efetuar a brutal quantidade de cálculos necessária para codificar e decodificar imagens, retirando esta carga dos ombros da UCP. Mas no final do século passado esse trabalho era feito pela própria UCP (Unidade Central de Processamento), o microprocessador que, além disso, era responsável por todo o processamento da máquina. Não era de admirar, portanto, que a qualidade da tão falada multimídia fosse menos que medíocre. E qualquer ajuda era bem-vinda.

Pois bem: dentre todas as aplicações da tecnologia SIMD, multimídia seja talvez a que mais se beneficia dela. Isso porque sua capacidade de agir simultaneamente sobre uma grande quantidade de dados parece ter sido inventada para processar sons e imagens. Senão, pense no que é necessário para alterar o timbre de um instrumento em um som digitalizado ou para trocar, por exemplo, a cor de fundo de uma imagem estática. Tanto em um caso quanto no outro é necessário efetuar a mesmíssima operação sobre um imenso número de dados, contados na casa dos milhões. Sem a tecnologia SIMD, havia que executar e repetir a mesma operação milhões de vezes. Com ela, bastava executá-la uma única vez sobre todos os dados. A vantagem era imensa e a melhora do desempenho em aplicações multimídia, extraordinária.

Figura 2: A tecnologia (e o Pentium) MMX

O que fez então a Intel? Chamou o conjunto de novas instruções SIMD de “MMX” e batizou o novo modelo de processador de “Pentium MMX”. Se você perguntasse a um diretor da Intel o que MMX queria dizer ele lhe responderia sem hesitação: “extensão multimídia” e garantiria que a sigla MMX provinha de “MultiMedia eXtension”. Afirmo isso sem medo de errar porque estava presente no dia do lançamento, feito com toda a pompa e circunstância na sede da Intel em Santa Clara, EUA.

E o melhor é que funcionava. O chip parecia concebido para melhorar o desempenho das aplicações multimídia. Mas não apenas delas, naturalmente. A melhoria no desempenho de aplicativos tipo planilhas eletrônicas, por exemplo, onde o recálculo automático exige a repetição das mesmas operações em centenas ou milhares de células, melhora significativamente. E há um mundo de aplicações corporativas que exigem o mesmo tipo de operações repetitivas, como CAD e congêneres. Portanto, embora o efeito fosse sentido de imediato nas operações multimídia, o desempenho global do novo processador mesmo em aplicativos corporativos melhorou significativamente.

Mas toda a ênfase, desde o lançamento, inclusive o nome, apelava para a melhoria do desempenho nas aplicações multimídia. O que fez com que as vendas do novo processador explodissem no segmento que usa intensivamente a multimídia. Que, apesar da existência das empresas gráficas e correlatas (naqueles dias, em muito menor número do que hoje devido, justamente, à então ineficaz tecnologia usada nas aplicações multimídia), tem seu grande contingente de usuários no grupo doméstico, interessado em jogos, animações, áudio e vídeo.

Acontece que os grandes compradores de processadores estão no segmento corporativo. E, diante dele, uma “explosão” no segmento que usa intensivamente a multimídia soa como um traque.

Pois bem, diga-me lá: quantos dirigentes corporativos estão interessados em um processador que aumentará o interesse de seus empregados em jogar joguinhos, ouvir música e assistir filmes? Não haverá de ser muitos... Portanto, não deveria ter surpreendido ninguém o fato de as vendas dos Pentium MMX no segmento corporativo não terem sido exatamente um sucesso.

Ocorre que o processador era bom. Inclusive, evidentemente, para o segmento corporativo, que tinha muito que se beneficiar do novo conjunto de instruções. O problema era o nome. Que dava a entender que o chip só servia para multimídia – ou que servia principalmente para multimídia – o que não era verdade. E foi justamente o nome que levou o processador a desfrutar de imerecida “má fama” no meio corporativo.

Resultado: como a Intel não podia mudar o nome depois de lançado o chip, resolveu simplesmente anular seu significado. E, um ano depois, indagados sobre o que queria dizer MMX, aqueles mesmos diretores da Intel tinham a cara de pau de responder: “-Nada”.

“-Mas como nada?” insistiria você. “-Não era “Multimídia Extension”?

“-Não”, responderiam eles com a mesma cara de pau. “-Foi apenas um nome de código que virou marca. Mas não quer dizer nada”.

Vejam vocês o que a má escolha de nomes obriga um sujeito sério a fazer...

Mas deixemos isso de lado e vamos partir para a arquitetura P6 e seguintes.

Na semana que vem, naturalmente.

 

B. Piropo