Sítio do Piropo

B. Piropo

< PC@World >
Volte

07/1997 

Previsões

 

Uma das vantagens do correio eletrônico é nos fornecer material para meditação. Dia destes recebi uma mensagem do Marco Campelo com interessantes previsões sobre a indústria dos computadores feitas há alguns anos por pessoas "do meio" que, presumivelmente, entendiam do assunto. Vamos ver algumas delas. Mas, para não sermos injustos com seus autores, vamos precedê-las de alguns comentários sobre a época e o contexto em que foram feitas.

Um mercado e tanto...

Reduzido à sua expressão mais simples, um computador é um artefato capaz de executar determinadas tarefas obedecendo a certas instruções adredemente preparadas, ou seja, uma máquina programável. A concepção de uma máquina deste tipo começou a se materializar com as caixinhas de música do século XVI, mas somente se consolidou no século XVIII com a indústria têxtil, através dos teares programáveis de Bouchon e Jacquard. Mas computadores mesmo, (mais ou menos) da forma como o conhecemos hoje, são dispositivos relativamente modernos que somente começaram a ser construídos no início deste século: em 1942 começou a funcionar o Harward Mark I, considerado o primeiro calculador mecânico bem sucedido, que usava fita perfurada para a entrada de dados. Já o Bell Model V, que embora usando relés eletromagnéticos era mais parecido com aquilo que hoje conhecemos como computador, começou a funcionar em 1946. Eram máquinas brutalmente complexas e caras, levavam anos para serem construídas, mas percebia-se que poderiam ser muito úteis e, claramente, havia um mercado para elas. Só não se imaginava o porte deste mercado.

Foi neste cenário que, em 1943, um cavalheiro do ramo e supostamente bem informado, já que era não menos que Thomas Watson, o presidente da IBM, pontificou:

"Acredito que exista um mercado mundial em torno de cinco computadores."

Máquinas de peso...

Os computadores somente começaram a se tornar efetivamente viáveis quando deixaram de ser artefatos mecânicos e passaram a ser eletrônicos, ou seja, quando substituíram relés por válvulas. As primeiras tentativas foram feitas por John Atanasof e Clifford Berry, em 1938, que iniciaram - mas não chegaram a concluir - a montagem de um computador com válvulas eletrônicas. Em 1941, o alemão Konrad Zuse, que muitos consideram o verdadeiro pai da informática moderna, projetou um computador a válvulas, mas felizmente o governo nazista não aprovou o projeto por não acreditar no futuro daquele trambolho. E logo depois, em 1943, o Colossus entrou em funcionamento durante a segunda guerra mundial na Inglaterra para fazer uma tarefa típica dos computadores: decifrar textos criptografados. No mesmo ano foi projetado um calculador e integrador numérico eletrônico (Electronic Numeric Integrator And Calculator), mais conhecido por seu acrônimo ENIAC, concebido para executar cálculos balísticos que, no entanto, foi de pouca utilidade, já que sua montagem somente foi concluída em 1946, quando a guerra já havia acabado. O ENIAC usava 18.000 válvulas, ocupava um salão de mais de 130 metros quadrados e pesava trinta toneladas. Foi seguido em 1949 pelo EDVAC (Electronic Discrete Variable Automatic Computer) e em 1951 pelo UNIVAC (Universal Automatic Computer), o primeiro computador comercial, ou seja, que poderia ser comprado (os antecessores eram todos de órgãos do governo ou universidades), e também o primeiro a desmentir a previsão de Mr. Watson, já que foram fabricados e vendidos 46 deles. Mas eram máquinas portentosas em tamanho, complexidade e peso. Embora infinitamente menos poderosos, eram muitíssimos maiores e mais pesados que os notebooks de hoje em dia.

Foi neste contexto que, em 1949, um editorial da revista Popular Mechanics, sempre preocupada em acompanhar os progressos da tecnologia e sem ter a menor idéia de como, realmente, estava certa, previa:

"No futuro os computadores não deverão pesar mais do que 1,5 toneladas."

Esta coisa tem futuro?

Mas o que de fato possibilitou a disseminação dos computadores foi uma invenção, em 1948, de John Bardeen, Walter Brattain e William Shockley, três engenheiros do Bell Labs: o transistor. Um artefato revolucionário capaz de executar as mesmas funções de uma válvula, porém com uma fração do peso, tamanho e consumo de energia. E como não usavam filamentos que se queimavam com o tempo, sua vida útil era infinitamente maior que a das válvulas, o que possibilitou a feitura de computadores efetivamente confiáveis, já que as máquinas anteriores raramente funcionavam mais de algumas horas sem a necessidade de parar para trocar uma das dezenas de milhares de válvulas. O transistor foi uma invenção tão importante que deu o prêmio Nobel a seus autores.

Mas se os transistores consistiram de fato no grande avanço, eles sozinhos não permitiriam o grau de miniaturização dos computadores modernos, já que ainda era preciso implementar circuitos eletrônicos extraordinariamente complexos para interligá-los e fazer com que se integrassem para executar as funções exigidas de um computador. O que efetivamente possibilitou os fantásticos avanços no campo da miniaturização foi uma idéia genial desenvolvida em 1959 ao mesmo tempo por Jack Kilby, da Texas Instruments, e Robert Noyce, da Faichild Semiconductors: a possibilidade de integrar diversos transistores em um único componente, que era então capaz de executar funções extremamente complexas combinando as capacidades conjuntas de seus transistores. Este dispositivo recebeu o nome de "Circuito Integrado", ou "Chip". Os primeiros combinavam dois transistores em um encapsulamento único, mas os modernos atingem a casa dos milhões (em um Pentium Pro, um circuito integrado de última geração, há vinte milhões de transistores). Os circuitos integrados eram usados para executar tarefas complexas que antes exigiam o concurso de diversos circuitos especializados. Sua primeira grande aplicação foram as máquinas de calcular eletrônicas. Mas apenas no final da década de sessenta se pensou em dotá-los de alguma "inteligência", ou seja, da capacidade de obedecer a instruções em seqüência, ou executar um "programa". Circuitos integrados programáveis, capazes de processar informações, receberam o nome de "microprocessadores" e constituem a unidade central de processamento (CPU), o "coração" de qualquer computador moderno.

Foi neste contexto que, em 1969, ao ser apresentado a um microprocessador, um anônimo engenheiro da Divisão de Sistemas de Computadores da IBM proferiu a pergunta que, se considerarmos todas as implicações filosóficas que contém, ainda não foi inteiramente respondida:

"Mas, afinal, para que serve isto?"

Em casa, não...

Não obstante, os microprocessadores foram fabricados e os grandes computadores eletrônicos começaram a dominar as corporações. Embora muito abaixo do limite de tonelada e meia previsto poucos anos antes, ainda eram máquinas enormes que exigiam ambientes refrigerados e toda uma equipe de programadores e operadores para mantê-los em funcionamento. No final dos anos setenta apenas alguns visionários imaginavam a hipótese de se fabricarem computadores pessoais, posto que até então computadores eram usados apenas nas grandes empresas, universidades e agências governamentais.

Foi nesta época e neste contexto que em 1977 Ken Olson, presidente e fundador da DEC, declarava:

"Não existe nenhuma razão para que alguém possa querer um computador em casa."

Memória de sobra

Não obstante, mesmo antes disto já havia denodados esforços para desenvolver um computador pessoal e de uso doméstico. O Altair, criado em 1974 por Ed Roberts, pode ser considerado a primeira tentativa, embora pouco fizesse além de piscar luzes em uma ordem preprogramada. Por isto a maioria das pessoas concorda em considerar o Apple II desenvolvido em 1977 por Steve Wozniac e Steve Jobs como o primeiro computador pessoal a merecer tal nome, seguido logo depois pelo Pet, da Commodore e pelo TRS-80 da Tandy. Máquinas que se disseminaram no início dos anos 80 e chamaram a atenção da IBM - que, deitada sobre o virtual monopólio dos computadores de grande porte, poucos anos antes não havia se incomodado quando uma firma então iniciante chamada DEC começou a comercializar minicomputadores, explorando o mercado das empresas de pequeno porte que não podiam se dar ao luxo de comprar um computador IBM. E que viu estas mesmas pequenas empresas crescerem, tornarem-se grandes corporações e, quando precisavam de máquinas de maior potência, continuarem fieis à DEC, que já então fabricava computadores de grande porte. Como gato escaldado tem medo de água fria, a IBM decidiu evitar que o fenômeno se repetisse e resolveu entrar no mercado dos computadores pessoais. E o fez em grande estilo: criou um grupo de trabalho para desenvolver o IBM PC, o micro que lançou as bases de um padrão que domina o mercado até hoje.

Nesta época a IBM, acusada de práticas monopolistas, sofria uma pesada investigação do governo americano. E para evitar agravar o problema, decidiu terceirizar o desenvolvimento do sistema operacional de seu novo micro, contratando para isto uma firma promissora, presidida por um quase menino: a Microsoft de Bill Gates. Que, entre outras coisas, tinha que decidir o tamanho do espaço de endereçamento lógico de memória a ser usado pelos programas que rodassem nas novas máquinas. Numa época em que os computadores pessoais eram fornecidos com 16 kb de memória RAM e o próprio PC da IBM vinha com 64 kb, expansíveis até 256 kb, a decisão de destinar 640 kb para os programas parecia sensata não somente para então, como também para o futuro remoto.

Foi neste contexto que Bill Gates, em 1981, referindo-se ao espaço destinado a programas no DOS, o sistema operacional que desenvolvia para a IBM, previu:

"640K deverão ser suficientes para qualquer um."

É por estas e outras que volta e meia estou repetindo: não há ofício mais arriscado que o de fazer previsões. Principalmente quando se referem ao futuro...

 

B. Piropo