Desenvolvido por Miss Lily Comunicação
Quem Somos Assine Já Fale Conosco FAQ Meus Dados Fazer Login
Compartilhar no Facebook Compartilhar no Twitter Delicious Blogger WordPress Enviar por e-mail
  Home

 
História do Computador
 

História do Computador

A história do computador desde o início de seu desenvolvimento até os dias de hoje.

O desenvolvimento do computador moderno só ganhou ímpeto pouco antes da Segunda Guerra Mundial. Assim, como acontece com frequência, as pressões do conflito ajudaram a acelerar as mudanças tecnológicas.

Na metade da década de 30, dois grupos de estudiosos, em lados opostos do Atlântico, começaram a trabalhar no projeto que levou ao computador moderno. Um membro chave do primeiro grupo era o matemático inglês Alan Turing, que publicou um trabalho de grande influência em 1936. Neste trabalho teórico Turing descreveu um computador universal, com os tipos de problemas para os quais poderia ser usado e a possibilidade de que as máquinas poderiam ensinar a si mesmas através de um processo de tentativa e erro. A teoria de Turing foi transformada em prática, quando ele ingressou no Serviço de Inteligência Britânico e começou a trabalhar na construção de um computador, que seria usado para decifrar os códigos inimigos durante a Segunda Guerra Mundial. Enquanto isso, nos Estados Unidos, Howard Aiken, da Universidade de Harvard, começara a construir uma enorme calculadora eletromecânica com a ajuda da International Business Machines Corporation.

Estes dois esforços resultaram nos dois primeiros computadores verdadeiros, o Colossus, britânico, e o ASCC - Americam Automatic Sequence Controlled Calculator (também chamado de Mark I). Como o nome do último nos faz lembrar, ambos eram máquinas de calcular, destinadas basicamente a realizar tarefas matemáticas bastante simples, porém, mais rapidamente que qualquer ser humano.

De fato, o tempo para se efetuar os cálculos parecia dolorosamente lento pelos padrões dos computadores modernos, mas logo o problema foi sanado e os padrões acelerados. Por exemplo, o primeiro ASCC levava 0,3 segundos para somar dois números; o modelo Mark II, que surgiu em 1947, levava apenas 200 milissegundos. Em termos práticos, os cálculos que levariam anos poderiam ser feitos em um computador numa questão de horas.

O Colossus e o ASCC representaram um enorme avanço tecnológico, mas eram, de certo modo, máquinas muito primitivas operadas por um relé. Um relé é um dispositivo elétrico de comutação em que um circuito é controlado por um outro circuito separado. Na década de 40, isto envolvia muitos componentes mecânicos. A velocidade poderia ser melhorada consideravelmente usando-se a comutação eletrônica, baseada em válvulas termiônicas que haviam sido fundamentais no desenvolvimento do rádio e da radiodifusão.

O primeiro computador eletrônico apareceu nos EUA em 1946. Foi chamado de ENIAC (Electronic Numeric Integrator And Calculator). Era muito mais rápido que seus antecessores mecânicos, sendo capaz de realizar uma adição de dois números em apenas 0,2 milissegundos. De fato, o principal limite de velocidade de uso do ENIAC era a rapidez com que os dados poderiam ter o seu input e output (entrada e saída). O ENIAC usava cartões perfurados para aceitar e dar saída aos dados; um processo extremamente lento para os padrões modernos. Entretanto, poderia realizar, num único dia, cálculos que uma pessoa levaria um ano inteiro para fazer usando-se o tipo de calculadora mecânica disponível à época. A máquina permaneceu em serviço durante dez anos.

Principais conceitos do computador

Desde os primórdios da computação, percebeu-se que seria necessário algum tipo de meio de armazenamento, em que o computador pudesse manter os dados com os quais estava trabalhando. Também se verificou que um computador necessitava de instruções a fim de poder lidar com os dados. Os locais de armazenagem passaram, então, a ser conhecidos como “memórias” e o conjunto de instruções como programas.

Programar um computador é algo trabalhoso. A máquina precisa ser informada a cada etapa da operação: nada pode ser presumido. Por exemplo, não adianta informar ao computador simplesmente para somar dois números; é também necessário indicar onde aparece o resultado para que o operador possa lê-lo. Os programas de computador são, portanto, uma série detalhada de instruções, que levam muito tempo para serem escritas. As instruções também têm que ser alteradas assim que a operação é modificada.

Foi o matemático John Von Neumann quem primeiro sugeriu que o próprio programa fosse armazenado na memória do computador. Ele também lançou a ideia de um computador que fosse capaz de mudar suas ações de acordo com os resultados de seus cálculos. Para conseguir isso, era necessário muito mais espaço de memória do que existia nos primeiros computadores. Tentaram-se vários tipos de armazenamento e um dos mais bem-sucedidos foi um tambor magnético contendo um cilindro de níquel prateado, ajustado com cabeçotes de gravação. Estes cabeçotes conseguiam magnetizar uma faixa em volta do cilindro de níquel em um padrão correspondente aos números a serem armazenados. O armazenamento magnético desse tipo tinha uma vantagem em relação aos sistemas anteriores: não seria apagado quando a energia elétrica fosse desligada. Em outras palavras, foi introduzido o conceito de memória não volátil, ainda existente nos computadores de hoje.

Uma das outras percepções de Von Neumann foi a importância do sistema numeral binário para computadores. Normalmente contamos pelo sistema denário (base de dez), acrescentando um novo dígito ao número quando atingimos 10, mais um quando atingimos 100 e assim por diante. Von Neumann percebeu que o sistema numeral que utilizava a base dois era mais apropriado para os computadores. No sistema binário há apenas dois símbolos (zero e um), assim o 2 é escrito como 10, o 3 como 11, o 4 como 100, 5 como101, e assim por diante. Isto é ideal para os computadores, já que os dois símbolos podem ser facilmente representados pela presença ou ausência de uma corrente elétrica. Von Neumann não foi o primeiro a perceber a importância do sistema binário para computadores - até mesmo o ENIAC usava tal sistema.

História do computador: Quatro gerações de computadores

O código binário fixou-se rapidamente como o sistema numeral pelo qual os computadores eletrônicos operam. Como resultado, os computadores necessitavam de numerosos elementos internos de comutação que os possibilitassem ligar ou desligar a corrente elétrica.

As válvulas eram um dos componentes eletrônicos mais comuns daquela época. Funcionavam muito bem, mas, a um alto custo. A vida útil de uma válvula estava limitada a algumas centenas de horas. As válvulas também usavam muita eletricidade e geravam calor excessivo. Isto significava que eram antieconômicas – embora, se o sistema de ar-condicionado fosse construído em volta do computador, o equipamento poderia ser usado para aquecer o prédio em que estava instalado. Além disso, as válvulas eram grandes, desengonçadas e exigiam salas com desenhos peculiares, típicos da primeira fase, dos assim chamados computadores de “primeira geração”.

A saída já estava à mão, na forma do transistor, um componente bem menor, pertencente ao que chamamos em Física de "estado sólido". Os componentes do estado sólido funcionam de acordo com o movimento de cargas dentro de um sólido cristalino. Foram desenvolvidos em 1948 por William Shockley, juntamente com outros cientistas da Bell Telephone Company e começaram a ser usados nos computadores no final da década de 50, em substituição às válvulas; estes computadores são conhecidos como máquinas de segunda geração. Eram mais econômicos, menores e mais confiáveis que os anteriores.

A próxima etapa, ou a terceira geração, foi representada por computadores ainda mais compactos. Começaram a aparecer em 1964, quando os fabricantes encontraram uma maneira de comprimir uma série de componentes para uma função específica em uma única peça (ou 'chip') de silicone. A fabricação dos chips era feita sob condições controladas e inúmeros chips podiam ser facilmente conectados para formar a base de um computador.

Isto fez o com que o processo de fabricação ficasse mais confiável e as máquinas acabadas ainda mais compactas e velozes, já que os impulsos elétricos atravessavam distâncias menores.

Em meados de 1970, a "quarta geração" de computadores começou a surgir no mercado. Estas máquinas passaram a ser construídas com a utilização de tecnologia de "integração em larga escala". Esta tecnologia envolvia a inclusão de mais componentes ainda no chip do silicone, para que o processador central inteiro de um computador virtualmente pudesse ser contido em uma única peça de silicone. Como este é um circuito compacto, chegamos à época do micro computador, com máquinas que se assentam perfeitamente sobre uma escrivaninha, no colo de um usuário, ou até mesmo, como vem acontecendo mais recentemente, dentro do bolso.

Durante os anos de 1970 e 1980, o computador tornou-se uma ferramenta cada vez mais influente e familiar, possibilitando às pequenas empresas, escolas e pessoas físicas adquiri-lo. Tarefas diárias de um escritório como o ato de escrever cartas e relatórios, manter a contabilidade ou manusear "bancos" de informações (desde simples listas de nomes e endereços até cadastros complicados) tornou-se o reino soberano do microcomputador. O computador também encontrou novos papéis na medicina e na educação, até mesmo em áreas como a das artes e do design.

Mudanças jamais pensadas na maneira como as pessoas trabalham e na forma como os negócios são dirigidos ocorreram como resultado do uso dos computadores. Não foi apenas o fato de que na atualidade as tarefas se tornaram muito mais fáceis e exigem menos mão de obra. Algumas foram totalmente eliminadas. Vejamos, por exemplo, o controle de estoques. Relatórios exatos de estoque e da frequência de compras podem ser armazenados automaticamente, apenas mantendo-se um computador no ponto de venda, onde cada compra pode ser registrada. Quando os estoques ficam baixos, o computador pode imprimir um pedido para o item necessário - ou mesmo contatar o fornecedor diretamente através de uma linha telefônica.

Como foi sugerido no exemplo acima, os microchips são usados em muitos lugares onde não há um computador real no sentido exato da palavra. Os sistemas de controle de uma vasta gama de equipamentos, desde complexos robôs industriais até eletrodomésticos usados dentro de casa como lava-louças ou telefones, contém microchips. O conceito de "programação" de um eletrodoméstico, como uma máquina de lavar ou o sistema de aquecimento central de uma casa, mostra até onde estes microchips podem chegar. Os relógios de pulso tão baratos e precisos de hoje em dia também lançam mão da tecnologia dos microchips.

Enquanto isso, os computadores continuam sendo usados para as tarefas de larga escala para as quais foram originalmente concebidos. Na segunda metade do século 20 foram realizados alguns descobrimentos, como por exemplo no aproveitamento da energia nuclear e na exploração do espaço sideral, que envolviam cálculos de larga escala. Estes descobrimentos teriam sido impossíveis sem os computadores. Na verdade, uma grande variedade de instrumentos usados em áreas como o desenho industrial ou de diagnóstico médico, baseia-se em computadores para o seu funcionamento.

Os sistemas de orientação e monitoramento sofisticados, exigidos numa nave espacial, por exemplo, influenciaram a tecnologia dos instrumentos de bordo de uma aeronave. Muitas das decisões de minuto a minuto envolvendo o voo de um avião de grande porte podem ser tomadas agora por um computador.

História do Computador: conversando com os computadores

O núcleo (a unidade de processamento central) do computador se torna cada vez menor e mais confiável. Houve um desenvolvimento paralelo, que fez com que as informações fossem inseridas ou retiradas de um computador de uma forma cada vez mais fácil. De início, a entrada de dados no computador era uma operação tediosa realizada em duas etapas. As informações tinham que ser editadas em cartões ou em fitas de papel onde apareciam na forma de um desenho com furos. Os cartões ou a fita eram, então, carregados em uma unidade de leitura para que o computador pudesse acessar as informações.

A adoção de teclados ligados diretamente ao computador fez com que a entrada de dados ficasse muito mais simples. O teclado era e ainda é usado em conjunto com uma tela. Desta forma os dados digitados podem ser verificados instantaneamente pelo usuário, que, desta forma, pode evitar erros.

Todas estas inovações fizeram com que o computador ficasse mais fácil de ser utilizado pelas pessoas, de um modo geral, tanto para inserir como para retirar informações. Mais dispositivos, tais como ponteiros que imitam a ação de uma caneta convencional, ou telas sensíveis ao toque, prometem fazer estas máquinas ainda mais descomplicadas.

No entanto, os maiores avanços encontram-se nas áreas invisíveis do computador: são os programas que fazem a máquina funcionar. Os programas são elaborados para que as funções de inserir e retirar informações sejam tarefas tão fáceis que as pessoas nem precisem aprender como fazer isso. Em vez de digitar códigos complexos, o usuário pode apontar para uma figura na tela, que representa um conjunto particular de instruções ou mesmo dar ao computador instruções verbais diretas falando com a máquina através de um microfone. A própria máquina traduz estes comandos nos códigos necessários a fim de executar as instruções. Tais desenvolvimentos fizeram com que os computadores se tornassem extremamente fáceis de usar e consagraram sua influência na nossa vida - uma influência talvez maior que qualquer outra invenção da era moderna.

 


Ver Próximo Artigo: A História do Alfabeto
 
Apostilas


 

Minhas provas passadas
Recurso do gerador de provas
Professor: armazene on-line as provas que você criou no 10emtudo