O Avanço dos Sistemas Operacionais

Na década de 1960, os computadores e sistemas operacionais foram ficando cada vez mais robustos e complexos, exigindo uma gerência cada vez mais sofisticada e proporcionando uma interface e forma de utilização mais facilitada, para que os mesmos pudessem ser utilizados não apenas por especialistas. Nesta década surgiu a linguagem de programação COBOL (Commom Business Oriented Language), para auxiliar o desenvolvimento de sistemas comerciais. Em 1961 iniciou a comercialização dos primeiros circuitos integrados.


Na década de 1960, buscando uma utilização mais eficiente e segura dos computadores, os sistemas operacionais foram se tornando cada vez mais complexos, gerenciando os recursos do computador de forma cada vez mais sofisticada. Ao mesmo tempo em que os sistemas operacionais deixavam o uso mais eficiente e seguro do computador, buscavam-se alternativas para que pessoas menos especializadas pudessem utilizar o computador, concentrando-se em suas verdadeiras tarefas e ampliando as possibilidades de uso dos mesmos (JANDL, 2004). A tecnologia continuava avançando cada vez mais e foi desenvolvido o Teleimpressor, que exibia as imagens em uma tela de televisão, evitando assim uma quantidade enorme de impressões. Em 1963 a DEC introduziu o uso de terminais de vídeo (JANDL, 2004). O monitor só exibia as imagens dos códigos, com números e letras. Na verdade, um monitor de computador é formado por uma infinidade de pequenas “luzes” que se acendem e apagam, formando as imagens. Assim, um hardware foi desenvolvido para converter os resultados dos cálculos do computador em imagens que representavam os números e letras necessárias para entender a saída dos programas. Conceitualmente, o computador continua igual, mostrando o resultado por meio de luzes que acendem e apagam, porém tão pequenas que conseguem formar outras imagens. Para se ter uma idéia de como são formadas as imagens em uma tela, um notebook convencional tem uma tela de LED com 1366 pixels de largura por 768 pixels de altura, o que dá exatamente 1.049.088 pixels; como cada pixel é formado por uma combinação de 3 cores básicas (Red Green Blue - RGB): vermelho, verde e azul, a tela de um notebook tem 3.147.264 luzes que se acendem e apagam para formar as imagens que vemos em nossos monitores.

Termo do glossário
Pixel: ponto luminoso do monitor de vídeo que, juntamente com outros pontos, forma as imagens na tela.

No sistema RGB as cores são obtidas por meio da mistura das 3 cores primárias (vermelho, verde e azul), cada uma em uma escala que varia de 0 a 255.

Um dos importantes avanços ocorridos na década de 60 foi a possibilidade de execução simultânea de vários programas, chamada de multiprogramação, que permitia a execução de várias tarefas simultaneamente. Quando um programa está em execução, o mesmo está carregado na memória principal do computador (memória RAM) e cada instrução do programa faz com que seja executada uma operação do processador ou uma movimentação de dados de ou para um dispositivo de entrada e saída. Desta forma, um programa está usando, em um determinado momento, ou o processador ou um dispositivo de saída. Com a multiprogramação, enquanto um recurso está em uso por um programa, outro programa pode utilizar, no mesmo instante o outro recurso.

Termo do glossário 
Multiprogramação: é quando vários programas ou jobs estão na memória principal simultaneamente com o processador sendo alternado de um job para outro job, executando-os enquanto os dispositivos periféricos são mantidos em uso quase constante (DEITEL, 2005).

A multiprogramação permitiu o uso mais eficiente dos computadores, por meio da divisão da memória para cada tarefa, permitindo que mais de uma tarefa seja carregada para a memória e executada. Em meados da década de 60, os primeiros sistemas operacionais foram desenvolvidos seguindo a evolução da tecnologia da época, porém cada tipo de computador possuía um SO específico, o que implicava na incompatibilidade entre diferentes computadores. Um dos SOs mais importantes da época foi o CTSS, criado pelo MIT, sendo lançado em 1961 para o computador IBM 7090 (JANDL, 2004). 

Com a evolução do desenvolvimento do software, surgiram os sistemas que permitiam o uso simultâneo do computador por diversos usuários, onde o processador é compartilhado. A ideia central destes sistemas era dividir o poder computacional de um computador entre seus vários usuários, dando a impressão de que o computador estava integralmente disponível para cada usuário, mesmo que isto não fosse verdade. Nestes sistemas, denominados de sistemas de tempo compartilhado (time-sharing systems), o tempo do processador era dividido em pequenos intervalos denominados fatia de tempo (time-slice). Tais fatias de tempo eram distribuídas de forma sequencial entre os processos em execução, de modo que a espera entre os intervalos fosse imperceptível para os usuários. Cada processo utiliza tantas fatias de tempo quanto necessário, mas apenas uma a cada ciclo, retornando para ele novamente no ciclo seguinte. Com isto, a capacidade de processamento do computador era dividida proporcionalmente entre os processos (JANDL, 2004).

Termo do glossário:
Sistemas de Tempo Compartilhado: são sistemas que permitem que vários programas estejam executando simultaneamente num único computador alternando o uso de CPU e dos dispositivos de entrada e saída para cada um dos programas de forma imperceptível ao usuário.

Para implementar a técnica de tempo compartilhado foi desenvolvido o mecanismo de interrupção, que permite parar a execução de um programa para tratar de uma outra rotina, retornando à execução prévia, assim que o tratamento da interrupção for concluído. Para a multiprogramação também foram criados os mecanismos de identificação de usuário e proteção com senha (user id e password) e das rotinas de início (login ou logon) e término (logout) de sessão de trabalho (JANDL, 2004).

Na década de 1970 houve um aumento na complexidade e sofisticação dos sistemas computacionais, com a utilização de circuitos integrados no desenvolvimento de computadores comerciais e a criação de famílias de computadores compatíveis, iniciadas com o lançamento do IBM System/360, que inaugurou uma nova era na computação e a expansão de sua utilização. Neste período surgiram os mainframes (computador principal) e se popularizaram os centros de processamento de dados (CPDs) (JANDL, 2004). A Figura 7 apresenta um mainframe IBM 360 da década de 70.


Visando contornar o problema da incompatibilidade de SOs de máquinas distintas, um grupo da AT&T criou o Unix em 1969, sendo o primeiro SO moderno da computação. Vários outros SOs foram influenciados de alguma maneira pelo Unix. Sua primeira versão foi escrita em linguagem Assembly, sendo posteriormente reescrito na linguagem de programação C no ano de 1973, cuja linguagem ainda é utilizada até os dias de hoje. Este sistema popularizou conceitos importantes para a computação, principalmente os de portabilidade, multiusuário, multitarefas e compartilhamento de recursos.

Saiba mais: 
Assembly é uma linguagem de programação de baixo nível cujo código-fonte é formado por mnemônicos que representam as instruções de linguagem de máquina. 

Durante a década de 70, o Unix foi distribuído gratuitamente, inclusive seu código-fonte, para universidades e órgãos governamentais norte-americanos, o que conferiu muita popularidade a este sistema. Sua interface era totalmente em modo texto, sem interface gráfica. Em 1977 foi lançado o BSD, SO fortemente baseado no Unix, focado principalmente para a execução em computadores específicos de alto desempenho, como o VAX, que foi uma referência de hardware na época.

Tanto o Unix quanto o BSD, em suas primeiras versões, foram desenvolvidos para o uso em computadores de grande porte, normalmente em universidades. Porém, alguns jovens programadores tiveram uma ideia considerada absurda para a época: criar computadores e SOs para que pessoas comuns pudessem usar os computadores. Um dos primeiros a pensar desta forma foi Steve Jobs, fundador da Apple, sempre com o principal foco de criar computadores para serem usados no dia-a-dia, com SOs fáceis de serem utilizados.

Em 1971 surgiu o primeiro microprocessador comercial integrado em um único chip, o Intel 4004. Neste período começaram a surgir pequenos computadores destinados ao uso pessoal ou doméstico, começando pelos microcomputadores da Xerox em Palo Alto, em 1973, o Altair 8800 destinado ao consumo em massa em 1974, o IBM 5100 em 1975 e o sucesso de vendas do Apple 2 lançado em 1977. Começaram também a ser desenvolvidas as primeiras aplicações comerciais dos microcomputadores.

Termo do glossário
Chip: é uma pequena lâmina miniaturizada (geralmente de silício), usada na construção de semicondutores, capaz de realizar funções complexas. 


Comentários

Postagens mais visitadas deste blog

Transferência de arquivo por FTP

TIPOS DE PROCESSOS

Tipos de Servidores