A História dos Sistemas Operacionais

Um nível acima

A História dos Sistemas Operacionais

Postado por Juliano Araújo Farias em 07 de month_jul de 2012 às 01:35

Material retirado do site cpturbo.org grupo News S/A

1ª Fase (1945-1955)

Em torno de 1940, no início da Segunda Guerra, surgiram os primeiros computadores digitais, formados por milhares de válvulas, ocupando enormes áreas de funcionamento lento e duvidoso.
Howard Aiken, em Havard, John von Neumann, no instituto de Estudos Avançados de Pricenton, J. Presper Eckert e William Mauchley, na universidade da Pennsylvania, e Konrad Zuse, na Alemanha, tiveram sucesso na construção desses computadores primitivos, baseados em válvulas
O ENIAC (Eletronic Numerical Integrator and Computer) foi o primeiro computador digital de propósito geral. Criado para a realização de cálculos balísticos, sua estrutura possuía 18 mil válvulas, 10 mil capacitores, 70 mil resistores e pesava 30 toneladas. Quando em operação, consumia cerca de 140 quilowatts e era capaz de realizar 5 mil adições por segundo.

Imagem
ENIAC


Nesta época, um único grupo de pessoas era responsável pelo projeto, construção, programação, operação e manutenção de cada máquina. Toda programação era feita em código absoluto, muitas vezes através de fiação de painéis para controlar as funções básicas da máquina. O conceito de linguagem de programação ainda não existia. Os sistemas operacionais também não. O acesso ao computador por parte do usuário era feito por reserva antecipada de tempo de máquina. Ao chegar sua vez de usar o computador, o usuário fazia sua própria programação nos painéis da máquina e torcia para que nenhuma das suas 20000 válvulas queimassem enquanto ele estivesse trabalhando. Nessa época os programas processados pelos computadores eram constituídos essencialmente por cálculos numéricos repetitivos, como por exemplo a geração de tabelas de funções trigonométricas.
Outros computadores foram construídos nessa mesma época, como o EDVAC (Eletronic Discrete Variable Computer) e o IAS (Princeton Institute for Advanced Studies), porém suas utilizações ficavam restritas, praticamente, às universidades e aos órgãos militares.
Com o desenvolvimento da indústria de computadores, muitas empresas foram fundadas ou investiam no setor, como a Sperry e a IBM, o que levou à criação dos primeiro computadores para aplicações comerciais. A primeira máquina fabricada com esse propósito e bem sucedida foi o UNIVACI (Universal Automatic Computer), criado para ser usado no censo americano de 1950.
No início dos anos 50 houve uma sensível melhora no uso de tais máquinas com o advento do cartão perfurado que tornou possível a codificação de programas em cartões e sua leitura pela máquina, dispensando a programação através dos painéis. Os demais procedimentos não tiveram qualquer modificação.

2ª Fase (1955-1965)

O desenvolvimento do transistor e das memórias magnéticas em meados dos anos 50 veio a alterar substancialmente o quadro descrito acima. O transistor permitiu o aumento da velocidade e da confiabilidade do processamento, e as memórias magnéticas permitiram o acesso mais rápido aos dados, maior capacidade de armazenamento e computadores menores. Com o emprego desta nova tecnologia, os computadores tornaram-se confiáveis a ponto de ser comercializados.
Nesta época, passou a haver uma distinção muito clara entre as pessoas envolvidas no projeto, na construção, na operação, na programação e na manutenção destas máquinas. Elas eram instaladas em salas isoladas e operadas por pessoal especializado. Somente as grandes empresas e órgãos governamentais ou universidades podiam pagar os muitos milhões de dólares necessários à aquisição destas máquinas.
Para rodar um JOB (um programa ou conjunto de programas) o programador escrevia primeiro seu programa em uma folha de papel (em FORTRAN ou em linguagem de montagem), para depois perfurá-lo em cartões. Depois disso, ele entregava a massa de cartões a um dos operadores da máquina para que a mesma fosse processada.
Ao final do processamento do programa corrente, um dos operadores ia até a impressora e retirava o relatório emitido, entregando-o na expedição, onde ele seria mais tarde retirado pelo programador do job. Então ele, o operador, escolhia uma nova massa de cartões, entre as que haviam sido entregues na recepção, e providenciava os recursos necessários ao processamento deste novo job. Por exemplo, se tal job precisasse do compilador FORTRAN, o operador deveria providenciar a leitura da massa de cartões correspondente ao compilador FORTRAN. Grande parte do tempo da máquina era gasto com operadores circulando dentro da sala onde ela estava instalada, providenciando recursos necessários ao processamento de determinadas tarefa.
Em vista do alto custo de tais equipamentos, não foi surpresa o fato de se encontrar uma solução que reduzisse o tempo de máquina desperdiçado. A solução encontrada, denominada de sistema batch (lote).
A comunicação do homem com o computador é feita através de periféricos cuja velocidade de operação é muito lenta comparada com a do processador, como por exemplo, cartões perfurados e impressoras. No caso comum em que o cartão perfurado é o principal meio de entrada e impressão em papel o principal meio de saída, é comum ocorrer que a maior parte do tempo o processador central fique inativo à espera de dados de entrada ou pelo término de impressão, devido a natureza sequencial do processamento.
Uma solução para esse problema, adotada por volta de 1957 no IBM 7094, foi usar o computador especial para converter dados em cartão para fita magnética e para imprimir numa impressora resultados gravados em outra fita magnética. As fitas magnéticas eram usadas como "reservatórios", um para entrada e outro para saída. Elas eram transportadas manualmente do sistema auxiliar para o sistema principal e deste para o sistema auxiliar.
A fita de entrada poderia ser preenchida quando programas longos estivessem em execução no sistema principal e a fita de saída descarregada continuamente. Desta forma o sistema principal teria sua utilização maximizada pois só faria E/S, através das fitas magnéticas mais rápidas. Esta técnica de armazenamento de dados para entrada e de resultados para a saída é denominada "rolamento" (em inglês: Spooling) e o exemplo acima é uma forma primitiva de sua implementação. Seu objetivo é maximizar o número de tarefas processadas por unidade de tempo (throughtput) no equipamento principal às custas de um tempo de resposta maior, devido à necessidade de agrupar fisicamente as tarefas na entrada e na saída e ao transporte manual das fitas. Além disso, se um programa muito longo fosse incluído no lote, a natureza estritamente sequencial do processamento faria com que o tempo de resposta de todos os programas no lote fosse aumentado.
Nessa fase, os sistemas operacionais passaram a ter seu próprio conjunto de rotinas para operações de entrada e saída (Input/Output control System – IOCS), que veio facilitar enormemente o processo de programação. O IOCS eliminou a necessidade de os programadores desenvolverem suas próprias rotinas de leitura/gravação específicas para cada dispositivo periférico. Esta facilidade de comunicação criou o conceito de interdependência de dispositivos.
Importante avanço, a nível de hardware, foram implementados no final dessa fase, principalmente, na linha 7094 da IBM. Dentre eles, destacamos o conceito de canal, que veio permitir a transferência de dados entre dispositivos de entrada e saída e memória principal de forma independente da UCP(Unidade central de processamento).
Os computadores da Segunda Fase eram usados maciçamente na realização de cálculos científicos e de engenharia, tal como a obtenção de equações diferenciais parciais.

3ª Fase (1965 – 1980): Cis e Multiprogramação

No início dos anos 60, a maioria dos fabricantes de computador tinha duas linhas de produtos distintas e totalmente incompatíveis . De um lado estavam imensas e poderosas máquinas orientadas a palavra, adequadas ao processamento científico pesado, como o IBM 7094. Do outro lado, estavam as máquinas comerciais, orientadas a caractere, como o IBM 1401, utilizado pelos bancos e companhias seguradoras para pesquisar arquivos em fita e para impressão de extensos relatórios.
O desenvolvimento e a manutenção de duas linhas de produtos completamente independentes representavam uma dificuldade considerável ao fabricante. Além disso, muitos de seus clientes precisavam no início de máquinas simples, mas com o passar do tempo surgia a necessidade por mais agilidade para rodar programas antigos desenvolvidos por estas máquinas mais simples e maior capacidade de armazenamento de armazenamento de informações, e como podemos ver, esta uma tendência que continua até hoje.
A IBM resolveu esses dois problemas com a introdução do Sistema/360. Tal sistema era comporto de uma série de máquinas, todas elas compatíveis a nível de software, abrangendo uma faixa que começava no 1401, e chegava até aquelas muito mais poderosas que o 7094. Estes computadores, só diferiam no preço e na performance (capacidade máxima de memória, velocidade de processador, número máximo de dispositivos de entrada/saída etc.). Uma vez que todas estas máquinas tinham a mesma arquitetura e o mesmo conjunto de instruções básicas, os programas deveriam ser compatíveis a todas elas. Além do que, a série 360 foi projetada para o processamento científico e comercial, tentando assim, construir máquinas distintas para cada caso. Nos anos posteriores a IBM lançou máquinas mais modernas compatíveis com a linha 360, como as série 370, 43000, 3080 e 3090.
O 360 foi a primeira família de máquinas a usar circuitos integrados (SSI) em sua fabricação, conseguindo um resultado preço/performance muito melhor do que a das máquinas da Segunda geração, construídas com transistores individuais. A série foi um sucesso, e a idéia da família de máquinas compatíveis foi logo adotada por todos os demais fabricantes.
A idéia de família única de máquinas criou um sério problema. A intenção era que qualquer software, incluindo o sistema operacional, rodasse em todos os modelos de família, desde as máquinas pequenas, que faziam o trabalho simples, até as maiores, que realizavam os cálculos matemáticos mais difíceis. Ele deveria servir tanto para sistemas com poucos periféricos, como para sistemas com uma enorme variedade de dispositivos de entrada e saída. Servir tanto para o processamento comercial como para o científico. E além disso tudo, ser eficiente onde for utilizado.
O resultado de toda essa "compatibilidade" foi um sistema complexo e enorme, cerca de três vezes maior que o FMS em números linhas escritas em linguagem de máquina, com um número extenso de erros , e a cada solução de problema, apareciam novos. E devemos citar que milhares de pessoas fizeram parte desse projeto.
Apesar do tamanho e dos problemas apresentados, o OS/360 e o sistemas operacionais similares da terceira geração produzidos por outros fabricantes atenderam de certa forma, bem aos seus usuários. Tais sistemas vieram a introduzir novas técnicas que não tinham sido implementadas nos sistemas anteriores. A mais importante dessas técnicas é a multiprogramação.
No 7094, quando a tarefa (job) corrente parava para aguardar a conclusão de operações de entrada e saída, o processador também permanecia inativo até a conclusão da operação. No caso das aplicações científicas, as operações de entrada e saída não são muito frequentes, de tal maneira que o tempo perdido aguardando sua conclusão não chega a ser significativa, mas no caso das processamento comercial, essa perda de tempo pode chegar a 80 a 90 porcento do tempo. Assim, foi concluído que algo precisava ser feito para solucionar esse desperdício.
Apesar dos sistemas operacionais de terceira geração serem adequados para processamento científico pesado e para aplicações comerciais, eles eram ainda sistemas batch. A grande automatização introduzida pelo sistemas de terceira geração fez com que muitos programadores sentissem saudades da época da primeira geração de sistemas, quando eles tinham toda a máquina à disposição por horas e horas, sendo-lhes possível concertar rapidamente seus programas. Com os sistemas de terceira geração, o tempo entre a submissão da tarefa e a disponibilização de sua saída passou a ser medido em horas, fazendo com que o simples esquecimento de uma vírgula, por exemplo, fizesse que o programador perdesse muitas horas a esperar.
A vontade de obter bons tempos de resposta fez com que se abrisse um caminho para o desenvolvimento dos sistemas com compartilhamento de tempo (Time Sharing) .
Nos primeiro sistemas do "tipo lote" os tempos de respostas eram de várias horas ou mesmo dias e isso influía de forma negativa na produtividade e moral do programador; criatividade e experimentação eram desincentivados pela alta penalidade imposta a cada erro: o programador teria que esperar um ciclo completo para muitas vezes verificar que uma vírgula foi esquecida ou um nome escrito incorretamente. Nos sistemas de tempo repartido a filosofia é oposta: o usuário trabalha num terminal do E/S do tipo vídeo ou teletipo e pode interagir com o sistema em cada fase de execução de sua tarefa. Cada comando do usuário é interpretado e executado em seguida; em casa de erro ele é notificado imediatamente no seu terminal. O usuário obtém resposta a nível de comando e pode alterar o seu curso de ação dependendo dos resultados obtidos. Ele normalmente prepara os seus programas no próprio terminal através de um editor de texto, compila-os, executa-os e após verificar a correção dos resultados comanda a impressão dos mesmo e dos programas que desejar. Em caso de erro ele fará correções com o editor de texto e repete o procedimento.
Para ser eficaz, um sistema de tempo repartido deve dar resposta dentro de alguns segundos para a maioria dos comandos. A cada terminal ligado corresponde uma tarefa ativa do sistema. Devido ao relativamente longo intervalo de tempo entre comandos (think time) o sistema pode deixar a maioria das tarefas no disco; ao receber um comando ele o interpreta e carrega a tarefa correspondente, caso esta não esteja na memória. Desta forma o sistema está continuamente carregando e retirando tarefas dos usuários da memória principal a fim de poder servir um número grande usuários e dar um tempo rápido de resposta quando o usuário interage.. Os recursos principais do sistema, processador central, memória, canais de E/S, etc.. são continuamente realocados entre os diversos usuários interativos, dando a cada usuário a ilusão de que tem o sistema operacional, principalmente para a administração dinâmica de memória principal e secundária.
Num sistema do "tipo lote" procura-se maximizar o número de tarefas processadas por unidade de tempo e minimizar o tempo médio de espera para execução de tarefas. Num sistema de tempo repartido procura-se dar um tempo de resposta por comando dentro de limites aceitáveis (digamos entre 0,5 e 30 segundos).
Sistemas de tempo repartido são complexos e a razão das tarefas processadas é muito menor do que em sistemas do "tipo lote" de mesmo porte. Por outro lado , a produtividade das tarefas é muito maior e uma comparação só é possível levantando em consideração outros fatores, como o tempo humano de desenvolver e depurar um projeto, em função da sua complexidade. Por exemplo, trabalhos simples e de pequena duração, como exercícios de cursos de programação, podem ter ótimo desempenho em sistemas do "tipo lote" com tempos de respostas baixos e consistentes.
Projetos complexos e de longa duração são geralmente executados mais rapidamente em sistemas de tempo repartido e por programadores profissionais.
Tarefas muitos longas em geral degradam qualquer sistema, mas são executadas com maior eficiência e menos desperdício de recursos em sistemas do "tipo lote".
No final dessa fase, com a evolução dos microprocessadores, surgiram os primeiros microcomputadores, muito mais baratos que qualquer um dos computadores até então comercializados. Dentre eles, destacamos os micros de 8 bits da Apple e o Sistema Operacional CP/M (Control Program Monitor)

4ª Fase (1981-Hoje) Computadores Pessoais

Com o desenvolvimento da integração de circuitos em grande escala (LSI), apareceram chips com milhares de transistores encapsulados em um centímetro quadrado de silício, nascendo daí a idéia de computador pessoal. Em termos de arquitetura, os computadores pessoais nõ eram diferentes dos minicomputadores da classe PDP-11. A grande diferença estava no preço. Da mesma forma que os minicomputadores tornaram possível que um departamento de uma empresa ou de uma universidade adquirisse seu próprio computador, o chip microprocessador tornou possível isto para pessoas físicas. Os mais poderosos computadores pessoais são denominados estação de trabalho. Tais máquinas são usadas nas mais diferentes atividades e usualmente estão conectadas a um rede que permite troca de informações entre todas as máquinas ligadas a ela. O caso mais em vista dessa situação é a internet, onde a maioria dos computadores pessoais hoje estão conectados.
Com a evolução dos computadores, houve a evolução do software, permitindo que empresas fosses fundadas com esse objetivo. A maioria desses softwares procura ser o mais amigável possível ao usuário, "escondendo" deles todas a lógica envolvida para o funcionamento do computador. E isso foi aplicado de forma intensa na criação dos sistemas operacionais.
Nesta fase destaca-se sistemas como o DOS criado pelo dono da Microsoft (Bill Gates), UNIX, aquele mesmo que foi criado em 1969, até hoje é muito bem empregado, o Windows 95, criado a partir de um ambiente gráfico desenvolvido para o DOS.
Na área dos minis e super minicomputadores ganharam impulso os sistemas multiusuário, com destaque para os sistemas compatíveis com o UNIX e o VMS da DEC. Atualmente sistemas como o NETWARE, Windows NT dominam o mercado de Sistemas Operacionais desenvolvidos para sistemas multiusuários.
As redes de computadores se difundiram por todo o mundo, permitindo acesso a outros sistemas de computação, independentemente de estado, país e, até mesmo, fabricante. Os softwares de redes passaram a estar intimamente ligados ao sistema operacional.
No final dos anos 80, os computadores tiveram um grande avanço, decorrente de aplicações que exigiam um enorme volume de cálculos. Para acelerar o processamento, foram adicionadas outros processadores, exigindo dos sistemas operacionais novos mecanismos de controle e sincronismo. Com o multiprocessamento, foi possível a execução de mais de um programa simultaneamente, ou até a execução de um mesmo programa por mais de um processador.
Além do surgimento de equipamentos com múltiplos processadores, foram introduzidos processadores vetoriais e técnicas de paralelismo em diferentes níveis, fazendo com que os computadores se tornassem ainda mais poderosos.
Foi ainda em meados dos anos 80 que foram desenvolvidos os sistemas operacionais distribuídos. Tais sistemas trabalham com vários processadores, dando idéia aos usuários que existe apenas um. E o usuário não sabe onde seus arquivos estão sendo processados ou até mesmo armazenados, pois o sistema operacional é capaz de fazer isso por ele mesmo, e eficientemente.
Os sistemas distribuídos, por permitirem o uso de vários processadores, fazem com que haja a necessidade de haver algoritmos de escalonamento de processador melhores elaborados, dispostos a otimizar o grau de paralelismo obtido no sistema.
Com o crescimento atual da internet, os sistemas operacionais estão se voltando para eles, como é o caso do Windows 98. E os protocolo TCP/IP sendo "glorificado" por aqueles que são voltados a rede, como o NetWare e o Windows NT.


Sistemas específicos

Em meados da década de 60, os primeiros sistemas operacionais foram desenvolvidos conforme a evolução da tecnologia da época. Contudo, cada máquina possuía seu próprio SO específico, o que implicava na incompatibilidade de mainframes distintos. Um dos maiores representantes foi o CTSS, criado pela MIT, sendo lançado em 1961 para o computador IBM 7090.

Unix, o primeiro sistema operacional moderno
Visando ao problema da incompatibilidade de SOs de máquinas distintas, um grupo de desenvolvedores da AT&T ciaram o Unix em 1969, sendo o primeiro sistema operacional moderno da computação. É possível afirmar que mais de 90 porcento dos SOs atuais foram influenciados de alguma maneira pelo Unix.

Sua primeira versão foi escrita em linguagem assembly, sendo posteriormente reescrito em C no ano de 1973, linguagem utilizada até os dias de hoje. Este sistema introduziu conceitos muito importantes para a computação: portabilidade, multi-usuário, multi-tarefas e compartilhamento de tarefas.

Durante a década de 70, o Unix foi distribuído gratuitamente (incluindo seu código fonte) para universidades e órgãos governamentais norte-americanos, o que conferiu muita popularidade a este sistema. Sua interface era totalmente em modo texto sem interface gráfica

Em 1977 foi lançado o BSD, sistema operacional fortemente baseado no Unix, focado principalmente para a execução em máquinas específicas de alto desempenho, como o famoso computador VAX, o qual foi uma referência de hardware na época.

 

 

Imagem
Sistema Operacional BSD

 

 

 

Sistemas Operacionais para computadores pessoais

Tanto o Unix quanto o BSD, em suas primeiras versões, foram desenvolvidos para o uso de computadores de grande porte, normalmente em universidades. Contudo, alguns jovens programadores possuíam uma ideia absurda para época: criar sistemas operacionais para o uso de pessoas comuns.


Steve Jobs e a Apple
Um dos primeiros a pensar desta forma foi Steve Jobs, fundador da Apple. Desde a criação de sua empresa, seu principal foco foi a criação de computadores para o dia-a-dia, incluindo sistemas operacionais fáceis de serem operados. O lançamento do Apple I em 1976, um dos primeiros computadores pessoais, foi um marco na história da computação.

Pela primeira vez, um PC continha um teclado fácil de ser utilizado, com uma mini-televisão adaptada como monitor. Assim, conhecimentos avançados de computação já não eram mais requisitos para se operar um PC. Jobs fez questão de criar o seu sistema operacional do zero, sem se basear inicialmente no Unix. Nos anos seguintes, os modelos Apple II e Apple III foram lançados no mercado, um sucesso de vendas. Suas interfaces gráficas eram muito primitivas comparadas com o padrão usado atualmente, mas avançadíssimas para a época.

Em meados de 1979, Steve Jobs tomou conhecimento sobre o desenvolvimento de um computador totalmente inovador pela Xerox Parc. Em uma vista a esta empresa, ele ficou deslumbrado com Xerox Alto, um PC que possuía uma interface gráfica (GUI) totalmente revolucionária. Pouco tempo depois, a Apple lançou o Lisa, aproveitando todas as ideias gráficas do computador. Não é nem preciso dizer que o sucesso foi estrondoso. Cada versão do Apple possuía um sistema operacional distinto.

Como se não bastasse, o Apple Macintosh foi lançado em 1984, introduzindo o conceito de desktop, utilizando ícones e pastas para representar programas e arquivos do modo como conhecemos hoje. Esta máquina acompanhava o revolucionário e inovador sistema chamado MAC OS. Seu sucesso foi estrondoso em todo EUA, principalmente pela vinculação de seu comercial durante a final do Superbowl do mesmo ano.

 

 

Imagem
Apple Macintosh

 

 

Com o passar dos anos, as novas versões do Macintosh e o do MAC OS já não eram mais populares como antes, o que fez com que a Apple perdesse bastante mercado para a Microsoft. No final dos anos 90, o código do Macintosh apresentava muitos problemas, o que obrigou que um novo plano fosse traçado. Em 2001, a Apple surpreendeu o mundo da informática, abandonando o seu próprio código e reescrevendo todo o seu sistema operacional usando o Unix como base. A partir daí, ele passou a se chamar MAC OSX, sistema que continua forte até os dias de hoje.

 

 

Imagem
Mac OS X

 

 

 

Bill Gates e a Microsoft
Voltando ao final da década de 70, outro jovem programador, chamado Bill Gates, também possuía o desejo de revolucionar o mundo da informática. Em 1975, ele fundou a Microsoft, empresa que possuía como objetivo primário o desenvolvimento de software em linguagem BASIC para o computador Altair da IBM. Com o sucesso dos programas desenvolvidos pela Microsoft, a empresa afirmou que possuía um sistema operacional completo. A IBM se interessou pelo projeto e ambas as organizações afirmaram um contrato, em 1979.

Entretanto, a Microsoft estava com sérios problemas, pois não possuía um sistema operacional de verdade. A solução encontrada foi a compra do SO da Seattle Computer Products pelo valor de $50.000. Muitos o chamam de negócio do século, pois a partir de 50 mil dólares, a Microsoft possui o patrimônio atual avaliado em dezenas de bilhões de dólares.

 

 

Imagem
MS-DOS

 

 

Após várias melhorias sobre o sistema comprado, a Microsoft lançou MS-DOS em 1982 cuja interface era baseada em modo texto, bastante parecida com a utilizada pelo Unix. Na época, esse SO não chamou tanta atenção, pois o Apple Lisa de Steve Jobs já trabalhava com uma interface gráfica. Tomando conhecimento deste problema, Bill Gates fez uma vista a Apple, com o objetivo básico de conhecer a empresa. Ao final da visita, Gates convenceu Jobs a ser incluído no desenvolvimento do Macintosh.

O objetivo de Gates era maior que isso: copiar a interface gráfica do Machintosh, e foi exatamente isso que aconteceu. No lançamento do novo PC da Apple, Steve Jobs descobriu que a Microsoft estava lançando máquinas no Japão, cujas interfaces eram muito parecida com a do seu computador. Após a quebra da parceria entre os dois, Gates lançou o Sistema Operacional Windows 1.0 em 1985, batendo de frente com o MAC OS.

 

 

Imagem
Windows 1.0

 

 

Após problemas de administração, Jobs foi demitido da Apple, o que desestabilizou a empresa, retornando somente em 1997. Assim, a Microsoft foi ganhando cada vez mais mercado no mercado, lançando o Windows 2.0 em 1987, trazendo melhorias consideráveis na parte visual e no gerenciamento de memória.

 

 

Imagem
Windows 2.0

 

 

 

Windows 3.0 e 3.11
No início dos anos 90, o mercado de sistemas operacionais sofreu novo boom com o lançamento do Windows 3.0 (1990) e Windows 3.1(1992). Na sua versão 3.0, a memória passou a ser gerenciada de maneira muito mais eficiente, incluindo a melhora substancial na interface gráfica. Foi criado um painel de controle e um gerenciador de arquivos organizado, facilitando todo o trabalho do usuário.
Um dos principais motivos que contribuíram para seu sucesso foi o fato do sistema já vir instalado de fábrica em um grande número de máquinas.

 

 

Imagem
Windows 3.0

 

 

O Windows 3.1, incluindo seu service pack 3.11, trouxe melhorias à versão 3.0, como uma interface de rede melhor desenvolvida. Em 2 meses de lançamento, o 3.1 vendeu 3 milhões de cópias.


Windows 95, 98 e ME
No ano de 1995, foi lançada no mercado a nova versão deste sistema operacional, o Windows 95. Esta versão foi tão importante para informática que acabou definindo o padrão com que o desktop é organizado, o qual ainda é utilizado no Vista. Por exemplo, podemos citar o botão Start, o menu Iniciar, a barra de tarefas e o gerenciador de arquivos Windows Explorer. Após alguns services packs, esta versão passou a suportar a leitura de dispositivos USB, o navegador internet explorer, entre outras funcionalidades.

 

 

 

Imagem
Windows 95

 

 

Dando continuidade a seu antecessor, a nova versão deste sistema foi lançada no ano de 1998, chamada de Windows 98. Apesar de apresentar melhorias em relação ao 95, o SO era um pouco lento e instável. Tais problemas só foram arrumados com o Windows 98 SE (Second Edition), lançado em 1999, que incluía funções avançadas para compartilhamento de rede, suporte integrado a drivers de DVD-ROM, entre outras tarefas

O sucessor, Windows Me, lançado em 2000, foi um dos maiores fracassos na questão de sistema operacional, pois era muita instável. Possuía somente poucas melhoras em relação ao Windows 98 SE. Por isso, logo foi deixado de lado.

Todas as versões apresentadas até aqui usavam o MS-DOS como núcleo do sistema, ou seja, o Windows funcionava como uma espécie de ambiente gráfico. Com o passar do tempo, o uso desta arquitetura tornou-se insuportável, visto que o MS-DOS não conseguia dar conta de processar tantas informações, o que ficou evidente no Windows Me.


Windows XP e Vista
Lançado em 2001, o Windows XP tornou-se um marco na história dos sistemas operacionais, principalmente por trazer muitos recursos totalmente novos. Entre eles é possível citar que o sistema tornou-se muito mais seguro, através da diferenciação de permissões entre administradores e usuários comuns. A estabilidade também é uma de suas fortes características, pois o número de telas azuis diminuíram consideravelmente.

 

 

Imagem
Windows XP

 

 

 

O principal motivo para todo esse avanço é uso do núcleo (kernel) NT como base, que exclui totalmente a necessidade do MS-DOS. Na verdade, o núcleo NT já vem sido usado desde outras versões do Windows lançadas para uso de servidores, como o Windows NT (1993) e Windows 2000 (2000). Contudo, foi somente no XP que esta arquitetura foi lançada para o usuário comum.

Depois de seis anos de espera, a Microsoft lança o Windows Vista, em 2007, que foi muito aguardado pelos usuários. Ao contrário do XP, esta nova versão desapontou o público de uma maneira geral, principalmente por exigir uma máquina muito potente. Somente em computadores top de linha é possível observar vantagens no desempenho do Vista, principalmente pela suporte a multi-core. Seu grande destaque foram os efeitos gráficos de última geração provido pelo Aero e o Flip 3D.
O Windows 7 é a mais recente versão do Microsoft Windows, uma série de sistemas operativos produzidos pela Microsoft para uso em computadores pessoais, incluindo computadores domésticos e empresariais, laptops e PC's de centros de mídia, entre outros. Windows 7 foi lançado para empresas no dia 22 de julho de 2009, e começou a ser vendido livremente para usuários comuns às 00:00 horas do dia 22 de outubro de 2009, menos de 3 anos depois do lançamento de seu predecessor, Windows Vista.
Diferente do Windows Vista, que introduziu um grande número de novas características, Windows 7 foi uma atualização mais modesta e focalizada para a linha Windows, com a intenção de torná-lo totalmente compatível com aplicações e hardwares com os quais o Windows Vista já era compatível. Apresentações dadas pela companhia no começo de 2008 mostraram um "Shell" novo, com uma barra de tarefas diferente, um sistema de "network" chamada de "HomeGroup", e aumento na performance.
Segundo muitos usuários, é a melhor versão criada até hoje do sistema operacional Windows, apesar de muitos ainda considerarem o Windows XP mais leve e menos difícil de usar.

 

 

Imagem
Windows Seven

 

 

Imagem
Windows 2000

 

No dia 17 de Fevereiro de 2000, a Microsoft lançou o Windows 2000, que veio substituir o Windows NT 4.0. Esta nova versão foi mais do que uma mera evolução; o Windows 2000 inclui recursos avançados, como gestão centralizada baseada em políticas com novas tecnologias, como a gestão Microsoft IntelliMirror e o serviço Microsoft Active Directory gestão de sistemas de arquivos NTFS versão 5, que possibilita a gestão de quotas em disco. Em todas as versões, o ambiente gráfico permaneceu quase o mesmo, quando comparado com o do Windows 98. A implementação e a gestão tornaram-se mais simples e rápidas e levaram muitas organizações a migrar para o Windows 2000. O Windows 2000 Professional era a versão para postos de trabalho que acabaria por substituir o Windows NT 4.0 Workstation. Foram lançadas 4 versões para servidores de rede:

 

 

Windows 2000 Server

– versão que substituiu o Windows NT 4.0 Server; utilizada para equipar pequenos e médios servidores;

 

Windows 2000 Advanced Server

- substituiu o Windows NT 4.0 Server Enterprise Edition, que, em termos genéricos, se destina a equipar servidores de departamentos com necessidades de prestações superiores à versão-base;

 

Windows 2000 Datacenter Server

- a versão voltada para servidores mais poderosa até então desenvolvida pela Microsoft, com a finalidade de equipar clusters de servidores de grande porte, correndo aplicações complexas, sistemas cliente-servidor, elevada capacidade de comunicação e de grande fluxo de dados. Esta versão não existia na versão NT 4.0 e veio preencher a inexistência de um produto-servidor para sistemas de grande porte por parte da Microsoft;

 

Small Business Server 2000

, ou simplesmente SBS 2000, é uma solução para pequenas e médias empresas, desenvolvida para suportar um máximo de 50 clientes, e veio substituir o Small Business Server 4.5. O Small Business Server 2000 inclui, além dos serviços do Windows 2000 Server, outros serviços que na versão-base (Windows 2000 Server) tinham de ser adquiridos à parte, gerando custos adicionais. Desses serviços destacamos o servidor de base de dados (SQL Server 2000), o servidor de correio eletrônico (Exchange Server 2000), a nova versão de acesso à Internet através de um proxy e firewall chamado Microsoft Internet Security and Acceleration Server 2000 (ISA Server 2000) - que veio substituir o anterior Proxy Server, compartilhamento de fax-modem e facilidade na administração, devido a implementação de uma configuração integrada onde é possível instalar e configurar o sistema operacional, todos os componentes de aplicações e atualizações, entre outros.

 

 

Imagem
Windows Server 2003

 

Em 24 de Abril de 2003, a Microsoft lançou o Windows Server 2003, que veio substituir o Windows Server 2000. O Windows XP Professional é a versão para postos de trabalho substituto do Windows 2000 Professional, lançado em 2001. As versões servidoras mantiveram o ambiente gráfico utilizado no Windows XP Professional. Foram lançadas diversas versões para servidores de rede, algumas que merecem destaque:

 

 

Windows Server 2003

– versão que substituiu o Windows 2000 Server e que se destina a equipar servidores de pequena ou média dimensão. Para uma pequena ou média empresa, com algumas dezenas de clientes (estações), esta seria a versão que melhor se adapta, exceto em situações específicas.

A versão 2003 Standard inclui, entre outras características, serviços de compartilhamento de arquivos e impressoras, validação de usuários com o Active Directory, compartilhamento de acesso à Internet, firewall, sistema de arquivos distribuídos (Distributed File System), suporte a rede privada virtual VPN (Virtual Privare Network), serviço de fax, Intellimirror, serviços de terminal (Terminal Services), Windows Media Services, serviços de instalação remota (RIS), linha de comandos do WMI (Windows Management Instrumentation) e suporte para .Net Framework. Esta versão suporta somente processadores a 32 bit da Intel ou compatíveis e até 4 GB de memória RAM. Não existe versão para os processadores a 64 bit Intel ltanium.

 

Windows Server 2003 Enterprise Edition

- vem ocupar o lugar do Windows 2000 Advanced Server, e mantém as características da versão anterior; contém ainda serviços de clustering, gestor de recursos de sistema do Windows WSRM (Windows System Resource Manager), infra-estrutura de chaves públicas, serviços de certificado e Smart Cards. Existem duas versões do Windows Server 2003 Enterprise Edition, uma para servidores com processadores a 32 bit da Intel ou compatíveis, e outra para servidores equipados com os processadores a 64 bits. Esta última versão suporta até 64 GB de memória RAM.

 

Windows Server 2003 Datacenter Server

- a versão mais poderosa; aqui também existem duas versões, uma para processadores a 32 bit da Intel ou compatíveis, e outra para os processadores de 64 bit Intel Itanium, e 512 GB de memória RAM. O Windows Server 2003 Datacenter Server não inclui serviços de firewall e de compartilhamento de acesso à Internet.

 

Windows Server 2003 Web Edition

- a versão mais reduzida a nível de características das versões servidoras do Windows Server 2003. Esta versão destina-se a servidores Web e suporta somente processadores a 32 bit da Intel ou compatíveis, e até 2 GB de memória RAM. Não existe versão para os processadores de 64 bits Intel Itanium.

 

Cronologia Até Windows Server 2003
Imagem

 

 

 

Imagem
Windows Server 2008

 

 

O Windows Server 2008 é a versão mais recente lançada para a linha Server. Esta versão foi lançada no dia 27 de Fevereiro de 2008. As variações de versão são:

 

 

Windows Server 2008 Standard Edition

 

Foi desenvolvida para substituir o Windows Server 2003, foi projetada para fornecer serviços e recursos para outros sistemas em uma rede. O sistema operacional tem um abundante conjunto de recursos e opções de configuração. O Windows Server 2008 Standard Edition dá suporte a 2-way e 4-way SMP (multiprocessamento simétrico) e a até 4 gigabytes de memória em sistemas de 32 bits e 32 GB em sistemas de 64 bits.

 

Windows Server Enterprise Edition

 

Tal versão estende os recursos fornecidos no Windows Server 2008 Standard Edition para proporcionar maior estabilidade e disponibilidade e dar suporte a serviços adicionais como o Cluster e Serviço de Federação do Active Directory. Também dá suporte a sistemas de 64 bits, memória RAM hot-swap e non-uniform memory access (NUMA). Os servidores enterprise podem ter até 32 GB de RAM em sistemas x86 e dois terabytes (TB) de RAM em sistemas de 64 bits e 8 CPUs.

 

Windows Server 2008 Datacenter Edition

 

Versão mais robusta do Windows Server 2008 com aperfeiçoamentos nos recursos de cluster e suporte a configurações de memória muito amplas com até 64 GB de RAM em sistemas x86 e 2 TB RAM (dois TeraBytes) em sistemas de 64 bits. Tem requisito mínimo de CPU e pode dar suporte a até 64 CPUs.

 

Windows Web Server 2008

 

Versão Web Edition do Windows Server 2008. Uma vez que foi projetada para fornecer serviços Web para a implantação de sites e aplicativos baseados nesta, essa versão do servidor só dá suporte a recursos relacionados. Especialmente, ela inclui o Microsoft.NET Frameworks, o Microsoft Internet Information Services (IIS), o ASP.NET, além do servidor de aplicativos e recursos de balanceamento de carga de rede. No entanto, não possui vários outros recursos, incluindo o Active Directory, e exige a instalação do server core para obter alguma funcionalidade padrão. O Windows Web Server 2008 dá suporte a até 2 GB de RAM e 2 CPUs.

 

Um breve comentário:

 

Muitos desenvolvedores devem ter notado que a presença de Macs aumentou bastante nos últimos tempos. Isso se deve principalmente à transição dos antigos processadores IBM PowerPC para o Intel Core Duo que aconteceu entre 2005 e 2006. Foi quando se tornou possível virtualizar o Windows e Linux (usando software como VMWare Fusion e Parallels). No entanto muitos ainda são céticos, entendendo superficialmente que o Mac OS X – o sistema operacional dos Macs – não passa de um Linux com uma "cara mais bonita".

 

Vale a pena entender a tecnologia – mesmo que você decida não usá-la. Para quem não conhece a história, a Apple foi pioneira no lançamento de micro computadores com interface gráfica, a começar pelo Apple Lisa e depois pelo lendário Macintosh, em 1984. Porém, um ano depois Steve Jobs foi expulso da Apple e então ele começou outro empresa, a Next, em 1986. Depois de muito desenvolvimento, eles lançaram o NeXTCube e o sistema operacional Nextstep em 1989.

 

Imagem
Esse sistema operacional era realmente revolucionário para sua época. Era um workstation baseado em Unix (kernel Mach, código BSD Unix), portanto já era multi-tarefa com processos isolados. Tinha um conceito forte de desenvolvimento orientado a objetos e componentes com uma camada de "Kits" de programação. A linguagem de escolha foi o Objective-C, que muitos argumentariam como o verdadeiro C orientado a objetos (que, para quem conhece, tem até conceitos dinâmicos que só hoje as pessoas estão entendendo). Além disso já trazia um sistema gráfico baseado em composição que usava a tecnologia Display Postscript.

Uma década depois, a Next era comprada pela Apple e Steve Jobs retornava à cadeira de CEO, levando consigo o plano de transicionar o antigo MacOS por algo mais novo: o Nextstep! Quem conheceu esse sistema vai ver como todos os fundamentos dele ainda estão nos Mac OS X mais recentes. É um sistema que que já completa 20 anos de maturidade, bastante robusto. Sistemas legados como o Windows escreviam diretamente na memória de vídeo, o que era mais performático mas hoje gera todo tipo de problemas, principalmente ao lidar com multimídia. O Next foi pensado desde o início para ter esse sistema de composição. No Mac OS X isso se tornou o Quartz, a fundação do Aqua, e as primitivas usadas são PDF, ou seja, o que você vê na tela é literalmente uma representação de PDF, uma coisa que facilita muito a fidelidade de reprodução em impressos e tudo mais. O Windows só alcançou isso recentemente com o sistema Aero do Vista.

Só para dar uma idéia das tecnologias herdadas do Nextstep está o "Fat Binary", que no Mac é chamado de "Universal Binary". O OS X tem um conceito de carregador que checa em que ambiente está rodando e escolhe o binário correto dentro do pacote de uma aplicação. Portanto a aplicação pode trazer binários, em paralelo, para PowerPC, Intel 32-bits, Intel 64-bits. Quando o usuário der "duplo-clique", o binário correto é carregado e isso é tudo transparente. Dessa forma, um único pacote é independente de plataforma, sem que o usuário precise se preocupar se está numa versão PowerPC ou Intel. Isso foi uma das coisas que facilitou bastante a transição para 64-bits.

Note que não existe conceito de "Mac OS X 32″ e "Mac OS X 64″ separados: na realidade o sistema operacional roda ambos os binários nativamente, de forma transparente.

São coisas como essa que tornam o uso do OS X muito mais agradável (sem contar que ele não tem sistemas irritantes e desnecessários de "ativação", sequer de número serial).

O Mac OS X cresceu por mérito próprio, recomeçando de uma fundação sólida (UNIX), como todo sistema operacional realmente deveria. Unindo pensamento comercial com open source num mesmo produto. E diferente do que o mercado está acostumado, cada novo OS X era realmente melhor (e até mais rápido) que seu antecessor.

 

Imagem

 

 

História do Mac OS X

 

 

O Mac OS X é o mais recente lançamento da linha de sistemas operacionais Mac OS da Apple Computer. Apesar de ter sido designado oficialmente apenas como a "versão 10" do Mac OS, possui uma história relativamente independente dos lançamentos anteriores do Mac OS.

 

 

Desenvolvimento fora da Apple

 

Após a Apple remover Steve Jobs da gerência em 1985, ele deixou a companhia e tentou — com investimentos de Ross Perot e de seu próprio bolso — criar a próxima "grande inovação": o resultado foi a NeXT. Os equipamentos produzidos pela NeXT eram avançados para sua época, como a primeira estação de trabalho a incluir um DSP e um drive óptico de alta-capacidade, mas ele tinha várias estranhezas e problemas de design, sendo também caro comparado aos concorrentes no setor. A produção do equipamento foi cancelada em 1993. No entanto, o NeXTSTEP, o sistema operacional de orientação a objeto da companhia, teve um legado mais duradouro.

 

O NeXTSTEP era baseado na núcleo Mach e no BSD, uma implementação do Unix cujas origens são da década de 1970. Talvez seja mais lembrado por possuir um framework de programação baseado na linguagem Objective-C. Este ambiente é conhecido hoje no mundo Mac como Cocoa. Também suportava Enterprise Objects Framework e o WebObjects, entre outras características notáveis.

 

Abandonando todas suas idéias, exceto o sistema operacional, a NeXT conseguiu manter um negócio vendendo o WebObjects e consultoria de serviços, mas nunca foi um sucesso comercial. O NeXTSTEP evoluiu para o OPENSTEP que separou as camadas de objetos do sistema operacional abaixo, permitindo que rodasse com menos modificações em outras plataformas. O OPENSTEP foi, por algum tempo, adotado pela Sun Microsystems. No entanto, neste ponto, algumas outras companhias — entre as mais notáveis, Apple, IBM, Microsoft, e até mesmo a Sun — estavam dizendo que iriam logo lançar sistemas operacionais parecidos de orientação a objeto e ferramentas de desenvolvimento próprias. (Alguns desses esforços, como Taligent, não foram completados; outros, como Java, foram muito adotados.)

 

 

Desenvolvimento interno

 

Enquanto isso, a Apple estava enfrentando seus próprios problemas comerciais. O Mac OS, já com dez anos, tinha alcançado os limites de sua arquitetura de usuário único e multitarefa, e sua interface de usuário que já tinha sido considerada inovadora estava parecendo cada vez mais "antiquada". Houve um grande esforço em 1994 para desenvolver um substituto, conhecido como Copland, que era visto fora da Apple como um caso sem esperança. Em torno de 1996, o Copland não estava nem perto das condições para lançamento, e o projeto foi eventualmente cancelado. Alguns elementos do Copland foram incorporadas no Mac OS 8, lançado em 1997.

 

Após considerar a compra do BeOS — um sistema operacional multitarefa e multimídia projetado para equipamento similar ao da Apple — a companhia decidiu adquirir a NeXT e utilizar o OPENSTEP como base de seu novo sistema operacional. Avie Tevanian assumiu o desenvolvimento do SO, e Steve Jobs foi trazido como consultor. Inicialmente, o plano era desenvolver um novo SO baseado quase completamente numa versão atualizada do OPENSTEP, com um emulador — conhecido como "Blue Box" — para rodar aplicativos "clássicos" do Macintosh. O resultado ficou conhecido pelo codinome Rhapsody, programado para lançamento no final de 1998.

 

A Apple achou que os desenvolvedores começariam a portar seus programas para as bibliotecas mais poderosas do OPENSTEP uma vez que soubessem do seu poder e flexibilidade. Em vez disso, vários grandes desenvolvedores como a Adobe falaram para a Apple que isso jamais ocorreria, e que eles preferiam deixar a plataforma completamente. Essa "rejeição" do plano da Apple se devia, em grande parte, a antigas promessas que não foram cumpridas pela companhia; após acompanhar um "próximo sistema operacional" desaparecer após o outro e a fatia de mercado da Apple diminuir, os desenvolvedores não estavam muito interessados em trabalhar na plataforma, e muito menos em reescrever aplicativos.

 

 

Mudança de direção sob o comando de Jobs

 

As perdas financeiras da Apple continuavam, os diretores perderam a confiança no CEO Gil Amelio e pediram que ele renunciasse. A diretoria convenceu Jobs a assumir o comando interino da companhia. Na verdade, Jobs estava recebendo "carta branca" dos diretores para trazer os lucros de volta para a companhia. Quando Jobs anunciou na Worldwide Developers Conference que o que os desenvolvedores realmente queriam era uma versão moderna do Mac OS, e que era isso que a Apple entregaria, recebeu muitos aplausos. Nos dois anos seguintes, foi feito muito esforço para portar as APIs originais do Macintosh para as bibliotecas Unix, conhecido como Carbon. Os aplicativos do Mac OS poderiam ser portados para o Carbon sem a necessidade de reescrever todo o código, e ainda assim sendo completamente compatíveis com o novo sistema operacional. Enquanto isso, aplicativos escritos utilizando os kits de ferramentas antigos seriam suportados utilizando o ambiente "clássico" do Mac OS 9 ("Classic"). O suporte a C, C++, Objective-C, Java e Python facilitou a situação ainda mais para os desenvolvedores.

 

Durante esse tempo as camadas inferiores do sistema operacional (o núcleo Mach e as camadas BSD em cima) foram reempacotadas e lançadas sob uma licença de código aberto conhecido como Darwin. O núcleo do Darwin fornece um sistema operacional extremamente estável e flexível, rivalizando muitas outras implementações do Unix e oferencendo a vantagem das contribuições de programadores e de projetos de código aberto fora da Apple; no entanto, não há muito uso fora da comunidade Macintosh. Durante esse período, a linguagem Java tinha crescido em popularidade e um esforço foi feito para melhorar o suporte a essa linguagem no Mac. Isso foi feito através do porte de uma máquina virtual Java de alta velocidade para a plataforma.

 

Enquanto o primeiro lançamento do novo SO — Mac OS X Server 1.0 — utilizava uma interface gráfica semelhante ao do Mac OS, todas as versões seguintes apresentavam um novo tema conhecido como Aqua. O desenvolvimento dessa parte do SO foi atrasado em parte devido ao fato da troca do motor de visualização (engine Display) OpenScript do OPENSTEP para um que era livre de licenças, conhecido como Quartz. O Aqua era uma mudança relativamente radical da interface do Mac OS 9, que era uma evolução do Macintosh Finder original. Foram incorporados novos gráficos coloridos escaláveis, anti-aliasing de texto e gráficos, sombreamento e destaque simulado, transparência e animação. Um novo recurso era o Dock, um abridor de aplicativos que tirava vantagem dessas capacidades. Apesar disso, o Mac OS X manteve um grau de compatibilidade com a interface original do Mac OS e com as próprias orientações da Apple, com seu menu único no topo da tela, atalhos de teclado familiares e suporte a mouses de um só botão.

 

 

Lançamentos

 

A Apple lançou o Mac OS X Server 1.0 em janeiro de 1999. Um beta público do Mac OS X foi lançado em 2000, e em 24 de março de 2001 foi o lançamento oficial e completo da versão 10.0 do Mac OS X.

 

  • Mac OS X Public Beta (2000)
  • Mac OS X v10.0 "Cheetah" (24 de março de 2001)
  • Mac OS X v10.1 "Puma" (25 de setembro de 2001)
  • Mac OS X v10.2 "Jaguar" (24 de agosto de 2002)
  • Mac OS X v10.3 "Panther" (24 de outubro de 2003)
  • Mac OS X v10.4 "Tiger" (29 de abril de 2005)
  • Mac OS X v10.5 "Leopard" (26 de outubro de 2007)
  • Mac OS X v10.6 "Snow Leopard" (28 de Agosto de 2009)
  • Mac OS X v10.7 "Lion" (20 de Julho de 2011)

 

 

Redimensionado em 95% (1100 x 185) - Clique para ampliarImagem

 

 

 

Versões:

 

 

Ver tm tamanho real

 

 

Mac OS X v10.0 "Cheetah"

 

Mac OS X versão 10.0, codinome "Cheetah", foi a primeira versão do sistema operacional Mac OS X, para desktop e servidor da Apple. Mac OS X v10.0 foi lançado no dia 24 de março de 2001 por um preço de US$129.95. Substituiu o Mac OS X Público Beta e veio antes do Mac OS X v10.1.

Mac OS X v10.0 foi uma mudança radical do Sistema Operacional anterior, considerado "clássico", da Macintosh e foi a resposta da Apple à tão esperada próxima geração de sistemas operacionais da Macintosh. Apresentou um novo conceito de código criado completamente diferente do modelo do Mac OS 9, como também todos os Sistemas Operacionais anteriores da Apple. Mac OS X introduziu o novo núcleo Darwin Unix-like e um sistema totalmente novo de administração de memória. Provou ser um começo duradouro para o Mac OS X. Embora tenha sido elogiado pelo bom começo, ainda é a um sistema operacional imaturo, em termos de perfeição e estabilidade.

 

 

Ver tm tamanho real

 

 

Mac OS X v10.1 "Puma"

 

Mac OS X versão 10.1, codinome "Puma", foi a segunda versão do sistema operacionalMac OS X, para desktop e servidor da Apple. Substituiu o Mac OS X v10.0 e antecedeu ao Mac OS X v10.2. A versão 10.1 foi lançada em 25 de setembro de 2001 como uma macro atualização gratuita da versão 10.0. A partir da versão 10.1.2, a Apple fez do Mac OS X o sistema operacional padrão dos novos Macs.[2]

O sistema operacional foi distribuído sem custos por empregados da Apple depois do pronunciamento de Steve Jobs em uma conferência em São Francisco. Logo após, foi distribuído para os usuários do Macintosh em 25 de outubro de 2001 nas lojas da Apple e outros distribuidores de produtos Apple. O sistema operacional foi melhor recebido do que Mac OS X versão 10.0, embora os críticos reclamassem do excesso de defeitos e da falta de alguns recursos no novo sistema operacional.

 

 

Ver tm tamanho real

 

 

Mac OS X v10.2 "Jaguar"

 

Mac OS X versão 10.2 "Jaguar" foi a terceira versão do Sistema Operacional para desktop e servidores da série Mac OS X. Substituiu o Mac OS X v10.1 com o codinome Puma e antecedeu o Mac OS X v10.3 "Panther". O sistema operacional foi lançado no dia 23 de agosto 2002 pelo preço de US$129, ou a um preço de US$199 dólares para o "family pack" [3] que permitia cinco instalações em computadores separados em uma residência. O sistema operacional foi bem aceito pelos usuários do Macintosh pelo grande avanço na estabilidade e velocidade; porém, muitos críticos ainda reivindicaram melhoria na velocidade da interface pois diziam que ainda possuíam muitos problemas pendentes.

Jaguar foi o primeiro Sistema Operacional Mac OS X onde o codinome foi usado em anúncios publicitários. Hoje os produtos do Mac OS X continuam a tradição de usar o codinome em seus produtos dos Sistemas Operacionais da Apple.

 

 

Ver tm tamanho real

 

 

Mac OS X v10.3 "Panther"

 

O Mac OS X versão 10.3 "Panther", foi o quarto lançamento do Mac OS X. Ele substituiu o Mac OS X v10.2 "Jaguar" e teve como sucessor o Mac OS X v10.4 "Tiger". O "Panther" foi lançado em 24 de outubro de 2003. O seu custo foi de US$129 para uma única licença de usuário e US$199 para um pack família (licença para 5 computadores).

 

 

Ver tm tamanho real

 

 

Mac OS X v10.4 "Tiger"

 

Mac OS X 10.4 "Tiger", foi o quinto lançamento do Mac OS X. O "Tiger" foi liberado ao público em 29 de abril de 2005 como o sucessor do Mac OS X v10.3 "Panther", que foi lançado 18 meses antes, logo substituído pelo Mac OS X v10.5 "Leopard", em 26 de Outubro de 2007, após 30 meses, tornando-se o Mac OS X de mais longa versão. Alguns dos novos recursos incluem um rápido sistema de busca Chamado Spotlight, uma nova versão do navegador Safari, Dashboard, um novo tema Unificado, e suporte aperfeiçoado para uso em processadores 64 bits. O "Tiger" foi também a primeira versão do sistema operacional Mac OS X liberado para trabalhar com máquinas Apple-arquitetura Intel (Apple máquinas usando processadores x86.) Seis semanas após o seu lançamento oficial, a Apple tinha entregue 2 milhões de cópias do Tiger, o que representa 16% de todos os usuários do Mac OS X. A Apple alega que o Tiger foi o mais bem sucedido Mac OS X história da empresa. Na Conferência WWDC em 11 de junho de 2007, CEO da Apple Steve Jobs anunciou que, dos 22 milhões de usuários do Mac OS X, mais do que 67% estavam usando Tiger

 

 

Ver tm tamanho real

 

 

Mac OS X v10.5 "Leopard"

 

O Mac OS X v10.5 "Leopard" é o sexto lançamento da família Mac OS X, da Apple, sendo o sucessor do Mac OS X v10.4 "Tiger". Leopardo foi liberado em 26 de Outubro de 2007, e está disponível em duas variantes: uma versão desktop adequado para computadores pessoais, e uma versão para servidor, a versão Mac OS X Server.O "Leopard" será substituídas pelo Mac OS X v10.6 "Snow Leopard", o qual espera-se que seja lançado no meio de 2009. De acordo com a Apple, O "Leopard" contém mais de 300 alterações e melhorias, abrangendo desde o núcleo do sistema operacional, assim como componentes incluídos em aplicações e ferramentas para desenvolvedores. O "Leopard" introduz um redesenhado Dock, o Menu Bar com efeito de transparência, e uma atualização do Finder que incorpora o Cover Flow (uma navegação com interface visual vistos pela primeira vez no iTunes). Outras características notáveis incluem suporte para escrita de 64-bit, um backup automático com um utilitário chamado Time Machine, o apoio à Spotlight para buscas em várias máquinas, e à inclusão do Front Row e o Photo Booth, que anteriormente estavam incluídos apenas com alguns modelos Mac.

 

 

Ver tm tamanho real

 

 

Mac OS X v10.6 "Snow Leopard"

 

O Mac OS X versão 10.6 "Snow Leopard". Foi anunciado pelo CEO da Apple Steve Jobs na WWDC em 9 de junho de 2008. Foi lançada em 2009. O novo sistema não incidiu sobre novos recursos, mas sim a melhoria do desempenho e da eficiência.

 

 

Ver tm tamanho real

 

 

Mac OS X v10.7 "Lion"

 

O Mac OS X v10.7 "Lion", é a versão atual do Mac OS X, sendo o sucessor do Mac OS X v10.6 "Snow Leopard". Lion foi anunciado em 20 de Outubro de 2010 na conferencia "Back To The Mac" e provavelmente vai estar disponível em meados de 2011. Apple: "Pegamos nossas melhores ideias do Mac OS X e aplicamos no iPhone. Pegamos nossas melhores ideias do iPhone e aplicamos no iPad. Agora chegou a hora de aplicar tudo isso no Mac. A oitava grande versão do sistema operacional mais avançado da Apple chega em meados de 2011." Novidades: App Store agora vai servir também para Mac com aplicativos especiais Launchpad: "Com o Launchpad você acessa seus apps em um instante, assim como no iPad. Só precisa clicar no ícone do Launchpad no seu Dock. A janela aberta é substituída por uma elegante tela que mostra todos os apps disponíveis no seu Mac. Percorra todas as páginas de seus apps ou organize-os como você quiser, basta arrastar o ícone para o lugar desejado; também pode agrupá-los em pastas. Quando você baixa um app da App Store, ele é mostrado automaticamente no Launchpad, pronto para ser instalado." Apps em tela cheia: "O iPad mostra todos os seus apps em tela cheia para você não se distrair, e oferece uma forma rápida de voltar à tela dos apps. O Mac OS X Lion faz a mesma coisa na sua área de trabalho. Você pode abrir um app em tela cheia com só um clique; mudar para outro app também em tela cheia deslizando apenas um dedo no trackpad, e retornar à área de trabalho para acessar seus apps. O suporte à visualização de apps em tela cheia cria uma experiência muito mais envolvente. Assim você pode se concentrar ainda mais no seu trabalho ou aproveitar seus jogos de uma maneira mais intensa." Mission Control: "O novo Mission Control é um poderoso e prático recurso que proporciona uma visualização abrangente de tudo o que estiver em execução no seu Mac‚ incluindo o Exposé, Spaces, Dashboard e apps em tela cheia. Com um simples movimento, o Mission Control é mostrado na tela. Assim você pode ver todas as janelas abertas agrupadas por app, ícones dos apps funcionando em tela cheia, o Dashboard e outras janelas do Spaces. Tudo organizado em um lugar só. Com um clique, você acessa o que quiser do Mission Control. É o Mac OS X Lion colocando você no controle do sistema."

Sistemas Operacionais Livres
Até o exato momento, apresentamos a evolução dos principais sistemas proprietários do mercado: Mac OS X e Windows. Agora, vamos focar nos sistemas livres. Apesar de fazer bastante sucesso nos anos 70, o Unix continuou a ser desenvolvido durante toda esta década e a seguinte também. No ano de 1983, um revolucionário programador chamado Richard Stallman criou o projeto GNU, ele afirmava que os softwares deveriam ser desenvolvidos de maneira livre, sem restrições na leitura ou modificação de seus códigos fontes.

Em 1984, o MIT desenvolveu o X Window System, que como o seu nome diz, é um sistema gráfico de Janelas para o Unix. Ele permaneceu proprietário até 1987, quando uma versão opensource foi lançada, sendo incorporada no desenvolvimento deste sistema operacional. Um dos principais objetivos da GNU sempre foi desenvolver a sua própria versão do Unix, através de um Kernel próprio, chamado de GNU Hurd. Contudo, este núcleo possuía muitas falhas de sistema, comprometeu muito o seu desenvolvimento.

O kernel Linux
Visando estas falhas, um programador chamado Linus Torvalds estava desenvolvendo outro kernel para o GNU, chamado de Linux, em. Em seu primeiro lançamento oficial (1991), na versão 0.2, o Linux já possuía mais funcionalidades que o GNU, o que atraiu bastantes desenvolvedores. Pouco tempo depois, o núcleo criado por Torvalds já era o sistema GNU mais usado do mundo.
Além disso, os programadores eram e ainda são livres para utilizar o kernel Linux em seus próprios sistemas, o que acabou gerando as famosas distribuições como conhecemos hoje . As primeiras ficaram conhecidas como Debian e Slackware, ambas lançadas no Ano de 1993. No início, eram difíceis de serem utilizadas, comparadas com os Windows 3.11 e 95, pois exigiam um conhecimento profundo de computação por parte dos usuários.

Com o tempo, as distribuições Linux foram se tornando cada vez mais fáceis de serem utilizadas, principalmente para atrair o usuário comum do computador. Atualmente, utilizar este sistema é tão fácil quanto o Windows, principalmente em distribuições como o Ubuntu.

Definições:


Introdução

Quando Linus Torvalds criou o Linux, certamente não sabia da importância que este projeto teria para os mais variados aspectos da computação. Graças à sua iniciativa, o Linux está presente em centenas de milhares de servidores, computadores pessoais e dispositivos portáteis em todo o mundo. Mas, como isso aconteceu? Por que Torvalds criou o Linux? Por qual motivo este projeto teve uma aceitação tão grande? Efetivamente, o que é Linux? Para obter as respostas para estas e outras questões relacionadas, nada melhor do que conhecer a história do Linux. É isso que o InfoWester apresenta a seguir.

O que é Linux?

Para muita gente, o Linux é meramente um sistema operacional. Esta definição não está errada, mas também não está completa. Na verdade, o Linux é parte de um todo, mais precisamente, é um kernel de código-fonte* aberto, que foi - e é desenvolvido - ao longo do tempo graças à colaboração voluntária de desenvolvedores de várias partes do mundo.

* Em poucas palavras, código-fonte é um conjunto de instruções baseado em uma linguagem de programação que, depois de compilado ou interpretado, forma um software. Tendo acesso ao código-fonte, é possível saber como determinado programa ou recurso de software foi desenvolvido.

O que é kernel?

Kernel pode ser entendido como o núcleo do sistema operacional, isto é, como a parte essencial deste. Cabe ao kernel fazer o intermédio entre o hardware e os programas executados pelo computador. Isso significa que a junção do kernel mais os softwares que tornam o computador usável (drivers, protocolos de comunicação, entre outros), de acordo com a sua aplicação, é que formam o sistema operacional em si.

Para compreender melhor, você pode imaginar o kernel como sendo o chassi de um veículo. De acordo com a aplicação em questão, uma montadora pode adquirir um chassi e utilizá-lo para montar um carro para transportar cargas ou, se a necessidade for esta, para construir um automóvel de passeio para uma família.

Perceba que o kernel não é, necessariamente, um software manipulável pelo usuário. Ou seja, não se trata de algo tão simples a ponto de poder ser instalado e, logo em seguida, estar pronto para uso, como um programa de edição de textos, por exemplo. O kernel é uma base complexa, que serve de estrutura para o sistema, atuando nos "bastidores". Assim, o usuário sequer precisa saber de sua existência para poder utilizar o computador.

Então, o Linux é um kernel?

Exatamente! Quando procuramos um programa que possui versões para vários sistemas operacionais - como o navegador Mozilla Firefox -, nos deparamos com vários links: um que aponta para a versão Windows, outra que direciona para a versão Mac OS X, outra para Linux e assim por diante. Perceba que, em situações como esta, o nome Linux não é empregado incorretamente. Por outro lado, achar que o Linux é todo o conjunto de software, incluindo aplicativos, interfaces gráficas e outros, é uma visão bastante limitada.

Mas, para entender melhor o que é Linux e o que ele representa, é conveniente conhecer a sua história.


A Pré-História:


1965 - A Bell Telephone Labs da AT&T, juntamente com a General Electric e o projeto MAC do MIT (Massachusetts Institute of Technology), desenvolvem o sistema operacional Multics.

1969 - Como o Multics não atinge seu propósito o Laboratório Bell saí do projeto.

Por causa de um jogo chamado Space Travel usado como passatempo durante o projeto Multics, dois engenheiros de software da AT&T, Ken Thompson e Dennis Richie, por não terem mais acesso ao sistema, resolveram portar o jogo para rodar em um computador PDP-7 que não era utilizado, desta forma implementaram um sistema operacional rudimentar chamado de Unics como trocadilho ao Multics. De alguma forma, a ortografia do nome tornou-se Unix.

1971 - O Unix é escrito para um computador PDP-11.

1973 - O Unix é reescrito em linguagem C pelo próprio criador da linguagem, Dennis Ritchie. O uso do Unix dentro da AT&T cresceu tanto que foi criado um grupo de suporte interno para o sistema, que cediam cópias do código fonte para fins educacionais em universidades.

1977 à 1982 - A AT&T combinam várias versões do Unix de Ritchie e Thompsom em um único sistema chamado de Unix System III.

A Universidade de Berkeley (Califórnia), partindo de uma versão do Unix anterior ao System III, desenvolvia seu próprio Unix chamado de BSD (Berkeley Systems Division) e em 1978 lança uma versão para computadores VAX.

Bill Joy, um dos diretores do projeto BSD, mais tarde tornou-se fundador da Sun Microsystems, que comercializou outra variante do Unix SunOS para aprimorar suas estações de trabalho.

1983 - A AT&T percebendo o potencial comercial do Unix, iniciou a venda do System V comprometendo-se a dar suporte aos seus usuários.

1983 - Richard Stallman cientista do MIT lança o projeto GNU (GNU´s not Unix) que tinha a pretensão de criar um sistema operacional do tipo Unix gratuito, em função do desagravo de muitos programadores que haviam contribuído para o aprimoramento do Unix e consideravam injustos que a AT&T e outros se apropriassem do fruto deste trabalho.

1984 - O projeto GNU é iniciado oficialmente.

1985 - Para organizar o trabalho do projeto GNU, Stallman e outros criam a Free Software Foundation (FSF) uma corporação sem fins lucrativos que busca promover softwares gratuitos eliminando restrições à cópia, redistribuição estudo e modificação do mesmo formulando assim a licença GPL (GNU General Public License).


1989 - Um estudante finlandês chamado Linus Torvalds inicia um processo pessoal de aprimoramento do Kernel do Minix um sistema operacional do tipo Unix escrito por Andrew Tannenbaum, chamando esta vertente de Linux como abreviação de Linus´s Minix.

Depois de um certo tempo de trabalho, Linus envia a seguinte mensagem para o grupo de discussão comp.os.minix:

"Você sente saudade dos bons dias do minix-1.1, quando homens eram homens e escreviam seus próprios device drivers? Você está sem um bom projeto e morrendo de vontade de colocar as mãos em um sistema operacional o qual possa modificar de acordo com suas necessidades? Você acha frustante quando tudo funciona bem no Minix? Sem mais noites em claro para fazer com que um programa funcione? Então esta mensagem pode ser exatamente para você. :)

Como eu mencionei há um mês, estou trabalhando em uma versão livre de um sistema operacional similar ao minix para computadores AT-386. Ele finalmente alcançou o estágio onde pode ser utilizado (ou não, dependendo do que você deseja), e eu estou disposto a colocar os fontes disponíveis para ampla distribuição. Ele está apenas na versão 0.02, mas eu tenho executado nele, sem problemas, programas como bash, gcc, gnu-make, gnu-sed, compress, etc.
"


1990 - A FSF já tinha obtido ou escrito vários componentes importantes do sistema operacional GNU, com exceção de um kernel.

1991 - Em 5 de outubro deste ano, Linus Torvalds anuncia a primeira versão oficial do Linux.

1992 - No início deste ano, o Linux se integra a GNU com o objetivo de produzir um sistema operacional completo. E desde então, nunca mais parou! E só vem crescendo e sendo melhorado, desde então.










A História



A história do Linux começa no ano de 1991, pelas mãos de um estudante universitário finlandês chamado Linus Torvalds. O Linux foi criado por ele, não totalmente do "zero", mas sim como uma variação do MINIX.

O MINIX é um sistema operacional simples, criado por Andrew S. Tanenbaum, um renomado professor de computação que é conhecido pelos diversos livros que escreveu para a área.

Tanenbaum disponibilizou o MINIX principalmente para servir de auxílio no ensino de computação. Trata-se de um sistema operacional simples, que exige poucos recursos de hardware e cuja primeira versão foi lançada em 1987.

Dadas as suas finalidades acadêmicas, não só o MINIX foi disponibilizado de maneira gratuita e livre, como também o seu código-fonte completo. Assim, os estudantes de computação podiam - e podem - estudá-lo inteiramente para desenvolver suas habilidades ou mesmo para criar projetos derivados. Foi assim que Linus Torvalds entrou nesta história.

A relação do Linux - e do MINIX - com o UNIX
O MINIX também não foi escrito do "zero". Trata-se, na verdade, de um projeto baseado em um sistema operacional que tem grande participação na história da computação: o UNIX.

O surgimento do UNIX se deu em 1969, como um projeto da Bell Labs, laboratório pertencente à AT&T. Mas somente em meados da década seguinte tornou-se um sistema efetivamente disponível no meio acadêmico, o que permitiu a sua evolução e o surgimento de variações.

O UNIX, na verdade, começou em meados dos anos 1960 como um projeto a ser desenvolvido por um grupo de habilidosos programadores, entre eles, Ken Thompson e Dennis Ritchie: um sistema operacional de nome Multics.

O Multics era um projeto ambicioso, mas enfrentou vários problemas, entre eles, falta de recursos computacionais. Assim, no mesmo ano, Ken Thompson decidiu criar algo mais "realista", chamando o novo projeto de Unics. Tempos depois, o nome foi mudado para UNIX, denominação que permanece até hoje.

Apesar de haver outros programadores envolvidos com a criação do UNIX, Ken Thompson e Dennis Ritchie são os nomes mais lembrados porque ambos, em 1973, praticamente reescreveram o UNIX a partir da linguagem C.

C é uma criação de Dennis Ritchie, daí o seu comprometimento com o trabalho envolvendo a linguagem e o UNIX. Por causa de seus recursos, a linguagem passou a ser utilizada em vários outros projetos mais complexos, inclusive no desenvolvimento de outros sistemas operacionais, fazendo com que o seu criador fosse reconhecido mundialmente como um dos grandes nomes da computação (infelizmente, Dennis Ritchie faleceu eum outubro de 2011).

O UNIX teve grande aceitação não somente em universidades, mas também em ambientes corporativos, resultando no surgimento de variações diversas do sistema, como as versões BSD e o Solaris. O MINIX, assim como o Linux, é uma delas, o que não quer dizer que ambos sejam iguais ao UNIX, mas notoriamente parecidos.


O surgimento do Linux
Linus Torvalds, então com quase 20 anos, começou a estudar ciência da computação na Universidade de Helsinki, na Finlândia, em 1988. Cerca de dois anos depois, aproveitando o conhecimento que tinha e estava adquirindo sobre a linguagem C, decidiu criar a sua própria implementação de um terminal em seu recém obtido computador 80386, principalmente para acessar o servidor UNIX da instituição de ensino. Isso porque ele já havia testado o MINIX para esta finalidade, mas não estava satisfeito com os seus recursos.

A intenção de Torvalds era a de fazer com que o projeto rodasse especificamente em sua máquina 80386, com o desenvolvimento sendo feito a partir do MINIX. O trabalho avançou de tal forma que chegou um ponto onde Torvalds já tinha um kernel funcional em mãos.

Em 1991, Linus Torvalds decidiu divulgar abertamente o seu projeto. Para isso, publicou mensagens na Usenet (uma espécie de antecessora da internet, baseada em troca de mensagens) pedindo sugestões e colaborações para a sua iniciativa.

Eis a íntegra da primeira mensagem postada em 25 de agosto de 1991:
Em inglês:

From: torvalds@klaava.Helsinki.Fi (Linus Benedict Torvalds)
Newsgroups: comp.os.minix
Subject: What would you like to see most in minix?
Summary: small poll for my new operating system
Keywords: 386, preferences
Message-ID: <1991Aug25.205708.9541@klaava.Helsinki.FI>
Date: 25 Aug 91 20:57:08 GMT
Organization: University of Helsinki
Lines: 20

Hello everybody out there using minix -

I'm doing a (free) operating system (just a hobby, won't be big and
professional like gnu) for 386(486) AT clones. This has been brewing
since april, and is starting to get ready. I'd like any feedback on
things people like/dislike in minix, as my OS resembles it somewhat
(same physical layout of the file-system (due to practical reasons)
among other things).

I've currently ported bash(1.08) and gcc(1.40), and things seem to work.
This implies that I'll get something practical within a few months, and
I'd like to know what features most people would want. Any suggestions
are welcome, but I won't promise I'll implement them :)

Linus (torvalds@klaava.Helsinki.Fi)

PS. Yes - it's free of any minix code, and it has a multi-threaded fs.
It is NOT protable (uses 386 task switching etc), and it probably never
will support anything other than AT-harddisks, as that's all I have :(.


Tradução para português:
Assunto:

O que você gostaria de ver no minix?

Summary:

Pequena pesquisa para o meu novo sistema operacional

 

Olá a todos que usam o minix -

 

Estou fazendo um sistema operacional (livre - apenas como um hobby,
não será algo grande e profissional como o GNU

) para

máquinas AT 386 (486). Ele tem sido trabalhado desde abril, e

está começando a ficar pronto. Eu gostaria de

opiniões sobre coisas que as pessoas gostam/não gostam no

minix, já que o meu SO lembra um pouco ele (mesmo layout

físico do sistema de arquivos (por motivos práticos

),

entre outros).

 

Eu já portei o bash (1.08) e o gcc (1.40) e as coisas parecem

funcionar. Isso indica que conseguirei alguma coisa prática

dentro de alguns meses, e gostaria de saber quais recursos as pessoas

mais gostaria de ter. Todas as sugestões serão

bem-vindas, mas não prometo implementá-las :)

 

Linus (torvalds@kruuna.helsinki.fi)

 

PS.

Sim - ele está livre de qualquer código do minix, e

tem sistema de arquivos com multi-threading. Ele NÂO é

portável (usa 386, chaveamento de tarefas, etc

) e provavelmente

nunca suportará qualquer coisa além de discos

rígidos AT, pois é tudo o que eu tenho :(.

 

Por esta mensagem, é possível perceber que Linus Torvalds não esperava que seu projeto fosse crescer tanto e se tornar tão importante para o advento da computação e da Tecnologia da Informação.

 

O início da trajetória do Linux não foi isenta de problemas. Uma dos obstáculos que Torvalds teve que enfrentar foram as críticas do professor Andrew S. Tanenbaum, que em suas declarações afirmou que o "Linux é obsoleto", especialmente por este ter "design monolítico".

 

Tanenbaum não estava contente com o fato de o Linux ter sido preparado especificamente para rodar com o processador 80386 que, além de caro, teria sua arquitetura substituída futuramente, o que, na verdade, não aconteceu.

 

Linus respondeu às críticas e continuou seu trabalho, contando com o apoio de cada vez mais pessoas. Com o passar do tempo, o Linux acabou inclusive sendo portado para várias outras plataformas, o que certamente contribuiu para o seu sucesso.

 

O nome Linux

 

O projeto já era realidade, mas não tinha um nome. Inicialmente, Torvalds atribuiu ao kernel a denominação Freax, uma mistura de free (livre) com freak (monstruoso, esquisito) e a letra 'x', para lembrar o UNIX.

 

O programador Ari Lemmke, depois de sugerir a Torvalds que colocasse o projeto em uma rede para torná-lo mais acessível, decidiu criar no servidor de FTP que hospedaria o software uma pasta de nome "linux" (muito provavelmente, uma mistura de Linus com UNIX), já que não havia gostado de Freak. A denominação "Linux" acabou "pegando" e é, tal como você vê, utilizada até hoje.

 

GNU/Linux

 

Você já deve ter visto em vários lugares - inclusive aqui no InfoWester - a expressão GNU/Linux. O que isso significa?

 

Tal como você já sabe, o Linux, por si só, é um kernel. Sozinho, um kernel não tem muita utilidade. É necessário "juntá-lo" a um conjunto de softwares para que tenhamos, efetivamente, um sistema operacional em condições de uso. É aí que o projeto GNU entra.

 

GNU é a sigla para um nome curioso: "GNU is Not UNIX (GNU Não é UNIX)". Trata-se de um projeto que teve início em 1984, pelas mãos de Richard Stallman, que queria criar um sistema compatível com UNIX, mas sem utilizar código deste.

 

Com o passar dos anos, o projeto foi ganhando recursos, como compiladores e editores de texto. Mas, faltava um elemento importantíssimo: um kernel. Stallman e seus colaboradores estavam trabalhando em um kernel de nome Hurd, mas dada a demora em concluí-lo, muitos daqueles que precisavam ou queriam usar software GNU decidiram recorrer a algo que souberam ser capaz de atender à necessidade que tinham: o Linux.

 

Então, basicamente, o Linux que temos hoje é conhecido por trabalhar em conjunto com software GNU. Por isso, muitos integrantes e simpatizantes de movimentos ligados ao software livre defendem a ideia de que, quando houver referência ao sistema operacional como um todo, o nome GNU/Linux seja utilizado. Acontece que, por comodidade ou simplesmente desconhecimento, muitas pessoas criaram o hábito de chamar todo o conjunto de Linux e não somente o kernel.

 

Distribuições Linux

 

Você já sabe que o Linux, ao contrário de outros sistemas baseados no UNIX ou mesmo deste, não é um sistema operacional como um todo. Mas, sendo um kernel disponível de maneira gratuita e com código-fonte aberto, qualquer pessoa ou organização pode juntá-lo a um conjunto de softwares para criar um sistema operacional customizado.

 

Ao longo dos últimos anos, foi justamente isso que aconteceu. Vários grupos ou mesmo empresas se organizaram e criaram seu próprio sistema operacional baseado em Linux. Cada uma delas recebe o nome de "distribuição Linux" (ou "distribuição GNU/Linux").

 

Há várias distribuições Linux por aí, para os mais diversos fins. Muitas inclusive fazem parte de negócios rentáveis, onde a empresa fornece, por exemplo, o sistema operacional de graça, mas obtém receita a partir de serviços de suporte técnico. Naturalmente, aquelas distribuições que se destinam ao segmento de usuários domésticos são mais populares.

 

Para o público em geral, a distribuição mais famosa é o Ubuntu, da empresa Canonical. Por padrão, são lançadas novas versões do Ubuntu em todos os meses de abril e outubro de cada ano. Há um esquema de numeração que ajuda a identificar a época de lançamento: a versão 11.10 do Ubuntu, por exemplo, foi lançada em 2011, no mês de outubro. É possível saber disso porque a indicação de ano aparece primeiro (11) e, depois do ponto, vem a indicação do número do mês (10).

 

O PenTest, ou teste de penetração é um método que avalia a segurança de um sistema de computador ou de uma rede, simulando um ataque de uma fonte maliciosa. O processo envolve uma análise nas atividades do sistema, que envolvem a busca de alguma vulnerabilidade em potencial que possa ser resultado de uma má configuração do sistema, falhas em hardwares/softwares desconhecidas, deficiência no sistema operacional ou técnicas contramedidas. Todas as análises submetidas pelos testes escolhidos são apresentadas no sistema, junto com uma avaliação do seu impacto e muitas vezes com uma proposta de resolução ou de uma solução técnica.


Objetivo
O objetivo do teste de penetração é determinar a viabilidade de uma ataque e mensurar o seu impacto, caso seja bem sucedido se descoberto. Ele age como um componente na auditoria de segurança.

Testes caixa branca vs. caixa preta
Os testes de penetração podem ser realizados de várias maneiras.A diferença mais comum é a quantidade de detalhes da implementação do sistema a ser testado, que estão disponíveis para os testadores.

O teste da caixa preta assume que não existe qualquer conhecimento prévio da infra-estrutura a ser testada. Sendo que o primeiro teste deve determinar a localização e extensão dos sistemas antes de iniciar a análise.

O teste da caixa branca assume que o testador possui total conhecimento da infra-estrutura a ser testada, incluindo o diagrama da rede, endereçamento IP e qualquer informação complementar.

Teste de caixa preta simulam um ataque de alguém que esteja familiarizado com o sistema, enquanto um teste de caixa branca simula o que pode acontecer durante o expediente de um trabalho ou depois de um "vazamento" de informações, em que o invasor tenha acesso ao código fonte, esquemas de rede e, possivelmente, até mesmo de algumas senhas.

 

 

Imagem

 

 

Sua aplicação

 

Os serviços oferecidos por empresas contratadas para usar o teste de penetração, podem ser uma simples varredura na organização dos endereços IP, abrir/fechar portas ou fazer uma auditoria completa no escopo da rede em busca de vulnerabilidade.

 

Fundamentos para realizar um Pentest

 

Um especialista em pentest deve conhecer algumas coisas para realizar tais ataques, tais como:

  • A cabeça de um cracker
  • Programação (avançado)
  • Ferramentas
  • Sites de busca
  • Engenharia social
  • Sistemas operacionais
  • Redes e servidores
  • etc

 

Vou explicar agora o porque de conhecer isso tudo:

 

Porque conhecer a cabeça de um cracker?

 

O cracker quer penetrar no sistema não é mesmo?! Ele usa as suas ferramentas para realizar o ataque, o que geralmente é um scanner de portas, um scanner de vulnerabilidades, um exploit, etc. O especialista de pentest deve conhecer estas mesmas metodologias e ter a mesma lógica do cracker, pois ele terá que agir da mesma forma para penetrar no sistema.

 

 

Porque ter conhecimentos ainda mais avançados em programação?

 

Às vezes o especialista em pentest não encontra a ferramenta que precisa, e por isso ele mesmo terá de desenvolver as suas. Seja em uma linguagem simples, como o Object Pascal (Dephi), até linguagens de médioa alto nível, como C e Assembly. Essas ferramentas podem variar desde um exploit até um scanner de vulnerabilidades, que tem como função procurar vulnerabilidades e falhas em um determinado sistema e aplicação.

 

 

Porque ter conhecimento em "ferramentas" e que ferramentas seriam essas?

 

Eu estou me referindo a ferramentas de segurança, que podem ser utilizadas para penetrar em um sistema. Essas ferramentas são bastante comuns em ataques. Podemos chamar de ferramenta um exploit, um scanner ou uma ferramente que auxilie ao efetuar o ataque. Existem ferramentas que realizam os testes em aplicações WEB tais como:

 

  • Dirb
  • MySqloit
  • Webroot
  • Nmap
  • Wireshark
  • e muitos outros

 

 

Porque ter conhecimento em sites de busca?

 

Os sites de busca podem ser utilizados para fazer um footprinting, que é aonde o especialista em pentest faz a busca a procura de informações do alvo.

 

 

Porque conhecer a engenharia social?

 

Simplesmente para enganar funcionários mal treinados que fornecem informações confidenciais não autorizadas.

 

 

Porque ter conhecimento em sistemas operacionais?

 

Para você trabalhar com pentest, você terá que saber explorar falhas, correto?! E para explorar um buffer overflow ou stack overflow, você precisa conhecer um sistema operacional Unix ou Windows e outros a fundo, concorda?! Este é um dos motivos para citarmos o conhecimento em sistemas operacionais, como fundamental ao realizar um pentest.

 

 

Porque ter conhecimento em redes e servidores?

 

Você deve conhecer a que serviço pertence cada porta, saber para que serve isso, aquilo, etc. Estes conhecimentos são de importância fundamental para se realizar um ataque. O especialista de pentest deve conhecer bem um firewall, um honeypot, IDS etc. Isso são alguns exemplos da área, que um profissional de segurança deve conhecer.

 

 

10 Melhores Distros Linux de segurança Live CD (Pen-Test, Forensics & Recovery)

 

1-BackTrack
2-Blackbuntu
3-Matriux
4-Operator
5-nUbuntu
6-BackBox
7-Knoppix STD
8-Samurai Web Testing Framework
9-PEENTO
10-LAS Linux

Distros de Pen-Test



Distros de Pen-Test são focadas em testes de seguranças e testes de penetração (pen tests), muito apreciada por hackers e analistas de segurança, podendo ser iniciado diretamente pelo CD (sem necessidade de instalar em disco), mídia removível (pendrive), máquinas virtuais ou direto no disco rígido.



Na minha opinião algumas das melhores Distros de segurança Live CD (Pen-Test, Forensics & Recovery)

1-BackTrack

Imagem


BackTrack é o resultado da fusão de duas distribuições Linux sobre Penetration Testing, Innovative Whax e Auditor, combinando as melhores características de ambas, e prestando especial atenção aos pequenos detalhes.

É focado em testes de seguranças e testes de penetração (pen tests), muito apreciada por hackers e analistas de segurança, podendo ser iniciado diretamente pelo CD (sem necessidade de instalar em disco), mídia removível (pendrive), máquinas virtuais ou direto no disco rígido.ideal para wireless cracking, exploiting, avaliação de aplicações web, aprendizagem, ou engenharia-social de um cliente.

Baseado no SLAX (Slackware), BackTrack fornece modularidade do usuário. Isto significa que a distribuição pode ser facilmente personalizado pelo usuário para incluir scripts pessoaisl, ferramentas adicionais, kernels personalizados, etc.

DOWNLOAD


BackBox Linux

Imagem


BackBox é uma distribuição GNU / Linux baseada no Ubuntu. Tem sido desenvolvido para realizar testes de penetração e avaliações de segurança. Projetado para ser rápido, fácil de usar e fornecer um ambiente de trabalho mínimo ainda completo, graças aos seus próprios repositórios de software, sempre sendo atualizado para a versão estável mais recente dos mais utilizados e mais conhecido éticos ferramentas de hacking.

Sua nova versão, que é Backbox 2,01 utiliza esses componentes: Ubuntu 11,04, Linux Kernel 2.6.38 e Xfce 4.8.0. A nova versão tem recursos interessantes que incluem a análise forense,Engenharia Reversa e ferramentas atualizadas como dradis, ettercap, john, web exploit, nmap, Engenharia Social Toolkit, sleuthkit, w3af , weevely, wireshark, etc .Esta distro pentesting faz parte do projeto Open Soluzioni, que é fundada por Raffaele Forte.

DOWNLOAD


NodeZero

Imagem


Node Zero é uma distro Ubuntu baseada para testes de penetração. Ele usa os repositórios do Ubuntu de forma que cada vez o Ubuntu libera um patch para seus bugs, você também será notificado para atualizações do sistema ou upgrades. Nodezero é famosa pela sua inclusão de THC Toolkit Ataque IPV6, que inclui ferramentas como alive6, detectar-new-ip6, dnsdict6, dos-new-ip6, falso-advertise6, falso-MIPv6, fake_mld6, fake_router6, implementation6, implementation6d, parasite6, recon6 , redir6, rsmurf6, sendpees6, smurf6, toobig6, e trace6. Node Zero foi formalmente conhecido como Ubuntu Pentest Edition e foi o primeiro Ubuntu / Gnome distro baseada pentesting que foi lançado.

DOWNLOAD


Blackbuntu

Imagem


Blackbuntu é outra distro testes de penetração baseada no Ubuntu, obviamente, por causa de seu nome. Ele usa o GNOME como sua interface gráfica e usa a versão do Ubuntu 10.10. As categorias de suas ferramentas incluem coleta de informações, mapeamento de rede, identificação de vulnerabilidades, Penetração, escalação de privilégios, Mantendo Acesso, Análise de Rede de Rádio, VOIP, Análise Forense Digital, Engenharia Reversa e outras ferramentas diversas como macchanger e ferramentas de auditoria Lynis.

DOWNLOAD


Samurai web Testing Framework

Imagem


Samurai web Testing Framework é uma distro Linux livre que se concentra na pesquisa de vulnerabilidades aplicações web, hacking, web pentesting, e é pré-configurado como ambiente web para você tentar hackear eticamente e sem violar nenhuma lei.

Esta é uma distro para os pen-test que querem combinar técnicas de rede e de aplicativos webs .

A estrutura usa o componente Ubuntu 9.04.Samurai web Testing Framework é um projeto dos InGuardians Inc.

DOWNLOAD


Knoppix STD

Imagem


STD significa Distribuição Ferramentas de Segurança e é baseado no Knoppix. Esta distro foi atualizado em 2009, o que significa que não tem atualizações agora ao contrário das distros anterioes acima, mas o Ambiente de Trabalho fluxbox e muito leve e suave. Eles têm algumas ferramentas interessantes e tem um recurso interessante que é a seção de criptografia. Pode não funcionar em alguns hardwares novos por causa da desatualização do sistema esquecido, mas ele funciona muito bem no virtualbox.

DOWNLOAD


Pentoo

Imagem


Pentoo é baseado no Gentoo Linux e é uma distro pentesting que usa Enlightenment E17 como seu ambiente de trabalho. É papel de parede padrão é realmente bonito.

Tem uma coleção de ferramentas bastante boas para pentest, CUDA / OpenCL apoio fissuras com ferramentas de desenvolvimento e pyrit software GPU baseada em crack instalado na distro.

DOWNLOAD


WEAKERTH4N Linux

Imagem


WEAKERTH4N é uma das distros para pen-test mais incríveis que existe.E ainda está na sua versão BETA, o desenvolvedor tem feito um bom trabalho para este projecto que tem algumas ferramentas legais para pentest incluídas nesta distro.Foi construído a partir de Squeeze Debian e usa o Fluxbox como ambiente de Desktop. Você pode instalar essa distro pentest usando Installer Remastersys personalizada. Tem um monte de ferramentas para wireless.Tem os recursos antigos do Android Hacking.

DOWNLOAD


Matriux Krypton

Imagem


Matriux Krypton é uma outra distribuição de segurança de código aberto para hackers éticos e pen-testers. Compilado com um conjunto legal de ferramentas que eles chamam de arsenais, essa distro pode ser usado para testes de penetração ética sistema de hacking, e administração de rede, as investigações forenses cibernéticas, testes de segurança, análise de vulnerabilidade, exploits, cracking, recuperação de dados e muitos mais.

Eu também adoro a sua tela de inicialização que diz "Software é como o sexo, é melhor quando é livre" (Linus Torvalds).

DOWNLOAD


PHLAK

Imagem


PHLAK é uma distribuição modular Linux Live CD baseada no Morphix, criado por Alex de Landgraaf, focada nas ferramentas de segurança de rede.

PHLAK significa Professional Hacker Linux Assault Kit e foi criada por James Hartman & Shawn Hawkins. Inclui as mais diversas ferramentas de segurança de rede pois foi criada para ser a única ferramenta de segurança de rede de alta performance para analisar, realizar testes de penetração no sistema, perícias forenses e auditoria de segurança.


DOWNLOAD

Evolução dos sistemas Microsoft para dispositivos Móbile

Windows Mobile
O Windows Mobile é a plataforma para smartphones da Microsoft, que vem se esforçando para manter o sistema relevante frente aos concorrentes. Diferente do que temos nos PCs, onde o Windows possui quase 90% do mercado, o Windows Mobile tem uma participação relativamente pequena nos smartphones (pouco superior aos 15%), que a Microsoft terá que se esforçar para manter com a entrada de novos concorrentes, como o iPhone OS e o Android.

Assim como o PalmOS, ele começou como um sistema operacional destinado a palmtops e evoluiu ao longo dos anos, passando a ser usado em smartphones. Tudo começou com um punhado de handhelds baseados no Windows CE, como o Cassiopeia A-20 e o Philips Velo 1. Eles utilizavam telas monocromáticas HVGA (640×240) sensíveis ao toque e uma interface que lembrava uma versão simplificada do Windows 95/98, incluindo versões pocket do Word, Excell e do Internet Explorer. Na época, ainda não existiam redes wireless e muito menos conexões via EDGE ou 3G, de forma que a única forma de navegar usando o handheld era comprar um modem discado PCMCIA e conectar usando uma linha telefônica.

Imagem
Cassiopeia A-20 e sua área de trabalho em Windows CE


A idéia era que os aparelhos servissem como opções mais leves e baratas que os notebooks, permitindo editar documentos e executar outras tarefas básicas. O problema era que eles eram muito lentos e limitados e na época ainda não existiam muitos softwares para a plataforma, de forma que eles acabaram não emplacando. Alguns fabricantes, incluindo a HP, continuaram lançando modelos aperfeiçoados, incluindo processadores mais rápidos e telas coloridas, mas nenhum se tornou um grande sucesso de vendas.
Com o sucesso do Palm Pilot, os fabricantes se apressaram em adotar o formato de palmtop, trocando a idéia de "mini-notebook" pela de organizador pessoal, formato que foi batizado de "Pocket PC". Devido às dimensões reduzidas, eles adotaram o uso de telas QVGA (320×240), formato que se tornou norma nas gerações seguintes. A primeira geração de aparelhos, como o Cassiopeia E-10 era realmente muito ruim, beirando o inutilizável, mas com o tempo a plataforma melhorou e conseguiu se estabelecer.

Imagem
Cassiopeia E-10


A chancela oficial veio com o lançamento do Pocket PC 2000, uma versão modificada do Windows CE 3.0, com otimizações para o novo formato. A partir daí, o Windows CE continuou sendo desenvolvido como um sistema para dispositivos embarcados, enquanto o Pocket PC (e futuramente o Windows Mobile) passou a ser uma plataforma baseada nele, que inclui os drivers, aplicativos e as modificações necessárias para o uso em palmtops e smartphones.
O Pocket PC 2000 foi seguido pelo Pocket PC 2002, que deu origem aos primeiros smartphones baseados na plataforma. A partir daí, a Microsoft decidiu mudar o nome do sistema, dando origem ao Windows Mobile 2003.
Tradicionalmente, os aparelhos baseados no Windows Mobile utilizam telas QVGA, de 240×320. A partir do 2003 foi adicionado suporte ao uso de telas em modo landscape e também de telas VGA, com resolução de 640×480, que (desde que suficientemente grandes) melhoram bastante a usabilidade, facilitando a visualização de páginas e a edição de documentos. Um exemplo de aparelho que explorou esta possibilidade foi o Dell Axim x51v, que utilizava uma tela VGA de 3.7".
Continuando, o próximo da lista foi o Windows Mobile 5.0, que marcou a migração do uso de memória SRAM para o uso de memória flash para armazenamento de dados e aplicativos (persistent storage). Essa mudança simplificou o design dos aparelhos, permitindo o uso de baterias removíveis (já que o smartphone não perde mais os dados quando a bateria é removida), além da possibilidade de instalar aplicativos diretamente no cartão de memória, poupando a memória interna.
Além de diversas melhorias nos aplicativos, melhorias no suporte a bluetooth, suporte a receptores de GPS e outras funções, outra novidade digna de nota foi o suporte à operação como host USB mass storage, o que permite que o cartão de memória seja acessado através do PC ao plugar o smartphone na porta USB. Este é um recurso que hoje em dia tomamos como certo, mas que antigamente era oferecido apenas nos por softwares comerciais, tanto no caso do Windows Mobile quanto no caso do PalmOS. Um dos argumentos de venda dos palmtops Sony Clié era justamente que eles já vinham com um software para acesso ao cartão embutido.
Os smartphones baseados no Windows Mobile podem ser divididos em dois grupos: os Pocket PCs, que incluem telas sensíveis ao toque e podem ser operados da mesma forma que um PDA e os smartphones clássicos, que abandonam o uso da tela touch-screen em favor do uso de um direcional e botões de atalho. Em ambos os casos, o fabricante pode escolher entre usar apenas a tela touch screen, incluir um teclado QWERT ou incluir um teclado numérico.

Ver tm tamanho realVer tm tamanho real
Exemplos de smartphones das primeiras gerações


Acompanhando a diversificação do mercado, o Windows Mobile passou (a partir da versão 2003) a ser dividido em três versões: "Pocket PC" (a versão clássica, para palmtops sem função de telefone), "Pocket PC Phone" (smartphones com tela touchscreen) e "Smartphone" (para os aparelhos sem touchscreen).
A partir do Windows Mobile 6, a Microsoft adotou uma nova (e confusa) nomenclatura para as diferentes edições do Windows Mobile. A versão para smartphones sem tela touchscreen passou a se chamar "Windows Mobile 6 Standard", enquanto a versão para Pocket PCs, com suporte a touch-screen passou a se chamar "Windows Mobile 6 Professional".

As diferenças entre as duas versões não se resumem apenas ao suporte ou não a telas touch screen, mas a mudanças na interface e também mudanças no grade de aplicativos compatíveis, já que os aplicativos destinados à versão Standard precisam ser adaptados para serem manipulados através de menus e do teclado. Com isso, muitos aplicativos passaram a ser disponibilizados em duas versões, como no caso do Skype:

Imagem

Visualmente, o Windows Mobile 6 parece ser bastante diferente da versão 5, já que ele trouxe melhorias visuais, abandonando o tradicional estilo "Windows 95" em favor de um visual mais similar ao do Windows Vista. Apesar disso, ele é ainda baseado no Windows CE 5 (na versão 5.2 para ser mais preciso), assim como o Windows Mobile 5.

As principais mudanças foram feitas na interface e nos aplicativos integrados, sem grandes mudanças na estrutura do sistema. Isso faz com que existam relativamente poucos problemas de compatibilidade entre os novos aparelhos e os aplicativos desenvolvidos para o Windows Mobile 5, sem falar na boa compatibilidade entre os aplicativos atuais e os aparelhos antigos.

Ver tm tamanho realVer tm tamanho real
Interface do Windows Mobile 6


Completando a família, existe ainda o "Windows Mobile 6 Classic", que é destinado a palmtops, sem funções de smartphone, que hoje em dia são cada vez mais raros. Com o crescimento no volume de produção dos smartphones, a diferença de preço caiu, de forma que praticamente nenhum fabricante ainda se arrisca a lançar PDAs stand-alone. Um bom exemplo é a Dell, que descontinuou a linha Axim em fevereiro de 2007.

Duas características bastante criticadas do Windows Mobile são a interface, excessivamente complexa e pouco funcional em telas QVGA, e também o desempenho, que é inferior ao dos concorrentes diretos. O Windows Mobile era pesado na época em os Pocket PCs usavam processadores de 75 MHz, continuou sendo pesado nos aparelhos com processadores de 200 MHz e continua sendo pouco responsível mesmo nos processadores de 350 ou 400 MHz, usados atualmente. O sistema simplesmente se adapta ao hardware disponível, consumindo todos os ciclos de processamento. :)

Os pontos fortes, por outro lado, incluem a relativa facilidade em desenvolver para a plataforma, já que desenvolvedores acostumados com as ferramentas de desenvolvimento para as versões desktop do windows acabam encontrando muitas similaridades e também a boa integração com o Office, Exchange e outros produtos da Microsoft. Caso esteja interessado, você pode baixar o SDK no http://www.microsoft.com/downloads/ (faça uma pesquisa por "Windows Phone SDK").

Windows Phone
Em 2010 a Microsoft lançou sua nova plataforma Mobile: Windows Phone.
O Windows Phone vem para substituir a plataforma Windows Mobile e chega com muitas novidades, seja na interface quanto nos dispositivos.
A interface utilizando azulejos (tiles) tem o objetivo de dar acesso a informações básicas dos aplicativos já a partir da tela inicial.
Os dispositivos, por sua vez, foram libertados do teclado. A nova versão, totalmente touch-screen permite que as aplicações tenham mais liberdade utilizando todos os recursos da tela.

2007: Nascimento do sistema móvel da maçã

O ano era 2007, só começou realmente (9 de janeiro), e a Apple tinha algo acontecendo que ele queria ensinar ao mundo, foi o iPhone, um smartphone multi-tela que sabe compreender os complexos processos de um terminal móvel para fazer assimilado por qualquer pessoa, através de uma interface simples e tela projetada para entender gestos complexos. Naquela época, o sistema operacional foi menor no sentido de que era uma plataforma fechada e barrada, porque as aplicações nativas que foram construídos ali, que a Apple tinha projetado, e pouco mais: Maps, Mail Fotos, iPod, calendário, calculadora...


Imagem

O que aconteceu com as empresas que desejam incorporar o software certo para gadget? A Apple compreendeu que essas empresas de software poderia realizar os seus próprios desenvolvimentos sobre o browser, o Safari, alavancando o poder dele. É claro, esta solução não era o mais ideal e, gradualmente, mostrou aqueles que queriam trazer o iPhone mais um passo e falar sobre o jailbreak. Este método de "abrir" o iPhone veio rapidamente, como se o terminal é posto à venda em 29 de junho de 2007, em 10 de julho e foi capaz de fazê-lo. Nascido originalmente como a melhor maneira de usar o iPhone fora dos Estados Unidos abriu a sua exclusividade com a tecnologia EDGE, o jailbreak deu lugar imediatamente para outros desenvolvimentos independentes, tais como a inclusão de músicas da biblioteca como toques e mensagens. O iPod touch é introduzido pela primeira vez em setembro daquele ano não fizeram nada, mas continuar a promover esta nova tendência.

Quando a 09 de agosto de jogo viu o primeiro oficial não-nativos, em Cupertino percebeu que havia potencial neste campo e teve de usá-lo, é por isso que em 27 de outubro, a Apple lançou o primeiro kit de desenvolvimento é disponibilizados para os engenheiros de software para o ano seguinte, em março. O nível seguinte foi cantada, foi uma evolução lógica. Se depois disso ser autorizados a desenvolver aplicativos de terceiros teria de estabelecer um lugar para ficar e se ofereceu para você, e é assim que a App Store nasceu em 11 de Julho, logo após a chegada do iPhone 3G foi já incorporados a segunda versão do sistema operacional, iPhone OS 2.0.



iPhone OS 2.0, a explosão de aplicações


Falando sobre o iPhone OS 2.0 é precisamente a App Store e iPhone 3G, não havia recursos introduzidos acesso fornecido apenas para aplicações de terceiros. O iPhone original também pode atualizar para esta versão para que o número da base de usuários foi grande eo número de descargas não são parou de crescer. Para se ter uma idéia de seu enorme sucesso, a menos de seis meses depois, no início de 2009, a App Store atingiu 500 milhões de downloads e quatro meses depois, número que dobrou, para que o crescimento foi exponencial e muito aguda (22 de janeiro de 2011 a aplicação foi baixado número 10.000.000.000).


Imagem

Desenvolvedores foram rápidos para ver o recife e criação de aplicativos dedicados que foram um enorme sucesso, graças a essas histórias de dinheiro rápido do número de aplicações no ecossistema aumentou de cerca de 500 em meados de 2008 para mais de 200 mil atualmente existentes adaptados o iPhone especificamente.


iPhone OS 3.0, a consolidação


O maquinário tinha começado, a Apple criou o dispositivo ideal e da inércia e só sabia que iria convencer os usuários a adquirir o smartphone. No entanto, havia uma pequena atualização que chegou em março de 2009, foi chamado iPhone OS 3.0. As principais características desta versão foram notificações push para alertar os usuários dos processos que ocorrem no aplicativos como estes foram fechados, eo lançamento de um SDK com mais de 1.000 APIs que os desenvolvedores poderiam explorar em seus próprios projetos.


Imagem

Apesar de notificações push foram criticados no início porque não permitir a execução do fundo de aplicações, a empresa tinha determinado que este foi o melhor método de manter algum controle sobre eles, sem afetar a bateria ou ligar o dispositivo. No entanto, a empresa manteve um ás na manga, falamos sobre o iPad, um tablet da Apple que foi lançado em janeiro de 2010 e foi lançado em abril do ano passado, ou seja. Claro, era hora de mudar o nome do sistema operacional para uma descrição mais completa, a renovação quarto estava certo ao virar da esquina.


iOS 4, como multi-tasking?


Imagem

Em 21 de junho de 2010 foi atualizado para IOS versão do sistema operacional 4.0 que estava com ele os seguintes princípios:

  • Multitarefa: finalmente teve aplicativos em execução em segundo plano, embora isso não era multitarefa, e ainda é hoje, completa. A Apple decidiu continuar a pensar sobre o poder da bateria do dispositivo e é por isso que permitiu uma corrida de fundo de alguns processos específicos e não totalmente desenvolvidos.
  • Pastas: muitas aplicações nas telas do iPhone, iPhone e iPod não pode ser organizada sem a possibilidade de agrupá-los em pastas, uma função simples, mas útil.

Esta atualização foi quem lançou o iPhone 3G e já deixou de suportá-lo a partir da versão 4.3.

Versão Atual


O iOS 5.1 é a versão atual. Nela foram acrescentadas mais de 200 novas funções em relação ao seu antecessor, iOS 4, como edições de fotos, atalho para câmera na tela de desbloqueio, aplicativos novos como Lembretes e Banca, novo centro de notificações e outras funções. A quinta versão do sistema operacional móvel da Apple, é compatível com os seguintes aparelhos:

  • iPhone 3GS, iPhone 4 e iPhone 4S.
  • iPod Touch de 3ª geração e iPod Touch de 4ª geração.
  • iPad (1ª geração), iPad 2 (2ª geração) e Novo iPad (3ª geração).


Imagem

O Android é um sistema operacional móvel que roda sobre o núcleo Linux, embora por enquanto a sua versão do núcleo Linux divirja da versão oficial. Foi inicialmente desenvolvido pelo Google e posteriormente pela Open Handset Alliance, mas a Google é a responsável pela gerência do produto e engenharia de processos. O Android permite aos desenvolvedores escreverem software na linguagem de programação Java controlando o dispositivo via bibliotecas desenvolvidas pela Google. Em Janeiro de 2012, existiam mais de 400 mil aplicações disponíveis para Android.

Imagem
Diagrama da arquitetura do Android.



História

Em julho de 2005 a Google adquiriu a Android Inc., uma pequena empresa em Palo Alto, California, USA.No tempo da Google conduzido por Andy Rubin, foi desenvolvida uma plataforma de telefone móvel baseado em Linux, com o objetivo de ser uma plataforma flexível, aberta e de fácil migração para os fabricantes.

Mais especulações que a Google estava entrando no mercado de telefones móveis surgiram em Dezembro de 2006, com as noticias da BBC e The Wall Street Journal sobre a Google estar disposta a entrar no mercado de buscas e aplicações para telefones móveis e trabalhar duro para isso. A imprensa reportou rumores de um telefone desenvolvido pelo Google. Atualmente, é desenvolvido em parceria com a empresa de Software, Sun corp.

O primeiro telefone comercialmente disponível a rodar no sistema Android foi o HTC Dream, lançado a 22 de outubro de 2008.

Em 27 de maio de 2010 Matias Duarte, antigo diretor da interface do WebOS, junta-se à equipa do Android após a compra da Palm pela HP.

O primeiro tablet comercialmente disponível a rodar o sistema operativo Android 3.0 foi o Motorola Xoom, lançado em 5 de janeiro de 2011 nos Estados Unidos.

Imagem
Android 4.0 no Galaxy Nexus



Características
Com o lançamento do SDK, características e especificações para o Android são facilmente distribuídas.


Handset layouts
A plataforma é adaptada tanto para dispositivos VGA maiores, gráficos 2D, bibliotecas gráficas 3D baseadas em OpenGL ES especificação 2.0 e os layouts mais tradicionais de smartphones.

Armazenamento
É utilizado SQLite para armazenamento de dados.

Mensagens:
Tanto SMS como MMS são formas disponíveis de envio de mensagens.

Navegador
O navegador disponível no sistema é baseado no framework de Código aberto conhecido como WebKit.

Máquina virtual Dalvik
Aplicações escritas em Java são compiladas em bytecodes Dalvik e executadas usando a Máquina virtual Dalvik, que é uma máquina virtual especializada desenvolvida para uso em dispositivos móveis, o que permite que programas sejam distribuídos em formato binário (bytecode) e possam ser executados em qualquer dispositivo Android, independentemente do processador utilizado. Apesar das aplicações Android serem escritas na linguagem Java, ela não é uma máquina virtual Java, já que não executa bytecode JVM.

Multimídia
O sistema irá suportar formatos de áudio e vídeo como: MPEG-4, H.264, MP3, e AAC.

Suporte Adicional de Hardware
O Android é totalmente capaz de fazer uso de câmeras de vídeo, tela sensível ao toque, GPS, acelerômetros, e aceleração de gráficos 3D.

Ambiente de desenvolvimento (SDK)
Inclui um emulador, ferramentas para debugging, memória e análise de performance. O Eclipse (IDE) (atualmente 3.4 ou 3.5) poderá ser utilizado através do plugin Android Develpment Tools (ADT).

Licenciamento
O Android está disponível como código aberto desde 21 Outubro de 2008. A Google publicou todo o código sob a licença Apache.

O Symbian OS é um sistema operacional criado para rodar nos telemóveis "multimídia" com suporte para câmeras fotográficas, MMS, wireless, bluetooth, entre outras funções.

Este sistema operacional é predominantemente baseado em um ambiente gráfico bastante simples. Atualmente é utilizado na maioria dos recentes modelos de telemóveis dos grandes fabricantes.

A grande preocupação do Symbian OS é evitar ao máximo o desperdício dos recursos do celular, como bateria e memória. Para isso ele conta com diversos mecanismos que são eficientes ao tratar com esses problemas. Em sua versão mais nova, a 9.5, foi reduzido o consumo de memória em 30% em relação a versão anterior.


História

O Symbian é um consórcio de várias empresas, fundado em 1998 e que está em plena operação até os dias de hoje. Outrora formado pelas empresas Nokia, Siemens, Samsung, Ericsson, Sony Ericsson e Panasonic, atualmente pertence a Nokia, que adquiriu a quase totalidade de suas ações em dezembro de 2008.

Empresas não-pertencentes ao consórcio podem licenciar o Sistema Operacional para utilização em seus produtos.

Era a empresa que fornecia o sistema EPOC 32 que equipava os handhelds da inglesa Psion no início da era de equipamentos portáteis por volta de 1998. A própria Psion era a maior acionista da empresa e investia bastante para conseguir uma fatia do mercado de sistemas operacionais de aparelhos portáteis.

As outras empresas que faziam parte da Symbian eram Nokia, Motorola e Ericsson.

Com a explosão de consumo dos telefones celulares, a Symbian começou a desenvolver sistemas para as grandes empresas do ramo, principalmente Nokia, Ericsson e Motorola. A grande maioria dos celulares modernos de hoje são operados pelo sistema operacional Android. Ele é um sistema totalmente modular, e permite que cada empresa crie sua própria interface. Portanto este sistema não tem uma cara definida. Pode ser um simples sistema de textos em telas monocromáticas, ou um completo sistema operacional tão potente como o PalmOS ou PocketPC que já pode ser encontrado nos SmartPhones da Nokia, SonyEricsson, Foma, Siemens, Motorola, dentre outras.

Imagem
O Nokia 6600 é um famoso exemplo de telemóvel que possui o Symbian O.S.



Vantagens:
É um sistema aberto e de baixo custo (Em torno de $4 por aparelho)
Possui recursos para gerenciar e utilizar pouca bateria e memória
Permite a instalação de softwares de terceiros
Baseado em padrões de comunicação e dados.
Mecanismos que asseguram a transferência e armazenamento de dados.
Desfruta muito bem de todas as áreas do aparelho. Memória RAM, Processador, Processador Gráfico, etc.
É um sistema operativo mais estável e seguro com relação aos seus concorrentes.

Formatos de arquivos Symbian:
  • .sis
  • .sisx


Plataforma para desenvolvimento
SymbianOS é um sistema operacional muito versátil, permite o desenvolvimento de aplicativos em diversas linguagens como:

  • Symbian C/C++
  • JavaME
  • FlashLite
  • HTML5
  • Perl
  • Python
  • Ruby
  • Lua
  • Acelerômeter
  • QT


Symbian C/C++
É uma variação do padrão C++ feita para Symbian, o contexto da linguagem é muito parecido mudando apenas algumas funções e tipos, com um forte uso de convenção de nomes.

Mudanças do padrão C/C++
Os tipos de variáveis foram alteradas, apesar de ser possível o uso de variáveis padrão C/C++ é aconselhável o uso desses novos tipos:

TInt = Integer 32 bits TBool = Booleano TReal = Floating Point (float), entre outros.

Houve algumas mudanças também na forma que o Symbian trata excepções, estas mesmas são chamadas de Leaves, foi uma forma de simplificar as excepções padrões de C++ , para reduzir o código e o uso de memória.

Desenvolvimento
Carbide C++ - IDE gratuita baseada no Eclipse oferecida pela Nokia. Nas versões comerciais contamos com recursos extras como debug-on-device , editor de UI, entre outros...

Series 60

Séries 60 é uma plataforma desenvolvida pela Nokia e utilizada também pela Ericsson. Atualmente é a maior plataforma para smartphones, utiliza o Symbian como sistema operacional.


 

Tecnologia Ploneboard
Ações do documento
Juliano Araújo