Clique no PLAY para leitura automática do texto:

terça-feira, 7 de junho de 2016

A Computação e o Linux - História


A Computação e o Linux - História


Para quê serve este artigo? Para alguém que nada sabe sobre tecnologia e Linux este artigo tem um objetivo bem clarificado, o de realizar uma introdução ao tema. Mas e quem já possui noções até mesmo avançadas sobre o assunto seria interessante a sua leitura? Obviamente quem se aprofunda na área é porquê gosta do quê estuda, e aí sempre cabe mais conhecimento. Estudiosos autodidatas sabem intuitivamente que só decorar não adianta, é preciso entender, contextualizar, e pra isso a pesquisa permanente é um requisito. 


Nisto reside a curiosidade como sentimento chave. Então sabemos que muitos irão ler este artigo pela curiosidade de seu conteúdo. Pode ser então que não encontrem nada novo. Mas ainda sim sua leitura terá valido a pena pois relembrar dados é um processo que permite a reorganização lógica da teoria quando se avança a experiência. Mas então o quê gostaríamos de reforçar neste artigo? Em nossa opinião, realizar introduções ao Linux sem contextualizá-las no próprio movimento do avanço da tecnologia, da computação mais especificamente, é realizar uma introdução incompleta. Percebemos que há muitos livros e materiais disponibilizados na internet em que o surgimento do Linux é apresentada de forma isolada, como se não houvesse, por exemplo, integração com a História da Computação. 

Existem até muitos cursos que se pretendem ser uma “Introdução ao Linux”, mas nada falam sobre a sua relação com a História da Computação. Sabemos da dificuldade desta empreitada e o que desejamos apenas é uma proposta de raciocínio organizando as informações quase que linearmente. Ainda sim, mesmo sabendo que nossos esforços serão incompletos, esta é apenas uma contribuição, e por isso ficamos felizes em trazê-la à público neste artigo. 

Pensamos como John Backus, criador do Fortran, que em discurso em 1994 ao receber o prêmio Charles Stark Draper, disse: “Na Ciência e em todo trabalho de criação nós falhamos repetidas vezes. 
Normalmente para cada ideia bem sucedida há dúzias de outras que não funcionaram”.


E por onde devemos começar então? Bom, poderíamos refletir sobre a matriz sob a qual nasceu toda a tecnologia, a sua relação com a matemática e o senso numérico do ser humano. Mas o que é senso numérico? Embora animais como o cavalo Hahns tenham feito parte da História da aritmética, os humanos se diferenciam radicalmente de outros animais no que se refere ao senso numérico. Apesar disto, vale lembrar que os estudos com relação as capacidades de senso numérico em outros animais fora o humano são quase inexistentes. Um argumento válido no entanto, é que os equipamentos para este tipo de pesquisa são caros e caberia levantar o debate sobre a relativa importância da priorização de investimentos governamentais nesta área da saúde. Ainda sim valeria pensar que se entendêssemos as diferenças e a relação da neurociência entre as diversas espécies poderíamos resolver, quem sabe, muitos mais problemas e ampliar o nível de conscientização planetária. O fato é que tecnologias como Magnetoencefalografia permitem mapear em parte como nosso cérebro trabalha ao desenvolver seu senso numérico. Para se ter um exemplo vejamos a teoria da existência de módulo numérico em nosso cérebro que trabalharia melhor sob consumo de glicose. Amantes do café com muito açúcar e que se saem bem com a programação provavelmente vão dizer que não precisariam confirmar esta teoria para saber que o tão verdadeira é! Sabemos que os problemas matemáticos fazem parte da nossa evolução e que a forma de resolver estes problemas contribuiu para o desenvolvimento da tecnologia. Mas é preciso estar claro que os numerais escritos só surgiram nas civilizações antigas como a egípcia, babilônica e chinesa. Estas civilizações baseavam-se na repetição de símbolos. O uso de letras do alfabeto como símbolos só foi atribuído mais tarde com gregos e romanos. É certo que muita coisa rolou no passado, principalmente entre o Oriente e o Ocidente, vejamos por exemplo o fato de que em 1202 Leonardo de Pisa publicou a obra “O Livro do Ábaco”, após ter contato com a aritmética árabe. Mas é muita história não é mesmo? Então vamos filtrar um pouco. 

Comecemos nossa história nos voltando aos computadores, sem os quais dificilmente teríamos o desenvolvimento tão acelerado de software já que é o desenvolvimento de hardware que exige o desenvolvimento do software em boa medida. Quando hoje dizemos que o Linux roda até em um relógio, é porquê este mesmo relógio virou um computador, ou seja, enquanto hardware, ele se desenvolveu. Além disto a História da Computação está recheada de articulações entre diferentes áreas do conhecimento humano. Não é isolada, mas decorre também do próprio desenvolvimento social. Um outro exemplo foi a contribuição de Alan Turing justamente em um contexto de guerra mundial, experiência histórica indesejada, mas que tecnologicamente falando trouxe várias inovações em seu tempo. De outro lado também apenas a evolução de outras áreas é que permitiram o desenvolvimento da tecnologia. Se estabelecermos uma relação com a química, por exemplo, perceberemos que grande parte da tecnologia de hoje seria impossível sem o desenvolvimento da manipulação dos elementos químicos. Será que os alquimistas estão voltando? (...) Mas enfim o que é um computador? 

Na verdade um computador é algo que “computa” dados, no sentido de calcular, muitas pessoas acham que o conceito de computador se restringe apenas as máquinas elétricas, e é essa ideia que causa-lhes um certo espanto quando se fala nas primeiras máquinas de computação, que eram totalmente mecânicas, como vocês irão ver a seguir. No entanto, vale lembrar que os ícones do que seria um computador, como por exemplo, os desktops hoje já dão lugar a outros tipos de máquinas também, como por exemplo as embarcadas. Vejamos o exemplo da moto Mavizen que roda Linux no seu computador de bordo, possui IP próprio e chega a 210 quilômetros por hora.




Por ser altamente customizável, o Linux vem ganhando espaço nos mais diversos tipos de computadores. Na robótica por exemplo, cada vez mais associada à computação, sua presença é predominante. E o que é computação? Pensamos o Software Livre, e também o Linux, como um resultado direto da evolução da própria ciência da computação. O conceito de ciência da computação ganhou força após o final da década de 1940, dadas as grandes contribuições de Alan Turing, conhecido como um dos pais da ciência da computação, e também como uma das primeiras pessoas a falar em inteligência artifical, que é foco de estudo até mesmo para a área da Filosofia. O modelo da Máquina de Turing é altamente estudado ainda hoje, sendo quase uma marcação ainda imbatível para a História da Computação. Vejamos uma relação entre alcances e limites colocando em perspectiva a concepção por trás de sua máquina:




A relação histórica é tão profunda que não podemos nos esquecer que a ideia de uma máquina que realizasse qualquer tipo de cálculo já havia sido pensada também por Babbage quando a sua ideia inicial de máquina que realizasse um determinado tipo de cálculo havia se esvaído quando o governo inglês deixou de financiar seu projeto. A ciência da computação estuda ainda os algoritmos. Sua função é compreender suas aplicações e realizar implementações na forma de software para serem executados em computadores, principalmente os eletrônicos. Podemos dizer que a ciência da computação avança nos dias atuais principalmente no que se refere as aplicações em rede, internet e na computação móvel. Vejamos o exemplo do Android, sistema Linux, que está presente em grande parte do mercado Mobile. 

A graduação de Ciência da Computação é atualmente responsável pelos estudos da parte de software dos computadores, podendo abranger áreas que vão desde o desenvolvimento do núcleo de um sistema operacional, até uma simples página na internet. Dentre as áreas de estudo, temos: complexidade de algoritmos, linguagens de programação, lógica para computação e matemática discreta por exemplo. Enquanto que para o desenvolvimento de Hardware, têm-se as graduações de Engenharia Eletrônica e eventualmente Engenharia de Computação. Mas vale destacar que cientista da computação, por conceito, pode ser tanto um desenvolvedor de hardware quanto de software, inclusive, antigamente, os profissionais de computação mais famosos eram responsáveis por criar tanto o Hardware quanto o Software. Para um uso avançado do Linux, trabalhando-se com Kernel por exemplo, é fundamental um conhecimento que se relacione entre software e hardware. Percebe a importância de se pensar o Linux agora numa visão mais abrangente e não apenas isolada? Tudo bem então, mas e qual é a História da Computação? Por favor, sejamos breves nisto, mas sem preguiça, pois é fundamental que a História seja pensada por aqueles que trabalham com tecnologia. Lembra-se da definição de computador que vimos anteriormente? Você saberia dizer qual é o computador mais antigo conhecido? O computador mais antigo conhecido é o Ábaco, uma ferramenta totalmente mecânica, o que faz com que as pessoas tenham resistência em aceitá-lo como um computador. Era utilizado para efetuar cálculos com números na base decimal, e a sua origem é datada em aproximadamente 2400 a.C.. Mesmo tendo sido inventado na Babilônia há mais de dois mil anos antes de Cristo o Ábaco pode ser considerado um computador? Sim, lembremos que de acordo com a distância temporal essa comparação é relativa. 

Para que você entenda melhor essa relação, lembremos que a palavra “cálculo” vem da palavra latina “calx”, usada pelos romanos para designar a manipulação dos números que realizavam com o Ábaco. De acordo com a História dos computadores podemos dividi-los em alguns tipos, como por exemplo: computadores mecânicos e computadores elétricos. Claro que esta é uma divisão com alto nível de generalização, mas ela torna clara a compreensão da evolução dos computadores, conforme as tecnologias existentes foram sendo aprimoradas. Sobre os mecânicos o que gostaríamos de dizer é que também foram classificados como a “geração 0” de computadores. 

Dentre os computadores mecânicos encontramos o Ábaco (2400 a.C.), Ossos de Napier (1612), Pascaline (1642), Tear automático (1801), Máquina diferencial (1822) e Tabulador eletro-mecânico (1890). Sobre John Napier é importante falar um pouco mais. O escocês John Napier (Neper) foi um matemático que ficou conhecido por criar a primeira tabela de algoritmos devido a necessidade de simplificar e agilizar os cálculos. É conhecido também por criar a ferramenta Ossos de Napier. Muitas vezes os bastões desta ferramenta eram produzidos com marfim, por isso a semelhança com ossos. Esta ferramenta consistia em uma tabela de multiplicação com peças móveis que auxiliava o uso da tabuada e o uso de logaritmos.


Importante também foi Blaise Pascal e a La Pascaline. Em 1642, o francês Blaise Pascal criou La Pascaline (A Pascalina), a primeira calculadora mecânica. Pascal foi basicamente além de matemático também físico, filósofo e também teólogo. Foi educado pelo seu pai que usou jogos didáticos como parte de seu ensino. Em 1634 publicou um ensaio sobre “sons”. A calculadora criada por Pascal é considerada a primeira calculadora mecânica. A motivação de Pascal para a criação de sua calculadora partia do fato de seu pai ser contador e precisar de ajuda com cálculos avançados. Este trabalho motivou outros ainda, entre eles Gottfried Leibnitz. Leibnitz estava ansioso para resolver cálculos relativos a Astronomia e seu modelo era parecido com o de Pascal. E sobre o tear automático o que podemos dizer é que foi criado em 1801 pelo francês Joseph-Marie Jacquard. Muitos consideram sua invenção como a primeira máquina programável da História. Esta máquina possibilitava a criação de desenhos elaborados. O tear era manualmente programado através de cartões perfurados. Mas e sobre Charles Babbage e a máquina de diferenças? A máquina de diferenças ou máquina diferencial foi projetada por Charles Babbage em 1822. Devido a limitações tecnológicas da época esta máquina não chegou a ser concluída. Em 1833, Babbage projetou a máquina analítica, que possuía propriedades dos atuais computadores, tais como: memória, unidade de controle, periféricos de saída e programas. Outra figura importante foi Hollerith. No fim do século XIX, Herman Hollerith ficou conhecido por construir máquinas e cartões perfurados sob encomenda. Através de sua técnica o Censo de 1890 dos Estados Unidos demorou 1 ano para ser calculado, em 1880 o Censo demorou 7 anos. Para fazer seus cartões funcionarem inventou o primeiro mecanismo de cartões perfurados, denominado de Tabulador Eletro-mecânico. Em 1896 fundou a Tabulating Machine Company. Em 1911, quatro corporações se fundiram e formaram a Computing Tabulating Recording Corporation, mais tarde renomeada para IBM. Hoje a IBM é uma gigante e sua relação com o Linux é bem ampla, pois a IBM já investiu mais de 1 bilhão no Linux.


Sobre a “1ª geração” podemos dizer que foram os computadores “eletro-eletrônicos”. Da 1ª geração podemos citar: Z1, Z2 e Z3 (1935), ABC (1936), Mark (1941) e ENIAC (1946). Sobre o ENIAC podemos resumir que foi criado em 1946 pelos cientistas John Eckert e John Mauchly. O desenvolvimento do ENIAC se iniciou durante a Segunda Guerra Mundial. O objetivo era computar cálculos balísticos (armas de fogo). O seu funcionamento era parecido com uma calculadora simples de hoje. O ENIAC não possuía sistema operacional. Possuía aproximadamente 30 toneladas e 25 metros de comprimento. Na “2ª geração” tivemos os transistores. Podemos citar o TX-0 (1957) e o PDP-1. Um dos principais marcos desta geração foi a substituição das válvulas eletrônicas por transistores. Este fator diminuiu o tamanho do hardware das máquinas. O uso dos transistores foi determinante no desenvolvimento dos computadores, pois podia ser produzido em grandes quantidades usando técnicas simples e com um custo baixo. Na sequência, na “3ª geração”, tivemos os circuitos integrados. Da 3ª geração podemos citar: IBM 360 (1965) e PDP 11. A criação dos circuitos integrados (CI) é atribuída a duas pessoas: Jack Kilby, que trabalhava na Texas Instruments, e Robert Noyce, da Fairdchild Semiconductor, eles desenvolveram um circuito integrado individualmente e independentemente um do outro, e embora apenas o Jack Kilby tenha ganhado um Nobel pela invenção do circuito integrado (também foi o primeiro a apresentar o CI), o modelo de Robert Noyce era melhor, e ele provavelmente também teria ganho o Nobel se estivesse vivo na época em que o Jack Kilby ganhou o Nobel de Física. Os circuitos integrados possibilitaram a criação de placas com pouca espessura, que continham vários transistores ligados sem a necessidade de fios (exceto os integrados na placa). A invenção do CI possibilitou a criação de computadores menores, mais baratos e mais rápidos. Os circuitos integrados são usados até hoje, a grande diferença entre os de hoje e os da década de 60, é o tamanho e a quantidade de componentes neles inseridos. Abaixo temos uma tabela que mostra a classificação dos circuitos integrados com base na sua complexidade, que é a quantidade de transistores que podem ser integrados em um único chip.




A 4ª geração é caracterizada pelo uso de microprocessadores, que tiveram a velocidade limitada e complexidade de circuito integrado que era viável na época. Da 4ª geração podemos citar: Intel 4004 (1971), Intel 8008 (1972), Xerox Alto (1973), Altair 8800 (1974), Apple-1 (1976), IBM PC (1981), e Xerox Star (1981). A 4ª geração foi fortemente impulsionada pela melhora da tecnologia de circuitos integrados, que fez com que os processadores ficassem cada vez menores, mais baratos e mais rápidos. Foi nesta geração que surgiram algumas das maiores empresas de computação que temos até hoje, destacamos: Intel, AMD, Microsoft, Apple, Xerox. Algumas empresas, como a IBM, Apple e a Xerox, se destacaram com o lançamento dos primeiros PCs (Personal Computers), computadores “portáteis” para uso doméstico, sendo a Xerox responsável pelo surgimento das interfaces gráficas e dos mouses (ao contrário do que muitos pensam, não foi Steve Jobs quem inventou o mouse e a interface gráfica, apesar de a Apple tê-los popularizado com a linha Macintosh). 

Vejamos alguns modelos da 4º geração: Xerox Alto (1973), surge o mouse e a interface gráfica, notem que o monitor era usado na orientação “retrato” (portrait). Apple-1 (1976), o primeiro computador desenvolvido pela Apple, foi feito por Steve Wozniak, e não vinha com monitor. IBM PC (1981). Xerox Star (1981), cresce o interesse pelas interfaces gráficas e pelo mouse. Entramos agora num momento histórico importante para a computação onde explodem as tecnologias relativas às arquiteturas x86 e x64. Os PCs baratos e rápidos só foram possíveis graças aos avanços providos pela Intel e AMD, duas marcas de processadores que dominam o mercado de PCs até hoje em dia. Os motivos pelos quais elas se destacaram foi a criação das arquiteturas I386 e AMD64. A arquitetura de um processador 

define como será o seu funcionamento, e a principal diferença entre os processadores I386 e AMD64 está na quantidade de instruções que ele pode receber a cada ciclo de operação (nesse caso, 32 e 64 bits). Inicialmente, a Intel entrou no mercado com processadores de 8 e 16 bits, tendo como os modelos mais marcantes o i4004 e o i8080. 

A AMD (Advanced Micro Devices) surgiu como uma marca cópia da Intel, tendo lançado o primeiro processador chamado AM9080, que era um clone não licenciado do I8080. Pouco tempo após o lançamento do AM9080, a Intel fechou um acordo de licenciamento com a AMD, e assim se iniciava a concorrência Intel x AMD. Em 1985, a Intel lança o Intel 80386, que era uma implementação 32 bits do modelo 8086, e que foi um modelo amplamente usado nos PCs. A AMD também lançou um modelo equivalente ao 80386, o AM386, mas com resistência da Intel, houve uma disputa judicial, com vitória para a AMD. Devido ao 80386 ter sido o primeiro processador de 32 bits de sucesso, a arquitetura foi apelidada de X86 (referente a linha x86 da Intel: 8086, 80186, 80386…), mas também são sinônimos: IA-32, I386, ou 32-bit. Em 2001, a Intel lançou a linha de processadores Itanium, que usavam 64 bits de barramento (IA-64), mas não eram compatíveis com os sistemas x86, enquanto isso, a AMD trabalhava em uma alternativa ao IA-64 que fosse compatível com as instruções X86, e conseguiu lançar no mercado (em 2003) o Opteron, a primeira linha de processadores 64 bits com retrocompatibilidade. Resultado: Dessa vez a Intel teve que copiar a AMD, e hoje quase 100% dos desktops contém processadores de arquitetura x64, ou como também podemos chamar: AMD64, x86-64 ou 64-bit (reparem que IA-64 é outra arquitetura). É por isso que quando você for baixar as imagens de instalação das distros Linux, poderá encontrar mensagens recomendando o uso da instalação i386. Caso seu computador seja muito antigo, o processador será i386, mas se for amd64 a instalação x86 funcionará perfeitamente, assim sendo, se a pessoa não conhece o processador, as chances do sistema não funcionar são mínimas, e se não funcionar, provavelmente é porque ela estava usando algum computador mais antigo da Apple que usava processadores de arquitetura PowerPC (da IBM). Caso você opte pela arquitetura amd64, deverá saber de antemão que possivelmente (dependendo de qual distro será usada), você terá que instalar alguns pacotes i386 para o funcionamento de algum programa, isso não irá implicar em nenhuma perca de desempenho, apenas um pequeno trabalho extra na hora de habilitar a arquitetura i386. Enfim, a História da Computação é gigantesca, e por isto filtraremos novamente, encerrando esta questão relativa ao hardware em si e iniciando sobre Computação Quântica, que é uma das grandes novidades do momento. Pode-se dizer que em um processo praticamente natural de evolução da tecnologia os próximos passos estão sendo dados pela concretização da Computação Quântica. A diferença básica entre o computador quântico e o tradicional se dá pelo fato de que enquanto no tradicional sua arquitetura é baseada no modelo de Von Neumann, no quântico a proposta é o modelo quântico da física. Um dos motivos pelo investimento na computação quântica é a própria necessidade de aceleração da Lei de Moore, já que no modelo tradicional esta lei pode acabar sendo limitada pela própria tecnologia. O computador quântico lançado pela D-Wave embora já atinja um processador com capacidade de 128 qubits necessita de outros computadores comuns para funcionar. Sua grande vantagem reside na possibilidade de se trabalhar com mais possibilidades de processamento além do uso comum do binário de posições “0” e “1”. Isto causará, se confirmada sua viabilidade, uma verdadeira revolução nos algoritmos atuais.




Mas e o que são algoritmos mesmo? Em computação tudo é uma questão de algoritmos, e por isto este é um conceito também fundamental na área de programação, ou seja, no desenvolvimento de sistemas, e sendo assim, também o é fundamental no Linux. Um algoritmo não é necessariamente um programa de computador. Algoritmo nada mais é do que uma sequência finita de instruções definidas. Um algoritmo assim deve ser pensando na resolução de um ou mais problemas. Você pode estar se perguntando porquê compreender o que é um “algoritmo” se você nunca vai usar isso na vida, não é mesmo? Acontece que você já sabe o que é, e faz algoritmos o tempo todo, ainda que não saiba que sabe o que é. Complicou? Para ser um bom profissional de computação é fundamental possuir um bom entendimento sobre algoritmos. Além disto, seu potencial em GNU/Linux crescerá muito se dominar lógica de computadores. Somente a partir de um bom conhecimento sobre algoritmos, que será possível entender perfeitamente o funcionamento de um sistema operacional no seu todo, que é o assunto que abordaremos na sequência. As formas mais comuns de representar um algoritmo são: linguagem natural, fluxograma convencional ou então pseudo-linguagem. Brahmagupta, um matemático indiano, no século VII, explicou o sistema de numeração hindu-arábico e o uso do zero, e isto deu um ponta pé inicial no conceito que temos deste campo hoje. Posteriormente o matemático persa Al-Khwarizmi escreveu um livro intitulado “Calculando com numerais hindus”, e a História vai, até que o conceito de algoritmo foi formalizado em 1936. Pode parecer um recurso absurdo tentar pensar a lógica da programação numa perspectiva histórica, ou ao menos tentar, mas se olharmos por exemplo a teoria do argumento em Aristóteles onde o núcleo é a caracterização e análise do chamado na época de “silogismo”, percebemos que o raciocínio “Todo homem é mortal, Sócrates é homem, logo Sócrates é mortal”, nos lembra muito o que fazemos hoje em programação. Ou seja, a História neste sentido está viva, numa relação fenomenal entre presente, passado e inclusive futuro. Um outro exemplo que fica mais evidente a partir de elementos presentes neste próprio artigo é entre esta mesma lógica vista agora e a lógica presente na computação quântica anteriormente. Se você procurar entender um pouco mais a fundo verá que a lógica aristotélica não permite em sua fundamentação a presença de falso e verdadeiro ao mesmo tempo. Tudo bem, mas e o que isto tem a ver com a computação quântica? Não chegamos a entrar em detalhes neste artigo mas se você estudar um pouco mais a fundo verá que a questão da superposição, ou para facilitar no exemplo do Gato de Schrödinger, este novo tipo de computação permite justamente pensar que uma coisa pode ser duas ao mesmo tempo, e como dissemos anteriormente, isto pode causar uma revolução nos algoritmos.




Dissemos no entanto que iriamos nos referir a algoritmos para tratar de sistemas operacionais. Nosso objetivo com este artigo é introduzir o leitor no mundo

GNU/Linux, através de conceitos e ideias básicas relacionadas ao mundo GNU/Linux. Se você sentir falta de comandos e aspectos técnicos é porquê você já não é um usuário tão novato assim, e sentirá mais prazer em outros artigos. Este, neste momento, é para iniciantes mesmo, aqueles que carecem de um pouco de teoria pra entender o que é o Software Livre, o que é o GNU e o que é o Linux, e associar estes conceitos ao desenvolvimento da própria História da Ciência da Computação. São fundamentos que permitem uma compreensão maior da prática. Embora todo este conhecimento seja básico, ele não é superficial. Compreender o que é o Software Livre e como aproveitá-lo contribui para a profissionalização não só do usuário como de especialistas em Sistemas de Informação que ainda não se aproximaram deste novo mundo em que o mundo todo tem se aproximado. O mercado tem aderido ao Software Livre numa velocidade tremenda, e em breve quem não souber do assunto correrá o sério risco de se isolar tecnologicamente. Mas vejamos então o que seria o sistema operacional. GNU/Linux é um sistema operacional. Você deve estar ciente disto neste momento. Um sistema operacional é um conjunto de aplicativos que permite ao usuário ter controle sobre o computador, por meio de interfaces, gráficas ou não. Existem inúmeros sistemas operacionais. Um sistema operacional é responsável por controlar a utilização dos recursos que a máquina, ou seja, que o computador oferece. É função do sistema operacional definir, por exemplo, qual programa irá receber mais atenção do processador, bem como distribuir e gerenciar o uso de memória. Podemos dizer sintetizadamente então que o sistema operacional é um “orquestrador” de programas, gerenciando, monitorando, enfim, fazendo com que o usuário possa administrar todos os programas presentes em seu computador. Os sistemas operacionais do tipo GNU/Linux são livres, ou seja, Software Livre. Lembre-se que todo computador contemporâneo precisa de um sistema operacional para funcionar! Mas o Linux surgiu do Unix, e este não era livre. E agora? Antes de começar a falar sobre o Unix é interessante algumas palavras sobre a organização onde o Unix nasceu, a Bell Labs. No início a Bell Labs era na verdade o cérebro de pesquisa da empresa AT&T. O que gostaríamos de ressaltar é a quantidade de tecnologia descoberta e desenvolvida no interior da Bell Labs. No ano de 1925 a Bell Labs foi responsável pela primeira transmissão pública via Fax. Alexander Graham Bell criou o primeiro aparelho telefônico. Mais tarde, em 1947 Gabriel Casotti criou o primeiro aparelho de Fax. No ano de 1927 foi realizada a primeira transmissão de Televisão. As descobertas foram crescendo mais e mais no decorrer do século XX até que em 1969 criou-se na Bell Labs o Unix e em 1970 a linguagem de programação C.




O Unix é um sistema operacional multitarefa, isto é, que pode executar uma ou várias tarefas ao mesmo tempo; e multiusuário, isto é, um ou mais usuários podem utilizar o sistema via terminais ao mesmo tempo. Mas vamos entender os antecedentes do Unix. Por conta de sua motivação com o Multics, Dennis Ritchie e Ken Thompson desenvolveram o Unics. Em 1970 o nome de Unics mudou para Unix. Segundo a Bell Labs o “x” foi adicionado por conta da palavra “Fênix”, ou seja, um “Unics”, surgido do esforço de toda a equipe de desenvolvimento, sendo então “Unix”. No início o Unix foi desenvolvido em Assembly, mas então Dennis Ritchie e Ken Thopsom viram a necessidade de uma linguagem de programação mais prática, então eles criaram o C. Após isso, o Unix foi reescrito em C. Com a difusão do Unix no passar do tempo vislumbrou-se que este também poderia ser uma fonte de renda, e é aqui que começa o que dissemos atrás, a diferença entre Unix e GNU/Linux no que se refere a liberdade de uso. É fundamental compreender que embora Unix seja uma coisa e Linux seja outra, o Unix é a grande inspiração para os sistemas que vieram depois dele. Muito do Linux é herança do Unix, muito mesmo. Usuários avançados do Unix podem usar o Linux intuitivamente e vice versa, embora o Linux seja muito mais amigável. Bom, então quer dizer que GNU/Linux e Unix são sistemas operacionais mas se diferenciam na liberdade de uso? Sim, mas é preciso ir mais a fundo, para tanto, vamos falar de Software Livre. Podemos resumir que os principais objetivos do Software Livre são: controle na própria computação e cooperação livre. Mas você saberia dizer com convicção o que é Software Livre? Temos uma vaga ideia não é mesmo? Mas realmente afirmar exatamente o que é Software Livre exige uma breve olhada com atenção no tema, inclusive considerando em muito, ainda, a sua História. Podemos dizer que o conceito de livre se opõe radicalmente ao conceito de proprietário. A título de exemplo o Sistema Operacional Windows é proprietário, os sistemas operacionais GNU/Linux são livres. Mas porquê GNU? No dia 27 de setembro de 1983 um programador chamado Richard Stallman lançou o projeto GNU.



Na época, um computador já custava caríssimo, e com o preço do sistema operacional, o acesso a essa tecnologia era algo muito exclusivo. Richard Stallman se lançou na luta contra o uso de softwares proprietários em detrimento do uso de softwares livres. Mas por hora como definir Software Livre? Podemos dizer que Software Livre é qualquer programa de computador que pode ser estudado, modificado e redistribuído. Dentro desta ideia surgiram licenças de uso que são distribuídas junto ao código ou junto aos programas. Segundo a organização Free Software Fundation - FSF, um Software Livre deve possuir quatro liberdades, sendo estas: a liberdade de executar o programa com qualquer fim; a liberdade de estudar o programa e adaptá-lo se quiser; a liberdade de ajudar a quem precisar com a distribuição livre do programa; e por fim a liberdade de modificar o programa e distribuir o programa com estas modificações. O código fonte deve ser distribuído junto com o programa para que estas liberdades tenham efeito. Um pouco mais a frente iremos aprofundar um pouco mais nesta questão das licenças. Vamos entender melhor esta questão do surgimento do movimento pelo Software Livre. Os computadores de grande porte predominavam no mercado na década de 1960. Seu uso era mais comum em grandes empresas e universidades. Os códigos fontes eram realmente em grande parte das vezes distribuídos com estes. Esta situação no entanto veio se modificando aos poucos. Neste tempo Richard Stallman teve um desentendimento com uma empresa e depois da experiência decidiu investir seu tempo na construção da ideia de Software Livre. Como podemos perceber portanto, no início o software era livre e com o passar do tempo é que as empresas foram tornando o software proprietário, e isso por seu efeito também acabou impulsionando que outros lutassem pela liberdade do software. É como um movimento de ação e reação. O projeto GNU surgiu então em contraponto com esta realidade e vem cumprindo um papel fundamental na difusão do conceito de Software Livre. Mas o que é “GNU”? GNU é um acrônimo recursivo de “GNU’s not unix”. É um projeto que foi criado em 1983 e seus participantes tinham o propósito de criar um sistema “Unix Like”. Muitos softwares foram construídos dentro da proposta, mas faltava na época o núcleo do sistema, ou seja, o Kernel. O núcleo compatível para o sistema operacional GNU foi criado em 1991 por Linus Torvalds denominado Linux. Portanto, “GNU/Linux” ou “GNU+Linux” são os termos corretos para este sistema, pois, este só existe através da junção do sistema operacional GNU + o núcleo Linux. O projeto GNU é o principal responsável pelas licenças que citamos anteriormente. Vamos falar um pouco mais delas agora. Entender as diferentes licenças não é uma tarefa muito simples. Então antes de começar a ler este tópico relaxe, busque um café, respire fundo e estique os braços para relaxar. Para entender bem, a licença criada por Richard Stallman em 1989 se chama GPL, que significa General Public License, que traduzido fica “Licença Pública Geral”. Um dos grandes pontos positivos desta licença é que ela não permite que outrem se aproprie do código de alguém. Ou seja, mesmo que você faça modificações você não poderá impor limitações, e isso mantém os direitos do autor com relação as liberdades originais. A GPL está em inglês. A FSF acredita que traduções poderiam incorrer em erros que deturpassem o sentido da licença. Ou Veja, as traduções que existem disponíveis em vários sites de internet não são oficiais. Em 29 de julho de 2007 foi liberada a versão 3 da licença GPL. Segundo o projeto GNU sobre o uso da GPL “Seja qual licença você planeja usar; o processo envolve a adição de dois elementos em cada arquivo fonte do seu programa: um aviso de copyright, e uma declaração que permite a cópia, dizendo que o programa é distribuído sobre os termos da Licença Pública Geral GNU”. Podemos dividir as características da licença de Software Livre nas seguintes liberdades:




Lembre-se ainda que para além da GPL, podemos dividir as licenças em licenças permissivas (BSD, MIT, Apache), licenças recíprocas totais (GPL, AGPL) e licenças recíprocas parciais (LGPL, Mozilla, Eclipse). Vejamos um quadro comparativo:



Apesar de Steve Ballmer, já considerado a 44ª pessoa mais rica do mundo, já Presidente Executivo da Microsoft, ter dito que o Linux era  “um câncer que [...] contamina tudo que toca”, a própria Microsoft se utilizou da Licença GPL em 2009. Mas é fundamental também aproveitar para falar que código aberto é diferente de Software Livre. Uma das visões acerca desta diferença é a visão lançada na obra “A Catedral e o Bazar” que foi um ensaio publicado em 27 de maio de 1997 por Eric S. Raymond.



O ensaio trata de métodos de engenharia de software. O autor se baseou na forma de desenvolvimento do Linux e a partir de suas observações concluiu que existem basicamente dois modelos de desenvolvimento de software. São eles o método catedral e o método bazar. Para Raymond o modelo catedral é aquele onde os releases são restritos aos grupos de desenvolvedores. No modelo bazar o código é aberto e desenvolvido de forma pública. Eric Raymond defende que este modelo foi criado por Linus Torvalds e dele advém o sucesso de desenvolvimento do projeto Linux. Raymond compactua da ideia de Torvalds de que “Dado um número de olhos suficiente, todos os erros são triviais”. O ensaio não é muito grande, possui pouco mais de 10 páginas. Aconselhamos a sua leitura para conhecer mais da História do Software. O ensaio ainda pode ser encontrado gratuitamente para leitura na internet. Pesquise! Muitos são os projetos desenvolvidos sobre o prisma de Software Livre que fizeram sucesso. Alguns que podemos destacar são: Linux, Mozilla Firefox, Android, GNOME, KDE, Servidor WEB Apache, Eclipse IDE, Libreoffice. O Software Livre tem sido uma saída fundamental ainda também para governos inteligentes. 


Além da economia há ainda a questão da segurança da informação, que é necessária aos cidadãos. Você gostaria de saber que seus dados são manipulados por empresas cuja índole pode ser duvidosa por exemplo? 

Cujos interesses podem ser apenas financeiros? Além disto, o Software Livre tem sido muito mais econômico, pois o seu investimento em licenças é zero, ficando o custo apenas para a infraestrutura física e de pessoal.  No entanto, percebemos que uma das dificuldades para uma implantação maior do Software Livre ainda tem sido a falta de profissionais capacitados e empresas que possam dar conta desta demanda. Algo que de um lado valoriza ainda mais o profissional que possui conhecimentos nesta área. Vejamos um exemplo de uso de Software Livre através do projeto “Paraná Digital”. O Projeto Paraná Digital foi criado no Paraná e se consolidou a partir de 2008. Ficou conhecido internacionalmente e foi reconhecido pela comunidade como um dos maiores projetos em Software Livre. No site do projeto podemos conferir alguns dados (que podem estar um pouco desatualizados). São eles: 2100 laboratórios com acesso internet e 1 servidor local. 44 mil computadores. 1500.000 alunos atingidos pelo projeto e 40 mil professores. Tudo isto em 399 municípios. O desenvolvimento se deu pelo C3Sl, com apoio de diversos outros órgãos, tanto estaduais quanto nacionais. No entanto hoje o sistema parece estar sendo substituído lentamente pelo Linux Educacional, outro projeto relacionado diretamente ao Software Livre. Bom, já que falamos em Software Livre agora é hora de falar do Linux. Linus Torvalds, que na época era um jovem finlandês, acabou disponibilizando a primeira versão do Linux em 1991. Por sua característica considerou-se então o primeiro GNU/Linux. Linus Torvalds nasceu em Helsínquia, na Finlândia. Entre 1988 até 1996 frequentou a Universidade de Helsinque, onde graduou-se como Mestre em ciência da computação. Em seu primeiro ano de estudo, teve que interromper sua carreira acadêmica para se juntar ao Exército da Finlândia. Em 1990 retornou à universidade. Sua tese de mestrado teve o título de “Linux: um sistema operacional portátil”. 


Inicialmente o núcleo Linux foi desenvolvido como um projeto similar ao Unix que rodava em processadores Intel 80386. Entretanto, o objetivo de Torvalds era criar “um Minix melhor que o Minix”. Em 1991, Linus divulgou o projeto através da Usenet (Unix User Network) e contou com a colaboração de outros programadores voluntários. A seguinte mensagem de Linus foi enviada para comp.os.minix: “Você suspira pelos bons tempos do Minix-1.1, quando os homens eram homens e escreviam seus próprios ‘device drivers’? Você está sem um bom projeto em mãos e deseja trabalhar num S.O. que possa modificar de acordo com as suas necessidades? Acha frustrante quando tudo funciona no Minix? Chega de noite ao computador para conseguir que os programas funcionem? Então esta mensagem pode ser exatamente para você. Como eu mencionei há um mês atrás, estou trabalhando numa versão independente de um S.O. similar ao Minix para computadores AT-386. Ele está, finalmente, próximo do estado em que poderá ser utilizado (embora possa não ser o que você espera), e eu estou disposto a disponibilizar o código-fonte para ampla distribuição. 



Ele está na versão 0.02... contudo eu tive sucesso ao executar bash, gcc, gnu-make, gnu-sed, compress etc. nele.”. Esta mensagem é considerada por muitos como a “certidão de nascimento” do Linux. Já na versão 0.01 o Linux possuía suporte ao disco rígido, tela, teclado, portas seriais e o sistema de arquivos mantinha o mesmo layout do Minix sem ter um código deste no Linux. O termo Linux refere-se ao núcleo (em inglês kernel). O nome Linux foi criado por Ari Lemmke que nomeou o diretório FTP com esse nome, pois, era onde inicialmente o núcleo Linux estava disponível. Interessante saber que o nome escolhido por Linus Torvalds foi Freix que significaria Free Unix. O Kernel Linux é mantido por uma equipe mundial de colaboradores entre programadores individuais e grandes empresas como HP, IBM, Google, Microsoft, entre outras. Linus possui a marca registrada Linux e a administra através da Linux International, organização sem fins lucrativos. Linus é um homem simples, e podemos dizer até humilde diante de sua contribuição.



O pinguim é o mascote de seu Kernel. Mas porquê pinguim? Em 1996, uma discussão da comunidade Linux-Kernel decidiu pela escolha de um mascote que os representasse. A ideia de um pinguim aparentemente satisfeito veio de Linus Torvalds. Alguns fatos contribuíram para esta decisão, como o fato de Linus ser mordido por um pequeno pinguim em um zoológico da Austrália e de que pinguins sempre andam em grupos, dando a noção de comunidade. Leia a resposta de Linus sobre o logotipo: “Umm.. You don't have any gap to fill in. ‘Linus likes penguins’. That's it. There was even a headline on it in some Linux Journal some time ago (I was bitten by a Killer Penguin in Australia - I'm not kidding). Penguins are fun.”. O mascote foi eleito a partir de um concurso para logotipos do Linux. Larry Ewing foi o vencedor do concurso. O mascote foi criado através do Gimp (um editor gráfico, Software Livre). O nome Tux foi sugerido por James Hughes. Muitos alegam que o nome Tux deriva de Torvalds Unix, outros pela aparência dos pinguins de vestir smoking. A versão mais utilizada vem do termo “tuxedo”, palavra em inglês que em português é associada a smoking ou fraque. O Tux é o mascote oficial do sistema operacional GNU/Linux. Muitos jogos foram criados com o Tux como personagem central, como o Tux Racer e Super Tux. Bom, agora que você já entendeu que o Linux é um projeto, nos permite lhe questionar sobre “distribuições Linux”, afinal hoje em dia existem inúmeras distribuições. Entre muitas não há diferenças, mas há realmente distribuições que são radicalmente diferentes tanto em proposta quanto em funcionamento. Dentre os tipos de distribuições podemos destacar que há as livres e as corporativas. As distribuições livres são mantidas sem fins lucrativos, como por exemplo: Debian, Ubuntu, Slackware, Linux Mint, Fedora, Open Suse, Kali, CentOS, dentre outras. As corporativas são mantidas por empresas que vendem suporte para o sistema. A SuSe e RedHat são exemplos destas. Podemos dividir também as distribuições em convencionais e distribuições “live”. As convencionais são distros que funcionam em seu computador após a instalação completa no HD. Já as “live” rodam a partir do CD ou Pen-drive, sem a necessidade de instalação. São muito recomendáveis em duas situações. A primeira para o aprendizado de Linux e a segunda para recuperação de sistemas com algum tipo de problema, como por exemplo na recuperação de dados. Existem também as distribuições From Scratch que são desenvolvidas a partir do zero e as distros provenientes que foram baseadas em outras, como por exemplo Ubuntu e Fedora. Inclusive, sobre o método From Scratch há um material do projeto Linux From Scratch, disponível na internet, onde seguindo-o é possível construir a sua própria distribuição GNU/Linux personalizadamente. Não se empolgue muito no entanto com a ideia de “Construir uma distribuição completa” a partir do Linux From Scratch, pois, uma verdadeira distribuição tem muito mais que pacotes. Ela possui um sistema de instalação, coisa que o método não ensina a fazer. E para ser reconhecida precisa ter também o mínimo de documentação para ajuda. Entretanto, um grande ponto positivo é que o projeto em questão funciona como uma verdadeira universidade de aprendizado em GNU/Linux. Além disso você pode customizar tanto o seu Linux que ele “voará” de tão rápido. Só para se ter uma ideia em um laboratório interno da Logicus construímos um Linux From Scratch que usava apenas 10 megas de memória RAM. Não é a toa que a Nasa usa Linux. :) Mas voltemos a questão das distribuições. Quais são as principais? Seria injusto fazer uma lista, mas falaremos um pouco de algumas, e por tanto, você deve se aprofundar para ampliar seu conhecimento sobre estas. No entanto para o objetivo deste artigo será suficiente. Vamos começar com o Slackware. A distribuição Slackware Linux foi criada em meados de 1993 por Patrick Volkerding. Carinhosamente chamada por Slack, trata-se de uma distribuição que tem como objetivo manter os padrões Unix. Toda versão desta distro é estável. É caracterizada como uma das distribuições mais difíceis de usar, devido ao caráter conservador da mesma, não há esforço por parte dos desenvolvedores em tornar a distribuição amigável a usuários leigos. Um dos princípios do Slackware é o KISS, acrônimo em inglês para “Keep It Simple, Stupid”, ou seja, “Faça isto simples, estúpido”. Há também a Red Hat. Trata-se de uma distro criada pela empresa de mesmo nome, Red Hat. O Red Hat surgiu em 1994. Esta distro é líder de vendas nos EUA. A maior parte do lucro da Red Hat parece prover das licenças pagas por empresas pela versão Enterprise. O nome Red Hat vem de “chapéu vermelho”, relacionado a uma história com o avô de Marc Ewing, um dos co-fundadores da Red Hat. Por possuir uma boa fatia do mercado em Linux a Red Hat se dá ao luxo de possuir uma árvore própria e respeitada de certificações. A distribuição começou com programadores na Carolina do Norte, mas hoje a Red Hat possui clientes em todo o mundo. A Red Hat ainda criou também o sistema de pacotes RPM, muito utilizado por diversas outras distribuições. Bom, vamos aproveitar para falar também então sobre o CentOS cuja abreviação significa “Community Enterprise Operating System”. O CentOs deriva da Red Hat e é mantido pelo CentOs Project, porém em janeiro de 2014 a Red Hat incorporou tanto o projeto quanto a comunidade ao seu portfólio. Na verdade trata-se de uma recompilação totalmente livre da Red Hat, então há mínimas diferenças. Esta distro vem ganhando espaço pela sua estabilidade e segurança para servidores. Não podemos nos esquecer no entanto que o CentOs funciona como um “clone”. Daí que suas versões são baseadas nas próprias versões Red Hat. Por outro lado sua grande vantagem reside justamente em oferecer nível de segurança semelhante ao Red Hat, só que sem custo. Ou seja, o CentOs é totalmente gratuito. Hoje o CentOs é uma das distribuições mais utilizadas em servidores em todo o mundo. Ainda na família Red Hat também há o Fedora. A distribuição Fedora foi criada pela Red Hat e é mantida atualmente pelo Fedora Project. O Projeto Fedora direciona os projetos e a Red Hat patrocina. Os projetos são desenvolvidos por uma comunidade de voluntários open source. O Fedora possui diversas versões para download, inclusive as conhecidas por “spins”, voltadas para áreas diversas. A versão 1.0 foi lançada em novembro de 2003 com o codinome “Yarrow” e possuía o Kernel Linux na versão 2.4.22. Uma outra distribuição muito interessante é o OpenSUSE. Ainda nos seus primórdias, quando era chamada de SuSe Linux, na versão 1.0, até antes da versão 1.2.13, entre os anos de 1994 e 1995, esta distribuição era baseada no Slackware. A distro OpenSUSE é organizada pela comunidade OpenSUSE Project e financiada pela empresa Novell. O OpenSUSE é muito utilizado na Alemanha e nos EUA. Um comentário de passagem é o de que realmente os alemães são profundamente técnicos e perfeccionistas, o que os usuários desta distro poderão constatar com facilidade. Só para que você tenha uma ideia de quão completa é a documentação do OpenSUSE você encontrará manuais nas seguintes versões: Startup, Reference, Security guide, Virtualization e System analysis. Todos eles completíssimos! Vale a pena dar uma conferida mesmo que você não seja um usuário OpenSUSE. Um dos diferenciais do OpenSUSE é o Yast. O Yast é um centro de controle que permite entre outras coisas gerenciamento de software, hardware, sistema, dispositivos de rede, serviços de rede, segurança e usuários, e diversos. Não podíamos deixar de falar também do Debian. O Debian é a distribuição mais querida do mundo GNU/Linux embora possa não ser obviamente a mais utilizada. O Debian é muito conhecido pelo gerenciador de pacotes que foi feito exclusivamente para ele, mas é utilizado por quase todas as outras distribuições, o APT. A distro Debian foi lançada oficialmente em 1993, e é a 2ª distribuição mais velha que ainda está na ativa, perdendo apenas para o Slackware (por 1 mês de diferença). Debian é a junção de Debra e Ian. Debra era a esposa de Ian Ashley Murdock, criador do Debian que faleceu recentemente. Os dois se separaram em 2007, mas o nome ficou. O Debian surgiu com o propósito de ser uma distribuição totalmente aberta e sem vínculos comerciais. Podemos encontrar no Debian quatro modalidades: estável, teste, instável e experimental. Essas modalidades são chamadas de releases. A modalidade instável é a que mais trabalho oferece aos desenvolvedores, e por isso é onde o foco é maior. Após os programas serem minimamente testados eles passam para a modalidade teste, onde os testes permanecem por um bom tempo. Cabe dizer que a versão teste não é necessariamente instável. Após ter atingido um alto grau de maturidade a versão teste é congelada (recebendo apenas atualizações de segurança e correção de bugs) e após torna-se a versão estável. Na nossa opinião Debian é uma das melhores distribuições a se utilizar. Os motivos são inúmeros. Destacamos alguns, ou ao menos aqueles que no nosso ver são os principais: possui uma maturidade e regularidade incríveis, é uma das que possui maior suporte a idiomas, o que ajuda muito aos cujo português é o idioma nativo, gerenciamento de pacotes avançadíssimo com o APT, e além de tudo isso, vale a máxima do Debian “o Debian será lançado quando estiver pronto”, ou seja, há muito cuidado com a estabilidade e segurança do sistema por parte dos desenvolvedores. Outro aspecto interessante do Debian é o seu contrato social. Há também o Ubuntu que é uma distro baseada no Debian e patrocinada pela empresa Canonical, dirigida por Janer Silber. Em 2004, Mark Shuttleworth e sua companhia Canonical concebeu o Ubuntu e o objetivo era que o sistema fosse reconhecido pela sua usabilidade. Para divulgar o Ubuntu no início, Shuttleworth distribuía CDs de instalação sem custos para o usuário final. O nome Ubuntu é um termo africano que possui muitos significados. Suas possíveis traduções são “humanidade com os outros”, “sou quem sou, porque somos todos nós” ou “a crença no compartilhamento que conecta toda a humanidade”. O Ubuntu é uma das distribuições mais utilizadas no mundo. Suas características mais reconhecidas são acessibilidade, internacionalização e usabilidade. A primeira versão do Ubuntu foi a 4.10, pois foi lançada em outubro (mês 10) do ano de 2004 (ano 04). Vejamos uma tabela com as versões derivadas do Ubuntu:



Uma outra distribuição muito usada também é o Linux Mint. Este Linux nasceu na Irlanda. O Linux Mint é uma distribuição que possui duas versões, uma baseada no Ubuntu e outra no Debian. Grande parte de seu sistema é Software Livre e código aberto, entretanto, também inclui alguns softwares proprietários entre plug-ins e codecs. Outro diferencial são os recursos que podem ser configurados através do modo gráfico, que na maioria das distribuições são efetuados através do modo texto. Por estas razões é reconhecido por sua facilidade de uso. Seu slogan é: “Por liberdade e elegância!”. As versões do Mint baseadas no Ubuntu recebem nomes de mulheres que terminam com a letra “a”. A primeira versão recebeu o nome de “Ada” em 2006. Já a versão baseada no Debian é rolling release, isto é, não possui lançamentos periódicos de novas versões, basta atualiza-lo. Como este artigo tem o objetivo de trazer a História como um recurso é importante falar também do OpenMandriva. Para falar de OpenMandriva é inevitável não falar da Mandriva como um todo e de um resumo de sua história, incluindo a respeito da Conectiva, distro que fez muito sucesso entre brasileiros e latinoamericanos. A Mandriva foi resultado da fusão das antigas distros Mandrake e Conectiva. Dizemos portanto que a Mandriva foi franco-brasileira dada a fusão realizada em 2005. Não podemos deixar de dizer que a Conectiva foi uma das principais responsáveis pela difusão do Linux no Brasil, e deixa muita saudade de usuários mais antigos. As versões lançadas pela Conectiva foram Conectiva Red Hat Linux Parolin 1.0 - Outubro de 1997, Conectiva Red Hat Linux Marumbi 2.0 - Maio de 1998, Conectiva Linux Guarani 3.0 - Dezembro de 1998, Conectiva Linux Server (Intel) 1.0 - Abril de 1999, Conectiva Linux Server (Compaq Alpha) - Maio de 1999, Conectiva Linux 4.0 - Julho de 1999, Conectiva Linux 4.2 Server - Outubro de 1999, Conectiva Linux 5.0 - Fevereiro de 2000, Conectiva Linux 5.1 Server - Junho de 2000, Conectiva Linux 6.0 Desktop - Novembro de 2000, Conectiva Linux 6.0 Server - Novembro de 2000, Conectiva Linux 7.0 Desktop - Julho de 2001, Conectiva Linux 7.0 Server - Julho de 2001, Conectiva Linux 8.0 Desktop - Abril de 2002, Conectiva Linux 8.0 Server - Abril de 2002, Conectiva Linux Enterprise Edition - Novembro de 2002, Conectiva Linux 9 Professional - Abril de 2003, Conectiva Linux 9 Standard - Abril de 2003, Conectiva Linux 10 Desktop - Julho de 2004, Conectiva Linux 10 Professional - Julho de 2004.


Um detalhe importante a se falar é que com o crescimento do campo de segurança da informação uma distribuição Linux tem crescido exponencialmente nos últimos anos, o Kali Linux. Para falar sobre o Kali Linux também é preciso falar sobre o BackTrack. A distro BackTrack ainda foi muito usada e indicada para testes de penetração. Sua instalação era similar a do Ubuntu. A distribuição Kali Linux é uma reconstrução do antigo Backtrack. É profundamente importante para o Administrador de Sistemas Linux conhecer esta distro para estar a par de ferramentas para auditoria em segurança. Lembremos que serviços em GNU/Linux são também em sua maioria requisitados pela segurança que o GNU/Linux pode oferecer. Conhecer este campo é portanto uma obrigação! Temos ainda o Arch Linux que é uma distribuição que foca na simplicidade e no código elegante. Foi lançada em 2002 por Judd Vinet. É uma distro rolling release, ou seja, a atualização do sistema é contínua, não há necessidade de baixar uma nova versão. O ArchLinux é uma das distros mais flexíveis e atualizadas atualmente, mas assim como o Slackware, é necessária uma boa experiência em Linux para conseguir usá-lo. Muito próxima desta característica ainda existe a distro Gentoo. O Gentoo é reconhecido por ser uma metadistribuição, isto é, uma distribuição adaptável. Podemos instalar o Gentoo em um servidor, em um sistema de jogos, estação de desenvolvimento ou onde o usuário quiser. O nome Gentoo faz referência ao pinguim da espécie gentoo, considerada uma das aves mais rápidas do planeta debaixo d'água. A adaptabilidade do Gentoo se dá graças a tecnologia de seu gerenciador de pacotes denominado Portage. Para encerrar vamos falar sobre o GNewSense. A distribuição GNewSense é um projeto que visa uma distribuição GNU/Linux totalmente livre. Esta distro foi baseada no Ubuntu e modificada para conter somente Software Livre. Por padrão, os softwares proprietários não são ativados. Mas qual distro usar? Não vamos entrar no mérito desta questão. Há uma briga secular em torno disto e não há vencedores, só vencidos. Não dá para dizer qual distribuição se deve usar. Há inúmeras, muitas mesmo, e seria deselegante de nossa parte dizer qual achamos melhor ou não. Imagine a seguinte situação: lhe sugerimos que use o Debian por conta de seu carácter ideológico. Mas e todas as outras distribuições com desenvolvimento baseado no trabalho voluntário de sua comunidade? Fica estranho né!? Digamos que lhe sugerimos usar o Red Hat por conta do suporte técnico, mas e a Suse, e o Ubuntu? Não possuem suporte técnico? Quem de nós já testou os três suportes para ver qual é mais eficiente? No entanto, o que propomos ao invés de dizer a você qual distribuição utilizar apenas, é tão somente colocar alguns questionamentos para que reflita no momento de escolher a sua distribuição. Além do mais pensamos que a melhor dica é: use todas as possíveis pelo menos durante um tempo mínimo de 1 mês cada, assim descobrirá sozinho qual será a melhor para você. Mas vamos as questões: 1) a distribuição é voltada para qual público? usuários iniciantes ou experientes? 2) a distribuição é paga ou gratuita? 3) há documentação satisfatória feita pela equipe da distribuição? 4) o fórum da distribuição tem movimento suficiente para garantir resolução de problemas rapidamente? Enfim, são apenas alguns questionamentos que devem ser feitos no momento da escolha de uma distribuição. Um método interessante é o do uso em máquinas virtuais. Se você possuir uma boa quantidade de espaço em HD, memória ram e capacidade de processamento, instale várias distribuições em diversas máquinas virtuais diferentes e teste-as com calma, comparando suas ferramentas e performance. Certamente o resultado será melhor do que apenas lhe dizer qual usar. Bom, neste artigo o que tentamos fazer foi uma introdução ao Linux em uma perspectiva mais histórica, tentando relacioná-lo com a própria evolução da computação. Se você já possui um conhecimento a respeito, como dissemos no início, é possível que não tenha encontrado nada novo, mas se você pouco ou nada sabia, esperamos então ter lhe fornecido informações suficientes para que possa a partir de agora ter uma compreensão maior a respeito deste fabuloso sistema operacional.





Leia também:


O Casal Curie - Radium 

O Papel de Cada Um - Comportamento

Colecionar insetos aguça interesse pela ciência  





http://bit.ly/1zIu2s4


C=419.649





Nenhum comentário:

Postar um comentário