sábado, 21 de julho de 2012

O Mais Rico Tesouro da América - Arqueologia


O MAIS RICO TESOURO DA AMÉRICA - Arqueologia




A partir de peças roubadas de uma sepultura, arqueólogos descobrem no Peru uma preciosa coleção que permite reconstruir a antiga civilização pré-colombiana dos mochicas.

Há dois anos, quando o arqueólogo Walter Alva foi chamado às pressas, no meio da noite, à delegacia da cidade de Chiclayo, na costa norte do Peru, imaginava encontrar ali um ladrão de tumbas, como tantos que infestam as ruínas das velhas civilizações que antecederam o homem branco naquelas paragens. Mas, para sua surpresa, encontrou uma coleção de peças antigas - que se revelaria um dos mais preciosos tesouros pré-colombianos encontrados até então. Haviam sido roubadas de uma sepultura de um dos monumentos de adobe que se erguem em Sipán - lugarejo a 26 quilômetros de Chiclayo - e confiscadas pela polícia na casa de um dos ladrões. Vasos de cerâmica, peças de cobre, estatuetas, adornos de ouro e prata e até uma pequena cabeça humana em ouro com as pálpebras esculpidas em prata e os olhos em lápis-lazúli faziam parte da inesperada descoberta.
Eram, sem dúvida, objetos de arte fabricados pelos mochicas, povo que habitou a costa norte peruana antes dos incas, dezessete séculos atrás. Pela riqueza das peças, Alva, diretor do Museu Arqueológico Bruning, em Lambayeque, também no Peru, logo imaginou que deveriam ter saído de uma sepultura suntuosa: provavelmente de alguém muito importante ou quem sabe de um governante. Mas sua hipótese só poderia ser testada com escavações no local e, mesmo assim, com o risco de não se encontrar mais nada. Afinal, essa era apenas uma entre as tantas sepulturas saqueadas que se encontram dentro das enormes e antigas estruturas de adobe - huacas, como são chamadas pelos peruanos. Algumas delas chegam a 40 metros de altura. Pilhá-las é um hábito tão comum quanto antigo, pelo menos desde os conquistadores espanhóis, que em 1532 iniciaram os saques aos monumentos, esburacando tudo o que encontravam, em busca de ouro.
Quatro séculos se passaram e essas construções históricas continuam a ser um alvo fácil para os ladrões. Os huaqueros, como são chamados, agem livremente, estimulados sobretudo pelos altos preços que os colecionadores pagam por peças antigas. Para se ter uma idéia, uma pequena cabeça de ouro mochica vale 100 mil dólares. Por tudo isso, raras vezes os arqueólogos tiveram a oportunidade de encontrar sepulturas importantes que já não tivessem sido roubadas.
Decidido, Alva imediatamente montou um acampamento na base do monumento saqueado. Se conseguisse explorar o local antes que outros huaqueros aparecessem, poderia, quem sabe, descobrir novas pistas sobre a civilização mochica, que surgiu, expandiu-se e desapareceu aproximadamente entre os séculos I e VIII da era cristã. Embora contemporâneos dos maias, seus adiantados vizinhos da região que se estende do sul do México à Costa Rica, os mochicas não desenvolveram, como aqueles, um sistema de escrita. "Tudo o que se sabe a seu respeito vem das pinturas em cerâmica", conta Vera Penteado Coelho, do Museu Paulista da USP, uma das maiores autoridades brasileiras em arqueologia peruana. "As cenas pintadas reproduzem desde animais, plantas, insetos até as doenças que havia entre eles", descreve Vera, que durante três anos estudou no Peru.
De fato, os mochicas reproduziram nas cerâmicas rostos com rugas e verrugas, sem falar nos olhares que conseguem transmitir tristeza mesmo atrás de um sorriso. Além de hábeis artesãos, foram também engenheiros e arquitetos competentíssimos, embora não tivessem erguido grandiosas construções, como fizeram os incas. Para sobreviver na estreita faixa desértica entre a cordilheira dos Andes e o oceano Pacífico, os mochicas desenvolveram uma imensa rede de canais, aproveitando os rios que descem da cordilheira, para transformar a região num vale fértil.
Aperfeiçoando as técnicas de irrigação, os mochicas estenderam seus domínios ao longo de 354 quilômetros, onde viviam 50 mil pessoas, que habitavam modestas casas de barro e palha. Além disso, usando tijolos retangulares de adobe - mistura de barro cozido com cascalho -, construíam enormes templos e pirâmides de topo achatado, que, apesar do nome, não tinham a mesma função das egípcias. As construções mochicas eram usadas também em vida, não só após a morte, Quando morria uma figura ilustre, erguia-se dentro delas uma câmara para abrigar o morto. Com ele enterravam-se objetos de uso pessoal e oferendas - geralmente, elas implicavam o sacrifício daqueles que o serviram em vida. Basicamente as pirâmides funcionavam como templos, centros administrativos e depósitos de tecidos e cerâmicas.
Os mochicas usavam cerâmicas como recipientes de comidas e bebidas, entre elas a chicha, obtida pela fermentação do milho moído, uma exclusividade da classe dominante de guerreiros e sacerdotes. Sua dieta, rica em proteínas, é de dar inveja a muitos peruanos nos dias de hoje. Cultivavam abacate, milho, feijão, amendoim, mandioca, abóbora e pimenta e incluíam nas refeições patos, porquinhos-da-índia, pitus (camarões de água doce) e muito peixe. Para pescar, os mochicas alcançavam as ilhas do Pacífico montados em botes que mais se pareciam a pranchas de surfe. A tradição mochica sobreviveu aos séculos: até hoje, nas areias da vila de Santa Rosa, não muito longe de Sipán, é possível ver os botes, que os pescadores locais chamam de caballitos (cavalinhos), semelhantes a pranchas, secando na praia. 
Não se sabe muita coisa sobre a religião dos mochicas. As cerâmicas mostram com freqüência as duas faces de um jaguar com os caninos salientes e ameaçadores. Supõe-se que seja uma divindade de nome Ai-apaec, cujo significado é desconhecido. Uma imagem em cobre desse felino de duas faces com os dentes feitos de conchas foi encontrada pela polícia na casa do huaquero de Sipán. O uso que os mochicas faziam de materiais como o lápis-lazúli e as conchas é um indício de que teriam comerciado com povos distantes que viviam nos territórios dos atuais Equador, de onde proviriam as conchas, e Chile, onde buscariam lápis-lazúli.
As escavações da equipe de arqueólogos em Sipán começaram efetivamente em abril de 1987 graças à colaboração de empresas locais, órgãos de cultura peruanos e uma doação de 47 mil dólares da centenária revista-americana National Geographic. Foi um trabalho longo e difícil. Munidos de pás e delicados pincéis, os arqueólogos realizaram ali uma verdadeira cirurgia. Somente um ano depois, descobriram-se marcas de vigas de madeira que teriam apoiado o teto de uma câmara retangular.
Com cuidado, os arqueólogos retiraram a grossa camada de areia que encobria o local e, surpresos, viram surgir centenas de potes, jarras, canecas e recipientes de cerâmica. Mais de mil peças foram inventariadas. Os pesquisadores concluíram que a câmara era o maior depósito de cerâmicas pré-colombianas já encontrado até então. Nelas aparecia com freqüência a cena de dois homens esforçando-se para baixar, com cordas, um caixão numa sepultura. Outra cena que se repetia em várias peças mostrava prisioneiros amarrados, nus, com uma corda no pescoço. Ainda nessa câmara, os arqueólogos encontraram um esqueleto humano. Como um contorcionista, estava arqueado sobre suas costas, com os braços cruzados e os joelhos forçados para trás. Próximo à ossada, pedaços de folhas de cobre e uma máscara também de cobre indicavam não se tratar de alguém propriamente ilustre.
Ele poderia ter sido sacrificado em honra de uma pessoa muito importante, enterrada mais abaixo, supuseram os arqueólogos. Não estavam enganados. Três metros e meio abaixo do contorcionista, surgia um segundo esqueleto humano, muito deteriorado, devendo ter pertencido a um homem de cerca de 20 anos. Fragmentos de cobre na sua cabeça e um escudo na cintura não deixavam dúvidas de que fora um guerreiro. Um dado chamou a atenção dos pesquisadores - a ossada não tinha pés. Teriam sido amputados antes ou depois da morte?
De todo modo, os arqueólogos se convenceram de que a ausência de pés simbolizava o dever de ficar sempre em seu posto, vigilante. Por isso chamaram o esqueleto de guardião. Mas, afinal, a quem ou o que ele guardaria? Para saber era preciso continuar escavando. Num dos cantos da câmara, 50 centímetros abaixo, novas marcas de vigas de madeira foram achadas e logo surgia um caixão selado, para espanto e alegria dos pesquisadores. Pois, pela primara vez na história da arqueologia peruana, descobria-se um caixão nessas condições.
Com tubos de ar e pincéis, ele foi aberto, e a primeira coisa que os arqueólogos notaram foi um adorno de cabeça em cobre, em formato de V, no qual tinha sido esculpida uma figura de homem com um enfeite no nariz. Coberta por um punhado de terra, debaixo do adorno, apareceu uma miniatura de ouro: um homenzinho vestido com uma túnica de turquesa. Era um objeto perfeito e, na opinião dos pesquisadores, a mais fina jóia pré-colombiana jamais vista. Tratava-se, na verdade, de parte de um grande brinco redondo. O brinco devia pertencer ao dono da sepultura - certamente alguém muito importante. Por isso, foi balizado de Lorde de Sipán.
Partes de uma máscara de ouro - olhos, nariz, queixo e uma bochecha - estavam sobre a cabeça do esqueleto. Peças de turquesa delicadamente trabalhadas formavam mosaicos redondos, usados como brincos, retratando guerreiros e animais. As sandálias de cobre que cobriam os pés do lorde não apresentavam sinais de uso. Duras e pesadas, deviam ser reservadas às cerimónias, se bem que isso pouca diferença fazia, pois as cerâmicas mostravam que os mochicas ilustres eram carregados em liteiras por homens comuns.
Junto ao lorde estavam um escudo de cobre e um chocalho de ouro. Ambos exibiam a mesma cena esculpida em alto-relevo: um homem vestido de guerreiro agarrava um prisioneiro pelos cabelos e batia em sua cabeça com um bastão, lembrando um sacrifício humano. Após analisar os fragmentos do esqueleto, o antropólogo John Verano, da Smithsonian Institution, de Washington, calculou que o homem deveria ter 1,52 m de altura e cerca de 30 anos quando morreu - não se tem como saber de quê. Nas duas pontas do caixão havia ossos de mulheres, certamente concubinas do lorde. Do lado direito, ossos de um homem e, com ele, os ossos de um cão. Ao que tudo indica, deve ter sido um aprendiz de guerreiro e teria cerca de 40 anos ao morrer.
À esquerda o esqueleto de outro homem, também de 40 anos. Os escudos de cobre, adornos de cabeça e bastões de guerra a seu lado levaram os arqueólogos a concluir que se tratava de um guerreiro. Homens e mulheres provavelmente haviam sido sacrificados em honra ao morto. Se, de fato, os objetos encontrados no caixão foram usados pelo dono, é certo que ele foi um guerreiro. A tanga de ouro que pendia da parte de trás do cinto, o ornamento de cabeça em forma de crescente, o enfeite de nariz e os sinos também presos ao cinto eram vestimentas exclusivas de guerreiros.
No entanto, por se tratar de objetos trabalhados com esmero em ouro e prata, ele não poderia ter sido apenas um guerreiro, e sim um sacerdote guerreiro, o mesmo que presidia as cerimônias rituais em que prisioneiros de guerra eram decapitados em homenagem às divindades. Como o militarismo e a religião eram características inseparáveis da sociedade mochica, compreende-se por que sua arte é tão pródiga em cenas de guerra. As representações artísticas permitem deduzir que a função da guerra para eles resumia-se à captura de inimigos para sacrificá-los depois, cortando-lhes o pescoço.
Não há indícios de que os prisioneiros de guerra se transformassem em escravos e mesmo de que houvesse escravidão entre os mochicas. As pinturas mostram também que o sangue dos sacrificados era recolhido em recipientes e mostrado às pessoas ilustres - elas se distinguem nas cenas pela elegância das roupas. O chocalho de ouro que os arqueólogos encontraram no caixão é o mesmo que aparece preso à liteira do sacerdote guerreiro, como mostram as pinturas. Entre os objetos que a polícia encontrou na casado ladrão em Sipán, também estavam um chocalho de prata - igual ao de ouro achado junto ao lorde - , uma faca de ouro, braceletes, brincos e um ornamento de cabeça em forma decrescente.
Diante dessas evidências, os arqueólogos levantaram a hipótese de Sipán ter sido o local escolhido pelos mochicas para enterrar seus mortos ilustres. A certeza só virá á medida que as escavações prosseguirem. Quem sabe os pesquisadores possam descobrir também por que a partir do ano 700 da era cristã a civilização mochica entrou em declínio. Os historiadores acreditam que ela foi minada por progressivas invasões de povos vindos do sul. Seja como for, a descoberta de Sipán proporcionou aos pesquisadores a rara oportunidade de comparar as pinturas em cerâmicas que se encontram em museus e coleções particulares  com as peças encontradas nas sepulturas e, a partir daí, reconstituir a vida dessa civilização pré-colombiana.

A arte mochica no Brasil

Nos últimos vinte anos, a Universidade da Califórnia, em Los Angeles, recolheu uma formidável documentação sobre a arte mochica. Ao todo são 125 mil fotografias de peças de cerâmica, cobre, ouro, prata e pedras preciosas, que se encontram espalhadas pelo mundo. Em seus desenhos estão retratados a arquitetura, os instrumentos, as cerimônias, as divindades e atividades - como a caça, a tecelagem e os combates - a que se dedicaram os mochicas. Com base nessas fotos, os arqueólogos peruanos puderam comparar os valiosos objetos encontrados na tumba do Lorde de Sipán e descobrir quem ele era naquela hierarquizada sociedade. No Brasil os exemplares do artesanato mochica - basicamente vasilhames de cerâmica - são muito representativos.
A maior coleção está no Museu Paulista da USP - o Museu do Ipiranga, como é mais conhecido. São 33 peças, doadas à instituição pelo arqueólogo alemão Max Uhle, em 1912. O museu costuma realizar mostras periódicas dessa e de outras coleções de artesanato pré-colombiano. Bem mais modesta, mas não menos valiosa, é a coleção em exposição permanente no Museu de Arqueologia da USP, na Cidade Universitária. São apenas sete vasos- um deles é pintado e os outros são moldados como figuras humanas, de animais e vegetais - , e neles estão representadas a habilidade e delicadeza da arte mochica.

As Janelas da Terra - Geologia



AS JANELAS DA TERRA - Geologia



Os vulcões oferecem espetáculos ao mesmo tempo trágicos e deslumbrantes. Causam morte e devastação, mas tiveram papel fundamental na formação do planetas. Sem eles não haveria atmosfera.

No dia 27 de agosto de 1883, o navio Batavia Queens singrava tranqüilo o mar de Java, na Indonésia, Extremo Oriente, quando foi surpreendido por uma formidável explosão e acabou engolido pelo mar - em Hollywood. Pois o barco só existiu no filme Krakatoa, o inferno de Java, que 85 anos depois reconstituiu em cores, no melhor estilo do que na década de 70 seria chamado cinema-catástrofe, a pior erupção vulcânica de todos os tempos. A ficção, no entanto, não deve ter ficado muito distante do que realmente aconteceu naquele dia de 1883. Relatos da época dão conta de que as explosões do Krakatoa repercutiram num raio de 5 mil quilômetros.
Ondas descomunais levantaram-se no mar e estenderam-se sobre as colinas das ilhas de Java e Sumatra, arrasando cerca de trezentas aldeias e vilas. Morreram 36 mil pessoas. Na derradeira explosão o Krakatoa afundou no mar fragorosamente. Calcula-se que o volume de matéria sólida regurgitado pelo vulcão, que subiu a 50 quilômetros de altura, foi da ordem de 18 mil quilômetros cúbicos, o equivalente, por exemplo, a 113 mil barris de petróleo ou um quinto da produção diária brasileira no ano passado. Dois terços daquele material caíram num raio de 30 quilômetros, formando um banco de pedras-pomes que, durante bom tempo, impediu a navegação na área; o terço restante permaneceu, suspenso na atmosfera em forma de poeira e se espalhou pelo planeta inteiro. Foi por isso que em toda parte, nos dois anos seguintes, o pôr-do-sol ficou mais avermelhado.
Para os nativos de Java e arredores, esse apocalipse provocado pelo vulcão só podia ser um castigo dos céus. Não se tratava propriamente de uma crendice nova: muito tempo antes, nos séculos VIII e IX, os antepassados dos javaneses achavam que as turbulências vulcânicas que assolavam aquelas paragens eram a manifestação do poder de Siva - o terrível deus hindu da fertilidade. Longe dali, também os antigos gregos e romanos provavelmente associavam tais erupções aos deuses. Tanto que a própria palavra vulcão vem do latim Vulcanus, deus romano do fogo (Hefestos para os gregos), representado com uma forja na mão.
As erupções vulcânicas são geradas nas profundezas do planeta. Assim, da mesma forma que os terremotos, os vulcões constituem autênticas janelas por onde os cientistas observam o que ocorre no manto da Terra - a camada que fica logo abaixo da crosta. Mais que isso, o papel do vulcanismo na formação do planeta é fundamental. Sem as erupções, não haveria, por exemplo, cadeias de montanhas. E, sem os gases e vapores que os vulcões expelem, a atmosfera não existiria, impedindo portanto o surgimento da vida. Tanto as erupções quanto os terremotos se originam no movimento das placas tectônicas - gigantescos blocos de rocha rígida que se movimentam sobre a astenosfera, a camada não rígida do manto - responsável pela deriva continental, que faz os continentes se afastarem ou se aproximarem uns dos outros.
Nesse colossal balé, as placas podem colidir: quando isso acontece, uma delas mergulha sob a outra ou debaixo do continente. De acordo com os geólogos, há no mundo dez grandes placas e diversas outras menores, todas em constante movimento de alguns centímetros por ano. "As erupções ocorrem, de preferência, nas margens dessas placas", explica o geólogo Mário Figueiredo, da USP. Segundo ele, o vulcanismo não resulta apenas da colisão de placas, também do afastamento delas. O espaço que se abre então é preenchido pelo magma  - rocha em estado liquido - que começa a subir em direção à superfície, irrompendo em forma de lava.
Dependendo do movimento das placas, convergente ou divergente, formam-se vulcões diferentes, tanto na forma (menos ou mais cônicos) quanto na maneira como irrompem (com rios de lava ou violentas explosões). É possível distinguir três tipos principais de vulcão na superfície terrestre. Um é o que ocorre nas cadeias mesoceânicas, localizadas na região central do oceano Atlântico (que inclui as ilhas de Tristão da Cunha, São Paulo, Açores e se estende até a Islândia, já no Atlântico Norte), do Pacífico e do Indico. Nessa vasta área, os vulcões são o resultado do movimento de placas divergentes. Sua forma não é tão cônica, suas crateras são mais largas e suas encostas mais espraiadas do que as dos vulcões do segundo tipo - os que se estendem pelo chamado cinturão de fogo que contorna o oceano Pacífico desde a América do Sul, chegando ao Japão e à Nova Zelândia.
Estes são conseqüência da colisão de placas. Enquanto na América do Sul o choque faz com que uma das placas oceânicas mergulhe sob a placa continental, no Japão e na Nova Zelândia as erupções são causadas pelo mergulho de uma placa oceânica sob outra. Nesse caso formam-se o que os geólogos denominam arcos de ilhas. No cinturão de fogo, os vulcões são mais cônicos e muito explosivos. Embora as erupções ocorram predominantemente nas margens das placas, há também casos de vulcanismo no interior das placas, chamados intraplacas. É o terceiro tipo. Um bom exemplo são os vulcões do Havaí. Ali, há no manto uma área conhecida como ponto quente. Trata-se de um foco de calor intenso, fixo, que estimula a produção de magma enquanto a placa se movimenta.
O magma chega à superfície e vai formando novas ilhas, que, por sua vez, se alinham com as mais antigas. Por meio da observação das ilhas novas e antigas, os pesquisadores podem saber como se dá o movimento das placas nessa região. Os célebres vulcões Etna e Vesúvio, na Itália, não se enquadram nesses tipos de vulcanismo. Eles são considerados intermediários entre os de arcos de ilhas e os das margens convergentes. Nem por isso são menos explosivos. Já os vulcões do leste da África são resultado de um mecanismo que ocorre na placa continental - ela se afina, vai se rompendo e possibilita as erupções. Isso pode levar à abertura de uma nova bacia oceânica. As erupções são tanto mais violentas e perigosas quanto mais viscoso for o magma, cuja composição varia.
Ele é formado basicamente de oxigênio sob a forma de óxidos metálicos, principalmente de óxido de silício ou sílica. Também entram nessa composição alumínio, ferro, magnésio, sódio, potássio, cálcio, titânio e manganês, além de carbono, flúor e enxofre. Quando o teor de sílica é baixo, a viscosidade é pequena e as erupções liberam rios de lava sem grandes explosões. É o caso dos vulcões da Islândia e do Havaí. Mas, à medida que o teor de sílica aumenta, o magma torna-se mais viscoso e não flui. Por isso, em vez de correr num rio de lava, explode por força da pressão.
Foi assim durante a erupção do vulcão Santa Helena, no Estado de Washington, extremo noroeste dos Estados Unidos, em 1980, que vomitou pedras, gelo, nuvens de gases quentes e lava. A grande devastação ficou por contada torrente de lama que se formou com o derretimento da neve que encobria suas encostas e desceu pelos rios, inundando o vale ao redor. Como não havia povoados próximos, o número de vítimas foi comparativamente pequeno - 61 pessoas. A explosão durou nove horas e calcula-se que equivaleu a 27 mil bombas como a lançada sobre Hiroshima durante a II Guerra Mundial, sem os efeitos radioativos, naturalmente. Depois da erupção, o Santa Helena até diminuiu de tamanho, devido à quantidade de material que jogou na atmosfera.
Muito pior foi outra explosão recente - a do Nevado del Ruiz, que em 1985 destruiu a cidade colombiana de Armero e matou 23 mil pessoas. Como no caso do Santa Helena, a causa da tragédia foram as torrentes de lama. Rápidas e violentas, podem percorrer distâncias de até 180 quilômetros em apenas duas horas e meia, arrastando tudo por onde passam. Nessa categoria está o El Chichón, no México, cuja última erupção, em 1982, durou sete dias e lançou 500 milhões de toneladas de cinzas na atmosfera. O material cobriu um quarto da superfície terrestre e bloqueou pelo menos 10 por cento da radiação solar. Onze aldeias foram varridas do mapa; a tragédia só não foi maior porque a população foi retirada a tempo.
A fina camada de poeira que uma explosão como essa ocasiona permanece muito tempo na atmosfera e certamente influência o clima da Terra. Foi o que aconteceu em conseqüência da explosão do Tambora, na Indonésia, em 1815. Ela provocou tal onda de frio no hemisfério norte que não houve para americanos e canadenses o ano ficou conhecido como aquele que não "houve verão". As erupções do Vesúvio, que sepultaram Pompéia e Herculano em 79 da era cristã, e as do Etna, em 1669, são comparadas pelos cientistas às mais catastróficas quanto ao lançamento de pedras, gases, cinzas e lava. Juntos, o Vesúvio e o Etna mataram 40 mil pessoas. Nessas explosões violentas, os gases expelidos combinam-se entre si e com a água, formando ácidos que não apenas matam por asfixia mas também por queimaduras.
Ao contrário desses, o Mauna Loa - o maior vulcão do mundo em altura, com 10 mil metros acima do fundo do oceano e 4 mil acima do nível do mar - e o Kilauea, ambos no Havaí, cujas maiores erupções aconteceram em 1835 e em 1924, não causaram tanta destruição porque a boa viscosidade do magma permitiu que este fluísse em rios de lava. Existem muitos vulcões ativos - adormecidos ou não - em todo o planeta, mas não se sabe exatamente quantos. Os cientistas estimam que haja entre 500 e 700 na superfície. Muitos outros permanecem no fundo do mar, longe dos olhos humanos.
"A dificuldade em precisar o número está em que não há qualquer característica que indique se um vulcão está ou não extinto", atesta o geólogo Mário Figueiredo. Ele dá como exemplo: "Quando estive na Antártida, visitei a ilha Pingüim, cujo vulcão deve ter irrompido pela última vez há cerca de duzentos anos. É muito pouco tempo em termos geológicos para dizer que esteja extinto". No Brasil não há vulcões, mas já houve há uma eternidade. Entre 73 e 48 milhões de anos atrás, quando a América e a África já eram continentes separados, dois vulcões entraram em erupção onde hoje é o Rio de Janeiro: os cientistas chegaram ao requinte de descobrir que um deles ficava na serra do Mendanha, no atual bairro de Campo Grande, e outro na serra de Madureira, onde está a cidade de Nova Iguaçu. O Brasil não tem vulcões ativos há muito tempo porque está afastado das margens das placas tectônicas.
Da mesma forma não acontecem erupções na ilha de Fernando de Noronha há 1 milhão de anos, o que prova que se extinguiu o vulcão que ali existia. Entre os vulcões ativos alguns têm pequenas e constantes erupções, como o Stromboli, na ilha do mesmo nome, no mar Tirreno, na Itália. À noite, transforma-se em espetáculo para turistas que ali fotografam as erupções sem perigo algum. Se de um lado as manifestações vulcânicas não são passíveis de controle, de outro podem ser previstas a tempo de impedir grandes tragédias, com a retirada da população.
Preocupados em diminuir os efeitos catastróficos das erupções, os vulcanólogos vêm desenvolvendo experiências inéditas. Em 1983, por exemplo, geólogos italianos conseguiram por meio de explosões de dinamite bloquear os caminhos por onde corria a lava do Etna, desviando-a para um lado do vulcão onde não havia aldeias. No ano passado, pesquisadores franceses conseguiram projetar um simulador de vulcões. Trata-se de um aparelho de 50 quilos que possui um reservatório, onde ficaria o magma, e um conduto, que o levaria à superfície. No reservatório foram injetados líquidos viscosos de composição semelhante à do magma; à medida que a pressão e a temperatura aumentavam, os cientistas colhiam dados sobre as bolhas que a fusão do material produzia, os fluxos de gases e a viscosidade.
A observação era feita por duas câmeras de vídeo com as objetivas mergulhadas no líquido viscoso. Assim, os pesquisadores conseguiram um modelo quantitativo que reproduz os fenômenos que ocorrem no interior de um vulcão. Dessa forma, as possibilidades que se tem de prever erupções são cada vez maiores. E isso não deixa de ser auspicioso para os hóspedes que precisam defender-se das instabilidades de um planeta sempre em movimento.

Uma erupção de energia

"Os vulcões podem sepultar cidades, mas têm também suas aplicações práticas", sustenta a geofísica Marta Mantovani, do Instituto Astronômico e Geofísico da USP. Ela se refere ao possível aproveitamento da energia que vem da terra, chamada geotérmica, para a produção de energia elétrica a baixo custo, e outras aplicações, como o aquecimento de habitações - o que a toma atraente fonte alternativa para países carentes tanto de recursos como de energia. Nas regiões vulcânicas, parte do calor contido no magma se dissipa nas erupções. Mas a porção maior permanece aquecendo as rochas e seus fluidos. Estes estão presentes nas áreas por onde o magma sobe em direção à superfície. Os fluidos aquecidos só conseguirão subir senão forem barrados por uma cobertura de rochas impermeáveis. Se isso acontece, apenas uma mínima parte daqueles fluidos rompe o obstáculo; o resto vai formar os campos geotérmicos, que uma vez perfurados fornecerão energia. Nesses campos, as temperaturas alcançam de 200 a 300 graus, mesmo a profundidades inferiores a mil metros. Quando a broca penetra na formação porosa onde estão os fluidos, eles alcançam a superfície rapidamente devido à pressão. Canalizados, movimentam as turbinas de uma usina geradora de eletricidade. Os pioneiros na exploração dessa modalidade foram os italianos: desde o início do século uma central movida a energia geotérmica existe em Larderello, na Toscana. Sua capacidade instalada é da ordem de 400 Mw, ou dois terços da malfadada usina nuclear de Angra I, em Angra dos Reis. Uma central semelhante serve para aquecer as habitações da gélida Reykjavík, capital da Islândia. Outras usinas funcionam no México e em El Salvador, periodicamente assolados por desastres vulcânicos. Assim, as manifestações da natureza que castigam populações inteiras podem também beneficiá-las.

Um Inimigo na Intimidade - AIDS



UM INIMIGO NA INTIMIDADE - AIDS



Nunca antes se aprendeu tanto sobre uma doença em tão pouco tempo, como no caso da AIDS. Isso torna possível controlar a sua propagação, mas ainda não permite pensar em cura.

A AIDS provocou uma reviravolta em muitos dos conceitos mais otimistas da Medicina. De fato, com a descoberta dos antibióticos na década de 40, os médicos puderam pela primeira vez intervir no curso das doenças. O então novo medicamento tornava possível matar o agente infeccioso depois de ter ele invadido o paciente. Chegou--se a pensar que os antibióticos, junto com as vacinas, fariam desaparecer da face da Terra as doenças infectoparasitárias -- aquelas causadas por vírus, fungos, bactérias, protozoários ou vermes. Mas o aparecimento da AIDS mudou todas as expectativas.
Com ela surgira algo inimaginável: uma nova e desconhecida doença. Desde que os primeiros casos foram relatados há sete anos nos Estados Unidos, calcula--se o número total de vítimas em 300 mil em todo o mundo, mas supõe--se que haja até 10 milhões de pessoas contaminadas. Estima-se que a AIDS já matou entre 50 mil e 120 mil pessoas. O alarme soou pela primeira vez no Centro de Controle das Doenças (CDC), em Atlanta, Estados Unidos, quando nos oito meses anteriores a junho de 1981, cinco casos de pneumonia causada por protozoário -- o Pneumocystis carinii -- foram relatados, todos na região de Los Angeles.
Só para se ter idéia da surpresa que isso causou, entre novembro de 1967 e dezembro de 1979 apenas dois casos dessa pneumonia haviam aparecido em todo o país. Ela ocorre quando o sistema imunológico de um paciente está profundamente afetado pelo câncer ou por potentes medicamentos que se destinam justamente a enfraquecer as defesas naturais do organismo. É a chamada infecção oportunista. Todos aqueles cinco novos casos, no entanto, haviam ocorrido em jovens homossexuais, cujos sistemas imunológicos não tinham motivo aparente para ter deixado de funcionar.
Na mesma época, o CDC começou a receber informes de uma série de patologias inesperadas em pacientes homossexuais: o sarcoma de Kaposi (um tipo de câncer), aumento dos gânglios linfáticos, linfoma (câncer dos glóbulos brancos) e outros. Mais uma vez, a única ligação entre os novos casos era o fato de que algo estava deixando em frangalhos o sistema imunológico dessas pessoas. Os achados clínicos eram consistentes o bastante para poderem ser reunidos numa síndrome (conjunto de sinais e sintomas que identificam uma doença) inteiramente nova.
Os primeiros estudos indicaram que a principal característica dos homossexuais afetados pela doença era o número elevado de parceiros sexuais -- entre 60 e 80 por ano. Logo, a transmissão deveria se dar pelo ato sexual. Foi quando surgiram os primeiros casos entre os hemofílicos -- que recebem regularmente um grande número de transfusões sanguíneas. Em dezembro de 1982, o número de homens e mulheres homossexuais contaminados correspondia a 20 por cento dos casos. Isto fez com que fosse reconhecida a via sanguínea de transmissão e que a doença passasse a ser chamada AIDS ( Síndrome da Imunodeficiência Adquirida ).
Tornava-se cada vez mais claro que a causa da AIDS era um agente infeccioso, provavelmente um vírus. Esta hipótese foi confirmada em 1983, quando as equipes de Luc Montagnier, do Instituto Pasteur, em Paris, e de Robert Gallo, do Instituto Nacional do Câncer, nos Estados Unidos, conseguiram isolar o vírus, chamado pelo francês de LAV e pelo americano de HTLV-III, e que mais tarde teve a nomenclatura unificada para HIV (Human Immunodeficiency Virus). Logo chamou a atenção dos pesquisadores o fato de a AIDS ser causada por um retrovírus. Como todos os vírus, os retrovírus precisam utilizar a matéria-prima existente no interior da célula para se reproduzir.
Mas possuem uma característica que os diferencia dos demais: normalmente, no interior do núcleo celular, o DNA, a molécula responsável pela hereditariedade, informa outra substância, o RNA, como fabricar proteínas; os retrovírus, no entanto, produzem uma proteína que põe o processo de ponta-cabeça, fazendo com que seu próprio RNA modifique o DNA celular; este passa então a fabricar as proteínas necessárias para formar outros vírus. O DNA assim alterado pode permanecer incorporado ao material genético do hospedeiro de forma latente; até que seja ativado para produzir novos vírus.
Duplicando-se de modo controlado, o vírus pode então viver muitos anos no interior das células, sem matá-las. Essa característica genética certamente surgiu como uma adaptação desenvolvida pelos retrovírus capazes de infeccionar uma espécie animal de maior longevidade -- em relação aos demais mamíferos --, como o homem. Buscando os caminhos dessa adaptação, os pesquisadores passaram a estudar vírus semelhantes que pudessem infeccionar outros primatas. Dois anos após a descoberta dos primeiros retrovírus humanos, foi isolado um vírus em macacos -- o SIV, Simian Immunodeficiency Virus --, em espécies asiáticas e africanas.
O macaco-verde da África revelou-se um verdadeiro reservatório natural do SIV. Embora 30 a 70 por cento dos animais estivessem contaminados, não ficavam doentes. Quando um macaco asiático foi colocado junto aos africanos, morreu de linfoma. Aparentemente, os macacos africanos desenvolveram um mecanismo que impede um vírus letal de causar a doença. Conhecer os mecanismos dessa imunidade seria um caminho para tentar reproduzi-la no caso da infecção pelo HIV. O SIV é um parente próximo do HIV, mas faltava um elo nessa cadeia evolutiva, um vírus intermediário. Tal vírus, se existisse, deveria ser encontrado em grupos de alto risco na África.
Um estudo realizado em prostitutas africanas -- sujeitas às contaminações sexuais, já que homossexuais e viciados em drogas são raros no continente -- revelou que 10 por cento delas, na África Ocidental, tinham anticorpos que reagiam tanto ao HIV como ao SIV, e até melhor com este último. O que sugeria haver ali uma infecção diferente da encontrada na Europa, nos Estados Unidos ou mesmo na África Central. Esse novo vírus, mais próximo ao SIV que ao HIV, foi chamado HIV-2. Ao que tudo indica, os indivíduos por ele contaminados não desenvolvem a AIDS. Ou o HIV-2 é antigo o suficiente para ter a virulência, ou é recente, e não houve tempo para que os infeccionados apresentassem a doença.
Mas como é possível detectar uma infecção num indivíduo aparentemente sadio? Os testes usados tanto nesse estudo como na prática diária servem para demonstrar a presença de anticorpos contra o HIV no sangue, confirmando o diagnóstico da AIDS nos pacientes, ou analisando o estoque de sangue usado nas transfusões. Esses testes serviram para confirmar a suspeita de que os casos clínicos de AIDS correspondem apenas a uma pequena fração do número total de pessoas infeccionadas. Logo após ter tido contato com o vírus, o indivíduo permanece sem apresentar sintomas durante seis meses a um ano.
Nessa fase, ainda não existem anticorpos presentes no sangue. É a chamada Fase zero -- soronegativa. Os epidemiologistas adotaram a Fase zero para reforçar o fato de que atualmente a exposição ao vírus é um fator mais importante do que pertencer a algum "grupo de risco". Assim que o organismo passa a produzir anticorpos e a presença do vírus é estabelecida (soropositvo), os pacientes entram na Fase 1, que pode não apresentar sintomas, ou assemelhar-se à mononucleose, com fadiga, febre ou dor de cabeça. Esses sintomas desaparecem em poucas semanas, quando então surgem as ínguas que caracterizam Fase 2.
Esta pode durar até cinco anos sem debilitar muito o paciente. Os problemas começam da Fase 3 em diante (são seis, ao todo), quando o sistema imunológico vai ficando abalado e as infecções oportunistas se instalam. Nada disso teria acontecido se o vírus não houvesse encontrado um ponto de atração nas células que comandam as defesas do organismo e ali começasse a invasão. Trata-se de uma proteína, antígeno CD4 (um antígeno é uma molécula que pode ser reconhecida por um anticorpo), encontrada no revestimento dos linfócitos T-auxiliares. É a perda destas células que causa a deteriorização do sistema imunológico (SUPERINTERESSANTE nº 7, ano 2 ).
Uma proteína da capa viral, a glicoproteína gp120 ( que contém açúcares ), liga-se com facilidade à CD4. E é justamente nessa ligação que alguns medicamentos experimentais procuram atuar. As primeiras tentativas de se criar uma "rolha" para a gp120 não foram bem-sucedidas; por outro lado, cobrir a CD4 celular significaria criar, de certo modo, anticorpos para atacar células do próprio organismo; promissora, porém, é a proposta de se injetar no sangue a proteína CD4 livre, que iria grudar-se na capa do vírus, imobilizando-o. Isso evitaria a infecção, já que o vírus fica inerte enquanto não puder penetrar numa célula.
Mas uma vez que ele ali tenha penetrado, a tática é outra. A procura de um medicamento que agisse no interior da célula rendeu frutos no primeiro semestre de 1985, quando trezentos compostos foram testados e quinze conseguiram impedir que o vírus se multiplicasse. Entre eles estava o AZT (azidotimidina). Embora prolongue a sobrevida dos pacientes, o AZT é extremamente tóxico, chegando a provocar anemia. Sua grande vantagem talvez tenha sido a velocidade com que foi desenvolvido, testado e liberado. Novos medicamentos devem surgir. Como o AZT, a grande maioria deles tentará impedir a ação das enzimas virais.
Mas, para evitar que uma pessoa se contamine, só mesmo a vacina. Apesar dos muitos milhares de dólares investidos na pesquisa de uma vacina antiAIDS, ela não deverá estar ao alcance do público antes da virada do século. Não são poucos os problemas no caminho: para começar, o vírus destrói as próprias células que deveriam ser ativadas pela vacina; além disso, não existe um animal que serviria de modelo aos estudos, pelo simples fato de que nenhum deles fica doente ao contrair a AIDS; e, mesmo que surja algum, e os resultados forem satisfatórios, como fazer na etapa seguinte para testá-lo em pessoas sadias?
Pois uma vacina só é considerada eficaz se proteger um indivíduo da doença; e, como os vacinados, por motivos éticos, não podem passar a agir como se fossem invulneráveis, mas devem ser advertidos para praticarem "sexo com segurança", como saber se a vacina realmente os protegeu, ou se não desenvolveram a doença apenas devido à escolha consciente de parceiros? E já que o período de latência pode chegar a cinco anos ou mais, por quanto tempo devem os voluntários ser acompanhados, antes de se chegar a uma conclusão sobre a eficácia da vacina experimental? Finalmente, não pode haver o menor risco de que o vacinado contraia a AIDS da própria vacina, uma possibilidade remota mas real nas vacinas à base de vírus inativados.
Com as técnicas da Engenharia Genética, espera-se poder fabricar vacinas a partir de subunidades do HIV, ou então introduzi-las em outra vacina existente, como a da varicela, por exemplo. Numa época em que a Medicina pensava ter, se não a resposta, pelo menos a pista para a cura das doenças infecciosas, surge a AIDS, uma afecção mortal que mexe com a sexualidade e a moral de nossa época. A desgraça da AIDS ao menos criou uma mobilização mundial sem precedentes e em tempo recorde a Medicina avançou a passos largos, com recursos e motivação. Nunca antes uma doença foi tanto pesquisada em tão pouco tempo. Se isso pode não ser um consolo à altura da devastação já causada pelo HIV, certamente é uma esperança no poder da ciência.

Palavra de Homem - Antropologia


PALAVRA DE HOMEM  - Antropologia



Como, quando e por que o ser humano passou a falar? As mais recentes respostas contam uma história apaixonante, que começa com um pequeno comedor de insetos.

Um casal de namorados troca juras de amor. O locutor de um jogo de futebol transmite um lance pela ponta esquerda. Um cientista faz uma comunicação sobre buracos negros num congresso de Astrofísica. Por incrível que pareça, essas três situações podem estar relacionadas às remotas andanças de um pequeno mamífero comedor de insetos, semelhante ao atual musaranho, que vivia há uns 65 milhões de anos, mais ou menos à época em que os dinossauros sumiram da face da Terra. Pois aquelas situações têm algo em comum: o uso da linguagem. E as hipóteses mais recentes sobre as origens da linguagem -- apresentadas há poucos meses num seminário internacional que reuniu 150 especialistas em Cortona, na Toscana, Itália -- envolvem justamente as antiqüíssimas aventuras daquele mamífero comedor de insetos.
Do que se discutiu em Cortona, emergiu a convicção de que a linguagem -- um mecanismo de comunicação que a rigor só os humanos possuem -- não teve um início único, bem demarcado no tempo. Mas foi produto de uma série de processos, separados uns dos outros às vezes por muitos milhões de anos e que vieram a se combinar no ser humano. Os organizadores do simpósio de Cortona, os antropólogos italianos Brunetto Chiarelli e Andréa Campero Ciani, fizeram uma síntese das discussões ali travadas, que vale como uma síntese das hipóteses mais aceitas até agora sobre as origens da linguagem. É claro que muitas incertezas e controvérsias permanecem -- como, de resto, em praticamente tudo o que diz respeito à vida dos antepassados do homem. Mesmo quando os especialistas (paleontólogos, antropólogos, biólogos, entre outros) concordam em relação a um evento, por exemplo, podem divergir quanto ao período aproximado em que ele se deu. O capítulo da linguagem não é exceção.
A história contada por Chiarelli e Ciani começa quando os musaranhos, acostumados aos campos, passaram a subir às árvores das florestas. Nesse nicho ecológico, com o decorrer das gerações, eles passaram a desenvolver características mais adequadas ao novo ambiente. Primeiro, começaram a desenvolver a visão binocular, em que as imagens vistas pelos dois olhos se confundem numa imagem única, tridimensional. A par disso, surge a visão em cores. Isso multiplica as chances de sobrevivência no ambiente multiforme da floresta, onde perceber detalhes (um animal predador escondido na folhagem) pode fazer a diferença entre a vida e a morte.
Outra adaptação anatômica de importantíssimas conseqüências foi o surgimento do polegar, oponível aos outros dedos da mão, o que facilita agarrar-se aos galhos das  árvores, permitindo ao animal caminhar entre elas sem o risco de andar no chão exposto às feras. Sem esses dois processos, o ser humano -- descendente daquele insetívoro parecido com o musaranho -- não poderia ter desenvolvido, dezenas de milhões de anos depois, a capacidade de falar e entender o que os outros falam. Isso porque, sem a visão tridimensional e colorida, o ser humano não teria conseguido traçar um mapa mental de seu ambiente -- e assim não poderia comunicar a outro ser humano onde achar comida. E sem o polegar oponível aos outros dedos -- uma característica que o homem partilha com os demais primatas seus parentes, o chimpanzé, o gorila e o orangotango -- a mão não se teria libertado da necessidade de ajudar o andar sobre o chão, como fazem os quadrúpedes.
O difícil é precisar quando todas essas mudanças ocorreram . Fala-se em algo como 15 milhões de anos atrás, quando viviam os Dryopithecus, dos quais teriam descendido tanto o homem como os primatas modernos. É certo, em todo caso, que os indivíduos da mais antiga espécie hominídea conhecida, o Australopithecus afarensis, que viveu há pelo menos 3 milhões de anos ( SUPERINTERESSANTE nº 9, ano 2 ), já exibiam a postura ereta -- um efeito a longo prazo do polegar oponível. Livre da tarefa de andar, a mão libertou também a boca da tarefa de segurar a comida, que passou a ser agarrada com o polegar preênsil. Libertada da tarefa de pegar os alimentos, a boca, por sua vez, depois de passar também ela por transformações anatômicas relacionadas à postura ereta, estaria bem depois disponível para outras ocupações, como falar.
Mas não pára aí a influência, na origem da linguagem, da mão dotada do polegar oponível. Pois isso permitiu que uma das mãos, a direita, se especializasse na manipulação de objetos -- alimentos, paus, pedras --, enquanto a outra se especializava na localização espacial. Essa divisão de funções levou à chamada lateralização do cérebro dos primatas: o hemisfério esquerdo do córtex cerebral passou a coordenar os movimentos do lado direito do corpo, enquanto o hemisfério direito passou a lidar com o lado esquerdo. Isso tem muito a ver com a linguagem, pois, quando falamos, acionamos áreas especializadas do lado esquerdo do córtex cerebral, que movimentam o aparelho fonador e tornam possível dizer frases inteligíveis.
No seminário de Cortona, os antropólogos dataram a partir de 15 milhões de anos atrás o início da segunda fase dos processos que levaram à linguagem humana. Nessa época, na África, as florestas começaram a regredir e seu espaço ficou cada vez mais ocupado pelo campo aberto, a savana. Os primatas de então, descendentes dos assemelhados ao musaranho e adaptados à vida silvícola, viram-se forçados a novas mudanças em conseqüência da transformação no habitat. Os que ficaram na floresta -- e acabaram dando origem aos ancestrais do chimpanzé e do gorila -- , dispondo de um território menor e com grande concentração de alimentos vegetais, desenvolveram ao longo das gerações um potente aparelho masticatório, para aproveitar ao máximo os vegetais disponíveis.
Daí a feição característica dos antropóides, com suas grandes bocas e queixos. Já os ancestrais do ser humano se desenvolveram na savana, onde os alimentos estavam muito mais dispersos por um território bem maior que o da floresta. Isso, ao que tudo indica, favoreceu neles a formação de um mapa mental mais sofisticado que o dos silvícolas. Resultado: aumentou o tecido cerebral e modificaram-se as proporções do crânio em relação à face -- daí a feição característica dos hominídeos e dos seres humanos.
Ora, o aumento da caixa craniana e a diminuição relativa da face se deram paralelamente à intensificação da postura ereta dos ancestrais do homem. Por isso, o bulbo raquidiano, que une o tecido cerebral ao tecido nervoso da medula da coluna vertebral, ficou nos seres humanos a passar verticalmente, pelo pescoço ereto, e não mais horizontalmente, como acontece com os outros animais. Com isso, a laringe do ser humano (o oco da garganta) ficou afundada, trazendo consigo a língua, que ficou presa mais para perto da garganta. A laringe tornou-se assim uma caixa de ressonância bem mais aperfeiçoada e a língua passou a ter mais espaço na boca -- duas características fundamentais para a funcionalidade do aparelho fonador humano.
Mas, se isso explica como surgiu o aparelho capaz de emitir por volta de cinqüenta sons básicos, que se combinam para criar o infinito da linguagem, não explica por que os seres humanos passaram a usá-lo para se comunicarem uns com os outros. (O papagaio, por exemplo, desenvolveu um aparelho fonador capaz de emitir sons semelhantes aos do homem, mas não o usa para se comunicar com os seus iguais). Além disso, não se sabe quando o aparelho fonador começa a ser usado para produzir uma linguagem. Afinal, a fala não deixa marcas fósseis que permitam datar com precisão as suas origens. Os pesquisadores acreditam que a linguagem oral é muitíssimo mais antiga que a escrita, surgida há apenas 6 mil anos.
De qualquer forma, todas aquelas mudanças anatômicas fizeram diminuir a boca dos ancestrais do homem. Mas esse, já ereto, pôde usar as mãos para preparar os alimentos antes de enfiá-los na boca -- inicialmente cortando-os em pedaços, depois moendo-os e por fim cozinhando-os. Assim, foi-se desenvolvendo o modo de vida especificamente humano. Ocorre ainda que, para sobreviver na savana ,onde havia menos alimentos vegetais disponíveis, os hominídeos dependiam de alimentos animais, particularmente de animais de grande porte. Para caçá-los, aprenderam, de um lado, a agir em grupo; e, de outro, a usar instrumentos (primeiro, pedras e paus disponíveis naturalmente; depois, objetos já adaptados a suas necessidades).
Isso estimulou a comunicação entre os hominídeos em escala maior que em outras espécies, nas quais, salvo exceções, cada indivíduo tende a obter o seu alimento basicamente sozinho e sempre sem o uso de instrumentos. Para a origem da linguagem, o uso de artefatos foi ainda mais importante do que a associação dos caçadores, mesmo porque há animais que organizam caças coletivas sem se comunicarem, como o cão caçador da África. Pois havia a imperiosa necessidade de ensinar aos outros como produzir e usar os instrumentos. Supõe-se que a primeira linguagem humana tenha sido mais gestual do que oral. A fala, como os gritos de outros primatas, devia tão somente acompanhar os gestos. Mas, à medida que as mãos passavam a ficar cada vez mais ocupadas com os instrumentos, havia menos disponibilidade para os gestos.
É muito possível que a linguagem seja qual for a origem, se tenha basicamente desenvolvido a partir das necessidades da divisão do trabalho. Os primeiros agrupamentos humanos organizados já contavam com divisão de tarefas entre caçadores, coletores de vegetais, preparadores de alimentos, responsáveis pelas crianças. Essa primitiva, porém já complexa, rede social exigia uma forma de comunicação mais sofisticada que o gesto ou o grito -- a linguagem. Ela permitiu que fosse criado o universo específico do ser humano. Com efeito, o animal ou tem comportamentos inatos, instintivos, ou tem comportamentos que aprendeu individualmente, mas -- na grande maioria das espécies -- é capaz de transmiti-los a seus semelhantes.
Com a linguagem humana, os comportamentos aprendidos individualmente puderam ser transmitidos aos outros indivíduos e às gerações sucessivas. A par disso, cresceu enormemente a malha de informações comuns ao grupo, multiplicando suas possibilidades de sobrevivência. O fato de estar a linguagem relacionada com a divisão do trabalho pode ser indiretamente comprovado pelo estudo das abelhas, seres que também trabalham coletivamente e que, segundo a maioria dos zoólogos, foram os únicos, além do homem, a desenvolver uma linguagem com símbolos abstratos.
A dança das abelhas comunica em que direção e a que distância há flores com mel -- uma linguagem muito diferente, por exemplo, dos gritos do ganso quando vê uma fera, que apenas comunica aos outros gansos o medo que está sentindo. Já um homem pode dizer a outro não só que sente fome -- o que podia indicar apenas com um grito --, mas que sentiu fome ontem. A partir do uso da linguagem é que o ser humano desenvolveu raciocínios mais complexos do que os animais. Ao que parece, outros animais também pensam, embora esse assunto dê margem a intermináveis polêmicas entre os cientistas. Mas o seu pensamento não tem a ferramenta generalizadora da linguagem. Assim, mesmo que o animal possa tirar conclusões de um acontecimento, não pode generalizá-las nem transmiti-las aos companheiros.
Se a linguagem está relacionada ao trabalho e ao raciocínio lógico, também está relacionada com a liberdade do ser humano. O psicopedagogo soviético Lev Vygotsky (1896-1934), cujos trabalhos tiveram sua divulgação restringida na era stalinista, mostrou como a criança diz a si mesma, primeiro em voz alta e depois internalizadamente, o que quer fazer e o que vai fazer. A linguagem para si mesmo é o pensamento que desencadeia os atos voluntários, diferentes dos atos reflexos dos animais. O homem sabe que na linguagem está a liberdade e tudo que o torna humano: o raciocínio, a inteligência, a criatividade; e a possibilidade de comunicar a conquista do raciocínio de cada indivíduo, da inteligência de cada grupo, da criatividade de cada sociedade. Tudo que é humano -- as pirâmides, os poemas e as naves espaciais -- existe assim porque há 65 milhões de anos um mamífero que comia insetos começou a subir às árvores.

Inglês para chimpanzés

Há três séculos, em 1661, após ter visto um babuíno em Londres, o pensador Samuel Pepys, presidente da Royal Society, escreveu: "Acredito que ele já entenda bem o inglês e sou de opinião que pode ser ensinado a falar ou a fazer sinais". Essa fantasia de transmitir a linguagem humana a macacos só seria levada a sério nos tempos atuais -- com resultados desanimadores. Nos anos 50, por exemplo, o casal de cientistas americanos Keith e Cathy Hayes, após  quatro anos de intenso treinamento, só tinha conseguido ensinar à chimpanzé Viki quatro palavras ma ("mamãe"), pa ("papai"), cup ("xícara") e up ("de pé").
O biolinguista americano Philip Lieberman, uma das maiores autoridades mundiais no assunto, explica as limitações do chimpanzé não como uma prova de falta de inteligência mas como resultado das diferenças entre o parelho fonador do homem e dos antropóides. "O homem pode produzir sons em tempo infinitamente mais veloz", escreveu Lieberman. "Se fôssemos constituídos como o chimpanzé, ao falar esqueceríamos o início de uma frase antes de tê-la pronunciado por inteiro." Mas não seria possível ensinar os símios a se expressar por sinais, como sugeriu o velho Pepys? Foi o que decidiu, em 1965, outro casal de cientistas americanos, Allen e Beatrice Gardner.
Num famoso experimento, eles ensinaram a chimpanzé Washoe a usar gestos da "linguagem americana de sinais", usada para educar surdos-mudos. Criando Washoe como se fosse um bebê, até com direito a mamadeira e instruindo-a no uso dos objetos do lar, os Gardner conseguiram que ela aprendesse o significado de 150 sinais. Washoe aprendeu a expressar por gestos, frases como "eu, Washoe, espelho". querendo dizer "eu, Washoe, apareço no espelho", e "carro, supermercado, laranja", querendo dizer "vá pegar o carro para ir ao supermercado buscar laranjas" ( a chimpanzé tinha sido informada de que não havia laranjas em casa).
Depois dessa e de outras tentativas, os cientistas concluíram que os chimpanzés são capazes de associar símbolos a objetos, mas não de formular verdadeiras frases e muito menos expressar idéias. Mesmo a associação de símbolos a objetos só parece ocorrer em condições artificiais criadas pelo homem. No seu ambiente natural, os chimpanzés no máximo gritam quando percebem alguma ameaça ou gesticulam para impor uns aos outros a hierarquia social e sexual. Os experimentos indicam em todo o caso que, submetidos à pressão de um ambiente semelhante ao humano, os chimpanzés conseguem se superar.
Isso é mais uma comprovação da chamada "lei do excesso", segundo a qual cada espécie dispõe de capacidades superiores às que usa para sobreviver naturalmente em seu meio (por exemplo, o cachorro aprende truques de circo que dele exigem muito mais que sua vida normal). Resta saber quais serão as capacidades do ser humano não exigidas até agora por suas condições de vida.

Salvando a Pele - Vida Moderna



SALVANDO A PELE - Vida Moderna



Uma pequena película incolor é a musa do verão no mundo dos cosméticos: o filtro solar, a arma mais eficaz para uma boa temporada na praia.

Munidas do tradicional equipamento (esteira, guarda-sol, toalha e bronzeador), multidões de banhistas cumprem, neste começo de ano, o prazeroso dever de todo santo verão" bronzear a pele. O objetivo da maioria é se queimar no menor tempo possível e assim exibir, praticamente de um dia para o outro, o tom moreno que se tornou um dos mais valorizados sinais exteriores de saúde e beleza da atualidade, Não raro, porém, o máximo que esses incautos conseguem é um vermelho-camarão nada atraente, cercado de bolhas e manchas às vezes incuráveis. Essa verdadeira adoração ao sol foi proposta já na década de 20 pela famosa estilista francesa Coco Chanel. Na época, porém, as damas recusaram a novidade, preferindo manter-se sob a proteção de sombrinhas, chapéus e até luvas.
A moda ainda era conservar a pele o mais alva possível -- se não por informações sobre os perigos do sol, ao menos pela força do hábito. A tradição, nesse sentido, funcionava como um eficiente filtro solar. Foi apenas a partir de 1936, quando os trabalhadores franceses conquistaram a semana de 40 horas e as férias remuneradas, que os europeus começaram a ir em massa para a praia, de preferência a ensolarada costa do mar Mediterrâneo. Depois da Segunda Guerra, o novo hábito propagou-se pelos quatro cantos do mundo. Levou tempo até os cientistas perceberem que isso tinha a ver com outro fenômeno: o gradativo inchaço das estatísticas sobre incidência de câncer da pele em todos os países.
Hoje não há mais dúvida: "É preciso perder a mania de achar que pele bronzeada é sinal de saúde". adverte o dermatologista Mario Grimblat, do Hospital Albert Einstein, de São Paulo. "A exposição exagerada ao sol é extremamente perigosa." Ao contrário do que se poderia pensar, toda a traquitanda que as pessoas levam à praia não é suficiente para proteger o organismo dos danos causados pelo excesso de radiação. Esconder-se sob uma barraca, por exemplo, não quer dizer estar livre de queimaduras, porque os raios responsáveis por elas, além de invisíveis, podem ser emitidos de três maneiras: irradiação direta; reflexão por partículas em suspensão no ar; ou ainda reflexão pelo solo ( a areia, por ser clara, emana 17 por cento da radiação recebida).
Da mesma forma, besuntar o corpo com um óleo qualquer não significa obter um visto de permanência sob a radiação. É essencial que o produto contenha um ou mais filtros solares -- substância que, se usada corretamente, age como uma barreira, esta, sim, eficaz, contra o Sol. Essa estrela, distante 149 milhões de quilômetros da Terra, é a sede de reações termonucleares que transformam 564 milhões de toneladas de hidrogênio em 560 toneladas de hélio por segundo ( SUPERINTERESSANTE nº 2, ano 2 ). Os 4 milhões de toneladas que sobram produzem uma irradiação eletromagnética que se espalha através do espaço em todas as direções.
Ela é formada por uma série contínua de raios de diferentes comprimentos de ondas, que vão dos raios cósmicos às ondas radioelétricas. Apenas uma pequena parte desse espectro é visível; corresponde aos raios que medem de 400 a 800 nanômetros ( um nanômetro é a bilionésima parte do metro). Acima da fração visível situam-se os raios infravermelhos, responsáveis pelo calor, e abaixo dela, os ultravioletas, que, apesar de constituírem apenas 10 por cento de toda a radiação que chega ao planeta, são os mais perigosos à saúde humana. Esta faixa é ainda dividida em três zonas: UVA (ultravioleta longos, de 320 a 400 nanômetros), UVB (ultravioleta médios, de 280 a 320 nanômetros) e UVC (ultravioleta curtos, de 180 a 280 nanômetros).
Estes últimos são retidos a cerca de 11 quilômetros acima da superfície terrestre, numa faixa de 30 mil metros de espessura, pela ameaçada camada de ozônio. Caso os UVC chegassem ao solo, acabariam com qualquer tipo de vida, pois, exercendo uma arrasadora ação germicida, destruiriam a cadeia ecológica da qual todos fazem parte. Sentado em sua cadeira reclinável, entre uma olhadela no jornal e um gole de limonada, o corajoso banhista não percebe os efeitos dos ultravioleta, responsáveis pelo escurecimento da pele e também por sua irritação. Mesmo à sombra, os UVB, que são mais energéticos, atingem as camadas mais superficiais da derme, causando uma dilatação dos capilares sanguíneos e, por isso, a chamada vermelhidão.
Já os UVA, menos energéticos, chegam até as camadas mais profundas e estimulam a produção da melanina, substância que causa o  bronzeamento. No entanto, muito próximas à melanina, encontram-se também as fibras de elastina e colágeno, que sustentam a pele -- uma vez atingidas, essas proteínas perdem a rigidez e provocam o envelhecimento precoce. O trajeto percorrido pela irradiação direta -- aquela que não é refletida nem pelo ar, nem pelo solo -- altera a intensidade dos raios ultravioleta. Desta forma, quanto menor a distância entre o Sol e a Terra, mais rica a irradiação em UVB. Por isso, ficar se tostando entre as 10 horas da manhã e as 3 horas da tarde não é propriamente uma atitude inteligente.
"Mesmo logo cedo ou no final da tarde", adverte o dr. Grimblat, "o certo é usar filtro solar." Essa eficiente arma química não nasceu ontem: foi desenvolvida nos Estados Unidos na década de 40, durante a Segunda Guerra Mundial. Preocupados com a mortandade causada por queimaduras nas tropas do Pacífico, os militares americanos encomendaram aos pesquisadores uma substância capaz de proteger os soldados do sol escaldante da região. Os filtros solares químicos, como foram chamados, são todos sintéticos. Não há nenhum mistério envolvido em sua fabricação e adição em uma série de cosméticos.
Defendem a estrutura e as funções celulares da pele ao absorver e espalhar os raios que nela incidem. Isso porque suas moléculas possuem um ciclo benzeno, ou anel aromático, isto é, seis átomos de carbono unidos em forma de anel. Essa estrutura molecular caracteriza-se por conter uma grande quantidade de elétrons instáveis, como se estivessem buscando uma reação química para se rearranjarem. "Quando parte da radiação solar incide sobre o filtro, rearruma os elétrons", explica Lisabeth Braun, que leciona no curso de pós-graduação de Dermatologia da Santa Casa, no Rio de Janeiro. "Outra parte dos raios é refletida pelo próprio filtro. Assim, só cerca de 10 por cento deles chegam a atingir a pele."
Modificadas, as moléculas perdem parte de seu poder de ação. Logo, quanto maior a quantidade de filtro aplicada sobre a pele, maior o seu fator de proteção, porque mais radiação será consumida na tarefa de rearranjar os elétrons do filtro. "As pessoas passam muito pouco protetor, como se fosse um escudo blindado", critica Lisabeth. Na verdade, o filtro deve ser espalhado generosamente e também várias vezes no período de exposição ao sol, principalmente depois de mergulhos e atividades que aumentam a transpiração. Além disso, deve-se escolher o índice de proteção mais adequado para cada tonalidade de pele. O fator de proteção solar (FPS) é indicado por números.
No Brasil, onde o uso de filtros nas fórmulas dos bronzeadores passou a ser obrigatória em 1983, o máximo FPS encontrado em produtos industrializados é 15. Isso quer dizer que uma pessoa que passa adequadamente o filtro pode ficar exposta ao sol 15 vezes mais tempo do que poderia ficar sem nenhuma proteção. O tempo que alguém pode permanecer desprotegido varia. O limite, segundo os dermatologistas, é dado pelo aparecimento de sintomas de irritação. Nos Estados Unidos, os produtos podem chegar ao FPS 33. Naturalmente, quanto mais clara a cor da pele, maior será o fator de proteção necessário.
Eliane Brenner, também professora de Dermatologia na Santa Casa carioca, lembra ainda que existem vários tipos de filtros solares: "Alguns barram a ação dos UVA, outros dos UVB, e ainda outros protegem contra as duas radiações; o ideal é usar um bronzeador que contenha os dois filtros e, por isso, ofereça proteção completa". Felizmente, proteção completa não significa bloquear de todo a passagem dos raios solares, pois eles também são fundamentais à saúde do organismo ao estimular, por exemplo, a produção de vitamina D. O uso dos filtros solares não está restrito aos bronzeadores. Produtos que prometem defender os cabelos das agressões típicas do verão, como o ressecamento provocado pelo sol, atuam exatamente da mesma forma: assim como os novos bastões para os lábios e os cremes específicos para a região próxima dos olhos, que por ser mais fina é também mais sensível.
"O que muda é só o veículo", explica Eliane. "O filtro pode estar dentro de um creme, loção, gel ou pomada, dependendo da região do corpo onde deve ser aplicado -- a proteção será semelhante em todos os casos." Apesar da popularidade mundial dos filtros solares, os cientistas continuam a pesquisar substâncias que ofereçam o menor risco de alergia possível.
Atualmente, o produto mais usado chama-se ácido paraminobenzóico (Paba), que é o derivado do benzeno que melhor utiliza as características do anel aromático no filtro solar. Seu uso, porém, pode eventualmente irritar a pele de quem for alérgico à penicilina, ao ácido acetilsalicílico ou a outros medicamentos de estrutura molecular semelhante. Mesmo com riscos, não há quem negue a importância dessas armaduras químicas. Tanto que, em cidades de verão prolongado, como o Rio de Janeiro, os médicos recomendam seu uso diário, mesmo fora da praia. Para os que insistem em ver o verão passar estirados na areia, o filtro é, sem dúvida, um item absolutamente essencial. Se ele não estiver na bagagem do banhista, este provavelmente  acabará se parecendo com o moreno cor de jambo que gostaria de parecer - e esse ainda será o menor dos riscos a que estará exposto.


segunda-feira, 16 de julho de 2012

Copérnico: A Terra em seu devido lugar



COPÉRNICO: A TERRA EM SEU DEVIDO LUGAR - História



A história do sábio que provou que os planetas giram em volta do Sol é a história de uma idéia que faz uma revolução no modo de ver o mundo.

Todos os dias, o sol surge a leste e desaparece a oeste. À noite, a Lua e as estrelas percorrem o mesmo caminho. Tudo, no Universo, parece girar em torno da Terra. Não admira que essa idéia tenha ocorrido aos primeiros antepassados do homem. Em plena era dos satélites artificiais, dos vôos espaciais, dos supertelescópios óticos e radiotelescópios, sabe--se que ela está errada; mas nossos antepassados, que tinham apenas os olhos para observar o céu, demoraram alguns milhares de anos para descobrir o erro. Descoberto, foi preciso travar uma longa batalha para conseguir que a verdade fosse aceita. O processo consagrou o nome do astrônomo e matemático polonês Nicolau Copérnico, o primeiro estudioso a demonstrar com observações e cálculos precisos que a Terra não é o centro do Universo, mas apenas um pequeno astro que, como todos os outros, executa movimentos variados pelo espaço.
Copérnico foi o mais novo dos quatro filhos de um comerciante polonês da cidade de Torun, na conturbada fronteira com a Alemanha. Nasceu em 19 de fevereiro de 1473 e aos 10 anos ficou órfão, o que o colocou sob a proteção do tio, Lucas Waczenrode, que logo depois se tornaria bispo de Ermland. São duas informações importantíssimas: mostram que Copérnico viveu em pleno Renascimento, luminoso período da história da humanidade em que a cultura e o saber fizeram avanços revolucionários; e viveu como servidor da  Igreja Católica, condição que lhe dava acesso a todo o saber avaramente entesourado pela milenar instituição.
Em 1491, aos 18 anos portanto, Copérnico entrou para a Universidade de Cracóvia, ainda na Polônia. Ali ele se interessou pela Matemática e pela Astronomia -- mas sobretudo embebeu--se do humanismo pregado com liberdade por alguns mestres. Era um vigoroso movimento que se alastrava pela Europa, depois de ter tomado conta da Itália sob inspiração do renascer do interesse pelo conhecimento das coisas do homem e do mundo onde vive. O tio bispo pensava conseguir--lhe um lugar no trabalho religioso da catedral de Frauenberg, na sua diocese, na Prússia, mas ele teve de esperar até 1501 pela sinecura.
Enquanto esperava, foi estudar à custa do tio na Itália -- primeiro em Bolonha, ostensivamente para aprender Direito Canônico, embora a observação por ele publicada dissesse respeito ao eclipse da estrela Aldebarã e não a qualquer passagem das Sagradas Escrituras. Aperfeiçoou--se sobretudo em Matemática, e antes de concluir os estudos já dava conferências até mesmo em Roma, a sede mundial da Igreja. Ali, uma palestra sua sobre as inferências matemáticas de um eclipse lunar recém--acontecido foi vivamente aplaudida pelos assistentes. Em 1500 voltou à Polônia, mas apenas para convencer os superiores (o tio em particular) de que seria conveniente saber Medicina para melhor exercer o sacerdócio.
E assim ganhou outros cinco anos na Itália, mais precisamente em Pádua. Quando retornou à Polônia, em 1506, então definitivamente, era um humanista que sabia grego, Matemática, Astronomia -- e tinha diplomas de advogado e médico. Considerava--se culturalmente apto para o que se propunha, e não sem razão. Suas habilidades como médico tornaram--no um sacerdote muito popular entre ricos e pobres. Seus conhecimentos de Matemática permitiram--lhe participar da elaboração de uma abrangente reforma monetária em seu país. E até como chefe militar deu provas de competência, comandando os monges do castelo de Allenstein na resistência aos ataques dos Cavaleiros Teutônicos, em 1520. O castelo não se rendeu.
De volta da Itália, Copérnico ficou agregado ao castelo do tio, em Heilsberg, como médico particular. Seguramente mais da metade do seu tempo era dedicado à Astronomia, sua verdadeira paixão. Mas ele era prudente, cauteloso, ao contrário do temperamento que se atribui aos eslavos: por ocasião do concílio de Latrão, em 1515, a Igreja o convidou a opinar sobre a reforma do calendário; cortesmente, recusou, alegando que pouco sabia sobre os movimentos dos astros para elaborar um calendário adequado.
O movimento dos astros -- esta era a verdadeira questão para ele. Tudo o que se sabia a respeito vinha ainda das observações daqueles antepassados que supunham que a Terra estava imóvel, no centro do Universo, e todos os outros astros giravam em torno dela. Muitos pensadores ilustres ocuparam--se dessa questão. Mas foi um astrônomo nascido em Alexandria, no Egito, chamado Cláudio Ptolomeu, quem compilou tudo o que se havia observado e pensado antes, para formar um vasto sistema que pretendia explicar o funcionamento do Universo. Este tem sido, ao longo dos séculos, o grande sonho da humanidade -- e continua sendo até hoje.
De Ptolomeu sabe--se pouco. Nasceu na segunda metade do primeiro século da era cristã. Quis o acaso, assim, que estivesse no local certo, no tempo certo, para desfrutar de outro glorioso momento da história da cultura. Pois havia em Alexandria uma biblioteca notável, cuja construção começara pelo menos trezentos anos antes. Ali trabalharam e estudaram sábios de renome: Filon, Eratóstenes, Euclides, Estrabão, Aristarco, Hiparco e muitos, muitos outros. Entre tantos houve alguns que acharam que um Universo com o Sol ao centro seria mais lógico. Mas a idéia da Terra no centro tinha a seu favor as preferências de Aristóteles e Platão, dois pesos pesados da cultura ocidental.
E foi por aí que Ptolomeu seguiu, depois de ter considerado (e logo abandonado) a hipótese do Sol como centro de tudo. Quando a Igreja cristã conseguiu estabelecer seu domínio religioso, intelectual e político sobre o mundo ocidental então conhecido, o sistema de Ptolomeu, chamado geocentrismo, se tornou quase um artigo de fé. Criticá--lo seria criticar a própria Bíblia -- algo impensável num mundo governado pela religião. E assim foi por toda a Idade Média, o longo milênio em que a cultura se recolheu às igrejas e conventos e a população leiga ficou entregue à ignorância. Mesmo para os sábios ligados à Igreja, cultura era forma inútil de ler, reler, conhecer até os mais insignificantes detalhes o que havia sido pensado e escrito pelos filósofos antigos, Aristóteles sobretudo.
Sobre o Universo, esse pensamento dizia que, sendo uma criação divina, era simples e perfeito. Ora, o círculo é a forma mais simples e perfeita; daí porque se supunha que todos os corpos tinham forma redonda e executavam, em torno da Terra, movimentos segundo órbitas circulares. Quando Copérnico nasceu, a Idade Média estava chegando ao fim; muitos já não acreditavam que saber fosse apenas conhecer o que os antigos haviam escrito, mas que era importante também observar, pesquisar, conferir. Isso, em todos os campos do conhecimento e também na Astronomia.
As primeiras observações mostraram que um Universo composto da Lua, do Sol, dos planetas Mercúrio, Vênus, Marte, Júpiter e Saturno e ainda das estrelas, tudo girando ao redor da Terra em órbitas circulares, seria uma tremenda confusão. O problema não era novo, já havia preocupado o próprio Ptolomeu, que em seu livro clássico Almagesto (um dos raros a sobreviver à destruição da biblioteca de Alexandria no século III) havia estabelecido que os corpos celestes não giram diretamente em torno da Terra. Haveria no céu círculos grandes, chamados condutores, pelos quais eles se moveriam em volta da Terra; mas executariam outro movimento circular menor -- o epiciclo -- dentro do condutor. As estrelas, por seu lado, estariam fixas dentro de seu condutor.
Mas ainda não dava certo. Planetas, os gregos já haviam observado, são corpos errantes (planeta quer dizer isso mesmo em grego), que andam para lá e para cá. Copérnico, no castelo do tio, começou a fazer observações sistemáticas do céu. Marte, sobretudo, despertou--lhe a atenção. Noite após noite acompanhou seu movimento e o que descobriu parecia assombroso. Embora seus instrumentos fossem rudimentares, percebeu que a velocidade do planeta era cada vez menor. Um dia, parou por completo. Copérnico esperou que Marte se movimentasse outra vez e, quando isso aconteceu, voltou para trás. De novo baixou a velocidade, até parar de todo; andou outra vez, tornou a parar. Por fim, recomeçou a andar, de novo para a frente.
Se o movimento de Marte fosse realmente esse (e deveria ser, se a Terra estivesse parada no seu lugar), era preciso renunciar à idéia das órbitas circulares perfeitas. Os epiciclos de Ptolomeu eram a resposta ainda aceita a essa questão, mas outra pergunta ficava sem resposta: por que os planetas se tornavam cada vez maiores, mais brilhantes, ao longo de sua trajetória? Ou cresciam, o que parecia absurdo; ou ficavam tão mais perto da Terra que certamente estariam saindo dos epiciclos onde deveriam permanecer. Entre 1510 e 1514, com a tranqüilidade que lhe era característica, Copérnico pôs--se a estudar os pensadores antigos que ousaram dar um movimento à Terra e colocar o Sol como centro do Universo.
Depois de minuciosos cálculos matemáticos, Copérnico deduziu: a Terra executa uma rotação completa em torno de seu eixo. Isso explica o movimento aparente do Sol e das estrelas, produzindo o dia e a noite. Mas ainda não explicava as caminhadas errantes de Marte e dos demais planetas. O erro, ele descobriu logo depois com novos cálculos, estava em atribuir ao Sol o movimento circular anual que, na verdade, é executado pela Terra.
Isso já era boa parte dos problemas e Copérnico animou--se a escrever um pequeno comentário sobre o movimento dos corpos celestes a partir de sua arrumação no céu. Sobrinho do bispo, a quem servia no castelo episcopal, sabia como ninguém que sua teoria causaria enorme rebuliço na Igreja e seria ferozmente combatida. Colocou--a para circular, prudentemente, apenas entre os amigos mais chegados, rotulando--a sempre como uma hipótese para calcular as posições futuras dos astros.
Um daqueles amigos observou: se os planetas se movem anualmente em torno do Sol e diariamente sobre seu eixo, então Vênus e Mercúrio devem apresentar fases, como a Lua. Seguro de si, Copérnico garantiu: "Eles realmente têm fases. Quando lhe aprouver, o bom Deus dará ao homem meios de observá--las". Outro problema permanecia insolúvel para os recursos da época: se a Terra realmente executasse aquele movimento anual, então deveria haver uma alteração na posição das estrelas, dentro da sua esfera, ao longo do ano. É o que se chama paralaxe anual. Copérnico assegurou que a paralaxe existia mas não podia ser observada, porque as estrelas estavam a enorme distância da Terra. Isso levava a rever a idéia que se tinha, então, do tamanho do Universo. 
A Igreja Católica não se abalou de imediato com a "hipótese". O papa Clemente VII deu--lhe sua aprovação formal e pediu a Copérnico uma demonstração matemática de suas teorias. Mas o feroz reformador protestante Martinho Lutero não foi condescendente. "A Bíblia diz que Josué mandou o Sol parar no firmamento e não a Terra", comentou irado, para mostrar que a nova teoria contrariava as escrituras sagradas. Ele se referia ao episódio em que os judeus, de volta do exílio no Egito, lutavam para conquistar suas terras na Palestina. Uma batalha especialmente dura contra os amorreus não chegaria ao fim antes do anoitecer e, então, Josué, que sucedera a Moisés na liderança do povo, ordenou: "Sol, detém--te em Gideon e tu, Lua, no vale de Aijalon". Segundo a  Bíblia, os dois astros se mantiveram imóveis quase um dia inteiro e a batalha foi vencida.
Copérnico, mais prudente do que nunca, recusava--se a entrar em polêmicas. Pouco antes, com a morte do tio, precisara deixar o castelo de Heilsberg para assumir sua tarefas na catedral de Frauenburg. Ali, juntou oitocentas pedras e uma barrica de cal que seriam usadas nas obras da igreja e construiu para si uma torre sem teto, que transformou em observatório. Iniciou então uma série de observações do céu, exatas e minuciosas, com as quais confirmou (ou retificou, quando necessário) pontos de sua teoria. Paralelamente, lia e relia os autores antigos.
Supõe--se que estivesse reunindo o peso de quantos pensadores pudesse para dar sustentação à sua obra definitiva, Das revoluções dos corpos celestes. Ele a escrevia devagar, conferindo tudo, observando e pensando. Por volta de 1540, auxiliado pelo professor de Matemática da Universidade de Wittenberg, Georg Joachim Rheticus, Copérnico deu os retoques finais em sua teoria. Rheticus preparou um folheto, a que chamou Primeiro relato, onde falava apenas do movimento da Terra. Outros relatos deveriam aparecer, mas Copérnico finalmente se decidiu. Sua teoria estava completa, testada e conferida, e ele, já doente, acreditava--se no fim da vida e fora do alcance de uma possível perseguição por parte da Igreja. Ainda assim, julgou melhor fazer a impressão em Nuremberg, cidade alemã sob influência protestante. Foi o pastor luterano Andreas Osiander quem cuidou do trabalho -- e aparentemente tinha mais medo de Lutero do que Copérnico do papa. Por sua conta, sem pedir licença ao autor, colocou um prefácio onde informava aos leitores que aquilo não era uma visão real do Universo, mas apenas "um cálculo coerente com a observação".
Como Osiander não assinou seu prefácio, os leitores pensaram que essa era a opinião do autor. O próprio Copérnico não pôde protestar, pois consta que o primeiro exemplar do livro, levado às pressas por um mensageiro, foi encontrá--lo a 24 de maio de 1543 no leito de morte -- e ele nem sequer conseguiu virar a primeira página. De qualquer forma, tornara--se pública a teoria heliocêntrica. Lutero já reclamara antes: "Ela vai virar a Astronomia de cabeça para baixo". Copérnico via mais além: tirando o homem e a Terra do centro de tudo, sua teoria levaria à revisão da forma de encarar o enigma da formação do Universo, do surgimento da vida e do próprio homem.
Mas isso se faria devagar, bem ao ritmo daqueles tempos. Durante trinta anos nada aconteceu de prático. Então começou a ser conhecido o nome de um frade dominicano disposto a investir contra toda a sabedoria esclerosada que a Igreja insistia em manter inviolada. Chamava--se Giordano Bruno. Ao contrário de Copérnico, era ousado, irreverente, polemista, como costumavam ser os do sul da Itália. Durante anos viajou pela Europa, de capital em capital, de universidade em universidade. Invariavelmente, por se tornar incômodo, acabava expulso. Foi bater em Veneza e lá caiu nas mãos da Inquisição, que durante seis longos anos usou todos os recursos para fazê--lo abjurar tais idéias. Bruno, é verdade, vacilou várias vezes, mas sempre se recompôs -- e por isso acabou na fogueira, em 17 de fevereiro de 1600, aos 52 anos.
O heliocentrismo, em todo caso, sobreviveu à fogueira, com um acréscimo que Bruno fizera: a idéia do Universo infinito. Exatamente quando ele viajava para Veneza, onde começaria seu martírio, chegava à Universidade de Pádua um jovem professor que ergueria do chão a bandeira da nova idéia. Galileu Galilei era o oposto de Bruno -- prudente como Copérnico, meticuloso no trabalho e nas pesquisas, avesso a controvérsias. Passou à história como o pai da moderna ciência, pois tinha a mania de tudo pesquisar, experimentar, conferir. Por essas virtudes, foi também perseguido pela Igreja, à qual prestava serviços. Tendo sabido que fora oferecido ao bispo de Veneza um aparelho que tornava possível enxergar mais longe, obteve uma simples descrição do objeto e então, com seus conhecimentos de ótica, que preferia chamar perspectiva, construiu seu próprio telescópio.
Com ele, mirou o céu e enxergou com os próprios olhos pelo menos duas provas de que Copérnico estava certo: quatro luas davam voltas em Júpiter, o que significava que pelo menos aqueles quatro corpos celestes não giravam em torno da Terra: e, Vênus, como o polonês anunciara, tinha fases como a Lua. Estava--se em 1610. O Renascimento já era movimento consagrado, mas a Igreja supôs que poderia continuar escondendo a verdade. Os sábios religiosos simplesmente recusaram--se a olhar pelo telescópio e, fiéis a Aristóteles, continuaram a sustentar que a Terra, imóvel, era o centro do Universo. Galileu foi condenado à prisão perpétua, oficialmente abjurou sua idéias para escapar à tortura e morreu em 1642, aos 78 anos.
Mas o heliocentrismo não morreu com ele. Mais ao norte, na Alemanha, um astrônomo e matemático de notável capacidade já anos antes se tornara seu porta--voz. Johannes Kepler, nascido em 1571, tinha duas armas poderosas, que faltaram a Copérnico: o telescópio, que lhe permitia observar os corpos celestes, e uma enorme coleção de dados preciosos sobre a movimentação dos astros, de autoria de seu mestre Tycho Brahe. Este, por ironia, dedicara--se anos a fio a essas observações, anotando tudo com extremo rigor, porque sonhava restabelecer o sistema de Ptolomeu, ainda que com algumas adaptações.
Kepler reviu tudo o que já se pensara a respeito, corrigiu os erros cometidos pelo próprio Copérnico e chegou à descoberta de que as órbitas dos planetas em torno do Sol são elípticas, e não circulares -- e que o Sol está num dos focos, não no centro dessa elipse. Por isso, quando está mais próximo do Sol, o planeta anda mais depressa; quando está mais longe, anda mais devagar. Kepler mostrou ainda que, qualquer que seja a velocidade, a área percorrida pelo raio vetor (a reta imaginária que liga o planeta ao Sol), num mesmo período de tempo, é sempre igual. Estava explicado aquele comportamento, observado por Copérnico. Mas Das revoluções dos corpos celestes continuou, inutilmente por sinal, no Index das obras proibidas pelo Vaticano até 1835 -- apenas três anos antes que, como diria Copérnico, o bom Deus concedesse aos homens capacidade para medir até mesmo a paralaxe anual das estrelas, a única parte da grande obra revolucionária que ainda faltava comprovar na prática.


Sabe da última - Comportamento



SABE DA ÚLTIMA? Comportamento



A mais antiga modalidade de comunicação social continua a fazer parte da vida de todos. Afinal, quem já não ouviu ou ajudou a passar adiante um boato? Nisso há uma lição sobre a natureza humana.

É sempre tudo muito parecido: uma história que ninguém sabe exatamente de onde saiu passa de boca em boca e, em questão de horas, se tanto, com os devidos acréscimos e bordados, vira verdade verdadeira. É o boato, um dos mais assíduos freqüentadores de conversas, em toda parte e de todo tipo de gente. Costuma crescer feito bola de neve em situações de tensão e ansiedade. E pode murchar como um balão furado assim que alguém se dá ao trabalho de conferir o rumor antes de passá-lo adiante, o que porém raramente acontece. Às vezes, sobrevive a todas as checagens - e aí vira lenda.
Um exemplo clássico que correu mundo por se referir a uma celebridade foi o da morte do beatle Paul McCartney, que chegou a ser notícia de primeira página nos Estados Unidos em 1967, nos anos de glória do conjunto. Paul, naturalmente, estava vivo da silva - mas nem isso iria convencer os partidários da teoria do passamento do senhor McCartney, como o americano que telefonou para uma estação de rádio de Detroit munido da seguinte prova: na música "Strawberry Fields Forever" do disco Magical Mistery Tour, gravado naquele ano de 1967, era possível ouvir, depois de uma filtragem de sons, uma voz que dizia "I buried Paul" ("eu enterrei Paul). Outras evidências do gênero foram arranjadas para demonstrar que o boato era fato. Na capa do disco Sergeant Pepper´s Lonely Hearts Club Band, por exemplo, podia-se ler numa guitarra a inscrição "Paul is dead".
E assim a história foi sendo enriquecida com detalhes do arco-da-velha: ele teria morrido em um acidente automobilístico em novembro de 1966 e fora substituído por um dublê. A lenda se alimentaria ainda das imagens da capa do último disco do conjunto, Abbey Road, gravado em 1970, onde Paul aparece descalço, como são enterradas algumas pessoas na Inglaterra; a foto também mostra um carro placa LMW 28 IF. Era só o que faltava: os boateiros entenderam que, se ("if") Paul estivesse vivo, teria 28 anos. Por aí se vê como fecunda, por assim dizer, a imaginação dos que não abrem mão de um bom rumor, apesar de todas as evidências da vida real.
Mas o boateiro não é uma pessoa diferente das demais ou coisa que o valha. Não há quem, com maior ou menor convicção, não tenha sido cúmplice da difusão de uma história, geralmente envolvendo gente famosa, sem ter a menor idéia se era verdadeira ou não. Ou, o que ainda é mais comum, sem se perguntar se o boato não teria sido plantado de propósito por alguém interessado em beneficiar-se da circulação da notícia falsa. Passar adiante um boato, em suma, parece parte da condição humana. Muitos boatos nascem de um mal-entendido. Alguém tira uma conclusão errada do que vê, lê ou escuta, confunde um gesto ou uma frase, e pronto - faz brotar uma inverdade que, levada às últimas conseqüências, pode envenenar a reputação de pessoas inocentes antes mesmo que fiquem sabendo dos rumores em que caíram.
Pois nem sempre o reino da verdade se restabelece com igual rapidez. Como no episódio do beatle Paul, há boatos que resistem, impávidos, aos mais contundentes golpes da realidade. Mas uma coisa todos eles têm em comum: sua fonte primária é sempre  anônima. Rastrear a origem de um boato é tarefa tanto mais difícil quanto maior e mais complexo for o ambiente social onde ele surgiu, reflete o antropólogo José Guilherme Cantor Magnani, da USP. Para ele, "só numa pequena cidade do interior, onde a rede de relações é quase transparente, um boato pode ser rapidamente checado: é possível saber sua fonte e restabelecer sua cadeia de transmissão, pois todos se conhecem".
Mas, do mesmo modo que uma nota falsa só é aceita se a falsificação for de boa qualidade (a menos que a pessoa seja muito desatenta ou desinformada), o boato, para circular com rapidez e desenvoltura, precisa ser verossímil, seja quanto ao contéudo seja quanto à fonte. Quem conta a história deve estar em condições de responder de boca cheia à pergunta "Como você soube?" ou "Quem foi que contou?" Boato ideal, portanto, é aquele que tem cara, cor e cheiro de verdade -- e ainda por cima tem o aval de alguém tido como uma pessoa que sabe das coisas. Esses são ingredientes indispensáveis para quem pretenda cozinhar uma história com a intenção de ganhar algo ao servi-la a determinado público.
O Brasil, como se sabe, tem sido uma terra pródiga em boatos. Tanto assim que no ano passado até um certo dia -- sempre às quintas-feiras -- passaram a ter as histórias destinadas a provocar sobressaltos nos mercados financeiros, com o efeito de erguer ou derrubar as cotações de ações ou da dupla verde-amarela (dólar e ouro). No final de outubro, por exemplo, os avanços olímpicos da inflação deram credibilidade a uma porção de lendas sobre pacotes econômicos recheados de crueldades, como o bloqueio de depósitos em cadernetas de poupança. No embalo da boataria, chegou a circular até em lugares por onde anda gente séria a notícia de que os militares haviam voltado a tomar o poder no país. O fôlego dessa asneira durou pouco (esse é o típico boato fácil de checar), mas o suficiente, com certeza, para alguém ganhar e alguém perder dinheiro.
Não muito diferente são os boatos criados para fazer mal a candidatos a cargos públicos. Esse tipo de rumor apela freqüentemente para questões de ordem moral: propaga-se contra o candidato histórias de corrupção ou de escândalos na vida familiar, das quais ou ele não conseguirá se livrar ou só se livrará tarde demais -- quando tiver já perdido a eleição. Como não há quem não goste de falar mal de políticos, essas histórias percorrem o eleitorado a jato. No entanto, para serem realmente eficazes, devem machucar a vítima ali onde dói mais: o boato deve acusá-lo de algo que seja um grave pecado naquela sociedade, naquele momento.
Do contrário, o eleitor pode até acreditar no rumor (e ajudar a espantá-lo) e nem por isso deixa de votar no candidato. Os psicólogos americanos Gordon Allport e Leo Postman registraram casos dessa natureza em seu clássico livro The Psychology of Rumor, de 1953. Eles contam que Thomas Jefferson, terceiro presidente dos Estados Unidos, de 1801  a 1809, foi acusado quando candidato de ser ateu. Difícil imaginar algo mais devastador na América daquele tempo. Um gênero de boato de fácil aceitação e largo trânsito é o que anuncia a morte de alguém muito famoso -- como já se viu no caso de Paul McCartney.
Em setembro do ano passado, dias antes da promulgação da Constituição, correu no Brasil o boato de que o deputado Ulysses Guimarães, 72 anos, presidente da assembléia Nacional Constituinte, havia morrido. A notícia foi transmitida de Brasília ainda de madrugada pelo repórter de uma rádio paulista, que aparentemente se confundiu com uma nebulosa informação obtida na redação de um jornal local. A família do doutor Ulysses, que dormia placidamente, teve o dissabor de ser despertada por um colar de telefonemas -- alguns, mais afoitos, até de pêsames. Esse foi o maior dano causado pelo boato ao vivíssimo político, virtual candidato presidencial.
A imprensa, que vive de apurar e transmitir informações presumidamente confiáveis, tem sua parte de culpa na geração e difusão de boatos. Também no ano passado o sisudo jornal parisiense Le Monde tropeçou num telefonema recebido de Roma e decretou o falecimento da atriz italiana Monica Vitti. Constatado o erro, com o jornal já nas bancas, só restou ao Le Monde mandar à atriz uma corbeille de rosas, "vermelhas de vergonha". A falta de informações suficientes sobre um assunto ou uma celebridade às vezes é o que basta para instalar a boataria. De acordo com o antropólogo Cantor Magnani, "o boato é sempre uma fonte alternativa que se contrapõe a uma verdade oficial e seu efeito é o de substituir a notícia oficial ou colocá-la em xeque".
O caso do assassínio do presidente dos Estados Unidos John Kennedy, em 1963, é um exemplo disso. Até hoje, bom número de americanos -- para não falar da opinião pública de outros países -- duvida da versão oficial de que ele foi morto por um solitário chamado Lee Oswald. Acreditam, isto sim, que Oswald fazia parte de uma conspiração envolvendo organizações de grosso calibre e figurões jamais identificados. Há poucos meses, uma TV inglesa afirmou ter provas de que Kennedy pretendia desfechar uma dura ofensiva. Tenham ou não razão os jornalistas ingleses, sua versão representa mais lenha na fogueira dos duradouros boatos sobre a tragédia de Dallas.
O Brasil tem sua própria coleção de boatos em volta de uma das maiores tragédias de sua história recente -- a agonia e morte de presidente eleito Tancredo Neves em 1985. De 14 de março, véspera da posse, quando ele foi internado às pressas no Hospital de Base de Brasília, até sua morte, a 21 de abril, o país mergulhou numa boataria nunca antes vista. De início, os meios de comunicação apresentaram ao público uma versão suavizada dos problemas de saúde de Tancredo, e depois veicularam o fogo cruzado entre as equipes médicas que o assistiram, enquanto ele era submetido a cirurgia após cirurgia. Só restou então ao povo desinformado acreditar no boato de que a verdade sobre o caso era toda outra e estava sendo escondida de propósito: Tancredo tinha sido vítima de um atentado a tiros.
Tais boatos ricochetearam na repórter da TV Globo Glória Maria que, por coincidência -- e nada como uma boa coincidência para fermentar um rumor --, não estava aparecendo no vídeo. Nada mais lógico do que concluir que ela também tinha sido ferida no atentado a Tancredo. Em situações de insegurança, o povo desconfia das versões oficiais dos acontecimentos e os boatos políticos e econômicos proliferam feito cogumelos após a chuva. "Quando a população se sente perdida, aterrorizada, o boato se propaga rapidamente, pois qualquer informação que chega é bem-vinda", constata o psicanalista e sociólogo Manoel Tosta Berlinck, da Unicamp.
O meio artístico é também um campo fértil para a germinação de boatos, às vezes criados ou amplificados por emissoras ou publicações sensacionalistas. É comum pipocar a notícia de que um ator ou cantor está muito doente. Se um pequeno fato ajudar, então o boato estará com a vida feita. Em junho de 1987, o ator e cantor Fábio Jr. foi internado às pressas no Instituto do Coração, em São Paulo. Logo correu que ele tinha sofrido uma cirurgia delicada, que sua doença era conseqüência do uso excessivo de drogas e que ele estava à morte. O cantor tinha na verdade uma pericardite (inflamação na membrana do coração) que o deixou fora de combate por duas semanas -- nada mais.
A irreverente cantora Rita Lee também teve de se haver com o falatório sobre sua saúde. Como ficou bom tempo sem se apresentar, em 1984, isso bastou para que se espalhasse que ela estava com leucemia. Em seguida, uma aparição no "Rock in Rio", no início de 1985, só serviu para dar força à história. Afinal, Rita estava muito magra, afônica e usava peruca. Se para um boateiro meio sintoma basta, que dizer de três? Na realidade, magra a cantora sempre foi e se usava perucas era porque gostava. Compositora de talento, ela não deixou barato e logo deu o troco, compondo a música "Não, titia", com o refrão: "Não titia, eu não estou com leucemia". Mas nem todas as vítimas de boatos reagem como o mesmo bom humor -- muito antes pelo contrário.
Por trás da transmissão de um boato, oculta-se muitas vezes uma questão de prestígio social. Afinal, quem detém informações aparece aos olhos de seus pares como algo que está "por dentro", sabe logo o que os demais ignoram e, em certo sentido, é mais que os outros -- ao menos enquanto suas informações não forem desmentidas. Mesmo quando forem, como a origem do boato é quase sempre anônima, o transmissor tem a seu favor a circunstância atenuante de não ter se comprometido até o fundo da alma com aquilo que transmitiu. "Contar uma história que os demais desconhecem faz com que a pessoa seja mais respeitada pelo grupo", resume o psiquiatra José Cássio Simões Vieira.
Boato vem do latim boatus, significando "mugido, grito agudo". Na Antiga Roma, os imperadores, cientes de que a plebe gostava tanto de um rumor quanto de uma luta de gladiadores, nomearam os delatores (do latim delatio, que significa contar, referir), cujo trabalho era circular pelas ruas e levar ao imperador a vox populi. Caso os boatos fossem prejudiciais à imagem do imperador, os delatores, como agentes desse verdadeiro serviço nacional de informações, versados nas artes da guerra psicológica adversa, lançavam boatos em sentido contrário.
Um exemplo é o incêndio de Roma em 64. Não há quem não tenha aprendido que o responsável foi o insano imperador Nero. Mas é possível que essa versão tenha nascido do fato de ser Nero um imperador impopular. No episódio, de nada adiantou o desmentido oficial; para se defender, Nero recorreu então à contra-informação: os responsáveis pelo incêndio foram os cristãos, na época uma minoria hostilizada -- e mais que depressa a fúria da plebe voltou-se contra eles. Nem todo boato pode ter um fundo de verdade, ao contrário do que quer o ditado. Mas seguramente todo boato tem alguma verdade a ensinar sobre o comportamento das pessoas e o funcionamento das sociedades em que elas vivem.
Por acreditar nisso, o sociólogo francês Jean-Noël Kapferer criou em Paris, em 1984, uma Fundação para o Estudo e a Informação sobre os Rumores, que em pouco tempo recolheu um formidável acervo de 10 mil boatos -- entre eles, o de que o presidente americano Richard Nixon, em visita à China em 1972, furtou uma valiosíssima xícara antiga de porcelana. Com esse farto material, às vezes subversivo, Kapferer escreveu um autêntico tratado sobre o assunto, Rumeurs ("Rumores"). No livro, o caçador de boatos tenta explicar como eles nascem, se desenvolvem e sobrevivem, apesar (ou por causa) da avalanche de informações produzidas diariamente pelos meios de comunicação.
Kapferer lembra que, antes da invenção da escrita, a transmissão de notícias de boca em boca era o único canal de comunicação social -- não havia então como distinguir o que hoje se chama boato (a notícia oral) da verdade dos fatos (como se presume sejam as notícias da imprensa). Para o sociólogo, nem todo boato é falso assim como nem toda notícia é verdadeira, embora esta seja a única passível de controle. Segundo Kapferer, todos os homens carregam pela vida afora uma bagagem de idéias, opiniões, imagens e crenças sobre o mundo que o rodeia, a maioria adquiridas simplesmente por ouvir dizer, num processo lento, gradual -- e imperceptível. "O boato", escreve ele, "recria esse processo de forma acelerada, de modo a torná-la perceptível". Daí a conclusão que o estudo do boato proporciona -- não é que o homem acredite naquilo que é verdade provada; mas a prova da verdade de algo é o fato de o homem acreditar nisso.