Mostrando postagens com marcador eletronica. Mostrar todas as postagens
Mostrando postagens com marcador eletronica. Mostrar todas as postagens

segunda-feira, 13 de julho de 2015

Cientistas afirmam que a descoberta de vida extraterrestre está muito próxima


Cientistas afirmam que a descoberta de vida extraterrestre está muito próxima


ET, telefone, Terra! Nós podemos estar à beira de responder uma das perguntas essenciais da humanidade: há vida extraterrestre? Mais do que isso: há vida extraterrestre inteligente?

Segundo alguns cientistas do projeto The Search for Extraterrestrial Intelligence – SETI (A busca por inteligência extraterrestre, em português), os próximos anos prometem ser aqueles em que vamos finalmente resolver a questão. 

sexta-feira, 20 de fevereiro de 2015

Diamantes ocupam novos espaços na tecnologia quântica


Diamantes ocupam novos espaços na tecnologia quântica



Memória e repetidor

O diamante é bastante popular entre as equipes que desenvolvem computadores quânticos porque ele é um hospedeiro natural e muito eficiente de qubits - e também serve como máquina de teletransporte.

sexta-feira, 23 de maio de 2014

As novas estrelas da comunicação - Estrelas


AS NOVAS ESTRELAS DA COMUNICAÇÃO - Satélites


Você está num barco no meio do Oceano Pacífico. Ou a pé no Saara, com areia por todos os lados. Não importa. Dentro de pouco tempo, ninguém mais vai ficar isolado da civilização. Porque todo mundo estará ao alcance de um celular ou de um micro, esteja onde estiver. As maiores empresas de comunicação do mundo prometem: dentro de dois anos, começarão a circundar o planeta mais de 1 000 novos satélites, transmitindo sinais de telefone, fax, TV e ligando computadores. Hoje, estão em órbita apenas 150.

quinta-feira, 30 de janeiro de 2014

Baderna Eletromagnética - Tecnologia


BADERNA ELETROMAGNÉTICA - Tecnologia 


Robôs enlouquecidos, computadores com amnésia e aviões fora de controle: a interferência eletromagnética que estraga a imagem da TV também provoca.

quinta-feira, 16 de janeiro de 2014

16 DOCUMENTÁRIOS INDICADOS - JANEIRO DE 2014


16 DOCUMENTÁRIOS INDICADOS - JANEIRO DE 2014


Documentário / Diversos
Nome Original: Hitler's Secret Attack On Amer
Cor: Colorido
Classificação: Programa livre
11 de dezembro de 1941: Hitler declara guerra contra os Estados Unidos. 
Para o almirante alemão Karl Dönitz, comandante da frota de submarinos U-boot, o momento está próximo. Dönitz elabora um plano para um ataque surpresa à costa dos Estados Unidos, chamado "Operação Drumbeat." A história do que poderia ter sido um dos ataques mais violentos à costa leste dos Estados Unidos foi encoberta e permanece sem ser contada, até agora. Pela primeira vez, a história dos U-boots e de suas presas está sendo procurada, descoberta e filmada pelo NOAA National Marine Sanctuaries e pela Wild Life Productions. Utilizando veículos submarinos operados remotamente de alta definição, sonares especiais e imagens 3D, este programa vai reunir as táticas, as batalhas, os heróis e os vilões da Operação Drumbeat, um plano desconhecido para atacar os Estados Unidos que poderia ter tido resultados mortais.

segunda-feira, 25 de fevereiro de 2013

Robôs vão ajudar em limpeza de Fukushima


Robôs vão ajudar em limpeza de Fukushima


Traje robótico permite a entrada em local com muita radiação (Foto: Reprodução/BBC)

Japão desenvolve máquinas que poderão substituir homens em áreas contaminadas por radiação de acidente nuclear.


sexta-feira, 30 de novembro de 2012

Rock, Um Show de Tecnologia - Eletrônica


ROCK, UM SHOW DE TECNOLOGIA - Eletrônica



A explosão de música sobre o palco viaja por um complexo de fios e aparelhos até chegar aos ouvidos da platéia. É preciso ser artista para orquestrar os equipamentos de som e luz que formam o grande espetáculo

No tempo dos Beatles, ir a um show de rock para ouvir o som da banda era um rasgo de otimismo. Tudo de que os quatro de Liverpool dispunham para apresentação ao vivo eram amplificadores de potência equivalente à dos atuais sistemas de som caseiros e alto-falantes planejados para irradiar a narração de alguns lances de jogos esportivos. Com esse equipamento franciscano, tinham que se fazer ouvir acima dos gritos de milhares de fãs amontoados dentro de uma quadra de basquete. Fãs que se importavam pouco com a qualidade do som: mais interessados estavam em simplesmente ver e ficar perto de John, Paul, George e Ringo. Mas o rock rolou para os lados da eletrônica sofisticada, entrou pelos canais da tecnologia e hoje se traduz em muito mais que música - é um delírio de som pesado, luzes coloridas e efeitos visuais batendo nos ouvidos e olhos do público.Dos acordes quase inaudíveis dos Beatles às estripulias do tecnológico Prince e da sensualmente atlética Madonna sobre um palco, o rock se sofisticou, os roqueiros cortaram os cabelos, os computadores entraram em cena. A tal ponto que é possível colocar no palco um simples microcomputador que, programado para comandar vários teclados, é capaz de fazer o show sozinho. Mas o princípio de jogar música sobre a platéia, seja com tecnologia avançada ou de fundo de garagem, sempre foi o mesmo. É apenas uma questão de levar ao público o som produzido no palco, transformando a energia acústica em energia elétrica, processando-a. amplificando-a e transformando-a novamente em energia acústica.Ao montar o projeto de instalação de equipamento para um show, o primeiro cuidado do engenheiro de som é conhecer a fundo o local da apresentação, porque tudo o que existe entre a fonte sonora e o ouvido de quem escuta interfere na qualidade do som. Se atinge superfícies "vivas", como vidro e cimento, o som rebate e transforma-se em inúmeros outros sons iguais repetidos em momentos diferentes, a reverberação; se encontra superfícies "mortas" como cortinas, estofamentos ou cortiça, o som é abafado. Quando estuda o lugar em que vai preparar o projeto, o engenheiro de som não se vale apenas de seus olhos e ouvidos, mas conta com um sofisticado equipamento chamado spectrum analyser.
Esse aparelho emite um ruído conhecido por pink noise (ruído rosa), bem parecido com o barulho de uma turbina de avião, na faixa de freqüência entre 20 e 20 000 hertz, justamente a que o homem é capaz de ouvir. Entre 20 e 200 hertz estão os sons graves, entre 200 e 2 000 hertz, os sons médios, e os agudos, entre 2 000 e 20 000 hertz. Microfones espalhados por todo o local captam a resposta e informam o aparelho, em trinta bandas de freqüência, de como aquele ambiente reage à emissão de som. Ligado a um computador, o spectrum analyser detecta, por exemplo, se o ambiente absorve muito o som na freqüência de 10 000 hertz, aumentando então seu volume, ou diminuindo-o se nessa freqüência ele reverbera demais. Com essas informações o aparelho estabelece a curva ideal de equalização, ou a altura em decibéis na qual deve ficar cada uma das tais trinta bandas de freqüência.
Tudo isso para conseguir um equilíbrio entre os sons graves, médios-graves, médios e agudos. "Esse processo serve como base, mas é mesmo no ouvido que um técnico de som acerta a equalização para um show", afirma o engenheiro eletrônico José Luis Ferreira, o Gabi, dono de uma empresa que fornece equipamento para dez entre dez astros de música brasileiros e estrangeiros que tocam por aqui, de Maria Bethânia a David Bowie.
A viagem do som desde o palco até os ouvidos da platéia começa na forma de captá-lo. Para vozes e instrumentos acústicos, a única maneira é usar microfones, enquanto os instrumentos como baixo elétrico ou teclados eletrônicos são ligados diretamente à mesa de som. Na ligação direta, o sinal já elétrico sai do instrumento, passa por um transformador chamado direct box e segue para a mesa de mixagem, mas no caso da voz e dos outros instrumentos a energia acústica precisa ser transformada em elétrica pelo microfone. Como todo som é vibração de moléculas de ar na forma de ondas com determinada freqüência, a voz de um cantor, ao entrar no microfone, sensibiliza um diafragma, que se move para frente e para trás. No microfone do tipo dinâmico, uma bobina presa a um campo magnético reage à vibração do diafragma e se movimenta também, produzindo então sinais elétricos.
Vindos do microfone ou do direct box, os sinais elétricos seguem sempre para a mesa de P.A., ou public address, (endereçamento ao público, em inglês), o centro de pilotagem do som em qualquer show. Por ali passa tudo o que a platéia vai ouvir. Normalmente, as mesas usadas nos shows têm 48 canais. Isso significa que é possível captar 48 fontes sonoras diferentes para serem mixadas. A mixagem é a combinação do som de todos os canais da mesa, hora em que o operador equilibra o volume de cada canal para formar uma música em que todos os instrumentos sejam audíveis. Quanto maior o número de canais, maior a possibilidade de se controlar com precisão cada instrumento, ou cada pedaço dele. Numa bateria, pode-se colocar um microfone por peça que a compõe, como surdos, caixas ou tontons, cada um entrando por um canal. Os teclados podem ser jogados em outros quatro canais, guitarras em mais dois e assim sucessivamente. Logo que os sinais elétricos em que foram transformados os sons chegam à mesa, entram primeiro num delimitador de freqüência, quando o operador escolhe, pelo ouvido, em que freqüência os sons soam melhor. Daí passam para as bandas de equalização, nas quais toda fonte sonora será equilibrada entre seus tons graves, médio-graves, médios e agudos.
Os sons vindos do palco partem então para o subgrupo de dezesseis canais de saída, que depois são novamente agrupados em oito canais até todos os sons que entraram pelas 48 portas serem concentrados em dois canais estéreo de saída. Essa subdivisão gradativa da quantidade de canais tem duas funções. A primeira é facilitar o trabalho do operador da mesa durante um show, pois ele ficaria louco se tivesse que mexer com 48 canais ao mesmo tempo. A segunda função é servir de porta de entrada para os efeitos especiais. É por aqui que qualquer garoto do grupo de adolescentes New Kids on the Block começa a cantar como se fosse Bruce Springsteen, o roqueiro do vozeirão em estado bruto. O rack de efeitos especiais, que agrupa vários aparelhos, só falta fazer microfone dançar.Qualquer sinal, seja de voz ou de algum instrumento, sai por um dos oito canais de saída de efeitos e cai nos aparelhos do rack. Processado, ele volta à mesa por um canal de retorno de efeitos e vai parar no subgrupo dos dezesseis, já com o efeito para ser misturado aos outros sons originais. Um dos prodígios do rack é a reverberação, um tipo de eco que se provoca no som. Ela pode encorpar a voz de um cantor ou fazer uma guitarra soar mais "viva" num ambiente "morto", que abafa demais o som. Um truque semelhante é o efeito flanging, um tipo de reverberação que se dá pela variação da velocidade do sinal. Outra façanha do rack é o compressor, um aparelho que regula automaticamente o volume em pontos predeterminados. O cantor pode berrar ao microfone, que o som não sai distorcido, pois uma programação prévia determina o volume limite a partir do qual o compressor entra em ação para abaixá-lo. Além de saber a hora em que deve funcionar, ele tem na memória também o quanto deve abaixar do volume, a maneira como deve fazê-lo e por quanto tempo.
O compressor pode ser usado não só na voz, dando a impressão para quem assiste de que o cantor domina estupendamente a técnica de usar um microfone, como em qualquer outro instrumento, para manter o som do show sempre uniforme. A fim de evitar que os vários microfones espalhados pelo palco por acaso captem o som de mais de um instrumento e provoquem uma miscelânea, o rack tem um recurso chamado gate, um portão de entrada para as fontes sonoras. O gate só abre o canal de um microfone na hora em que o instrumento que ele capta é tocado, deixando-o fechado enquanto sua principal fonte de som estiver em silêncio. Isso é ótimo para a bateria, que pode ter uns oito microfones muito próximos, um em cada peça, sem correr o risco de o som do bumbo entrar pelo microfone do prato.Mas a própria mesa de P.A. tem lá suas espertezas e possibilita um efeito parecido com esse, o mute set, um controle automático de volume que permite ao técnico de som programar a mesa para desligar canais em determinados momentos. Se ele sabe que alguns instrumentos só entram em uma ou outra música do show, programa-a para ligar seus canais somente na hora em que forem começar a tocar, para que não haja perigo de entrar por ali algum som indesejável.
Depois de captados, equalizados, acrescidos de efeitos especiais e mixados, os sinais elétricos que vieram do palco vão sair da mesa pelos dois canais estéreo e continuar o caminho até chegar ao público. O próximo passo é atravessar outro rack, este de processamento de sinal de P.A. Um aparelho chamado cross-over divide os sons em graves, médio-graves, médios e agudos, e uma nova equalização será feita em busca sempre do melhor equilíbrio entre eles. É neste rack que mora o spectrum analyser, o aparelho que mostra como deve ser equalizado o som que sai da mesa em função do ambiente e do equipamento por onde ele passa. Um compressor também funciona quando necessário para evitar distorções. Desse rack os sinais elétricos seguem para os amplificadores, que vão amplificá-los e enviá-los enfim às caixas de som, também conhecidas por caixas P.A.
Nas caixas estão os alto-falantes, divididos segundo a freqüência em que reproduzem os sons: woofers reproduzem baixas freqüências, os sons graves; midranges reproduzem as médias, os sons médios; e tweeters reproduzem altas freqüências, os sons agudos. Um alto-falante é exatamente o inverso de um microfone. Nele, uma bobina, atada a um diafragma em forma de cone, é suspensa num campo magnético fixo. Quando recebe os sinais elétricos, a bobina oscila, empurrando o diafragma para a frente e para trás. O diafragma movimenta então o ar a sua frente produzindo ondas sonoras iguais às que geraram o sinal elétrico, lá nos microfones do palco.
Essa prodigiosa viagem do som desde a boca do cantor e dos instrumentos ainda não tem na saída das caixas seu final feliz. É preciso fazer com que ele chegue com perfeição a todas as pessoas da platéia, estejam elas numa casa de espetáculos com boa acústica ou no Maracanã assistindo a festivais de rock, estejam elas na cara do palco ou no fundão. A idéia de que só potência do som é igual a qualidade é mais velha que Bill Haley, o avô do rock. De nada adianta saber que um show terá 100 000 watts de potência, se não se conhecem a sensibilidade das caixas nem a maneira como foram distribuídas pelo local. Por sensibilidade entende-se a quantidade de som que a caixa põe para fora em relação à potência elétrica que recebe. Num show de rock, utilizam-se caixas mais sensíveis, a fim de se obter maior nível de pressão sonora (nome técnico de volume) para encher de música os ouvidos da moçada.Porém, se as caixas forem inadequadamente distribuídas, tanto som pode estourar os tímpanos dos roqueiros na fila do gargarejo de um show num estádio, enquanto os da última fila pensarão estar ouvindo um radinho de pilha. O segredo está em conseguir o que os especialistas chamam de boa cobertura acústica - levar o som com a mesma qualidade e o mesmo nível de pressão sonora a todos os pontos da platéia. Para que cada pessoa na multidão escute a música, a caixa de som precisa "enxergá-la", ou estar virada para ela. Isso não significa que é preciso ter 100 000 caixas apontadas para cada cabecinha no gramado e nos anéis do Maracanã, num supershow como o Rock in Rio II. É para isso que existem caixas menos diretivas, que soltam o som para a frente e para os lados como uma lanterna solta luz, e mais diretivas, que o liberam com foco mais concentrado como um facho de raios laser.
Nas torres de caixas montadas ao lado do palco de um show, as mais baixas são menos diretivas e atingem as pessoas à frente da multidão. No meio da torre, um pouco acima, ficam caixas mais diretivas, para jogar o som a quem está no meio. Por fim, no topo da torre, caixas bem mais diretivas e potentes se concentram em levar música ao pessoal do fundo, passando por cima da cabeça de quem está na frente. Porém, se o show é gigantesco, como foi The Wall, realizado por Roger Waters, ex-vocalista do grupo de rock progressivo Pink Floyd, no Muro de Berlim, em que os últimos espectadores ficaram a centenas de metros do palco, esse esquema pode ser impossível: seria preciso uma torre de dezenas de metros de altura para que as caixas enxergassem a turma de trás.
Para se conseguir que o povo distante ouça as músicas com a mesma qualidade de quem chegou mais cedo e grudou no palco, a melhor solução é espalhar torres de som pelo local, em intervalos regulares. Elas são chamadas torres de delay (atraso em inglês), porque reproduzem o som com alguns milissegundos de atraso em relação ao palco. No The Wall, havia três torres de delay - a primeira a 100 metros do palco, a segunda a 180 metros e a última a 278. O atraso é necessário porque o som leva tempo para viajar pelo ar, na velocidade de 340 metros por segundo, mas por dentro dos fios chega às caixas de som quase instantaneamente. Quem fica ao lado da torre ouve primeiro a música que vem dali, e menos de um segundo depois o som que vem das caixas ao lado do palco. Como o engenheiro calcula a distância em que cada torre fica em relação ao palco, sabe qual o atraso que deve provocar em cada uma delas para que toda a platéia ouça a mesma música ao mesmo tempo.Na montagem das torres de som, tanto se podem dispor caixas modernas, que têm num só console tweeters, midranges e woofers, como usar cada peça separadamente para compor o conjunto ideal. Em muitos shows em que se quer som pesado, os engenheiros se valem dos subwoofers, alto-falantes que reproduzem os mais graves dos sons graves. Sob o palco onde se apresenta a banda Kiss, remanescente do tempo em que heavy metal era conhecido por rock pauleira, fica uma dúzia de subwoofers soltando sons graves, daqueles que batem no peito e no tímpano do espectador como punhos feitos de ar. Quem fica perto de uma caixa dessas já não sabe se em seu peito bate o próprio coração ou a bateria.
Enquanto o som pulsa e agita o corpo dos roqueiros, outro espetáculo sobre o palco deslumbra-lhes os olhos. Não há shows de grandes bandas sem uma profusão de luzes e efeitos, como quadros coloridos a moldar cada música. Compor esse cenário requer um equipamento sofisticado, quase todo controlado por computador. O trabalho começa em estúdios como o do inglês Patrick Woodroffe, em Londres, que fez a iluminação do Rock in Rio II ao lado do brasileiro Peter Gasper. Woodroffe é o idealizador da última novidade no campo da luz - o uso de maquetes. A partir do desenho do projeto, Woodroffe constrói palcos em miniatura e trabalha neles como se fossem de verdade, colocando luzes e até a fumaça no momento exato. Tendo tudo sido testado e definido, passa-se o programa de iluminação para o disquete de um computador, que será depois inserido na mesa de controle de luz do show.
As peças básicas da iluminação de um show são os spots fixos, normalmente centenas deles presos sobre o palco para cobri-lo de diferentes cores, de acordo com as gelatinas coloridas (uma espécie de papel celofane mais consistente) que possuem. Para o Rock in Rio, estavam incluídos no projeto mais de 500. Na mesa de luz que os controla não há um botão para cada spot, mas sim para um grupo deles ou para uma cor específica. Programar a mesa é determinar que cores e grupos de spots se manipulam em cada botão. "Durante o show, basta apertar o botão certo para o computador ativar o grupo de luzes requisitado, de acordo com o programa memorizado", conta Woodroffe. Das peças móveis, as mais simples são os canhões de luz, controlados por operadores, que seguem os movimentos dos artistas no palco.O maior charme das luzes móveis, porém, são os varilites, refletores ultra-funcionais ainda não existentes no Brasil. Caixinha com um braço e um canhãozinho de luz em cima, o varilite parece um robô, pois é capaz de virar para os lados, para cima, para baixo, rodar e fazer todos os movimentos possíveis. Seu nome vem da própria companhia que o inventou e que detém o segredo de sua tecnologia. O varilite oferece uma variedade enorme de possibilidades: projeta focos grandes, pequenos, várias bolinhas, imagens quadradas, triangulares, anéis luminosos, espirais e por aí afora, e suas gelatinas coloridas produzem 6 400 combinações de cores. Mas a grande novidade das luzes não é o varilite que se move, e sim o que se locomove.Montados em carrinhos seguros por cabos e que andam sobre trilhos, esses varilites não giram só sobre o próprio eixo, mas sobem e descem, andam lateralmente e podem até fazer algumas coreografias. Quem assistiu ao show do ex-Beatle Paul McCartney no Maracanã, no ano passado, viu durante a música "Back in the USSR" o palco ficar todo vermelho e os varilites formarem um desenho que lembrava uma esquadrilha de caças soviéticos. O grande trunfo dessa tecnologia se resume a um objetivo básico: iluminar qualquer pedaço do palco.Para pilotar os varilites, técnicos exclusivos da empresa que os inventou controlam uma mesa totalmente dedicada a eles. É uma mesa pequenina, totalmente computadorizada, com uma telinha que localiza geograficamente cada um deles (no Rock in Rio seriam usados setenta). O técnico escolhe o número do varilite que quer mexer e posiciona-o, usando ou um controle parecido com o joystick de um videogame ou um par de botões giratórios e paralelos. O trabalho do iluminador é dar as intensidades necessárias a cada efeito luminoso. Os varilites são tão versáteis, que podem criar efeitos especiais. Ao redor do gramado do Maracanã, no Rock in Rio, a dupla de iluminação planejou colocar doze torres de 16 metros de altura com seis a sete varilites no topo para iluminar a platéia. Um só varilite, com sua luz, pode atravessar de um extremo ao outro do Maracanã, e o conjunto deles é capaz de criar efeitos fantásticos como uma chuva de anéis coloridos caindo sobre o público. 

Outros que usaram luzes para criar efeitos mirabolantes foram os Rolling Stones, a banda mais sólida e antiga do rock, na superturnê da temporada de 1989, Steel Wheels (veja quadro). Cansados do raio laser, os Stones inauguraram o uso de pods, conjuntos de cinqüenta spots com lâmpadas de 1000 watts cada, em três posições diferentes em cada lateral do palco. Um mecanismo eletrônico possibilitava a troca instantânea das gelatinas de cada spot com uma rapidez nunca vista, permitindo uma agilidade na troca de efeitos de luz jamais tentada antes.Outro recurso de muito impacto visual, além dos efeitos de luzes ou lasers, é a fumaça, em cima do palco. O jeito mais antigo de fazer isso é usar uma resistência elétrica e um tipo de óleo que, superaquecidos, produzem fumaça espalhada por um motorzinho. O jeito mais moderno é a máquina chamada Oilcracker, que comprime óleo a uma pressão tão forte, que a fumaça acaba saindo naturalmente. Esse processo tem três vantagens: é mais limpo, produz mais fumaça e menos cheiro.Com tanta parafernália eletrônica em som e luz, os roqueiros na platéia chegam a acreditar que um grupo é absolutamente sensacional sobre um palco porque consegue tocar igualzinho ao disco. Só que isso pode ser uma questão não de competência musical, mas tecnológica. Se gente como Mick Jagger leva shows na garganta há mais de vinte anos, outros mais rasteiros levam para cima do palco trechos gravados para evitar notas fora do tom. Normalmente, músicas ou trechos são gravados em fitas digitais (DAT), de qualidade semelhante ao compact disc, que fazem a platéia pensar que os sons vêm dos instrumentos tocados à sua frente.Suponhamos que um guitarrista inseguro tenha dificuldade em executar determinado solo. Para evitar erros, a música é gravada no estúdio e, na sua hora de entrar no show, o DAT é acionado. O músico fica à vontade para fazer toda a mímica sem se preocupar com o som. Alguns grupos exageram nesse recurso, como o New Kids on the Block, para quem cantar ao vivo atrapalha: eles gravam e dublam até as próprias vozes, para ter mais liberdade na execução das coreografias.Se em alguns shows os artistas estão ali por puro enfeite, porque o som já vem pronto, pode chegar o dia em que um computador tocará sozinho. Tecnicamente isso é perfeitamente possível - basta montar uma orquestra de samplers tocando sob programação. O sampler é um aparelho digital em que se pode gravar qualquer som, até de uma frigideira, e ele faz daquilo um instrumento capaz de emitir várias notas. Em shows normais, um tecladista pode "tocar" vários teclados ao mesmo tempo, pois só tem o trabalho de acionar três ou quatro samplers pré-programados e vê-los executar a música por conta própria. No lugar de um músico, pode-se perfeitamente colocar um microcomputador programado para fazer cada sampler tocar seu "instrumento" na hora certa, e assim a eletrônica faz o show sozinha sem precisar de artistas sobre o palco. Resta saber se isso teria alguma graça.


terça-feira, 4 de setembro de 2012

A Invasão da Luz - Tecnologia



A INVASÃO DA LUZ - Tecnologia



O domínio dos elétrons no mundo moderno começa a ser partilhado por raios luminosos. A optoeletrônica promete velocíssimos computadores de laser e guias óticos.

No princípio era a eletrônica. Desde o século XIX, quando os físicos elaboraram as primeiras teorias sobre o eletromagnetismo, o mundo se ergueu apoiado na energia do movimento dessas minúsculas partículas que habitam os átomos. Os elétrons fizeram funcionar válvulas de rádio, lâmpadas elétricas, motores. Por fios de cobre levaram de casa em casa sinais de voz em telefones e energia para acionar os novos aparelhos. Depois, transportaram informações dentro dos chips dos computadores. Em suma, o domínio da eletrônica na tarefa de sustentar a civilização contemporânea foi absoluto - até que a luz se atravessou no seu caminho. De fato, onde antes só havia elétrons, começam a aparecer pulsos luminosos, os fótons. É a época da afirmação da optoeletrônica, uma nova tecnologia que já se manifesta da telefonia à computação. "Optoeletrônica é a interação entre radiação luminosa e matéria, entre fótons e elétrons", resume o físico Antônio Carlos Bordeaux Rego, chefe do laboratório que pesquisa o assunto na Telebrás, em Campinas. A interação entre eletricidade e luz pode ser a porta aberta para um caminho verdadeiramente revolucionário - os computadores óticos. Em seu interior não haverá corrente elétrica viajando através dos chips, mas pulsos de luz emitidos por laser, viajando por guias óticos e transportando informações a velocidades até 1 milhão de vezes maiores que as dos computadores eletrônicos.
Esse é o sonho de pesquisadores de vários países, como o engenheiro americano Alan Huang, que trabalha nos laboratórios da multinacional AT & T Bell, em Nova Jersey, na tentativa de construir um chip ótico. A corrida pelo domínio dessa tecnologia passa também pelo Japão, onde foi formado um pool liderado por onze grandes empresas a fim de acelerar as pesquisas. Na Escócia, o cientista Desmond Smith, da Universidade Heriot-Watt, de Edimburgo, trabalha num dos maiores projetos de computador ótico do mundo.
E, no Brasil, o avançado laboratório do centro de pesquisas da Telebrás, em Campinas, desenvolve um circuito optoeletrônico integrado - a última palavra em matéria de telecomunicações- para aproveitar as melhores qualidades tanto da luz como dos elétrons a fim de aumentar a capacidade de transmissão de informações. O funcionamento de um dispositivo laser é um típico exemplo dessa tecnologia. Uma descarga elétrica excita os elétrons de algum material semicondutor, que absorve e depois emite fótons ou pulsos de luz. Pela eletricidade, produz-se assim uma luz bem-comportada - emitida numa única freqüência e direção e ainda com coerência, isto é, todas as ondas partem ao mesmo tempo. Por isso, ao contrário da dispersiva luz de uma lâmpada, o laser serve para transportar informações. 
Uma onda de luz é igual a qualquer outra onda eletromagnética - de rádio ou TV, por exemplo -, mas tem como característica a freqüência muito mais alta. É justamente isso que lhe dá o poder de transportar mais dados. Daí tornar-se a tecnologia ótica, senão uma alternativa capaz de aposentar a eletrônica, ao menos um complemento poderoso à utilização dos elétrons. além de ser mais rápida, a onda de luz é formada por pulsos de energia luminosa que não possuem carga ou matéria. Em condições normais, um raio de luz não interfere em outro - basta ver os fachos de duas lanternas que se cruzam sem se desviar de suas trajetórias. 
Os elétrons, ao contrário, são partículas com carga e massa que interagem uns com os outros. Quando um sinal elétrico é transportado num fio de cobre, os elétrons vão se chocando pelo caminho, produzindo calor e dispersando o sinal original. Nas cerâmicas supercondutoras, a temperaturas ainda muito baixas, os elétrons viajam sem colidir, não havendo portanto perda de energia. As trombadas e interações entre os elétrons acarretam dois problemas básicos nos equipamentos modernos. O primeiro diz respeito ao chamado ruído de comunicação. Distribuídos pelos subterrâneos das cidades, os fios de telefone podem eventualmente passar perto do motor de uma máquina em uma obra qualquer. O campo eletromagnético ali criado é suficiente para perturbar os sinais telefônicos e levar ao aparelho, além das vozes, quaisquer outros ruídos.
O mesmo acontece quando fios muito próximos são atingidos pela água da chuva: os sinais se misturam devido à ligação formada pela água e o que se ouve é linha cruzada. A segunda grande limitação da eletrônica está dentro dos computadores. Nos chips, ou seja, nas minúsculas centrais de processamento de dados, a informação viaja a bordo dos elétrons, criando uma linguagem lógica que se baseia na passagem, ou não, da corrente elétrica. O trânsito dos elétrons a altas velocidades dentro dos chips gera calor. Se não fossem dotados de sistemas de refrigeração, os supercomputadores, que trabalham com extraordinária rapidez, teriam seus chips derretidos, tamanho o calor produzido.
"Estamos chegando ao limite de integração possível num chip", nota o físico José Mauro Leal Costa, diretor de tecnologia da empresa ABC Sistemas, de São Paulo, responsável pela implantação do projeto brasileiro de fibras óticas. Com isso ele quer dizer que, se forem colocados mais circuitos nos atuais chips de silício, ou os elétrons acabarão se misturando devido à proximidade, ou o chip se desintegrará de tão quente. Mas há luz no fim do túnel - literalmente. Através das fibras óticas, a luz do laser é capaz de transportar muito mais informações, sem sofrer interferências nem produzir calor. Os circuitos apenas óticos teriam a desvantagem do tamanho: eles não seriam tão pequenos e compactos quanto os eletrônicos, porque a luz se dispersa mais do que elétrons e assim acaba ocupando mais espaço.
Mas as possibilidades da luz, quando aplicadas às telecomunicações, para começo de conversa acabam com os congestionamentos. Um cabo de plástico carrega em quatro fibras óticas tão finas como um fio de cabelo a mesma quantidade de informações que um cabo com 4 mil pares de fios de cobre. E, como os fótons não se metem uns com os outros nem sofrem interferências, pode chover canivete que as linhas telefônicas não se cruzam. Desde a criação da fibra ótica, patenteada em meados da década de 50, passando pela invenção do laser em 1960, a comunicação ótica foi aperfeiçoada até ser comercialmente implantada no final da década de 70 nos Estados Unidos e logo em seguida no Brasil. Por enquanto, ainda há muito elétron na vida da fibra ótica. As linhas de telefone funcionam da seguinte maneira: o usuário faz a chamada, o sinal elétrico chega à central telefônica e entra num aparelho de laser, que o transforma em luz. A luz embarca então na fibra ótica e viaja até seu destino, que pode ser uma cidade a cerca de 500 quilômetros de distância.
Ali, na central telefônica, a luz entra num fotodetector, é convertida novamente em sinal elétrico e chega ao destinatário por fios comuns. É como se a informação tomasse um ônibus para sair da cidade, entrasse num trem expresso ultra-rápido onde cabem milhões de passageiros e na outra cidade voltasse a tomar um ônibus convencional para chegar ao destino. É apenas questão de tempo e viabilidade econômica levar o trem até a porta da casa do passageiro, ou seja, dotar os aparelhos telefônicos de lasers e fotodetectores. Durante o trajeto da luz pela fibra, sempre que o sinal enfraquece, é convertido em sinal elétrico, depois amplificado, convertido em luz novamente para então continuar seu caminho. Mas já começam a surgir amplificadores que atuam externamente sobre a luz, dispensando as conversões elétricas. Com isso, a qualidade e a confiabilidade do sistema ficam bem maiores.
O primeiro sistema ótico brasileiro foi instalado em 1982 no Rio de Janeiro entre Jacarepaguá e Cidade de Deus. De lá para cá, a substituição dos cabos de cobre por fibras óticas foi calcada nos atributos da luz: mais informação em menos espaço, sinal mais puro e baixo custo.
As fibras permitem que viajem por elas não apenas sinais de áudio, mas também de vídeo e dados de computador. Às vezes isso acontece de maneira combinada, como nos sistemas ISDN (Integrated Service Digital Network, ou rede digital de serviços integrados), responsável pelos videofones, videoconferências etc. Além disso, a luz ajudou a melhorar os bens de consumo eletrônicos. O melhor exemplo são os compact discs (CDs), nos quais as informações gravadas digitalmente são lidas mediante um laser semicondutor e um fotodiodo, que convertem os impulsos elétricos em sinais luminosos e vice-versa. Outros exemplos são as chamadas câmeras de vídeo CCD, digitalizadas, e os televisores de tela plana, em que o cristal líquido substitui os tubos de raios catódicos.
Como laser e computador podem falar a mesma linguagem digital, a comunicação entre rede e centrais fica mais ágil. Já existem espalhadas em grandes empresas americanas redes internas de fibras óticas. No Brasil, as centrais telefônicas de grandes cidades como Rio e São Paulo são interligadas por mais de 40 mil quilômetros de fibras instaladas para esse fim. A luz atravessa também os mares dentro do TAT-8, a primeira rede transoceânica de fibras óticas entre Estados Unidos e Europa.
Quando todos os meios de comunicação estiverem ligados por fibras óticas, o mundo ficará parecido com o projeto - ainda experimental e portanto de pouca viabilidade econômica - implantado no início da década na cidade japonesa de Higashi Ikoma e no balneário francês de Biarritz. Ali, o computador doméstico acessa facilmente qualquer central de telecompras ou de prestação de serviços. A televisão interativa permite que um usuário se comunique com a central ou com outro usuário, escolhendo, a partir de um cardápio, desde telejogos até programas educacionais. Toda comunicação livre de interferências eletromagnéticas é mais segura. Num avião comercial de grande porte, por exemplo, os comandos da cabine do piloto são ligados aos respectivos aparelhos por fios convencionais.
Não é improvável que a proximidade entre eles provoque um ruído na comunicação, resultando no envio de informações erradas, como o destravamento de um trem de pouso. Se os comandos forem interligados por fibras óticas, o problema desaparece. O mais avançado bombardeiro construído recentemente nos Estados Unidos, que voou pela primeira vez em julho último, o multimilionário (70 bilhões de dólares ) e controvertido Stealth, chamado avião invisível por driblar a vigilância dos sistemas de detecção antiaéreos, faz uso extensivo das fibras óticas. Este é um dos fatores que o tornam imperceptível aos radares, por não produzir as ondas eletromagnéticas dos aparelhos eletrônicos. Na Medicina, a tecnologia das fibras óticas funciona como um periscópio dentro do corpo humano.
Embora não seja mistério há mais de vinte anos, a tecnologia da luz ainda engatinha quando se trata da revolução dos computadores óticos. Para começar, o tempo que dura o tráfego de informações dentro dos computadores é da ordem de nanossegundo (1 bilionésimo de segundo ou 10-9 segundos). Já o tempo da viagem de transmissão da luz que seria usado nos computadores variaria de picossegundo (1 trilionésimo de segundo ou 10-12 segundos ) a femtossegundo (1 quadrilionésimo de segundo ou 10-15 segundos ). Ou seja, chegaria a ser 1 milhão de vezes mais rápida. Ao aproveitá-la, pretende-se obter computadores que processem maior quantidade de informações de forma mais limpa (sem ruídos) e mais econômica. Essa evolução é nada mais que natural: afinal, os gigantescos computadores a válvula foram movidos depois a transistores e, como hoje, a circuitos integrados, sempre mais potentes.
O próximo passo em direção aos chips de máxima velocidade é a criação do dispositivo ótico integrado. É um circuito por onde transitam sinais de luz coordenados por sinais eletrônicos. A Universidade Estadual de Campinas (Unicamp) acaba de desenvolver um arranjo de fotodetectores - o primeiro passo na direção do circuito - feito de silício. Mas o silício tem a desvantagem de produzir calor ao receber uma corrente elétrica. Por isso, a Telebrás, também em Campinas, a exemplo dos grandes laboratórios de pesquisa em fibra ótica do mundo, prefere trabalhar com compostos de nomes exóticos como arsenieto de gálio ou fosfeto de índio, que também transmitem luz. 
Com esses materiais, ela já desenvolveu uma tecnologia própria de lasers semicondutores e fotodetectores para a indústria nacional de telecomunicações que têm o tamanho de um grão de sal. Num futuro computador optoeletrônico, o trabalho de construir a lógica binária do sim-não, que consiste no atributo da máquina em deixar ou não passar corrente, ainda seria feito por elétrons que interagem, ao passo que os guias óticos fariam o transporte das informações transmitidas pelo laser semicondutor. A maioria dos cientistas, como o físico Bordeaux Rego, da Telebrás, pensa que esse é o melhor caminho: os elétrons fariam o que bem sabem - ligar ou desligar - e os fótons entrariam com sua capacidade de transportar informação com maior rapidez. Mas o americano de origem chinesa Alan Huang, da AT & T Bell, sonha com a possibilidade de construir um computador totalmente ótico.
Só que a mesma propriedade que faz a luz parecer perfeita comporta-se como o feitiço que vira contra o feiticeiro na hora de construir a linguagem lógica. Ou seja, como os fótons não interagem, não podem se colocar em movimento ou parar uns aos outros, como fazem os elétrons, impedindo assim o liga-desliga dos chips eletrônicos. A Física diz que é possível criar um meio próprio onde os fótons interajam, mas nesse caso eles se misturariam tanto que seria difícil controlá-los. Para Alan Huang, isso não é empecilho. Ele está tão empenhado em seu projeto que chegou a passar dias a fio trancado no laboratório, equipado com forno de microondas, geladeira com freezer bem estocado e sacos de dormir para ele e seus doze colaboradores.
O computador idealizado por Huang - que por enquanto ainda é uma engenhoca de pouco uso prático - não teria fios, mas pulsos de laser que transportariam dados passando através de minúsculos interruptores óticos. O xis do problema é construir um interruptor que reaja à luz do laser e possa criar uma linguagem lógica a partir do claro-escuro. A equipe de Huang chegou a um interruptor feito de arsenieto de gálio, que responde a correntes elétricas tornando-se ou transparente, ou opaco. Mas não conseguiu fazê-lo manter a mesma propriedade quando estimulado por sinais de laser.
No mesmo laboratório, dois outros cientistas, David Miller e Jill Henry, vêm desenvolvendo há três anos o SEED ( Self Eletro-optic Effect Device ), um chip eletrônico que funciona quando estimulado também por fótons. Até hoje, porém, nenhum protótipo desse tipo que efetivamente funcione em larga escala foi construído ou testado. Os cientistas da Bell acham que vai levar anos até que um chip ótico tenha a mesma confiabilidade e eficiência dos chips eletrônicos. Enquanto a luz total não vem, a optoeletrônica vai mandar nesse jogo, casando as melhores qualidades da ótica e da eletrônica, como já está acontecendo nas telecomunicações e na indústria eletrônica de consumo.

Petisco para peixes

O primeiro cabo transoceânico de fibras foi instalado em dezembro do ano passado, ligando Tuckerton, na costa leste dos Estados Unidos, a Widemouth, no sul da Inglaterra, e a Penmarch, no noroeste da França. Com 6 700 quilômetros de extensão, o cabo, chamado TAT-8, transmite simultaneamente 40 mil conversas telefônicas, quase cinco vezes mais do que seu antecessor de cobre. Mas a construção e a instalação, que duraram sete anos, foram menos problemáticas do que manter o cabo a salvo dos tubarões, que adoram morder cabos de fibras óticas.
O problema já havia sido detectado em 1985, quando cabos de fibra ótica entre as ilhas Canárias e Tenerife, no Atlântico, pararam de funcionar trinta dias depois de instalados, vítimas de mordidas dos tubarões. Os cabos anteriores, feitos de cobre e cobertos de metal, tinham o diâmetro de alguns metros e por isso não serviam de petisco. Já os de fibra ótica têm apenas 30 centímetros de diâmetro e podem ser estraçalhados. Por isso, antes de instalados no fundo do mar, são revestidos de aço coberto de polietileno. Quando o material foi testado, os cientistas encomendaram um mecanismo que imita a ação de uma arcada dentária, parecido com que foi construído para o filme Tubarão, instalaram-no numa piscina e deram-lhe vários cabos para mastigar, até chegar à solução impermeável a quaisquer dentes.

Por dentro do corpo

Além de revolucionar a comunicação e os computadores, as fibras óticas estão permitindo aos médicos ver as doenças com os próprios olhos dentro do corpo humano. Através de pequenas incisões, as fibras são introduzidas nos caminhos naturais do organismo e vasculham pulmões, intestinos, coração e outros órgãos antes inacessíveis. Essa viagem interior, que até há poucos anos só existia em história de ficção científica, é feita pelo fibroscópio, um aparelho que consiste em dois feixes de fibras óticas, um para iluminar o tecido corporal e outro para transmitir a imagem. 
A ponta do primeiro feixe á alimentada com uma fonte de luz. A luz percorre as fibras óticas e ilumina o órgão que o médico quer ver. Uma lente capta então a luz refletida e a focaliza no feixe de transmissão, em que cada fibra corresponde a um ponto da imagem. A imagem completa aparece num visor, podendo ser gravada por uma câmera ou mostrada num monitor de TV. Olhando pelo fibroscópio, o médico pode, por exemplo, detectar pólipos nos intestinos, depois removidos por diminutos instrumentos cirúrgicos ou por feixe de laser.
Sensores de fibras óticas também são capazes de fazer análises do sangue do paciente no próprio consultório, tornando o processo mais rápido. Pequenas cirurgias são igualmente possíveis, com a vantagem de dispensar o corte de tecidos saudáveis - o feixe de laser transportado pelas fibras óticas cauteriza veias em hemorragias intestinais e vaporiza placas e coágulos sanguíneos em artérias cardíacas.

terça-feira, 24 de janeiro de 2012

Visões Interiores - Medicina

VISÕES INTERIORES - Medicina



O aparelho de raios X já deixou de ser o único que permitia ver um organismo por dentro. Uma nova geração de máquinas fornece imagens detalhadíssimas do corpo humano. É uma revolução na ciência médica.

O diagnóstico radiológico parecia definitivo: aquela sombra na chapa de raios X indicava a presença de um tumor no ureter direito - um dos canais que ligam os rins à bexiga. Para esse exame, a carioca Maria Helena Cruz, uma agente de viagens de 45 anos, tinha tomado uma injeção endovenosa de líquido contrastante que seus rins iriam filtrar, enquanto um aparelho de raios X bateria uma série de chapas a intervalos regulares. As primeiras imagens mostraram os dois rins se enchendo do contraste. Depois, começam a filtrá-lo e ele escorre, junto com a urina pelos ureteres, chegando à bexiga. A imagem do contraste descendo pelos ureteres deve ser regular e simétrica. Nas chapas de Helena isso não acontecia: no ureter direito, uma pequena falha de enchimento indicava que um tumor crescia ali dentro. Era preciso operar. O urologista que acompanhava o caso, por precaução pediu que Helena fizesse dois outros exames: tomografia computadorizada e a ultra-sonografia. O primeiro mostrou que o tumor fica do lado de fora do ureter, como um dedo deformando um tubo de borracha - e rigorosamente nem era um tumor, mas outra estrutura anatômica. (Os médicos chamam de tumor qualquer aumento anormal de um órgão ou parte dele: um galo na testa é um tumor.)
Já a ultra-sonografia permitiu visualizar a pulsação da estrutura que deformava o ureter. Estava feito o diagnóstico: uma artéria anômala, ou seja, uma variação anatômica do trajeto de uma artéria (normal sob qualquer outro aspecto), comprimia pelo lado de fora o ureter, criando uma imagem radiográfica de uma tumoração no seu interior. Estava descartada a cirurgia. Tudo não passou de um susto.
A descoberta dos raios X em 1901 deu ao alemão Wilhelm Roentgen (1845-1923) o primeiro Prêmio Nobel de Física da história. Ele chamou os raios de "X" por serem nova forma de radiacão, até então desconhecida. Capazes de atravessar objetos sólidos, sua importância para a Medicina logo chamou a atenção. Uma das primeiras radiografias, da mão da própria mulher do cientista, mostra os ossos e o anel que ela usava. A técnica seria aperfeiçoada logo depois com a descoberta dos contrastes, substâncias opacas aos raios X que podem ser ingeridas ou injetadas, permitindo ao radiologista visualizar não somente os ossos, mas também o tubo digestivo, as artérias e veias e diversos outros órgãos, "moles" demais para fornecer uma boa imagem radiográfica.
Os raios X são uma forma de radiação de alta energia; portanto. oferecem certo risco, tanto para o paciente quanto para o médico que faz o exame. Muitos radiologistas morreram de leucemia antes que medidas de segurança mais severas fossem adotadas nos laboratórios. Além disso, certa dificuldade em distinguir estruturas sobreportas sempre foi a maior limitação do método. Para conseguir uma boa imagem de determinado órgão, muitas vezes é necessário radiografá-lo de diversos ângulos, aumentando com isso a dosagem total de radiacão recebida pelo paciente. Os computadores, com sua prodigiosa capacidade de manipular e guardar dados, juntamente com tecnologias que buscaram outras formas de obter informações interior do corpo humano, estão revolucionando o arsenal para diagnósticos à disposição do médico.
Exames como a tomografia computadorizada, a ultra-sonografia mesmos que livraram Maria Helena de uma desnecessária cirurgia-, a endoscopia, a cintilografia, a topografia cerebral e a ressonância magnética nuclear são alguns dos métodos revolucionários nesse campo. Segundo Berdj Meguerian, do Departamento de Medicina Nuclear do Hospital dos Servidores do Estado, no Rio de Janeiro, a atual tendência é se criar nos grandes hospitais um departamento de imagens, tal a complexidade das técnicas de diagnósticos. "Está se tornando cada vez mais difícil indicar qual o melhor exame para cada caso específico", explica ele. "Um departamento de imagens bem entrosado, coordenando todos os equipamentos disponíveis no hospital, faria a indicação do exame apropriado."
A Clínica Radiológica Luiz Felippe Mattoso está localizada no bairro de Botafogo, no Rio. Embora disponha ali de um aparelho de tomografia computadorizada, o médico Francisco Perdigão não esconde o entusiasmo pela chegada de um novo aparelho, ainda não totalmente desencaixotado, que, "além de ser mais compacto, leva menos tempo para fazer os cortes", conforme antecipa. Cortes? Sim, a tomografia (do grego tomé, corte, e graphein, grafar) realiza feito semelhante ao dos mágicos que fingem serrar uma mulher ao meio, sem fazer-lhe mal -com a vantagem de mostrar numa tela a imagem desse corte simulado. O que se vê é uma fatia, anatomicamente perfeita, de um corpo humano vivo. Desapareceu o problema da superposicão de órgãos que afligia o radiologista.
"Uma das maiores vantagens da tomografia", conta o doutor Francisco, "é podermos pedir ao computador que analise determinado ponto e ele será capaz de dizer se aquela área está cheia de liquido ou se é uma tumor ação sólida." O que um aparelho de tomografia faz, na realidade, é bater quase 3 mil chapas radiográficas de diversos ângulos, para cada corte. Já em 1917. o matemático austríaco J. Radon demonstrara ser possível reconstruir matematicamente um objeto bi ou tridimensional apenas pela reorganização de todas as suas infinitas projeções. Mas o uso dessa técnica teve de esperar o aparecimento dos computadores, pois o número de cálculos requeridos para cada reconstrução é formidável.
Na radiografia convencional, os raios X partem de uma fonte (como uma lanterna, por exemplo) que "ilumina" o corpo. Os raios passam através dele, impressionando uma chapa fotográfico. Na tomografia, apenas um fino filete de raios X percorre o corpo, uma camada por vez. Assim, uma tomografia completa do abdome expõe o paciente a apenas um quarto da radiação de uma radiografia convencional. O primeiro aparelho de tomografia computadorizada a ser comercializado foi o EMI Scanner, fabricado na Inglaterra, nos anos 70. Em l976 chegou ao Hospital da Beneficência Portuguesa, em São Paulo, o primeiro body scanner do pais. No ano seguinte, o armador chinês Y.K. Pao doou um head scanner à Santa Casa do Rio de Janeiro para auxiliar o tratamento da filha do então presidente Ernesto Geisel.
Nem sempre a luz viaja em linha reta: no interior de um endoscópio; um raio de luz faz curas. Foram os japoneses os inventores do aparelho. Por alguma razão ainda não bem esclarecida, é altíssima a incidência de câncer gástrico no Japão. Os epidemiologistas põem a culpa nos alimentos defumados, consumidos em larga escala no arquipélago. De qualquer maneira, era preciso achar um método capaz de detectar precocemente esse tipo de tumor, para poder operá-lo ainda no início.
Assim como no Brasil, onde o alto número de tuberculosos fez surgir a abreugrafia-um método barato e eficiente, perfeito para a utilização em larga escala -, no Japão foi criado o endoscópio. Seu segredo está nas fibras óticas-delgadíssimos fios de fibra de vidro, mais finos que um fio de cabelo. Um chumaço deles, ordenados (ou seja, bem "penteados") dentro de um tubo de borracha, permite ver o que acontece em qualquer lado para onde aponte o tubo. Mais sofisticados, os endoscópios para uso médico costumam ter três canais no interior: um para conduzir a luz, outro para o endoscopista olhar e um terceiro, que possui pequenas pinças, agulhas ou estiletes, para as biópsias, injeções e outros procedimentos.
A endoscopia revolucionou a gastroenterologia-com o gastroendoscópio, que, descendo pela boca, faz uma verdadeira viagem pelo esôfago, estômago e duodeno; e o colonoscópio, que permite visualizar o intestino grosso (ou cólon), sigmbide e reto, de grande valor também para a proctologia. Tais equipamentos às vezes se prestam aos mais surpreendentes usos. "Um caso dramático", lembra o dr. Silvio Panno Neves, do Serviço de Endoscopia do Hospital dos Servidores do Estado, no Rio, "aconteceu há um ano e meio, quando uma jovem de 24 anos apareceu trazida por dois policiais. Ela havia sido presa no aeroporto do Galeão por suspeita de tráfico de drogas. Com o endoscópio, pude ver que o estômago estava cheio de pequenos pacotes embrulhados com papel laminado. Passei horas retirando, um a um, os 28 papelotes de cocaína com o maior cuidado para que nenhum deles se rompesse, senão ela morreria na hora."
Além da eliminação de corpos estranhos no tubo digestivo, pequenos cálculos podem ser retirados do colédoco (o tubo que liga a vesícula ao duodeno), pólipos do cólon podem - ser cauterizados (o presidente americano Ronald Reagan submeteu-se a essa intervenção) e pequenos sangramentos, localizados e estancados. A endoscopia é, portanto, também um método terapêutico, além de diagnóstico. Sua grande vantagem é que permite uma visualização direta da lesão. - Localizar uma úlcera gástrica com a - radiografia equivale a fazer um diaganóstico de uma espinha na ponta do nariz observando-se uma ligeira saliência na sombra do nariz projetada , numa parede. Com os olhos (e o endoscópio) enxerga-se a lesão.
Principais responsáveis pela maleabilidade dos endoscópios, as fibras óticas são também a sua maior fraqueza. Extremamente delgadas, elas a se rompem com facilidade, reduzindo a vida útil dos aparelhos. Um segundo inconveniente dos endoscópios de fibra é que apenas duas pessoas no máximo podem olhar pelo aparelho. Recentemente, surgiu o video-endoscopia: trata-se de uma microcâmara de TV na ponta de um tubo flexível. A imagem aparece num monitor, - permitindo que o exame seja acompanhado até por uma platéia. E simples fios elétricos, mais resistentes, substituem as fibras óticas.
Marcela tem 1 ano e 9 meses e confirma as previsões feitas pela médica, antes de nascer, de que seria uma criança alta. A ultra-sonografia, no oitavo mês de gravidez, mostrou que Marcela tinha os fêmures extremamente longos, lembra sua mãe, a manequim carioca Jackie Sperandio, 26 anos. Jackie não ficou sabendo o sexo da filha antes do parto. Embora seja uma das principais preocupações das futuros mães, o sexo da criança é, segundo os obstetras, o menos importante dos dados que a ultra-sonografia pode fornecer.
Transformado hoje num exame quase de rotina no acompanhamento da gravidez, o ultra-som permite avaliar o desenvolvimento do feto, medindo-se o tamanho da cabeça e do tórax de três em três meses. Permite também determinar a posição da criança e o funcionamento do coração, dos rins e intestinos. "Para dizer a verdade, eu e meu marido não conseguíamos ver nada do que a médica descrevia na tela", conta Jackie, "mas quando vi o coraçãozinho do bebê pulsando dentro da minha barriga foi uma grande emoção." As imagens do ultra-som "são realmente difíceis para um olho não treinado", concorda a médica Liane Braga, do Rio, "porque são imagens do eco de um sinal que parte um objeto que posso colocar em qualquer angulo sobre a pele. É preciso ter uma boa imaginação espacial".
O desenvolvimento do radar e do sonar durante a Segunda Guerra Mundial abriu caminho para o uso do ultra-som com fins diagnósticos em Medicina. Depois, os computadores permitiram um refinamento da imagem obtida. Os modernos aparelhos são capazes de diferenciar a intensidade do eco, tornando possível obter imagens com uma graduação de até vinte tons de cinza, correspondentes a variações na maneira pela qual cada estrutura anatômica reflete o ultrasom.
Os métodos descritas até aqui mostram belas imagens de órgãos e estruturas anatômicas. Mas pouco informam a respeito de como os tecidos estão funcionando-por exemplo, se as reações químicas vitais de cada célula exibem atividade normal, acelerada ou reduzida. A cintilografia (ou cintigrafia) pode fornecer esses dados. O paciente recebe uma injeção ou ingere uma substancia radioativa rapidamente absorvida pelo órgão que se deseja estudar. A substancia-um radioisótopo especifico para cada órgão-possui uma curtíssima meia-vida (tempo que uma substância radioativa leva para ter sua massa reduzida à metade), que vai de apenas seis horas a oito dias. Os radioisótopos liberam radiação gama, captada por uma gamacâmara colocada em contato com o paciente.
Uma tireóide (glândula da região anterior do pescoço que controla o metabolismo), aumentada de tamanho, por exemplo, informa se é hiperativa, hipoativa ou funciona normalmente, dependendo de como vai captar o iodo radioativo. "O grande futuro da cintigrafia", antecipa no Rio o doutor Meguerian, do Hospital dos Servidores do Estado, "virá quando forem criados os anticorpos monoclonais marcados com radioisótopos. Serão como mísseis teleguiados procurando determinada célula; digamos, um certo tipo de tumor cerebral. Injetamos os anticorpos marcados no paciente. Se a cintigrafia acusar uma concentração radioativa -em determinado ponto do cérebro, isso significa que para ali se dirigiram os anticorpos; ou seja, é ali que está o tumor."
O uso médico dos isótopos radioativos foi previsto já nos anos 40 e tornou-se rotina nos serviços de saúde. Na década de 50, alguns hospitais brasileiros usavam um contador Geiger para medir a porcentagem de captação do iodo radioativo pela tireóide. Uma determinada dose da substância era injetada no paciente; depois de certo tempo, o contador Geiger media a concentração na tireóide, permitindo saber de que modo a glândula estava captando o iodo.
Nos laboratórios do curso de pós graduação em Engenharia Biomédica da Universidade Federal do Rio de Janeiro, é comum encontrar o neurologista Antônio Sérgio Resende Ávila sentado diante de um microcomputador. Ele estuda maneiras de transformar o quase caótico traçado de um eletroencefalograma (EEG) numa representação espacial das ondas elétricas produzidas no cérebro, de acordo com a sua localização e freqüência (medida em hertz, ciclos por segundo). Verdadeiros mapas da atividade elétrica do cérebro, as imagens da topografia cerebral tornam mais fácil o diagnóstico dos neurologistas. A técnica, na verdade, não acrescenta novos dados aos fornecidos pelo EEG- apenas os reorganiza.
Ao contrário da tomografia computadorizada, que usa os penetrantes raios X, ou da cintigrafia, que requer a injeção de uma substância radioativa, a topografia cerebral tem a vantagem de ser não-invasiva. Ela apenas monitora, passivamente, as ondas produzidas pelo cérebro. O que mais entusiasma o doutor Sérgio Resende, da IJFRJ, é a possibilidade de que, num futuro próximo, a topografia cerebral venha a ser a base diagnóstica para uma "psiquiatria biológica" como ele diz.
Isto é, desordens como a esquizofrenia ou a psicose seriam diagnosticadas por apresentar certos padrões patológicos - portanto, um método quantitativo, objetivo, em substituição aos atuais métodos subjetivos e qualitativos de diagnóstico. "Bastaria submeter o paciente ao EEG topográfico", antevê Sérgio, "e poderíamos dizer-este é o cérebro de um psicótico." A topografia cerebral procura ordenar as informações obtidas pelo eletroencefalograma de um modo mais compreensível. No lugar de uma longuíssima folha de papel cheia de rabiscos, tem-se a representação de como as ondas cerebrais se distribuem.
Um dos primeiros detalhes a chamar a atenção, quando se entra no Serviço de Imagem por Ressonância Magnética (IRM) do Hospital Albert Einstein, em São Paulo, é o uso obrigatório de sapatilhas de pano que os médicos chamam de "propé". "Aprendemos a duras penas", explica o doutor João Radvany, responsável ali pelos exames da cabeça e do sistema nervoso central. "O solo de São Paulo é muito rico em ferro, e quando limpamos o aparelho nas primeiras vezes descobrimos que estava cheio de poeira metálica, atraída pelo potente imã do equipamento. Dai passamos a usar os protetores para os pés."
O aparelho de IRM é o mais recente e promissor método de diagnóstico em Medicina, tendo surgido na Inglaterra em 1978. 0 do Einstein, instalado em abril de 1986, é o primeiro no Brasil. Utiliza uma técnica denominada ressonância magnética nuclear (RMN), graças à qual poderosíssimos campos magnéticos podem ser calibrados para excitar átomos de determinado elemento (por exemplo, o hidrogênio, responsável por 70 por cento do peso corporal, na forma de água e gorduras). Excitados, os átomos produzem sinais que, depois de captados e processados pelo computador, formam uma imagem no monitor.
Capaz de fornecer imagens anatomicamente superiores a qualquer outro método, a RMN tem ainda a vantagem de usar apenas imãs poderosos, considerados até o momento inócuos -exceto, é claro, para os relógios, cartões magnetizados, talões de cheques (que possuem código impresso com tinta magnética) e câmaras fotográficas. "Já cansei de ter o meu cartão recusado", conta o médico Laércio Rosemberg, enquanto coordena um exame. "E que a gente se esquece e entra na sala com a carteira." As imagens obtidas pela RMN são impressionantes pela fidelidade anatômica, parecendo cortes reais. Mesmo assim, o médico que as interpreta precisa ter profundos conhecimentos de Física, Fisiologia, Anatomia, Biologia Celular e Patologia. "A tecnologia não dá respostas, fornece apenas subsídios", resume o doutor Radvany. "O médico é quem pode interpretar o que vê e chegar a um diagnóstico."

Endoscopia digestiva: dentro do tubo do endoscópio estão as fibras óticas, que tornam possível ver o interior do aparelho digestivo. É o único método de diagnótico com cores reais, pois trabalha com luz visível. Nos demais exames, a cor é um artifício gerado pelo computador. As imagens aqui mostram aspectos anatômicos do interior do estômago, extamente como seriam vistos numa cirurgia.

Ressonância magnética nuclear: dentro do aparelho, o paciente e submetido a um forte campo magnético, produzido por uma bobina resfriada com hélio líquido para ter propriedades supercondutoras Isso faz com que os prótons dos átomos de hidrogênio do corpo fiquem todos alinhados, como agulhas de bússolas. Nesse momento, um segundo campo magnético, transversal ao primeiro, força-os a mudar de orientação Este segundo campo é então desligado e os prótons voltam à posição original, emitindo sinais eletromagnéticos captados pelo aparelho. Realizados os cálculos pelo computador, a imagem aparece num monitor, onde o médico pode pedir os cortes que deseja ou especificar um programa para ressaltar determinada estrutura.


Cintilografia: o paciente tem seus rins examinados. A substância radioativa que se concentrou nos rins emite radiação gama, captada pelo aparelho, uma câmara de cintilação, ou gamacâmara. Um computador processa as informações e exibe a imagem na tela. As cores indicam a concentração de substância radioativa dentro dos tecidos.


Topografia cerebral: o neurologista vê na tela de um microcomputador como as informações de um eletroencefalograma podem ser transformadas num mapa, de acordo com a distribuição das ondas elétricas cerebrais.


Ultra-sonografia: a médica coloca o transdutor em posição para examinar o baço do paciente. Criado a partir do sonar, o ultra-som usa ondas mecânicas - as ondas sonoras - cuja freqüência está muito acima do limite de 20 mil hertz (ciclos por segundo) da nossa audição. O transdutor emite, intermitentemente, ondas de milhões de ciclos por segundso (megahertz). A diferença de densidade dos tecidos produz os ecos captados pelo transdutor. computador os transforma em imagens.

quinta-feira, 3 de novembro de 2011

Quando a vista não alcança - Medicina

QUANDO A VISTA NÃO ALCANÇA - Medicina.



Pelo microscópio e trabalhando com instrumentos de alta precisão, médicos especializados emendam nervos e vasos capilares. Assim, fazem o reimplante de membros amputados.

O microscópio transforma milímetros em centímetros. A mão do cirurgião que não se altera sequer com o tremor natural da respiração, dirige instrumentos delicados. Ampliação da imagem, coordenação de movimentos e leveza do instrumental preciso - eis a chave da microcirurgia, a operação de estruturas do organismo invisíveis a olho nu. Trata-se de uma técnica que se tornou a arma poderosa de diversas áreas da medicina cirúrgica, principalmente operações de vista, cérebro e aparelho auditivo. E, quando a cirurgia plástica lançou mão do instrumental microlentes de aumento e agulhas muito menores que as convencionais-o resultado foi uma verdadeira revolução: a plástica reconstrutiva, que permite reimplante de membros amputados, transplante de tecidos do corpo para corrigir defeitos, recuperação de movimentos em casos de paralisia.
O pioneiro na tentativa de superar as limitações do olho humano em cirurgia foi o dr. Nylen. médico otorrino sueco, que utilizou pela primeira vez o microscópio numa operação. em 1921. Na época, pouca atenção foi dada à novidade. Somente na década de 30, os cirurgiões oftalmologistas do mundo inteiro começaram a usar o microscópio para operações de vista, em que sempre se lida com estruturas muito delicadas. Nasceram assim os instrumentos cirúrgicos pequenos - até hoje, muitos deles. utilizados em microcirurgias. tem nomes típicos da oftalmologia. Em seguida, a técnica passou a ser aproveitada em cirurgias de ouvido. mas durante longo tempo ficou restrita a essas duas áreas.
Apenas no fim dos anos 50. pensou-se em microcirurgia para ligar pequenos vasos do corpo, de forma que o sangue não parasse de fluir. Em 1960, os norte-americanos Julius Jacobson e E.L. Suarez apresentaram uma técnica para suturar vasos com diâmetro inferior a dois milímetros. Foi um marco: a ciência médica provava que era possível recuperar pequenas estruturas do corpo humano. O que ainda faltava era tecnologia: o instrumental cirúrgico disponível era tão grosseiro para esse fim, como uma faca de cozinha perto de um bisturi.
Alguns médicos pioneiros em microcirurgia ajudaram a resolver o problema. O próprio Jacobson foi quem convenceu a firma alemã de equipamentos óticos Carl Zeiss a projetar o primeiro microscópio cirúrgico. O norte-americano Harry Buncke. em experiências realizadas na Califórnia, desenhou muitos dos novos instrumentos. Era preciso, por exemplo, ter pinças que não danificassem o que agarravam. Os clamps-grampos que prendem o sangue nos vasos, enquanto estão sendo suturados-não poderiam esmagar os tecidos. As tesouras deveriam ter molas, para cortar com movimentos mais suaves.

Restava ainda a questão das linhas e agulhas. Já existia o fio de náilon chamado 6-0, com 40 micra (milésimos de milímetro) de espessura, até hoje empregado em cirurgia de olhos: mas vasos e nervos pediam fios mais finos que o mais fino dos fios de cabelo, e em meados dos anos 60 chegou-se a um com 22 micra. As agulhas, por sua vez, não poderiam ter buraco para o fio passar pois, nesse caso, seriam mais grossas numa das extermidades, rasgando os tecidos. A solução foi colar o fio na ponta da agulha microcirúrgica, que geralmente tem quatro milímetros de comprimento.
Em 1968, o cirurgião japonês Susumu Tamai fez o primeiro reimplante de um dedo amputado. Também no Japão, o dr. Kyionori Harii começou a transplantar tecidos para reconstruir o couro cabeludo de pacientes com queimaduras. Em 1973, os australianos Roland Daniel e I. Taylor reconstruíram o osso de uma tíbia esfacelada num acidente; em outros tempos seria um caso de amputação da perna.
A partir da década de 70, a microcirurgia teve um grande impulso. Na América Latina, o primeiro reimplante de mão foi realizado em 1971, em São Paulo, pela equipe do cirurgião plástico Marcus Castro Ferreira. A mesma equipe realizou o primeiro reimplante de dedos no continente, dois anos mais tarde. Fez sentido a mão vir antes do dedo: quanto menor o membro, maior a dificuldade para o reimplante. Atualmente, 90 por cento das cirurgias desse tipo trazem bons resultados.
A exigência de grande habilidade mental e física para qualquer cirurgião é ainda mais rigorosa no caso do microcirurgião. Ele deve acostumar-se a enxergar, através da barreira de lentes do microscópio, o horizonte de um campo operatório que alcança, no máximo, 60 milímetros -e. no mínimo, seis. Além disso, o médico deve familiarizar-se com a imagem ampliada de microestruturas. como vasos capilares e nervos. A tendência natural é acelerar os movimentos na proporção em que o microscópio amplia a imagem. Daí é preciso frear a mão. Aprende-se em cirurgia a trabalhar com eficiência e rapidez. Mas na microcirugia, que é ensinada a nível de pós-graduação, deve-se saber que a velocidade é um obstáculo, porque nem tudo o que o cirurgião tem em mente os instrumentos conseguem realizar; muitas vezes, é o microcirurgião quem obedece ao ritmo de pinças e agulha.
O microcirurgião não pode, por exemplo, jogar tênis - esporte que parece ser a paixão de nove em cada dez estrelas da medicina-, porque, nas vinte quatro horas após uma partida, causa nas mãos leves tremores, quase imperceptíveis, mas fatais para quem opera num universo milimétrico. Pelo mesmo motivo, ao contrário das cirurgias convencionais, durante uma microcirurgia há silêncio quase absoluto. Só se conversa em casos de extrema necessidade, pois a alteração na respiração também faz as mãos tremerem. A cirurgia em si pode durar de três a sete horas.
Tudo isso mostra como é detalhista uma cirurgia de reimplante. Primeiro, trata-se a ferida; o corte do membro deve ser o mais liso possível. "Muitas vezes, encurtamos o membro com um segundo corte para retirar a parte esfacelada", explica o dr. Aulus Albano, chefe do departamento de microcirurgia do Hospital Oswaldo Cruz, em São Paulo.
O passo seguinte é fixar o osso quebrado com o auxílio de fios metálicos. Depois, devem-se ligar os vasos. Com grampos especiais. o cirurgião prende cada ponta de veia ou artéria, para interromper o fluxo sangüineo. A seguir, um a um, cada vaso é costurado com quatro ou seis micropontos: se, ao soltar os dois grampos de um vaso, o sangue voltar a passar. é sinal de que tudo vai bem. Finalmente. emendam-se os nervos e os tendões e costura-se a pele.
A cirurgia precisa ser feita até quatro horas após o acidente, para evitar a degeneração dos tecidos. Quando isso é impossível e o membro amputado tem uma função importante - como o polegar, que permite agarrar objetos-, o cirurgião pode recorrer ao transplante: por exemplo, amputar um dedo do pé e reimplantá-lo na mão. "Essa operação tem sido feita com sucesso quase total". informa o dr. Albano, "mas, quando acontece uma exceção, costumo dizer que se trata de um ´fracasso monumental´, onde há um transplante e dois buracos, pois o paciente perde um segundo membro. "Imprevisível mesmo, porém, é a microcirurgia para reconstrução de nervos.
Enquanto, ao ligar uma artéria, o cirurgião vê o sangue circular por ela imediatamente depois, o nervo dá uma resposta lenta e sua recuperação não depende apenas da cirurgia. O cirurgião Marcus Castro Ferreira, da USP, observa que "pouco se sabe sobre a regeneração dos nervos, e além disso existe o grande problema da atrofia muscular".
O nervo é formado por células nervosas, os neurônios, ligadas por uma espécie de fio estreito, o axiônio. O axiônio é um prolongamento da substância citoplasma que existe nos neurônios, revestida por um tecido - uma vez quebrado o axiônio, não há como emendá-lo. Emendam-se, portanto, os dois pontos de contato dos neurônios e, às vezes, enxertam-se pedaços de nervos de outras partes do corpo, geralmente da perna. O fio de náilon pode ser substituído por uma microgota de cola de fibrina, uma proteína insolúvel, existente nos coágulos sangüineos. O resto é questão de sorte.
"Sabemos que, quanto mais jovem o paciente, maiores as chances de recuperar os movimentos. Essa é a única certeza que se tem. diz o dr. Ferreira. O problema é que, em algumas pessoas. independente da idade. os nervos se regeneram, ou seja, o axiônio cresce; em outros casos, isso não acontece. Como a regeneração se dá à média de um milímetro por dia. os médicos levam mais tempo do que gostariam para perceber se o rosto que ficou paralisado após um corte em acidente de carro ou a mão que perdeu os movimentos após uma facada voltarão a ser normais. Nos casos da cirurgia para corrigir a paralisia de toda a parte superior do corpo pode-se esperar até um ano por uma resposta. É comum danificar esse feixe de nervos, o plexo braquial, que começa na nuca e vai até o braço, em acidentes com motos.
A questão da atrofia é ainda mais instigante. "As vezes o nervo se regenera", nota o dr. Ferreira, mas o músculo atrofiado está enrijecido e fibroso. portanto não se mexe. Não há fisioterapia que evite o problema. aparentemente causado pelo desaparecimento de uma substância enviada pelos nervos aos músculos. Essa substância seria a responsável pela tonicidade muscular.
Os prazos na cirurgia de reconstrução de nervos também existem. Há quase cem por cento de chance para quem é operado menos de 48 horas após um corte em qualquer parte do corpo. Nos casos do feixe plexo branquial, o prazo estende-se para um mês. Depois as chances vão diminuindo. "Após um ou dois anos, a paralisia é irreversível". adverte o dr. Ferreira.
A microcirurgia há muito deixou de ser uma raridade. No Centro de Microcirurgia da USP. por exemplo, todo dia se faz uma intervenção desse tipo. O dr. Ferreira. criador do Centro, e ele próprio autor de 1 500 operações com o microscópio. prevê que no futuro haverá bancos de órgãos para transplantes. Existem condições técnicas de implantar a mão de um cadáver em uma pessoa", diz, "mas há 0 problema ético". O problema médico, no caso, é a necessidade de usar drogas fortíssimas contra a rejeição. Nos transplantes cardíacos recorre-se a elas porque são a única chance do paciente. Mas ninguém arrisca a vida por um pé.

sexta-feira, 27 de maio de 2011

Porta 'Light Peak' é capaz de copiar Blu-Ray em menos de 30 segundos

24/02/2011 15h46 - Atualizado em 24/02/2011 16h32
Porta 'Light Peak' é capaz de copiar Blu-Ray em menos de 30 segundos
Sistema promete taxa de transferência duas vezes maior que USB 3.0.
Novidade já foi adotada no MacBook Pro com nome de 'Thunderbolt'.


Chip controlador da tecnologia "Light Peak" que permite taxas de transferência 12 vezes mais rápidas do que a Firewire 800 (Foto: Divulgação)Light Peak é o codinome de uma nova tecnologia de cabo ótico de alta velocidade concebida para interligar aparelhos eletrônicos. Ela foi desenvolvida pela Intel e oferece banda larga a partir de 10 Gbps com a capacidade potencial para chegar até 100 Gbps durante a próxima década, ou 2 vezes mais veloz que uma porta USB 3.0.

Com 10 Gbps, é possível transferir um longa-metragem de um filme em Blu-Ray em menos de 30 segundos. A tecnologia óptica permite também conectores menores e cabos mais longos, finos e flexíveis do que os atualmente possíveis.

A Light Peak também tem a capacidade de executar múltiplos protocolos simultaneamente em um único cabo, permitindo conectar periféricos como monitores, unidades de disco, docking stations e outras mais.

Novos computadores com o Light Peak começaram a ficar disponíveis para os usuários na nova linha do MacBook Pro da Apple, com o nome definitivo de "Thunderbolt".

Novo conector, logo e conectores (Foto: Divulgação)A porta Thunderbolt oferecerá desempenho diferenciado em uma ampla variedade de novos periféricos, além do Apple LED Cinema Display e de outros periféricos Mini DisplayPort. Será possível encadear até seis dispositivos Thunderbolt, incluindo o monitor.

O suporte a vídeo e oito canais de áudio facilita a conexão com dispositivos compatíveis com HDMI, como a TV ou som, usando o adaptador HDMI já existente. Atualmente suporta também adaptadores VGA, DVI e DisplayPort.

.
.
C=49273
.
.

quinta-feira, 17 de fevereiro de 2011

Em 20 anos no país, celular se torna amigo inseparável do brasileiro

28/12/2010 08h14 - Atualizado em 28/12/2010 08h36

Em 20 anos no país, celular se torna amigo inseparável do brasileiro
Hoje o Brasil tem mais celular que gente. São 190 milhões de brasileiros e 197,5 milhões de celulares.


O telefone celular está fazendo 20 anos de idade no Brasil. Já foi artigo de luxo para pouquíssima gente. Mas, duas décadas depois, já são 197,5 milhões de aparelhos no país. E pensar que muitas gerações já viveram sem ele. Como?

No Brasil de 1990, quando os primeiros celulares chegaram no país, 700 brasileiros se tornaram os primeiros assinantes da telefonia móvel. Eram proprietários de um aparelho que de portátil só tinha mesmo o nome, com uma bateria enorme e uma antena que não pegava na maioria dos lugares. Mas eram os pioneiros de uma nova forma de comunicação que ia revolucionar o jeito de falar ao telefone.

Em 1997, começaram as privatizações da telefonia. Surgiram várias operadoras no mercado, mais concorrência e tecnologia. A revolução nas comunicações já não tinha mais como parar. “Agora eu dependo do celular, estou com ele na mão porque eu estou trabalhando”, comentou uma senhora.

Hoje o Brasil tem mais celular que gente. São 190 milhões de brasileiros e 197,5 milhões de celulares. “Brasileiro virou dependente de celular, infelizmente”, diz uma carioca.

Na Região Sul, são 105 celulares por cem habitantes; no Sudeste, 111; e no Centro-Oeste, 121 aparelhos por cem habitantes . A maioria (82%) são pré-pagos e funcionam com créditos.

Até bem pouco tempo atrás, entrava-se em uma casa e via logo aquela mesinha com o telefone fixo. Hoje isso está caindo em desuso. A família da administradora imobiliária Ana Lúcia Araújo Victor há dois anos aboliu o telefone fixo e hoje tem cinco aparelhos celulares.

“As pessoas me encontram em qualquer lugar do mundo. Falo dentro do banco, falo na rua, tenho uma irmã que mora na Alemanha”, conta Ana Lúcia. “Eu falo no dia a dia com minha mãe e minhas amigas”, diz a filha.

Dos primeiros “tijolões” aos mais modernos que mandam mensagens, recebem e-mails e estão sempre conectados à internet e às redes sociais, 20 anos se passaram. Uma geração inteira se criou convivendo com essa forma de se comunicar.

“O celular acabou virando indispensável. Eu uso tem uns sete ou oito anos, ou seja, cresci com o aparelho. Então, fica mais fácil de pai e mãe encontrar”, comenta uma estudante.

“Não consigo sair de casa e deixar o celular. Eu volto para pegar, não tem como. Nem passear com cachorro eu vou sem celular”, confessa uma jovem.

“É uma joia, eu acho uma verdadeira joia”, compara um carioca. “Isso aqui é o meu amigo inseparável, amigo de bolso”, brinca um senhor.

domingo, 14 de fevereiro de 2010

Panasonic faz aliança para desenvolver telas Oled

08/05/09 - 14h33 - Atualizado em 08/05/09 - 14h35

Panasonic faz aliança para desenvolver telas Oled

TÓQUIO (Reuters) - A Panasonic anunciou nesta sexta-feira que está desenvolvendo painéis baseados na tecnologia de diodos orgânicos emissores de luz (Oled) em parceria com a Sumitomo Chemical, em uma tentativa de se manter na corrida pelo mercado de TVs de próxima geração.

Os painéis Oled consomem menos energia que telas de outras tecnologias e também permitem a produção de monitores leves, mais finos e com imagens mais nítidas.

Em 2007, a Sony lançou o primeiro aparelho de televisão do mundo com tela Oled. O produto tinha espessura de 3 milímetros. Mas altos custos de produção e o tamanho pequeno da tela tem restringido a tecnologia a competir mais seriamente com TVs de plasma e LCD.

A Panasonic informou que está também cooperando com outros parceiros no desenvolvimento da tecnologia Oled, mas ainda não tomou decisão sobre a comercialização de aparelhos baseados no sistema.

O jornal Nikkei publicou que a Panasonic e a Sumitomo Chemical tem como meta uma joint-venture para desenvolverem e produzirem painéis Oled de pelo menos 40 polegadas até 2010.

Atualmente, a Sony produz uma TV Oled com tela de 11 polegadas.