Arquivo

Archive for junho \02\America/Sao_Paulo 2012

Wi-Fi com raios T mais próximo da realidade

Pesquisadores japoneses bateram o recorde de transmissão de dados sem fios na faixa dos terahertz, uma parte ainda inexplorada do espectro eletromagnético.

A taxa de dados alcançada é 20 vezes maior do que o melhor padrão wi-fi.

A banda dos raios T fica entre as micro-ondas e o infravermelho distante – 1 THz equivale a 1.000 GHz.

Os raios T, ou radiação terahertz, vêm sendo considerados como altamente promissores para o uso biomédico, eventualmente substituindo os raios X – apesar do nome “radiação terahertz”, trata-se de uma radiação não-ionizante.

Em 2007, pesquisadores demonstraram pela primeira vez que os raios T poderiam ser usados também para a transmissão digital de dados.

Desde então tem havido uma procura frenética pelo desenvolvimento de geradores de radiação terahertz e de antenas capazes de captá-la.

Por enquanto, os trabalhos na transmissão de dados na faixa dos terahertz têm adotado uma especificação mais folgada, que vai dos 300 GHz até os 3 THz. Nenhuma agência de telecomunicação até agora regulamentou a faixa dos THz.

Apesar de teoricamente suportar taxas de transferência de dados de até 100 Gb/s – 15 vezes mais do que o wi-fi de próxima geração, que ainda está em fase de especificação – o “wi-fi terahertz” provavelmente terá um alcance mais limitado, por volta dos 10 metros.

Neste trabalho mais recente, os pesquisadores do Instituto de Tecnologia de Tóquio demonstraram uma taxa de transmissão de 3 Gb/s a 542 GHz.

Ou seja, eles estão a meio-caminho dos raios T – o que é muito, considerando-se que é uma tecnologia com poucos anos de desenvolvimento.

O experimento foi possível graças a um componente de 1 milímetro quadrado, chamado um diodo de tunelamento ressonante, ou RTD (Resonant Tunnelling Diode).

Diodos-túnel têm a característica incomum de que a tensão que produzem pode algumas vezes diminuir quando a corrente aumenta.

Eles são projetados de tal forma que este processo faz com que o diodo entre em ressonância, emitindo ondas de frequência muito alta – teoricamente, de vários terahertz.

Os pesquisadores japoneses afirmam que o próximo passo da pesquisa é justamente aproximar a prática dessa teoria, entrando finalmente no regime efetivo dos terahertz.

Antes de qualquer uso prático, será necessário também aumentar a potência do componente.

Fonte: http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=wi-fi-raios-t&id=010150120518

2012 06 02

Língua eletrônica brasileira já é a mais falada no mundo

A língua eletrônica está-se tornando um dos projetos brasileiros mais inovadores na última década.

O projeto, que começou há mais de dez anos, utiliza inteligência artificial, sensores supersensíveis e capacidade de reconhecimento molecular para identificação de compostos químicos.

Suas principais aplicações principais estão na área industrial, mas graças ao esforço de uma equipe multidisciplinar, a tecnologia está entrando na área das aplicações médicas, colocando a língua eletrônica brasileira entre as mais faladas na área em todo o mundo.

O projeto, que começou na Embrapa, surgiu a partir da demanda da indústria pela automação na área da degustação – por exemplo, de medicamentos ou de alimentos não facilmente palatáveis, casos em que o uso de humanos não é viável.

Além disso, para controle rotineiro de qualidade na área de alimentos, ter um painel de degustadores humanos costuma ter um custo muito elevado.

Com a língua eletrônica, os resultados podem ser muito mais rápidos, menos subjetivos, e mais viáveis financeiramente.

A língua eletrônica é formada por um conjunto de sensores que tenta mimetizar o funcionamento da língua humana e sua capacidade de identificar os cinco sabores básicos – salgado, doce, azedo, amargo e umami.

Essa chamada seletividade global, o princípio segundo o qual o sabor é decomposto em alguns sabores básicos, distingue-se da seletividade específica, que é a detecção de uma substância química.

Por exemplo, no café há centenas de substâncias químicas, mas não é necessário que saibamos quais são essas substâncias para sabermos que estamos bebendo café. O odor também tem este tipo de característica: não é necessário identificar moléculas para saber o cheiro.

O princípio da seletividade global postula que se distinga nuances destes sabores básicos, por isso a importância de ter muitos sensores.

Os sensores são fabricados a partir de filmes poliméricos ou filmes de biomoléculas.

A grande dificuldade é que é virtualmente impossível conseguir uma reprodutibilidade alta, ou seja, duas unidades sensoriais nominalmente idênticas – produzidas com os mesmos materiais e nas mesmas condições – não apresentam propriedades iguais.

Suponhamos que seja necessário comparar dois sabores em que apenas a acidez varia muito pouco. O ideal seria ter o sensor em um material cujas propriedades elétricas dependessem muito da acidez, ou seja, do pH.

Alguns polímeros condutores são extremamente sensíveis a mudanças de pH, então estes materiais são ideais para detectar sabores ácidos. Entretanto, no caso de duas substâncias com pequenas variações nos sabores doce ou amargo, não haverá grandes mudanças no pH ou na quantidade de íons da amostra, o que tornaria inviável o uso de polímeros condutores.

A saída é obter o que os pesquisadores chamam de “impressão digital” de cada amostra de alimento, reproduzindo a combinação de sabores da maneira como cérebro a capta.

“Podemos, por exemplo, utilizar o mesmo material, com sensores de características diferentes, como a espessura e a técnica de fabricação do fio”, explica o professor Osvaldo Novais de Oliveira Junior, do Instituto de Física de São Carlos, da USP.

Os sensores produzidos com materiais inorgânicos, uma opção a ser explorada pela equipe, podem apresentar melhor reprodutibilidade e otimizar a análise de alguns tipos de materiais. Contudo, é possível que a sensibilidade do sensor seja menor. “Para aplicações comerciais, seria a melhor saída”, vislumbra o pesquisador do IFSC.

O conceito de língua eletrônica foi também estendido ao conceito de biossensores.

“Nós não temos na nossa unidade sensorial um equipamento que reconheça especificamente a molécula que queremos detectar, mas logo percebemos que não há motivo para essa limitação”, observa Osvaldo.

Um exemplo é um par antígeno-anticorpo: os antígenos são moléculas específicas que reconhecem apenas o anticorpo característico daquele antígeno.

Este é o princípio que é empregado nos biossensores para análises clínicas, no diagnóstico de doenças. “O antígeno reconhece um anticorpo específico e, se isso der um resultado positivo, significa que o indivíduo está doente,” explica o pesquisador.

Essa aplicação biomédica da língua eletrônica vem sendo testada desde 2007.

“Esse é o diferencial que torna nosso projeto pioneiro no mundo”, aponta Osvaldo. Dentre os resultados obtidos no âmbito desta aplicação, os pesquisadores foram capazes de fabricar um biossensor que distingue a leishmaniose da doença de Chagas, doenças muito similares e que, mesmo com os imunossensores mais sofisticados, ainda ocasionavam falsos positivos.

Mas por que o assunto é tão atual, mesmo depois de dez anos de pesquisas?

Primeiro, devido a esta dificuldade de predefinição dos materiais utilizados comosensores. Segundo, porque a aplicação ainda não está disponível e difundida no mercado.

Nas aplicações mais nobres, a alta sensibilidade dos sensores é o próprio “calcanhar de Aquiles” do projeto, porque qualquer mudança do material significa mudança nas propriedades, o que exige a substituição de alguma unidade sensorial.

Então, para obter dados de uma série de amostras, seria necessário recalibrar todo o sistema, ou a língua eletrônica forneceria resultados diferentes. “Ainda precisamos resolver este problema para colocar uma língua eletrônica de alto nível no mercado”, conta Osvaldo.

“Esta é uma meta que perseguimos pensando a longo prazo, porque ainda há muito trabalho à frente, então a língua eletrônica continuará sendo notícia,” finaliza ele.

Texto de : http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=lingua-eletronica-brasileira-mais-sensivel-humanos&id=010110120514&ebol=sim

2012 06 02

Categorias:Hardware

Lançada a versão 2.0 do Equinox Desktop Environment (EDE)

O EDE usa o Fast Light Toolkit (FLTK) para implementar uma shell de área de trabalho que pode ser executada em Linux, BSD, Solaris, Minix e até mesmo em dispositivos Zaurus e no Xbox.

Também está complemtamente de acordo com os padrões da freedesktop.org e pode carregar menus de sistemas, ícones e  conjuntos temáticos de ícones de outros ambientes de trabalho e toolkits.

EDE pode ser compilado pela maioria dos compiladores C, exigindo apenas o pkg-config, FLTK, DBus, autoconf e automake como dependências. Instruções detalhadas de instalação estão disponíveis no site do projeto.

O EDE está disponível na página do projeto, hospedada na Sourceforge, seu código-fonte está licenciado sob as licençasGPLv2 e LGPLv2.

Mais em: http://equinox-project.org/wiki/Download

fonte: http://www.linuxmagazine.com.br/lm/noticia/um_ambiente_de_trabalho_minimo_com_o_ede_20

2012 06 02

Release Preview do Windows 8

Já está disponível a versão de testes do Windows 8.

Está sendo oferecida um executável que se encarrega de baixar os componentes do sistema e gerar um DVD ou pendrive de boot, e poderá ser baixada em: http://windows.microsoft.com/en-US/windows-8/release-preview

Ou, caso seja mais interessante a aquisição de uma imagem ISO, o download poderá ser efetuado em: http://windows.microsoft.com/en-US/windows-8/iso.

Fonte: internet

2012 06 02