São cada vez mais pequenos e dão-nos cada vez mais em todo o tipo de objetos eletrónicos. Esta é a história dos velhinhos chips (e dos transístores): como chegámos aqui e como será o futuro, recorrendo à luz ou ao papel para transmitir dados. A caminho da computação quântica.
São o cérebro dos sistemas computadorizados que, hoje, damos por garantidos no nosso dia-a-dia. São cada vez mais pequenos, conectados e integrados em circuitos que são verdadeiros sistemas de planetas minúsculos no cosmos que é o mundo digital. Os chamados chips de computação podem parecer pequenos, mas escondem um sem-fim de transístores que têm crescido em número e decrescido em tamanho de forma vertiginosa ao longo dos anos.
São eles que permitem dar funções específicas a uma infinidade de aparelhos eletrónicos. Se no passado, começando nos eletrodomésticos, a sua capacidade era muito limitada, agora temos supercomputadores, smartphones, tablets, aspiradores robôs, colunas digitais inteligentes e sensores da chamada internet das coisas (que alimentam cidades e casas inteligentes e podem ir de caixotes de lixo a lugares de estacionamento que transmitem informação).
Estes pequenos transístores não são, no entanto, componentes isoladas ou individuais, fazem parte do chamado circuito integrado (também conhecido como microchip) ou dos processadores (que podem ser de diferentes tipos - úteis para tarefas muito diferentes), nos quais os transístores trabalham de forma concertada para ajudar o sistema computadorizado a completar os seus cálculos.
Como começou a era dos chips?
Em menos de 60 anos evoluiu-se mais na sofisticação da computação de máquinas do que em milénios de evolução humana. As várias guerras e a própria era espacial que, nos anos 1960, culminou com a chegada do primeiro homem à Lua - neste ano cumpriram-se 50 anos que Neil Armstrong pisou o solo lunar - foram fulcrais para evolução da computação em geral e dos chips em particular. Foram precisas algumas décadas de experimentação para que materiais sólidos, os transístores, pudessem substituir a tecnologia anterior: tubos de vácuo que eram o meio utilizado para canalizar os eletrões.
Robert Noyce, cofundador da Fairchild e da Intel, é um dos pais do microchip, desenvolvido em Stanford, em Silicon Valley
O autor norte-americano James Jay Carafano explica, no livro Wiki at War (ed. Texas A&M University Press), que "os novos transístores sólidos surgidos na década de 1960 eram mais pequenos, precisavam de menos potência e eram bem mais rápidos". E tudo começou com a Força Aérea dos EUA, já que foram eram eles a promover o desenvolvimento dos transístores a pensar no espaço reduzido disponíveis nos aviões.
Em várias investigações patrocinadas pela Força Aérea, houve uma que se destacou, desenvolvida pela empresa Fairchild Camera and Instrument Corporation - conhecida por fornecer câmaras durante a Segunda Guerra Mundial e a Guerra Fria a pensar na espionagem. A Fairchild tinha fortes ligações à Universidade de Stanford, na Califórnia, e foi dali que a empresa lançou comercialmente, em 1961, o primeiro circuito integrado com chips de silicone que a Força Aérea usou em computadores e mísseis. O sucesso foi tal que a Fairchild passou a chamar-se Fairchild Semiconductor e Stanford tornou-se o coração da zona que hoje conhecemos como Silicon Valley.
Alcides Fonseca, professor e investigador em Computação Evolucionária da Universidade de Lisboa, lembra uma lei muito referida nos anos 1990 para explicar esta evolução dos chips. A Lei de Moore baseia-se numa investigação de 1965 de Gordon Moore - cofundador da Fairchild e da Intel (nascida em 1968) - que indicava que o número de componentes num circuito integrado poderia duplicar anualmente durante dez anos e, depois disso, passaria a duplicar a cada dois anos. O professor admite que essa evolução já é diferente do que diz a lei, já que "o ritmo de aumento de transístores num chip pode duplicar de dois em dois anos, mas a rapidez dos dados que passam por eles não cresce ao mesmo ritmo".
O investigador dá o exemplo do último iPhone 11 Pro e do seu processador A13, para explicar como este tipo de chips tem evoluído: embora um processador possa ter muitos núcleos (cores), estes têm naturezas distintas e fazem coisas diferentes. "O novo iPhone tem no A13 seis núcleos, em que dois são mais rápidos do que os outros quatro, que são mais eficientes no consumo de energia - todas as combinações são possíveis tendo em conta os que estão ativos."
Quando o telefone executa coisas simples, usa os processadores mais lentos para poupar bateria, quanto se joga um jogo mais exigente, "ativa todos porque precisa da potência máxima e "ainda vai buscar quatro núcleos da placa gráfica, para gerar o que vemos no ecrã". Existem ainda oito núcleos neuronais no iPhone, que incluem técnicas de machine learning que já permitem melhorar a qualidade das imagens e vídeos em tempo real. "Daí a que, hoje, quando filmamos um vídeo com um telefone estamos a usar vários tipos processadores. Só para filmar são os processadores normais que executam todo o tipo de tarefas, já os processadores gráficos mostram-nos no ecrã o vídeo que estamos a fazer e os neuronais ajustam a luminosidade ou o foco através de machine learning." Alcides Fonseca admite que hoje temos nos nossos bolsos o que seria considerado um supercomputador há uns anos.
Nunca houve a nível tecnológico na história da humanidade uma onda tão rápida de redução de custos, aumento de simplicidade e crescimento de fiabilidade e eficácia quanto aquela a que os computadores navegaram.
Os chips de silicone são também centrais na criação da chamada Internet 2.0, explica ainda Carafano. Sem a criação do tal semicondutor integrado, a tecnologia computadorizada não teria feito a transição para ser uma ferramenta de ligação social entre humanos - onde o imediatismo e a facilidade de envio de texto, áudio e vídeo também trouxe desafios sociais e de privacidade inesperados. O chip tornou, desta forma, o computador acessível a uma grande parte da humanidade.
O futuro da computação: chips com luz
Já apelidada por publicações especializadas como "o futuro da computação", esta é uma solução com chips que usam luz para transmitir os dados, embora se trate na mesma de uma computação eletrónica. "Estamos a desenvolver chips optoeletrónicos que permitem reduzir a energia gasta na computação e aumentar a velocidade que já não era possível alcançar com os transístores de cobre. É um design único com componentes que transmitem os dados usando ondas de luz, mas em que mantemos o uso dos chips de silicone", explica a CEO da empresa que já começou a aplicar os avanços feitos em centros de dados de gigantes como Facebook e Amazon.
Wright-Gladstein admite que é possível reduzir os gastos energéticos até 95% nas comunicações entre chips e aumentar a rapidez até dez vezes além do que os chips de cobre permitem, graças à investigação de dez anos. Nos centros de dados dos gigantes de tecnologia, têm conseguido reduzir o consumo energético entre 30 a 50%. "Neste momento, há um bloqueio nos centros de dados grandes em relação à rapidez de transmissão de dados que esperamos melhorar significativamente." A doutorada do MIT admite que o objetivo é levar estes chips para os supercomputadores, mas também para carros autónomos, aparelhos médicos ou de realidade aumentada em que, além de melhorar a potência de computação, "podemos tornar estas tecnologias mais baratas e acessíveis". "Estamos entusiasmados com o que poderá desbloquear no futuro", diz.
Chips de papel made in Portugal
Há soluções bem criativas no mundo dos chips, para outros tipos de uso, e uma delas está a ser desenvolvida em Portugal e permite criar um papel eletrónico (Paper-E) que chegou já a finalista do Prémio Inventor Europeu do Ano, em 2016. Elvira Fortunato lidera a equipa da Universidade Nova de Lisboa (UNL) que criou estes transístores com papel, uma descoberta que irá permitir a criação de sistemas eletrónicos descartáveis a baixo custo, o que vai ajudar a explorar de forma mais fácil a chamada internet das coisas.
A solução usa celulose em vez de silicone ou silício e, embora não seja uma opção tão boa a nível de rapidez e de desempenho de computação, "permite dobrar-se sem se estragar e explorar várias ideias que vão de ecrãs de papel a etiquetas e pacotes inteligentes, chips de identificação ou aplicações médicas de vários tipos", diz a investigadora premiada, que também é vice-reitora da UNL e acredita que este trabalho vai chegar ao comum dos mortais num futuro próximo.
O segredo acaba por estar na tinta aplicada no papel. "Em vez de usarmos as tintas apenas para dar cor, usamo-las também com outras funções, como conectividade, com propriedades semicondutoras."
E tudo a computação quântica quer levar
Há muito que se fala na promessa revolucionária da computação quântica, que poderá mudar a forma como as máquinas funcionam e processam informação, desbloqueando mais-valias inimagináveis para a ciência, a saúde, a logística e a economia. Para o investigador Alcides Fonseca, a dificuldade maior neste momento "é manter a qualidade das leituras porque os qubits mudam o jogo como o conhecemos".
E o que são os qubits? Ao contrário dos bits num computador digital, que registam 1 ou 0, os bits quânticos - conhecidos como qubits -, podem ser ambos ao mesmo tempo. Essa possibilidade abre caminho a que os sistemas consigam lidar com problemas muito mais complexos. Recentemente, a Google anunciou que o processador quântico da empresa "executou em três minutos e 20 segundos um cálculo que o computador clássico mais avançado levaria aproximadamente dez mil anos" - uma demonstração da supremacia quântica, de acordo com os investigadores.
Yasser Omar, investigador português do Instituto de Telecomunicações e do Instituto Superior Técnico, membro do grupo internacional Physics of Information and Quantum Technologies, explica-nos que, embora a promessa revolucionária seja real, "a área ainda está na sua infância e pode demorar alguns anos a ter efeitos práticos na sociedade, dependendo de como a tecnologia evoluir".
Em dezembro deste ano, a Intel anunciou um chip chamado Horse Ridge, feito para computadores quânticos, que promete dar soluções para simplificar estes aparelhos complexos. A solução promete ajudar a tornar estes computadores uma realidade para usos mais práticos e convencionais do que tem sido possível até agora.