Processadores podem-se tornar até 1000 vezes mais rápidos
Recentemente vimos Steve Jobs a pressionar o maior fabricante de chips, a Intel, ao "exigir" que os processadores consumissem menos energia e tivessem um desempenho melhorado, face ao que existe actualmente. Estas exigências e o próprio dinamismo do mercado dos dispositivos móveis, têm colocado sobre os fabricantes de processadores uma pressão cada vez maior para desenvolverem os processadores ainda mais finos, pequenos com mais rendimento e menos consumo de energia, respeitando os limites físicos dos próprios dispositivos. Como a tecnologia de transístores está já nos limites, surgem vozes a apontar como inevitável a aposta na mecânica quântica.
No entanto ainda não foi tudo explorado e uma recente inovação está a adiar o que seria inevitável, esta inovação aparece-nos pela mão da IBM e da 3M.
Para tornar um processador actual 1000 vezes mais rápido seriam precisos avanços completamente revolucionários na tecnologia que se utiliza actualmente no seu fabrico, correcto?
Não necessariamente, segundo a IBM e a 3M, que conseguiram desenvolver uma técnica que pode ser considerada um dos maiores “hacks” alguma vez realizados na indústria de processadores.
E qual é o ingrediente secreto para esta receita de sucesso?
É nada mais nada menos que cola e uma técnica de montagem minuciosa e engenhosa. Claro que não se trata de uma cola qualquer, mas assemelha-se mais a camadas adesivas ultra-finas que conseguem dissipar de forma eficiente o calor. Através deste adesivo fabricado pela 3M, é possível empilhar 100 camadas de “wafers” em silício, fabricados pela IBM, sem que haja qualquer problema de aquecimento. O resultado será mais que evidente, processadores com maiores frequências, que podem ser usados em múltiplos dispositivos como computadores portáteis, smartphones e micro-processadores.
Mas esta descoberta não se irá restringir a processadores com uma frequência combinada superior ao que conhecemos hoje. As duas empresas (IBM e 3M), pretendem com esta técnica, aumentar ainda o papel dos processadores num dispositivo, de modo a que possam incluir chips de memória e conectividade para ligação em rede.
Isto significa que, em termos práticos não serão apenas fabricados processadores até 1000 vezes mais rápidos que o melhor processador actual. É dado também um passo importante ao passar algumas funcionalidades nucleares para o processador, reduzindo componentes essências num dispositivo e com isso reduzindo o seu tamanho (ou em alternativa dotar um dispositivo com mais espaço para outros extras tecnológicos).
Veja o seguinte vídeo onde a IBM explica de forma mais simples o conceito:
A IBM prevê que no final de 2013 esta tecnologia irá entrar em produção e que numa primeira fase será aplicada em servidores. Depois esperam que em 2014 a tecnologia comece a ser comercializada de forma a chegar a qualquer pessoa. [via]
Será esta uma das descobertas mais revolucionárias dos últimos anos para o paradigma da computação?
Este artigo tem mais de um ano
Tenho um core 2Quad 8300 a 2.5Ghz e não o considero lento imagino a velocidade de um processador de topo actualmente mas multiplicando por 1000 tornasse um pouco difícil.
O I7 melhor custa cerca 1000€ isto quando custara???
Não vás pelo o preço, a tecnologia evolui e os preços baixam. Quando sair este processador o i7 vai custar 500€ ou menos.
O i7 ainda há de sair como oferta nos cereais matinais
LOL quando isto sair, i7 será uma coisa que poucos ainda se vão lembrar.
O I7 ainda se fabrica ?
Obviamente que nao existirá nem rasto do i7, só num museu.
Eu tenho um processador i7 e custou-me 250€
O meu I7 2600K sandy bridge custa neste momento entre 250 a 300€ e eh quase topo de gama, bem abusado a nivel de velocidade.
(Custou-me novinho em folha acabado de sair do forno uns 330€ em janeiro deste ano)
E em algumas situações segundo especialistas era superior ao topo de de gama de 1000€ que saiu perto de novembro.
Os topos de gama de 1000€ são um pouco overrated para uso pessoal.
Já não digo o mesmo para servidores e afins
Excelente artigo!
Ena, a 3M já se mete também nestas coisas… estes gajos estão mesmo em todo o lado… a ver vamos se isto vai para a frente, por exemplo, noutro dia li um artigo sobre uns processadores em cubo (até acho que foi aqui no pplware) mas nunca mais ouvi falar disso…
Obrigado Steve por mais um avanço tecnológico!
Steve? porquê?
LOL³
lol
LOL (2)
O Steve, como muitos outros responsáveis pelo desenvolvimentos de computadores pessoais e de produção, influenciam os fabricantes ao idealizarem estruturas com mais performance e serviços arrojados.
Alias, só com arrojo é que hoje temos máquinas com o poder de cálculo ao serviços da ciência, saúde, exploração espacial e muitas outras áreas importantes ao desenvolvimento humano.
Actualmente o mais importante tem sido o foco do desempenho ao mais baixo consumo energético, permeando a poupança sem sacrificar a performance. Os tablets têm sido um exemplo de desempenho com consumo moderado, elevada autonomia e poder de processamento.
Há uns anos li o CEO da Intel a dizer que deveria sair um Windows de 8 em 8 meses, isto porque os processadores tinham um desenvolvimento e saída para o mercado de 8 em 8 meses e não eram aproveitados, pois o sistema operativo lider não acompanhava o potencial do processador.
Provavelmente o paradigma hoje seja outro, será, como mostra este projecto, ter mais poder, menos espaço ocupado, menos consumo de energia e mais mercados abrangidos.
Como por exemplo a indústria automóvel, como por exemplo os electrodomésticos que podem passar a ser “inteligentes”… entre tantas outras aplicações práticas…
Isso soa-me a fanatismo, temos que nos lembrar que o Steve apostou primeiro nos PowerPC, tecnologia obsoleta por teimosia.
Depois teve que dar o braço a torcer e passar para os Intel.
Não é pelo Steve exigir alguma coisa que ela se faz, ela se faz quando os processos de fabrico evoluirem a ponto de ser rentável fazer um processador mais evoluído.
A verdade é que não falou-se dos outros, falou-se do Steve.
Quem impulsiona a inovação é o mercado e antes do Steve apostar em Intel, já a Intel inovava e cilindrava os PowerPC a todo o gás.
Andre o fanatismo está na tua cabeça, pois sem comentar qualquer ponto ao que falaste dos power PC (porque estás enganado sobre o assunto, mas não me apetece estar-te a explicar o poder dos powerpc’s) a verdade é que estamos a falar no hoje, na actualidade e a referência ao Steve foi pela componente energetica, pela dimensão dos dispositivos e pela vertente tablet, o resto é qualquer azia tua sobre o assunto.
Lê um pouco sobre o que tem dito Paul S. Otellini sobre este assunto, dorme sobre o assunto e depois verás que o teu fanatismo te está a estorvar.
a ibm tem processadores mais potentes, mas muiiito caros!!!
dá uma olhadela na playstation, ou investiga os processadores ibm, são de topo, mas a arquitectura que é standard no mercado é a da intel e por isso…
cmps
Andre
PowerPC tecnologia obsoleta? Meu deus… nunca pensei ler tamanha desinformação.
Para tua informação, os PowerPCS sempre foram arquitecturas de grande performance, utilizadas em servidores de alto desempenho área aliás por curiosidade onde a IBM domina.
Mais, sabias que em universidades usam alguns clusters de PS3 devido aquilo ter uma capacidade de cálculo matemático fantástico? Sabes qual é o processador da PS3? PowerPC
fonte wikipedia:
http://en.wikipedia.org/wiki/PlayStation_3_cluster
e já agora um excerto:
“Essentially, a single PlayStation 3 performs like a cluster of 30 PCs at the price of only one” (in November 2007)[21]
Queres outra prova melhor? Sabes aquele sistema inteligente o Watson que bateu os humanos num programa de quiz? Era baseado na tecnologia powerPC, tecnologia essa que vai ser utilizada na nova consola Wii U, que especialistas estimam que a nivel de processamento, vai esmagar a concorrência.
Vou-te deixar aqui um copy paste da press release da IBM em relação à Wii U:
“IBM Microprocessors to Power the New Wii U System from Nintendo
“ARMONK, N.Y., June 7, 2011 /PRNewswire/ — IBM (NYSE: IBM) today announced that it will provide the microprocessors that will serve as the heart of the new Wii U™ system from Nintendo. Unveiled today at the E3 trade show, Nintendo plans for its new console to hit store shelves in 2012.
(…)
Built on the open, scalable Power Architecture base, IBM custom processors exploit the performance and power advantages of proven silicon-on-insulator (SOI) technology
scalable Power Architecture => o que conheces como PowerPC.
Eu concluo que independente de qualquer das tecnologias (intel/powerPC), o powerpc está longe de estar “obsoleto”.
Deixa lá o pobre “desinformado”. Tem muita informação de pouca qualidade 🙂
depois são os discos rigidos ou as memorias flashs que nao conseguem acompanhar estas velocidades de processamento.. não se pense que os pc’s ficam 1000 vezes mais rapidos. Ficam mais rapidos sim, mas não 1000 vezes 🙂
Fikam sim, oras! Tenho um core i5 e o acho super lerdo.
Não culpe seu processador. Conhece SSD?
Batman:O que te leva a crer que é o processador? Se está lento e tu nao descobriste porque leva-o a uma casa de tecnicos em condições que eles resolvem-te o prob. Essa cena que tem de se mudar para disco ssd é uma treta. A evolução tem de ser feita consuante o mercado e não há coisas que provoquem lentidão num equipamento i5 a nao ser defeito de peças ou S.O. Tendo em conta que não és um utilizador de topos de gama (se não já terias comprado um proc melhor) sugiro-te que nao faças asneiras e nao vás gastar dinheiro noutro disco xpto qualquer sem teres certezas. Sata tem velocidade suficiente para o que queres, por enquanto…
Tenho um i7, com 8 gigas de ram. (E passava a vida a a espera do disco), mudei para um ssd dos baratos kingston v300 e o computador parece que ficou um i70.
Dava para ver bem que passava a vida a espera do disco, via-se no gráficos de realtime do mesmo.
Claro isto significa q o processamento fica mais rápido mas ficamos sempre limitados pela velocidade de um disco rígido, das interfaces de comunicação com os dispositivos etc.
amigo os discos tambem estao em uma boa evoluçao Kingston HyperX 240GB SATA III SSD 540mb/s leitura e 470mb/s de escrita
velocidades enormes comparado para um disco normal sata ke compramos para um pc normal é de sata 2 ta la nos 150mb/s sem raid…
Se o resto do hardware não acompanhar estes avanços, é uma realidade.
Uma das coisa que para mim tem evoluído muito lentamente são mesmo os discos rígidos. Vamos a ver se com essa nova tecnologia de discos rígidos que anda aí isto muda um pouco.
Pena é que por enquanto tem pouco espaço.
normalmente kem tem esse disco SSD usa para o sistema e um outro disco grande normal para data
Tenho um i7 2720QM com boost a 3.30Ghz Autêntica bomba!!
A velocidade máxima de um computador é sempre determinada pela velocidade do componente de hardware mais fraco, ou seja o componente de hardware mais lento é que vai determinar a velocidade do computador.
É certo que com o aparecimento dos discos SSD vai melhorar em muito a performance porque o acesso de leitura e escrita dos dados vai ser muito mais rápida do que num disco rígido mecânico, só que depois ainda há a questão das memórias RAM um pouco mais complicado de resolver e que neste caso o SO é muito importante e nem sempre é capaz de gerir a memória total de que o sistema tem instalada.
Mas fica aqui uma excelente ideia para os processadores que futuramente irão ter mais uma função que será a de substituir as placas gráficas e devido a isto irá ser necessária uma capacidade de processamento pelos processadores muito maior.
Concordo,
mas uma das limitações é mesmo a arquitectura Von Neumann, quando passarmos a ter maquinas com a arquitectura Harvard, ai é que vai ser, mas é uma arquitectura mais cara.
Na Von Neumann o barramento é partilhado para tudo!!!!!
Ou seja dados do disco, ram, imputs(teclados,etc).E isto condiciona muito a treta da arquitectura que temos(problema conhecido como Von Neumann bottleneck), quando passarmos a harvard, ai sim vamos dar um salto!!
cmps
Tiago e @lmx: Na mouche.
Os vossos posts mostram que vocês sabem o que falam.
O mesmo acontece actualmente com a tecnologia infiniband. Temos neste momento a capacidade de agregar na mesma media 24x 2,5Gbs num total de 60Gbs por “cabo” mas e discos e Buses capazes de dar vazão a isso?
Desconhecia os termos. Em todo lado que encontrei informacao sobre as duas arquitecturas, a diferenca e’ referida na forma como o processador acede a instrucoes e dados . No caso da aquitectura Von Newmann, como apenas existe um barramento para os dois (instrucoes/dados), o processador apenas pode ler instrucoes ou ler/escrever dados. O “bottleneck” acontece quando o processador precisa enviar dados para a RAM e nao pode ler as proximas intrucoes ate’ a primeira terminar. A arquitectura Harvard separa os dois, permitindo o acesso em simultaneo de instrucoes e dados, evitando desperdicio de “clocks”.
Outros referem que os processadores actuais usam o “Modified Harvard”, uma combinacao das duas arquitecturas.
Sera’ que as vantagens na arquitectura Harvard nao se perderiam na forma como os SistemaOperativos/Aplicacoes e PC funcionam? E as desvantagens da respectiva arquitectura?
Fiquem Bem!
hum…Arquitectura Von Neumann? actualmente? É no maximo qualquer coisa semelhante… Isso é um modelo desactualizado.Alias, a ultima vez que dei assembly foi com IA32 que já sofre umas alterações valentes ao conceito do senhor Von Neumann. O conceito que a preformance de um equipamento está presa ao seu componente mais fraco, tambem é errada. É preciso ver a função de cada um dos elementos do pc e perceber em que situações têm cada um deles impacto no funcionamento do mesmo
Excelente!!! Menos tempo de espera na renderização de vídeos 🙂
Nem toda a gente têm dinheiro para ter um INTEL Core I7 no seu PC como o meu caso! Esse fabricante devia baixar drasticamente os preços dessa gama para vender mais porque ás vezes ganha-se mais dinheiro vendendo mais do que vendendo caro.
Vender a baixo do preço de produção?
Tens que ver que os preços dos processadores baixam conforme baixam os preços de produção e os métodos de fabrico melhoram e tornam-se mais baratos.
Tens que aguardar que os preços desçam, pois infelizmente eu também não tenho um Ferrari e não espero que eles baixem de preço para mais pessoas comprarem… E como não tenho dinheiro não compro…
Sinceramente não me agrada muito esta ideia…
A tecnologia de transístores já deu o que tinha a dar e como bem explica o artigo isto não passa de um “hack” desenvolvido por empresas que provavelmente não tem muito interesse em gastar recursos em novas pesquisas…
No fundo estão a adiar o inevitável, atrasando a pesquisa dos processadores quânticos… quando esta tecnologia promete muito mais do que a multiplicação por 1000 do actual poderio de processamento.
Soluções a curto prazo por vezes não são compativeis com as de longo prazo, esperamos que não seja o caso…
Excelente noticia 😀
O mundo acaba em 2012. O que é que interessa o que vai ser produzido depois?
@Joe Fagundes: O que acaba em 2012 é o calendário Maia, não é o Mundo…..
Eu esperar que youtube usar esta processador.
Querer videos caregados mais rapidamente.
Youtube mil vezes mais rápido….. hum acho que vacili conseguir ver todo o Youtube em 1 ou 2 dias…
já agora onde estar crocodilo maior do mundo ? também ficou 1000 vezes mais rápido 😉
Eu vai mandar-te pra ilha da macacada.
Eu ser Krav Maga. Partir dedos com o pé.
Eu não querer youtube mais rápida.
Gostar de esperar muitas hora para ver trailer de três minutas….
😉
@CRibeiro ,
Bom dia , tens toda a razão isto não passa de um penso rápido , por aqui não vamos a lado nenhum .
Queria só dizer que de facto devem de haver muitos Steves pelo mundo fora que ambicionam que os processadores sejam mais económicos e mais velozes este certamente não será um desiderato exclusivo do Sr. Steve Jobs ou da Apple .
Cumprimentos
Serva
Eu vai mandar-te pra macacada.
Eu ser Krav Maga.
Mas porque é que falam sempre no Jobs como se fosse um rei? Antes dele estão 300 outros motivos para os fabricantes começarem novas produções. E sejam minimamente objectivos, um processador pode ter 500.000 CORE’s, mas se não houver hardware E SOFTWARE que consiga usar isso tudo, é igual a qualquer intel/etc de hoje em dia.E é claro que acompanhar essa nova arquitectura vai demorar anos pelos outros fabricantes.
Olá pplware.
Eu também fiz um artigo no meu blog sobre esta press release da IBM.
Existe algum modo de eu poder enviar artigos deste cariz para o vosso blog?
Obrigado.
Boas Tony.
Sim, todo e qualquer artigo original e que seja pertinente, sobre os assuntos que abordamos, podem ser enviado para geral[arroba]pplware.com.
Cump.
Que bom artigo… espero estar vivo para experimentar estes processadores :p hihih
nessa altura é que vai ser giro ligar o pc em 3 segundos *.* também com a nova tecnologia UEFI (da suposta BIOS)
O Futuro é Hoje! Ligar o pc em 3 segundos…Hum…
Com o sistema operativo Windows ainda não ligaste o computador já aparece mensagem azul de erro…
😉
O Moore até dá voltas na campa!! 😀
É sempre o mesmo problema da memória…
Mas como diz no artigo, o facto de se poder passar hardware que até agora era exterior ao processador para o mesmo chip já elimina uns quantos bottlenecks. E que tal começar a comprimir “tudo” o que sai do processador.
PS: http://pt.wikipedia.org/wiki/Lei_de_Moore
Offtopic: Sr Vítor, o site deixou de enviar respostas aos comentários.