PplWare Mobile

Processadores podem-se tornar até 1000 vezes mais rápidos

                                    
                                

Este artigo tem mais de um ano


Autor: Vítor M.


  1. João says:

    Tenho um core 2Quad 8300 a 2.5Ghz e não o considero lento imagino a velocidade de um processador de topo actualmente mas multiplicando por 1000 tornasse um pouco difícil.
    O I7 melhor custa cerca 1000€ isto quando custara???

  2. João Ribeiro says:

    Excelente artigo!

  3. Texugoelectrico says:

    Ena, a 3M já se mete também nestas coisas… estes gajos estão mesmo em todo o lado… a ver vamos se isto vai para a frente, por exemplo, noutro dia li um artigo sobre uns processadores em cubo (até acho que foi aqui no pplware) mas nunca mais ouvi falar disso…

  4. badsector says:

    Obrigado Steve por mais um avanço tecnológico!

    • Vítor M. says:

      O Steve, como muitos outros responsáveis pelo desenvolvimentos de computadores pessoais e de produção, influenciam os fabricantes ao idealizarem estruturas com mais performance e serviços arrojados.

      Alias, só com arrojo é que hoje temos máquinas com o poder de cálculo ao serviços da ciência, saúde, exploração espacial e muitas outras áreas importantes ao desenvolvimento humano.

      Actualmente o mais importante tem sido o foco do desempenho ao mais baixo consumo energético, permeando a poupança sem sacrificar a performance. Os tablets têm sido um exemplo de desempenho com consumo moderado, elevada autonomia e poder de processamento.

      Há uns anos li o CEO da Intel a dizer que deveria sair um Windows de 8 em 8 meses, isto porque os processadores tinham um desenvolvimento e saída para o mercado de 8 em 8 meses e não eram aproveitados, pois o sistema operativo lider não acompanhava o potencial do processador.

      Provavelmente o paradigma hoje seja outro, será, como mostra este projecto, ter mais poder, menos espaço ocupado, menos consumo de energia e mais mercados abrangidos.

      Como por exemplo a indústria automóvel, como por exemplo os electrodomésticos que podem passar a ser “inteligentes”… entre tantas outras aplicações práticas…

      • Andre says:

        Isso soa-me a fanatismo, temos que nos lembrar que o Steve apostou primeiro nos PowerPC, tecnologia obsoleta por teimosia.
        Depois teve que dar o braço a torcer e passar para os Intel.
        Não é pelo Steve exigir alguma coisa que ela se faz, ela se faz quando os processos de fabrico evoluirem a ponto de ser rentável fazer um processador mais evoluído.

        A verdade é que não falou-se dos outros, falou-se do Steve.
        Quem impulsiona a inovação é o mercado e antes do Steve apostar em Intel, já a Intel inovava e cilindrava os PowerPC a todo o gás.

        • Vítor M. says:

          Andre o fanatismo está na tua cabeça, pois sem comentar qualquer ponto ao que falaste dos power PC (porque estás enganado sobre o assunto, mas não me apetece estar-te a explicar o poder dos powerpc’s) a verdade é que estamos a falar no hoje, na actualidade e a referência ao Steve foi pela componente energetica, pela dimensão dos dispositivos e pela vertente tablet, o resto é qualquer azia tua sobre o assunto.

          Lê um pouco sobre o que tem dito Paul S. Otellini sobre este assunto, dorme sobre o assunto e depois verás que o teu fanatismo te está a estorvar.

        • @lmx says:

          a ibm tem processadores mais potentes, mas muiiito caros!!!
          dá uma olhadela na playstation, ou investiga os processadores ibm, são de topo, mas a arquitectura que é standard no mercado é a da intel e por isso…

          cmps

        • roliveira says:

          Andre

          PowerPC tecnologia obsoleta? Meu deus… nunca pensei ler tamanha desinformação.

          Para tua informação, os PowerPCS sempre foram arquitecturas de grande performance, utilizadas em servidores de alto desempenho área aliás por curiosidade onde a IBM domina.

          Mais, sabias que em universidades usam alguns clusters de PS3 devido aquilo ter uma capacidade de cálculo matemático fantástico? Sabes qual é o processador da PS3? PowerPC

          fonte wikipedia:

          http://en.wikipedia.org/wiki/PlayStation_3_cluster

          e já agora um excerto:

          “Essentially, a single PlayStation 3 performs like a cluster of 30 PCs at the price of only one” (in November 2007)[21]

          Queres outra prova melhor? Sabes aquele sistema inteligente o Watson que bateu os humanos num programa de quiz? Era baseado na tecnologia powerPC, tecnologia essa que vai ser utilizada na nova consola Wii U, que especialistas estimam que a nivel de processamento, vai esmagar a concorrência.

          Vou-te deixar aqui um copy paste da press release da IBM em relação à Wii U:

          “IBM Microprocessors to Power the New Wii U System from Nintendo

          “ARMONK, N.Y., June 7, 2011 /PRNewswire/ — IBM (NYSE: IBM) today announced that it will provide the microprocessors that will serve as the heart of the new Wii U™ system from Nintendo. Unveiled today at the E3 trade show, Nintendo plans for its new console to hit store shelves in 2012.

          (…)

          Built on the open, scalable Power Architecture base, IBM custom processors exploit the performance and power advantages of proven silicon-on-insulator (SOI) technology

          scalable Power Architecture => o que conheces como PowerPC.

          Eu concluo que independente de qualquer das tecnologias (intel/powerPC), o powerpc está longe de estar “obsoleto”.

  5. says:

    depois são os discos rigidos ou as memorias flashs que nao conseguem acompanhar estas velocidades de processamento.. não se pense que os pc’s ficam 1000 vezes mais rapidos. Ficam mais rapidos sim, mas não 1000 vezes 🙂

    • Batman says:

      Fikam sim, oras! Tenho um core i5 e o acho super lerdo.

      • Chico Silva says:

        Não culpe seu processador. Conhece SSD?

      • Luis says:

        Batman:O que te leva a crer que é o processador? Se está lento e tu nao descobriste porque leva-o a uma casa de tecnicos em condições que eles resolvem-te o prob. Essa cena que tem de se mudar para disco ssd é uma treta. A evolução tem de ser feita consuante o mercado e não há coisas que provoquem lentidão num equipamento i5 a nao ser defeito de peças ou S.O. Tendo em conta que não és um utilizador de topos de gama (se não já terias comprado um proc melhor) sugiro-te que nao faças asneiras e nao vás gastar dinheiro noutro disco xpto qualquer sem teres certezas. Sata tem velocidade suficiente para o que queres, por enquanto…

        • ThinkAbout says:

          Tenho um i7, com 8 gigas de ram. (E passava a vida a a espera do disco), mudei para um ssd dos baratos kingston v300 e o computador parece que ficou um i70.

          Dava para ver bem que passava a vida a espera do disco, via-se no gráficos de realtime do mesmo.

    • Adelino says:

      Claro isto significa q o processamento fica mais rápido mas ficamos sempre limitados pela velocidade de um disco rígido, das interfaces de comunicação com os dispositivos etc.

    • HI says:

      amigo os discos tambem estao em uma boa evoluçao Kingston HyperX 240GB SATA III SSD 540mb/s leitura e 470mb/s de escrita
      velocidades enormes comparado para um disco normal sata ke compramos para um pc normal é de sata 2 ta la nos 150mb/s sem raid…

    • Marcelo Barros says:

      Se o resto do hardware não acompanhar estes avanços, é uma realidade.

      Uma das coisa que para mim tem evoluído muito lentamente são mesmo os discos rígidos. Vamos a ver se com essa nova tecnologia de discos rígidos que anda aí isto muda um pouco.
      Pena é que por enquanto tem pouco espaço.

  6. Luis Pimentel says:

    Tenho um i7 2720QM com boost a 3.30Ghz Autêntica bomba!!

  7. Tiago says:

    A velocidade máxima de um computador é sempre determinada pela velocidade do componente de hardware mais fraco, ou seja o componente de hardware mais lento é que vai determinar a velocidade do computador.
    É certo que com o aparecimento dos discos SSD vai melhorar em muito a performance porque o acesso de leitura e escrita dos dados vai ser muito mais rápida do que num disco rígido mecânico, só que depois ainda há a questão das memórias RAM um pouco mais complicado de resolver e que neste caso o SO é muito importante e nem sempre é capaz de gerir a memória total de que o sistema tem instalada.
    Mas fica aqui uma excelente ideia para os processadores que futuramente irão ter mais uma função que será a de substituir as placas gráficas e devido a isto irá ser necessária uma capacidade de processamento pelos processadores muito maior.

    • @lmx says:

      Concordo,
      mas uma das limitações é mesmo a arquitectura Von Neumann, quando passarmos a ter maquinas com a arquitectura Harvard, ai é que vai ser, mas é uma arquitectura mais cara.
      Na Von Neumann o barramento é partilhado para tudo!!!!!
      Ou seja dados do disco, ram, imputs(teclados,etc).E isto condiciona muito a treta da arquitectura que temos(problema conhecido como Von Neumann bottleneck), quando passarmos a harvard, ai sim vamos dar um salto!!

      cmps

      • Eu says:

        Tiago e @lmx: Na mouche.

        Os vossos posts mostram que vocês sabem o que falam.

        O mesmo acontece actualmente com a tecnologia infiniband. Temos neste momento a capacidade de agregar na mesma media 24x 2,5Gbs num total de 60Gbs por “cabo” mas e discos e Buses capazes de dar vazão a isso?

      • Ricardo Elias says:

        Desconhecia os termos. Em todo lado que encontrei informacao sobre as duas arquitecturas, a diferenca e’ referida na forma como o processador acede a instrucoes e dados . No caso da aquitectura Von Newmann, como apenas existe um barramento para os dois (instrucoes/dados), o processador apenas pode ler instrucoes ou ler/escrever dados. O “bottleneck” acontece quando o processador precisa enviar dados para a RAM e nao pode ler as proximas intrucoes ate’ a primeira terminar. A arquitectura Harvard separa os dois, permitindo o acesso em simultaneo de instrucoes e dados, evitando desperdicio de “clocks”.

        Outros referem que os processadores actuais usam o “Modified Harvard”, uma combinacao das duas arquitecturas.

        Sera’ que as vantagens na arquitectura Harvard nao se perderiam na forma como os SistemaOperativos/Aplicacoes e PC funcionam? E as desvantagens da respectiva arquitectura?

        Fiquem Bem!

        • Luis says:

          hum…Arquitectura Von Neumann? actualmente? É no maximo qualquer coisa semelhante… Isso é um modelo desactualizado.Alias, a ultima vez que dei assembly foi com IA32 que já sofre umas alterações valentes ao conceito do senhor Von Neumann. O conceito que a preformance de um equipamento está presa ao seu componente mais fraco, tambem é errada. É preciso ver a função de cada um dos elementos do pc e perceber em que situações têm cada um deles impacto no funcionamento do mesmo

  8. Joao says:

    Excelente!!! Menos tempo de espera na renderização de vídeos 🙂

  9. Jorge Santos says:

    Nem toda a gente têm dinheiro para ter um INTEL Core I7 no seu PC como o meu caso! Esse fabricante devia baixar drasticamente os preços dessa gama para vender mais porque ás vezes ganha-se mais dinheiro vendendo mais do que vendendo caro.

    • Andre says:

      Vender a baixo do preço de produção?
      Tens que ver que os preços dos processadores baixam conforme baixam os preços de produção e os métodos de fabrico melhoram e tornam-se mais baratos.
      Tens que aguardar que os preços desçam, pois infelizmente eu também não tenho um Ferrari e não espero que eles baixem de preço para mais pessoas comprarem… E como não tenho dinheiro não compro…

  10. CRibeiro says:

    Sinceramente não me agrada muito esta ideia…
    A tecnologia de transístores já deu o que tinha a dar e como bem explica o artigo isto não passa de um “hack” desenvolvido por empresas que provavelmente não tem muito interesse em gastar recursos em novas pesquisas…
    No fundo estão a adiar o inevitável, atrasando a pesquisa dos processadores quânticos… quando esta tecnologia promete muito mais do que a multiplicação por 1000 do actual poderio de processamento.

    Soluções a curto prazo por vezes não são compativeis com as de longo prazo, esperamos que não seja o caso…

  11. João Ramiro says:

    Excelente noticia 😀

  12. Joe Fagundes says:

    O mundo acaba em 2012. O que é que interessa o que vai ser produzido depois?

  13. Oscrates says:

    @Joe Fagundes: O que acaba em 2012 é o calendário Maia, não é o Mundo…..

  14. Vacili says:

    Eu esperar que youtube usar esta processador.
    Querer videos caregados mais rapidamente.

  15. Serva says:

    @CRibeiro ,

    Bom dia , tens toda a razão isto não passa de um penso rápido , por aqui não vamos a lado nenhum .

    Queria só dizer que de facto devem de haver muitos Steves pelo mundo fora que ambicionam que os processadores sejam mais económicos e mais velozes este certamente não será um desiderato exclusivo do Sr. Steve Jobs ou da Apple .

    Cumprimentos

    Serva

  16. Vacili says:

    Eu vai mandar-te pra macacada.
    Eu ser Krav Maga.

  17. Ernesto de la Cruz says:

    Mas porque é que falam sempre no Jobs como se fosse um rei? Antes dele estão 300 outros motivos para os fabricantes começarem novas produções. E sejam minimamente objectivos, um processador pode ter 500.000 CORE’s, mas se não houver hardware E SOFTWARE que consiga usar isso tudo, é igual a qualquer intel/etc de hoje em dia.E é claro que acompanhar essa nova arquitectura vai demorar anos pelos outros fabricantes.

  18. Tony Silva says:

    Olá pplware.
    Eu também fiz um artigo no meu blog sobre esta press release da IBM.

    Existe algum modo de eu poder enviar artigos deste cariz para o vosso blog?

    Obrigado.

  19. Que bom artigo… espero estar vivo para experimentar estes processadores :p hihih

  20. Joob says:

    nessa altura é que vai ser giro ligar o pc em 3 segundos *.* também com a nova tecnologia UEFI (da suposta BIOS)

    • Vidente says:

      O Futuro é Hoje! Ligar o pc em 3 segundos…Hum…
      Com o sistema operativo Windows ainda não ligaste o computador já aparece mensagem azul de erro…
      😉

  21. TopPlus says:

    O Moore até dá voltas na campa!! 😀

    É sempre o mesmo problema da memória…

    Mas como diz no artigo, o facto de se poder passar hardware que até agora era exterior ao processador para o mesmo chip já elimina uns quantos bottlenecks. E que tal começar a comprimir “tudo” o que sai do processador.

    PS: http://pt.wikipedia.org/wiki/Lei_de_Moore

    Offtopic: Sr Vítor, o site deixou de enviar respostas aos comentários.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.