Portugueses querem tornar sites ainda mais rápidos
Para ajudar a tornar a WEB mais rápida, uma equipa de investigadores do Departamento de Engenharia Informática da Universidade de Coimbra (UC) está a desenvolver uma ferramenta capaz de identificar de forma automática problemas de desempenho em websites e quais as causas que lhe estão na origem.
Para tal, a equipa tem vindo a monitorizar duas dezenas de páginas web, incluindo algumas das mais populares em Portugal e no estrangeiro, como por exemplo, SAPO, Record, Amazon e Facebook.
Dois computadores consultam estas páginas de minuto a minuto e medem os tempos de resposta, com vista a identificar eventuais problemas de desempenho e quais as causas que lhe estão associadas, com origem, por exemplo, no processador, disco ou memória do servidor.
Esta abordagem mostrou-se capaz de distinguir diferentes tipos de sobrecarga e os investigadores preparam-se agora para criar algoritmos inteligentes para monitorização e deteção automática de problemas, através da colocação de pequenas extensões de código na própria página web, que auxiliam o sistema de monitorização sempre que um utilizador acede ao site.
O tempo de resposta é crucial para quem tem negócios ou conteúdos online. Se a página demora a responder, as pessoas desistem da navegação, o que pode ser crítico em sites de vendas como a Amazon, por exemplo
Filipe Araújo, coordenador do estudo, e Ricardo Filipe, que tem vindo a realizar este trabalho no âmbito do seu doutoramento.
Por isso, o objetivo da investigação é «melhorar os tempos de resposta dos websites, através de um mecanismo de monitorização, tão pouco intrusivo quanto possível que, através de observações periódicas realizadas a partir do exterior, controle esses mesmos tempos de resposta, tal como são efetivamente sentidos pelos utilizadores comuns», sublinham os também investigadores do Centro de Informática e Sistemas da Universidade de Coimbra (CISUC).
Trata-se de uma solução que «de modo muito simples, pretende construir uma visão mais completa do desempenho dos websites, de forma a torná-los mais rápidos e interativos», concluem os investigadores.
Este artigo tem mais de um ano
É uma idea , mas ferramentas com este tipo de monitorização existem há anos …
Abc
Não é para isso que o Pagespeed e o Yslow servem?
Acrescento também o GTmetrix, penso que não é nada de novo..
Concordo. entre outras ferramentas. 😉
Memcached + NodeJS + HTTP 2.0 = mindblow
Mas a serio, isto ainda são problemas nos dias que correm?
Acho que os problemas são mais código legacy PHP a correrem funções depreciadas como o mysql_query() em versões pré-históricas do PHP e Apache, misturado com “spaghetti code” com abordagens OOP/Frameworks ultra redundantes e ineficientes
Já estamos na era do DDR4 e SSD, não creio que 1 meros pedidos HTTP, que carregam código fonte, requests de bases de dados sejam assim tão exigentes
Agora é que tu disseste tudo!!
Acrescenta aí à lista o facto de usarem montes de scripts alojados em CDNs diferentes, obriga a mais requests DNS, etc…
Memcached + NodeJS + HTTP 2.0 = mindblow
Mas a serio, isto ainda são problemas nos dias que correm?
Acho que os problemas são mais código legacy PHP a correrem funções depreciadas como o mysql_query() em versões pré-históricas do PHP e Apache, misturado com “spaghetti code” com abordagens OOP/Frameworks ultra redundantes e ineficientes
Já estamos na era do DDR4 e SSD, não creio que 1 meros pedidos HTTP, que carregam código fonte, requests de bases de dados sejam assim tão exigentes
Querem paginas rápidas mas depois usam Apache onde consume o dobro dos recursos do que o Nginx..
Usem Nginx + Varnish Cache + um bom e decente hosting internacional com bons peers e boa conectividade (1Gbps) e claro usem páginas que estejam programadas e optimizadas para carregamentos mais rápidos.. Também seria o ideal activar o https://developers.google.com/speed/pagespeed/module/filter-image-optimize e activar o GZIP
Nginx + Varnish mais um website bem optimizado e bem programado, é o ponto para o sucesso..
Com apache a historia já complica.
qnt é q tás a receber?lol
Estão a falar de routing ou de renderização de websites?
both
Esse tipo de monitorização apenas faz com que o site monitorizado suba nos rankings das audiências, nunca poderá apurar as reais razões para algum tipo de lentidão.
Reinventar a roda…
e eu aqui a pensar que estavamos a trabalhar para tornar os sites mais lentos e pesados! quem diria
Isto aqui é só sabichões! Então o homem esta a desenvolver este estudo no âmbito de um doutoramento, e vocês a dizer q já existem ferramentas para isso! Certamente que eles Estão a ter uma abordagem diferente senão não faria sentido, seria uma tese plagiada …. antes de comentar, é melhor acompanhar o trabalho deles, desejar-lhes boa sorte e, no fim, acompanhar os resultados, se os objectivos foram alcançados …. assim é que é!
Pois foi o que pensei…