Desde el blog para webmasters de Google
informan que han actualizado las guías técnicas que ayudan a los
webmasters a preparar su sitio web para que sea indexado correctamente
por el buscador.
En dicho texto comentan el motivo: anteriormente
Google indexaba los sitios web en modo texto, no rastreaba el contenido
de la misma forma que lo hace un navegador web, por lo que el css, el
javascript y demás componentes no afectaban a cómo el buscador entiende
una página específica. Ahora no es así.
El buscador de Google ya
ve a las páginas de la misma manera que lo hace un navegador, por lo que
es importante que demos acceso al robot (Googlebot) a los directorios
donde se encuentran las imágenes, los js, css, etc. Este directorio
muchas veces se ha bloqueado para permitir que la indexación sea más
rápida, aunque ahora se recomienda todo lo contrario.
Recomiendan
usar compresión para que el robot realice el trabajo lo más rápido
posible, juntar archivos css y js que estén separados, evitar
“downloads” que no sean necesarios y verificar, en la herramienta para
webmasters, que la funcionalidad Fetch and Render as Google funciona correctamente, ya que la acaban de actualizar con una nueva versión.
Los consejos para seguir teniendo una web rápida, tanto para usuarios como para buscadores, siguen estando en developers.google.com/web/fundamentals/performance/
No hay comentarios.:
Publicar un comentario