Páginas

10 abr 2013

Los 3 procesos clave que utiliza Google para publicar las páginas web


Cuando te sientas frente a tu ordenador y realizas una búsqueda en Google, obtienes de forma prácticamente instantánea una lista de resultados de la Web. ¿Qué sistemas utiliza Google para encontrar páginas web que coincidan con su consulta y para determinar el orden de los resultados de búsqueda?
Para explicarlo de forma sencilla, realizar una búsqueda en la Web es como consultar un libro muy extenso en el que un índice exhaustivo nos indica exactamente la ubicación de cada elemento. Cuando efectúas una búsqueda en Google, nuestros programas consultan nuestro índice para decidir qué resultados de búsqueda son los más relevantes y mostrártelos.
A continuación se indican los tres procesos clave para la presentación de los resultados de búsqueda.

Ayuda de Herramientas para webmasters de Google

Rastreo


El rastreo es el proceso mediante el cual Googlebot descubre páginas nuevas y actualizadas y las añade al índice de Google.
Utilizamos una enorme cantidad de equipos informáticos para obtener (o "rastrear") miles de millones de páginas de la Web. El programa encargado de recuperar este contenido es Googlebot, también conocido como robot o araña. Googlebot utiliza un proceso de rastreo algorítmico: a través de programas informáticos se determinan los sitios que hay que rastrear, la frecuencia y el número de páginas que hay que buscar en cada sitio.
El proceso de rastreo de Google comienza con una lista de URL de páginas web generada a partir de anteriores procesos de rastreo y se amplía con los datos de los sitemaps que ofrecen los webmasters. A medida que Googlebot visita cada uno de estos sitios web, detecta enlaces en sus páginas y los añade a la lista de páginas que debe rastrear. Los sitios nuevos, los cambios en los existentes y los enlaces obsoletos se detectan y se utilizan para actualizar el índice de Google.
Google no acepta retribuciones económicas para rastrear un sitio con mayor frecuencia y separa el servicio de búsqueda del programa de generación de ingresos, AdWords.

Indexación de contenido

Googlebot procesa todas las páginas que rastrea para elaborar un índice completo de todas las palabras que detecta y de su ubicación en cada página. Además, procesa la información incluida en las etiquetas y los atributos de contenido clave, como las etiquetas "Title" y los atributos "ALT". Googlebot puede procesar muchos tipos de contenido, pero no todos. Por ejemplo, no puede procesar el contenido de una serie de archivos multimedia y páginas dinámicas.

Publicación de resultados

Cuando un usuario introduce una consulta, nuestro sistema busca en el índice las páginas que coinciden con esa consulta y muestra los resultados que considera más relevantes para el usuario. La relevancia se determina con más de 200 factores, uno de los cuales es el parámetro PageRank de una página determinada. Este parámetro representa la importancia que Google asigna a una página en función de los enlaces procedentes de otras páginas web. En otras palabras, cada enlace a una página de un sitio influye en el PageRank del mismo. No todos los enlaces son iguales: Google se esfuerza en mejorar el servicio que ofrece al usuario identificando los enlaces fraudulentos y otras prácticas que influyen negativamente en los resultados de búsqueda. Los mejores enlaces son los que se basan en la calidad del contenido del sitio.
Para que tu sitio consiga una buena posición en las páginas de resultados, es importante asegurarse de que Google pueda rastrearlo e indexarlo correctamente. En nuestras Directrices para webmasters destacamos algunas de las prácticas recomendadas para evitar errores comunes y mejorar la posición del sitio.
Las funciones Quizás quisiste decir y Autocompletar de Google están diseñadas para que los usuarios puedan ahorrar tiempo al mostrar términos relacionados, errores ortográficos habituales y consultas populares. Al igual que los resultados de búsqueda de google.com, las palabras clave que utilizan estas funciones se generan de forma automática a través de nuestros rastreos web y algoritmos de búsqueda. Solo mostramos estas predicciones cuando consideramos que pueden ahorrar tiempo a los usuarios. Si un sitio está bien clasificado con respecto a una palabra clave, se debe a que hemos determinado mediante algoritmos que su contenido es más relevante para la consulta del usuario.

actualizado 03/20/2013

No hay comentarios:

Publicar un comentario