Рубрики NoticiasSuaveTecnologías

Se filtran 2.500 páginas de documentos de búsqueda de Google — Los datos contradicen las declaraciones públicas

Опубликовал
Андрій Русанов

Una filtración de 2.500 páginas de documentos internos de Google revela los algoritmos de su motor de búsqueda. Los autores de la filtración creen que Google no ha sido completamente honesto al respecto durante muchos años

Rand Fishkin, de SparkToro, que trabaja en SEO desde hace más de una década, estadosLa fuente compartió con él 2.500 páginas de documentos con la esperanza de que la filtración ayudara a contrarrestar las «mentiras» de Google sobre el algoritmo de búsqueda. Los documentos describen la API de búsqueda de Google y contienen otra información que está a disposición de los empleados.

Según la publicación, Google puso los datos a disposición del público, probablemente por accidente, a través de GitHub a partir del 27 de marzo. Los documentos explicativos se retiraron el 7 de mayo. Sin embargo, como fueron indexados por un servicio de terceros, sigue habiendo una copia disponible incluso después de la retirada.

Los datos compartidos por Fishkin son técnicos y más comprensibles para los profesionales del SEO. El contenido de la filtración tampoco demuestra necesariamente que Google utilice los datos y señales específicos que menciona para clasificar las búsquedas. Más bien, la filtración esboza qué datos recopila Google en Internet y ofrece pistas indirectas a los expertos en SEO sobre a qué presta atención Google.

Parte de la información contenida en los documentos contradice las declaraciones públicas realizadas por representantes de Google. Fishkin afirmó que la empresa no niega la autenticidad de la filtración, pero que un empleado le pidió que cambiara parte de la redacción del post en lo que respecta a la descripción del suceso.

El secreto algoritmo de búsqueda de Google ha dado lugar a toda una industria de vendedores que siguen de cerca las directrices públicas de Google. Esta táctica, a menudo desagradable, ha dado lugar a la idea generalizada de que los resultados de búsqueda de Google se están deteriorando, abrumados por la basura que crean los sitios web para ser vistos.

Un ejemplo es si los datos de Google Chrome se utilizan para clasificar los sitios. Los representantes de Google han afirmado en repetidas ocasiones que no utilizan los datos de Chrome para clasificar las páginas, pero Chrome se menciona específicamente en las secciones sobre cómo aparecen los sitios en la Búsqueda.

Otra cuestión que se plantea es qué papel desempeña la EEAT en las clasificaciones. EEAT son las siglas de Experience, Expertise, Authority, and Trustworthiness (Experiencia, Pericia, Autoridad y Confiabilidad), y es una métrica de Google utilizada para evaluar la calidad de los resultados de búsqueda. Los representantes de Google han declarado anteriormente que la EEAT no es un factor de clasificación. Fishkin señala que no encontró muchas referencias a EEAT en los documentos.

Los documentos describen detalladamente cómo Google recopila los datos de autor de una página y determina si la persona que aparece en la página es el autor. Algunos de los documentos dicen que este campo fue «diseñado y configurado principalmente para artículos de noticias… pero también se rellena para otros contenidos (por ejemplo, artículos académicos)». Aunque esto no confirma que la autoría afecte explícitamente a las clasificaciones, sí demuestra que Google al menos realiza un seguimiento de este atributo. Los representantes de Google han insistido anteriormente en que los datos de atribución — es algo que los propietarios de sitios deben hacer para los lectores, no para Google, ya que no afecta a las clasificaciones.

Fuente: The Verge

Los comentarios de Disqus están cargando....