Intro
El contenido duplicado se encuentra en más de un lugar en una URL. El contenido duplicado confunde a los motores de búsqueda porque no puede decidir qué versión del contenido es la más relevante y cuál cargar en una SERP de una consulta de búsqueda asociada. Para ofrecer los resultados de búsqueda más precisos, el motor en cuestión se abstendrá de mostrar el contenido duplicado y elegirá el que más refleje el contenido "correcto".
Codificación de ejemplo de contenido duplicado
Rel=Canonical Code Sample
<head> <link rel="canonical" href="https://123abc.com/blog/" /> </head>
Meta Robots Code Sample
<head> <meta name="robots" content="noindex, follow" /> </head>
Los problemas más frecuentes de contenido duplicado
- Los motores de búsqueda luchan por elegir qué contenido incluir en su índice
- Los motores de búsqueda no saben si deben dividir el link juice o canalizarlo a una sola página
- Los motores de búsqueda no están seguros de qué página debe clasificarse para determinadas páginas de resultados Los contenidos duplicados pueden ser la razón por la que los sitios pierden clasificación y tráfico. También puede hacer que los motores de búsqueda ofrezcan resultados irrelevantes
Ejemplos de contenido duplicado
Parámetros de la URL
El seguimiento de los clics y la codificación analítica pueden dar lugar a contenidos duplicados
Documentos para imprimir
cuando se genera una versión para imprimir de una página y el índice pueden causar problemas de contenido duplicado.
ID de las sesiones
esto ocurre cuando a cada visitante del sitio se le asigna un ID de sesión para ese sitio web, y luego se le asigna otro ID de sesión que se almacena en la URL.
Tácticas principales de SEO: Contenido duplicado
Los motores de búsqueda canonizan el contenido duplicado cuando se encuentra en múltiples URLs. Este canonical se hace creando una redirección 301. Esto corrige la URL y utiliza la etiqueta rel=canonical.
Una redirección 301 es la mejor manera de resolver una duplicación de contenido. Cuando las páginas se encuentran en múltiples, se combinan en una página de mayor relevancia que impacta positivamente en el ranking para los motores de búsqueda que encuentran esta página.
El Rel=canonical es la otra opción para manejar el contenido duplicado. Esta etiqueta crea una solución que divide el link juice y lo pasa a las páginas y requiere menos tiempo de construcción. Esta etiqueta se añade a la cabeza HTML del encabezado de la página digital. La etiqueta meta no se recrea, sino que se añade un parámetro rel. Se pueden añadir valores en las etiquetas meta robot para las páginas que no deben ser incluidas en el índice. La adición de estos valores permitirá a los robots de los motores de búsqueda escanear las páginas y no añadirlas al índice dos veces.
**Por ejemplo
<link href="https://www.123abc.com/canonical-version-of-page/" rel="canonical" />
Herramientas web de Google para la gestión de parámetros
Las herramientas para webmasters de Google permiten a los dominios establecer los parámetros de URL preferidos para las diferentes páginas. Este método tiene el inconveniente de que sólo funciona con el motor de búsqueda de Google. Cualquier cambio realizado con estas herramientas no afectará a los cambios en Bing u otros motores de búsqueda.
Configuración de las preferencias del dominio
Se establecen para todos los sitios. Google utiliza este sencillo método para decidir si un sitio se muestra con un encabezado www en los listados SERP. Las URLs pueden sufrir errores menores como errores de mayúsculas que pueden causar errores de duplicación. Si la misma página web se escribe tres veces y en cada una de ellas se escriben letras diferentes en mayúsculas, el motor de búsqueda contaría las tres páginas como diferentes y las trataría como contenido duplicado. Una herramienta de implementación de rel=canonical utilizada en la 2ª y 3ª URL ayudaría a dirigir los motores de búsqueda hacia la 1ª lista y tratar las dos restantes como copias idénticas de la primera.
No Index Command (Follow)
Si un sitio tiene problemas de paginación, se puede implementar una etiqueta meta robot con valores noindex follow en esas páginas. Permitirá que esas páginas específicas sean rastreadas por los robots de los motores de búsqueda pero evitará que sean incluidas en los índices.
Más métodos de eliminación de contenido duplicado
Asegúrese de que los enlaces internos están construidos de forma consistente a lo largo de la construcción de cualquier sitio web. Cuando comparta información con otros sitios, confirme que el contenido enlazado remite directamente al contenido original. Haga todo lo posible para minimizar la cantidad de contenido similar en cualquier sitio web. Si una página es abrumadoramente similar, considere la posibilidad de combinar las páginas o de añadir contenido distinto y dinámico que diferencie las páginas. Limpie el sitio de contenido duplicado eliminando las páginas de los índices mediante una herramienta de eliminación a través de Google, Bing o con un meta robot.
Si un Webmaster determina que la versión canónica de un sitio web es www.123abc.com
, entonces todos los enlaces que sean internos deberán ir a www.123abc.com/example.html
y no a https//123abc.com/page.html
(las www se dejan fuera intencionadamente). Otro ejemplo, si una tienda online tiene una página sobre chaquetas para niños y otra página sobre chaquetas para niñas y esas dos páginas comparten el 95% del mismo contenido. El diseñador web en este ejemplo tendría que ampliar las páginas para incluir contenido adicional que sea relevante para cada URL y páginas nuevas y distintas que las individualicen. Otra solución sería que el diseñador web combinara las dos páginas y creara una única página sobre abrigos para niños pequeños en lugar de páginas separadas para niñas y niños. La nueva página tendría la ventaja de ser un sitio nuevo muy relevante.