985 331 381 · 620 062 376 ···
El contenido duplicado como factor de penalización en SEO

El contenido duplicado es uno de los factores más frecuentes por el cual las páginas web fallan o perjudican considerablemente su posicionamiento en Internet.  Esta muy extendido el hecho de que duplicar contenido permite alcanzar posiciones optimas en SEO-SERP, aún siendo conscientes las persona que lo realizan, de que esta es una técnica conocida como Black Hat.

El cloaking (encubrimiento) o el hack clásico de la página principal, son los dos principales ejemplos. Este último, consiste en agregar  al código de nuestra web un enlace que lleve a la página de inicio mediante un enlace del tipo  www.paginaweb/index.php. En realidad este simple hecho, es considerado por Google como un engaño ya que lo que estamos haciendo sin saberlo, en muchos casos, es decirle al buscador que indexe una página (en este caso https://www.paginaweb.com/index.php) que tiene claro, el mismo contenido que la página de inicio de la dirección  (https://www.paginaweb.com).

Otra forma bien conocida de black hat es el cloaking: Esto sucede básicamente cuando a los buscadores se les muestra un contenido y a los buscadores se les muestra otro, usualmente la página que se le muestra a los buscadores esta optimizada de forma excesiva con contenido optimizado para las frases que se quiere posicionar. Por otro lado, según el propio Google, el contenido duplicado no supone una penalización y cuando expusieron el tema fueron muy claros. Aunque bien es cierto que la misma duplicación de contenidos no facilita una correcta indeaxión de estos, todo lo contrario lo dificulta. Otro ejemplo de penalización conocidas son aquellas que surgen cuando se trabaja con páginas dinámicas y MODREWRITE. Cuando dos páginas llevan al mismo artículo a través de diferentes direcciones como, https://www.paginaweb.es/article.php?ID=32 y https://www.paginaweb.es/article/Sony/SonyVCR230

En este caso concreto, si le indicamos al buscador lo contrario, este puede indexe ambas páginas y considerarlas como contenido duplicado. Una forma de solucionar problemas como esta, consiste en programar de forma adecuada nuestras páginas web. Pero si el buscador ya ha indexado páginas que en realidad son la misma, no tenemos porque alarmarnos, existe un técnica que nos permite deshacer el error. Por un lado tenemos las redirecciones 301 o el robot.txt y por otro tenemos una técnica recomendada por el mismo Google basado en la etiquetacanonical. Para instar esta etiqueta en nuestro codigo tenemos que acudir a la etiqueta HEAD e insertar entre < head>y< /head>) el código < link rel=”canonical” href=”URL Canónica” /> . La dirección canónica será por lo tanto la que consideramos que es la que identifica correctamente a la página.

En el caso anterior, nuestra URL canónica sería < link rel=”canonical” href=”https://www.paginaweb.es/article/Sony/SonyVCR230” />. Existen otras formas conocidas de “engañar” a los buscadores que trataremos en otros artículos más adelante y con los que trataremos de informar para evitar malos entendidos.

¿TE GUSTA EL ARTÍCULO?
1 estrella2 estrellas3 estrellas4 estrellas5 estrellas
0 Votos - Promedio: 0,00 de 5
Cargando…
Facebook 0
Google+ 0
Twitter
LinkedIn 0