It’s scary how many ways SEO can go wrong

Todos hemos tenido esos momentos de terror absoluto donde sólo queremos arrastrarnos hacia la posición fetal, llorar y fingir que el problema no existe. Desafortunadamente, como SEOs, no podemos permanecer así por mucho tiempo. En cambio, tenemos que chupar y resolver rápidamente lo que fue terriblemente mal.

Hay momentos en los que sabes que estropeaste, y hay veces que un problema puede demorar demasiado tiempo sin tu conocimiento. De cualquier manera, la situación es de miedo – y tienes que trabajar duro y rápido para arreglar lo que pasó.

Cosas que Google le dice que no haga
Hay muchas cosas que Google advierte en sus directrices para webmasters:

Contenido generado automáticamente
Participar en esquemas de enlaces
Creación de páginas con poco o ningún contenido original
Encubierto
Redireccionamientos disimulados
Texto o vínculos ocultos
Páginas de entrada
Contenido raspado
Participar en programas de afiliación sin agregar valor suficiente
Cargando páginas con palabras clave irrelevantes
Creación de páginas con comportamientos maliciosos, como phishing o instalación de virus, troyanos u otros programas maliciosos
Abuso del marcado de fragmentos enriquecidos
Envío de consultas automatizadas a Google
Desafortunadamente, la gente puede convencerse de que muchas de estas cosas están bien. Ellos piensan que girar el texto para evitar una pena de contenido duplicado que no existe es la mejor opción. Escuchan que «los enlaces son buenos», y de repente están tratando de intercambiar vínculos con otros. Ellos ven las estrellas de la revisión y las falsifican con el marcado para que las tengan y se destaquen en las SERPs.halloween1-pumpkins-ss-1920

Ninguna de las anteriores son buenas ideas, pero eso no impedirá a la gente tratar de salirse con la suya o simplemente malentender lo que otros han dicho.

Problemas de rastreo e indexación
Agente de usuario: *
No permitir

Eso es todo lo que se necesita – dos líneas simples en el archivo robots.txt para bloquear por completo los rastreadores de su sitio web. Por lo general, es un error de un entorno de dev, pero cuando lo veas, sentirás el horror en la boca de tu estómago. Junto con esto, si su sitio web ya estaba indexado, verá típicamente en los SERP:

Luego está la metaetiqueta noindex, que puede impedir que se indexe una página especificada. Desafortunadamente, muchas veces esto se puede habilitar para todo su sitio web con una simple marca de un botón. Es un error bastante fácil de hacer y doloroso pasar por alto.

Aún más divertido es un UTF-8 BOM. Glenn Gabe tenía un gran artículo sobre esto donde lo explicó como tal:

La lista de materiales representa la marca de orden de bytes y se utiliza para indicar el orden de los bytes para un flujo de texto. Es un personaje invisible que se encuentra al comienzo de un archivo (y es esencialmente sin sentido desde una perspectiva del posicionamiento SEO). Algunos programas agregarán la lista de materiales a un archivo de texto, que … puede permanecer invisible para la persona que crea el archivo de texto. Y la lista de materiales puede causar serios problemas cuando Google intenta leer el archivo. …

[W] cuando su archivo robots.txt contiene la lista de materiales UTF-8, Google puede ahogarse en el archivo. Y eso significa que la primera línea (a menudo user-agent), será ignorada. Y cuando no hay user-agent, todas las otras líneas volverán como errores (todas sus directivas). Y cuando se ven como errores, Google los ignorará. Y si usted está tratando de desautorizar áreas clave de su sitio, entonces eso podría terminar como un enorme problema del posicionamiento web SEO.
También de la nota: Apenas porque una porción grande de su tráfico viene de las mismas direcciones del IP no significa que es una cosa mala. Un amigo mío encontró esto de la manera más difícil después de que terminó bloqueando algunas de las direcciones IP de Googlebot utiliza mientras se convenció de que los IPs no fueron buenos.

Otra terrible situación en la que me he topado es cuando alguien tenía la brillante idea de bloquear los rastreadores para sacar las páginas del índice después de una migración de subdominio. Esto nunca es una buena idea, ya que los rastreadores deben poder acceder a las versiones antiguas y seguir los redireccionamientos a las nuevas versiones. Se hizo peor por el hecho de que el archivo robots.txt era realmente el compartido para ambos subdominios, y los rastreadores no podían ver las páginas viejas o las nuevas debido a este bloque.