Reto iSocialWeb: Recuperar un proyecto SEO moribundo en 3 meses

Hola familiares y amigos, primero de todo agradecer la acogida de la iniciativa, un placer poder compartir con todos esta experiencia.

Para todos los que no lo sepan, esta iniciativa surgió a raíz de la compra de un proyecto para nuestra sección de proyectos propios y la explicación es básicamente este tweet:

Y este linkedin:

 

En este post vamos a ir contando los pasos y acciones que vamos a ir haciendo en el proyecto para intentar recuperar el proyecto y sacarle rentabilidad al mismo. Será un post que iremos actualizando con las acciones y avances o retrocesos 😉

Como puntualización decir que no vamos a decir la url ni temática del proyecto, pero sí vamos a dar bastante información de todo el proceso. Esto es así, porque no queremos que influyan factores externos, para evitar ataques de SEO Negativo y por respeto a la anterior empresa que llevaba el proyecto, ya que sacaremos deficiencias y estamos aquí para aprender y disfrutar y no para hacer sangre. Dicho todo esto AL TURRON!!

Vamos por partes…

SEMANA 1:

¿Cual es el estado del proyecto y qué hemos hecho hasta ahora?

estado 28-8-2018

y si segmentamos sólo por tráfico SEO, veréis que la visión no es mucho más optimista, va cuesta abajo y sin frenos!

segmentacion seo

 

¿Alguien dijo miedo?  Nooooooo nos encantan los retos.

Análisis inicial

Antes de comprar el proyecto hicimos una preauditoría para ver las posibilidades que tenía el nicho, así como el estado del proyecto y posibilidad de recuperación del mismo. Además de esto miramos los recursos y valor que podíamos aportar al mismo.

Enlaces

En este análisis como hacemos siempre tiramos de un análisis de enlaces con Ahrefs. El dominio está dividido entre dominio y subdominio. El dominio tiene una mayor autoridad como veis aquí:

ahrefs dominio

Ojo cuidao que tiene enlaces de SEO Negativo, pero no es una locura. Luego por otro lado está el subdominio que es de donde cuelga el proyecto con más valor SEO y el proyecto que vamos a trabajar como tal, que tiene el siguiente perfil de enlaces.

subdominio

No es un perfil de enlaces muy desastroso, tampoco es una maravilla pero se puede trabajar con él, y además da pie a poder hacer acciones interesantes.

Contenidos

En este punto siempre nos apoyamos en los amigos de safecont (un abrazo!).

Cuando analizamos inicialmente cualquier proyecto, antes hacemos una revisión de la calidad del contenido con la herramienta, sobre un muestreo del total de urls del proyecto. Esto nos permite detectar fácilmente patrones y deficiencias claras en el contenido.

Si estáis familiarizados con la herramienta podéis ver que el índice de peligrosidad del proyecto no es grande, pero estos datos se tienen que coger con conocimiento del nicho y la tipología de página. Si tú analizas un proyecto donde en el nicho es normal el thincontent, por ejemplo web de gifs con un pequeño texto. Ahí puedes tener un índice de peligrosidad enorme y no ser preocupante.

En este caso puntual, es una web de contenidos, donde la competencia tiene mucho contenidos, y aquí un valor como este sí es un punto a tener en cuenta y optimizar.

Aquí os dejamos la gráfica del mismo tomada sobre el muestreo inicial:

 

analisis safecont

Como podéis ver tenemos un número importante de agrupaciones de páginas con una tasa de similaridad elevada (el mayor problema de este proyecto a nivel de contenidos).

En este punto es el momento de buscar y analizar patrones que estén generando este problema. Y la verdad es que ha sido bastante fácil, como podéis ver vosotros mismos:

tipologias pagina penalizables

Como podéis ver hay dos tipologías que están generando un gran problema que son las TAGS y las páginas de AUTHOR.

Esto es super común en las webs informativas y más si tienen una comunidad de usuarios como es el caso, donde permiten a los propios usuario poner las tags como les de la gana.

Escrapeo y detección de deficiencias SEO Básicas

En este punto usamos dos herramientas que nos facilitan mucho el trabajo. Primero nuestra querida rana Screaming Frog para ver las deficiencias más básicas, así como volumen de urls rastreables… posteriormente para un análisis más en profundidad nos apoyamos en FandangoSEO (besicos Victor! esa MafiaSEO), para hacer una análisis más en profundidad, cruzando logs y ingiriendo datos para poder sacar información de más calidad.

En este punto detectamos muchas deficiencias básicas como: 404, 301, ausencia de titles y metas optimizados… Vamos que el proyecto tiene trabajo.

Pero el punto más relevante es el volumen de URLs Rastreables VS URLs en en los resultados de google. Como podéis ver en la siguiente captura hay una disparidad enorme en este punto.

rastreadas vs indexadas

Primeras acciones SEO

Esta semana es un poco de locos, porque es cierre de mes y tenemos informes en la agencia, además de reuniones y mil historias, así que tenemos que optimizar los tiempos y hacer acciones que tengan desde nuestro punto de vista una gran repercusión en poco tiempo y con poca dedicación.

Es por esto que las primeras acciones han sido de sacar las tijeras y ponerse a podar:

Desindexación de páginas de alta similaridad y bajo aporte de valor SEO:

Después de hacer el preanálisis de contenidos vimos que las URLs del tipo TAGS, AUTHOR y PAGES, estaban generando unos problemas importantes de similaridad de contenidos. Tras esto lo que hicimos fue cruzar estos datos junto con enlaces entrantes a estas urls, tanto internos como externos y además sacar las keys que podían tener posicionadas y el tráfico orgánico que recibían estas urls.

Como ya nos esperábamos todas estas tipologías de URLs no tienen tráfico orgánico y no con más que contenedores que no aportan valor a la estrategia.

Así que en este punto pasamos a desindexar todas las URLs de TAGS, Autores y paginaciones. Muchos os preguntaréis por qué desindexamos las paginaciones. Básicamente con un rel next y prev debería ser suficiente, pero es que no está bien implementado y hay indexada mucha mierda en este tipo de páginas, así que hemos preferido limpiar y seguir avanzado.

Aquí un punto importante, desde alguna de las últimas actualizaciones de Yoast, no es posible desindexar las paginaciones desde el backend y hay que hacerlo por programación. Para quien lo necesite, aquí dejamos el código a añadir en el function.php de wordpress para desindexar las paginaciones:

// noindex,follow en paginaciones de paginas
add_filter(‘wpseo_robots’, ‘yoast_no_home_noindex’, 999);
function yoast_no_home_noindex($string= “”) {
if (is_paged()) {
$string= “noindex,follow”;
}
return $string;
}

Ojito con esto. Después de implementarlo si lo usáis, revisar que no os desindexe nada que no queráis. Pasar algún escraper por la web después de implementarlo para revisar que está todo OK.

Tras la desindexación lo que hicimos fue crear un sitemap con todas estas urls y subirlo a GSC. Para ello puedes usar por ejemplo: http://www.timestampgenerator.com/tools/xml-sitemap-from-list/

Aquí sacáis las urls con la rana, filtráis por tipología, se pasa a un excel y de ahí a esta herramienta y se monta un sitemap.

Correcciones de código y enlaces innecesarios

El theme que tiene actualmente la web, hace cosas como ocultar enlaces y Hs con display:none y maravillas similares, así que hicimos unas pequeñas modificaciones en el código para quitar este tipo de chapuzas, al menos hasta que cambiemos el theme. Además quitamos los enlaces en secciones principales hacia las tags y los usuarios, reduciendo el link juice que pasamos a estas páginas carentes de valor SEO.

El plugin del mal. WP-Touch

No sé si algun@ conoce el plugin de WP-Touch. Bien, este plugin lo que hace es convertirte la web en una especie de APP para mejorar la navegabilidad por el proyecto y con ello la experiencia de usuario. Hasta aquí cojonudo pero… y el SEO?

wp-touch

Claro, si esto no lo haces bien, el problema que tienes es que la web en versión mobile en todas las categorías y secciones únicamente muestra un listado de enlaces a los artículos y esto con Mobile First es una fiesta!

Derivado de esto generas que las páginas que deberían tener un mayor valor de SEO como son las categorías únicamente tengan como contenido un puñado de links y por ende thincontent y similaridad a espuertas.

Así que evidentemente quitamos este plugin y además tocamos el código de la web para que mostrar de cada contenido el extracto del post y genera algo más de contenido en las categorías. Esto evidentemente es sólo el paso 1.

 

Planificación de acciones futuras

Ahora que ya sabemos cómo está el proyecto a grandes rasgos toca escarbar y empezar a sacar todo lo que hay debajo de esta capa superficial, para ello hemos creado un listado de acciones que nos repartiremos entre los 3 SEOs que vamos a llevar el proyecto. Saludos a Marcos y Roger 😉

El listado de tareas que hemos marcado en este sprint son las siguientes:

– Auditoria
– Análisis del problema de indexación
– Keyword research y elaboración de titles+metas
– Auditoría de links y desindexación de enlaces
– Eliminación de las SERPs de URLs desindexadas
– Elección del nuevo Theme
– Elaboración de plan de acciones de blackhat con redes sociales
– Inyección de tráfico cualificado (tras optimización y migrado al nuevo servidor y con el nuevo theme)
– Análisis de CTRs + Mejoras de titles y metas (Tras cargar los titles y un tiempo de revisión)
– Preparación del servidor y nuevo entorno
– Preparar la migración del entorno con los redirects

Estos deben ser los siguientes pasos a hacer con el proyecto. Y en los próximos días queremos abarcar:

– Auditoria
– Preparación del servidor y nuevo entorno
– Preparar los redirects de URLs actuales a finales
– Elección del nuevo theme, instalación y configuración
– Análisis del problema de indexación
– Keyword research y titles+metas. Esto derivará también en la creación de la nueva arquitectura

 

Bueno y esto es todo por esta semana, esperamos que nos dejéis vuestro comentarios y aportaciones, así como cualquier duda.

 

SEMANA 2:

Llegamos a la segunda semana de trabajo y en este caso hemos tenido una semana bastante movidita, por lo que no hemos podido acabar todas las tareas que nos habíamos propuesto. La razón principal es que tuve que viajar a Portugal a principio de semana para cerrar nuestro primer Exit de proyectos propios, como muchos pudísteis leer por twitter y esto nos descuadró bastante toda la semana.

Bueno, dicho todo esto vamos al turrón.

¿Qué acciones hemos hecho?

– Auditoria ✅
– Preparación del servidor y nuevo entorno ✅
– Preparar los redirects de URLs actuales a finales ❌ (Depende del Keyword Research que lo tenemos a medias)
– Elección del nuevo theme, instalación y configuración ❌ (Tenemos un problema de rendimiento del theme con tanto volumen de publicaciones)
– Análisis del problema de indexación ❌
– Keyword research y titles+metas. Esto derivará también en la creación de la nueva arquitectura ❌ (La tenemos a medias)

Punto añadido:

– Análisis de URLs que están generando problemas de similaridad al detalle y planteamiento de acciones ✅

Como podéis ver ha sido una semana bastante FAIL en cuanto a acciones.

¿Estado del proyecto en la segunda semana?

segunda semana trafico

Es importante tener en cuenta que algunas de las acciones que se hicieron durante la primera semana repercutían sobre muchas de las URLs actuales. La desindexación de URLs (que en una segunda fase pasarán a ser 301 en muchos casos) afectó al 25% de las URLs totales, por poner un ejemplo. También la supresión del plugin de WP-Touch cambió toda la arquitectura a nivel móvil y a nivel de contenidos.

El proyecto parece que está estabilizando el tráfico en esta primera semana, pero todavía es pronto para dibujar una tendencia.

Estas acciones son acciones que requieren de un tiempo para ver resultados.

En el SEO no existe una fórmula mágica e instantánea. Se requiere de tiempo para lograr resultados.

Dicho esto en este primer punto si logramos parar la bajada que está llevando de forma continua el proyecto en las primeras semanas de trabajo, ya será un buen resultado y punto de partida.

Acciones realizadas y evolución

Tras las primeras acciones de desindexación de URLs de bajo valor SEO y alto índice de similaridad y thin content, hemos obtenido los siguientes resultados:

mejora safecont

 

Hemos normalizado bastante el índice de similaridad del proyecto reduciendo con ello el posible riesgo frente a penalizaciones o filtrados derivados de este problema. También hemos reducido la peligrosidad general de safecont en casi 10 puntos, estando ahora en valores mucho más aceptables.

Esto tiene una representación muy clara en la agrupación de URLs más peligrosas. Como podéis ver en la siguiente imagen comparativa, los clusters con más problemas de similaridad han reducido considerablemente el número de urls contenidas en ellos.

mejora clusters similares

 

¿Cómo vamos a mejorar estos clusters de alta similaridad?

Una vez que hemos hecho la primera criba de URLs paja, queda sacar la lupa e ir al detalle. Para esto hemos seleccionado los clusters que tienen un índice de similaridad superior al 60% (ya que es el principal problema en relación a la calidad de los contenidos) y hemos exportado todas las urls a un excel.

clusters peligrosos

Una vez que tenemos todas estas urls con alto grado de similaridad, vamos a ver si traen tráfico y por ende, si están siendo usadas por los usuarios. Para ello usaremos Screaming Frog conectada con el API de GAnalytics y cruzaremos estos datos con los obtenidos de safecont.

Esto nos genera un listado de posts que tienen poco tráfico o ninguno y que además tienen un índice alto de peligrosidad a ojos de google.

Ya tenemos los datos ¿y ahora qué?

Aquí existen múltiples acciones que se pueden hacer con estos contenidos, como por ejemplo:

  • Enriquecer los contenidos que generan similaridad derivada por contener Thin Content
  • Unir varios contenidos con Thin Content que están generando similaridad, para generar un contenido único de más calidad y menos similaridad.
  • Eliminar contenidos y redireccionar estas URLs a urls que cumplan una intención de búsqueda similar.
  • ….

En este caso al tener casi todos los contenidos un buen volumen de texto y no tener sentido la concatenación de contenidos, la mejor opción pasa por eliminar contenidos irrelevantes y hacer redirect de estas URLs a otras que cumplan las mismas necesidades.

 

Selección de un nuevo theme

Hemos escogido un nuevo theme para la nueva web, puesto que el actual además de aportar poco valor estético, tenía muchas deficiencias SEO importantes.

¿Cómo seleccionamos un theme para un proyecto?

Cada proyecto tiene una necesidades y requerimientos diferentes, por lo que intentar empatizar con el público que hará uso del entorno es un punto importante.

En este caso el contenido que vamos a mostrar es principalmente texto, por lo que el theme debe ofrecer un contenido limpio y fácil de leer, además de esta forma también destacarán luego más los anuncios que incluiremos para monetizar el site.

Por otro lado un punto importante es el WPO, necesitamos que de base el theme no tenga que tener muchas optimizaciones de rendimiento, sea rápido y sea fácilmente optimizable. Para esto te puedes apoyar en utilidades como https://tools.pingdom.com , https://www.webpagetest.org , https://developers.google.com/speed/pagespeed/insights/ …

Preparación del servidor

Aquí hemos de decir que lo tenemos fácil ya que trabajamos con el equipo de BrutalSys y ellos se encargan de gran parte de este tipo de tareas. Normalmente en todos nuestros proyectos propios basados en wordpress, tenemos un servidor con NGINX y Varnish, a lo que además le añadimos el plugin de W3 Caché y le configuramos una CDN para servir todos los archivos estáticos. En este caso no ha sido de otra forma, ya que queremos que sea una página de cerca de 50K visitas diarias y los tiempos de carga y el rendimiento es un punto importante.

 

Planificación de acciones futuras

El listado de tareas que hemos marcado en este sprint son las siguientes:

– Auditoria
– Análisis del problema de indexación
– Keyword research y elaboración de titles+metas
– Auditoría de links y desindexación de enlaces
– Eliminación de las SERPs de URLs desindexadas
– Elección del nuevo Theme
– Elaboración de plan de acciones de blackhat con redes sociales
– Inyección de tráfico cualificado (tras optimización y migrado al nuevo servidor y con el nuevo theme)
– Análisis de CTRs + Mejoras de titles y metas (Tras cargar los titles y un tiempo de revisión)
– Preparación del servidor y nuevo entorno
– Preparar la migración del entorno con los redirects

Estos deben ser los siguientes pasos a hacer con el proyecto. Y en los próximos 7 días queremos abarcar:

– Eliminación y redirección de URLs con problemas de thin content o similaridad y redirección a URLs con valor SEO.
– Preparar los redirects de URLs actuales a finales
– Configuración y optimización del nuevo theme
– Análisis del problema de indexación
– Keyword research y titles+metas.
– Generación de arquitectura.

SEMANA 3:

Hola de nuevo familiares y amigos, una semana más con el reto iSocialWeb y ya parece que vamos acabando los últimos pasos para poder lanzar en el nuevo entorno y dominio la web casi definitiva. Vamos al lío!!

¿Qué acciones hemos hecho?

Teníamos estas tareas preparadas para esta semana y con la carga de trabajo actual hemos podido realizar las siguientes:

– Eliminación y redirección de URLs con problemas de thin content o similaridad y redirección a URLs con valor SEO.  ✅ (aunque haremos una segunda pasada de reoptimización de contenidos)
– Preparar los redirects de URLs actuales a finales  ✅
– Configuración y optimización del nuevo theme  ✅
– Análisis del problema de indexación ❌
– Keyword research y titles+metas.  ✅
– Generación de arquitectura.  ✅

Como podéis ver esta semana ha sido más productiva que la anterior hemos acabado casi la totalidad de las tareas, de hecho ya tenemos el entorno prácticamente listo para salir y hacer el cambio de dominio (pasar de subdominio al dominio principal).

Como hay bastantes puntos en las tareas de arriba, vamos a detallar algunos de ellos para que podáis entender mejor las acciones:

Preparar redirects de URLs actuales a finales

Cuando vas a hacer un cambio de entorno, ya sea cambio theme y aun más si es un nuevo dominio con cambio de plantilla como es este caso. Necesitas tener un documento de paridad de URLs, donde tengas claro que las URLs que más tráfico te traen a la web tienen una página homónima en el otro entorno, además de todas las demás, claro está. Esto parece una obviedad pero te encuentras multitud de casos donde no se hace. No es sólo que esa URL tenga una página final sino también:

  1. Title, H1, H2 y textos: Unos headings en los que al hacer el cambio no se pierda ninguna de las keys que están actualmente posicionadas y que traen tráfico.
  2. Metadescription: Una meta que siga siendo tanto o más incitadora al click que la anterior. Que no vayamos a perder CTR con el cambio de las metadescripciones.
  3. Intención de búsqueda: En muchos casos cambiamos un entorno y pasamos, de devolver unos resultados de una forma, a hacerlo de otra, y esta nueva forma puede no estar cumpliendo la intención de búsqueda del usuario de igual forma que lo hacía la anterior. Para ello es bueno monitorizar bien a nivel analítico las URLs principales. Nosotros dependiendo del caso también nos apoyamos también en herramientas como Hotjar o Yandex Metrica para monitorizar a los usuarios y ver cómo interactúan con el nuevo entorno.

 

Configuración y optimización del nuevo theme:

Aquí lo que hemos hecho es limar todas las deficiencias que podían condicionar la evolución SEO del proyecto por la parte de desarrollo. Entre estas optimizaciones hemos realizado los siguientes cambios:

  1. Eliminación de recursos estáticos y plugins que no aportaban valor para las necesidades finales del proyecto.
  2. Generación de una correcta estructura de headings: En casi todos los themes comerciales te encuentras H2, H3 o H4 sin sentido que no aportan lógica a la estructura de headings, además de la posición de los headings principales. En este caso hemos elimiando headings sin sentido y hemos reubicado los principales.
  3. Implementación de campos personalizados para funcionalidades SEO: Esto lo detallaremos más abajo.
  4. Optimización de código: Aquí nuestros amigos de BrutalSys le han metido mano al código para optimizar funciones como el contador de visitas en posts, que con flujo grande de tráfico genera problemas de rendimiento.

En referencia a la mejora de rendimiento de la carga, podéis ver un ejemplo de la optimización que realizó Hector de Brutalsys aquí:

optimizacion brutalsys

Hay que comentar que todavía queda pendiente hasta que lo tengamos en producción habilitar la CDN y alguna optimización más.

Sobre el punto 3 os lo detallamos a continuación:

Implementación de campos personalizados:

En muchos casos tenemos la necesidad de, por ejemplo, añadir texto en categoría de posts o de productos, añadir un enlazado especial en determinadas secciones, incluir headings determinados en secciones específicas…

Para todo este tipo de implementaciones en wordpress, nosotros hacemos uso de un plugin que se llama:

LSD Custom taxonomy and category meta

y que podéis encontrar aquí: https://es.wordpress.org/plugins/custom-taxonomy-category-and-term-fields/

Este plugin lo que permite es añadir campos personalizados en las principales tipologías de página en wordpress y luego leerlos por código volcando el dato.

En este caso hemos hecho uso de este recurso para implementar en las categorías dos mejoras:

  1. Una estrategia de enlazado acorde a la arquitectura buscando optimizar el CTR interno entre secciones.
  2. Inclusión de contenido único en categorías para reducir la tasa de similaridad y ampliar la cantidad de keywords semánticamente relacionadas en los contenidos.

La forma de usarlo no es trivial, pero sería más o menos la siguiente:

1º Instalas el plugin

2º Entras en el plugin que está en Ajustes > Category Meta  y creas un campo personalizado: En este caso hemos creado el campo interlinking para añadir los siguientes niveles de enlazado acorde a la arquitectura que hemos definido.

campos personalizados

3º Una vez que tienes ese campo creado, en esa tipología de página aparecerá ese campo para poder rellenarlo:

interlinking

4º Por último en el código donde quieras hacer uso de este campo lo deberás llamar con una llamada de este tipo:

$categoria = get_query_var(‘cat’) ;

if (function_exists(‘get_terms_meta’)) {
$interlinking = get_terms_meta($categoria, ‘interlinking’, true);
}
echo ‘<div>’.$interlinking.'</div>’;

Con este método es como hemos implementado la arquitectura de enlazado interno que tendrá la siguiente forma:

Ejemplo enlazado interno

 

Los enlaces están contenidos en las cajas grises, que en la versión móvil será lo primero que vea el usuario junto con el H1 y H2 por lo que buscamos una mejora en la tasa de click y en la navegabilidad entre secciones.

¿Estado del proyecto en la tercera semana?

evolucion trafico semanas 3

 

Como podéis ver tuvo una pequeña mejoría a principios de semana pero ahora está en los valores estables en los que parece haber quedado tras las primeras acciones de optimización. De momento no tenemos mejora, pero no sigue en caída libre como cuando lo cogimos, así que paso a paso.

Planificación de acciones futuras

El listado de tareas que hemos marcado en este sprint son las siguientes:

– Auditoria
– Análisis del problema de indexación
– Keyword research y elaboración de titles+metas
– Auditoría de links y desindexación de enlaces
– Eliminación de las SERPs de URLs desindexadas
– Elección del nuevo Theme
– Elaboración de plan de acciones de blackhat con redes sociales
– Inyección de tráfico cualificado (tras optimización y migrado al nuevo servidor y con el nuevo theme)
– Análisis de CTRs + Mejoras de titles y metas (Tras cargar los titles y un tiempo de revisión)
– Preparación del servidor y nuevo entorno
– Preparar la migración del entorno con los redirects

Estos deben ser los siguientes pasos a hacer con el proyecto. Y en los próximos 7 días queremos abarcar:

– Migración de la web al nuevo entorno, con las consiguientes redirecciones del subdominio al dominios principal y monitorización de urls con más tráfico.
– Auditoría de links y desindexación de enlaces en el dominio final
– Inyección de tráfico cualificado
– Análisis del problema de indexación
– Optimización final del rendimiento en el nuevo servidor

Artículos relacionados
Deja tu respuesta

Respuestas de otros usuarios:

  • Escrito 28 Agosto, 2018
    Miguel

    Genial post!! Gracias por compartir la experiencia. Una pregunta: ¿Vais a dejar el subdominio como está o lo pasáis a directorio?

    • Escrito 29 Agosto, 2018
      iSocialWeb

      Buenas Miguel! Lo vamos a pasar al dominio principal. Tiene más autoridad, no aporta nada tenerlo en un subdominio y nos da más valor de marca. No hay dudas en el cambio 😉

  • Escrito 28 Agosto, 2018
    Fede

    Saludos chavalería!! Deseando ver la evolución (hacia arriba que no lo dudo!) del proyecto/reto

    • Escrito 29 Agosto, 2018
      iSocialWeb

      Fede gracias por comentar amigo! Esperemos enseñar buenos datos pronto 😉
      un abrazo!

  • Escrito 28 Agosto, 2018
    Daniel Peris

    MAESTROS!

    • Escrito 28 Agosto, 2018
      iSocialWeb

      ¿Para cuando un reto mixto SEO+ASO? Ahí lo dejo…

  • Escrito 28 Agosto, 2018
    David Barrera (SEO)

    ¿Realmente creéis necesario realizar acciones de Blackhat para un proyecto que deseáis limpiar? No sé, quizá sea un antigüo, pero un proyecto que va en caída libre en tráfico y posiciones y le haces ese tipo de acción, si Mr. Google lo detecta, me da que volverá a un Sandbox más allá del Top 50.

    Pero vamos, es una opinión como otra cualquiera!

    Mucha suerte con el proyecto!.

    • Escrito 28 Agosto, 2018
      iSocialWeb

      Buenas David!
      Las acciones de Black serán enfocadas a redes sociales únicamente y su finalidad es captar más tráfico cualificado. A nivel de SEO lo más Black que haremos es hacer uso de PBN.

      Saludos!

  • Escrito 28 Agosto, 2018
    Joel Perez

    Let’s GO, tiene pintaza alvaro!

    • Escrito 28 Agosto, 2018
      iSocialWeb

      Merci Macu!! A tope!!

  • Escrito 28 Agosto, 2018
    Héctor Kennedy

    Uff hay mucho trabajo por delante, muy bien el texto,sigan adelante que no dudo que lo saquen adelante. Los leo .

    • Escrito 29 Agosto, 2018
      iSocialWeb

      Hay curro, pero cuanto peor esté más posibilidades de crecimiento que tiene 😉 Gracias por comentar Héctor

  • Escrito 29 Agosto, 2018
    Adrian de Pedro

    Gran reto, mola!! estaremos pendientes de la evolución. Abrazo.

    • Escrito 29 Agosto, 2018
      iSocialWeb

      Gracias Adrian.
      Un abrazo!!

  • Escrito 29 Agosto, 2018
    Nacho

    (1/2)
    Hola Álvaro,

    Nunca te he comentado, pero me ha gustado muchísimo este artículo y, como yo tengo un proyecto en decadencia desde hace más de un año (de hecho me he planteado pasarlo a una agencia durante unos meses si no consigo arreglarlo), me he sentido identificado y me han salido un montón de dudas… Te las dejo por aquí!

    Con Auditoría de links y desindexación de enlaces a qué te refieres exactamente?

    – Con desindexar te refieres a eliminar enlaces?
    – Cómo vas a desindexar/eliminar los enlaces a los que no tienes acceso?
    – Vas a utilizar el disavow?
    – Si usas disavow, quitarás enlaces de seo negativo?

  • Escrito 29 Agosto, 2018
    Nach

    (2/2)
    – Si usas disavow, quitarás enlaces paja de esos que hacen webs automáticas de scrappers, herramientas de keywords, imágenes (te meten mil imágenes que no tienen nada que ver con la tuya)… etc.?
    – Si usas disavow, quitarás enlaces de gente que literalmente te ha copiado el contenido y no te quita ni los enlaces internos?
    – Si usas disavow, quitarás los enlaces naturales de blogs con 0 autoridad?
    – A qué te refieres con “Elaboración de plan de acciones de blackhat con redes sociales”? En plan, conseguir likes, rts, etc., o conseguir tráfico haciendo spam?

    Espero no haberte cansado con tanta pregunta xD

    Respecto a lo de pasar el proyecto a la agencia, no sé si hacerlo ya para que me deis un presupuesto o esperarme.

    Un abrazo!

    Nacho.

    • Escrito 8 Septiembre, 2018
      iSocialWeb

      Hola Nach! buen músico, por cierto! (1/3)

      – Con desindexar te refieres a eliminar enlaces?

      En este caso como ha tenido ataques de SEO Negativo, primero intentaremos contactar con los sites que tienen un volumen más alto de enlaces a ver si los quitan, que suele ser que no y luego haremos un disavow de links, más que nada por dejar todo lo más limpio posible.

      – Cómo vas a desindexar/eliminar los enlaces a los que no tienes acceso?

      Emails a los sites con un volumen más alto de links y rezar a MadreSEOPeriora 😛

      – Vas a utilizar el disavow?

      Yep

      • Escrito 8 Septiembre, 2018
        iSocialWeb

        – Si usas disavow, quitarás enlaces de seo negativo? (2/3)

        Yep

        – Si usas disavow, quitarás enlaces paja de esos que hacen webs automáticas de scrappers, herramientas de keywords, imágenes (te meten mil imágenes que no tienen nada que ver con la tuya)… etc.?

        Depende del caso, de la autoridad de la página, de si traen tráfico…

        – Si usas disavow, quitarás enlaces de gente que literalmente te ha copiado el contenido y no te quita ni los enlaces internos?

        Misma respuesta anterior

        – Si usas disavow, quitarás los enlaces naturales de blogs con 0 autoridad?

        Si no afectan a la estrategia de anchors y son naturales, no.

      • Escrito 8 Septiembre, 2018
        iSocialWeb

        – A qué te refieres con “Elaboración de plan de acciones de blackhat con redes sociales”? En plan, conseguir likes, rts, etc., o conseguir tráfico haciendo spam? (3/3)

        A lanzar una campaña de Blackhat de captación de tráfico y repercusión de social. Abrir una nueva vía de captación de tráfico que ahora no tiene actualmente dándole un poco al Black 😀

        – Respecto a lo de pasar el proyecto a la agencia, no sé si hacerlo ya para que me deis un presupuesto o esperarme.

        Todo dependerá de los conocimientos que tengas, capital y rentabilidad del proyecto. Si es un proyecto que te da una buena rentabilidad y te merece la pena que alguien por entre 600 o 1200€ te pueda llevar el SEO, busca una agencia en la que confíes y déjalo en buenas manos. En caso contrario por un capital menor o si no le sacas buena rentabilidad yo no se lo pasaba a una agencia 😉

        Un abrazo y gracias por tus preguntas!

  • Escrito 30 Agosto, 2018
    Santiago

    Excelente! Ya quiero ver el próximo post.

    Con respecto a la inyección de tráfico cualificado, se puede saber algo más? Si es mediante anuncios en redes sociales, servicio contratado, software o algo así?

    Mucha suerte. Saludos.

    • Escrito 8 Septiembre, 2018
      iSocialWeb

      Buenas Santiago,
      en este caso tenemos otros sites que comparten terminología con este proyecto en cuestión y desde los que podemos derivar tráfico de calidad. Tiraremos por esta vía.

      Muchas gracias por comentar y un abrazo!

  • Escrito 14 Septiembre, 2018
    Jordi Gisbert

    Llevaba tiempo queriendo seguir el proyecto pero no tenía tiempo… muy buen trabajo y tiene pintaza ¡¡a por ello!!

    • Escrito 16 Septiembre, 2018
      iSocialWeb

      Gracias Jordi,
      Esperemos que te resulte interesante la evolución 😉

  • Escrito 20 Septiembre, 2018
    Rodrigo

    Genial la información que compartís con todos nosotros!!!
    Es muy importante poner en práctica todos estos consejos para conseguir resultados de calidad