NICHOS Y BLACKHAT: INICIACIÓN A LAS WEBS AUTOMÁTICAS EN 2021

Hoy B30 se viste de negro 🎩  para adentrarnos en la parte más oscura del mundo nichero: webs automáticas. ¿En qué consisten? ¿Qué tipos de nichos automáticos existen y cómo se crean? ¿Es un modelo de negocio para ti?

Si lees asiduamente este blog es muy posible que tengas una visión más «white hatera» del mundo de los nichos, pero si por contra lees este post y te alucina lo que ves en él… quizás hayas encontrado una nueva forma que para ti funcione, de generar ingresos.

Las webs automáticas están de moda. Es una realidad.

Hoy te va a hablar de ellas alguien que sabe mucho más que yo al respecto. Concretamente uno de los cachorros y miembros más activos de SEOWarriors, Manu Martín de SEOdeMadrugada.com, un podcast de programación y SEO técnico.

Con solo 17 años Manu experimenta con webs automáticas, programación, distintos aspectos del SEO técnico y cosas que sorprenderían a más de un «consultor SEO con traje y corbata».

Este artículo pretende ser una introducción para aquellas personas que quieren iniciarse en automáticas.

Si luego tú mismo/a quieres profundizar, podrás ver al final del artículo cómo, de la mano de un Titán y nuevo profe en la membresía. Pero eso lo dejamos para más tarde.

Imagino que venís buscando cosas blackhateras y cómo scrapear miles de páginas, pero antes dame un momento que me voy a presentar.

 

Me llamo Manuel y llevo unos 2-3 años con todo lo que tiene que ver con webs, SEO, programación y todo lo que te puedas imaginar.

Ya lo siguiente es sacar un curso (es broma 😅). Si quieres saber un poco más sobre mí, te invito a que escuches mi podcast que ya ha mencionado Dean hace un momento.

Sobre todo hablo de SEO Técnico y Programación, que es lo que más me mola y lo más divertido de este mundo, bajo mi punto de vista personal.

Me dejo ya de rollos que seguro quieres escuchar cómo te puedes forrar con las automáticas 🤑 [modo ironía on].

¿Qué es una Web Automática?

No te voy a decir lo mismo que te dice todo el mundo: ahora las automáticas son la panacea y la nueva revolución del SEO, y además trabajando 1 hora al día empezarás a ganar pasta en modo loco.

Y aunque sí es cierto que son una pasada en muchos sentidos, llevan existiendo desde hace muchos años y hay gente que lleva años probando y probando cosas, haciendo experimentos y sacando un buen dinero con ellas.

Hoy venimos a hacerlas aún más conocidas, si cabe, hablando de ellas en Blogger3cero.

Fuera de bromas, si quieres ganar dinero, como todo en la vida, le vas a tener que meter muuuuucho trabajo 💪

A continuación te quiero dar mi opinión sobre las webs automáticas.

Las automáticas son una manera de testear lo que funciona y lo que no funciona, de esta manera ahorrarenos tiempo y dinero.

Te pongo un ejemplo 👇

Vamos a suponer que atacamos la keyword: aspiradoras

Para un nicho «white», tendríamos que contratar a un redactor y encargarle unos 20-30 textos (por lo general).

30 textos * 15€/1000 palabras (por ejemplo) = 450 €

Súmale todo el tiempo que nos llevaría implementar los textos, ponerles un buen diseño y todo lo que se hace en un nicho «white».

Ahora vamos a a tacar la misma keyword, pero esta vez vamos a spinear el texto.

Un spintax es una manera de escribir artículos usando sinónimos, variaciones de palabras, párrafos…

Ejemplo:

{Bienvenido | Sea Bienvenido} {al {post | blog} de {B30 | Dean Romero} | a una  iniciación {a las webs automáticas | al blackhat | a técnicas que no le gustan a Google} | al post que te va a cambiar la vida}

Este spintax nos daría como resultado:

Sea Bienvenido al post que te va a cambiar la vida.

Sea Bienvenido al post de B30.

Bienvenido al blog de Dean Romero.

Y así con todas las combinaciones posibles 😀

Esto ha sido un mero ejemplo, pero se pueden hacer absolutas barbaridades.

Como te venía diciendo, de esta manera vamos a poder atacar muchísimas keywords y, sobre todo,  posicionar para longtails que no tienen mucha competencia .

Además, vas a poder ver qué keyword te merece la pena atacar y cuáles no.

Me explico, imaginemos que tenemos 1.000 URLs. Trackeando con Analytics y Search Console veremos cuál de ellas nos da más dinero 💸💸 y veremos también que hay ciertas URLs que despuntan y que merecen la pena ser trabajadas.

El siguiente paso sería hacer curación de contenido y la optimización del mismo.

Esto es una manera muy simple de explicar lo que hay que hacer; como te decía al principio, esto es una iniciación para que te hagas una idea general.

También podríamos hacer otro tipo de webs automáticas scrapeando y traduciendo, pero de esto mejor hablamos en la siguiente sección



Tipos de Webs Automáticas

Como te venía diciendo, podemos dividir las webs automáticas en varios tipos según el método de hacerlas, pero también podríamos clasificarlas según el método de monetización.

 

Por el momento vamos a hablar sobre los 3 grandes tipos de webs automáticas que existen:

Spintax

Este es el tipo de web automática sobre la que hemos hablado antes. En estas webs lo más normal es hacer gran cantidad de páginas atacando a muchas keywords diferentes.

También suelen tener miles y miles de URLs con las que atacar keywords que tienen muy poca competencia y que nos pueden traer tráfico.

Una de las principales desventajas es el tiempo que te puede llevar hacer un buen spintax, ya que de lo contrario vas a tener contenido duplicado 😨

Para realizar esta técnica podemos usar 👇

En estas webs también vas a tener que tener el interlinking muy en cuenta para que Google Bot pueda llegar a todos los sitios y no haya URLs huérfanas y facilitarle el rastreo.

Para esto puedes usar 👇

Otra desventaja de este tipo de web es que hay que manejar muy bien la indexación, ya que nos interesa que se nos indexe todo el contenido posible cuanto antes.

Es un juego de cantidad.

En la indexación interfiere directamente el interlinking y otros factores obvios como la autoridad del dominio.

Web Scraping

La técnica de scraping, no te voy a mentir, es mi preferida.

Generalmente se mezcla con la traducción y de esta manera podemos coger webs enteras y ponerlas en español o viceversa.

Es decir, con herramientas como webscraper vamos a poder coger el contenido que nos interese de una web:

  • H1
  • H2
  • Title
  • Meta Description
  • Texto

Estas herramientas nos darían un archivo CSV el cual después de depurarlo y limpiarlo, nos quedaríamos solo con lo que nos interesa.

Ya por último, meteríamos el contenido en nuestra web con un plugin como WP all Import, si necesitamos meterlo en una web.

O analizar lo que hayamos scrapeado si lo que necesitamos es, por ejemplo, saber el precio medio de ciertos productos en un ecommerce.

Esto es solamente una manera de hacer scraping. Si tenemos que scrapear mucho contenido podríamos usar un scraper hecho a código con Selenium o Scrapy.

Y si prefieres JavaScript puedes usar Puppeteer, aunque ya te digo que esto solo es para webs muy muy grandes que necesites scrapear o por ejemplo si quieres scrapear Amazon y locuras así…

También podríamos usar Screaming Frog con la función de custom extraction y Xpath para sacar lo que queramos, aunque esto último está muy bien para ecommerce.

Dejando de lado maneras de hacer scraping, ahora vamos a hablar un poco más sobre las ventajas y las desventajas de esta forma de hacer webs automáticas.

Una ventaja es que si sabes hacerlo o lo tienes automatizado es bastante rápido de hacer y al final todo el contenido que pongas en tu nicho va a ser contenido original 😀

Ya que Google no es capaz, por ahora, de detectar o comparar contenido entre países.

Y al contrario que con las webs espineadas, en ésta no te vas a tener que preocupar por la originalidad del texto ni nada por el estilo 😉

Aunque siempre es recomendable comprobar si el contenido está indexado.

Antes de continuar te quería comentar que el scraping no solo se reduce a extraer contenido y traducir, sino que también lo podemos usar en ecommerce por ejemplo para sacar el precio medio de nuestra competencia, como ya he comentado antes.

O en webs de clientes, a la hora de hacerle auditorías saber qué URLs tienen title o meta description.

O para extraer todas las imágenes de un sitio y saber cuál de ellas tienen alt y cuáles no… y cosas así (estas últimas funciones las hace Dinorank alegremente, por ejemplo).

De esto hablo más y mejor en este episodio de mi podcast (toma spam 👊).

Traducidas

Aunque ya he explicado en el apartado de scraping esta técnica y están estrechamente relacionadas, es muy interesante explicarlas en diferentes partes.

Vamos a comenzar hablando de herramientas para traducir 👇

La mejor herramienta para traducir textos, bajo mi punto de vista, es DeepL. Esto ya es de sobra conocido y si la mezclas con su API que vale 5 euros/mes puedes hacer maravillas.

Si mezclas por ejemplo DeepL con WP Automatic y te scrapeas una web, puedes tener proyectos con un contenido impresionante en muy poco tiempo y que hechas por redactores «white hat» hubieran costado mucho dinero, pero mucho…

Otra mezcla o prueba que podrías hacer, y que te aseguro funciona, es usar la herramienta de WP Content Bot + Lingvanex /DeepL. Esta herramienta es ideal para scrapear, spinear y divertirte un rato 🤣

Aunque si prefieres usar Screaming Frog que te da el contenido en un CSV, lo puedes pasar por Online Doc Translator y que se traduzca automáticamente. Truco sacado de Victor Misa 🙂

Y por último, te quiero dejar un tip que aunque ya esté bastante visto, nunca está de más comentarlo.

A la hora de traducir un texto en cualquier traductor lo que se suele hacer es esto 👇

Francés -> Español

Es decir, traducimos un texto del francés al español como se haría normalmente.

El problema es que esto nos da muchos errores y no tenemos una buena traducción.

Si lo hacemos así 👇

Francés -> Italiano -> Español

Es decir, pasándolo por varios idiomas, vamos a obtener una mejor traducción con menos errores.

Estos son los 3 grandes tipos de webs automáticas según la metodología que aplicas al hacerlas, pero es muy común mezclar y combinar distintas estrategias.



Otra forma de hacer webs, aunque esto no es una técnica de webs automáticas pero la quiero comentar ya que me parece interesante 👇

Se trata de pillar un buen dominio expirado (es bastante complicado) el cual haya tenido contenido interesante en un pasado y que podemos recuperar con archive.org

Una vez tengamos el contenido, podemos volverlo a poner en la web y saltarnos el sandbox y demás sin ningún tipo de problema 😆

Esto va a depender mucho del tipo de dominio que pilles, si tiene contenido indexado, autoridad, enlaces, histórico…

Esto es otra manera de hacer webs que no requiere de redactores y que permite que las webs indexen antes.

Para esta técnica podemos usar 👇

Aspectos a tener en cuenta

Pero claro, no todo va a ser scrapear contenido con webscraper y traducirlo con DeepL o hacer un spintax y generar miles de URLs con un simple click.

Tenemos que tener otros aspectos en cuenta para que nuestra web tenga un mínimo de posibilidades de triunfar.

Los principales aspectos que yo personalmente tengo en cuenta son los siguientes:

  • Interlinking
  • Indexación
  • Originalidad / Contenido
  • Autoridad
  • Keyword Research

Estos son los 5 aspectos principales que debemos tener en cuenta para que nuestra web tenga un mínimo de posibilidades de triunfar y no sea un estrepitoso fracaso.

Por otro lado, si te fijas, son aspectos fundamentales del SEO en general.

Se podría hacer un post de cada uno de estos puntos o aspectos, sobre todo del interlinking y de la indexación, ya que son fundamentales.

Además, y como es obvio, la autoridad que tenga la web y el dominio son factores clave; a mayor autoridad del dominio más va a rastrear nuestra web Google Bot y vamos a conseguir una mejor indexación.

También a mayor autoridad en general, y si no la cagamos con el link building, mejor va a posicionar nuestra web y no me vengáis con la tontería de posicionar sin enlaces 😂

Otro aspecto que hay que tener en cuenta, sobre todo en las webs espineadas, es la originalidad del contenido. Para esto tenemos herramientas como Spintax.org

Y, obviamente, también la calidad del contenido ya que cuanto mejor sea el spintax que hayamos hecho y más currado esté, mejores textos vamos a poder sacar y mejor vamos a posicionar.

Y por último, y aunque estemos haciendo webs automáticas, el keyword research sigue siendo la parte más importante del nicho, ya que vamos  a seguir necesitando una buena estructura web.

 

Creo que vamos a ir terminado.

Espero que te haya gustado el post 😀

Personalmente he hablado desde mi experiencia y he intentado que se aproxime a la realidad lo máximo posible.

Las automáticas son una pasada, pero requieren de mucho trabajo y no es dinero gratis.

Hay gente mucho mejor que yo de la que podéis aprender al respecto.

¿Estás pensando en iniciarte en el mundo nichero blackhat? ¿Quieres montar tu primera web automática y no sabes por dónde empezar?

Pues entonces te espero en los comentarios.

Gracias Dean.

Vía: Blogger 3.0

Foto de Christina Morillo en Pexels
LucusHost, el mejor hosting

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: