Siete falsos mitos del SEO

Cuando uno se enfrenta al desarrollo de un proyecto web, es fácil que pongamos el foco en su estética y usabilidad y descuidemos la importancia del posicionamiento en buscadores o SEO y de las palabras palabras clave con las que queremos que nuestra web destaque en Internet.

He aquí algunos mitos y leyendas alrededor del SEO que conviene tener en cuenta en el desarrollo de cualquier página web.

1. Hacer primero la web

Antes de comenzar a publicar nuestra página web, deberemos tener preparado el SEO, tanto on page como la selección de las palabras clave. Con esto ya realizado, evitaremos futuros problemas.

2. El SEO es económico

Aunque existen herramientas como Posicionamiento SEO que pueden ayudarnos a autogestionar el posicionamiento una página web, no olvides que el SEO no es una tarea fácil.  No sólo influyen muchos factores, sino que es una disciplina muy exigente y dinámica. Dependiendo del tipo de proyecto web, puede ser recomendable que valoremos la inversión en un profesional que dedique tiempo a ayudarnos y sus servicios pueden tener precios elevados, debido al volumen de trabajo que conlleva y la implicación que requiere.

3. El SEO “por entregas”

El SEO “por entregas” no suele funcionar bien. Esto se debe a que SEO es una disciplina en constante cambio y actualización. Los buscadores modifican sus directrices e  imponen sus propias reglas, por lo que tenemos que estar al día para mantener nuestro SEO restablecido al ritmo que marquen los principales actores de Internet. Y esto supone más de un quebradero de cabeza en el desarrollo de cualquier proyecto web. Un buen ejemplo de esta problemática es el cambio de algoritmo que hizo Google en primavera.

4. Adwords nos ayuda

Por supuesto que Adwords  ayuda al SEO, pero esto no hará que las palabras clave que tenemos en nuestro sitio suban automáticamente en los resultados. Podremos captar tráfico de manera rápida y ver qué palabras clave nos pueden funcionar cuando tenemos una campaña activa.

5. Con el sitemap, ya vale

Con los  sitemaps, Google sabrá mejor las URL que tiene nuestra web y podrá realizar un mejor rastreo, pero esto no hará que subamos posiciones ni que nos valore por su contenido.

6. Desde el archivo Robots.txt controlamos todo

El fichero Robots.txt  sirve para dar instrucciones a los robots sobre qué contenidos deben rastrear y cuáles no y cómo deberían hacerlo. No podremos controlar la indexación y sirve únicamente para otorgar o denegar permisos a los buscadores para que lean nuestro contenido.

Cuando estamos trabajando en el desarrollo de nuestra página, deberíamos bloquear el acceso a nuestro sitio.  Lo podemos hacer a través de este fichero, pero también existen etiquetas específicas que avisarán al robot del buscador para que no nos indexe y señalan que estamos trabajando con contenido de prueba.

7. Me basta con un buen plugin

Si trabajamos con algún CMS, algunos  plugins nos ayudarán a gestionar mejor el contenido para un buen SEO, pero no podemos pensar que sólo  con instalarlo se posicionará todo automáticamente. Es necesaria la intervención de nuestra materia gris para que el plugin sea efectivo. Por cierto, si utilizas WordPress, hablamos de algunos de estos plugins en Plugins recomendados para WordPress .

Si te interesa el tema, puedes consultar la presesentación del webinar SEO Avanzado que celebramos hace unos meses o la sección webinars del blog de Arsys, donde encontrarás bastante documentación sobre Marketing Online y SEO.