Cuando uno se enfrenta al desarrollo de un proyecto web, es fácil que pongamos el foco en su estética y usabilidad y descuidemos la importancia del posicionamiento en buscadores o SEO y de las palabras palabras clave con las que queremos que nuestra web destaque en Internet.
He aquí algunos mitos y leyendas alrededor del SEO que conviene tener en cuenta en el desarrollo de cualquier página web.
1. Hacer primero la web
Antes de comenzar a publicar nuestra página web, deberemos tener preparado el SEO, tanto on page como la selección de las palabras clave. Con esto ya realizado, evitaremos futuros problemas.
2. El SEO es económico
Aunque existen herramientas como Posicionamiento SEO que pueden ayudarnos a autogestionar el posicionamiento una página web, no olvides que el SEO no es una tarea fácil. No sólo influyen muchos factores, sino que es una disciplina muy exigente y dinámica. Dependiendo del tipo de proyecto web, puede ser recomendable que valoremos la inversión en un profesional que dedique tiempo a ayudarnos y sus servicios pueden tener precios elevados, debido al volumen de trabajo que conlleva y la implicación que requiere.
3. El SEO «por entregas»
El SEO «por entregas» no suele funcionar bien. Esto se debe a que SEO es una disciplina en constante cambio y actualización. Los buscadores modifican sus directrices e imponen sus propias reglas, por lo que tenemos que estar al día para mantener nuestro SEO restablecido al ritmo que marquen los principales actores de Internet. Y esto supone más de un quebradero de cabeza en el desarrollo de cualquier proyecto web. Un buen ejemplo de esta problemática es el cambio de algoritmo que hizo Google en primavera.
4. Adwords nos ayuda
Por supuesto que Adwords ayuda al SEO, pero esto no hará que las palabras clave que tenemos en nuestro sitio suban automáticamente en los resultados. Podremos captar tráfico de manera rápida y ver qué palabras clave nos pueden funcionar cuando tenemos una campaña activa.
5. Con el sitemap, ya vale
Con los sitemaps, Google sabrá mejor las URL que tiene nuestra web y podrá realizar un mejor rastreo, pero esto no hará que subamos posiciones ni que nos valore por su contenido.
6. Desde el archivo Robots.txt controlamos todo
El fichero Robots.txt sirve para dar instrucciones a los robots sobre qué contenidos deben rastrear y cuáles no y cómo deberían hacerlo. No podremos controlar la indexación y sirve únicamente para otorgar o denegar permisos a los buscadores para que lean nuestro contenido.
Cuando estamos trabajando en el desarrollo de nuestra página, deberíamos bloquear el acceso a nuestro sitio. Lo podemos hacer a través de este fichero, pero también existen etiquetas específicas que avisarán al robot del buscador para que no nos indexe y señalan que estamos trabajando con contenido de prueba.
7. Me basta con un buen plugin
Si trabajamos con algún CMS, algunos plugins nos ayudarán a gestionar mejor el contenido para un buen SEO, pero no podemos pensar que sólo con instalarlo se posicionará todo automáticamente. Es necesaria la intervención de nuestra materia gris para que el plugin sea efectivo. Por cierto, si utilizas WordPress, hablamos de algunos de estos plugins en Plugins recomendados para WordPress .
Si te interesa el tema, puedes consultar la presesentación del webinar SEO Avanzado que celebramos hace unos meses o la sección webinars del blog de Arsys, donde encontrarás bastante documentación sobre Marketing Online y SEO.