miércoles, 17 de junio de 2009

Marketing: Líneas generales de posicionamiento

Seguir las directrices que marca cada uno de los buscadores es fundamental para obtener buenos resultados y asegurar así que se está sacando el máximo partido a las posibilidades de posicionamiento de la página web. La información ofrecida por los buscadores en sus propios sitios web resulta más que suficiente para que una empresa pueda optimizar su página y mejorar su posición, y aumentar así el tráfico generado. A este respecto, existen numerosas agencias que ofrecen servicios profesionales a las empresas para aumentar el posicionamiento web de sus páginas. La importancia cada vez mayor que en los últimos años está cobrando para los negocios online el tráfico proveniente de buscadores implica que este tipo de servicios puedan ser de gran ayuda para las empresas. No obstante, a la hora de contratar estos servicios es importante tener en cuenta que, aunque la mayoría pueden proporcionar una ayuda muy valiosa a los clientes, algunos SEO con falta de ética han perjudicado al sector con estrategias agresivas e intentos de manipular los resultados de los motores de búsqueda de forma ilícita.

Llevar a cabo prácticas que incumplen las directrices puede provocar que un sitio se suprima del índice del buscador. En su centro de asistencia para webmasters, Google realiza las siguientes recomendaciones:
• Desconfiar de empresas de SEO y consultorías o agencias web que envíen mensajes de correo no solicitado.
• No es posible comprar posiciones en los resultados naturales de búsqueda de los principales buscadores.
• Aparecer en los resultados patrocinados (de pago) no implica una mejora en el ranking de resultados naturales.
• Nadie puede garantizar el primer puesto en la clasificación de Google.
• Desconfiar de una compañía con secretismos o que no explica claramente sus intenciones.
• Solicitar ejemplos de trabajos y clientes previos.
• Preguntar si la empresa cumple las directrices para webmasters de Google.

En cualquier caso, existen una serie de directrices básicas tanto de diseño y contenido como técnicas cuya implementación es recomendable para que un buscador pueda indexar y clasificar una página web y que ésta goce de buenas posiciones en las páginas de resultados. Como ya se ha señalado, los propios sitios web de los buscadores ofrecen extensas guías, recursos y secciones de preguntas frecuentes para la correcta indexación y clasificación de las páginas en sus índices. Éstas son las principales directrices generales a tener en cuenta:

Calidad. Crear un sitio con una jerarquía y enlaces de texto claros en el que se pueda acceder a todas las páginas desde al menos un enlace de texto estático es primordial para que los buscadores interpreten su estructura y puedan indexarlo correctamente. A partir de esta construcción, desarrollar la página web evitando trucos engañosos para aumentar el ranking de manera fraudulenta y aspirando siempre a ofrecer un servicio de calidad a los usuarios de la misma hará que aumenten sus posibilidades de posicionamiento en los buscadores.

Contenido y palabras clave. Es importante crear un sitio útil con mucha información cuyas páginas describan el contenido con claridad y exactitud. Determinar las palabras que los usuarios utilizarían para encontrar el sitio web de la empresa y asegurarse de que el sitio las incluye en sus textos es una acción básica siendo el siguiente paso la optimización para buscadores.

Alta en directorios y motores de búsqueda. Una vez que el sitio web está listo, es primordial darlo de alta en los motores de búsqueda y enviar el sitio web a listados de empresas y sitios especializados del sector, así como a los principales directorios como el Open Directory Project y Yahoo!.

Notificar a los contactos. Los contactos profesionales de una empresa y los propios clientes pueden servir para aumentar la importancia de la página web en los buscadores. Ser enlazado desde otros sitios aumenta la relevancia que los buscadores dan a una página web. Es posible que los proveedores y contactos profesionales ayuden desde sus páginas web a aumentar el ranking de la página de una empresa determinada. Igualmente, notificar de las actualizaciones a los clientes y usuarios que puedan estar interesados en su contenido y promover la participación hace que se cree contenido útil, original y relevante, además de ayudar a aumentar el interés de los usuarios por visitar la página web.

Enlaces externos. Una de las principales cuestiones que un buscador tiene en cuenta para valorar la importancia de una página web es la cantidad y calidad de enlaces que desde otros sitios web apuntan hacia esa página. Si una página es enlazada desde numerosas páginas significa que es valorada por ellas. La importancia de un determinado enlace que apunte a una página dependerá del ranking que a su vez tenga el sitio web que lo realiza. La mejor estrategia para conseguir que otros sitios enlacen a una página es ofrecer contenido actualizado, útil y de calidad.

Limpieza y claridad. En la codificación de páginas web, la utilización de etiquetas TITLE claras, atributos ALT y títulos o nombres de ficheros descriptivos ayuda a que los robots indexen más fácilmente una página web y valoren el tipo de contenido sobre el que versa. Igualmente, la utilización de direcciones URL sencillas y estáticas (por ejemplo: http://www.miweb.com/noticias) hace más fácil a los robots el rastreo del sitio.

Texto mejor que imágenes. Si bien los gráficos pueden resultar muy atractivos desde el punto de vista visual, es importante asegurarse de que las principales descripciones de texto, nombres, contenido y los enlaces relevantes de la página se encuentran en formato texto. De no ser así, podría suceder que los motores de búsqueda no encontrasen la página correctamente o no pudiesen rastrear partes de un sitio web.

Código accesible. Los buscadores valoran que el código de las páginas esté correctamente introducido y que respete los estándares de programación. A este respecto, por ejemplo, es importante evitar que la página incluya enlaces dañados o código HTML incorrecto. Asimismo, mediante la utilización de un navegador de texto como Lynx para examinar el sitio web, se puede comprobar si las arañas y robots pueden acceder al mismo, ya que la mayoría de estos rastreadores web utilizan dicha aplicación. Si funciones como JavaScript, cookies, ID de sesión, marcos, DHTML o Macromedia Flash impiden la visualización de todo el sitio en un navegador de texto, es posible que los rastreadores tengan problemas para rastrearlo.

Ofrecer versión HTML. Los rastreadores de los buscadores difícilmente pueden acceder a páginas web programadas con código Flash. Siempre que se cuente con una página desarrollada con esta tecnología, es recomendable ofrecer una versión HTML de la misma para que los robots de los buscadores puedan incluirla en sus bases de datos.

Metaetiquetas. Estas etiquetas se incluyen dentro del código de las páginas y se utilizan para describir el contenido de las mismas. Es conveniente la inclusión de palabras clave y una breve descripción del sitio en las metaetiquetas.

Mapas de sitio. Enviar archivos del mapa de sitio a los buscadores asegura que éstos no tengan ningún problema a la hora de localizar la información de un sitio. Google, Yahoo!, Live Search o Ask aceptan este estándar. Se trata de un archivo XML que ofrece una lista de todas las direcciones URL de un sitio y que puede informar, por ejemplo, de cuál de ellas es más relevante. Aunque no disponer de un fichero sitemap no implica que una página no vaya a ser indexada, su inclusión es recomendable, pues asegura que todos los buscadores tendrán constancia de las URL del sitio. La página «Herramientas para webmasters» de Google ofrece una exhaustiva guía sobre cómo generar y enviar archivos siguiendo el protocolo Sitemap.

Robots.txt. Otra recomendación técnica es la utilización del archivo robots.txt en el servidor web de la página. Este archivo informa a los rastreadores sobre qué directorios pueden rastrearse y cuáles no. Es importante asegurarse de que el archivo esté actualizado para el sitio de modo que no bloquee el rastreador por error. En elsiguiente enlace, se puede encontrar más información acerca de cómo configurar los robots cuando éstos visiten un sitio web: http://www.robotstxt.org/wc/faq.html.

Externalización. Los responsables de contenidos y los webmasters de una página web pueden implementar fácilmente muchas de las recomendaciones que ofrecen los buscadores. No obstante, el asesoramiento profesional de empresas y expertos SEO de solvencia contrastada que basen sus acciones en las buenas prácticas recomendadas por los buscadores es una opción que puede servir de gran ayuda para mejorar el posicionamiento web.

No hay comentarios:

Publicar un comentario