En este post vas a poder encontrar una guía básica de SEO en WordPress

WWW Resolve

vamos a hablar sobre un tema muy importante en lo que respecta a posicionamiento web: la canonicalización de URLs. Empecemos por lo básico: ¿Qué demonios es una URL canónica?
Bueno, la palabra es extraña, pero encierra conceptos importantes. Canonicalización es el proceso de seleccionar la mejor url cuando tenemos varias opciones disponibles, y usualmente se refiere a las páginas de inicio. Un ejemplo práctico, la mayoría de la gente considera estas urls como iguales:

www.ejemplo.com
ejemplo.com/
www.ejemplo.com/index.html
ejemplo.com/index.php

Sin embargo, técnicamente todas estas urls son diferentes. Un servidor web podría fácilmente retornar contenido completamente diferente para cada una de las urls mencionadas. Cuando Google “canonicaliza” una url, nosotros debemos indicarle cual es la url que consideramos como representativa de ese grupo. En pocas palabras, cuando un usuario ingrese cualquiera de esas url, o Google visite nuestra web a través de cualquiera de esas opciones, estos deben ser redireccionados a la url canónica. En el caso de este blog, no importa cual de las direcciones arriba mencionadas ustedes ingresen en sus navegadores, siempre terminarán direccionados a http://ejemplo.com/.
Pero, ¿Cómo me aseguro que Google seleccione la url que yo quiero? Lo que tienen que hacer primero es seleccionar la url que quieren usar y utilizarla de manera consistente en todo su sitio. Por ejemplo, no direccionen la mitad de los enlaces en su web a http://ejemplo.com/ y la otra mitad a http://www.ejemplo.com/. En vez de eso, seleccionen el tipo de url que prefieren y usen siempre ese formato para sus links internos.
Otra cosa que pueden hacer es definir en su servidor web un redireccionamiento a su url preferida, de tal manera que si alguien tipea http://ejemplo.com, sea redireccionado automaticamente a http://www.ejemplo.com/. Esto se hace mediante un redireccionamiento permanente del tipo 301. Esto es muy útil para urls con contenido dinámico como los blogs. El redireccionamiento 301 se puede hacer modificando el archivo .htaccess del servidor, en la raiz de la web, de la manera siguiente:

Insertar CODE, HTML o PHP:

Options +FollowSymlinks
RewriteEngine on
rewritecond %{http_host} ^domain.com [nc]
rewriterule ^(.*)$ http://www.domain.com/$1 [r=301,nc]

El código superior redireccionará todas las solicitudes de “domain.com” a “www.domain.com”, no solo para la página incial sino también para todas las páginas del sitio. Hay muchas otras maneras de realizar este redireccionamiento; para el caso de personas que no tengan acceso FTP a su sitio pueden realizar el redireccionamiento agregando código en formato PHP, ASP, Java, mediante CGI, etc. Pueden ver las distintas maneras de realizar redireccionamientos 301 en esta web.

Finalmente, siempre existen otros casos de urls canónicas que muy pocos webmasters aficionados (e incluso profesionales) no toman en cuenta, como los siguientes, por listar unos cuantos:
la manera en que Google trata las mayúsculas y minúsculas en urls
la eliminación de ID’s de sesión (sobre todo en conocidos sistemas de foros)
Bueno, imagino que a algunos esto les parecerá un poco complicado pero créanme, no lo eso. Eso sí, tengan muchísimo cuidado al realizar este tipo de acciones sobre su web, ya que cualquier error puede incluso provocar que sus webs no sean indexadas adecuadamente por Google.
Finalmente, una ventaja extra de aplicar redireccionamiento 301 a sus webs es que, no importa con que url los enlacen, el valor de los enlaces a su web no se perderá ya que este será simpre redirecionado hacia el formato de url de su preferencia.

URL Limpias

El objetivo de Google consiste en rastrear su sitio con la mayor eficacia posible. Utilizar nuestros recursos para rastrear e indexar páginas con contenido idéntico no resulta eficaz. No solo puede limitar el número de páginas de su sitio que podemos rastrear, sino que la presencia de contenido duplicado en nuestro índice también puede obstaculizar el rendimiento de sus páginas en los resultados de búsqueda. El contenido duplicado suele aparecer cuando los sitios publican el mismo contenido a través de varias URL diferentes (por ejemplo, mediante el uso de ID de sesión o de otros parámetros), como los ejemplos que se indican a continuación:

http://www.example.com/productos/mujeres/vestidos/verde.htmhttp://www.example.com/productos/mujeres?category=vestidos&color=verdehttp://example.com/tienda/índice.php?product_id=32&highlight=verde+vestido&cat_id=1&sessionid=123&affid=431

En este caso, todas estas URL dirigen al mismo contenido: una colección de vestidos de fiesta de color verde.

Cuando Google detecta contenido duplicado como, por ejemplo, variaciones debidas a los parámetros de las URL, reunimos las URL duplicadas en un único grupo y seleccionamos la que consideramos más adecuada como representación del grupo en los resultados de búsqueda. A continuación, consolidamos las propiedades de las URL del grupo como, por ejemplo, la popularidad del enlace, en la URL de representación. Con frecuencia, la consolidación de las propiedades de las URL duplicadas en una única URL de representación proporciona a los usuarios resultados de búsqueda más precisos.

Para mejorar este proceso, le recomendamos que utilice la herramienta de organización de parámetros para proporcionar a Google información sobre cómo organizar URL que contengan parámetros específicos. Aunque haremos todo lo posible por tener esta información en cuenta, es posible que, en algunos casos, las sugerencias proporcionadas ocasionen más perjuicios que beneficios para un sitio.

Por lo general, los parámetros de las URL se pueden incluir en una de las dos categorías siguientes:

Parámetros que no modifican el contenido de la página (por ejemplo, sessionid o affiliateid). Estos parámetros se suelen utilizar para realizar un seguimiento de las visitas y de las páginas de referencia. No afectan al contenido real de la página. Por ejemplo, las siguientes URL dirigen exactamente al mismo contenido:

http://www.example.com/productos/mujeres/vestidos?sessionid=12345http://www.example.com/productos/mujeres/vestidos?sessionid=34567http://www.example.com/productos/mujeres/vestidos?sessionid=34567&source=google.com

Parámetros que modifican o determinan el contenido de una página (por ejemplo, brand, gender, country o sortorder). Por ejemplo, un parámetro puede afectar al contenido de las siguientes formas:
Puede ordenarlo (por ejemplo, sort=price_ascending): permite modificar el orden en el que se muestra el contenido.
Puede restringirlo (por ejemplo, t-shirt_size=XS): permite filtrar el contenido de la página.
Puede especificarlo (por ejemplo, store=mujeres): permite determinar el conjunto de contenido que se muestra en una página.
Puede traducirlo (por ejemplo, lang=fr): permite mostrar una versión traducida del contenido.
Puede paginarlo (por ejemplo, page=2): permite mostrar una página específica de un artículo o de un directorio extensos.
Otros: puede modificar el contenido de formas distintas a las descritas anteriormente.
Le recomendamos que utilice la herramienta de organización de parámetros de URL para indicar a Google la finalidad de los parámetros que utiliza en su sitio y la forma en que debería organizar las URL que los incluyen.

Pueden ver el articulo completo en el sitio de soporte para webmaster de google

robots.txt

Los archivos robots.txt restringen el acceso a un sitio por parte de los robots de motores de búsqueda que rastrean la Web. Estos robots están automatizados y, antes de acceder a las páginas de un sitio, verifican si existe un archivo robots.txt que les impida el acceso a determinadas páginas. Aunque todos los robots acreditados respetan las directivas del archivo robots.txt, algunos pueden interpretarlas de forma diferente. Sin embargo, el archivo robots.txt no es obligatorio y algunos emisores de spam y otros malhechores pueden ignorarlo. Por este motivo, es recomendable proteger la información confidencial con contraseñas.

Para consultar las URL que Google no ha podido rastrear, accede a la página URL bloqueadas de la sección de estado de las Herramientas para webmasters de Google.

El archivo robots.txt solo es necesario si tu sitio incluye contenido que no quieres que los motores de búsqueda indexen. Si vas a permitir la indexación de tu sitio por completo, el archivo robots.txt no es necesario (ni siquiera uno vacío).

Si bien Google no rastreará ni indexará el contenido de las páginas bloqueadas por robots.txt, sí que indexará las URL que encuentre en otras páginas de la Web. Como consecuencia, la URL de la página y otros datos disponibles públicamente, como el texto de anclaje en enlaces que dirigen al sitio o el título de Open Directory Project (www.dmoz.org), podrían aparecer en los resultados de búsqueda de Google.

Para usar un archivo robots.txt, necesitarás tener acceso al directorio raíz de tu dominio (si no estás seguro, consúltalo con tu proveedor de alojamiento web). Si no tienes acceso al directorio raíz de un dominio, puedes restringir el acceso al mismo utilizando la metaetiqueta «robots».

Para impedir que aparezca cualquier contenido de una página en el índice de páginas web de Google, incluso si está vinculado a otros sitios, se puede utilizar una metaetiqueta «noindex» o una etiqueta x-robots-tag. Siempre que Googlebot rastree la página, verá la metaetiqueta «noindex» y no incluirá esa página en el índice de páginas web. La cabecera HTTP «X-Robots-Tag» resulta especialmente útil para limitar la indexación de archivos que no sean HTML, como archivos gráficos y otro tipo de documentos.
Un buen Ejemplo de Robot.txt para WordPress es este:

Insertar CODE, HTML o PHP:

#
# robots.txt para tu blog en WordPress.
#
# Usar bajo propia responsabilidad, que nos conocemos }:)
# http://sigt.net/archivo/robotstxt-para-wordpress.xhtml
#
# Primero el contenido adjunto.
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /wp-includes/
Disallow: /wp-admin/
# También podemos desindexar todo lo que empiece
# por wp-. Es lo mismo que los Disallow de arriba pero
# incluye cosas como wp-rss.php
Disallow: /wp-
#
# Sitemap permitido, búsquedas no.
#
Sitemap: http://tu-web/sitemap.xml
Disallow: /?s=
Disallow: /search
#
# Permitimos el feed general para Google Blogsearch.
#
# Impedimos que permalink/feed/ sea indexado ya que el
# feed con los comentarios suele posicionarse en lugar de
# la entrada y desorienta a los usuarios.
#
# Lo mismo con URLs terminadas en /trackback/ que sólo
# sirven como Trackback URI (y son contenido duplicado).
#
Allow: /feed/$
Disallow: /feed
Disallow: /comments/feed
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$
#
# A partir de aquí es opcional pero recomendado.
#
# Lista de bots que suelen respetar el robots.txt pero rara
# vez hacen un buen uso del sitio y abusan bastante…
# Añadir al gusto del consumidor…
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
#
# Slurp (Yahoo!), Noxtrum y el bot de MSN a veces tienen
# idas de pinza, toca decirles que reduzcan la marcha.
# El valor es en segundos y podéis dejarlo bajo e ir
# subiendo hasta el punto óptimo.
#
User-agent: noxtrumbot
Crawl-delay: 50
User-agent: msnbot
Crawl-delay: 30
User-agent: Slurp
Crawl-delay: 10

XML Mapa del Sitio

Los sitemaps informan a Google acerca de las páginas de su sitio web que no podríamos detectar de otro modo. Los sitemaps XML, que suelen denominarse simplemente «sitemaps», son listas que incluyen las páginas que integran los sitios web. La creación y el envío de un sitemap permite a Google conocer todas las páginas de un sitio, incluidas las URL que los procesos de rastreo habituales de Google podrían no detectar.

El plugin que recomiendo es Google XML Sitemaps, es potente y sencillo.

En este Vídeo podrán ver como instalarlo y configurar lo

[YOUTUBE]xKf928t5agQ[/YOUTUBE]

SEO Content

Título

Es conveniente que su título contenga entre 10 y 70 letras (espacios incluidos)!

Asegúrese de que su título es descriptivo y contiene las palabras claves más importantes.

Asegúrese de que cada página tiene un título único y representativo.

Recursos: Mire está herramienta para comprobar cómo queda su título en los resultados de Google™.

Descripción

La Meta descripción de cada página le permite influenciar en los resultados de los motores de búsqueda.

Su Meta descripción contiene entre 70 y 160 letras, cumple con las mejores prácticas!

Asegúrese de que cada página tiene una Meta descripción única y que contiene las palabras clave más importantes de su página.

Meta keywords

Las Meta keywords ya no son importantes para la optimización de su página, no pierda el tiempo con ellas.

Cabeceras

El contenido mas importante de tu blog es el que está encuadrado entre las tags <title></title>, y el que le sigue en importancia será el que esté entre las tags <h1></h1>. H1 es una tag HTML que significa “Cabecera 1″ (del inglés ‘Header 1′) o “Cabecera Primaria”. De igual modo, H2 siginfica “Cabecera Secundaria”, y así sucesivamente para H3, H4, hasta H6.

Es por esto que los motores de búsqueda miran tus Encabezados para determinar, de un modo rápido, en qeu consiste el contenido de tu blog. Y si no lo asimilas es posible que perjudiques el SEO de tu sitio.

Utiliza H1 solo una vez

Esto es una máxima: utiliza la tag H1 UNA SOLA VEZ en cualquier página. No existe algo llamado “Cabeceras Primarias”, solo “Cabecera Primaria”. Tener varios H1 en la misma página afectará negativamente al SEO de tu blog.

Esto es especialmente importante si tienes tu título o logo (con el método de remplazar tu título con una imágen) con tags H1. Vamos, que si el título de tu blog ya tiene H1 y el título de tu post también tiene H1 ¿cual es la cabecera principal?

El contenido de TITLE y H1 debe coincidir

Aunque en realidad no es necesario, tiene sentido que si has estructurado tu TITLE con las palabras clave adecuadas para tu blog, poner doble énfasis en lo mismo que tienes ya en TITLE, también en H1 servirá para indicar a los motores de búsqueda que tu contenido es importante.

H2 es para las Cabeceras secundarias

Y si puedes tener varias cabeceras secundarias. De hecho en este mismo artículo tienes varios H2. También es interesante que tus cabeceras H2 ofrezcan palabras clave pero no abuses, la “entrega” de keywords debe ser en escala, sin demasiada reiteración.

Barras laterales y la tag H2

No se si te has dado cuenta, pero WordPress utiliza H2 por defecto para los títulos de los Widgets. Esto es totalmente contraproducente para la semántica de tu blog, para disponer de una estructura sensata, además de confundir a los buscadores ¿Tan importante es el contenido de tu barra lateral?, ¿crees que debe tener el mismo peso que los títulos de tus posts?. Supongo que estarás de acuerdo conmigo en que no.

El Resto de Cabeceras

Desde H3 a H6 es solo cuestión de que pienses en la relevancia de tu contenido a la hora de aplicarle la tag adecuada. Por ejemplo, podrías usar H3 para los títulos de la barra lateral y los widgets, pero si consideras utilizar muchos H3 en tu contenido, y quieres que tenga mas relevancia que los widgets entonces sería buena idea usar H4 en la barra lateral. Ya es algo con lo que debes experimentar.

Imágenes y el ALT

(ALT text, texto secundario). Atributo HTML que provee un texto alternativo a elementos no textuales -generalmente imágenes- que aparece cuando estos elementos no pueden ser mostrados.

También el texto ALT aparece en un pequeño cuadro cuando el mouse se posa sobre el elemento (la imagen) unos segundos.

El texto alternativo es útil para:

* Proveer más detalles acerca de la imagen o el destino de una imagen que tiene un hipervínculo.

* Permitir y mejorar la accesibilidad a una página web para personas con determinadas discapacidades.

* Proveer más información sobre la imagen para que los buscadores sepan de qué trata la misma.

* Proveer información a aquellos usuarios que navegan sin ver los gráficos web o que utilizan navegadores de sólo texto.

Para el manejo automático de los ALT, recomiendo este plugin SEO Friendly Images

Social Monitoring

El impacto que tienen los Medios Sociales es enorme para ciertas páginas Web. Monitorizar lo que la gente dice sobre su página web en los Medios Sociales y optimiza el impacto publicando en su pagina lo que se comento en las redes sociales.

Para muchas personas, independientemente de su conocimiento o recursos, monitorizar su propia reputación en las redes sociales se ha vuelto una tarea imprescindible para competir en el mercado. Estamos hablando, por supuesto, del conjunto de actividades a las que normalmente se les pone la etiqueta de “Social Media Monitoring” (SMM).

O sea el seguimiento de los diversos contenidos en blogs, wikis, microblogs, redes sociales, videos o páginas web para determinar el volumen de la conversación y la orientación del sentimiento en torno a una marca o un producto.

A continuación presentamos una pequeña muestra de herramientas gratuitas, que nos servirán mucho.

1. Twitter Advanced Search – Permite la busqueda en Twitter con operadores de lógica booleana simple. Realiza búsquedas muy potentes. Una vez configurada la búsqueda, permite guardar la consulta como feed RSS.

2. Social Mention – Realiza busquedas bastante completas y presenta los resultados con una combinación de fácil lectura que incluye reach, sentiment analysis, y volumen de la conversación. Sociales Mención rastrea los blogs, los comentarios de los blogs, Twitter, noticias, imágenes, vídeo y audio. Las búsquedas se pueden guardar también como un feed RSS.

3. Addict-o-matic – Permite realizar busquedas multiplataforma (blogs, microblogs, videos, fotos, noticias, buscadores, etc.). La información se recoge en una sóla página de resultados bastante bien estructurada.

4. BlogPulse – Es una herramienta de Nielsen que permite medir tendencias en los blogs. Se basa en el procesamiento del lenguaje natural y realiza análisis e informes sobre la actividad diaria en la blogosfera relacionada con nuestra busqueda.

5. Howsociable – Ofrece una manera sencilla para empezar a medir la visibilidad de cualquier marca en el social media. Presenta los resultados del rastreo en el formato de 27 puntuaciones o rankings (4 de Facebook, 2 de Myspace, 2 de Youtube, 3 de Google + Friendfeed, Xing, Yahoo, y muchos más).