Mostrando entradas con la etiqueta Optimización en buscadores (SEO). Mostrar todas las entradas
Mostrando entradas con la etiqueta Optimización en buscadores (SEO). Mostrar todas las entradas

Los 'esquemas de redes sociales' o porque no te conviene seguir a todos tus seguidores

El concepto de esquema de redes sociales es algo que nunca se había oído de boca de Google. Es uno de los puntos que incluye Bing en sus directrices para webmasters y que sin duda han desarrollada para mejorar el funcionamiento de su barra social.

Sin que tal vez nos demos cuenta, Google también podría estar pensando en hacerlo en su red social, considerándolo como un tipo de esquema de enlace. Bing hace referencia a él explícitamente. Según explican, poniendo a Twitter de ejemplo; el que te siga más gente no indica que tengas una influencia mayor. El que sigas a pocas personas mientras un número mayor de ellas te siguen, indica una influencia mucho más grande.

Bing contra las granjas de likes y los auto-seguimientos 

Las granjas de "likes" o farm likes, como se las conoce en inglés -aquí una comparativa-, son servicios de terceros similares a las granjas de enlaces, en el sentido en que se busca modificar artificialmente un algoritmo mediante un efecto de red.

Imagen de autor desconocido

Por otro lado, las herramientas de auto-seguimiento que fomentan el crecimiento de seguidores en las redes sociales -actualmente Bing busca en Twitter, Facebook y Pinterest- y que funcionan siguiendo automáticamente a cualquiera que te siga, también crea un efecto de red que Bing clasifica entre otros como práctica a evitar.

Evidentemente esto también lo puedes hacer tú sin mala intención. ¿Quién no ha seguido alguna vez a alguien para ver si le devolvía el seguimiento? Seguro que muchas personas crearon su red de este modo.

Esto lleva a que, pasado el tiempo, el número de seguidores y seguidos se iguala, y para Bing esto no indica que se tenga una gran influencia. Sin embargo, si en tu cuenta sigues a 100 personas mientras 4000 te siguen, Bing empezará a mirarte como una "influyente y fuerte voz".

No es la única práctica a evitar en Bing. Tenéis una explicación mucho más extendida y unos gráficos para que véais como Bing puede detectar estas herramientas y comportamientos en el blog de webmasters de Bing.

Así que seguir a todo el mundo, y mucho peor seguir a personas aleatoriamente sólo para intentar que te sigan, puede ir en contra tuya. Al menos a ojos de Bing y posiblemente en otros buscadores sociales.

Cómo saber si nuestro blog está completamente indexado en Bing

Bing es el más reciente buscador lanzado por Microsoft. Es un motor muy potente a pesar haber sido lanzado en 2009 y tiene muchas características similares a las de Google; desde las herramientas para webmasters, a la búsqueda de imágenes y documentos. Pero si algo lo hace distinto son los resultados sociales.

Aparecer en los resultados de búsqueda de Bing no nos arrojará un chorro de visitantes nuevos, sin embargo estar bien indexado y clasificado en este sitio es importante para constar en otros sitios como otros buscadores y dispositivos diferentes.

Cómo conocer que páginas de nuestro blog están en Bing

Para saber rápidamente si nuestro blog está completamente indexado en Bing hacemos exactamente lo mismo que en Google; usar el comando site.

Pero antes, sobre todo si tienes un sitio de adultos, configura Bing para que desactive la búsqueda segura y no filtre el contenido.

Desactivar el filtro para adultos

Ahora ya podemos dirigirnos a bing.com y hacer una búsqueda de todas nuestras páginas en el dominio de nuestro blog. Por ejemplo: "site:http://exprimiblog.blogspot.com".


El número de resultados que obtengas debería ser ligeramente superior al número de entradas que tengas publicadas. Las páginas restantes pueden ser la portada, páginas de categoría y archivo, etc.

Si no aparecen todas tus entradas tu sitio no está correctamente indexado en Bing.

Cómo enviar tu sitio a Bing si todavía no lo está

Una de las principales vías para que nuestro sitio sea incluido en los resultados de Bing es que existan enlaces a tu blog desde otros sitios incluidos en Bing. El otro modo de hacerlo es enviándolo tú mismo a través de la herramienta Enviar tu sitio a Bing.

Pero para asegurarnos de que todo nuestro blog conste en Bing deberemos enviar el sitemap completo. Con el sitemap, los buscadores puedes conocer cuales son todas las páginas de tu sitio de una manera impecable. Hay varios métodos para enviar el sitemap a Bing:

  • Dejando constancia de él en el archivo robots.txt. Tardará el tiempo que Bingbot -el robot de Bing- acceda a tu sitio y tarde en registrar todas las páginas. En mi caso tuvo que ser este como Bing pudo dar con todo mi sitio en tan poco tiempo que tiene y sin enlaces hacia él.
  • Iniciando sesión en las herramientas para webmasters de Bing y dando tu sitio de alta. En el panel de tu sitio ve a Configurar mi sitio -> Mapas del sitio. Desde ahí puedes añadir los sitemaps y además conocer como va el progreso y conocer si hay advertencias o errores.
  • Si tienes tu blog en tu propio servidor basado en Windows puedes usar el recien lanzado Bing Sitemap Plugin, el cuál es de código abierto.

Recomiendo darse de alta en las herramientas para webmasters de Bing, están en castellano y son realmente muy completas, pudiendo manejar enlaces profundos, ignorar parámetro de URL, controlar el robot de Bing, repudiar enlaces y tener acceso a muchas más opciones.

Esto mismo se puede aplicar a Google y otros buscadores.

La proporción de texto sobre HTML o "Text-to-HTML Ratio"

La proporción de texto a HTML se refiere a la cantidad de texto que tiene un sitio web frente a la cantidad de código que utiliza para mostrarla. No hay un número mágico o la relación media, ya que cada sitio web tiene texto diferente y requisitos del código.

En términos muy generales, una "buena" relación es tener entre 25 y 70 por ciento de tu página como texto. Esto significa que el código HTML está probablemente bien desarrollado y el contenido de tu página no está hinchado con contenido spam o relleno de palabras clave.

Realmente en Blogger y otros sitios es más complicado porque tenemos un montón de código que nosotros no hemos puesto y seguramente nunca llegaremos a usar. Algunas páginas de este blog tienen un 15%, lo que estaría mal considerado -pero no tiene que ser motivo de preocupación-.


 Los indexadores extraen mágicamente el corazón, que representa la conciencia y moralidad (el código) y lo depositabn en uno de los dos platillos de la balanza. Este es contrapesado con la pluma de Maat, símbolo de la verdad y la justicia universal (el texto de tu web), situada en el otro platillo. ...O por lo menos en el antiguo Egipto.

Entendiendo la proporción

Tu relación texto HTML estará muchas veces sesgada hacia una mayor proporción de HTML, ya que tu blog tiene una cierta cantidad de código para crear un sitio web funcional y válido, incluso para varios navegadores diferenetes. La relación se refiere a cada página en tu sitio web, y no la totalidad del sitio web.

Puedes utilizar algunos servicios para comprobar su tasa de página, tales cómo:
  • DevSEO's ratio check: Simplemente copiáis la dirección de alguna de las páginas de vuestro blog en el primer recuadro. El siguiente es más interesante...
  • Bookmarklet de SitePoint's DOM Monster: Arrastráis el enlace que pone DOM Monster a vuestra barra de marcadores, vais a una las páginas de vuestro blog y pulsáis dicho marcador recién creado (el valor sale cómo proporción a la izquierda)

Porque reducir el código

Aunque nunca se debe quitar el código que trae funcionalidades y el diseño del sitio web, debemos diseñar páginas y blogs que utilicen el mínimo código necesario para que funcione, tanto como sea posible. Al utilizar el mínimo de código, se crea una página con velocidades de carga superiores.

No sólo el código que tengamos en la plantilla de nuestro blog afecta, también tenemos que reducir la vinculación a archivos externos de JavaScript y CSS. Aunque no estén en la plantilla, sí se cargan a la hora de formar la web en pantalla.

Ten en cuenta que existen 2 códigos; el de tu plantilla (XHTML) y el de la página una vez cargada (HTML). Asegúrate siempre de que el código que utilices sea válido. Si no tienes mucha idea de cómo funciona la plantilla de Blogger es mejor no tocarla. Próximamente seguramente publique alguna entrada para explicar cómo hacerlo con seguridad y si realmente interesa.

Otros elementos 

No se puede contar sólo con la proporción texto a HTML exclusivamente al evaluar el contenido de tu sitio web, ya que otros factores pueden sesgar la proporción lo que hace parecer que tiene mucho más código que contenido. Ejemplos de esto son las imágenes, videos y flash. Aunque debes usar estos elementos dentro de tu contenido para transmitir tu mensaje, debes tener presente la proporción para corregir este equilibrio y tus entradas no sólo se registren como código.

En cuanto a como afecta al SEO

Puede ser que hayas oído en alguna parte que una página con más texto que HTML estará mejor clasificación en los motores de búsqueda, pero en realidad no hay ningún hecho para respaldar esta afirmación.

Hay quien asegura que en los en motores de búsqueda, si una página es más grande de 100 kilbytes, todo lo demás se ignora (aunque yo lo dudo y mucho). Al mantener el código limpio y válido, se reduce la cantidad de código y por lo tanto el tamaño de la página. Lo que es más probable que ayude a una página a hacer bien el trabajo de los motores de búsqueda para asegurar que el contenido de la página está limpio, original y finalmente relevante.


Me he inspirado en este otro artículo: www.ehow.com

El archivo robots.txt ideal para tu blog de Blogger


Usa el archivo robots.txt con cuidado, si no estás seguro de lo que haces o de si lo necesitas, te recomiendo no usarlo. Si tienes dudas puedes preguntar, pero antes revisa los otros comentarios.

Entre las opciones de Blogger hay una que pasa muy desapercibida pero que tiene una importancia "vital" para una buena estrategia a largo plazo y a corto para el SEO. Se trata del archivo robots.txt personalizado.

Ni tan personalizado ni para este tipo de robot

El archivo robots.txt es un fichero de texto que los rastreadores "honrados" de la web visitan antes de analizar tu sitio. Lo hacen para conocer las directrices para el indexado (inclusión en el índice), entre otras cosas, que le indiques. Estos robots son de buscadores cómo Yahoo, Google o Bing, pero también los de anuncios cómo Adsense, e imágenes cómo Google Images.

¿Por qué debemos añadir un archivo robots.txt personalizado?


Con el archivo robots.txt personalizado podemos indicar los buscadores, directivas para que indexen o no, determinado contenido. Lo más usual sería retirar las páginas o entradas que podrían perjudicar nuestro posicionamiento.

Paralelamente; en los blogs, y muchos otros formatos de web, tenemos un problema por el contenido duplicado que se genera cuando incluimos las entradas en secciones por etiquetas (directorio search en Blogger) o simplemente se almacenan en el archivo por periodos de tiempo (directorio archive en Blogger). Los rastreadores encuentran el mismo contenido con diferentes direcciones, y en algunos casos, como el de Google, nos puede acusar de un problema que, por desconocimiento -y falta de información precisa-, hemos generado.

Para solucionar el problema del contenido duplicado que se genera al tener el mismo contenido en diferentes direcciones el archivo robots.txt, tiene (en parte) la solución; impedir que los rastreadores incluyan en el índice de resultados de sus buscadores las direcciones a las páginas de etiquetas y archivo.

No es una medida efectiva al 100% porque seguirán existiendo enlaces que apunten a las direcciones que queremos bloquear; unos en nuestro blog -que podemos cambiar o añadir el atributo nofollow- y otros fuera de él.

Si no me equivoco en breve se acerca una novedad a Blogger que si lo permitirá, mientras, podemos y debemos usar las etiquetas de encabezado de robots personalizadas que nos permitiran retirar todo este contenido duplicado generado por Blogger.

El archivo ideal y cómo añadirlo en Blogger

Este archivo ha sido actualizado en junio de 2016 y agosto de 2017.

Es muy sencillo de hacer en Blogger. Para ello copiamos el siguiente texto y lo pegamos en la sección de Blogger dedicada a ello (Configuración -> Preferencias para motores de búsqueda -> Archivo robots.txt personalizado -> Editar):

# Archivo robots.txt personalizado | Exprimiblog. 
User-agent: Mediapartners-Google  # Sólo para el robot de Adsense
Disallow: # Al robot de Adsense le dejamos rastrear todas las páginas 
User-agent: * # Todos los rastreadores se dan por aludidos.
# Disallow: /*? # Bloquea URLs que incluyan signo de interrogación (anulado)
Disallow: /*archive/ # Bloquea los directorios que acaben por archive    
# Incluimos la dirección del sitemap xml para entradas y páginas
Sitemap: http://**tublog**.blogspot.com/sitemap-pages.xml
Sitemap: http://**tublog**.blogspot.com/sitemap.xml

Puedes copiar el código desde aquí. La quinta linea de texto está totalmente anulada (con #), te explico el motivo aquí.

Al bloquear las URLs que contienen al menos un signo de interrogación estamos bloqueando por ejemplo las páginas con plantillas móviles de blogger, ya que están termina en ?m=1. Esto no significa que las personas no accedan a ellas normalmente, sólo que los robots no las incluirán en los índices, y esto es lo correcto pues no tienen un contenido diferente al original.

Todo lo que va después del # es un comentario, hasta el salto de línea así que los rastreadores no le harán caso.

Ten en cuenta que cuando copias texto de este blog se añade una línea al final con un enlace al mismo. Bórrala después de copiarla.

Sustituye **tublog**.blogspot.com por el nombre de tu blog. Esto incluirá el sitemap completo de tu sitio (el primero las entradas y el segundo las páginas), independientemente del número de entradas publicadas, no como antes.

Como verás, hay un sitemap para las entradas y otro más nuevo para las páginas. Si no desees que tus páginas se indexen pueden no incluirlo, pero se indexarán igual. Para evitar que algunas páginas sean vistas desde Google, solamente usa las cabeceras de robots personalizadas.


Esto ya está obsoleto y no es necesario añadirlo:

Si tienes más de 500 entradas, o tienes previsto alcanzarlas, agrega algunas de estas -o más, pero fíjate en la correlación de números- líneas para tu sitemap XML, aquí tienes la explicación de porque hay que hacerlo así:


Sitemap: http://**tublog**.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=150
Sitemap: http://**tublog**.blogspot.com/atom.xml?redirect=false&start-index=151&max-results=150
Sitemap: http://**tublog**.blogspot.com/atom.xml?redirect=false&start-index=301&max-results=150
Sitemap: http://**tublog**.blogspot.com/atom.xml?redirect=false&start-index=451&max-results=150


Listo, la próxima vez que el robot de Google pase por tu sitio ya no tendrás más problemas con el contenido duplicado que aparece en las páginas de categorías ni archivo. Recuerda que puede crear tantas categorías cómo Blogger te permita.

Por supuesto, hay muchas más formas de configurar tu archivo robots.txt. Además de este archivo es recomendable entender el uso correcto del atributo nofollow.

Bing se relanza con nuevas e importantes características en su barra social

Ahora que ya sabemos que el buscador de Facebook deriva a Bing cuando los resultados sociales no son suficientes para el usuario que hace la búsqueda y conocemos los puntos clave si eres blogger, debemos saber que hay algo más:




¿Que obtiene Bing de Facebook? Microsoft está explotando la única cosa que Google no puede tener completamente en sus manos, los datos de Facebook y su integración en el buscador. Si bien el buscador de Microsoft ya venía ofreciendo unos mínimos datos sociales de Facebook entre los resultados de las búsquedas de algunos usuarios. Ahora Bing ha anunciado un nuevo nivel de integración en la que se puede interactuar con nuestros amigos de Facebook directamente en los resultados de búsqueda.

Se añaden más contenido e interacción a la Social Sidebar

Danny de Search Engine Land explica las nuevas características de los resultados sociales de Bing. Resumiendo; Bing ha anunciado que han añadido cinco veces más contenido de Facebook a la barra de Bing Social:
  1. Actualizaciones de estado
  2. Enlaces compartidos
  3. Comentarios
  4. Fotos de amigos
Las recomendaciones se muestran sobre los propios resultados pero de una manera diferente, más adelante los vemos.

Los componentes de la barra social la hacen única

Desde el propio buscador podrás preguntar y comentar los resultados ofrecidos desde la sidebar. Esta es la parte con cambios más significativos; a su vez se divide en:
  1. Pregunte a sus amigos: Prmite preguntar a todos tus amigos a la vez.
  2. Amigos que pueda saber: Al pasar el ratón por encima de cualquier individuo, puedo aprender más acerca de por qué se proponen
  3. Personas que saben: Hace una búsqueda más profunda sugeriéndote personas que no son tus contactos de Facebook y tampoco tienen porque ser sólo de esa red social, también pueden ser de Twitter, por lo menos que se sepa.
  4. Actividad RSS: Sobre tu actividad de la sidebar, cómo preguntas de tus amigos en el mismo sitio.

Me gustaría destacar la sección "personas que saben" porque ahí es el único sitio en donde los bloggers podremos tener la posibilidad de aparecer. Todavía no sé mucho más sobre ella (sé que además de en Facebook también busca en Twitter), y además seguramente sufra algunos cambios. Estaremos atentos a ella.

Una vista más clara y social de los resultados de búsqueda

De modo similar, las búsquedas también se han hecho más sociales aunque han variado respecto a la anterior tendencia. Ya no se señalan los amigos que han hecho me gusta en determinado contenido, sino que en determinados contenidos se muestra una flecha que indica que es tendencia en twitter y una mano con el dedo pulgar hacia arriba que significa que ha sido recomendado por contactos.


¿Tal vez haya que reconsiderar a Microsoft entre la batalla de los más grandes? ¿Qué tal, te ha parecido útil el artículo? ¿Añadirías o modificarías algo?

Lo que tienes que saber sobre Graph Search de Facebook si eres blogger

Finalmente el secreto del año de Mark Zuckerberg resultó ser un buscador. Concretamente, un buscador social, diseñado para ser utilizado dentro de Facebook. Se llama Graph Search y su objetivo es dar resultados personalizados basados en la información compartida por los más de 1.000 millones de usuarios de la red social.


No se trata de un buscador web "convencional" cómo Google; pero sí competirá con este de forma indirecta en las búsquedas web. Cuando se haga una búsqueda dentro de su red y no haya información social relevante el buscador ofrecerá la posibilidad de buscar páginas web a través de Bing.

Zuckerberg no cree que la gente empiece a usar Facebook para hacer búsquedas en la web, pero el hecho es que ofrecer a sus usuarios una respuesta a las búsquedas, a través de Bing, sin salir de la red podría hacer que mucha, mucha gente, decida no salir de ella para hacer sus búsquedas.

Estas son las claves a tener en cuenta de Graph Search cómo blogger

Si tienes un blog, además de los aspectos que afectan a los usarios, también te podría interesar conocer los que afectan a tu contenido y algún consejo extra.

  • Graph Search podría llevar más tráfico a tu blog: Pero sólo si no hay contenido social destacado para el usuario que hace la búsqueda, y sólo si tu contenido está indexado en Bing. Puedes registrarte en las Herramientas para webmasters de Bing o simplemente enviar tu sitio a Bing. El SEO para Bing no es nada especial. Intenta hacer las cosas bien o se resentirá tu relación con Google.
  • Haz que tu contenido se publique en Facebook; Es mejor publicarlas "a mano", es decir; sin usar herramientas externas. Cuantos más enlaces haya a tus entradas mejor, para que puedan constar en los resultados de búsqueda de Graph Search. Además deberás asegurarte mejorar constantemente tu EdgeRank; este es el motivo porque el que es mejor publicarlas a mano que usar una herramienta externa. Aunque cualquier método es válido.
  • Si no tienes una página de tu blog en Facebook publica el contenido de tu blog cómo "público". De otra manera sólo tus contactos lo encontrarán en las búsquedas de Graph Search. Si quieres patrocinar tu contenido puedes hacerlo libremente en nuestro grupo Bloggers del Mundo.
  • El conveniente etiquetado del contenido es fundamental: Asegúrate de aportar información útil para los usuarios en tus perfiles de Facebook. Si has publicado material cómo fotos o vídeo añade más información sobre estos en la descripción y una localización si es preciso. Ahora nada está de más.

Graph Search está diseñado para dar respuestas, no enlaces que podrían llevarte a la respuesta”, aseguró Mark Zuckerberg. Las búsquedas en Graph Search se hacen con frases naturales (“¿a quién conozco en Vigo?”) y en varias categorías (personas, lugares, fotos…) ofreciéndose los resultados según los datos obtenidos en Facebook, únicos para cada persona. En donde no haya respuesta ahí intentaremos estar nosotros.

Podéis acceder a Graph Search desde aquí. ¿Creéis que hay algo importante de lo que me haya olvidado? ¿Qué pensáis de Graph Search?

¿Qué es mejor: Construir uno o varios sitios?

Seguro que muchas veces nos hemos preguntado qué es mejor, ¿crear un blog con varios temas aunque diferentes o construir varios blogs más específicos?

Foto de Asiandevelopmenbanck

John Mueller que trabaja en Google y suele de visitar y responder a las cuestiones de los usuarios del foro para webmasters de Google, respondió a una pregunta similar a del titular de este modo:

"Me gustaría recomendar centrarse en un único sitio web, en lugar de esta colección de sitios (...). En particular, me gustaría que os asegurareis de que vuestro sitio web sólo es de la mejor calidad posible, que contenga contenido único (no reescrito, redireccionado ni reprocesado),  que sea relevante para los usuarios del sitio y de "peso" para ellos.  
No mantener una colección de sitios de baja calidad, es realmente mucho mejor en general centrarse en hacer un sólo sitio fantástico en un sólo lugar.

Incluso llegó a decir lo mismo con los sitios específicos para la localización:

Centrarse en un único sitio web hace que sea mucho más fácil para nuestros algoritmos comprender tu sitio, los servicios que estás ofreciendo, y a que diferentes regiones lo ofreces. La división de sitios separados para cada ubicación diferente, hace que sólo sea más difícil de entender para nuestros algoritmos, sino también para los usuarios. 
¿Te imaginas que la oficina de correos hiciese eso? Sería difícil encontrar lo que usted necesita y que sea confuso para el usuario.


Así que si tienes en mente o ya estás practicando una estrategia con varios sitios diferentes, asegúrate de que puedes ofrecer la calidad suficiente para todos ellos. Puedes ver la discusión aquí. Visto en: seroundtable.com

Por qué no te compensa contabilizar tus visitas

Aunque para muchos ya es de sobra entendido que más visitas no significa directamente mayor relevancia en Google, parece que hay gente que, tal vez por por metas personales, crean que cuantas más visitas tengan mejor será para su blog.

Azul
No querrás que tu blog acabe vagando él sólo. cómo este globo,

Realmente lo más probable sea que surta el efecto contrario; y es que si muchas de tus visitas duran poco tiempo en la página y abandonan esta a los pocos segundos es porque lo que se encontraron no era de su utilidad. Este puede ser un claro signo para Google, y otros buscadores, de que tus páginas no son interesantes para los visitantes, relegándolas puestos abajo en los resultados de futuras búsquedas.

Por eso -y porque no necesitas "engañarte" con número inflados que aumenten la estima por tu blog-, es importante no permitir que nuestra plataforma para blogs haga un seguimiento de nuestras visitas (en Blogger se hace desde las mismas estadísticas). Pensad que muchas de las visitas que hacemos a nuestras páginas son para pruebas que analizamos rápidamente con una visual.

Haciendo esto nuestras media de permanencia en el sitio disminuye, aumentado el porcentaje de rebote, dejando que las páginas de la competencia aparenten más relevantes para los usuarios.

Así que por si no lo sabíais; inflar las estadísticas del blog con vuestras visitas va contra vosotros. Si queréis aumentar las visitas darle un motivo a la gente para que lo haga. Podéis empezar por detectar las necesidades de vuestros visitantes.

Qué no hacer en SEO

Dominios sombra, páginas puerta, enlaces y texto oculto, envío de consultas automáticas a Google, encubrimiento y redireccionamientos elusivos son cosas que los bloggers honrados no solemos hacer. Sin embargo, no hace falta ser un experto en SEO ni un hacker para ser penalizado por Google.

"Ola k no aser en SEO"

Todos nos creemos ser suficientemente "legales" con las directrices de webmasters de Google, pero en ocasiones hay pequeño detalles que se nos escapan, en esta ocasión intento exponer los más comunes:

  • Intercambiar o crear enlaces indiscriminadamente: La antigua técnica del intercambio de enlaces no sólo ha perdido gran parte del valor que nos habían inculcado. Tener enlaces que apunten a tu blog desde sitios de otras temáticas o sin relación con nuestro blog es totalmente contraproducente. Recientemente Google acuñó el término participación en esquemas de enlaces que viene a significar el engaño a los motores de búsqueda con enlaces artificiales. De forma similar, los enlaces que no se incluyen en el cuerpo de las entradas apenas tienen valor.  Si necesitas desautorizar enlaces que no puedes retirar aquí tienes la herramienta de Google.
  • Pasarse de la raya con la optimización: Es decir, es uso excesivo de la optimización. Si en títulos, descripciones y similares se usan varias palabras similares que no aportan nada al usuario y descaradamente están escritas para los buscadores, Google la puede considerar sobre-optimizada y rebajar la posición cómo penalización durante mucho tiempo. Uno de los factores más desatendidos creo que es la densidad de palabras clave.
  • Copiar y duplicar contenido tuyo o de otros: Tener el mismo contenido que ofrecen otras páginas, sin alteraciones, o simplemente traduciendo el texto para incorporarlo a nuestro sitio es una mala práctica para Google. Si ese mismo contenido ya está publicado en otro sitio ¿porque no incluir tu propia observación sobre el asunto y un enlace junto con más información?. Para este y muchos otros casos es muy aconsejable usar el atributo canonical.
  • Desatender los factores que afectan a los enlaces: Si queremos hacer algo de SEO, tanto dentro de nuestra página, cómo fuera de ellas, tenemos que conocer cómo los enlaces se ven afectados por varios factores. No son pocos pero uno de los que más ha cobrado importancia tras las últimas actualizaciones del algoritmo de Google, es el texto ancla, sobre todo la inconcordancia entre los demás enlaces que apunten a un mismo sitio. Revisa aquí los factores que afectan al texto ancla.
  • Engañar a los buscadores o a los usuarios (o a ti mismo): Esto no solemos hacerlo pero si conocemos las prácticas puede ser una tentación. El contenido generado automáticamente, carga de páginas con palabras clave irrelevantes, creación de páginas de comportamiento malicioso, uso inadecuado de marcas de fragmentos enriquecidos. Convertir tu blog en un extracto de la Wikipedia también podría considerarse engaño. En cuanto a lo de engañarse a uno mismo...
  • Enviar tu sitio a miles de buscadores y directorios. Hay aplicaciones de pago que lo hacen automáticamente. Google sólo es uno de tantos buscadores y posiblemente traiga entre el 50 y el 90% del tráfico de tu sitio. Aunque no en muchos, sí te recomiendo darte sólo de alta en los más populares y poco a poco a razón de un puñado por día. También puedes buscar directorios temáticos acordes con tu blog.

Evitando estas prácticas y publicando contenido regularmente, junto con una buena redacción de las entradas, si no nos faltan las ideas nuestro blog tendrá grandes posibilidades de triunfar ahora o en el futuro.

Cómo añadir el atributo canonical a Blogger

Desde que Blogger implementó el ccLTD, el servicio por el cuál se nos redirige a un dominio de país cuando visitamos un blog con el dominio gratuito blogspot.com, los que tenemos dominios gratuitos sufrimos (en realidad no mucho) el contenido duplicado que se genera.

Una solución es ecribir al final de la dirección el añadido /ncr, por ejemplo tublog.blogspot.com/ncr, para que las visitas vayan a la dirección original, terminada en cualquier caso en .com. Pero este problema vuelve a aparecer cuando los usuarios continúan navegando o simplmente llegan desde los buscadores y cualquier otro sitio.


Aún así se puede solventar con este práctico script que tal vez sea más recomendable, ya que evitamos que la gente y servicios automáticos nos enlacen con una dirección que es redireccionada, y que por tanto pierde parte del valor -o Pagerank-.

Pero hay otra "solución en parte" para, por ejemplo; no perder posicionamiento por el contenido duplicado que se genera por cada país. Se trata de agregar el atributo rel="canonical" a nuestras páginas.

Una página canónica es la versión preferida de un conjunto de páginas de contenido muy similar. Agregando a las páginas similares un atributo que indique cuál es la preferida o canónica de ellas hacemos que los buscadores sepan cuál es la página importante indicada por nosotros mismos.


Para ello, inserta este código, antes de la sección de cierre </head> en la plantilla de tu blog de Bloggger:

<b:include data='blog' name='all-head-content'/>

Con estas etiquetas estaremos incorporando el atributo canonical a todas las entradas hacia la original, automáticamente. Si no quieres añadir esta etiqueta por alguna razón, puede usar la siguiente:

<link expr:href="data:blog.canonicalUrl" rel="canonical"/>

Con "data:blog.canonicalUrl" obtenemos automáticamente la dirección canónica de tu blog (blogspot.com), no necesitas cambiar nada.

Si tienes más interés por usar el atributo canonical fuera de Blogger puedes ver los 5 errores más comunes de uso de este atributo.


Una vez agregado el atributo canonical, los motores de búsqueda sólo incluirán en su índice una página en lugar de crear contenido duplicado. Tal vez en Google no sea del todo necesario (no lo sé), pero no está de más, teniendo en cuenta que otras buscadores cómo Bing y Yahoo también la aceptan.

Nunca volverás a saber a través de que palabras en Google llegaron las visitas a tus páginas


El año pasado Google anunciaba un cambio que implica que todas las búsquedas realizadas en Google con la sesión de usuario iniciada (incluyendo Gmail, Analytics o cualquier otro servicio de Google que requiera autenticación) fueran encriptadas como "medida de privacidad", esa información no se suministra a Analytics ni a cualquier otra herramienta de análisis de tráfico web.

Fotografía del póster de la película de Alfred...
Foto: Wikipedia

A partir de entonces cualquier búsqueda realizada desde estos servicios con una cuenta de usuario iniciada irá a parar al cajón del tráfico "not provided", desconociendo así por nuestra parte la cadena de búsqueda con la que el usuario llegó a nuestro sitio.

Más recientemente, Google volvió a anunciar en su blog oficial que expandía la encriptación de las búsquedas con sesión la sesión de usuario activada en los dominios locales (por países) de Google.

Y hoy mismo tenemos noticias desde el blog de Ricardo Tayar sobre el nuevo paso de Google hacia la encriptación total de las búsquedas de sus usuarios hayan iniciado sesión o no, e incluso en el modo incógnito.


Cuando buscáis los términos de búsqueda dentro del tráfico orgánico de Google,
con toda probabilidad, el (not provided) se lleve la palma. Ahora se llevará TODO.


Explicación sencilla: Ya no sabremos nunca más a través de que términos de búsqueda llegaron los usuarios a nuestro sitio. Cómo bien lo dicen en seoblog; esto es no es lógico, ya que si pagas en adwords; sí que puedes ver las palabras cuyas búsquedas llevaron a los usuarios a tus sitios. "Así que paga si quieres mirar"...

Tanto en Analytics cómo en Herramientas para webmasters seguiréis viendo palabras de búsqueda, pero supongo que serán de otros buscadores y herramientas, ya que el script de Analytics sigue registrando todas las visitas a vuestros blog.

Aún así, cómo me gusta aportar soluciones, deciros que hay una forma de poder conocer de manera parcial estos términos sin pagar, lo tenéis en este estupendo sitio: periodistas-seo.

Un tweet para saber cuales son los enlaces por los que Google penalizó o podría penalizar tu sitio

Los nuevos algoritmos y actualizaciones que Google ha introducido (Panda, Pinguin, etc), han traído por el camino de la amargura a muchos bloggers, que han visto como todo su esfuerzo en crear enlaces desde otros sitios se ha vuelto ahora contra ellos.

¿Crees que tienes enlaces tóxicos? Si piensas que Google te ha penalizado porque considera que existen páginas que incluyen enlaces artificiales o de pago hacía tu sitio, lo mejor que puedes hacer es pedir que eliminen esos enlaces.


Blogger incorpora ahora una herramienta para desautorizar enlaces entrantes. No es una solución ideal ni mucho menos, pero se puede salir de una penalización. Son conocidos los casos de gente que aún habiéndose "deshecho" de todos los enlaces, Google sigue penalizando el sitio que no probablemente nunca recupere las posiciones originales.

Bueno, lo que pretendo enseñaros hoy es una herramienta que podéis probar gratis (a cambio de un tweet) o registrándoos por sólo 1 dólar. Link Detox se integra con la herramienta de Desautorizar Enlaces de Google. Una vez registrados y analizado vuestro sitio promete indicar cuales son los enlaces que nos pueden estar perjudicando a ojos de Google (y creo que retirarlos).

Aquí tenéis el enlace: http://www.linkdetox.com/ ¿Lo habéis probado? ¿Qué os parece?

Cómo agregar correctamente el sitemap completo a tu blog de Blogger

En cantidad de lugares nos indican la importancia de señalar a los motores de búsqueda el sitemap o mapa del sitio XML. Es igual de importante, y por las mismas razones, tanto para los humanos como para los buscadores (aunque en formatos diferentes); ofrece un sumario o índice de cómo está distribuidas las páginas que forman nuestro sitio accesible.


Aunque pueda parecer obvio, para las personas, en Blogger es sencillo entender cómo se distribuye el contenido, pero para Google no es suficiente, existe un motivo.


EL PROBLEMA DE USAR EL SITEMAP XML POR DEFECTO


Cuando indicamos el archivo XML no no damos cuenta de que es lo que contiene. En Blogger existe un problema que mucho pasamos por alto.

El mapa de un sitio, debería comprender todas las páginas web que lo conforman. Los blogs de Blogger muestran únicamente las últimas 26 entradas en el archivo del mapa del sitio XML. Esto quiere decir que el mapa de tu sitio podría no estar indicando la totalidad de tus páginas. El sitemap puede ser tremendamente incompleto, puede ser un problema.


LAS CONSECUENCIAS DE NO TENER UN SITEMAP COMPLETO


Las consecuencias de usar un archivo de mapa de sitio xml predeterminado es que las entradas antiguas que no estén contempladas en el archivo del mapa del sitio XML predeterminado, podrían no estar incluyéndose en los motores de búsqueda.

Es decir; sólo tus últimas 26 entradas forman el mapa de tu sitio. Si tienes más de 26 entradas en tu blog es muy importante que sigas leyendo.

Aunque Google acepta sitemaps web en diferentes formatos, es recomendable emplear aquellos que utilizen el protocolo de sitemaps. De este modo, el mismo archivo se puede enviar a otros motores de búsqueda, como Bing y Yahoo!, que son miembros de sitemaps.org.


LA SOLUCIÓN PARA TENER UN SITEMAP COMPLETO en BLOGGER -ACTUALIZADO-


Antes teníamos que indicarle a los buscadores de Internet uno, o los que hagan falta, archivos XML que incluyan todas las páginas de nuestro blog. Ahora esto ya no es necesario.

Cómo generar un mapa del sitio XML completo para tu blog de Blogger


Ahora en Blogger, los mapas del sitio XML ya están generados de forma nativa, simplemente debemos indicar a Google más tarde en donde están, si no los encuentra el solo.

Para añadir el sitemap, ahora es tan sencillo como esto: nuevo sitemap xml para blogger. Todo lo que tienes que hacer es sustituir **tublog**, por el nombre de tu sitio:


http://**tublog**.blogspot.com/sitemap.xml



Actualización agosto de 2016: Nuevo sitemap nativo de Blogger para páginas


Ahora podemos encontrar un nuevo sitemap que incluye las páginas de nuestro blog. 


http://**tublog**.blogspot.com/sitemap-pages.xml


Si no quieres que algunas de esas páginas sean indexadas, has de recurir a las etiquetas de encabezado personalizadas de robots de Blogger.



Para ello tienes 2 sencillas vías:

1.- Puedes generar el código automáticamente:
  1. Inserta la dirección de tu blog de Blogger en la siguiente herramienta.
  2. Pulsa "Create Sitemap" y copia el código que se genere.

      2.- Generar la dirección manualmente: 

      Cada archivo XML para sitemaps puede tener como máximo 500 150 entradas, así que tenemos que tratar nuestro blog en bloques de 500 150.  Por ejemplo; si tienes menos de 300 entradas puedes usar directamente estas 2 línea (si tienes menos de 150 la primera te llega y si tienes más puedes seguir añadiendo):



      Sitemap: http://tublog.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=150
      Sitemap: http://tublog.blogspot.com/atom.xml?redirect=false&start-index=151&max-results=150

      Las siguientes páginas desde las que empezar (start-index) serían la 301, 451, 601 y así hasta que alcance para todas tus entradas.


      Cómo enviarlo a Google y a todos los buscadores (que te encuentren)


      Ahora tienes que enviar esa dirección a los buscadores como Google, Yahoo y Bing. Para indicarle esto:
      • En el panel de Blogger, vete a Preferencias de búsqueda en Configuración y edita el archivo robots.txt
      • En el espacio que aparece pega el código, te recomiendo de paso editar completamente el archivo robots.txt, y dale a guardar.

      Y listo, tu sitemap ya está preparado para todos los navegadores. Pero recuerda que pueden pasar hasta 3 semanas para que el robot de Google vuelva por tu sitio.


      TENGO PRISA; ¿ES NECESARIO ESPERAR? y ¿ACTUALIZARLO?


      Una vez que tengas todo listo y hayas esperado el tiempo, te preguntarás que pasará después ¿es necesario actualizar el archivo robots.txt? Pues lo cierto es que para el resto de buscadores sí, pero para Google puedes, o bien efectivamente actualizar el archivo robots.txt o usar las herramientas a continuación:


      3 archivos de sitempas xml fueron necesarios


      Pasados unos 5 días todas las direcciones fueron incluidas

      • Además de para no esperar, con el fin de actualizar tu mapa de sitio; puedes enviar las direcciones que obtuviste, una por una, a Google desde tu cuenta de Herramientas para webmasters (tendrás que añadir y verificar tus sitios). Sería algo como en la anterior pantalla.
      • O bien usar una solicitud HTTP. Envía tu solicitud a la siguiente URL: www.google.com/webmasters/tools/ping?sitemap=sitemap_url. Sustituye sitemap_url por la dirección de tu mapa del sitio XML pero codificada. Envía la solicitud HTTP utilizando wget, curl o el mecanismo que elijas. No es recomendable enviar el sitemap más de una vez por hora.

      ¿Qué pasa si tengo muchos blogs? Si tienes varios sitios web, puede simplificar el proceso de creación y envío de sitemaps. Sigue esta dirección para encontrar más información.

      ¿Qué tal, ahora tu mapa de sitio está mejor, no? ¿Lo tenías bien? Si te ha gustado, parecido útil o has visto algo que no sabías; Deja un comentario o comparte!

      Cómo NO afectan al posicionamiento los iframes y cómo hacer que sí, entre otras cosas

      A pesar de ser populares, muchas veces no se tiene en cuenta o desconoce cómo afectan los iframes al SEO de las páginas que los contiene, así que eso veremos, junto con la accesibilidad y usabilidad del iframe.

       El iFrame (marco flotante) es un elemento HTML que permite insertar otro recurso web dentro de una página web. Aunque no lo parezca es una de las formas más populares de insertar contenido interactivo y multimedia dentro de un sitio. Por ejemplo; un vídeo de youtube.

      Insertar una página web o un recurso web accesible en otra es tan sencilla como obtener su dirección web e insertarla de la siguiente manera: <iframe src="http://recursoweb.com"></iframe>.


      -Rob Gonsalves, te había dicho un MARCO flotante!!!

      CÓMO AFECTAN LOS IFRAMES AL POSICIONAMIENTO

      Entre las características del iFrame que afectan al SEO tenemos:

      • Se puede hacer pasar PageRank hacia la página de origen. Para ello hay que agregar las etiquetas de enlace (href=”url de enlace”) entre las etiquetas <iframe> e </iframe>, estáo no está comprobado al 100% pero se cree que de esta forma sí se traspasa el PageRank. Si quieres estar totalmente seguro de transpasar PageRank entonces coloca un enlace junto al iframe.
      • Los buscadores no consideran el contenido de un iframe como parte de la página principal. Esto quiere decir que lo que el iFrame muestre no se incluirá en los índices de los buscadores como parte de tu sitio.
      • La página o recurso web que se encuentre en un iframe puede ser rastreada por los robots de los buscadores e incluida en el índice como otro recurso diferente que es pero no traspasa el PageRank* hacia la página incluida en el iframe, tal cómo lo haría un enlace. Sin embargo...



      CÓMO APORTAR MÁS INFORMACIÓN y/o VALOR A UN IFRAME


      Además del texto ancla o anchor text, el cuál debe ser descriptivo y contener palabras clave, incluiremos un enlace que será el que aporte valor y transmita el PageRank hacía la página de destino. Para ello construiremos el iframe del siguiente modo:

      <iframe src="http://recursoweb.html"><p>Texto descriptivo<a href=”http://recursoweb.html”>Accede al sitio</a></p></iframe>

      Si no se usa esta técnica sólo aparecerá un enlace hacia el contenido del iframe. Evidentemente podemos usar el atributo rel="nofollow" para evitar que ese enlace transmita valor.


      CÓMO DE ACCESIBLES SON LOS IFRAMES PARA LOS USUARIOS

      La accesibilidad de un iframe es idéntico al de una imagen con un enlace:

      • Los enlaces dentro del iframe son igual de accesibles que el resto de los enlaces de la página. El usuario no nota ninguna diferencia. No se puede percibir si estamos ante una imagen o un iframe.
      • Si queremos potenciar la página de destino del iframe; es bastante conveniente aportar al menos un texto que describa el contenido del mismo. En el caso de que el navegador no soporte iframes, o de tener la opción inhabilitada, se muestra este texto y un enlace hacía la página de destino. 

      USABILIDAD DEL IFRAME en HTML5


      En el nuevo HTML5, el iframe solamente soporta los siguientes atributos:

      • name: Nombre. El nombre del iframe.
      • sandbox: Habilita una serie de restricciones para el contenido del iframe. Puede tener los siguientes valores: allow-forms, allow-same-origin, allow-scripts y allow-top-navigation.
      • seamless: Especifica que el iframe debe parecer que se trata de una parte del documento que lo contiene.
      • src: URL. S Especifica la dirección del documento para insertar en el iframe.
      • srcdoc. HTML_code: especifica el contenido HTML de la página para mostrar en el iframe.
      • width: pixels. Especifica el ancho del iframe.

      Ya no están soportados por HTML5, los siguientes atributos: align, frameborder, height, longdesc, marginheight, marginwidth y scrolling. Si lo usas funcionarán muy bien pero cuando Blogger migre a HTML5 dejarán de funcionar correctamente. Hay que usar CSS ahora.

      • Solamente una cosa más: si usamos un iframe en la plantilla de nuestro blog de Blogger (es XHTML en lugar de HTML) no podremos usar el atributo "name", teniendo que emplear "id" en su lugar (también tenemos title y class disponibles). Sólo eso :)


      ¿DONDE ENCONTRAR INFORMACIÓN ACTUALIZA SOBRE EL IFRAME?


      Podéis encontrar muchísima información actualizada sobre el iframe, y mucha otras cosas, en la página web principal de HTML, el estándar de html del W3C (en inglés); www.w3schools.com.


      ¿Qué tal, os ha quedado más claro cómo funcionan y usar los iframes? Cualquier cosa; los comentarios están abiertos... Me he inspirado aquí: www.v2p-online.es

      Mejorar el posicionamiento retirando páginas y entradas de los resultados de búsqueda

      Los robots de los buscadores como los de Google y resto de motores de búsqueda (también llamados crawlers, arañas e indexadores) son muy obedientes en cuanto a que páginas incluir en sus índices y cuales no, según le indique el archivo robots.txt que existe en muchas webs.

      ¿PORQUÉ RETIRAR PÁGINAS DE LOS RESULTADOS DE BÚSQUEDA?


      Podemos tener sospechas de una página nos puede estar perjudicando porque sabemos que Google penaliza duramente el contenido copiado, o porque incluye algún enlace que creemos que Google interpretará cómo un intercambio o una venta de enlaces.

      Paper Airplane Hoop Art
      Paper Airplane Hoop Art (Photo credit: Hey Paul Studios)
      Alguna de las páginas que debemos plantear retirar de los resultados de los buscadores (no de nuestro sitio) son, por ejemplo:
      • páginas con contenido duplicado, fuera de temática o irrelevantes para los usuarios de los buscadores (páginas de inicio y cierre de sesión, etc).
      • análisis patrocinados cómo los de Teliad o Exponsor, con lo que podemos ganar bastante dinero (ahora sin preocuparse), mensajes de agradecimiento a nuestros lectores, avisos y alertas, etc.
      • contenido copiado total o parcialmente de otras fuentes.
      • en menor medida y en algunos casos especiales: Información obsoleta, atrasada o anticuada.

      Debéis tener en cuenta que la edición del archivo robots.txt no sirve como medida de seguridad, es más, entre otros, podríamos estar dándole pistas a los hackers sobre donde buscar la información confidencial.


      ¿CÓMO RETIRAR PÁGINAS ESPECÍFICAS DE LOS RESULTADOS DE BÚSQUEDA?


      A continuación; los pasos para bloquear una página de los resultados de búsqueda:
      1. Localizar la página o las páginas que queremos hacer desaparecer de Google.
      2. Copiar la dirección URL canónica (acabada en ".html" - sin nada más allá).
      3. Incluirla en el archivo de los robots. Te lo explico a continuación:
      Editar el archivo robots.txt de Blogger es muy sencillo. Basta con ir a Preferencias de búsqueda en Configuración y Editar el archivo robots.txt personalizado.

      Una vez dentro, sólo hay que indicarle el tipo de robot al que nos dirigimos y lo que queremos que haga con esa carpeta. Por ejemplo, puedes modificar esta plantilla y pegarla ahí:

      User-agent: *
      Disallow: /2012/11/pagina-a-quitar.html  
      User-agent: Mediapartners-Google 
      Allow: /

      En User-agent se especifica el robot. Usando un asterisco los incluimos a todos. Con Disallow retiramos los recursos del acceso a ese robot. Es por eso que debemos incluir el de Adsense (Mediapartners-Google) para seguir teniendo publicidad orientada en esa página.

      Recuerda que la página no se quita de tu blog, se quita de los resultados de búsqueda de todos los buscadores autorizados. Pero no usaremos este código directamente, que aunque funciona y es correcto, se puede mejorar para conseguir todavía mejores resultados en las posiciones de los resultados de los buscadores.


      EL CÓDIGO FINAL PARA INSERTAR EN TU ARCHIVO ROBOTS.TXT


      A continuación te lo presento, recuerda cambiar las X primeras direcciones:

      # generado en el Exprimiblog 
      User-agent: *
      Disallow: /2012/11/pagina-a-quitar.html 
      Disallow: /p/sobre-ti.html 
      Disallow: /search
      Allow: / 
      User-agent: Mediapartners-Google  
      Allow: /
      Sitemap: http://tublog.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500  
      Sitemap: http://tublog.blogspot.com/atom.xml?redirect=false&start-index=501&max-results=500


      Lo editamos cambiando las rutas en verde por las direcciones reales de tu blog y listo. Sencillo. La próxima vez que cualquier robot (User-agent:*) pase por tu sitio no mostará (Disallow:) las rutas marcadas en tu archivo robots.txt.

      Nota: usando "/search/*?" en lugar de "/search" cómo mucha gente prefiere usar, estamos permitiendo que las páginas en donde se muestran los artículos de las categorías también se indexe (aunque se podría considerar contenido duplicado, pero también te puede beneficiar, sobre todo si ya estás bien posicionado con ella).

      En Sitemap señalamos nuestro mapa del sitio consiguiendo un acceso a él desde el primer momento. No me digáis no que os he ayudado...


      ¿Alguna opción más?


      Hay muchas opciones para configurar nuestro archivo robots.txt.

      Por ejemplo, imaginemos que tenemos un blog acerca de eventos que se celebran cada año, de entradas para espectáculos u otras cosas así. Podría interesarnos entonces loquear todas las entradas de un año específico para que las del año actual tengan más visibilidad:

      Disallow: /2014/* # bloquea todo el año 2014
      Disallow: /2013/* # y así sucesivamente,
      Disallow: /2012/* # este debería ser el año de la primera publicación.

      O las de uno o varios meses de uno o varios años:

      Disallow: /*/08       # Bloquea todos los agostos,
      Disallow: /2012/08    # bloquea solo al agosto de 2012

      También podemos bloquear páginas que incluyan algún término específico (siempre en su URL). Pero hay que tener cuidado porque podemos bloquear otras páginas sin querer.

      Disallow: /*patrocinado
      Disallow: /*anuncio 

      O algún tipo de archivo (aunque esto en blogger no es posible subirlos):

      Disallow: /*.pdf

      Todas las imágenes de nuestro sitio en los principales buscadores de imágenes (que no recomiendo a no ser que las hayamos plagiado);

      User-agent: Googlebot-Image   # El buscador de imágenes de Google
      Disallow: /
      User-agent: Yahoo-MMCrawler   # El de imágenes de Yahoo
      Disallow: /
      User-agent: msnbot    # El de Bing que el mismo que para los sitios web
      Disallow: /*.jpg$     # por eso hay que bloquear cada tipo de archivo
      Disallow: /*.jpeg$    # por sus extensiones
      Disallow: /*.gif$
      Disallow: /*.png$

      Hacer desaparecer tu sitio de los buscadores sin renunciar a un Adsense orientado

      User-agent: *
      Disallow: /
      User-agent: Mediapartners-Google
      Allow: /


      ¿CÓMO SABER SI EL ARCHIVO ROBOTS.TXT FUNCIONA?


      Este que yo he generado funciona correctamente, pero si añades alguna dirección comprometida o modificas algo te recomiendo probar el archivo robots.txt de tu sitio. Para ello, sigue estos pasos:
      • Accede a Herramientas para Webmasters de Google y conecta con tu sitio
      • En la opción de estado, selecciona URL bloqueadas y Probar robots.txt.
      • Copia el contenido de tu archivo robots.txt y pégalo en el primer cuadro.
      • En el segundo cuadro indica la dirección de tu sitio y en la lista User-agents, selecciona los robots.
      Ten en cuenta que esta herramienta sólo sirve para probar, no se guardará ninguno de los cambios que realices. Para ello tendrás que pegarlo en el archivo robots.txt.

      En los resultados deberá obtener algo cómo "Autorización por línea 11. Se ha detectado como directorio; los archivos concretos pueden tener distintas restricciones" y "Se ha detectado una referencia de sitemap válida." para saber que todo es correcto para Google.


      ¿Qué tal? ¿A qué ahora parece más sencillo? Si estáis pensando en crear un archivo robots.txt mejor para Blogger echad un vistazo aquí. Podéis agradecer con un comentario ;)

      Recuerda que además puedes usar las etiquetas meta para la misma función, aunque tendrías que ir página por página y en Blogger es muy complicado, sino casi imposible, modificar las cabeceras de páginas individuales. No obstante el valor NOFOLLOW de los enlaces también te puede ser útil si estás buscando retirar páginas de los resultados de búsqueda.

      Cómo evitar la redirección de dominios por países en Blogger (script actualizado)


      Desde hace poco Google ha implementado la redirección de nuestros blogs -conocido como ccLTD- de blogger hacia el dominio del país del visitante. La finalidad de esto es filtrar los contenidos protegidos en los diferentes países. Pero crea un problema; el contenido duplicado en dominios diferentes.

      Desde el soporte técnico de Google dicen que trabajan para solucionar los inconvenientes que esto pueda tener en el posicionamiento en el resultado de sus busquedas. Pero lo cierto es que las páginas con nuevo dominio no tienen el PageRank del original y muestran contenido duplicado con respecto al dominio original.

      Mientras se busca una solución; Google ha propuesto una leve solución -esperemos que temporal porque tampoco es muy efectiva en cuanto a solucionar el problema completamente-. Se trata de cuando enlacemos a nuestro dominio añadir al final "/ncr" ("no country redirect"). Con esta dirección no habrá redirección por países y enviará a los lectores al dominio original.

      Quedaría así: "exprimiblog.blogspot.com.es/ncr" lo que evitaría que al llegar el dominio quede así "exprimiblog.blogspot.com.es/" y redirige directmante a "exprimiblog.blogspot.com/".

      También se puede hacer automáticamente con un script, es el siguiente (pégalo justo después de la etiqueta de apertura <head>):

      <!-- para evitar la redirección de paises--> 
      <script type='text/javascript'>
      //<![CDATA[
      var host = document.location.hostname;
      var parts = host.split(".");
      if(parts[2]!="com" || parts.length>3){
      var url = "http://"+parts[0]+"."+parts[1]+".com/ncr"+document.location.pathname;
      window.location = url;
      }
      //]]>
      </script>

      En este nuevo script se incluyen dominios como el de México y Brasil que sustituían el .com por el dominio de su país y no funcionaba. Ahora va perfecto, doy fe.

      El problema del contenido duplicado no se soluciona pero tendrás más posibilidades de que la gente te enlace a tu dominio original y seguir así aprovechando los beneficios de aumentar el PageRank. Veremos como termina este asunto y si Google adopta otra medidas menos trumáticas. Ya os informaré.

      Les debemos las gracias a:www.oloblogger.com

      "Participación en esquemas de enlaces": Una explicación a la actualización de directrices para webmasters de Google


      La clasificación de tu sitio en los resultados de búsqueda de Google depende, en parte, de los sitios que contienen enlaces a tus páginas. Con el fin de mejorar la calidad de los resultados de búsqueda, recientemente Google a actualizado las directrices para webmasters.

      Foto de Varox.

      Este es un documento intenta analizar esta última actualización (en concreto, la participación en esquemas de enlaces) y hacer que el trabajo de muchos no se vea penalizado por cualquier acción que no se haya medido a tiempo. Otro punto que se ha añadido son los enlaces y texto oculto.


      ¿QUE SON LOS ESQUEMAS DE ENLACES?


      Tanto la cantidad, como la calidad y la relevancia de los enlaces afectan a la clasificación de las páginas u otros recursos enlazados. Los enlaces cuya finalidad sea manipular la clasificación de un sitio en los resultados de búsqueda de Google se considerarán parte de un esquema de enlaces, incumpliendo así las Directrices para webmasters de Google.

      Para entender que son los "esquemas de enlaces", Google expone algunos ejemplos que pueden afectar negativamente a la clasificación de un sitio en los resultados de búsqueda. Aunque hay que tener que las directrices para webmasters son muchas más. Los ejemplos de Google son:

      La compra o venta de enlaces para manipular PageRank

      El PageRank es uno de los métodos que emplea Google para clasificar las páginas en un resultado de búsqueda. Parecía haber perdido importancia pero tal vez quieran recuperarla. Según Google, esto incluye 3 casos, aunque no tienen porque ser los únicos:
      • El intercambio de dinero por enlaces o publicaciones que contengan enlaces.
      • El intercambio de bienes o servicios por enlaces.
      • El envío de productos "gratuitos" a usuarios a cambio de que escriban sobre ellos e incluyan un enlace.
      Si nos fijamos bien, el titular menciona "manipular PageRank". Una forma muy fácil para Google de detectar esto es clasificando las páginas según su temática. Si un blog de cine enlaza a una página para comprar una lavadora; mal asunto.

      Si tenemos algún enlace en nuestro blog o sitio web que creemos que pueda encajar en este ejemplo tienes varias opciones para intentar no incumplir esta directriz:
      • Borrarlo: Es la mejor opción aunque puede doler. Si ya has recibido el dinero y expirado el tiempo por un enlace de pago no dudes en borrarlo.
      • Usar el atributo "rel" incluyendo el valor "nofollow". Google y otros buscadores no seguirán los enlaces que lo contengan; y tampoco le transmitará PageRank. Al no transmitirse PageRank está libre de toda culpa (no manipula PageRank). El enlace pierde casi todo su valor pero sigue funcionando igual de bien a efectos de tráfico. Es importantes consultar y solicitar si el autor del recurso que enlacemos permite usar este valor en el atributo de los enlaces. Si hubiésemos cobrado por ellos podríamos perder el dinero.
      • También podemos redirigir los enlaces a una página intermedia que se encuentre bloqueada para los motores de búsqueda con el archivo robots.txt. Este caso solo lo recomiendo cuando el texto de la entrada no sea original, ya que así no "perdemos" el trabajo hecho. Aunque no se pueda encontrar en los buscadores la página seguiría siendo visible desde el blog.

      El intercambio excesivo de enlaces

      Google ha incluido la palabra "excesivo" dándonos un margen. De este modo está claro y de boca de Google que se permite el intercambio de enlaces. Lo que no se permite es: el intercambio excesivo.

      Además, mencionar que se ha dicho intercambio, por lo que conseguir enlaces de manera natural hacia tu sitio no es intercambio y no te debería nunca preocupar que te enlacen. Del mismo modo podemos enlazar a cuantas webs queramos.

      Sin embargo no debería haber exceso de enlaces recíprocos, es decir, páginas que se enlazan mutuamente. Google reconoce que no se puede controlar quienes nos enlazan, pero recuerda que sí podemos escoger a quien enlazamos.

      Si creéis que habéis hecho un intercambio excesivo de enlaces podéis probar a:

      • Pedir que retiren los enlaces o retirar los vuestros, pero repito; solo en caso de intercambio excesivo.
      • Si habéis enlazado a amigos o conocidos, socios o similares plantearos no enlazaros mutuamente si no otros dominios del mismo dueño. Por ejemplo; incluir un tercer o más sitios para hacer una "rueda de enlaces" (no estoy seguro de si Google la considerará un esquema de enlaces), tal como en la imagen de al lado.
      • Pedir a las mismas personas que los incluyeron que añadan el valor nofollow al atributo rel del enlace o hacer lo mismo vosotros con su consentimiento. Funciona porque no se transmite PageRank.
      Por último, recordaros que hay que tener muy en cuenta el texto ancla de los enlaces, la temática de las páginas, así como el texto que rodea el enlace.

      La creación de páginas de asociados exclusivamente para el intercambio de enlaces

      No estoy muy seguro de a lo que se refiere. Lo que yo creo que Google quiere decir con esto es que penalizará los sitios web que incluyan alguna página en la que incluir enlaces con único fin de conseguir pageRank desde y para otros, es decir; recíprocos -enlazados mutuamente-, o no. También podría referirse a sitios con dominio propio exclusivos para este uso.

      Google piensa que páginas con poco contenido o no relevante para los usuarios no debería estar en los resultados de búsqueda. Tal vez incluir un directorio de fabricantes, distribuidoras, páginas amigas, etc en lugar de esas páginas sea una buena forma de sustituirlas por recursos más útiles para los usuarios y ricos en contenido para los buscadores.

      Si crees que Google te ha penalizado o tu puede penalizar intenta añadir una descripción a cada enlace, incluir títulos más descriptivos y todo el contenido que puedas (etiquetas en las imágenes, microformatos, etc).

      El enlazamiento con creadores de spam web o con sitios no relacionados con la intención de manipular PageRank. 

      Veamos la primera parte; ¿Qué es el spam web o webspam? Webspam es el término para las páginas web diseñadas por los webmasters para engañar a los robots de los buscadores y dirigir el tráfico a sus sitios web. Aquí tenéis un poco más de información en español.

      Estas son las categorías más conocidas de spamweb a las que se refiere Google:
      • Páginas PPC
      • Redirecciones JavaScript
      • 100% Frame
      • Texto oculto y enlaces ocultos
      • Redireccionamientos elusivos
      • Dominios aparcados
      • Relleno de palabras clave
      • Páginas de "afiliados delgadas" (Thin affiliates)

      El que más me ha llamado la atención es el último término; Páginas de "afiliados delgadas" o "thin affiliates". Básicamente se trata de sitio que el único contenido son enlaces o anuncios a páginas de compras y ventas mediante enlaces conseguidos desde plataformas de afiliados o directamente desde los programas de afiliación de cada vendedor o compañía.

      La diferencia entre una "página de afiliados delgada" y un blog que incluye enlaces de afiliados es que un blog incluye contenido. Recuerda; es muy importante que además el contenido sea relevante, de calidad y original (de tu propia autoría o propiedad).

      El uso de programas o servicios automáticos para crear enlaces a tu sitio

      Esto es muy fácil de saber si nos lo hemos saltado. Existen algunas aplicaciones, que valen un dineral, que permiten insertar comentarios de manera automática. Seguro que si tienes un blog te han llegado comentarios, sobre todo en inglés, que incluyen un enlace a un sitio que nada tiene que ver con tu temática; esos suelen ser los comentarios de esas aplicaciones.

      Al momento Blogger las clasifica como spam, por lo que no tienen utilidad y esas personas se habrán dejado un dinero, o al menos un tiempo en ello. No me compadezco de ellos. Si no has usado ninguno no deberías preocuparte de nada.

      Algunos ejemplos más de Google:

      Además, Google acompaña la nota de la participación en esquemas de enlaces con algunos ejemplos más:
      • Anuncios de texto que manipulan el PageRank (anuncios modificados para conseguir PageRank)
      • Enlaces que se insertan en artículos con poca coherencia.
      • Enlaces a sitios de marcadores o directorios de poca calidad (no importa que ellos te enlacen a ti)
      • Enlaces insertados en widgets que se distribuyen en varios sitios.
      • Enlaces distribuidos de forma general en los pies de página de varios sitios
      • Comentarios en foros con enlaces optimizados en la publicación o en la firma.

      Ten en cuenta que siempre que no se transmita la clasificación de PageRank no se incumplen las directrices de Google. Fíjate en el primer ejemplo, hay 2 opciones para evitar infringir estas directrices de Google.


      Si lo que nos preocupa es conseguir que otros sitios incluyan enlaces relevantes a tu sitio, la mejor forma consiste en crear contenidos únicos e importantes. Cuanto más útil sea el contenido, mayores serán las posibilidades de que alguien lo considere valioso para sus lectores e incluya un enlace a él. Pregúntate; ¿Va a resultar beneficioso para los usuarios que visitan mi página?".

      Además, no sólo importa la cantidad de enlaces que dirigen a su sitio, sino también su calidad y relevancia.
      Más de 2000 suscriptores reciben las entradas en su correo

      Vía FeedBurner. Introduce tu dirección de correo electrónico y confirma el mensaje que te llegue.