Algunas bases de Link Building

Link Building es contruir la popularidad web necesaria para posicionar nuestro sitio en buscadores, ya sea la homepage del dominio, o sus documentos internos. Voy a explicar algunos aspectos básicos para cualquier estrategia de Link Building. En términos prácticos, intentaré responder a estas preguntas:

  1. ¿Cuáles son los enlaces que sirven para el posicionamiento en buscadores?¿cómo reconocerlos?
  2. ¿qué aspectos hay que analizar para saber si un enlace contribuye o no al incremento de popularidad web?

Antes de continuar, debo advertir que el valor de los enlaces no se limita exclusivamente al poder que tienen de transmitir popularidad web (entendiendo tal concepto como un factor cuantificable y valorable por los buscadores).

Un buen enlace estratégicamente ubicado, desde una web que es una autoridad hacia nuestro sitio, además de ayudarnos a posicionar mejor en buscadores, puede otorgar crédito a nuestra web, contribuir al reconocimiento de su marca (brand awareness), aportar credibilidad, y ayudar a la creación de la reputación que necesita cualquier publicación online.

Un buen enlace nos enviará además muchos visitantes cualificados, junto a sus probabilidades de generar conversiones (contactos comerciales, prospectos, etc).

Hay que trabajar en Link Building teniendo en cuenta todos estos factores mencionados, y no solamente “los buscadores“, sin embargo, el alcance de este artículo solo tratará del Link Building que contribuye al posicionamiento en motores de búsqueda.

¿Cuáles son los enlaces que sirven para el posicionamiento en buscadores?¿y cómo los reconocemos?

Como regla general, para ver si un enlace sirve o no para incrementar la popularidad web y el consecuente posicionamiento debemos analizar básicamente estas cosas:

  1. La morfología propia del enlace (observable en el código fuente del documento web que lo contiene)
  2. El contexto donde está ubicado el enlace (estado de indexación y popularidad del documento web que contiene el enlace, y capacidad de transmitir esa popularidad, cuantía del poder de posicionamiento que puede proporcionar el enlace, etc)

1- Morfología de los enlaces

Los documentos HTML se vinculan (relacionan, enlazan) entre sí a través de hipervínculos (enlaces), los cuales son unidireccionales. Un enlace de la página A hacia la página B, permite ir/navegar desde A hacia B, pero para hacer el camino inverso necesitamos otro enlace desde B hacia A.

El elemento <a> (Anchor) posee el atributo más importante que es href (Hypertext Reference), cuyo valor es precisamente la URL a la cual apunta el enlace. La sintaxis más básica es:

<a href=”http://www.desarrollodeweb.com.ar/e-marketing/publicidad-en-buscadores/” >Publicidad en Buscadores</a>

Siendo “Publicidad en Buscadores” el texto del enlace o anchor text. Observa que la etiqueta del enlace tiene apertura “<a>” y cierre “</a>

Debes tener en cuenta que el elemento “a” puede tener otros atributos, como por ejemplo: “target”, “title”, “class”, “id”, “accesskey”, etc., que sirven para dotar de más información o propiedades al enlace. También estos atributos pueden ser funciones de eventos en javascript activadas por el enlace, por ejemplo: “onclick”, “onmouseover”, etc.

La mayoría de estos atributos no afectan la calidad del enlace o sus posibilidades de contribuir al posicionamiento de la página web enlazada. Sin embargo hay atributos que pueden contribuir un poco más al efecto “posicionador” (por ejemplo la etiqueta “title”), y hay otros atributos que se usan para anular completamente el traspaso de popularidad web o page rank (por ejemplo, rel=”nofollow”).

Este es un ejemplo de un enlace que utiliza el atributo “title”, el cual es explotado generalmente para colocar palabras claves no usadas en el anchor text:

<a href=”http://www.desarrollodeweb.com.ar/e-marketing/publicidad-en-buscadores/” target=”_blank” title=”DDW – Desarrollo de Web – Servicio de Publicidad en Buscadores”>Publicidad en Buscadores</a>

Estos son casos típicos de enlaces de textos en HTML, pero también podríamos tener enlaces con imágenes, de esta forma:

<a href=”http://www.desarrollodeweb.com.ar/e-marketing/publicidad-en-buscadores/”><img src=”publicidad_buscadores.gif” width=”460″ height=”140″ border=”0″ alt=”Publicidad en Buscadores”></a>

En este caso no existe un anchor text (este valor es suplantado por una imagen), pero la etiqueta “alt” cumple una función similar al texto del enlace: Sirve para que los buscadores y los “navegadores de texto” sepan qué hay en la imagen en cuestión. Obviamente para efectos de posicionamiento siempre son recomendables los enlaces de texto porque tienen muchísimo más poder que los enlaces en imágenes.

Enlaces que no sirven para el posicionamiento en buscadores

Los enlaces que no contribuyen al traspaso de popularidad (o page rank), necesarios para mejorar el ranking en los buscadores, son aquellos donde:

a) Se utiliza flash (actionscript) o javascript para generar el enlace. Si un link está dentro de un archivo flash, o un applet de java por ejemplo, o es generado por una función javascript como por ejemplo “write”, generalmente los motores de búsqueda no podrán seguirlo.

Por ende siempre debemos utilizar para los enlaces el lenguaje estándar HTML: <a href=”url”>anchor text</a>

b) El parámetro href no apunta directamente a la url a posicionar, un ejemplo de ello son los típicos redireccionamientos, los cuales tienen esta forma:

<a href=”http://dominio.com/pagina_enlazante.php?redirect=http://sitio.com/pagina_enlazada.html”>anchor text</a>

Aunque el destino de este enlace (http://sitio.com/pagina_enlazada.html) esté contenido en el parámetro href, este es a través de un redireccionamiento, es decir en el ejemplo se apunta a http://dominio.com/pagina_enlazante.php y no a http://sitio.com/pagina_enlazada.html

Hay casos, en los cuales ni siquiera se ve la url enlazada en el valor del atributo href, por ejemplo:

<a href=”http://dominio.com/pagina_enlazante.php?redirect=1&id=1234″>anchor text</a>

c) Se utiliza algún atributo específico para indicarle a los buscadores que “no sigan” ese enlace. Por ejemplo:

<a href=”http://sitio.com/pagina_enlazada.html” rel=”nofollow”>anchor text</a>

Observa el atributo “rel“, en el cual con los valores “nofollow” o “external_nofollow“, se les indica a los motores de búsqueda que no sigan ni valoren el destino de ese enlace, es decir, la página enlazada.

Particularmente creo (pero esta es una opinión muy personal en la cual otros SEOs pueden disentir) que los buscadores sí valoran este tipo de enlaces, en ciertas circunstancias y situaciones específicas, como por ejemplo cuando el “matching” temático (coincidencia de temas entre los documentos enlazados) es muy elevado, y cuando pueden concluir que hay “naturalidad” en el enlace en cuestión.

La mayoría de los blogs, foros, y wikis, utilizan este tipo de enlaces para evitar el Spam.

Cómo verificar la correcta morfología de un enlace válido para SEO:

Debemos observar en el código fuente del documento que enlaza, cómo está generado el enlace, para verificar allí que:

  • es un enlace marcado en lenguaje estándar de los documentos web: HTML
  • el valor del atributo href es directamente al documento a posicionar, y no posee redireccionamientos
  • no hay etiquetas del tipo rel=”nofollow”

Si el enlace cumple con estas propiedades, en principio, es un enlace válido para SEO (posicionamiento). Y digo “en principio” porque como verán a continuación, es necesario que un enlace cumpla con otros requerimientos para ser SEO friendly.

Para observar el código fuente del documento que otorga el enlace, simplemente accedemos a él por su URL en nuestro navegador y cuando este carga vamos a:

“ver” –> “código fuente” (Internet Explorer o Firefox)

2. Contexto de los Enlaces (análisis de la página enlazante)

Si la morfología de un enlace es la correcta, eso aún no nos garantiza que el link en cuestión nos sirva para incrementar la popularidad en buscadores. Para que esto suceda, tienen que darse también otras condiciones:

  • La página que otorga el enlace debe estar indexada en los buscadores (o debe ser potencialmente indexable)
  • La página enlazante debe tener la capacidad de transmitir popularidad (si sus enlaces transmiten link power, y cuánto)

Estado o posibilidad de indexación

Para comprobar que una página está indexada en los buscadores simplemente utilizamos el comando:

site:url_completa_del documento” (en Google, Yahoo, o MSN)

Por ejemplo si ejecuto el siguiente comando en Google:

site:http://www.desarrollodeweb.com.ar/e-marketing/publicidad-en-buscadores/

en realidad es como si le estuviera preguntando al buscador si conoce la página web asociada a esa url, es decir, si la tiene indexada y la ha guardado en su base de datos.

Si tienes en tu navegador la Barra Google, es sencillo hacer esta comprobación (si la página está indexada o no) cuando se muestra un PR 0 o más, puesto que si la página web está valorada por Google (aunque tenga un PR 0), eso indica que previamente debió ser indexada. Si en un documento vemos un PR 1, PR 2, PR 3, …, etc, eso indica que la página está indexada en Google y tiene una valoración positiva en el ranking, cuya cuantía es precisamente el punto que nos indique el PR.

Hay que advertir que, aunque no es recomendable, puede intercambiarse sin problemas un enlace con una página que aún no haya sido indexada en los buscadores, pero si este es el caso hay que analizar las condiciones de su indexación y valoración futura.

Si se trata de una homepage, seguramente los buscadores la indexarán porque ingresarán sus robots desde el primer enlace que encuentren hacia ella. Pero si se trata de una página interna de un dominio, debemos ver si esta posee un enlace desde su homepage, o a cuántos clics de la homepage está.

Por ejemplo, si nos enlazaran desde

http://dominio.com/pagina_enlazante.html

tenemos que comprobar que ese documento esté indexado en Google. Si aún no está indexado, debemos comprobar cuán probable es su futura indexación.

Ese documento será indexado si:

  1. En las instrucciones a los robots (si es que existen, en las etiquetas meta y en el archivo robots.txt), se les permite indexar el documento
  2. Posee algún enlace (como mínimo) desde una página web previamente indexada en el buscador (podríamos suponer también que si el documento no posee ningún enlace, el webmaster sugerirá la url en los formularios de los buscadores para sugerir páginas web, pero esta opción la descartamos)

En el código fuente de ese documento, debemos comprobar que en las etiquetas meta robots (si es que existen) se les indica a los buscadores que deben indexarlo con el valor “index” y si deben seguir sus enlaces (follow), o no (nofollow).

Metatags Robots

Si en el código fuente de http://dominio.com/pagina_enlazante.html observamos un:

<meta name=”robots” content=”index, nofollow”> esto indica a los robots que indexen el contenido pero que no sigan los enlaces de ese documento.

Si vemos un en cambio un <meta name=”robots” content=”index, follow”> se está indicando que se indexe el documento y que se sigan sus enlaces (esto es lo recomendado)

Pueden haber otras combinaciones entre index/noindex (indexar, no indexar) y follow/nofollow (seguir, no seguir)

Archivo “robots.txt”

Aparte de las etiquetas meta robots, deberíamos comprobar el archivo robots.txt (si es que existe), ubicado en el directorio raíz de los documentos públicos de internet (raíz del dominio). en este caso ingresaríamos a:

http://dominio.com/robots.txt

y observar sus instrucciones de indexación. Podemos ver por ejemplo algo así:

User-agent: *
Disallow: pagina_enlazante.html

En este caso se indica a los buscadores que no indexen la página deshabilitada con el comando “Disallow” (pagina_enlazante.html). Debe entenderse que las instrucciones en el archivo robots.txt prevalecen sobre las instrucciones en las etiquetas meta robots.

Por ejemplo, en el caso en el cual pagina_enlazante.html contenga etiquetas meta robots donde se indique que el documento debe ser indexado, si existe una instrucción en robots.txt que indica lo contrario, prevalecerá esta instrucción.

Topología interna de enlaces:

Aparte de los recursos en los cuales se les indica a los robots qué indexar y qué no, tenemos que estudiar la topología interna de los enlaces de una web. Esto es, la estructura o arquitectura de enlaces que tiene una web.

Si la página

http://dominio.com/pagina_enlazante.html

estuviese a 4 clics de la homepage y no recibiese enlaces desde otros documentos (internos o externos), la indexación de este documento sería extremadamente lenta, y aún cuando esto sucediese, la popularidad de esta página web sería casi nula.

Con un ejemplo quedará más claro esto:

Supongamos que

A enlaza a B,
B enlaza a C,
C enlaza a D, y
D enlaza a E.

A su vez,

B recibe un único enlace (el de A),
C es enlazada únicamente por B,
D recibe el único enlace desde C,
y E el de D.

Bajo estos supuestos, un robot buscador para poder indexar la página “E” debe pasar previamente por “D”, pero para indexar “D” antes debió conocer “C”, y así sucesivamente de manera tal que la página inicialmente scrawlable (rastreable por los motores de búsqueda) de esta cadena de nodos enlazados es “A”.

Cuanto mayor es la profundidad de enlaces necesaria para llegar a un determinado nodo, más tiempo debemos esperar a que ese nodo (página web) sea indexado. No solo eso, sino que también el PR se va “debilitando” página a página.

También hay otras implicancias de un caso así, por ejemplo si A tiene un PR 5, B tendrá un PR 4 (siempre y cuando A enlace un solo documento: B, y ningún otro), C tendrá un PR 3 (siempre y cuando B enlace un solo documento: C, y ningún otro), D obtendrá un PR 2 (mismo supuesto) y E un PR 1 (idem).

Las consecuencias prácticas de esta explicación son las siguientes:

  • La página que nos enlaza debe estar a pocos clics de la homepage de su dominio, o tener un PR mínimamente aceptable como para garantizar que es capaz de transmitirnos al menos una pequeña dosis de popularidad (link power). Ojo!!!! solo tenemos en cuenta el PR de un documento web aquí. No estoy considerando otros factores de importancia que podrían compensar un bajo PR
  • Un documento web no necesariamente debe estar linkeado desde su home (o desde un nivel inmediatamente inferior), el camino hacia él podría tener mucha profundidad de enlaces a nivel interno, pero hay que tener en cuenta que cualquier página web puede recibir buenos y varios enlaces desde páginas de otros dominios, compensando el efecto anteriormente expuesto.
  • La página que nos enlaza debe poseer pocos enlaces salientes. Existe un máximo de 100 enlaces (recomendado por Google). Particularmente considero que una página destinada para intercambios nunca debería superar los 40 enlaces salientes (outbound links). No hay un claro límite entre lo que se considera excesivo o no, pero una página con demasiados enlaces salientes puede ser considerada un Link Farm (granja de enlaces), y esto no es recomendable.
  • Para nuestro propio sitio web, es recomendable crear “accesos directos” (enlaces desde la homepage) a contenidos que son muy importantes y están en un nivel de profundidad alto (a muchos clics desde el inicio), para permitirle a los motores de búsqueda que encuentren e indexen rápidamente esa información. También es muy util hacer uso de los mapas de sitio.

Naturalidad en los enlaces, Link Baiting, y TrustRank

Los sistemas de intercambios de enlaces son esquemas artificiales de creación de popularidad web. A los buscadores esto no les gusta, porque de alguna manera “manipulan” sus sistemas de ranking de resultados (el funcionamiento de los algoritmos ordenadores).

Los enlaces deberían ser naturales. Es decir el hecho de “enlazar” una página web no debería hacerse con la condición de recibir algo a cambio. Idealmente enlazar debería ser un acto altruista. Si yo enlazo una web desde la mía es porque considero la web enlazada como digna de ser citada por el valor de sus contenidos o servicios, en función de la utilidad que ello significaría al navegante de mi página web que seguiría ese enlace hacia el destino.

Si tenemos una página web que trata sobre un determinado tema, siempre hay alguna información o datos de importancia que en nuestra web no se encuentra pero sí en otros websites. Esta información (externa a nuestra web que está dispersa en otros sitios) serviría para complementar, enriquecer, ampliar, o reforzar la información propia que publicamos en la nuestra.

Dentro del contexto hipertextual toda referencia a este tipo de información o datos complementarios / alternativos debería “vincularse” a través de los enlaces. Es decir, para “ampliar” la información deberíamos colocar enlaces salientes a datos o información de contexto que se encuentra en otros websites. Esto sería lo más natural (colocar enlaces por el valor de la información de destino y su relación con la información de origen)

La función y esencia de los enlaces es relacionar la información y vincularla contextualmente dentro del hipertexto, para que el usuario pueda seguir esos enlaces en la medida que lo necesite. La función de los enlaces no es la de utilizarlos para popularizar sitios web. Si un sitio web es popular e importante, es porque lo merece (tiene servicios o información muy valiosa para sus usuarios), no porque compra e intercambia enlaces, y con ello obtiene gran cantidad de enlaces que le brindan esa popularidad.

Trust Rank

Uno de los métodos más populares para mejorar los rankings es incrementar artificialmente la importancia de un documento a través de complejos esquemas de enlaces. Por esa razón, los métodos de determinación de la importancia relativa de los documentos web, como el pagerank de Google y otros similares, han sido sujetos de manipulación.

Cuando hay intereses comerciales detrás de las páginas web, para cumplir sus objetivos se necesita posicionarlas utilizando diversas técnicas que logran escalar los rankings más de lo que en realidad lo merecen.

TrustRank es una técnica de análisis de enlaces que intenta luchar contra esta excesiva manipulación de la popularidad web a través de esquemas artificiales de enlaces. La técnica es utilizada para separar de manera semi-automatizada las páginas web útiles de las páginas spam (páginas creadas solamente con la intención de rankear bien en los motores de búsqueda).

El método TrustRank de Yahoo! consiste en seleccionar manualmente un pequeño grupo de páginas “semilla“, que son evaluadas por expertos. Una vez que la reputación/calidad de estas páginas semilla ha sido manualmente identificada, se indica a los algoritmos un conjunto de ellasse escanea desde ellas a través de robots las páginas similares y enlazadas desde ellas. Se supone que páginas creibles y de buena reputación, solo enlazarán páginas similares y no páginas spam.

A medida que los documentos enlazados están más lejos de sus “semillas” (o sitios creibles), el TrustRank disminuye. Como en el page rank, el trust rank disminuye con un patrón similar.

Algunas páginas son creibles (trusted) por pertenecer a ciertos sitios web educativos, gubernamentales, o de organizaciones no gubernamentales, donde supuestamente se prioriza la calidad de la información porque no hay intereses comerciales detrás. También existen otros proyectos educativos sin fines de lucro que pueden ser considerados como creibles. La wikipedia es uno de esos proyectos, por ende recibir enlaces desde ella es importante para nuestras webs. El directorio DMOZ es (o era?) otro caso digno de nombrar.

Link Baiting ES generación de contenidos editoriales

Si la Wikipedia se posiciona en los buscadores para determinados términos claves, es porque la mayoría de los webmasters la utilizan como referencia (la enlazan) para las definiciones que deben emplear en sus textos dentro de las páginas web que publican. No es que la Wikipedia “pida que la enlacen“, ofreciendo algo a cambio, excepto el valor mismo de la información que se encuentra tras el enlace.

Wikipedia es uno de los casos donde se demuestra en la práctica que Link Baiting es más potente, efectivo, y estable que un esquema artificial de Link Building, puesto que hay muchos términos claves competitivos y explotables comercialmente hablando, para los cuales Wikipedia rankea mejor que websites posicionados a base de esquemas de link building.

Ahora bien, lo cierto es que para conseguir enlaces “sin pedirlo” (Link Baiting) nuestros contenidos propios deben ser:

  • inéditos (o muy originales)
  • completos (lo más exhaustivos posible)
  • creíbles (confiables)
  • profesionales (idoneos, acertados)
  • frescos (nuevos o contenidos actualizados)
  • amigables (entendibles, en lenguaje sencillo)

No es tán sencillo lograr esto, se requiere un esfuerzo editorial tremendo, que no todo el mundo tiene la capacidad de afrontar (a veces no es posible o sencillo generar contenidos interesantes en ciertos rubros comerciales).

Cuando contamos con esa capacidad de generar contenidos editoriales de valor, yo aconsejo invertir más tiempo en esa tarea, que buscando intercambiar enlaces con otros sitios. Para publicar estos contenidos de valor generalmente hacemos uso de:

  • Un blog
  • Un Wiki
  • Un foro especializado

Link Baiting ES servicios online de valor

Hay que tener en cuenta también que no solo los contenidos buenos favorecen el Link Baiting, sino también los servicios online de valor. Los servicios transaccionales online gratuitos son como imanes para recibir enlaces y referencias.

Generalmente esta opción requiere del manejo avanzado de ciertas tecnologías o de inversiones importantes, y por ende, esta no es una estrategia para cualquiera.

Ejemplos de esto son los servicios web que pueden embeberse en botones o boxes dentro de los sitios web, gracias al pegado de un código HTML o javascript que contiene una mini aplicación que puede servir para cualquier cosa:

  • Un CAPTCHA tomado remotamente desde un servidor que provee el servicio de validación de carga de datos en un formulario (con un enlace que remite -y beneficia- al prestador del servicio, por ejemplo captcha.net)
  • Un messenger o script de chat que podemos incrustar en la web, pegando un código que nos provee quien ofrece el servicio gratuito (que contiene un enlace hacia la web del programa, por ejemplo plugoo.com)
  • Un botón o banner que muestra el PR de la página que se muestra (el cual enlaza a la web del servicio, por ejemplo prchecker.info)
  • Un video que podemos incrustar o embeber en cualquier web (que contiene un enlace directo hacia su fuente, por ejemplo youtube.com)
  • Gráficos estadísticos de tráfico o ratings que pueden publicarse en cualquier web (los cuales, como es obvio enlazan a sus orígenes, por ejemplo alexa.com o compete.com)
  • Botones o gráficos de cierta información como el estado del tiempo y la temperatura (wunderground.com), la cotización del dolar (dolarsi.com), información de bolsa
  • Bloques de noticias sindicadas por RSS
  • Sistemas de ranking de websites
  • Trackers de visitas a websites
  • Calculadoras online y cotizadores,
  • etc, etc…

¿Qué hacer entonces, cuando no es posible generar buenos y originales contenidos?

Si nuestra web es incapaz de obtener enlaces naturalmente (porque sus contenidos son limitados, pobres, poco interesantes, y tampoco poseemos buenos servicios gratuitos de valor para los usuarios), debemos crear estrategias de Link Building donde los enlaces adquiridos simulen ser naturales.

Como regla general los enlaces naturales:

– Se encuentran en páginas de la misma temática, o en páginas de rubros similares / complementarios. Por ejemplo en una página de “diseño web” no quedaría mal que enlace a una web de “empresa de hosting” o a una “registradora de dominios” porque obviamente estos rubros están íntimamente relacionados.

– No generan malos vecindarios. Es extremadamente sencillo intercambiar enlaces con sitios que poseen Link Farms o hacen Spam en buscadores (splogs, MFA, sitios de juegos en linea, de ocio, etc). Esto hace que a veces uno se “tiente” a tener malas juntas porque es fácil y rápido intercambiar links con ellos. Es completamente desaconsejable permitir que los buscadores relacionen nuestra web dentro de malos vecindarios. Análogamente, es tremendamente difícil conseguir enlaces desde páginas creibles (Trust)

– Poseen diferentes textos de enlaces. Si es que supuestamente a nosotros nos linkean “sin que lo solicitemos” no controlamos el texto de los enlaces, por ende algunos webmasters utilizarán textos como “ingresa aquí“, “recomendamos esta web“, “visita www.web.com“, etc. Debemos procurar que la mayor parte de los enlaces contengan en sus textos las palabras claves que queremos posicionar, pero nunca debemos utilizar las mismas palabras claves para todos los enlaces, porque el robot detectaría algún patrón regular inusual en un contexto natural

– Se reciben desde páginas web de diferente antigüedad y page rank

– Se colocan en diferentes sectores del documento web (en los textos, en el pie de página, cerca de la cabecera o los

Deja un comentario