lunes, 20 de marzo de 2023

SEO. Importancia de entender los algoritmos que usa google para optimizar los sitios web.

 

Definición 

El posicionamiento en buscadores, optimización en motores de búsqueda o SEO es un conjunto de acciones orientadas a mejorar el posicionamiento de un sitio web en buscadores de internet. El SEO trabaja aspectos técnicos de una web, pero también se aplica a nivel de contenidos, con el objetivo de volverlos más útiles.

Historia


Los administradores de páginas web y proveedores de contenido comenzaron a optimizar sitios web en los motores de búsqueda a mediados de la década de 1990.

Al comienzo, todo lo que los administradores de páginas web tenían que hacer era enviar la dirección de una página web, o URL, a los diferentes motores, los cuales enviarían una araña web o rastreador web para inspeccionar ese sitio, extraer los vínculos hacia otras páginas que tenía esa web y devolver la información recogida para ser indexada. El proceso involucra a un araña web perteneciente al motor de búsqueda, que descarga una página y la almacena en los servidores de la empresa, donde un segundo programa, conocido como indexador, extrae información sobre la página. Entre ella, las palabras que contiene y dónde están localizadas, la relevancia de palabras específicas y todos los vínculos que contiene la página.Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas SEO.


Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por los administradores de las páginas web, como las palabras clave, o ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web no necesariamente se relacionaban con el contenido. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían causar, que ciertas páginas se posicionaran muy alto para búsquedas irrelevantes  Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarse  bien en los motores de búsqueda.


Debido a la importancia de factores como la densidad de palabras clave, la cual dependía totalmente del administrador de la página web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones,los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administradores de páginas web sin escrúpulos.


Contando con que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de producir los resultados más relevantes y útiles, los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos para clasificar sitios web, tomando en cuenta factores adicionales para que fueran más difíciles de manipular por los administradores web.Se consideraron factores externos a la página (PageRank y análisis de vínculos) a la par que factores internos (frecuencia de palabra clave, etiquetas meta, cabeceras, vínculos y estructura del sitio web, velocidad de carga de la página), para permitir a Google evitar el tipo de manipulación vista en motores anteriores.


Aunque el PageRank era más difícil de manipular, los administradores de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda,algunos de estos sistemas, o granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura.


Historia


En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas previas, Google ofrecía resultados personalizados para usuarios registrados. En 2008, Bruce Clay dijo “el posicionamiento está muerto” debido a la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio web se posiciona, puesto que su posición variaría en función de cada usuario, de cada búsqueda.En 2007 Matt Cutts afirmó que el uso de este atributo en los enlaces internos de una web también sería válido y efectivo para evitar transmitir PageRank hacia páginas internas de la propia web.


En diciembre de 2009, Google anunció que usaría el historial de búsqueda de todos los usuarios para elaborar los resultados de búsqueda.En febrero de 2011, Google anunció la actualización "Panda", la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes.En abril del 2012, Google anunció la actualización "Penguin" cuyo objetivo era penalizar a aquellos sitios que usaban técnicas manipuladoras para mejorar sus rankings. (Spam SEO o Spam Web).En septiembre de 2013, Google anunció la actualización "Colibrí".


En definitiva


Cada vez se vuelve más relevante poder posicionarse en la web, tanto para empresas como para usuarios que buscan la mejor respuesta a sus requerimientos, aunque puede existir un tratamiento especial por parte de programadores para lograrlo y ofrecer ese producto al mejor postor, existen prácticas hechizas por llamarlas de alguna manera, y parten de la experiencia de usuarios que logran identificar tendencias sin necesidad de algoritmos, son expertos en leer el "momento" y sacar beneficios de la red, logrando que sus productos dentro de la red tengan más cercanía con los usuarios. 

No hay comentarios:

Publicar un comentario