Descripción::
Araña, Robot, Rastreador, Crawler o Spider: se refiere a la parte de un buscador que recorre la Web enlace a enlace para descubrir sus páginas. Para que cualquier página pueda formar parte de las páginas de resultados de un buscador, su araña debe haberla descargado previamente.

• Enlace Externo, Backlink o Inbound Link: se trata de un enlace que apunta a una página de un sitio desde otro sitio diferente. En la actualidad, los buscadores los utilizan como criterio de relevancia.

• Enlace Interno: se trata de un enlace que apunta a una página de un sitio desde otra página de ese mismo sitio. La estructura de enlaces internos ayudan a los buscadores a reconocer la estructura del sitio.

• Enlace Roto: se trata de un hipervínculo en el que la página apuntada no existe o es errónea.

• Frecuencia de Rastreo: viene determinada por el tiempo que transcurre desde que la araña de un buscador rastrea una página, hasta que la vuelve a rastrear de nuevo. Los sitios Web más relevantes y los que más actualizan sus contenidos suelen ser rastreados con mayor frecuencia por los buscadores.

• Googlebot: es la Araña de Google.

• Índice: en buscadores, se trata de la estructura de datos que contiene referencias a las páginas que contienen una determinada palabra. Para que un buscador pueda ofrecer resultados de búsqueda es necesario que cree previamente un índice. Para que una URL pueda aparecer en las páginas de resultados de un buscador, debe haber sido previamente rastreada e indexada.

• Indexación: es el proceso que tiene lugar en los buscadores por el cual se actualiza el índice a partir de la información obtenida en el rastreo.

• Logs: es un concepto amplio. En esta guía se refiere a los registros de actividad de un sitio Web. Por cada página que solicita un internauta, se generan entradas en los logs que registran datos como: página solicitada, fecha y hora, navegador desde el que se ha realizado la solicitud, etc.

• Metas: son etiquetas que forman parte de las páginas HTML, permanecen invisibles para los internautas, pero no así para los buscadores. Aportan información que tiene que ver con palabras clave, contenido e información de ayuda a las arañas para su rastreo. Hoy día no tienen tanta importancia como un tiempo atrás.

• PageRank: es un algoritmo de análisis de enlaces cuyo objeto es el cálculo de la importancia de una página en función del número de enlaces que contiene y recibe de otras fuentes. Fue desarrollado por Google y muchos expertos aseguran que fue la clave de su éxito a finales de los 90. En la actualidad no es tan considerado como criterio de relevancia como lo fue en su tiempo.

• Palabra Clave o Keyword: se trata de una palabra con fuerte contenido semántico para tu sitio. Las palabras clave de un negocio lo definen y son utilizadas por los internautas para localizar dicho negocio a través de los buscadores. Conviene, por tanto, prestar especial atención en la selección de dichas palabras así como ubicarlas correctamente en el contenido de las páginas de tu sitio Web.

• Profundidad de Rastreo: la profundidad de una página se mide, , partiendo de la página principal del sitio Web al que pertenece, según el número de enlaces en los que hay que hacer clic hasta llegar a ella. La profundidad de rastreo de un sitio Web coincide con el nivel de profundidad de la página más profunda de dicho sitio que la araña de un buscador ha rastreado. No todos los sitios Web son rastreados por los buscadores al mismo nivel de profundidad. Cuanto más relevante sea un sitio, mayor profundidad tiene su rastreo (normalmente).

• Rastreo: es el proceso que tiene lugar en los buscadores por el cual estos recorren la
Red enlace a enlace. Es la etapa previa a la indexación.

• Relevancia: es el criterio bajo el cual ordenan típicamente los resultados los buscadores. El resultado de mayor relevancia ocupa la primera posición. La relevancia es una propiedad de la relación búsqueda-página y resultado. Los buscadores miden cientos de parámetros para calcular la relevancia de una página dada para una búsqueda en concreto.

• Robots.txt: es un fichero que suele estar disponible en la raíz de un sitio Web (es decir, http://mywebsite/robots.txt). En el fichero robots.txt se pueden especificar qué páginas y/o directorios pueden ser indexados por los buscadores.

• SEO o Search Engine Optimization: es un proceso que tiene por objeto la disposición óptima de los contenidos de un sitio Web para mejorar su presencia en los buscadores.

• Snippet: es el fragmento de texto que acompaña a cada uno de los resultados que ofrece un buscador en sus páginas de resultados. Típicamente se trata del fragmento del contenido de la página en la que se encuentran los términos introducidos en la búsqueda.


• Sitemap o Mapa del Web: es un concepto con una doble acepción. Tradicionalmente se trataba de una página HTML más de un sitio Web en la que se recogía la estructura principal del site con enlaces a las diferentes secciones. En tiempos más recientes, se usa el término sitemap para referirse a un fichero en formato XML generado para los buscadores. Contiene información sobre las páginas disponibles y frecuencia de actualización de sus contenidos. Como se ha indicado a lo largo del documento, desde el fichero robots.txt se puede referenciar la ubicación del sitemap para ayudar a los robots de los buscadores en el proceso de rastreo y posterior indexación del sitio.

• Spam de Buscadores o Spamdexing: describe a aquellas páginas, generalmente de muy baja calidad, que han sido creadas con el objeto de conseguir altos rankings en los buscadores. Tratan de explotar debilidades de los algoritmos de ordenación.

• Texto Ancla: se trata del texto constitutivo de un enlace. Dicho de otro modo, es el texto que aparece subrayado. Los buscadores utilizan el texto ancla como un elemento que determina la temática de la página apuntada.

• User-Agent o Agente de Usuario: Los diferentes programas que descargan páginas Web (navegadores, arañas de buscadores, etc.) se identifican con un nombre. Éste es el agente de usuario. Normalmente el agente de usuario queda registrado en los logs. De este modo, se puede realizar un seguimiento a la actividad de las arañas de los buscadores.

• Web Oculta, Web Invisible o Web Profunda: se trata de las partes de la Red que los buscadores no pueden rastrear por encontrarse del otro lado de las barreras de rastreo. Dicho de otro modo, existen ciertos elementos tecnológicos hacen que los contenidos de la Web Oculta sean invisibles a los buscadores.

0 comentarios:

Publicar un comentario

 
Top