Deep Web
Los siguientes son algunos de los motivos por los que los buscadores son incapaces de indexar la Internetprofunda:
Páginas y sitios web protegidos con contraseñas o códigos establecidos.
Páginas que el buscador decidió no indexar: esto se da generalmente porque la demanda para el archivo que se decidió noindexar es poca en comparación con los archivos de texto HTML; estos archivos generalmente también son más “difíciles” de indexar y requieren más recursos.
Sitios, dentro de su código, tiene archivosque le impiden al buscador indexarlo.
Documentos en formatos no indexables.
De acuerdo a la tecnología usada por el sitio, por ejemplo los sitios que usan bases de datos. Para estos casos los buscadorespueden llegar a la interfaz creada para acceder a dichas bases de datos, como por ejemplo, catálogos de librerías o agencias de gobierno.
Enciclopedias, diccionarios, revistas en las que para accedera la información hay que interrogar a la base de datos, como por ejemplo la base de datos de la RAE.
Sitios que tienen una mezcla de media o archivos que no son fáciles de clasificar como visible oinvisible (Web opaca).
La información es efímera o no suficientemente valiosa para indexar. Es posible indexar está información pero como cambia con mucha frecuencia y su valor es de tiempo limitado...
Regístrate para leer el documento completo.