Informática e historia de la we

Solo disponible en BuenasTareas
  • Páginas : 37 (9144 palabras )
  • Descarga(s) : 0
  • Publicado : 4 de marzo de 2012
Leer documento completo
Vista previa del texto
|Web 2.0, ¿Que es un blog?, ¿Que es RSS? 4
¿Qué es un blog? 5
¿Qué es RSS? 6
Cibercultura 7
Cibercultura 7
Descripción 7
Posicionamiento SEO 8
Introducción al concepto SEO 8
¿Qué entendemos por SEO? 8
Posibilidades de aplicación del SEO 8
SEO: técnicas para mejorar el posicionamiento 8
Accesibilidad 9
Indexabilidad 9
Relevancia 9
On-page 10
Off-page 10
Objetivo delposicionamiento 11
Posicionamiento orgánico (SEO) posicionamiento pago (SEM) 11
PPC (pay per click) 11
Posicionamiento orgánico 12
Campañas PPC 12
Posicionamiento y promoción de sitios web - Optimizar desde cero 13
Posicionamiento y promoción de sitios web - Optimizar desde cero 13
Criterios para la creación de sitios web 13
Información para robots 14
Calidad del contenido 14Redacción de contenidos 14
Consideraciones previas a la optimización 15
Optimización del código 16
Optimizar desde los elementos de indexación 16
META TAGS 16
Tipos y funciones de los meta tags 17
Otras etiquetas 18
Palabras clave 18
Donde ubicar las palabras clave 19
Mapas de sitio o Mapsite 19
Densidad de las palabras clave 20
Programas 20
Meta Tags 20
Aplicacionesonline 20
Competitividad 21
Efectividad de una keyword 21
Uso del SiteMap 21
Validación de sitio web 21
¿Cuáles son los beneficios de un mapa del sitio? 22
Importancia de la validación del sitio 22
Importancia de la validación del sitio 22
Validación en W3C 22
Validación en WebMaster Tools de Google 22
Contenido entretenido 23
Penalizaciones 23
Validación en W3C 24
Validaciónen W3C 24
Validación en WebMaster Tools de Google 24
Contenido entretenido 24
Penalizaciones 25
¿Qué es un buscador? 26
¿Qué hace un buscador? 26
Cómo encontrar lo que buscas 26
La visión de Google 26
Arañas, robots y otros seres 27
Arañas, robots y otros seres 27
Robots. En este caso es bastante sencillo saber lo que hace un robot de software: justo lo que le han enseñado ahacer, una y otra vez, sin cansarse nunca. Con frecuencia los web robots se llaman simplemente bots en inglés. Suelen tener tareas muy sencillas y repetitivas, como la recogida, el filtrado y el archivado de información procedente de un sitio web. Todo ello a una velocidad de miles de veces superior a un ser humano. Los robots son, en realidad, los que hacen el “trabajo duro” que les manda la arañay suele consistir en un script. 27
Agentes. Al contrario que los robots, que son programas muy sencillos y con un propósito claro y determinado, los agentes son infinitamente más complejos. Tienen una tarea que realizar (como recoger información de una página web) y tienen una cierta “conciencia” del entorno en que se encuentran. Saben reaccionar a eventos del “mundo exterior” encontrando(diferentes tipos de servidores, protocolos, etc.) y algunos incluso aprenden sobre la marcha y deciden cual es el mejor curso de acción para conseguir su meta. Los agentes se utilizan poco porque son muy complejos, pero devuelven información específica muy fiable y concreta. 27
Breve historia de Internet y de la World Wide Web 28
Terminología Web 30
Terminología Web 30
Primeros pasos de losdocumentos Web 31
Tipología de los documentos Web 32
Tipología de los documentos Web 32
Documentos Web dinámicos 32
Documentos Web estáticos 33
Otros tipos de sitios 33

Web 2.0, ¿Que es un blog?, ¿Que es RSS? 
Web 2.0
En 2004, Dale Dougherty, co-fundador de la empresa editorial estadounidense O’Really Media, que edita libros orientados a la informática, introdujo esta idea en unasesión de trabajo, para el desarrollo de una conferencia. El argumentaba que la Web, en ese momento, se encontraba en una etapa de renacimiento. Todo lo que había funcionado anteriormente estaba cambiando, especialmente los modelos de negocio. La nueva Web demandaba de mayor participación del usuario, interacción y comunicación colectiva. Algo que contrastaba con la Web tradicional, estática y...
tracking img