fdtf

Páginas: 28 (6957 palabras) Publicado: 14 de mayo de 2014
Ministerio de Educación
Colegio San Martin de Porres
Departamento de Informática

Tema:
Big Data

A consideración:
Luis olmedo
Integrantes:
Veces, Evelyn
Villareal, Diego
Moreno, Ashly
Herrera, Astrid
Avendaño, Karla

Nivel:
11° Comercio

Fecha de entrega




http://www.cuartopoder.es/mecanicamente/el-big-data-ya-esta-creando-las-primeras-desigualdades-y-amenazas/4012Índice
Introducción 3
Contenido 4
Definición 4
Big data 5-6
De donde provine la información 7-8
Tipos de big data 8-9
Componentes de la plataforma 10-15
Big data y el campo de investigación 16-19
Multimedia y movilidad 20-21
De donde surgió big data y porque es tan popular 21-24
Ventajas y desventajas de la big data 25-27
Inicios yactualidad 28-29
Conclusión 30
Referencias 31-32
Bibliografía 33











Big data
Un sistema de representación de datos creado por IBM muestra el big data que consiste en las ediciones de Wikipedia realizadas por el bot Pearle, mostrando su visualización más racional al ser acompañada de colores y posiciones en su representación.
Big Data (del idioma inglés grandes datos es en elsector de tecnologías de la información y la comunicación una referencia a los sistemas que manipulan grandes conjuntos de datos (o data sets). Las dificultades más habituales en estos casos se centran en la captura, el almacenamiento, búsqueda, compartición, análisis, y visualización. La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datosrelacionados del análisis en un gran conjunto de datos relacionado, tal es el ejemplo de los análisis de negocio, los datos de enfermedades infecciosas, o la lucha contra el crimen organizado.
El límite superior de procesamiento se ha ido desplazando a lo largo de los años, de esta forma los límites que estaban fijados en 2008 rondaban los órdenes de petabytes a zettabytes de datos. Loscientíficos con cierta regularidad encuentran limitaciones debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica, la conectómica, las complejas simulaciones de procesos físicos, y las investigaciones relacionadas con los procesos biológicos y ambientales, Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas finanzas y a la informáticade negocios. Los data sets crecen en volumen debido en parte a la introducción de información ubicua procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency identification. La capacidad tecnológicaper-cápita a nivel mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años ochenta. Se estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos (del inglés quintillion, 2.5×1018).

Definición
"Big data" es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados yprocesados en un tiempo razonable. Los tamaños del "big data" se hallan constantemente en aumento. En 2012 se dimensionaba su tamaño en una docena de terabytes hasta varios petabytes de datos en una única data set. En la metodologíaMIKE2.0 dedicada a investigar temas relacionados con la gestión de información, definen big data en términos de permutaciones útiles, complejidad y dificultad para borrarregistros individuales.
En 2001, en un informe de investigación que se fundamentaba en congresos y presentaciones relacionadas, el analista Dou Laneydel META Group (ahora Gartner) definía el crecimiento constante de datos como una oportunidad y un reto para investigar en el volumen, la velocidad y la variedad. Gartner continúa usando big data como referencia de este. Además, grandes proveedores del...
Leer documento completo

Regístrate para leer el documento completo.

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS