ANÁLISIS DEL RENDIMIENTO PARALELO APLICANDO LA LIBRERÍA DE INTERFAZ DE PASO DE MENSAJES (MPI) SOBRE LINUX
ANÁLISIS DEL RENDIMIENTO COMPUTACIONAL APLICANDO LA LIBRERÍA DE INTERFAZ DE PASO DE MENSAJES (MPI) SOBRE LINUX
TESINA
Que para obtener el título de:
INGENIERO EN SISTEMAS COMPUTACIONALES
(ÁREA) TELECOMUNICACIONES
PRESENTA:
BRENDA GRISEL NIEBLAS BORBOLLA
DIRECTOR:
MC. HUGO ROMÁN REYES
MOCHICAHUI, EL FUERTE, SINALOA, DEL 2013
La presente tesinatitulada: Análisis del rendimiento paralelo aplicando la librería de interfaz de paso de mensajes (MPI) sobre Linux, realizado por el titular académico Brenda Grisel Nieblas Borbolla, bajo la dirección del consejo particular indicado, la cual ha sido aprobada por el mismo y aceptada como requisito parcial para obtener el título de:
INGENIERO EN SISTEMAS COMPUTACIONALES (área)TELECOMUNICACIONES
_____________________________________
DIRECTOR: M.C. Hugo Román Reyes
_____________________________________
ASESOR: M.C. Juan Carlos Manzanares Galaviz
_______________________________
ASESOR: ING. José Roberto Saucedo Salgueiro
ANÁLISIS DEL RENDIMIENTO PARALELO APLICANDO LA LIBRERÍA DE INTERFAZ DE PASO DE MENSAJES (MPI) SOBRE LINUX.Introducción
1.1. Planteamiento del problema.
1.2. Objetivo general.
1.3. Objetivos específicos.
1.4. Justificación.
1.5. Metodología.
2. Fundamentos de paralelización.
2.1. ¿Qué es paralelismo y qué es cómputo paralelo?
2.2. ¿Qué es computación Paralela y que aspectos involucra?
2.3. ¿Qué es una computadora paralela?
2.4. ¿Cuándo paralelizar?
2.5. ¿Qué se necesita para paralelizar?
2.6.Arquitectura de Computadoras Paralelas.
2.6.1. Processor Architecture and Technology Trends.
2.6.2. Arquitectura de Computadoras de la TaxonomiaFlynn´s
2.6.3. Arquitectura de Procesadores Multicore.
2.7. Modelos Paralelos.
2.7.1. Modelo PRAM.
2.7.2. Modelo BSP.
2.7.3. Modelo LogP.
2.7.4. El Problema del Agente Viajero (TSP)
2.7.5. El Problema de las N-Reynas.
3. Paradigmas de laProgramación Paralela.
3.1. Paralelismo a nivel de Hilos (POSIX Threads).
3.2. Modelo Combinado (Paralelismo Hibrido).
3.3. Paralelismo a Nivel de Procesos (MPI).
3.4. Clustering (Cluster)
4. Análisis de Rendimiento.
4.1. Modelo de Rendimiento.
4.1.1. Ley de Amdhal.
4.2. Tiempo de Ejecución.
4.2.1. Tiempo de Computo.
4.2.2. Tiempo de Comunicación.
4.3. Eficiencia y Aceleración.
5.MassagePassingProgramming (MPI).
5.1. Objetivos de los MPI.
5.2. Comunicación MPI punto a Punto.
5.3. Deadlocks with Point-to-Point Communications.
5.4. Modo de Comunicación.
5.5. Topología de Procesos en MPI.
5.6. Mecanismo de Sincronización.
6. Estudio Comparativo
6.1. Programa secuencial.
6.2. Comunicación con MPI.
7. Conclusiones.
8. bibliografía.
ANÁLISIS DELRENDIMIENTO PARALELO APLICANDO LA LIBRERÍA DE INTERFAZ DE PASO DE MENSAJES (MPI) SOBRE LINUX,
1. Introducción
1.1 Planteamiento del problema.
En el procesamiento computacional existen infinidad de procesos que se están ejecutando dentro del CPU y que los cuales consumen demasiado poder de cómputo; al igual que también hay problemas los cuales al estar ejecutándolos limitan la funcióndel procesamiento con respecto al tiempo de ejecución.
1.2 Objetivo general.
Hacer un análisis conceptual referente a las herramientas de programación que ayudan al programador a resolver este tipo de problemas en el procesamiento computacional. El estudio de esta investigación estará enfocado básicamente sobre la librería de programación MPI (Interfaz de Paso de Mensajes).
1.3Hipótesis
1.4 Justificación.
2. Fundamentos de la Paralelización.
2.1 ¿Qué es paralelismo y qué es cómputo paralelo?
El paralelismo es la realización de varias actividades al mismo tiempo que tienen una relación.
El cómputo paralelo es la ejecución de mas de un computo (calculo) al mismo tiempo usando mas de un procesador.
Se trata de reducir al mínimo el tiempo total del cómputo,...
Regístrate para leer el documento completo.