jueves, 24 de mayo de 2012

Semana Final Reporte de curso

Esta ultima semana es de entrega de la supercomputadora, hablare un poco de mis contribuciones y mi pensar del proyecto y futuros proyectos.

Que esperaba del curso
Al inicio del curso fue un poco revuelto adaptarse a los reportes semanales ya que personalmente nunca me había tocado trabajar así, incluso esto ocasiono alguna perdida de puntos al inicio por no saber bien que hacer como hacerlo, ya conforme avanzaron las semanas se pudo mejorar mucho en este aspecto.


Contribuciones Personales
Departe de mi intente contribuir mas que nada con aplicaciones, llegue a tener alguna comunicacion con varios de los integrantes de el equipo de aplicaciones como lo son Abraham,Adriana y Blanca. Se llego a intentar realizar un cluster ante la necesidad de poner a prueba las aplicaciones. Algunas otras contribuciones que tuve fue la documentacion de informacion sobre temas relevantes. Las que considero como mis mejores contribuciones

  • Megamatcher SDK ya que es una aplicacion ya provada realmente ya hecha, la unica desventaja seria que es solo una version de prueba y que se requiere de algunos dispositivos para poner a prueba algunos tipos de seguridad como la detección de retina y huella digital.

http://sistdistribyparalelos.blogspot.mx/2012/04/semana-12.html


  • Drque con blender una aplicacion que fue puesta aprueba por el equipo cluster pero alfinal no se logro hacer funcionar, me parecio una buena aplicacion ya que tiene mucho campo actualmente ademas de que lo que se logra es bastante interesante la renderizacion de graficos.

  • Cluster: el intento de cluster que se trato de realizar entre mis compañeras blanca, adriana y yo. Al final no se logro pero la idea era poder poner a prueba todas las aplicaciones del grupo, incluso se hablo con otros integrantes y se unirían al proyecto pero no prospero.

Problemas-Inconvenientes


Algunos inconvenientes que considero afectaron mucho en el proyecto fueron la falta de comunicación entre los equipos que se dividieron, por ejemplo las aplicaciones que fuimos sacando el equipo de aplicaciones nunca se pudieron poner a prueba realmente hasta los últimos días que el mismo equipo cluster decidió checarlas, incluso algunos miembros del equipo de aplicaciones como ya lo dije  llegamos a intentar elaborar un mini cluster para poder probar las aplicaciones lo cual causo perdida de tiempo, ademas que entre los mismos grupo no hubo buena comunicación cada quien buscaba por su cuenta provocando que aveces hubiera material repetido. Otro punto que note es que había gente inscrita en varios grupos lo cual también ocasionaba que una semana hicieran algo de una cosa y otra semana un poco de otra y al final nunca hubo mucho de ninguna de las 2.

¿Como solucionar esto para un futuro proyecto parecido?


Pienso que si igualmente se divide en grupos nuevamente pero embes de hacer un reporte individual que cada equipo tenga que hacer un reporte semanal el mismo equipo forzara a todos los integrantes del equipo a participar un poco en el  trabajo, otra cosa seria el que no se pueda estar en 2 equipos solo 1 tema por persona para enfocar toda la atención en el mismo, por ultimo demo en vivo de avance cada 4 semanas para asi garantizar un avance por partes del proyecto.

Aprendizaje
El aprendizaje que tuve yo fue mas que nada en cuanto a las aplicaciones que se pueden correr y a la arquitectura de la supercomputadora, aunque me hubiera gustado tocar algunos otros temas que me interesaban como lo fue el cluster, pero no alcance cupo en el equipo ya que era muy extenso el numero de integrantes.

Nominaciones:
-Carmen
-Adriana

miércoles, 16 de mayo de 2012

Semana 15

En esta semana agregue a la wiki un poco de información acerca de los Grids computacionales o malla de ordenadores, que son, su arquitectura, como funcionan y ventajas y desventajas. Decidí agregar información de esto ya que es un tema que abarca el curso que varios compañeos han estado hablando sobre esto pero no encontre que alguien lo haya documentado en la wiki.

Link Wiki: http://elisa.dyndns-web.com/progra/Computacion%20Grid%28Malla%20de%20Ordenadores%29#preview


Nominaciones:
 *Adriana
 *Esteban
 *abraham

miércoles, 9 de mayo de 2012

Semana 14


Esta semana investigue sobre Benchmark que es una técnica que se utiliza para medir el rendimiento de algún componente en especifico como puede ser el CPU o GPU o el conjunto de varios componentes trabajando juntos, coloque información relevante a lo que es Benchmark en la wiki. También instale una aplicación llamada Linpack benchmark, Linpack es una aplicacion benchmark que nos sirve para medir los Gigaflops de nuestra pc o de un cluster, es utilizada en SuperComputadoras y tambien en computadoras de escritorio para medir el rendimiento de las mismas, también puse información sobre la aplicación en la wiki


Después de instalarla la probé en mi lap y aqui unas imágenes de los resultados:
Primero ingresamos la cantidad de pruebas que se quieren realizar la cantidad de memoria con la que disponemos y las cpus utilizadas ya con esto dependiendo de nuestro equipo sera el tiempo que tarde en arrojar los resultados.


La puse a prueba con una Dell Inspiron 14(N4030) con las siguientes especificaciones:

SPECIFICATIONS
Part NumberIN4030-I3370-2-320-W7B-BLK
ModelInspiron N4030
ProcessorIntel Core i3-370M 2.4GHz Processor with Intel Hyper-Threading Technology (3MB Cache)
Memory4GB DDR3-1333
Hard Drive320GB 5400RPM
ChipsetMobile Intel® 5 Series Express Chipset HM57
GraphicsIntel HD Graphics
Display
14.0" High Definition (720p) 1366 x 768 WLED Display with TrueLifeTM
Optical DriveDVD+/-RW Optical Drive
NetworkIntegrated 10/100 Ethernet
CommunicationDell Wireless 1501 802.11 b/g/n; Dell Wireless 365 Bluetooth

Lab:

A la hora de buscar aplicacion benchmark me encontre con una que se llama Pi Program esta tambien es una benchmark que consiste en encontrar los una cantidad definida de decimales despues del punto decimal utiliza el algorithmo gauss-legendre y existen varias variantes del mismos programa como super pi. Lo que encontre fue un reporte de alguien que puso su equipo a trabajar a conseguir 10 trillones de digitos de pi, tomando encuenta errores de hardware y otros tipos alfinal se logro llegar a la cifra y tomo 1año el equipo que se utilizo es el siguiente:


Processor
2 x Intel Xeon X5680 @ 3.33 GHz - (12 physical cores, 24 hyperthreaded)
Memory
96 GB DDR3 @ 1066 MHz - (12 x 8 GB - 6 channels)
Motherboard
Asus Z8PE-D12
Hard Drives
1 TB SATA II (Boot drive)
5 x 2 TB SATA II (Store Pi Output)
24 x 2 TB SATA II (Computation) - various models
Raid Controller
3 x LSI MegaRaid SAS 9260-8i
Operating System
Windows Server 2008 R2 Enterprise x64
El reporte completo aqui:
http://www.numberworld.org/misc_runs/pi-10t/details.html
Fuentes:


Nominaciones:
*Adriana


jueves, 3 de mayo de 2012

Semana 13


Esta semana decidí buscar una aplicación para probar la eficiencia y mejorar un clúster basado en Linux. Encontré una aplicación llamada Cbench que tiene varias funcionalidades entre las más importantes el mejoramiento de rendimiento de un clúster paralelo basado precisamente en Linux, algunas funcionalidades que encontré importantes en dicho programa es primero que nada que es gratuito además de que se puede estresar el sistema haciéndolo realizar diferentes tareas de diferentes tamaños y en diferentes tiempos llevando un registro de ello para así mejorar el clúster lo más posible y así ver en que área se necesita mejorar. Por lo pronto dejo la información de la aplicación y seguiré investigando en busca de tutoriales para probar las diferentes herramientas con las que cuenta para ver si son aptas para el clúster que estamos implementando en clase.

Link de wiki: http://elisa.dyndns-web.com/progra/Aplicaciones/Cb

LAB

Para laboratorio encontré varias noticia cortas acerca de cómo la nube ha venido a cambiar las supercomputadoras, además de los problemas que se enfrentan las compañías debido al gran consumo de energía que usan las supercomputadoras, también como NVIDIA ha entrado fuertemente en el mercado de las supercomputadoras como la única compañía que ha logrado entrar al mercado de supercomputadoras utilizando un procesador basado en ARM, tanto así que a entrado al top 500. Otro tema en las noticias es de los nuevos chips para teléfonos celulares para que puedan ser utilizados con la nube.

Noticia:http://gigaom.com/2011/11/14/how-the-cloud-is-reshaping-supercomputers/

Nominaciones:

  • Raul
  • Adriana
  • Alex V.

sábado, 28 de abril de 2012

Semana 12

En esta semana continué trabajando con la aplicación MegaMatcherSDK, la semana pasada contribuí en la wiki con la información de la aplicación en si, esta semana lo que hice fue descargar la aplicación y ponerla a prueba ademas de complementar la información de la wiki respecto al uso de la aplicación y instalación. La aplicación de prueba cuenta con 3 tipos de pruebas que son detección de pupila, rostro y huellas digitales, lamentablemente para cada aplicación se requiere de un dispositivo en especial por ejemplo la de pupila ocupa un dispositivo especial para esto al igual que la de huellas digitales, solo pude poner aprueba la de rostro ya que utiliza webcam. La aplicación es bastante parecido a lo que se realizo el semestre pasado en el laboratorio de Sistemas Adaptativos lo que hace es detectar partes clave del rostro capturar varios frames del mismo y almacenarlos en una base de datos, realice algunas pruebas y me parece bastante efectivo, dejo algunas imagenes de las pruebas.

Al principio tuve problemas con la nitidez de la imagen al tratar de capturar imágenes de lejos como se muestra en el log la aplicación no capturaba los frames bien de esta manera.

Ya estando mas cerca de la camara logre que tomara los frames de forma correcta y pide ingresar el nombre de la persona.

Y ya por ultimo teniendo almacenada en la base de datos imágenes lo probe usando el identificador y los resultados fueron buenos como se ve en el log de la derecha :)


Link del wiki:http://elisa.dyndns-web.com/progra/MegaMatcherSDK#preview

Nominaciones:
-Adriana
-Alejandro Ave

Para Lab:

Para laboratorio investigue un poco de las supercomputadoras con las que contamos en México y encontré una noticia que me pareció interesante ya que no conocía el dato, la noticia menciona que México llego a formar parte del Top500 de supercomputadoras alguna vez ya que actualmente ya no aparecen entre las 500 principales, con 4 supercomputadoras que alguna vez ocuparon los lugares 83, 84,85 y 330 2 de las más conocidas KanBalam y el sistema de Banco Azteca. En la actualidad de los países latinoamericanos el único que permanece en el top500 es Brasil y el país que más porcentaje de supercomputadoras concentra como era de esperarse es Estados Unidos.


KanBalam es un clúster de computadoras HP y está ubicada en la UNAM cuenta con 1368 procesadores AMD Opteron de 2.6GHz y 3016 GB de memoria RAM, distribuidos en 337 nodos de cálculo, cada uno con 8GB RAM y dos procesadores duales y en 5 nodos especializados, con 64 GB RAM. Utiliza GNU/Linux como sistema operativo.

jueves, 19 de abril de 2012

Lab Semana 11



Para el laboratorio complementando un poco la información de la entrada de clase pongo una noticia del uso de MegaMatcher SDK en la vida real, como lo dice la noticia la tecnología MegaMatcher SDK empeso a ser utilizada en Indonesia para la identificación de emisión de pasaportes en dicho país a partir del 2009. Además de funcionar como principal motor de identificación también ayuda a agilizar y hacer más preciso el proceso.

¿Cómo funciona?

El sistema de emisión de pasaporte distribuido en unas 100 oficinas en la Republica de Indonesia recibe a Extranjeros los cuales se pueden inscribir de una forma rápida y tramitar solicitudes de pasaportes locales, se llenan los datos y después se envían automáticamente a un sistema de búsqueda centralizado biométricamente con esto se consigue un procesamiento rápido y preciso de la información del pasaporte. Con MegaMatcher se logra un alto grado de presicion, identificación de duplicados a un bajo costo. El sistema biométrico a juego en la sede de la inmigración en Yakarta se ejecuta en una granja de servidores Linux escalable.
La alta velocidad y la fiabilidad de MegaMatcher facilita el desarrollo de la escala nacional de varios sistemas de identificación biométricos faciales / huella digital y sistemas automatizados de identificación de huellas dactilares (AFIS), tanto para aplicaciones civiles y forenses.

Noticias:
*http://www.softzine.net/indonesia-now-using-megamatcher-biometric-technology-in-integrated-passport-issuance-system.html
*http://www.rfid-spain.com/articulo/69327/biometra/administracin-pblica/indonesia-utiliza-la-tecnologa-biomtrica-megamatcher-en-su-sistema-de-emisin-de-pasaportes

miércoles, 18 de abril de 2012

Semana 11

Para esta semana como lo había mencionado en la entrada anterior buscaría alguna aplicación relacionada con reconocimiento de patrones o algo relacionado a esto. Lo que encontré fue una aplicación llamada MegaMatcher SDK que es un software de paga pero que tiene una versión de prueba con la que se podría trabajar además el software incorpora la opción de uso de clúster en paralelo para agilizar y mejorar los resultados. MegaMatcher SDK es un software multi-biometrico utilizado para la verificación de huellas dactilares, voz y rostros entre otras funciones que incorpora, está disponible para Windows, Mac y Linux. Por el momento solo dejo la información de lo que es, para que sirve y algunos ejemplos de uso. Para la próxima semana espero poder descargarlo y realizar algún tutorial de uso y requerimientos, por lo pronto seria solo en mi computadora y también habría que buscar algún tutorial para emplearlo en el clúster.

Link de wiki: http://elisa.dyndns-web.com/progra/MegaMatcherSDK
Lo subí a la wiki pidiendo una cuenta prestada ya que :/ olvide mi contraseña



Referencias:
http://www.digitalworksperu.com/biometria.htm
http://www.neurotechnology.com/mm_sdk.html
http://www.neurotechnology.com/megamatcher.html