lunes, 19 de febrero de 2007

Usar la tarjeta gráfica para cálculo científico masivo

Hace tiempo comentábamos falevian y yo que las tarjetas gráficas eran pequeños ordenadores que son capaces de hacer maravillas como Beryl sin despeinarse (me río yo del Windows Vista).

Parece que los de NVIDIA se han dado cuenta también y han publicado una API de programación para aprovechar la capacidad del hardware de una tarjeta gráfica para realizar cálculos a alta velocidad.

La compañía promete que el software permitirá de total acceso a los kernels de 128/96 de las tarjetas gráficas GeForce 8800 y explotar su capacidad para realizar cálculos en coma flotante. La compañía estima que se podríanalcanzar un funcionamiento máximo de cerca de 520 GFlops, permitiendo a los usuarios construir un sistema de un teraflop.

En la página del proyecto CUDA se puede descargar el software y abundate documentación. Lo interesante es que se ejecuta sobre una máquina virtual (al estilo JAVA, pero en este caso más eficiente) por lo que el código es portable entre linux y windows.

Aquí os dejo una figura que quita el hipo.