ATI y Folding@Home, entrevista exclusiva ATI y [email protected], entrevista exclusiva

Algunos de nuestros lectores estarán familiarizados con [email protected], el proyecto de computación distribuída que busca estudiar la sintetización de proteínas con la esperanza de encontrar la cura para enfermedades que actualmente no la tienen.

ATI y [email protected], entrevista exclusiva

por

Algunos de nuestros lectores estarán familiarizados con [email protected], el proyecto de computación distribuída que busca estudiar la sintetización de proteínas con la esperanza de encontrar la cura para enfermedades que actualmente no la tienen.

Desde hace un tiempo ATI soporta correr el cliente de [email protected] en el procesador de sus tarjetas, y Chilehardware logró una entrevista exclusiva con el product manager que maneja ese tema. Lectura recomendada para el Geek no frívolo.

Excepcionalmente y omitiendo nuestra política de no traducir, hemos añdido una versión en inglés del artículo.

[email protected] y la lucha contra el cáncer

Aunque es sencillista decir que el propósito de [email protected] es combatir el cáncer, en rigor es correcto, uno de los alcances del estudio de la sintetización y coligamiento de las proteínas es encontrar cura a enfermedades tan eminentes como el cáncer, aunque el entender el funcionamiento de las proteínas en realidad abriría muchas otras puertas a la ciencia.

El estudio de estas proteínas es una tarea titánica y el computador más potente del mundo, aunque fuese un cluster de miles de Opteron o Xeon, demoraría hasta el fin del tiempo en analizar todo lo que hay que analizar, por lo que este proyecto se ha optado por desarrollarlo en la forma de computación distribuída, de manera que cientos de miles de usuarios en todo el mundo puedan descargar un cliente y correr una fracción del análisis total en su PC en los momentos en que el CPU está ocioso. Con esto, la Universidad de Stansford consigue un poder de procesamiento que por razones económicas nunca podría costear en la forma de un cluster privado, y los usuarios a su vez se unen a una iniciativa que potencialmente podría salvar vidas.

Como el cálculo de la sintetización de proteínas es una tarea altamente paralelizada, desde hace años que se venía especulando sobre la posibilidad de correr este proceso en la GPU de una tarjeta de video. Es un componente de un poder enorme que no es fácil de aprovechar porque el tipo de trabajo que realiza es altamente específico, en contraposición a lo versátil que es un CPU.

Finalmente, hace pocas semanas la teoría se hizo práctica y ATI en colaboración con la Universidad de Stansford gestaron un cliente de [email protected] que corre en el procesador gráfico, acontecimiento mediante el cual no sólo concretaron por fin el uso de una GPU para cálculos no gráficos, sino que también consiguieron impresionantes rendimientos en el procesamiento de proteínas.

En esta entrevista exclusiva de CHW, hablaremos con el Product Manager que ha manejado la gestación de ese soporte.

La Entrevista con Andrew Dodd

Introducción

Andrew, ¿Podrías decirnos cuál es tu cargo en ATI?

Mi cargo en ATI es Product Manager de Software, el cual se divide en 2 partes. La primera es interna donde ayudo a desarrollar la estrategia de los Catalyst, escribo los requerimientos para las opciones, trabajo con los desarrolladores, etc… La segunda parte es externa, esta consiste en crear presentaciones, white papers y otros materiales para entregar a la prensa y nuestros clientes.

Cual fue la motivación de ATI para soportar la “computación distribuida”. ¿Querían medir el poder de la GPU contra un procesador? ¿Participar en una causa noble? ¿Aprender a programar para GPGPU?

Desde el lanzamiento de la Radeon x1800 nosotros sabíamos que nuestro hardware era capaz de hacer mucho más que solo renderear gráficos (Y en realidad comenzamos con el Proyecto [email protected] de Stanford incluso antes del lanzamiento de la Radeon X1800). Sabíamos que cualquier aplicación que requiera ese nivel de procesamiento paralelo seria gratamente beneficiado de las poderosas GPUs de ATI. Así que comenzamos a hablar con Stanford y ambos grupos vimos que podría ser una gran aplicación para acelerar con la GPU y por supuesto, es una muy noble causa.
¿Que es lo siguiente en términos de GPGPU de ATI?, ¿Físicas?

Tenemos un gran número de iniciativas GPGPU que están por llegar (incluyendo físicas) pero no puedo dar detalles por ahora. Veras bastante ruido de esto en los meses siguientes
¿Porque eligieron “[email protected]” como el primer proyecto que soporte GPGPU?

Estuvimos concientes del proyecto [email protected] de Stanford por algún tiempo y pensamos que seria una gran aplicación para el GPGPU.
Bueno, pero hay otras iniciativas de investigación vía computación distribuída ¿Tienen planeado soportar otras iniciativas, como las que utilizan el cliente BOINC?

Si, definitivamente quisiéramos trabajar en más proyectos científicos (incluyendo proyectos basados en BOINC) para dar aceleración GPU integrada.
Hasta ahora NVIDIA no se ha mostrado interesada en soportar alguna iniciativa de computación distribuída ¿Sabes si hay alguna razón de hardware detrás de esta postura?

No, no se nada sobre eso. (Y aunque supiera prefiero no comentar al respecto)
Hardware:

¿Cuanto afectará al tiempo esperado de vida de una tarjeta de video el uso de “[email protected]”?

El tiempo de vida de la tarjeta de video no se verá afectado por tomar parte en el proyecto [email protected]
Pero al darle un uso nuevo y distinto, ¿cambiarán las políticas de garantía?

No. No habrá cambios en la garantía.
Han pensado ustedes en los problemas de temperaturas? Las GPUs normalmente trabajan a altas temperaturas por la naturaleza de los procesos de la GPU (además pocas veces están con 100% de la carga durante tiempos largos).

La GPU no alcanzara temperaturas tan altas como para que sean consideradas peligrosas para la GPU cuando corra [email protected]
Cuando podríamos ver mas GPUs soportadas para [email protected]? Gamas media y baja, sin ir más lejos.

Esperamos agregar un mayor soporte de tarjetas de video en los próximos meses.
Cuando se use CrossFire para [email protected], el cliente “verá” Crossfire como una gran GPU o “verá” dos tarjetas separadas?

Agregar el soporte CrossFire en [email protected] es un elemento de gran prioridad y esperamos tener el soporte incluido en los próximos meses, actualmente Stanford lanzo su cliente en una versión Multi-GPU (Nov. 3) para soportar multiples GPUs de ATI (que no estén corriendo en modo Crossfire). Es todo lo que puedo decir por ahora.
¿Tienen algún plan para lanzar equipos armados o alguna certificación especial para garantizar que un equipo funciona con [email protected]?

No, el cliente de [email protected] funcionará en cualquier PC que este equipado con una tarjeta de video de la serie X1950/x1900.
Drivers:

El cliente para [email protected] partió como un programa independiente y ahora lo han integrado en el Catalyst 6.10. ¿CUál será la forma definitiva de distribuirlo?

Los Catalyst 6.10 fueron recién lanzados el 31 de Octubre y tienen soporte para el cliente GPU de [email protected] en la familia de productos Radeon x1900/x1950, pero por ejemplo la Radeon x1950 PRO no corre con ese driver y para ella hay que usar el cliente por separado. Cuando un driver no soporte un modelo, tampoco se podrá usar el cliente [email protected] del driver en ese modelo.

Cuándo podremos ver [email protected] en GPU con soporte en diferentes Sistemas operativos?

En los próximos meses estamos planeando agregar el soporte para Windows Vista.
En el tiempo que han probado el cliente [email protected] deben haber descubierto que el cliente es mejorable. ¿Cuánto espacio para optimizaciones le queda a ese cliente por delante?

Estamos trabajando árduamente con Stanford para mejorar el rendimiento usando nuestra propia interfaz para propósitos de GPGPU, esta interfaz desarrollada por nosotros traerá mejoras de entre un 150% a 200%. Esperamos lanzar esta nueva versión del cliente en los próximos 2 meses.
Futuro:

¿Cuanto Afectará DirectX 10 a [email protected]?

DirectX 10 ofrece más flexibilidad y nos provee con nuevas oportunidades para optimizaciones en el código de [email protected] Pero nuestro foco principal esta en ayudar a Stanford a que use nuestra propia internaz para cálculos en la GPU que, como mencionamos antes, provee un aumento sustancial en el rendimiento.
Como afectaran los nuevos Geometry shaders que aparecerán en DirectX 10 el rendimiento de GPGPU?

Los Shaders de geometría están diseñados para operar en polígonos y otros gráficos primitivos. En las aplicaciones de computación distribuida como [email protected], las operaciones son generadas con datos genéricos, mas que vértices, polígonos y píxeles. Como sea, esto realmente no importa mucho para GPGPU ya que DirectX 10 posee una Arquitectura de Shaders Unificados, por que ellos esta habilitados para usar el mismo grupo de unidades de proceso para operar cualquier tipo de dato ingresado.
¿Cuando construyeron el R600 ustedes pensaron acerca de las posibilidades del GPGPU? agregaron alguna mejoras a nivel de hardware para tener mas beneficios?

Eeeh, bueno, el R600 aún es un secreto y lamentablemente no puedo hablar sobre productos venideros. Todo lo que puedo decirte es que puedes esperar nuevas características para GPGPU e incrementos impresionantes en el rendimiento.
Andrew, a nombre del Staff de CHW y de todos nuestros lectores, te agradecemos por tu tiempo y tu buena disposición