Nehalem: Potencial teórico de overclock y sus consecuencias

Nehalem: Potencial teórico de overclock y sus consecuencias

por

Nehalem trae nuevos desafíos a la hora de escalar frecuencias y no solo por tratarse de una nueva arquitectura, sino por su esencia misma en cuanto a tecnología de silicio. A continuación discutiremos brevemente la situación actual en este terreno.

Cuando Intel introdujo Conroe en el 2006, una de las características más llamativas de este chip era la facilidad con que se podía elevar su frecuencia. Muchos portales de tecnología no tuvieron problemas para llevar las primeras muestras de los Core 2 Duo a 4 GHz solo empleando refrigeración por aire. A medida que el proceso de manufactura de esta generación mejoraba, se obtenían nuevos records de velocidad para estos CPUs.

Cuando Intel lanzó su primer CPU con cuatro núcleos (uniendo dos procesadores Conroe en un mismo empaque), se mostro la clara tendencia de estos chips a tener menos potencial de overclock que sus antecesores por razones lógicas. Por una parte, estábamos ante un chip que contenía en su interior dos dies interconectados los cuales elevaban el consumo eléctrico del chip como un todo y por otro, al no ser este un quad-core monolítico, resultaba más complejo lograr que ambos trozos de silicio fueran capaces de soportar las mismas frecuencias de forma armónica.

Por lo anterior, las esperanzas de aquellos que les gusta elevar las frecuencias de sus chips para obtener un mayor rendimiento, tenían las esperanzas focalizadas en el siguiente cambio tecnológico de Intel: la manufactura de estos chips en 45nm. Intel no defraudó y los nuevos CPUs basados en Penryn permitieron overclocks similares a los que se experimentaban con Conroe, pero ahora en vez de con dos núcleos era con cuatro.

Lógicamente viendo este progreso –y en general el progreso natural de los CPUs de Intel dese hace un buen tiempo- en cierta forma era razonable esperar que Nehalem, ahora llamado por su nombre comercial Core i7, permitiese un nuevo nivel overclock nunca antes visto para procesadores quad-core. Las razones para ello, es que se estaba ante una nueva arquitectura construida desde cero como un chip monolítico de cuatro núcleos (los derivados de este se basarían en agregar o quitar núcleos y/o otras características al chip).

Sin embargo, los resultados de overclock con Nehalem han sido por decir lo menos modestos. La facilidad que se encontraba en la arquitectura Conroe para elevar la frecuencia de los chips la cual fue ampliamente alabada, no está presente en esta nueva arquitectura. De estos resultados, se pueden sacar conclusiones lógicas, tales como decir que los aumentos de frecuencia se ven mermados por la gran cantidad de nuevas tecnologías incorporadas en este chip tales como QPI y el controlador de memoria.

Estas nuevas tecnologías efectivamente deben contribuir a disminuir el potencial de los Core i7, pero probablemente hay algo mas en el cambio de arquitectura que se le haya escapado a la mayoría de las revisiones de este producto alrededor del mundo.

De toda la información que he podido leer con respecto a Nehalem, probablemente lo que más me llamó la atención fue una lámina presentada por Rajesh Kumar de Intel quien mencionaba que las rutas de circuitos del CPU serían en su totalidad compuestas por static CMOS. Esta técnica de diseño de transistores le permitió a Intel aumentar aun más la eficiencia de sus CPUs pues este tipo de lógica es de menor consumo eléctrico que otras técnicas tales como dominó o LVS.

Obviamente, si estuviésemos en un mundo perfecto, esta solución no tendría sus inconvenientes y estaríamos ante una nueva revolución en el diseño de transistores. Pero al igual que en la vida, por cada decisión que uno toma existen consecuencias y en este caso, la consecuencia del uso de static CMOS es menor rendimiento.

¿Cómo se puede asociar esto de forma fácil con el overclock? Resulta que static CMOS hizo su aparición hace unos 20 años precisamente porque las técnicas en esa época para construcción de transistores eran muy ineficientes energéticamente. Con esta técnica, las empresas de semiconductores pudieron mantener el consumo de sus chips a niveles racionales. Sin embargo, a medida que empresas como Intel basaron su estrategia de diseño en construir chips con aumentos considerables en sus frecuencias, static CMOS demostró su gran falencia: la técnica causa que los transistores sean lentos y no sirvan para escalar frecuencias. Es por ello que se migro a nuevas técnicas de producción como las mencionadas dominó o LVS que permitieron la época dorada de la guerra de los MHz.

En vista que los parámetros de disipación se estaban saliendo de las manos debido a que estas técnicas aumentaban exponencialmente el consumo eléctrico, Intel decidió volver al pasado e implementar nuevamente en Nehalem lógica basada en static CMOS. Debido a la lentitud inherente de esta tecnología, la empresa debió realizar un gran esfuerzo en migrar los algoritmos (por ejemplo decodificación de instrucciones) para mantener el rendimiento a niveles de su predecesor.

Visto desde este punto de vista, un posible punto débil de Intel se vuelve un increíble logro pues mantuvieron el rendimiento del chip aun cuando se están empleando circuitos que por naturaleza son más lentos. Uniendo esta decisión con los cambios en la arquitectura del Core i7, resulta impresionante que efectivamente estos CPUs tengan potencial de overclock similar al de la generación anterior.

Debido a que se está retomando esta tecnología, es difícil prever sus efectos con respecto al overclock en el futuro cuando nuevamente Intel pase a su siguiente Tick y produzca la siguiente generación de Core i7 basados en 32nm. Solo teniendo las muestras de estos CPUs en mano, se podrá tener una idea de cómo ha evolucionado esta tecnología y su capacidad de escalar a frecuencias más altas en el futuro.

Por una parte el overclock nos permite a nosotros extraer un mayor rendimiento a nuestros CPUs, pero por otra parte, este parámetro permite saber que tan al límite de la tecnología está el producto. Viendo que el aumento de rendimiento del Core i7 solo ha mejorado considerablemente para aplicaciones que puedan hace uso de múltiples hilos, cabe preguntarse cómo podrá Intel encontrar formas para mejorar el rendimiento de aplicaciones de un solo hilo debido a que todavía no existen paradigmas de programación que hayan explotado el uso del paralelismo para la gran mayoría de aplicaciones usadas hoy en día.

Sabiendo que el techo de frecuencias no se ha movido en esta nueva arquitectura y que ella ha hecho poco por aplicaciones de un solo hilo el “tanque de reserva” para justificar la compra de estos chips por la mayoría de los consumidores, especialmente en estas épocas de crisis, hace que el terreno en el cual esta debutando Nehalem no esté del todo pavimentado, poniendo un signo de interrogación a como se desenvolverá esta arquitectura durante su vida.

Comente este artículo