Soy Milton, su seguro servidor

Soy Milton, su seguro servidor

por

Mientras la IDF llega a su fin, AMD se ha especializado en aportillar a Intel en todos los frentes desde su hotel distante 4 cuadras.

Esta vez es el turno de los servidores y, aunque hay acuerdo general en que AMD tiene razón, también es cierto que ambos competidores tienen que revisar sus planes.

Viernes sin inspiración

En general cuando llega el día Viernes me encuentro tan entusiasmado por el fin de semana en ciernes que me pongo eufórico. Además de ver el mundo desde una perspectiva distinta, la euforia puede impulsarlo a uno a escribir noticias delirantes amparándose en unos comunicados de prensa completamente insignificantes.

No tengo ganas de ponerme a revisar noticias anteriores, pero estoy consciente de que en este espacio les ha tocado leer noticias de 10.000 palabras de las cuales 500 o menos eran la noticia real. No es mi culpa y eso lo tengo claro, porque si yo fuera una compañía dedicada al hardware lo primero que haría sería contratar gente imaginativa para mis comunicados de prensa, genios bohemios para mi departamento de márketing, telepredicadores para mi departamento de relaciones públicas.

Es el colmo que una compañía que factura 200 millones de dólares al año saque un producto con el cual podría duplicar su facturación y uno se encuentre en su sitio web un recuadro de 200×200 pixeles que dice: “get to the next stage in computer technology: we present Chipiklander Chio Chio 3000”. No puede ser… por favor díganme qué clase de noticia puedo escribir con esa clase de material: estoy obligado a darle enjundia a mis columnas con información de otras fuentes, anécdotas personales, divagaciones y jugo.

Pero si yo fuera el CEO de una compañía de hardware partiría por echar a los gordos autosuficientes del depto de Márketing (estoy traumado con un profesor completamente desleal que me hizo reprobar el ramo la primera vez que lo hice simplemente porque no iba a clases y tenía promedio 5.6… un mes antes del exámen apareció la regla de que la nota por asistencia valía un 50% del total) y contrataría a mi gran circo teatro de relacionadores públicos, periodistas enajenados y creo yo que llevaría el cambio a todos los puestos de mi empresa. En vez de la secretaria rica pondría una mina tóxica al estilo de Helena Bonham Carter en Fight Club, como para que cuando mis clientes o proveedores me llamen, el sólo hecho de hablar con ella sea todo una aventura. A algunos les gustará, a otros les parecerá pésimo: a mí no podría entretenerme más ver lo que pueda pasar.

Pero llegado este punto me doy cuenta de que he vuelto a caer en la manía de darme 50 vueltas antes de la noticia, y lo que es más grave es que hoy esas 50 vueltas consistieron en reflexionar porqué uno se da 50 vueltas antes de la noticia. Estoy logrando un nivel recursivo que podría llevarme a ser el generador de mi propio material en completo divorcio de las tonterías que informan los comunicados de prensa. O eso, o me pongo a escribir un libro.

Todo está en los Watts.

Hay un límite de edad entre las personas que vieron los dibujos animados del Monstruo Milton y los que no y no sabría decir en qué época dejaron de transmitirse por el clásico programa Pipiripao. De todos modos, para los que no sepan quién era Milton, les contaré que era el “hijo” de un profesor loco y semi malvado que se dedicaba a crear monstruos.

Milton era un producto fallido porque en la receta el profesor le agregó demasiada ternura y el monstruo salió querendón y sensible, lo cual no pasa de ser un dato anecdótico porque lo importante en este caso es que Milton tenía la particularidad de echar humo mediante una chimenea en su cabeza.

Resulta que cuando Milton saludaba a su creado por vez primera, le cantaba “Soy Milton, su seguro servidoooor!”. Y tenía toda la razón, porque si el profesor Weirdo hubiese creado procesadores en vez de monstruos, Milton hubiera sido pensado para servidores.

Maldito a-Moore

Por si no lo sabe, la ley de Moore, que era un computín de la década de los 70, dice que la evidencia empírica demuestra que la cantidad de transistores dentro de un procesador se duplica cada dos años.

Como ustedes podrán imaginar, por mucho que se mejore la miniaturización y cada vez se logren transistores más y más pequeños, esa tasa de crecimiento acarrea problemas indirectos derivados de la generación de calor, las corrientes parásitas y la mala pata, así que el escenario que se fué consolidando era una calle sin salida:

  • Crecer a una tasa inferior a la Ley de Moore es quedarse atrás.
  • Crecer a la tasa que indica la ley de Moore o más, implica lidiar con calor, consumo energético y otros problemas.

    Lo triste del asunto es que con la aparición de los procesadores dual-core, la duplicación de la cantidad de transistores se resolvió de manera trivial, poniendo dos núcleos en un mismo CPU, así que si nos ponemos rigurosos, tanto Intel como AMD cumplieron la Cuota Moore de este año y el próximo y con esto le han dado validez a la ley al menos hasta mediados del 2006.

    Sin embargo estamos viviendo una tendencia universal a reconocer que más fuerza bruta no necesariamente es un progreso, y esto es con una alta probabilidad el principio del fin para la Ley de Moore. Como antecedente, AMD lleva casi 4 años en la línea de mejorar la eficiencia en vez de los Mhz, de lo cual se deriva todo el concepto de Performance Rating.

    Una extensión de esto es que el avance de un procesador hacia la generación siguiente no va por el aumento del número de transistores, sino simplemente por la eficiencia con que ese CPU puede procesar las instrucciones. Esto equivale a decir que si la generación siguiente de un procesador X hace la misma tarea en la mitad del tiempo que la generación presente, hay bastante más evidencia para decir que es el doble de poderoso, que afirmar lo mismo basándose en que tiene el doble de transistores y un rendimiento de, digamos, un 60% más que su antecesor.

    El enunciado anterior debiera ser obvio, pero estamos tan acostumbrados a pensar dentro de un marco estructurante que a veces seguimos reglas tácitas que a la larga resultan estúpidas y, en ese sentido, ¿Quién dijo que la fidelidad con que una compañía cumple la ley de Moore era una medida de su progreso?.

    Por suerte la tendencia actual parece apuntar a hacerle elegante desprecio a Moore, aunque esto sea de modo indirecto, y el paso de Intel de medir el progreso en rendimiento/potencia es una clara evidencia de ello, y aunque AMD no ha enunciado la misma medida, lo cierto es que el rendimiento por sobre factores como la simple frecuencia o la cantidad de transistores viene siendo su política desde hace años.

    El campo de los servidores está en deuda

    Todo lo anterior es válido para casi todas las líneas de productos de ambos fabricantes excepto para el mercado de los servidores. Si dejamos de lado la idea del Woodcrest de intel, que por ahora no es sino una declaración de buenas intenciones, la realidad es que tanto AMD como Intel tienen harto por hacer en este mercado.

    Resulta que Brent Kirby, jefe del área servidores de AMD, comentó que si de ensalzar la tasa rendimiento/potencia se trata, el Opteron exhibe una cifra muy pero muy superior a lo que cualquier Xeon o Itanium pueda ofrecer.

    Nadie se atrevería a dudar de este enunciado puesto que es cosa probada que el rendimiento del Opteron es en varias pruebas similar al del Xeon, y superior al mismo si incorporamos tareas de 64 bits. Sumemos a esto que los Xeones actuales son primos hermanos del Prescott mientra
    s que los Opterons son esbeltas gacelas de 90 nm. Ahora dividamos ambos factores y tendremos que en rendimiento/potencia el Opteron gana sí o sí.

    Kirby dijo que un Opteron dual core puede llegar a consumir como máximo 190 watts, mientras que un procesador similar en el caso de Intel llega a los 240W. El enunciado fué seguido de un cálculo a la rápida de la diferencia de costos para una compañía que tiene un datacenter de 500 servidores. La diferencia por concepto de cuenta de la luz es considerable.

    Intel no refuta el consumo máximo del Xeon, pero hace incapié en que una cosa es el consumo máxmo y otra el consumo promedio, mediante lo cual pretende desacreditar el cálculo de AMD, lo cual no quita que la dura realidad evidencie que los Xeon Paxville sean una máquina de consumir potencia.

    Un tercer jugador en esta discusión,Jim McGregor, editor de The Microprocessor Reprort, dice que si esta discusión da para tema de discusión es simplemente porque en una muestra de poca visión de futuro tanto AMD como Intel han esperado hasta ahora para decir: “oh, estamos yendo derecho a un problema en relación al comsumo de potencia” en circunstancias que esto era más o menos obvios desde hace años. El hecho de haberse pegado el alcachofazo ahora implica que de aquí al 2007 no tendremos una solución clara al tema de los procesadores Milton.

    Las mejoras a mediano plazo, en tanto, apuntan a que el Woodcrest (hermano del Merom dedicado a servidores) podría reducir su consumo a 80 watts, cifra que mejora los esfuerzos actuales de AMD por consumir una potencia moderada. Sin embargo esto no quita que Intel no tiene planes claros para integrar el controlador de memoria al interior del procesador, como AMD viene haciendo desde que apareció el primer Opteron. Considerando que el funcionamiento del controlador de memoria externo es menos eficiente a nivel de consumo eléctrico -y de rendimiento global- si se quiere comparar mano a mano habría que calcular cuánto gasta una plataforma Woodcrest completa contra una plataforma Opteron.

    Mientras tanto, la siguiente generación de Opterons ya debe estar preparando su controlador interno de memoria DDR2 (o de DDR3 si es que el tiempo alcanza y los ingenieros atinan), pero si acaso están jugándosela por priorizar el bajo consumo al menos no han dicho nada.

    Finalmente, en Anandtech aparece hoy la reseña de una exposición de Intel en donde mostraron un procesador Pentium M con un GMCH integrado, siendo un GMCH un northbridge con gráficos integrados. Osea lo que mostraron es un Pentium M que incluye un Northbridge que incluye gráficos.

    El invento de Intel no es lo mismo que el controlador de AMD que reside al interior del núcleo mismo (de ahí viene el término On-Die) sino que está integrado en el sustrato que rodea al núcleo… como quien dice, si un dual core es un sustrato alojando dos núcleos, lo que mostraron es un sustrato alojando un núcleo y un northbridge: menos eficiente que la idea de AMD pero de todos modos un avance inteligente que evita ciertos cuellos de botella. Adicionalmente, Intel mostró la idea de integrar el regulador de voltaje también en el sustrato, lo cual dotaría al sistema de una agilidad a la hora de alimentar con voltajes variables que un regulador externo jamás podría ofrecer.

    En conclusión, el tema de hoy no es quién procesa más sino quien lo hace de manera más eficiente, y esta eficiencia puede ir por el lado de integrar controladores, reguladores, northbridges y radio FM, o bien por el lado de lograr procesadores más eficientes watt por watt, transistor por transistor o ambas cosas, lo cual equivale a decir que la ley de Moore podría seguir cumpliéndose para la generación inmediatamente siguiente, pero de ahí en adelante será sólo un recuerdo incómodo de una planificación poco visionaria.

    E-week
    Anandtech