El día en que AMD redibujó la industria

El día en que AMD redibujó la industria

por

Pasamos varias semanas realizando un cercano seguimiento a la fusión de AMD y ATI, un negocio que partió como teoría, siguió como rumor y hoy se convierte en realidad.

Teorías previas

Hace seis semanas me tocó leer la especulación que Apjit Walia de RBC Capital Markets realizó en una columna para Forbes, una de las revistas de negocios más prestigiosa del mundo. En su opinión, AMD y ATI tenían sinergías que explotar y podía ser una maniobra estratégicamente muy interesante explorer la fusión de ambas o la compra de ATI por parte de AMD.

Mucha gente levantó las cejas y paró las orejas preguntándose qué datos manejaría Walia para decir algo como eso, y aunque el analista dijo no tener más información y estar sólo divagando, para todos fué bastante evidente que uno no se manda un filetazo de esa envergadura a pito de nada.

Días después Charlie Demerijian del Inquirer escribió una columna exponiendo que en su opinión lo que AMD buscaría de ATI no era hacer sus propios chipsets, vender VGAs o más generalmente expandir su línea de productos. Él pensó que muchas señales en la industria apuntaban a que en el futuro se podrían incorporar funcionalidades de GPU en las CPU, y que AMD no quería inventar ese know how desde cero sino absorber un grupo de ingenieros que entendiera bien de GPUs. Esas reflexiones puedes haberlas leído en nuestro artículo CPU y GPU tienden a lo mismo.

Días después, y con la ventaja de haber tenido a uno de los nuestros en Taiwan, nos enteramos de una papita de primera fuente que JF había escuchado en su paso por el lejano oriente.

Los días pasaron, la compra no se concretaba y algunos pensaron que todo era parte de un largo sueño que JF tuvo en un fumadero de Opio en donde curiosamente participaba todo el staff. Tbon era el hombre de hojalata, Yakko el León, Zuljin el espantapájaros y yo iba dentro de un canasto y ladraba pidiendo un botellón.

Pero en fin, llegó el momento en que la noticia volvió a salir a flote y JF nos miró a todos como diciendo: “Ahí tienen, eso les demuestra que no me dediqué (sólo) a fumar opio.”

Como sea, el viernes recién pasado pudimos dar la noticia de que la fusión AMD-ATI era inminente y que sólo faltaba que las juntas de accionistas pusieran la millonaria. Eso pasó hoy y siempre que esté en la voluntad del pulento, el diablo no meta la cola, y la comisión antimonopolios no los mande a freir monos, AMD y ATI ya son una cosa y la misma.

Hablemos de los números fríos

Se sabe que AMD pagó 5.4 billones de dólares (billones de 1000 millones) por ATI, una cifra alta considerando que la capitalización bursátil de la compañía canadiense era de aproximadamente 4.4 billones.

La empresa verde del tío Hector Ruiz pagó un sobreprecio del 23.6% por cada acción. En efecto las acciones de ATI se valorizaron en $16.56 para el cierre de la bolsa este viernes, y AMD pagó $20.47 por cada una: $16.40 en cash más 0.2229 acciones de AMD las cuales habían cerrado a 18.26 la semana pasada.

Ahora, AMD no tenía todo el chin-chin como para hacer la compra al contado violento, pues entre la caja, los instrumentos financieros de corto plazo, los billetes de metrópoli, los bonos del tesoro de Bolivia, los krugerrands de oro y la casa en la playa de Hector Ruiz juntaban nada más que 3 billones. Para poder hacer la compra, AMD tramitó un préstamo por 2.5 billones de Morgan Stanley Senior Funding, con lo cual quedaron bastante forrados y como se dice en buen chileno, endeudados hasta el cuello. Pero de que valió la pena, dijo don Héctor, valió la pena.

ATI tiene aún una cláusula que le permitiría echarse atrás a última hora, aunque de hacerlo deberá pagar $162 milliones a AMD por las molestias.

Consecuencias a corto plazo: Powerhouse Gym

En los comunicados oficiales, AMD ha descrito la unión, adquisición o fusión, como quieran llamarle, como el nacimiento de una Processing Powerhouse. Ahora, aunque suena muy choro, no es del todo evidente el carácter que este nuevo gigante tendrá, porque aunque es más docto que decir “Nace un mostro” en realidad es igual de poco específico.

Para entender el panorama que se abre para AMD en los próximos meses, es necesario hacer un breve recuento de los negocios en los que ATI ha apostado sus fichas en el último tiempo.

En el mercado de las VGA la empresa canadiense ha perdido gran parte del terreno que dominaba a mediados del 2004 cuando sus Radeon 9XXX se comían a las Geforce 5xxx. La venida de la generación PCIe trajo aires renovados a Nvidia y tanto en la serie 6xxx como en la actual 7xxx esta empresa ha tenido supremacía por sobre las soluciones de ATI que, sin quedarse derechamente atrás, ha debido conformarse con una presencia disminuída, fenómeno que se acentúa con el hecho de que la solución dual de Nvidia, el SLI ha sido un éxito mientras que el Crossfire de ATI ha tenido muy poca adopción.

Esto último nos lleva a un segundo item en la lista, y es que el éxito de la plataforma SLI no sólo afecta al mercado de las VGA sino que tiene íntima relación con el mercado de los chipsets y placas madre. En lo que atañe al mercado de los chipsets para AMD, sobretodo, ATI ha tenido poca presencia tanto en plataformas high end como en el mercado más entry, en donde su éxito inicial con la plataforma integrada Xpress 200 se vió paulatinamente disminuido a manos de la exitosa solución integrada Geforce 6100.

Hasta ahí, pareciera que AMD está comprando a una empresa que va de derrota en derrota pero, si miramos un poco más allá, veremos que aunque en las VGA para PC de escritorio ATI efectivamente ha tenido peores resultados que Nvidia, la tendencia podría empezar a revertirse gracias a los nuevos modelos de ATI, los cuales -de combinarse con una atractiva estructura de precios- podrían ofrecer mejor precio/calidad que los modelos equivalentes de Nvidia.

Veamos todavía un poco más allá. Aunque ATI no logre recuperar su posición en el mercado de las VGA, igual disfruta de contatos harto jugosos haciendo los gráficos de las Nintendo Gamecube y Wii, y de la Xbox 360. Y ojo, el mercado de las consolas tiene mucho más cobertura que el de las VGA. Tal vez lo que gana ATI yendo como subcontratista de Nintendo o Microsoft sea menos que la utilidad unitaria que deja una VGA High End, pero por presencia, difusión y volumen no se nota pobreza.

la interpretación que The Inquirer hace de la fusión

Finalmente, está claro que para AMD el hecho de no contar con sus propios chipsets lo tenía bastante amarrado de manos para competir con el enfoque en plataformas que defiende Intel. Tanto para portátiles como para soluciones multimedia de living room, Intel ha promocionado el concepto de Centrino y Viiv respectivamente, diluyendo el hecho de que esas plataformas puedan llevar alternativamente un Pentium M o un Celeron M. Intel vende un paquete que AMD no puede solucionar por sí mismo, y que a duras penas ha podido emular mediante una parcial integración con Nvidia pero siempre sujeta a las descoordinaciones que se derivan de que las desiciones de cada parte son autónomas.

ATI tiene mucha presencia en la electrónica de consumo y, sin ir más lejos, muchas TV digitales, HDTV, pant
allas LCD y de plasma, por nombrar algunos dispositivos, tienen alguna clase de chipset ATI. Es un negocio complementario a la plataforma de un PC de living, pero lo que vale ahí es tener contactos con los otros actores de la industria. A la hora de certificar tal o cual componente para la plataforma, AMD estaba iniciando conversaciones mientras ATI toma tecito con esa gente desde hace tiempo. Si de contactos se trata, ATI es amigui de toda la industria CE.

Pasemos ahora a hacer apología de la parte chipsets. Si bien es cierto que en plataformas AMD la supremacía la ostenta Nvidia, en lo que se refiere a chipsets Intel es ATI quien mejor se entendía con el gigante Azul. Claramente eso va a cambiar porque Intel no es tan ingenuo como para tener a su archirrival leyendo los papers técnicos del Conroe. Ya trascendió que Intel no renovará los acuerdos con ATI para la parte chipsets pero eso no revoca los acuerdos presentes y durante varios meses seguiremos viendo placas ATI para Conroe. El Chipset ATI RD600 es algo así como un 10% más rápido que el Intel i975X y encima es más barato. Cómo podría irle mal? Lo mismo ocurre en el mercado portátil en donde ATI tiene presencia en chipsets para Yonah y Merom.

Aunque Intel venda Core 2 Duo como loco y AMD tenga con el AM2 menos participación que la que tuvo con socket 939, igual algo de plata le entrará por las placas ATI para productos Intel. Si eso no es un portfolio diversificado, ya no sé qué es.

Como última papita de ATI, podemos nombrar una creciente presencia en los chips 3D para celulares. Es un mercado que está en pañales pero -si Bill Gates tiene razón- puede llegar muy lejos. El saliente jefe de arquitectura de software de Microsoft dijo que pensaba que en el 2010 veríamos títulos de la onda Xbox 360 corriendo en celulares. Si pensamos que ATI hace los gráficos de esa consola, y que tiene mucha presencia -aparte de una alianza con Nokia- para hacer chips gráficos para celulares… saquemos cuentas. ¿En quién está pensando tío Bill para hacer esos celulares-consola? Y vamos un poquito más allá… no sería natural que este abanico que va entre las consolas y los celulares se complete en algún momento con alguna clase de PDA con aceleración ATI? Ahí hay un mercado muy vasto para explorar, y es uno al que Intel acaba de dar la espalda ahora que vendió la división Xscale a Marvell.

Finalmente, no sólo es AMD quien se nutre de los aires diversificadores de ATI. Ahora que tiene acceso a plantas productoras y ensambladoras, lo que era ATI puede aprovechar sinergías que le eran ajenas hasta ayer. Es distinto mandarle unos planos a UMC o TSMC esperando que hagan una GPU decente con tu diseño, a tener la posibilidad de hacerlos tú mismo. En lo que viene, no sería raro ver que la capacidad instalada de AMD se amplíe para darle cabida a la fabricación de GPU y chipsets ATI, ambas cosas a un costo menor que el que se obtiene de subcontratos con las productoras taiwanesas.

La incómoda posición de Nvidia

Nuestras palabras finales para este artículo van para la firma que en este momento debe estar debatiéndose en la incertidumbre. Nvidia puede tomar muchas decisiones reactivas ante la noticia del día, como también puede no hacer nada. Tal como yo lo veo, ninguna de las dos es una maniobra completamente errada y les explico porqué. Primero, las consecuencias de ATI fabricando GPU en plantas propias no se verán a corto plazo. Es un proceso que demorará en instaurarse y perfeccionarse si es que llega a ocurrir así que descartémoslo por ahora. Con los chipsets lo mismo.

Segundo, la supremacía que Nvidia ostenta en plataformas AMD no cambiará a corto plazo. ATI efectivamente tiene un diseño para AM2 pero no sólo es difícil competir con una solución única contra un abanico completo como el de Nvidia, sino que pasará mucho tiempo antes de que la fusión AMD-ATI genere un chipset hecho “con conocimiento de causa”. En otras palabras, llegará el día en que los ingenieros provenientes de ATI puedan aprovechar el ahora íntimo conocimiento de los procesadores AMD para hacer un chipset de la gran hostia… pero ese día puede que ni siquiera afecte a la arquitectura actual. Tal vez la generación K8L sea favorable a ATI, pero en lo que a AM2 respecta, la plataforma por excelencia seguirá siendo Nvidia por muchos meses. En otras palabras, si Nvidia decide seguir haciendo su juego de siempre para ver cómo evolucionan las cosas, no va a perder su mercado de la noche a la mañana. Es más, ni siquiera se sabe qué desiciones tomará AMD al respecto y por ahora es bastante sano pretender que nada ha pasado.

Qué sería, entonces, la maniobra contraria? Algunos han sugerido que el paso natural de Nvidia sería arrimarse a Intel para contrapesar a la dupla AMD-ATI… pero eso es un error. Es justamente la dupla AMD-ATI la que se forma para contrapesar la presencia de Intel en todos los frentes. Intel hace CPU, GPU y chipsets. Es cierto, sus GPU no apuntan al mercado entusiasta pero seamos realistas ¿qué fracción del mercado tiene VGA High end? Para que ustedes sepan, queridos amigos, la gran mayoría de los computadores del mundo tienen gráficos integrados, y de esos la mayoría son Intel Expreme Graphics en alguna de sus formas.

Sin embargo, aunque ciertamente Intel no va a recibir con los brazos abiertos a Nvidia, parece que el sistemático desprecio que mostraron hacia las plataformas Nforce podría convertirse en súbito aprecio ahora que se están quedando sin un proveedor de soluciones High End. Si Nvidia tenía las puertas no cerradas pero sí juntas para colgarse del esperado éxito del Conroe combinándolo con placas SLI, tal vez ahora AMD le haya hecho un favor. Sea como sera, está claro que el gigante de las VGA tiene que empezar a recuperar todo el terreno perdido en los chipsets para Intel. Ahora todo indica que aunque no será desplazado por completo, también algo de terreno perderá a largo plazo con AMD. Ya dejó ir su presencia en consolas cuando Microsoft no quiso repetir la aventura de la Xbox. Es evidente que en este nuevo escenario tendrá que contrarrestar todo esto.

Cuál es su mejor salida? Primero, disfrutar de su supermacía en AM2 tanto como le dure. Segundo, convertirse en el mayor desarrollador de chipsets third party para Intel y, tercero, explorar nuevos mercados y nuevos nichos en la eventualidad de que su carácter de proveedor externo lo tenga relegado a plazos y condiciones distintas a las que recibirán los productos propios de Intel y AMD-ATI. Ciertamente VIA ha podido vivir con eso, pero VIA forma parte de un conglomerado gigantesco de productos electrónicos, no tiene la obligación de ser autosustentable y por algo pueden darse el lujo de explorar lineas de productos que son mitad prototipo mitad modelo comercial, como ha pasado con todos los CPU C3 y C7-M. Nvidia, en cambio, no puede conformarse con una posición similar y si yo fuera ellos, saldría a negociar acuerdos para meterme en mercados hasta ahora soslayados.

¿Consecuencias a largo plazo? Minicore Madness

Cuando nos enteramos de esta inminente fusión, nos pareció igualmente inminente que Charlie Demerijian del Inquirer volvería a desempolvar su teoria de la funcionalidad de GPU en la CPU. Y no nos equivocamos.

En una columna bastante inspirada que escribe hoy, saca a colación el hecho de que todos los análisis que se han hecho hasta ahora pecan de miopía y que, aunque en rigor perciben correctamente la cobertura de mercado y los posibles cambios en la estructura de poder, no intuyen que la maniobra de AMD no apunta sólo a agregar a su cartera de productos aquellos que Intel tiene hoy, y que aunque ese nuevo equilibrio de poderes ciertamente tiene a un AMD fortalecido, no e
ra únicamente ese el efecto buscado por la empresa de don Héctor.

Por un lado, Demerijian opina que Nvidia debiera dar gracias por la fusión AMD-ATI. ¿Porqué? Pues, porque en su opinión, no adquirir ATI hubiera llevado a AMD a desaparecer en máximo 5 años, luego esta fusión era lo único que podía salvar del desastre al mejor cliente que Nvidia ha tenido nunca. Curiosa manera de poner las cosas. Nvidia tiene que agradecerle a AMD haber comprado a su mayor competidor, porque sino se quedarían sin cliente.

Ahora, porqué piensa Demirijan que AMD iba a desaparecer si no compraba ATI? Su teoría es que nos encaminamos a un brusco cambio en el planteamiento de la arquitectura computacional y que aunque estamos viendo los frutos desde ya, la tendencia seguirá avanzando hasta redefinir el concepto del procesador.

Tal como Sun tiene su plataforma Niagara y la PS3 tiene el procesador Cell hecho por IBM, Intel ha desarrollado un proyecto paralelo a sus actuales Conroe y Merom, basado en el concepto de Minicore. Estos miniprocesadores, nombre clave Larrabee, apuntan a un sistema “diversificado” en donde no haya un procesador central, ni siquiera un procesador multi core, sino más bien muchos miniprocesadores, en donde ninguno es autosuficiente.

Dice Demerijian que AMD se aproximará ahora a crear también un proyecto centrado en este enfoque. Que al pensar en la unidad de procesamiento como un enjambre de mini-CPUs interactuando el diseño se empieza a volver modular y resulta más fácil darle a distintos sectores o distintos mini nucleos funcionalidades particulares. Esto influye también en el ciclo de renovación del producto, puesto que podrías empezar a pensar en abandonar el método del rediseño actual de CPU entre una generación y otra, sino en variar la interacción y el número de mini-cores, así como también la funcionalidad individual apuntando a diseñar para algunos nichos más especializados. En vez de vender un CPU que haga todo, podrías usar ls misma unidad básica para generar un enjambre especializado en punto flotante, o un enjambre especializado en operaciones integer. Si los mismos electrones, protones y neutrones sirven para crear cualquier elemento, esa aproximación no puede estar tan errada.

Finalmente, Demerijian retorna a su teoría sobre la funcionalidad de GPU en los CPU. Esto no implica integrar una GPU en el nucleo como algunos pensaron, sino más bien darle a la CPU las habilidades de desarrollar procesamiento paralelo tal como los distintos pipelines de una GPU hacen hoy… teniendo un enjambre de minicores esto ya no es tan descabellado. Es más, la idea aquí es que con el enfoque que Sun ha empezado a sugerir, y que Intel parece dispuesto a seguir, llegará el momento en que las VGA discretas sencillamente dejen de ser necesarias y que, para las empresas que dominen la técnica de los minicores sea bastante sencillo crear un enjambre especial orientado al nicho gamer. Misma unidad básica, distinto número e interacción de minicores.

Update: Demerijian le achunta

Aunque la teoría de Demerijian sobre los minicores es aún difusa, se nota que no está chamullando.

Un cuadro que se forma parte del informe de análisis de la fusión revela lo que podría ser la visión a largo plazo que hubo detrás de esta fusión: una arquitectura modular muy similar a lo que en Junio AMD describió como Torrenza, en donde diversa cantidad de CPU y GPU puedan integrarse a una plataforma para darle mayor o menor relevancia a ciertas tareas específicas.

Por supuesto, lo que estamos viendo no sólo es una idea bastante general y desprovista de fundamentos técnicos, pero la intención ya es patente.

Y hablando de patentes, fíjense cómo se llama la patente que -nos enteramos ahora- AMD presentó hace pocos días: “CPU and graphics unit with shared cache”. Digo… yo no patentaría algo así a menos que realmente tuviera un procesador con GPU incorporado en mente.

Fuentes:
News.com
Hexus
AMD
Ars Technica
The Inquirer
Daily Tech