Nvidia ha sacado interesantes dividendos de su soporte para Pixel Shader 3, pero aguas! Tanto ATI como XGI ya lo tienen más que incluído en sus planes.
Nota: Afirmativo, XGI todavía existe. No mucho, pero existe.
Pixel Shader 3 ñaca ñaca
Nvidia es el único fabricante cuyas tarjetas soportan esta tecnología, un camino de renderizado más eficiente que sus predecesores, y que por lo tanto deviene en mayores rendimientos.
Actualmente, juegos tan populares -y exigentes- como el Painkiller y el Far Cry pueden sacar provecho del PS 3 para correr más mejol en una tarjeta Nvidia, eso sí, mediante un parche pichicatero.
La ventaja estratégica de Nvidia podría verse anulada antes de que los juegos optimizables compongan la mayoría, pues para entonces, al menos en el papel, se anuncia que ATI y XGI tendrán soluciones a la altura.
Go Fudo Go!
Hace casi un mes, en esta noticia les contamos sobre el primer rumor de lo que será el core R520, nombre clave Fudo, la próxima generación de tarjetas ATI. Información escasa pero actualmente confirmada y algo ampliada.
En efecto, el R520 soportará pixel shader 3, y según se dice será desarrollado por el mismo equipo que hizo las R300… qué tiene esto de especial? Que las X800, x700 y otras X son de otro team… anecdótico, no lo sabía.
Tal como ha pasado con otras tecnologías, ATI en general adopta las mismas cosas que Nvidia sólo que séis meses después. Como consecuencia Nvidia siempre puede argumentar novedad, tal como con las GDDR2, GDDR3 y el mismo PS3. pero las paga carísimo y no necesariamente recupera esa plata por concepto de imágen. ATI en general ha sido sabio para esperar a que las tecnologías maduren y las puedan implementar con calma.
Por lo que a shader se refiere, el PS4 no saldrá hasta el 2006, porque está contenido en Longhorn, así que el campo está asegurado por algunos meses.
XGI todavía existe
El apéndice extirpado de SIS, que no logró calentar a nadie con la Volari, no baja los brazos. Anunciaron dos nuevos cores para el primer trimestre del 2005, los XG45 y XG47. Ambos serán capaces de correr Pixel Shader 3.
Según dice the Inquirer, ambos núcleos han sido diseñados paralelamente para .13 y 0.09 micras… algo así como que decidirán en qué tamaño producir de acuerdo a los índices de éxito de los wafer… eso me suena raro… más razonable sería pensar que uno de ellos es de 130nm y el otro de 90, no será muy caro diseñar 4 tarjetas, dos de las cuales son “porsiaca?”.
Como sea, estas volari no intentarán competir con los monstruos GF 6800 Ultra ni X800XT PE, sino que irán a la camorra del tramo medio, prometiendo ser dura competencia para la Geforce 6600GT y Radeon X700. Si es verdad y el precio es bajo, bienvenidas sean, pero esta vez acuérdense de hacerle drivers a su mugre!
Todo indica que esta decisión se tomó porque los índices de falla para producir una tarjeta de 16 pipelines los mandarían a la quiebra, por lo que se espera que le chanten sólo 8, como se estila ahora en el mid-end. Yo le pondría 11 pipelines… sólo para desconcertar al enemigo y haría que con un softmod pudieras encender dos más para tener una tarjeta de mala suerte.
No se sabe si alguno de estos cores existirá en versión dual. De que se la puede, se la puede, porque la arquitectura de la Volari está pensada en multi GPU… ahora, que es un cacho… lo es, sobretodo cuando te matas para sacar una tarjeta dual y después nadie la compra.
Fuente:
La peor fuente de la red, noticia XGI
La peor fuente de la red, noticia ATI