domingo, 6 de junio de 2010

Intel replantea su proyecto de gráficos Larrabee

Intel matiza que el procesador gráfico aparecerá como una
plataforma de desarrollo de software, y no será lanzado
para competir como solución potente de gráficos.

Nadie duda de que Intel es el fabricante
líder por excelencia de los procesadores
más potentes y eficientes
del mercado, con una evolución constante
en sus procesos de fabricación
que garantiza el respaldo que le brindan
todos los fabricantes de equipos
informáticos. Sin embargo, si lo extrapolamos
al mundo de los procesadores
gráficos, no sucede lo mismo,
en base al pasado y al presente más
inmediato. Si hacemos un poco de
memoria, cabe recordar que en el año
1998, Intel introdujo el chipset para
gráficos discretos i740 que ayudó a
popularizar la interfaz gráfica de tipo
AGP. Sin embargo, el rendimiento
fue algo decepcionante con respecto
a las soluciones gráficas de ese instante,
lo que propició que rápidamente
desapareciera quedase en un segundo
plano en el mercado. Siempre hablando
de soluciones basadas en tarjetas,
no en gráficos integrados, donde Intel
tiene gran cuota de mercado.
Una década después, todos esperábamos
una solución gráfica que ha
creado grandes expectativas, conocida
como el proyecto Larrabee. En multitud
de ocasiones, Intel ha destacado
sus grandes dotes para poder competir
con el resto de soluciones del mercado,
con una GPU creada con un
proceso de fabricación de 45 nanómetros
y 32 núcleos en su interior, capaz
de interpretar las instrucciones x86,
con el fin de interactuar y
poder llevar a cabo algunos
de los procesos que habitualmente
realiza la CPU. También
se destacó desde el principio
que sus prestaciones
alcanzaban los 2 TeraFLOPS
(1 TeraFLOP es un trillón
de operaciones de coma flotante
por segundo), y es un
indicador del rendimiento de cualquier
CPU y GPU actual.
Pero todo cambió cuando la división
de gráficos de la competencia,
AMD, lanzó la familia de chipset
Radeon HD 5870 de 40 nanómetros
y capaz de desarrollar 2,72 Tera-
FLOPS, justo antes de que Intel llegase
a mostrar un prototipo de Larrabee
el pasado mes de septiembre,
coincidiendo con la celebración de
uno de sus IDF (Intel Developer
Forum). Posteriormente, AMD ha
reforzado su presencia con la Radeon
HD 5970, capaz de alcanzar los 5
TeraFLOPS, y actualmente la única
solución compatible plenamente con
la API DirectX 11, lo que a priori
parece ser el desencadenante final
para que Intel haya decidido cancelar
o reorientar su proyecto. De hecho,
fue el pasado viernes cuando Intel
destacó que el procesador gráfico aparecerá
únicamente como una plataforma
de desarrollo de software para
uso interno y externo, y no será lanzado
para competir como un producto
de gráficos integrados.
El hardware de Larrabee está basado
en la CPU Pentium P54C. Contiene
unidades de procesamiento vectorial
para incrementar las
prestaciones de las aplicaciones de
vídeo y gráficos. Los núcleos ofrecen
soporte HyperThreading (extrapolado
de sus CPU), con posibilidad de
direccionar cuatro hilos por núcleo,
cada uno con su propio registro de
acceso a la memoria. Todos los
núcleos en Larrabee comparten el
acceso a la memoria cache L2 y la
comunicación entre todos los núcleos
Larrabee se lleva a cabo a través de un
bus bidireccional de 1024 bits.
El roadmap de Larrabee mostró
una futura versión de 48 núcleos
basada en el proceso de fabricación
de 32 nanómetros. Para 2012 había
previsiones incluso de optimizarlo a
procesos de 22 nanómetros.
En su lugar, los competidores
siguen jugando sus bazas. Además de
los chipsets gráficos indicados de

AMD, su roadmap indica que en los
próximos ocho meses tendría que ver
la luz su nueva plataforma Fusion, el
proyecto que combinará en una misma
oblea de silicio el procesador o
CPU y la unidad de procesamiento
gráfico GPU, de manera que se ofrezcan
de manera integrada. Nvidia por
su parte, mantiene su respaldo a la
arquitectura de procesador CUDA
con el fin de aprovechar la gran capacidad
de procesamiento paralelo de
las GPU que cuentan con múltiples
núcleos, así como la familia de gráficas
Tesla GPU.

No hay comentarios:

Publicar un comentario