La Ley de Moore está muerta y las GPU reemplazarán a las CPU, según NVIDIA

NVIDIA Multi GPU

Qué van a decir ellos, diréis, pero según va la tecnología, puede que no nos quede mucho para el futuro que plantea NVIDIA. Y es que, recientemente, el CEO de la compañía líder en tarjetas gráficas (y quienes han construido el corazón de Nintendo Switch) ha afirmado que la Ley de Moore está muerta y que las tarjetas gráficas, o GPU, terminarán imponiéndose a los procesadores, o CPU, en poco tiempo.

Para quienes no lo sepáis, la Ley de Moore se formuló en 1965. El artífice fue uno de los padres de Intel (líderes en creación de procesadores y quienes acaban de anunciar su octava generación de procesadores Intel Core), quien afirmó que la potencia de los mismos se duplicaría cada dos años. Esto se ha ido cumpliendo casi a rajatabla, pero últimamente vemos que la potencia de los procesadores no crece al mismo ritmo que la de las tarjetas gráficas.

Tienda gaming de Amazon

Según leemos en PC Gamer, y como dice Huang, CEO de NVIDIA, los motivos por los que la Ley de Moore está muerta son que, ahora, la potencia de los procesadores crece a un 10% anual (cuando antes lo hacía a un 50% en el mismo periodo de tiempo). Además, según él, los avances en tarjetas gráficas no pueden ser seguidos por los procesadores.

Todos los detalles de Asus Zephyrus, el portátil más fino con una GTX 1080

Puede que esto os parezca exagerada, pero en el mundo del gaming es algo que vemos sin demasiada dificultad. Los juegos, cada vez más, se apoyan en la GPU más que en la CPU (excepto excepciones como títulos de estrategia o los juegos de la saga Crysis, especialmente voraces en lo que a poder de CPU se refiere). Con un procesador de hace tres o cuatro años, como los Intel Core i7 de cuarta generación, que ha llovido desde entonces, y una gráfica de última generación, te puedes defender en un videojuego con un nivel gráfico muy alto. Al revés es algo inviable. 

Claro está, desde Intel no están de acuerdo con lo que ha dicho el CEO de NVIDIA, pero está claro que las tarjetas gráficas cada vez tienen más núcleos de procesamiento y ya no se destinan tanto a tareas puramente gráficas, sino también de procesado de datos que antes estaban sólo en manos de las CPU. Veremos dónde nos lleva este camino... y si en un futuro nos podemos ahorrar un componente en nuestros PC.

Fuente | PC Gamer

Lecturas recomendadas