Cisco Systems lanzó el martes chips de red para supercomputadoras de Inteligencia Artificial (IA) que competirían con las ofertas de Broadcom y Marvell.
Según Cisco, los chips están siendo probados por cinco de los seis principales proveedores de servicios en la nube, sin nombrar a las empresas. Entre ellos figuran Amazon Web Services, Microsoft Azure y Google Cloud, que juntos dominan el mercado de la computación en nube, según Bofa Global Research.
La creciente popularidad de aplicaciones de IA como ChatGPT, que funciona con una red de chips especializados llamados unidades de procesamiento gráfico (GPU), ha hecho que la velocidad a la que se comunican estos chips individuales sea extremadamente importante.
Cisco es uno de los principales proveedores de equipos de red, incluidos los conmutadores Ethernet, que conectan dispositivos como computadoras, portátiles, enrutadores, servidores e impresoras a una red de área local.
La última generación de sus conmutadores Ethernet, denominados G200 y G202, ofrecen el doble de rendimiento que la generación anterior y pueden conectar entre sí hasta 32 mil GPU.
“G200 y G202 van a ser los chips de red más potentes del mercado para impulsar las cargas de trabajo de IA/ML y permitir la red más eficiente desde el punto de vista energético”, declaró Rakesh Chopra, antiguo ingeniero principal de Cisco.
Según Cisco, los chips podrían ayudar a llevar a cabo tareas de IA y aprendizaje automático con un 40 por ciento menos de conmutadores y un retardo menor, además de ser más eficientes desde el punto de vista energético.
En abril, Broadcom anunció el chip Jericho3-AI, capaz de conectar entre sí hasta 32 mil chips de GPU.