Economía
Ver día anteriorJueves 30 de enero de 2025Ediciones anteriores
Servicio Sindicado RSS
Dixio
OpenAI acusa a empresas chinas de intentar copiar sus modelos avanzados
 
Periódico La Jornada
Jueves 30 de enero de 2025, p. 24

Washington. OpenAI, creador del robot conversacional ChatGPT, acusó este miércoles a empresas chinas de intentar copiar sus modelos avanzados de inteligencia artificial (IA), por lo que llamó a aumentar la seguridad en el sector local y a estrechar la cooperación con las autoridades estadunidenses.

La declaración de OpenAI llega luego de que la startup china DeepSeek provocara pánico en el mercado financiero de Wall Street esta semana con la presentación de su poderoso chatbot desarrollado a una fracción del costo de sus competidores estadunidenses.

El desempeño de DeepSeek y la atracción desatada, generaron una ola de acusaciones de que la empresa desarrolló ingeniería inversa a partir de tecnologías líderes creadas en Estados Unidos, como la empleada en la IA aplicada por el ChatGPT.

OpenAI explicó que los competidores chinos estaban usando un proceso conocido como destilación en el que los desarrolladores que crean modelos menores aprenden de los más grandes copiando su comportamiento y sus patrones de toma de decisiones, un proceso similar al de un estudiante que aprende de los conocimientos de un maestro.

Sabemos que las empresas con sede (en China), y otras, están constantemente intentando destilar los modelos de las empresas estadunidenses líderes en IA, declaró un portavoz de OpenAI a la Afp, destacando las tensiones entre China y Estados Unidos en torno a la protección de la propiedad intelectual de la IA.

El chatbot de la empresa emergente china de IA DeepSeek sólo alcanzó 17 por ciento de precisión en la entrega de noticias e información en una auditoría de NewsGuard, que lo situó en el décimo puesto de once en una comparación con sus competidores occidentales, incluidos ChatGPT de OpenAI y Google Gemini.

El chatbot repitió afirmaciones falsas 30 por ciento de las veces y dio respuestas vagas o poco útiles 53 por ciento de las veces en respuesta a preguntas relacionadas con noticias, lo que se tradujo en un porcentaje de fallas de 83 por ciento, según un informe publicado el miércoles por el servicio de calificación de la fiabilidad NewsGuard.