Ciencias
Ver día anteriorJueves 6 de abril de 2023Ver día siguienteEdiciones anteriores
Servicio Sindicado RSS
Dixio
Biden: empresas tecnológicas deben garantizar que la IA es segura
 
Periódico La Jornada
Jueves 6 de abril de 2023, p. 9

Washington. El presidente estadunidense, Joe Biden, dijo el martes pasado que aún está por verse si la inteligencia artificial es peligrosa, pero que cree que las empresas tecnológicas deben garantizar que sus productos sean seguros antes de lanzarlos al mercado.

Biden se reunió con su consejo de asesores sobre ciencia y tecnología para hablar de los riesgos y oportunidades que los rápidos avances en inteligencia artificial plantean para los usuarios y la seguridad nacional.

La IA puede ayudar a afrontar algunos retos muy difíciles, como las enfermedades y el cambio climático, pero también tiene que abordar los riesgos potenciales para nuestra sociedad, nuestra economía y nuestra seguridad nacional, comentó Biden al grupo, que incluye académicos, así como ejecutivos de Microsoft y Google.

En los últimos meses, la inteligencia artificial ha saltado al primer plano de la conversación mundial tras el lanzamiento del popular ChatGPT, que ha contribuido a desencadenar una carrera entre los gigantes tecnológicos para desarrollar herramientas similares, al tiempo que ha suscitado preocupaciones éticas y sociales sobre la tecnología capaz de generar una prosa convincente o imágenes que parezcan obra de seres humanos.

Aunque las empresas tecnológicas siempre deben ser responsables de la seguridad de sus productos, el recordatorio de Biden refleja algo nuevo: la aparición de herramientas de IA fáciles de usar que pueden generar contenidos manipulables y medios sintéticos de aspecto realista conocidos como deepfakes, dijo Rebecca Finley, directora ejecutiva de Partnership on AI, respaldada por la industria.

La Casa Blanca señaló que el presidente aprovechó la reunión sobre IA con el fin de discutir la importancia de proteger los derechos y la seguridad para garantizar una innovación responsable y salvaguardias adecuadas, además de reiterar su llamamiento al Congreso a que apruebe leyes que protejan a los niños y limiten la recopilación de datos por parte de las empresas tecnológicas.

La semana pasada, Italia bloqueó temporalmente ChatGPT por motivos de privacidad de los datos y los legisladores de la Unión Europea han estado negociando la aprobación de nuevas normas para limitar los productos de IA de alto riesgo en los 27 países del bloque.

En cambio, Estados Unidos ha adoptado un enfoque de no intervención respecto al desarrollo comercial de la IA, comentó Russell Wald, director ejecutivo de política y sociedad del Stanford Institute for Human-Centered Artificial Intelligence.