Un grupo de expertos en inteligencia artificial financiada principalmente por la Musk Foundation y ejecutivos del sector, pidieron una pausa de seis meses en el entrenamiento de sistemas más potentes que el recién lanzado modelo GPT-4 de OpenAI. En una carta abierta, aluden a posibles riesgos para la sociedad y la humanidad.
A principios de este mes, el programa respaldado por Microsoft que se denomina OpenAI, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios por generar conversaciones similares a las humanas, composición de canciones y el resumen de documentos extensos.
“Los potentes sistemas de IA solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables”, afirma la carta publicada por el Future of Life Institute. La organización sin ánimo de lucro financiada principalmente por Musk, así como por el grupo londinense Founders Pledge y la Silicon Valley Community Foundation, según el registro de transparencia de la Unión Europea.
La carta fue firmada por más de mil personas, entre ellas Elon Musk. Sam Altman, presidente ejecutivo de OpenAI, no estaba entre ellos, ni tampoco Sundar Pichai y Satya Nadella, presidentes ejecutivos de Alphabet y Microsoft.
Esta preocupación coincide con la atención de los legisladores estadounidenses sobre ChatGTP por su posible impacto en la seguridad nacional y la educación. Europol, la policía de la UE, advirtió el lunes del posible uso indebido del sistema en intentos de desinformación y ciberdelincuencia.
Por su parte, OpenAI no respondió de inmediato a una solicitud de comentarios sobre la carta abierta, que instó a una pausa en el desarrollo avanzado de IA hasta que haya protocolos de seguridad compartidos de expertos independientes y desarrolladores que trabajen con los responsables políticos en la gobernanza.