Un reporte técnico publicado por la empresa californiana OpenAI al mismo tiempo que presentó la versión GPT-4, recomendó que se debe tener precaución en el uso de este modelo de inteligencia artificial (IA) generativa y echar mano “del protocolo exacto (como la revisión humana, la fundamentación con contexto adicional o evitar por completo los usos de alto riesgo) en función de las necesidades de cada aplicación”.
El documento detalla que en diversas pruebas con expertos en la materia, “GPT-4 presenta riesgos similares a los modelos de lenguaje más pequeños, como la generación de consejos dañinos, código con errores o información inexacta. Sin embargo, las capacidades adicionales del modelo conducen a nuevas ámbitos de riesgo”.
Los especialistas en ámbitos como los riesgos de alineación a largo plazo de la IA, ciberseguridad, biorriesgo y seguridad internacional probaron el modelo. “Sus hallazgos nos permitieron probar el comportamiento en áreas de alto riesgo que requieren una evaluación especializada, así como valorar riesgos que serán relevantes para IA muy avanzadas, como la búsqueda del poder”.
El reporte agrega que las recomendaciones resultantes y datos de entrenamiento recabados por estos expertos se incorporaron al modelo, “por ejemplo, hemos recabado datos adicionales para mejorar la capacidad de GPT-4 de rechazar peticiones sobre cómo sintetizar sustancias químicas peligrosas”.
La interfaz de inteligencia artificial ChatGPT se caracteriza por generar todo tipo de textos bajo demanda y su sucesor, GPT-4, alcanza “un nivel multimodal a gran escala que puede aceptar entradas de imagen y texto y producir salidas de escritos”, difundió la empresa.
OpenAI destaca que “puede utilizarse en una amplia gama de aplicaciones, como sistemas de diálogo, resumen de textos y traducción automática. Como tales, han sido objeto de gran interés y progreso en los años recientes.
En los meses pasados se publicaron múltiples artículos especializados que evidencian las fallas en los modelos GPT en funcionamiento.
El texto divulgado por la desarrolladora consigna las capacidades del GPT-4 y dedica buena parte de su extensión a explicar la manera en que se enfrentaron los riesgos y limitaciones de la interfaz.
Análisis de los retos
Añade que “las capacidades y limitaciones de GPT-4 crean retos de seguridad significativos y novedosos, y creemos que el estudio cuidadoso de estos retos es un área importante de investigación dado el impacto social potencial (...) Algunos de los riesgos que prevemos son en torno a la parcialidad, la desinformación, el exceso de confianza, la privacidad, la ciberseguridad y la proliferación”.
Sostiene que en general, “desconoce los acontecimientos que se han producido después de que la gran mayoría de sus datos de prentrenamiento se interrumpieran en septiembre de 2019, y no aprende de su experiencia. A veces puede cometer errores de razonamiento simples que no parecen corresponderse con la competencia en tantos dominios, o ser demasiado crédulo al aceptar afirmaciones obviamente falsas de un usuario.
“Puede fallar en problemas difíciles del mismo modo que los humanos, como introducir vulnerabilidades de seguridad en el código que produce. También puede equivocarse con seguridad en sus predicciones, sin tener cuidado de volver a comprobar el trabajo cuando es probable que cometa un error”.