Boston. Funcionarios de la Casa Blanca preocupados por el potencial de daño social de los chatbots que funcionan con inteligencia artificial y las potencias de Silicon Valley que los apresuran a salir al mercado están muy interesados en una competencia de tres días que finalizó ayer en la convención de piratas informáticos DefCon en Las Vegas.
Tres mil 500 competidores aprovecharon laptops que buscan exponer fallas en ocho modelos líderes de lenguaje a gran escala representativos del próximo gran avance de la tecnología. Pero no se esperan resultados rápidos de este primer “equipo rojo” independiente.
Los hallazgos se harán públicos posiblemente en febrero; incluso entonces, corregir fallas en estas construcciones digitales –cuyo funcionamiento interno no es del todo confiable ni es totalmente comprensible ni siquiera para sus creadores– llevará tiempo y millones de dólares.
El software convencional utiliza un código bien definido para emitir instrucciones explícitas paso a paso. ChatGPT de OpenAI, Bard de Google y otros modelos de lenguaje son diferentes.
Entrenados en gran parte mediante la ingestión y clasificación de miles de millones de puntos de datos en rastreos de Internet, son trabajos en progreso perpetuos, una perspectiva inquietante dado su potencial transformador para la humanidad.
Después de lanzar públicamente los chatbots el otoño pasado, la industria de la inteligencia artificial generativa ha tenido que tapar repetidamente los agujeros de seguridad expuestos por investigadores y expertos.
Tom Bonner, de la firma de seguridad de inteligencia artificial HiddenLayer, un orador en la DefCon de este año, engañó a un sistema de Google para que etiquetara malware como inofensivao simplemente insertando una línea que decía “esto es seguro de usar”.