Londres. Expertos en inteligencia artificial han expresado su preocupación después de que su trabajo se citara en una carta abierta –cofirmada por Elon Musk– en la que se exigía una pausa urgente en la investigación.
La carta, fechada el 22 de marzo y con más de mil 800 firmas hasta ayer, pedía una pausa de seis meses en el desarrollo de sistemas “más potentes” que el nuevo GPT-4 de OpenAI, respaldado por Microsoft, que puede mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos.
Desde el lanzamiento de ChatGPT, el predecesor de GPT-4, las empresas competidoras se han apresurado a lanzar productos similares.
La carta abierta afirma que los sistemas de IA con “inteligencia humana competitiva” plantean profundos riesgos para la humanidad, y cita 12 investigaciones de expertos, entre ellos académicos universitarios y empleados y ex empleados de OpenAI, Google y su filial DeepMind.
Grupos de la sociedad civil de Estados Unidos y la UE han presionado desde entonces a los parlamentarios para que frenen la investigación de OpenAI, que no respondió inmediatamente a los pedidos de comentarios.
Los críticos han acusado al Future of Life Institute (FLI), la organización que está detrás de la carta y que está financiada principalmente por la Musk Foundation, de dar prioridad a escenarios apocalípticos imaginarios frente a preocupaciones más inmediatas sobre la IA, como los prejuicios racistas o sexistas que se programan en las máquinas.
Entre las investigaciones citadas se encuentra “On the Dangers of Stochastic Parrots” (Sobre los peligros de los loros estocásticos), un conocido artículo del que es coautora Margaret Mitchell, que anteriormente supervisó la investigación ética de la IA en Google.
Mitchell, ahora jefa de ética científica en la empresa de IA Hugging Face, criticó la carta y dijo a Reuters que no estaba claro qué se consideraba “más potente que GPT-4”.
“Al dar por sentadas muchas ideas cuestionables, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI”, indicó. “Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos”.
Sus coautores Timnit Gebru y Emily M. Bender criticaron la carta en Twitter, y esta última calificó algunas de sus afirmaciones de “desquiciadas”.
El presidente de FLI, Max Tegmark, señaló que la campaña no era un intento de obstaculizar la ventaja corporativa de OpenAI.