La capacidad de replicación de la inteligencia artificial (IA) es más parecida a lo que ya sucede con un virus informático o un troyano, explican los especialistas Rocío Aldeco-Pérez y Carlos Coello. Un acontecimiento que sí sería alarmante es la posibilidad de conciencia, momento que todavía no parece posible en un futuro cercano.
Los expertos añadieron que el artículo elaborado por cuatro investigadores de la Universidad de Fudan, una de las más prestigiosas en China, al que refiere la nota publicada ayer por La Jornada, en el que se afirma que la IA cruzó un límite peligroso al aprender a replicarse
sin ayuda humana, es un trabajo que no ha sido publicado por una revista científica ni revisada por expertos
.
De igual forma, continuaron, el texto de carácter académico alerta sobre la necesidad de que exista cooperación internacional para legislar la autorreplicación de la IA.
De acuerdo con la descripción del experimento, los investigadores chinos le dieron la orden de duplicarse como una instancia en ejecución en un dispositivo local
. Se usaron los programas Llama, lanzado por Meta y Qwen, desarrollado por Alibaba, dos grandes modelos lingüísticos o LLM, por las siglas en inglés.
En el texto que se encuentra en el sitio arXiv advierten que la autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA sea más inteligente que los seres humanos y es una señal temprana para las IA rebeldes
. Es por eso que la autorreplicación es ampliamente reconocida como uno de los pocos riesgos de los sistemas de IA de vanguardia.
Esperamos que nuestros hallazgos sean una alerta oportuna para que la humanidad se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas de IA, y formar una sinergia internacional para elaborar barreras de seguridad efectivas lo antes posible.
Rocío Aldeco-Pérez, investigadora en el departamento de Computación en la Facultad de Ingeniería de la Universidad Nacional Autónoma de México (UNAM), consideró que es un tema complicado y hay mucha desinformación en el proceso
del artículo que es conocido como preprint
, y habría qué observar la retroalimentación de los expertos. El artículo original no es alarmista, considera.
“Me parece que emplear la palabra ‘replicación’ es muy fuerte, porque genera una copia de sí mismo, que finalmente es código, junto con el entrenamiento y el modelo que está ahí”, respondió la académica a La Jornada.
Los autores chinos intentan ver cómo esas replicas pueden mejorarse a sí mismas, lo cual sí sería más interesante y no es lo mismo. Hay que hacer una distinción de qué tanto estas copias pueden representar una situación de ataques maliciosos
, puntualizó.
Otro aspecto que mencionó la experta en ciberseguridad es que hicieron el experimento en un ambiente cerrado, al que no cualquiera puede tener acceso, ya que las empresas dueñas de estos modelos no lo van a permitir. Incluso la nueva IA china, que se dice de código abierto, cuando se lo solicitas directamente responde que no puede; hay una verificación en términos de seguridad
.
Destacó que “no cualquiera va a agarrar esos modelos de IA generativa, va a multiplicarlos y regarlos por el mundo, pensando muy catastróficamente. No creo que sea posible, insisto por las medidas de seguridad.
“El término de ‘autonomía’ está mal entendido en IA desde esos modelos”, continuó Aldeco-Pérez, pues no es lo mismo decir que un ser humano es autónomo, que atribuir esta característica a un código. La IA se da cuando solicito a estos modelos que hagan algo y lo pueden hacer únicamente con la orden. Son capaces porque estuvieron previamente entrenados, y están limitados al control humano; es decir, alguien tiene que dar el clic. Una IA que sea más parecida a nosotros los humanos necesitaría conciencia, y eso no existe al día de hoy; eso se acercaría más a ser autónomos como seres humanos
.
Cooperación y control
El documento de los chinos habla del proceso que siguieron para replicar, si estas réplicas son idénticas y hablan de la necesidad de legislación; es como tener un virus y generar un código malicioso que se autorreplica. Concluyen que la colaboración a escala internacional debe prevalecer
.
Por su parte, Carlos Coello Coello, investigador en el Cinvestav del Instituto Politécnico Nacional (IPN), refirió en entrevista con La Jornada que el experimento realizado en la Universidad de Fudan indica que debe existir gobernanza.
“No es un problema tan grave ahora, pero podría serlo en el futuro, porque las herramientas que son las IA, cuando las liberan en el dominio público, tienen ciertos mecanismos de control. Por ejemplo, puedo pedir a ChatGPT las instrucciones de la bomba de hidrógeno y no me las va a dar. Algo así debería de ser la capacidad de autorreplicación. Los investigadores chinos dicen que la capacidad de replicarse sí la tienen, sólo que debería inhibirse.
¿Por qué sería un peligro la autorreplicación? Hay que distinguir, no significa que la herramienta evolucione, no está viva, pero sería mucho más difícil borrarla, si hiciera cosas incorrectas; sería como un virus en la Internet. Resulta que cuando la quiero desactivar se vuelve a copiar sola.
El primer computólogo en ingresar a El Colegio Nacional destacó que “es una alerta, pero tampoco es como lo ponen en la ciencia ficción: ‘¡ya se va a adueñar de la humanidad!’ Es más bien que no lo voy a poder borrar, y eso es un peligro potencial”.
Coincidió en que el autorreplicarse no significa que tenga la capacidad de mejorarse, eso sí sería muy peligroso, sería como un ente viviente que está evolucionando sin intervención humana. Más bien sería molesto, lo equivalente a virus maliciosos de computadora
.
La autorreplicación es un tema muy antiguo; el matemático húngaro John von Neumann fue el primero que lo planteó en los años 40 del siglo pasado, en esa época sonaba como una locura.
Los autores chinos dicen que las capacidades que las grandes empresas nos dicen que no las tienen, sí las tienen, probablemente inhibidas en el código
, añade Coello, pero eso no quiere decir que la IA tenga conciencia como los seres vivos.
Un poco lo que concluye el artículo es la urgencia de acuerdos, porque ahora con DeepSeeek, que sacudió a la bolsa de valores, hay una enorme rivalidad entre Estados Unidos y China.
El investigador explicó que el país del norte había pregonado su superioridad en investigación en IA, entonces, que China sacara un gran modelo de lenguaje tan poderoso como DeepSeek, y que les costó entrenarlo sólo 6 millones de dólares y no 100 mil millones, que es lo que gastaron en OpenIA, es realmente una cachetada con guante blanco
.
El mensaje que mandan desde Fudan es que urge cooperación internacional para evitar el peligro de que la IA se autorreplique; por otra parte, la conciencia es algo inherente a los seres biológicos, que no entendemos plenamente. Las IA no son entes biológicos producto de una evolución natural como nosotros: son producto simplemente de programación
, insistió el especialista.