El desarrollo de inteligencia artificial (IA) en México en el nivel institucional está todavía “en pañales”, considera Everardo Bárcenas Patiño, director del Laboratorio de Inteligencia Artificial Microsoft de la Universidad Nacional Autónoma de México (UNAM).
En entrevista con La Jornada, el profesor de la Facultad de Ingeniería recalca que en el país “no tenemos la perspectiva y el impulso como para que podamos contribuir de una manera similar a cómo se hace en otras naciones”.
Explicó que si bien existen aquí varios grupos de investigadores que tienen nivel internacional, son pequeños si los comparamos con otros del extranjero. La IA en nuestro país se usa principalmente en la industria, aunque su desarrollo se halla vinculado a lo que las empresas trasnacionales invierten, lo cual es “muy, muy limitado”, lamenta el especialista.
Bárcenas explicó que las instituciones que lideran el campo en nuestro territorio son la UNAM, el Instituto Nacional de Astrofísica, Óptica y Electrónica, así como el Centro de Investigación en Matemáticas, del Consejo Nacional de Ciencia y Tecnología (Conacyt); también algunas universidades estatales y privadas, entre ellas el Tec de Monterrey, la Panamericana, la Ibero y la de Las Américas.
El especialista contó que colabora en el desarrollo de aplicaciones de inteligencia artificial vinculadas con la salud, como una que intenta predecir y prevenir la retinopatía diabética a través del análisis de señales eléctricas que emite la retina.
En torno a sistemas que pudieran incidir, por ejemplo en el combate o investigación de fenómenos como la pandemia de covid-19, comentó que esa crisis sanitaria tuvo un desarrollo tan dramático en tan poco tiempo “que hizo muy difícil desarrollar la tecnología. Espero que esta experiencia nos pueda servir para desarrollar alguna si nos encontramos en una situación similar en el futuro”.
Bárcenas Patiño, añadió que “desde las áreas de ingeniería y ciencias, la IA se relaciona con alguna aplicación o sistema capaz de reproducir la inteligencia humana”.
El investigador, quien se sintió atraído por esta materia luego de leer textos del divulgador y escritor de ciencia ficción Isaac Asimov, agregó que una de las características de estos sistemas de última generación es “aprender a partir de ciertos datos y ejemplos. Las aplicaciones como ChatGPT se han liberado como una especie de prototipo para que puedan interactuar con usuarios reales y a partir de ellos vayan creciendo y refinando sus capacidades”.
Previó que a partir de esta interacción, esas aplicaciones van a mejorar su desempeño “en las actividades que realizan, tan sorprendentes como la redacción de textos y la generación de programas mismos. Ahora no lo hacen de manera perfecta ni lo lograrán, pero la idea es que esa interacción pueda ayudar a que se acerquen a respuestas cada vez más precisas”.
Explicó que este tipo de programas se ha alimentado de información proveniente de Internet, estructurada a través de los años. Además, con los datos que obtiene hoy de los seres humanos, se siguen refinando.
El especialista rechazó aventurar los límites y capacidades que llegarán a tener este tipo de sistemas al ser pioneros. Sin embargo, puntualizó que un tope que tienen es la capacidad de procesamiento, pues dada “la interacción con seres humanos y toda la información que están produciendo, llegará un momento en que no podrán analizarla. En la medida que el desarrollo, desde el punto de vista de hardware y software (técnicas algorítmicas), permitan procesar cada vez más datos, estos sistemas evolucionarán”.