La concentración del desarrollo de la inteligencia artificial (IA) en grandes corporaciones marca una etapa interesante en la evolución tecnológica, pero también plantea riesgos significativos en derechos humanos y seguridad internacional
, afirmó Anahiby Becerril Gil, experta en derecho y tecnologías.
En entrevista con La Jornada, mencionó que si bien observa en la tecnología un alto potencial para transformar la sociedad, también considera que al concentrarse en unas cuantas empresas, puede profundizar la brecha tecnológica entre países, la manipulación del conocimiento y violentar derechos como la privacidad.
“La IA se ha convertido en un pilar central en la transformación digital, tiene implicaciones que van desde la automatización de procesos industriales, gubernamentales hasta temas de seguridad nacional y estabilidad nacional.
Sin embargo, su desarrollo está en manos de grandes corporaciones, lo que abre un potencial para la manipulación mediática, vigilancia, etcétera. Así como podemos usarla con propósitos buenos, que vayan acorde con la estabilidad internacional, puede ser usada con fines que no siempre van hacia los derechos humanos.
Además, destacó la importancia de monitorear las tecnologías emergentes, que en los pasados años se han visto potenciadas, a partir del auge de la IA. Tal es el caso de auriculares de neurofeedback, resonancia Magnética Funcional y prótesis neuronales controladas por la mente.
“Las neurotecnologías han avanzado rápidamente gracias a la IA, que optimiza la interpretación de señales cerebrales en tiempo real, facilitando aplicaciones en rehabilitación neurológica y educación personalizada.
Sin embargo, la posibilidad de registrar y manipular la actividad cerebral abre interrogantes sobre la privacidad mental y la autonomía individual: ¿Qué pasa con los datos neuronales que capturan estos dispositivos? ¿Quién los controla y con qué fines pueden ser utilizados?
, atajó Becerril Gil.
Destaca el caso de la empresa Neuralink, propiedad del empresario y político conservador Elon Musk, que desarrolla implantes cerebrales que permiten la comunicación directa entre el cerebro y dispositivos electrónicos. Son chips para ayudar a sanar enfermedades como el Parkinson y el Alzheimer, pero todas las tecnologías tienen un riesgo. ¿A dónde van los datos que recaban? Ese tipo de innovaciones que no están reguladas
.
Control desproporcionado
La experta mencionó que el desarrollo de la IA en manos de empresas como Google, Microsoft, Meta y en OpenAI plantea grandes desafíos. Podría generar desigualdad en el acceso a la innovación, falta de transparencia en sus aplicaciones y un control desproporcionado sobre el conocimiento y los datos
, dijo.
Esta situación podría limitar la competencia, aumentar los sesgos en los sistemas de IA, reducir la diversidad de enfoques, y afectar la autonomía de las personas y las decisiones colectivas
, agregó.
Para acotar los riesgos de la inteligencia artificial sin frenar la innovación tecnológica, Becerril Gil consideró fundamental que los países impulsen una regulación jurídica, que promueva instituciones que evalúen el impacto de la IA y se impulse la protección de datos personales y el desarrollo ético de herramientas de IA y de las tecnologías emergentes que fomentan.
Como ejemplo de esto, mencionó la normatividad elaborada por la Unión Europea sobre buenas prácticas en el caso de la desinformación, además de promover la importancia de la educación mediática para reportar contenido falso.
En el caso de México, destacó que la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) presentó un estudio en el que resaltó que el país aún no cuenta con un plan o estrategia nacional de IA, pese a que enfrenta desafíos significativos en el desarrollo e implementación de ésta.
El país ocupa el lugar 68 de 193 en el Índice de Preparación del Gobierno para la IA, mostrando debilidades en su visión estratégica, regulación adecuada y capacidades digitales internas, según este informe de 2023.
Normatividad
Un esfuerzo por impulsar legislación nacional en este rubro es la iniciativa de Ley General de Neuroderechos y Neurotecnologías presentada en el Senado durante 2024, que busca establecer un marco ético y de protección para el uso de tecnologías emergentes.
Necesitamos un plan donde definamos los objetivos y los valores que queremos para esta tecnología a escala nacional y hacia afuera, con otros países. La tecnología tiene que estar centrada en las personas.
Pero mientras en México el debate gira en torno a una regulación interna aún en construcción, a nivel internacional las tensiones entre potencias reflejan la dificultad de alcanzar consensos sobre el uso ético de la IA.
Esta semana se conoció que Estados Unidos y Reino Unido rehusaron firmar una declaratoria suscrita por 58 países, incluidos China y los miembros de la Unión Europea, para abogar por una inteligencia artificial abierta, inclusiva y ética
.
Aliarse con regímenes autoritarios
para desarrollar o regular la IA es un error y significa encadenarse a un amo autoritario que busca infiltrarse, instalarse y apoderarse de la infraestructura de información
, advirtió el vicepresidente estadunidense, J. D. Vance.
“La Unión Europea tiene una visión muy clara en donde hablan de potenciar su mercado digital y al mismo tiempo respetar los derechos de sus ciudadanos. Mientras que en Estados Unidos, lo que vemos es una postura encaminada a favorecer al mercado y mantener una hegemonía en IA.
Estas tensiones reflejan una preocupación global por el uso ético de la IA, acá el punto importante es recordar que la tecnología no tiene que violentar derechos humanos, tenemos que buscar un uso que en lugar de abrir brechas, ayude a resolver los grandes problemas de la humanidad
, concluyó.