Opinión
Ver día anteriorLunes 13 de febrero de 2023Ver día siguienteEdiciones anteriores
Servicio Sindicado RSS
Dixio
 
Inteligencia artificial: parteaguas histórico
A

pesar de que la inteligencia artificial (IA) se estudia desde mediados de los años 50 y de que sus aplicaciones se han ido desarrollando a lo largo de este periodo, sólo recientemente el tema ha cobrado una gran notoriedad en la opinión pública. En gran medida, esto se debe a la irrupción de ChatGPT, un chatbot lanzado por la empresa OpenAI que tiene la capacidad de componer música, guiones para televisión y cuentos, además de responder preguntas para exámenes e incluso escribir y corregir programas informáticos.

La capacidad de ChatGPT para producir textos creíbles ha asombrado a todos. Por supuesto, este asombro se acompaña con una dosis de preocupación de quienes ven en esta tecnología riesgos que pueden ser clasificados en dos grandes categorías: los riesgos presentes, es decir, aquellos que se pueden derivar de la aplicación de ChatGPT en su estado actual y los riesgos potenciales, los que surgirán del desarrollo sucesivo de la IA.

En su estado actual, como han señalado diversos expertos, ChatGPT representa una amenaza para el sistema formativo de ciudadanos capacitados. Tradicionalmente, los gobiernos democráticos han dependido para su funcionamiento de la capacidad de sus ciudadanos en formar una opinión medianamente informada sobre los acontecimientos que les afectan. Con el fin de preparar a los ciudadanos y que éstos puedan elegir de mejor manera quién los va a gobernar, qué productos van a consumir, el Estado pone a su disposición las herramientas e instituciones que ayudarán a formar las capacidades necesarias para dicha elección.

Complementariamente, las instituciones obtienen sus capacidades, seriedad y solidez de dicho proceso. El Estado adquiere su legitimidad y confianza no sólo de la participación ciudadana en la conformación de instituciones, sino del control de la calidad implicado en este procedimiento.

El sistema formativo de gran parte de las instituciones educativas descansa sobre mecanismos de evaluación, que suponen que las capacidades-conocimiento de un alumno (o funcionario) pueden ser demostradas a partir de una evaluación basada en un esquema pregunta-respuesta que da fe de ciertas habilidades. La IA disponible en herramientas como ChatGPT pone en entredicho la validez de dichos esquemas formativos de manera considerable.

Asimismo, con estas herramientas, la formación de opinión pública, en la cual descansa buena parte del debate informado de las sociedades contemporáneas, es aún más vulnerable de sufrir los efectos de la desinformación. La simplicidad y accesibilidad con la que esta podrá generarse no sólo hace indistinguible el contenido producido por un humano o un robot, sino que incrementan la frecuencia y cantidad de contenidos falsos debido a su accesibilidad, lo cual hace más difícil combatirlas. ChatGPT habilita y le permite al ciudadano imitar pericia.

Quienes defienden la inteligencia artificial han argumentado que sus efectos nocivos encuentran solución en la propia tecnología. De acuerdo con OpenAI, la empresa ha creado un clasificador para distinguir entre texto escrito por un humano y texto escrito por IA de una variedad de proveedores. Si bien es imposible detectar de manera confiable todo el texto escrito por IA, creemos que los buenos clasificadores pueden informar las mitigaciones de afirmaciones falsas de que el texto generado por IA fue escrito por un humano.

Renglones más adelante, sin embargo, Open AI admite su falibilidad. “Nuestro clasificador identifica correctamente 26 por ciento del texto escrito por IA (verdaderos positivos) como ‘probablemente escrito por IA’, mientras etiqueta incorrectamente el texto escrito por humanos como 9 por ciento escrito por IA”.

Basta señalar que, además de la baja confianza y alta falibilidad, no todas las empresas, universidades, gobiernos y ciudadanos dispondrán de los recursos necesarios para clasificar (distinguir) el trabajo de robots y humanos, y que estas disrupciones ocurrirán al parejo de otros tantos cambios. El más significativo será sin duda la amenaza que la IA representa para el mercado laboral. Como lo ha demostrado ChatGPT, miles de empleos corren el riesgo de convertirse en actividades redundantes debido al desplazamiento de capacidades, principalmente en lo que toca a empleos de alta cualificación o “ white collar jobs”.

La astringencia del mercado y las altas tasas de financiamiento probablemente afectarán el ritmo de inversión en estos proyectos; no obstante, la carrera tecnológica que han detonado empresas como Google y Facebook, así como las ventajas que la inteligencia artificial promete para gobiernos y empresas privadas, nos invita a pensar que, lejos de detenerse, el desarrollo y uso de ésta continuará. Lo anterior significa que las autoridades cuentan con un periodo de gracia con el objetivo de prepararse para el futuro y que los gobiernos cuentan con la oportunidad de legislar el sector.

La legislación debe estar orientada, primero, hacia promover la investigación y desarrollo y, por supuesto, a reorientar la formación educativa de millones de jóvenes, fortaleciendo el vínculo de las empresas privadas con las instituciones de educación superior. En segunda instancia, debe garantizar que las empresas que desarrollen este tipo de proyectos no incurran en prácticas monopólicas y que sus medidas de mitigación frente a las prácticas no deseables sean completamente transparentes. Del mismo modo, el espacio de inteligencia artificial debe ser considerado como un tema de interés público y de seguridad nacional. Como tal, el acceso de este tipo de herramientas debe ser democrático e inclusivo, procurando que sus aplicaciones no pongan en entredicho la gobernabilidad. 

La recapacitación de millones de seres humanos que quieran permanecer vigentes en el mercado laboral es una necesidad apremiante, los gobiernos del mundo deben prepararse para el futuro y asumir que la inteligencia artificial debe ser entendida a plenitud y necesariamente estar regulada.