°C -
|

La Jornada

Últimas noticias
Anuncio
Anuncio

Chatbots de IA podrían entrañar riesgos cibernéticos, alertan en GB

Imagen
Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales. Foto Europa Press / Archivo
30 de agosto de 2023 10:26

Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales.

En un par de entradas de blog publicadas este miércoles, el Centro Nacional de Ciberseguridad británico (NCSC, por sus siglas en inglés) indicó que los expertos aún no han llegado a comprender los posibles problemas de seguridad relacionados con los algoritmos que pueden generar interacciones que parezcan humanas, conocidos como modelos de lenguaje extensos (LLM, por sus siglas en inglés).

Estas herramientas basadas en inteligencia artificial se están empezando a utilizar en forma de chatbots que, según algunas previsiones, sustituirán no sólo a las búsquedas en Internet, sino también a los servicios de atención al cliente y las llamadas de ventas.

Según el NCSC, esto podría entrañar riesgos, sobre todo si esos modelos se integraran en los procesos empresariales de otras organizaciones. Académicos e investigadores han encontrado en repetidas ocasiones formas de subvertir los chatbots introduciéndoles comandos falsos o engañándolos para que burlen sus propias barreras de seguridad.

Por ejemplo, un chatbot con IA desplegado por un banco podría ser engañado para que realizara una transacción no autorizada si un pirata informático estructurara su consulta de forma correcta.

"Las organizaciones que crean servicios que utilizan LLM deben tener cuidado, del mismo modo que lo tendrían si estuvieran utilizando un producto o una biblioteca de código en fase beta", afirmó el NCSC en una de sus entradas de blog, en referencia a las versiones experimentales de software.

"Es posible que no permitan que ese producto participe en la realización de transacciones en nombre del cliente, y es de esperar que no confíen plenamente en él. Una precaución similar debería aplicarse a los LLM", señaló.

Las autoridades de todo el mundo están lidiando con el auge de LLM como ChatGPT de OpenAI, que las empresas están incorporando a una amplia gama de servicios, incluidos los de ventas y atención al cliente. Las implicaciones de la IA para la seguridad también se están poniendo de manifiesto y las autoridades de Estados Unidos y Canadá afirman que los piratas informáticos han adoptado esa tecnología.

Muestras obtenidas por nave china exhiben antiguo vulcanismo de la Luna

Chang'e-6 hizo historia en junio al recoger las primeras muestras de la superficie de la cara oculta de la Luna.

Lanzan plataforma digital que utiliza inteligencia artificial en museo británico

La aplicación se comunica "con fluidez y precisión" en varios idiomas.

Descubren microbios vivos en el desierto más seco de la Tierra

"Los microbios son los pioneros que colonizan este tipo de entorno y preparan el terreno para la siguiente sucesión de vida", dijo el geomicrobiólogo Dirk Wagner.
Anuncio