°C -
|

La Jornada

Últimas noticias
Anuncio
Anuncio

Chatbots de IA podrían entrañar riesgos cibernéticos, alertan en GB

Imagen
Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales. Foto Europa Press / Archivo
30 de agosto de 2023 10:26

Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales.

En un par de entradas de blog publicadas este miércoles, el Centro Nacional de Ciberseguridad británico (NCSC, por sus siglas en inglés) indicó que los expertos aún no han llegado a comprender los posibles problemas de seguridad relacionados con los algoritmos que pueden generar interacciones que parezcan humanas, conocidos como modelos de lenguaje extensos (LLM, por sus siglas en inglés).

Estas herramientas basadas en inteligencia artificial se están empezando a utilizar en forma de chatbots que, según algunas previsiones, sustituirán no sólo a las búsquedas en Internet, sino también a los servicios de atención al cliente y las llamadas de ventas.

Según el NCSC, esto podría entrañar riesgos, sobre todo si esos modelos se integraran en los procesos empresariales de otras organizaciones. Académicos e investigadores han encontrado en repetidas ocasiones formas de subvertir los chatbots introduciéndoles comandos falsos o engañándolos para que burlen sus propias barreras de seguridad.

Por ejemplo, un chatbot con IA desplegado por un banco podría ser engañado para que realizara una transacción no autorizada si un pirata informático estructurara su consulta de forma correcta.

"Las organizaciones que crean servicios que utilizan LLM deben tener cuidado, del mismo modo que lo tendrían si estuvieran utilizando un producto o una biblioteca de código en fase beta", afirmó el NCSC en una de sus entradas de blog, en referencia a las versiones experimentales de software.

"Es posible que no permitan que ese producto participe en la realización de transacciones en nombre del cliente, y es de esperar que no confíen plenamente en él. Una precaución similar debería aplicarse a los LLM", señaló.

Las autoridades de todo el mundo están lidiando con el auge de LLM como ChatGPT de OpenAI, que las empresas están incorporando a una amplia gama de servicios, incluidos los de ventas y atención al cliente. Las implicaciones de la IA para la seguridad también se están poniendo de manifiesto y las autoridades de Estados Unidos y Canadá afirman que los piratas informáticos han adoptado esa tecnología.

La IA predice mejor que el hombre el aroma de una bebida

Es el caso del whisky, cuyo perfil aromático puede determinarse a partir de más de 40 compuestos y puede contener un número aún mayor de compuestos volátiles no olorosos.

Señales alentadoras en mujer que fue sometida a un trasplante de riñón porcino

A tres semanas de la operación, la paciente Towana Looney presenta "condiciones renales normales", señala el equipo médico.

Deshielo de banquisa antártica multiplicó tormentas en océanos australes

Si la reducción de banquisa se repite puede provocar cambios climáticos profundos, afectando no solo a los trópicos, sino también al hemisferio norte.
Anuncio