°C -
|

La Jornada

Últimas noticias
Anuncio
Anuncio

Grupo de científicos pide pausa de seis meses para considerar los riesgos de la IA

Imagen
Elon Musk, uno de los firmantes de la misiva. Aquí, en una imagen del 10 de febrero de 2022. Foto Afp
Foto autor
Ap
30 de marzo de 2023 10:37

Nueva York. ¿Las empresas tecnológicas van demasiado rápido en el lanzamiento de poderosas tecnologías de inteligencia artificial que algún día podrían aventajar a los humanos?

Esa es la interrogante de plantea un reconocido grupo de científicos informáticos y otros personajes de la industria tecnológica como Elon Musk y el cofundador de Apple, Steve Wozniak, quienes piden una pausa de seis meses para considerar los riesgos.

Su petición publicada ayer es una respuesta al reciente lanzamiento GPT-4 de la empresa incipiente OpenAI, un sucesor más avanzado de su extensamente usado chatbot ChatGPT, que en parte impulsó una carrera entre los gigantes tecnológicos Microsoft y Google para lanzar aplicaciones similares.

La carta advierte que los sistemas de inteligencia artificial con inteligencia competitiva con humanos pueden plantear fuertes riesgos a la sociedad y la humanidad, desde inundar la Internet con desinformación y automatizar trabajos, hasta riesgos futuros más catastróficos sacados del ámbito de la ciencia ficción.

Carrera sin control

Señala que en meses recientes laboratorios de inteligencia artificial están enfrascados en una carrera sin control para desarrollar y desplegar mentes digitales más poderosas que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de manera fiable.

La petición fue realizada por el organismo no lucrativo Instituto Futuro de la Vida que señala que entre los firmantes confirmados está el galardonado con el premio Turing y pionero de la inteligencia artificial, Yoshua Bengio, y otros investigadores líder de la tecnología como Stuart Rusell y Gary Marcus. Entre otros están Wozniak, el ex candidato a la presidencia de Estado Unidos, Andrew Yang, y Rachel Bronson, presidenta de Bulletin of the Atomic Scientists, un grupo de defensa orientado a la ciencia conocido por sus advertencias contra una guerra nuclear que acabe con la humanidad.

Elon Musk, quien dirige Tesla, Twitter y SpaceX, cofundó OpenAI y fue de sus primeros inversores, desde hace mucho tiempo expresa preocupación por los riesgos existenciales de la inteligencia artificial. Un firmante más sorpresivo es Emad Mostaque, director general de Stability AI, fabricante del generador de imágenes de Stable Diffusion que se asocia con Amazon y compite con el generador similar de OpenAI conocido como Dall-E.

OpenAI, Microsoft y Google no respondieron de momento a la petición, pero la carta ya cuenta con muchos escépticos.

Una pausa es una buena idea, pero la carta es confusa y no se toma en serio los problemas regulatorios, aseguró James Grimmelmann, profesor de ley digital y de la información en la Universidad Cornell.

También es muy hipócrita que Elon Musk firme, dado lo mucho que Tesla ha luchado contra la responsabilidad por la inteligencia artificial defectuosa en sus autos autónomos.

"Los remanentes estelares son la clave para entender el origen y futuro del cosmos"

Las estrellas son el bloque fundamental de formación de las galaxias y su estudio impulsa la innovación tecnológica, señala el astrofísico de la UNAM, William Henry Lee Alardin.

La IA predice mejor que el hombre el aroma de una bebida

Es el caso del whisky, cuyo perfil aromático puede determinarse a partir de más de 40 compuestos y puede contener un número aún mayor de compuestos volátiles no olorosos.

Señales alentadoras en mujer que fue sometida a un trasplante de riñón porcino

A tres semanas de la operación, la paciente Towana Looney presenta "condiciones renales normales", señala el equipo médico.
Anuncio