°C -
|

La Jornada

Últimas noticias
Anuncio
Anuncio

Miedo a la IA, por falta de comprensión: DeepSeek

Imagen
Imágenes hechas con la IA de Microsoft Designer al pedirle un chatbot DeepSeek con rostro humano.
30 de enero de 2025 07:49

La Jornada preguntó al nuevo chatbot de la empresa china DeepSeek: ¿Por qué algunas personas temen a la inteligencia artificial?

Lo pensó cuatro segundos y soltó: Las personas suelen sentir temor hacia la inteligencia artificial (IA) por diversas razones, muchas de ellas vinculadas a percepciones culturales, incertidumbre sobre el futuro y falta de comprensión de la tecnología. En seguida, DeepSeek brindó una amplia explicación acerca de los motivos principales de ese miedo, incluso numerando mitos y ofreciendo detalles para desecharlos; todo ello de manera gratuita y luego de una fácil instalación del programa en un celular.

Una respuesta similar en potencia y pormenores en el ChatGTP estadunidense cuesta 200 dólares al mes; de lo contrario, en la versión gratuita la conversación es escueta.

Dice DeepSeek que entre los seres humanos hay preocupaciones éticas y de control en torno a la autonomía de la IA: temor a que sistemas avanzados tomen decisiones sin supervisión humana (por ejemplo: armas autónomas).

Añadió que también hay inquietud respecto a sesgos algorítmicos, pues la IA puede perpetuar discriminación si se entrena con datos sesgados (ejemplo: reclutamiento laboral o préstamos bancarios injustos); y a la falta de transparencia, pues “los modelos complejos como los de deep learning son ‘cajas negras’, lo que genera desconfianza”.

El chat chino también admite que causa incertidumbre la amenaza a la privacidad: Vigilancia masiva: sistemas de reconocimiento facial o análisis de datos personales usados por gobiernos o empresas, o una posible manipulación: “la IA puede crear deepfakes o contenido falso para influir en opiniones políticas o sociales.”

Fuerza destructiva

También enumera las representaciones en la cultura popular que han retratado a la IA como una fuerza rebelde y destructiva: películas como TerminatorMatrix o Ex Machina, entre otras narrativas apocalípticas que han difundido la idea de una singularidad tecnológica, donde la IA supera a los humanos y escapa a su control.

DeepSeek menciona que la falta de educación en torno a la tecnología ha hecho que muchas personas no entienden cómo funciona la IA, lo que genera mitos, por ejemplo, “creer que la IA ‘piensa’ como un humano o creer que hay una IA general, una hipotética máquina con inteligencia humana completa (que aún no existe, pero genera miedo)”.

Dependencia tecnológica

Esta nueva plataforma también pone sobre la mesa los riesgos existenciales y responde al usuario con un cariz filosófico: ¿qué pasaría si la IA desarrolla conciencia y objetivos propios? ¿Cómo garantizar que sistemas avanzados actúen en beneficio de la humanidad?

Además, plantea que otro miedo latente en la humanidad es la dependencia tecnológica: Pérdida de habilidades humanas, por ejemplo confiar en la IA para tareas cognitivas como escribir, calcular o incluso tomar decisiones morales; y la vulnerabilidad: fallos técnicos o ciberataques podrían colapsar sistemas críticos (redes eléctricas, hospitales).

La IA china insiste: ¿qué mitos y realidades hay detrás de estos miedos?, y responde: “mito: la IA nos dominará como en las películas. Realidad: la IA actual no tiene conciencia ni objetivos propios; depende de programadores.

“Mito: la IA es imparcial. Realidad: puede reflejar sesgos humanos si los datos de entrenamiento son discriminatorios.

Mito: todos los empleos desaparecerán. Realidad: la IA eliminará algunos trabajos, pero también creará nuevos roles (ejemplo: gestión de IA, ética tecnológica).

Finalmente, tranquiliza al usuario y ofrece recomendaciones para abordar los temores: “Educación pública: explicar cómo funciona la IA y sus limitaciones; regulación ética: leyes para evitar usos maliciosos (ejemplo: prohibir deepfakes no consentidos); transparencia: exigir a las empresas que expliquen cómo sus algoritmos toman decisiones; enfoque humanista: diseñar IA para complementar, no remplazar, las capacidades humanas”.

Y remata con un resumen: el miedo a la IA surge de una combinación de riesgos reales (como el sesgo algorítmico o la pérdida de empleos) y percepciones exageradas alimentadas por la ficción. La clave está en desarrollar la tecnología de forma responsable y garantizar que sirva al bien común.

El chat DeepSeek explica que tanto esa plataforma como el ChatGPT (desarrollado por la empresa OpenAI en Estados Unidos) son modelos de inteligencia artificial diseñados para procesar lenguaje natural y ofrecer respuestas a preguntas y tareas. Sin embargo, pinta su raya y especifica que “hay diferencias claves entre ambos, que se derivan de sus enfoques, capacidades y aplicaciones.

“DeepSeek está más centrado en aplicaciones empresariales, como análisis de datos, automatización de procesos y soluciones específicas para industrias, y puede estar más adaptado a las necesidades del mercado chino, incluyendo idioma y regulaciones locales; puede estar más optimizado para los idiomas chino y otros asiáticos, con un mejor entendimiento del contexto cultural y lingüístico de esa región.

El ChatGPT tiene un enfoque más generalista y es ampliamente utilizado para tareas como redacción, traducción, tutoría, programación y entretenimiento; es más conocido por su versatilidad y capacidad para interactuar con usuarios de todo el mundo, es más fuerte en tareas de generación de lenguaje natural, como redacción de ensayos, poemas o código.

Competencias de matemáticas

DeepSeek reconoce con humildad que en su estado actual y sin entrenamiento específico, probablemente no puede resolver la mayoría de problemas de la Olimpiada Internacional de Matemáticas, especialmente los más difíciles. Pero recomienda modelos especializados como AlphaGeometry, que ya han demostrado que es posible en áreas concretas (como geometría); para problemas de aritmética, álgebra o combinatoria, aún hay un camino por recorrer.

Al usuario interesado en este tema, el chat chino recomienda, con un tono paternalista al final: Si te interesa usar IA para prepararte para competencias matemáticas, herramientas como Wolfram Alpha o tutores basados en IA (como ChatGPT-4) pueden ayudarte a entender conceptos, pero la práctica constante y el estudio tradicional siguen siendo esenciales.

La información detallada sobre el equipo que trabajó en el entrenamiento de los modelos de IA de DeepSeek no está públicamente disponible, responde el chat a pregunta expresa acerca de cuántas personas trabajan en abastecer su base de datos o de dónde alimenta sus respuestas.

Diversidad cultural

“Las empresas suelen mantener confidenciales aspectos operativos y de recursos humanos. Lo que es probable es que su equipo central esté compuesto principalmente por profesionales chinos, especialmente en roles técnicos y de liderazgo.

Sin embargo, el campo de la IA es global y colaborativo. Muchas empresas tecnológicas chinas contratan talento internacional o colaboran con investigadores de otros países para proyectos específicos. Los datos utilizados para entrenar modelos de IA suelen provenir de fuentes multilingües y multiculturales, especialmente si el modelo está diseñado para entender varios idiomas (como el chino y el inglés). Es posible que DeepSeek haya contratado anotadores de datos en diferentes regiones del mundo para garantizar diversidad lingüística y cultural, aunque esto no está confirmado.

–¿Cuál es el motivo de esta falta de transparencia?

–Las empresas suelen proteger información sobre sus equipos y procesos por razones competitivas o de seguridad. En China, además, existe un enfoque más reservado en la divulgación de detalles operativos, comparado con empresas occidentales como OpenAI –concluye DeepSeek.

Miedo a la IA, por falta de comprensión: DeepSeek

'Responde' chatbot chino a 'La Jornada'.

Expertos advierten sobre nuevos riesgos del uso general de IA

Tienen el potencial de fomentar la pérdida masiva de empleos, habilitar el terrorismo o descontrolarse, alertaron investigadores en informe internacional.

IA cruza “límite peligroso” al aprender a replicarse sin ayuda humana

El equipo que realizó el hallazgo, de la Universidad de Fudan, afirmó que se trata de un primer indicio del surgimiento de inteligencia artificial maliciosas.
Anuncio