Tel Aviv. Las grandes empresas tecnológicas de Estados Unidos han empoderado silenciosamente a Israel para rastrear y eliminar a muchos más supuestos militantes de manera más rápida en Gaza y Líbano a través de un aumento drástico en los servicios de inteligencia artificial y computación. Sin embargo, el número de civiles muertos también ha aumentado, junto con los temores de que estas herramientas estén contribuyendo a la muerte de personas inocentes.
Las fuerzas militares han contratado durante años a empresas privadas para construir armas autónomas personalizadas. Sin embargo, las recientes guerras de Israel marcan un caso destacado en el que modelos comerciales de IA desarrollados en Estados Unidos han sido utilizados en guerra activa, a pesar de las preocupaciones de que no fueron diseñados originalmente para ayudar a decidir quién vive y quién muere.
El ejército israelí utiliza IA para analizar vastas cantidades de inteligencia, comunicaciones interceptadas y vigilancia para encontrar discursos o comportamientos sospechosos y aprender sobre los movimientos de sus enemigos. Después del ataque del 7 de octubre de 2023, su uso de la tecnología de Microsoft y OpenAI se disparó, según una investigación de Associated Press.
La investigación también reveló nuevos detalles sobre cómo los sistemas de IA seleccionan objetivos y las formas en que pueden fallar, incluyendo datos defectuosos o algoritmos erróneos. Se basó en documentos internos, datos y entrevistas exclusivas con funcionarios israelíes actuales y anteriores, así como empleados de empresas.
El objetivo de Israel después del ataque, en que aproximadamente mil 200 personas murieron más de 250 fueron tomadas como rehenes, fue erradicar a Hamas, y su ejército ha calificado a la IA como “una revolución” en el esfuerzo por alcanzar objetivos más rápidamente. Desde que comenzó la guerra, más de 50 mil personas han muerto en Gaza y Líbano y casi 70 por ciento de los edificios en Gaza han sido devastados, según los ministerios de salud de Gaza y Líbano.
Modelos comerciales empleados en la guerra
“Esta es la primera confirmación que hemos recibido de que los modelos comerciales de IA están siendo utilizados directamente en la guerra”, indicó Heidy Khlaaf, científica principal de IA en el AI Now Institute y ex ingeniera de seguridad senior en OpenAI. “Las implicaciones son enormes para el papel de la tecnología en la habilitación de este tipo de guerra poco ética e ilegal en el futuro”.
Entre las empresas tecnológicas de Estados Unidos, Microsoft ha tenido una relación especialmente cercana con el ejército israelí que abarca décadas.
Esa relación, junto con las de otras empresas tecnológicas, se intensificó después del ataque de Hamás. La respuesta bélica de Israel tensó sus propios servidores y aumentó su dependencia de proveedores externos, según una presentación del año pasado de la coronel Racheli Dembinsky, la máxima responsable de tecnología de la información del ejército. Mientras describía cómo la IA había proporcionado a Israel “una efectividad operativa muy significativa” en Gaza, los logotipos de Microsoft Azure, Google Cloud y Amazon Web Services aparecieron en una gran pantalla detrás de ella.
El uso de inteligencia artificial de Microsoft y OpenAI por parte del ejército israelí se disparó el pasado marzo a casi 200 veces más que antes de la semana previa al ataque del 7 de octubre, encontró la AP al revisar información interna de la empresa. La cantidad de datos que almacenó en los servidores de Microsoft se duplicó entre ese momento y julio de 2024 a más de 13,6 petabytes, aproximadamente 350 veces la memoria digital necesaria para almacenar todos los libros de la Biblioteca del Congreso. El uso de los enormes bancos de servidores de Microsoft por parte del ejército también aumentó en casi dos tercios solo en los primeros dos meses de la guerra.
Microsoft se negó a proporcionar comentarios para esta historia y no respondió a una lista detallada de preguntas escritas sobre los servicios de nube e IA que ofrece al ejército israelí.
En una declaración amplia en su sitio web, la empresa dice que “respetar los derechos humanos es un valor fundamental de Microsoft” y que está comprometida “a defender el papel positivo de la tecnología en todo el mundo”. En su Informe de Transparencia de IA Responsable de 2024 de 40 páginas, Microsoft se compromete a “mapear, medir y gestionar los riesgos de la IA generativa a lo largo del ciclo de desarrollo para reducir el riesgo de daño”, y no menciona sus lucrativos contratos militares.
Modelos avanzados de IA son proporcionados a través de OpenAI, el creador de ChatGPT, a través de la plataforma de nube Azure de Microsoft, donde son adquiridos por el ejército israelí, según muestran los documentos y datos. Microsoft ha sido el mayor inversor de OpenAI.
OpenAI sostiene que no tiene una asociación con el ejército israelí, y sus políticas de uso indican que sus clientes no deben utilizar sus productos para desarrollar armas, destruir propiedades o lastimar a personas. Sin embargo, hace aproximadamente un año, OpenAI cambió sus términos de uso de prohibir el uso militar a permitir “casos de uso de seguridad nacional que se alineen con nuestra misión”.
El ejército israelí se negó a responder preguntas escritas detalladas de la AP sobre su uso de productos comerciales de IA de empresas tecnológicas estadunidenses, pero dijo que sus analistas utilizan sistemas habilitados por IA para ayudar a identificar objetivos y examinarlos de manera independiente junto con oficiales de alto rango para cumplir con el derecho internacional, sopesando la ventaja militar contra el daño colateral.
“Estas herramientas de IA hacen que el proceso de inteligencia sea más preciso y más efectivo”, señaló un comunicado del ejército israelí a la AP. “Alcanzan metas más rápido, pero no a expensas de la precisión, y muchas veces en esta guerra han podido minimizar las bajas civiles”.
Google y Amazon
Google y Amazon proporcionan servicios de computación en la nube e IA al ejército israelí bajo el “Proyecto Nimbus”, un contrato de 1.200 millones de dólares firmado en 2021, cuando Israel probó por primera vez sus sistemas de guerra impulsados por IA. Las Fuerzas de Defensa de Israel han utilizado granjas de servidores o centros de datos de Cisco y Dell. Red Hat, una subsidiaria independiente de IBM, también ha proporcionado tecnologías de computación en la nube al ejército israelí, mientras que Palantir Technologies, un socio de Microsoft en contratos de defensa de Estados Unidos, tiene una “asociación estratégica” que proporciona sistemas de IA para ayudar a los esfuerzos bélicos de Israel.
Después de que OpenAI cambiara sus términos de uso el año pasado para permitir propósitos de seguridad nacional, Google siguió el ejemplo a principios de este mes con un cambio similar en su política de ética pública para eliminar el lenguaje que decía que no utilizaría su IA para armas y vigilancia.
Google aseveró que está comprometido a desarrollar y desplegar IA de manera responsable “que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”.
Las Fuerzas de Defensa de Israel utilizan Microsoft Azure para compilar información a través de vigilancia masiva, que transcriben y traducen, incluyendo llamadas telefónicas, mensajes de texto y mensajes de audio, según un oficial de inteligencia israelí que trabaja con los sistemas. Esos datos pueden luego ser verificados con los sistemas de guerra internos de Israel y viceversa.
Indicó que confía en Azure para buscar rápidamente términos y patrones dentro de enormes cantidades de texto, como encontrar conversaciones entre dos personas dentro de un documento de 50 páginas. Azure también puede encontrar personas dándose direcciones entre sí en el texto, que luego pueden ser referenciadas con los propios sistemas de IA del ejército para localizar ubicaciones.
Los datos de Microsoft que revisó la AP muestran que desde el ataque del 7 de octubre, el ejército israelí ha hecho un uso intensivo de herramientas de transcripción y traducción y modelos de OpenAI, aunque no detalla cuáles. Típicamente, los modelos de IA que transcriben y traducen funcionan mejor en inglés. OpenAI ha reconocido que su popular modelo de traducción impulsado por IA, Whisper, que puede transcribir y traducir a múltiples idiomas, incluido el árabe, puede inventar texto que nadie dijo, incluyendo comentarios raciales y retórica violenta.
Los errores pueden ocurrir por muchas razones relacionadas con la IA, señalan oficiales militares israelíes que han trabajado con los sistemas de guerra, y otros expertos en tecnología. Las llamadas telefónicas interceptadas vinculadas al perfil de una persona incluyen la hora en que la persona llamó y los nombres y números de quienes estaban en la llamada. Pero se necesita un paso adicional para escuchar y verificar el audio original, o para ver una transcripción traducida.
El ejército israelí insiste en que una persona que conoce árabe siempre verifica las traducciones. Aún así, un oficial de inteligencia dijo que había visto errores debido a traducciones incorrectas del árabe al hebreo.