31.8 C
Santo Domingo
viernes, abril 25, 2025

Los experimentos de IA de Israel en la Guerra de Gaza plantean preocupaciones éticas


A finales de 2023, Israel tenía como objetivo asesinar a Ibrahim Biari, un comandante superior de Hamas en la Franja del Norte de Gaza que había ayudado a planificar el 7 de octubre masacres. Pero la inteligencia israelí no pudo encontrar al Sr. Biari, quien creían que estaba oculto en el Red de túneles Debajo de Gaza.

Entonces, los oficiales israelíes recurrieron a una nueva tecnología militar infundida con inteligencia artificial, dijeron tres funcionarios israelíes y estadounidenses sobre los eventos. La tecnología se desarrolló una década antes, pero no se había utilizado en la batalla. Encontrar que el Sr. Biari proporcionó nuevos incentivos para mejorar la herramienta, por lo que los ingenieros de la Unidad 8200 de Israel, el equivalente del país a la Agencia de Seguridad Nacional, pronto integró AI En eso, dijo la gente.

Poco después, Israel escuchó las llamadas del Sr. Biari y probó la herramienta de audio AI, que dio una ubicación aproximada para donde estaba haciendo sus llamadas. Usando esa información, Israel ordenó a los ataques aéreos que se dirigen al área el 31 de octubre de 2023, Matando al Sr. Biari. Más de 125 civiles también murieron en el ataque, según AirWars, un monitor de conflicto con sede en Londres.

La herramienta de audio fue solo un ejemplo de cómo Israel ha utilizado la guerra en Gaza para probar y desplegar rápidamente tecnologías militares respaldadas por IA en un grado que no se había visto antes, según las entrevistas con nueve funcionarios de defensa estadounidenses e israelíes, que hablan bajo condición de anonimato porque el trabajo es confidencial.

En los últimos 18 meses, Israel también ha combinado la IA con el software de reconocimiento facial para que coincida con caras parcialmente oscurecidas o lesionadas con identidades reales, recurrió a la IA para compilar objetivos potenciales de ataque aéreo y creó un modelo de IA en el lenguaje árabe para alimentar un chatbot que podría escanear y analizar mensajes de texto, publicaciones en redes sociales y otras datos de lenguaje árabe, dos personas con conocimiento de los programas dijeron.

Muchos de estos esfuerzos fueron una asociación entre los soldados alistados en la Unidad 8200 y los soldados de reserva que trabajan en compañías tecnológicas como Google, Microsoft y Meta, dijeron tres personas con conocimiento de las tecnologías. La Unidad 8200 estableció lo que se conoció como «The Studio», un centro de innovación y un lugar para igualar a expertos con proyectos de IA, dijeron las personas.

Sin embargo, incluso cuando Israel corrió para desarrollar el arsenal Ai, el despliegue de las tecnologías a veces condujo a identificaciones y arrestos erróneos, así como muertes civiles, dijeron los funcionarios israelíes y estadounidenses. Algunos funcionarios han luchado con las implicaciones éticas de las herramientas de IA, lo que podría resultar en una mayor vigilancia y otros asesinatos civiles.

Ninguna otra nación ha sido tan activa como Israel en experimentar con herramientas de IA en batallas en tiempo real, dijeron funcionarios de defensa europeos y estadounidenses, dando una vista previa de cómo tales tecnologías pueden usarse en guerras futuras y cómo también podrían salir mal.

«La urgente necesidad de hacer frente a la crisis acelerada de la innovación, gran parte de la TI», dijo Hadas Lorber, jefe del Instituto de Investigación Aplicada en IA responsable del Instituto Holon de Tecnología de Israel y ex Director Senior del Consejo de Seguridad Nacional Israelí. «Condujo a tecnologías que cambiaron el juego en el campo de batalla y ventajas que resultaron críticas en el combate».

Pero las tecnologías «también plantean preguntas éticas serias», dijo Lorber. Ella advirtió que la IA necesita controles y equilibrios, y agregó que los humanos deberían tomar las decisiones finales.

Una portavoz de los militares de Israel dijo que no podía comentar sobre tecnologías específicas debido a su «naturaleza confidencial». Israel «está comprometido con el uso legal y responsable de las herramientas de tecnología de datos», dijo, y agregó que los militares estaban investigando la huelga sobre el Sr. Biari y «no pudo proporcionar más información hasta que la investigación se complete».

Meta y Microsoft declinaron hacer comentarios. Google dijo que tiene «empleados que se reservan su servicio en varios países de todo el mundo. El trabajo que esos empleados hacen como reservistas no están conectados a Google».

Israel utilizó anteriormente conflictos en Gaza y Líbano para experimentar y avanzar en herramientas tecnológicas para sus militares, como drones, herramientas de piratería de teléfonos y el Cúpula de hierro Sistema de defensa, que puede ayudar a interceptar misiles balísticos de corto alcance.

Después de que Hamas lanzó ataques transfronterizos a Israel el 7 de octubre de 2023, matando a más de 1,200 personas y tomando 250 rehenes, AI Technologies fueron autorizadas rápidamente para su despliegue, dijeron cuatro funcionarios israelíes. Eso llevó a la cooperación entre la Unidad 8200 y los soldados de reserva en «The Studio» para desarrollar rápidamente nuevas capacidades de IA, dijeron.

Avi Hasson, director ejecutivo de Startup Nation Central, una organización sin fines de lucro israelí que conecta a los inversores con empresas, dijeron los reservistas de Meta, Google y Microsoft se habían vuelto cruciales para impulsar la innovación en drones e integración de datos.

«Los reservistas trajeron conocimientos y acceso a tecnologías clave que no estaban disponibles en el ejército», dijo.

El ejército de Israel pronto usó IA para mejorar su flota de drones. Aviv Shapira, fundadora y directora ejecutiva de Xtend, una compañía de software y drones que trabaja con el ejército israelí, dijo que los algoritmos con IA se usaron para construir drones para bloquear y rastrear objetivos desde la distancia.

«En el pasado, las capacidades de referencia se basaban en concentrarse en una imagen del objetivo», dijo. «Ahora la IA puede reconocer y rastrear el objeto en sí, que sea un automóvil en movimiento o una persona, con precisión mortal».

Shapira dijo que sus principales clientes, el ejército israelí y el Departamento de Defensa de los Estados Unidos, estaban al tanto de las implicaciones éticas de la IA en la guerra y discutieron el uso responsable de la tecnología.

Una herramienta desarrollada por «The Studio» fue un modelo de IA en el idioma árabe conocido como modelo de lenguaje grande, dijeron tres oficiales israelíes familiarizados con el programa. (El modelo de lenguaje grande era anteriormente informado por más 972, un sitio de noticias israelí-palestino).

Los desarrolladores previamente lucharon por crear un modelo de este tipo debido a una escasez de datos en idioma árabe para capacitar la tecnología. Cuando dichos datos estaban disponibles, se encontraba principalmente en árabe escrito estándar, que es más formal que las docenas de dialectos utilizados en el árabe hablado.

El ejército israelí no tenía ese problema, dijeron los tres oficiales. El país tenía décadas de mensajes de texto interceptados, llamadas telefónicas transcritas y publicaciones raspadas de las redes sociales en dialectos árabes hablados. Entonces, los oficiales israelíes crearon el modelo de lenguaje grande en los primeros meses de la guerra y construyeron un chatbot para ejecutar consultas en árabe. Fusionaron la herramienta con bases de datos multimedia, permitiendo a los analistas ejecutar búsquedas complejas entre imágenes y videos, dijeron cuatro funcionarios israelíes.

Cuando Israel asesinó al líder de Hezbolá Hassan Nasrallah en septiembre, el chatbot analizó las respuestas en todo el mundo de habla árabe, dijeron tres oficiales israelíes. La tecnología se diferenciaba entre los diferentes dialectos en el Líbano para medir la reacción pública, ayudando a Israel a evaluar si había presión pública para un contratador.

A veces, el chatbot no pudo identificar algunos términos y palabras de jerga modernas que se transliteraban del inglés al árabe, dijeron dos oficiales. Eso requirió que los oficiales de inteligencia israelíes con experiencia en diferentes dialectos revisen y corrijan su trabajo, dijo uno de los oficiales.

El chatbot también a veces proporcionaba respuestas incorrectas, por ejemplo, devolviendo fotos de tuberías en lugar de armas, dijeron dos oficiales de inteligencia israelíes. Aun así, la herramienta AI aceleró significativamente la investigación y el análisis, dijeron.

En los puntos de control temporales establecidos entre la franja de Gaza del norte y el sur, Israel también comenzó a equipar cámaras después de que los ataques el 7 de octubre con la capacidad de escanear y enviar imágenes de alta resolución de palestinos a un Programa de reconocimiento facial respaldado por IA.

Este sistema también a veces tenía problemas para identificar a las personas cuyas caras estaban oscurecidas. Eso llevó a arrestos e interrogatorios de palestinos que fueron marcados por error por el sistema de reconocimiento facial, dijeron dos oficiales de inteligencia israelíes.

Israel también usó AI para examinar los datos acumulados por funcionarios de inteligencia en los miembros de Hamas. Antes de la guerra, Israel construyó un algoritmo de aprendizaje automático, con el código «lavanda», que podría ordenar rápidamente los datos para buscar militantes de bajo nivel. Fue capacitado en una base de datos de miembros confirmados de Hamas y pretendía predecir quién más podría ser parte del grupo. Aunque las predicciones del sistema eran imperfectas, Israel lo usó Al comienzo de la guerra en Gaza para ayudar a elegir objetivos de ataque.

Pocos objetivos se consideraron más grandes que encontrar y eliminar el liderazgo superior de Hamas. Cerca de la parte superior de la lista estaba el Sr. Biari, el comandante de Hamas que los funcionarios israelíes creían que desempeñó un papel central en la planificación de los ataques del 7 de octubre.

La inteligencia militar de Israel interceptó rápidamente las llamadas del Sr. Biari con otros miembros de Hamas, pero no pudo identificar su ubicación. Entonces se dirigieron a la herramienta de audio respaldada por IA, que analizó diferentes sonidos, como bombas sonoras y ataques aéreos.

Después de deducir una ubicación aproximada para donde el Sr. Biari estaba realizando sus llamadas, se advirtió a funcionarios militares israelíes que el área, que incluía varios complejos de apartamentos, estaba densamente poblado, dijeron dos oficiales de inteligencia. Un ataque aéreo necesitaría apuntar a varios edificios para garantizar que el Sr. Biari fuera asesinado, dijeron. La operación fue verde.

Desde entonces, la inteligencia israelí también ha utilizado la herramienta de audio junto con mapas y fotos del laberinto de túneles subterráneos de Gaza para localizar rehenes. Con el tiempo, la herramienta se refinó para encontrar más precisamente individuos, dijeron dos oficiales israelíes.



Source link

Related Articles

Ultimos Articulos