Preocupación por el uso de Inteligencia Artificial en tecnología militar

Por Redaccion el Sáb, 14/04/2018 - 2:35pm
Edicion
364

El ingeniero aeroespacial Mike Griffin dice que está tomando en serio la amenaza de los enjambres de drones, incluidos los que podrían ser impulsados ​​por la inteligencia artificial. También lo es su empleador, el Departamento de Defensa de EE. UU., al igual que los altos funcionarios de la Fuerza Aérea de EE. UU.

Los comentarios de Griffin surgieron durante una conversación sobre cómo hacer frente a los drones y otras armas equipadas con inteligencia artificial, en la que abogó por mayores esfuerzos tanto en armas ofensivas como defensivas. “En una sociedad avanzada”, dijo, “AI y ciber y algunos de estos otros reinos más nuevos ofrecen posibilidades a nuestros adversarios para atacar a otros con éxito, y debemos asegurarnos de no sorprendernos”.

Pidió un trabajo más serio por parte del Pentágono, diciendo: “Puede haber una carrera armamentística de inteligencia artificial, pero aún no estamos en ella”. Los adversarios de Estados Unidos, dijo, “entienden muy bien la posible utilidad del aprendizaje automático”. Creo que es hora de que lo hagamos también “.

Su respaldo explicó, en parte, una expansión propuesta de la propia fuerza de drones del Departamento de Defensa. Un informe del 9 de abril del Centro para el Estudio del Drone en Bard College dijo que el presupuesto del Departamento de Defensa para 2019 de sistemas y tecnologías desatornilladas incluye un aumento del 25 por ciento con respecto a 2018, lo que le permitiría alcanzar los $ 9.39 mil millones. Esa propuesta incluye fondos para 3,447 nuevos drones aéreos, terrestres y marítimos. En 2018, el presupuesto requería solo 807 nuevos drones, según el informe.

El lado ofensivo de la tecnología de drones está más lejos que el lado defensivo, particularmente cuando los enjambres están en cuestión. “No hay un esquema comprobable y óptimo” para defenderse contra tales enjambres, dijo Griffin. Por lo tanto, el Pentágono podría, como resultado, tener que construir solo “un esquema bastante bueno”. De lo contrario, el enemigo tendrá una oportunidad no disputada de triunfar

Algunos expertos en tecnología están nerviosos por el impulso acelerado hacia los sistemas de armas que usan inteligencia artificial para tomar decisiones clave sobre ataques. En Ginebra esta semana, representantes de 120 países miembros de la ONU comenzaron a debatir sobre una posible prohibición de armamento infundido con IA letal en un foro organizado por un grupo de las Naciones Unidas conocido como Grupo de Expertos Gubernamentales de la Convención sobre Armas Convencionales en Sistemas Letales de Armas Autónomas.

Proyecto Maven con Google

Por otro lado, la semana pasada, miles de empleados de Google escribieron una carta protestando por la participación del gigante tecnológico en el programa de inteligencia artificial “pionero” del Pentágono, conocido como Project Maven. Es una misión dirigida por la Oficina del Secretario de Defensa para procesar video de drones tácticos.

Los documentos presupuestarios describen Project Maven como un programa que desarrolla inteligencia artificial, aprendizaje automático y algoritmos de visión por computadora para “detectar, clasificar y rastrear objetos” vistos en video capturado por drones y otras herramientas de “Inteligencia, Vigilancia y Reconocimiento”. Básicamente es un método para seleccionar terroristas que podrían ser atacados con misiles teledirigidos.

Búsqueda personalizada