Preguntas y respuestas internas: inteligencia artificial y ciberseguridad en tecnología militar

Preguntas y respuestas internas: inteligencia artificial y ciberseguridad en tecnología militar

Josh Lospinoso, director ejecutivo y cofundador de Shift5, fotografiado en abril de 2022. Credit: Stephen Voss, Shift5 vía AP

La primera startup de ciberseguridad de Josh Lospinoso fue adquirida en 2017 por Raytheon/Forcepoint. Su otra startup, Shift5, trabaja con el ejército de EE. UU., los operadores ferroviarios y las aerolíneas, incluida JetBlue. Graduado de West Point en 2009 y becario Rhodes, el excapitán del ejército de 36 años pasó más de una década herramientas de piratería patentadas para la Agencia de Seguridad Nacional y el Comando Cibernético de EE. UU.

Lospinoso le dijo recientemente al Subcomité de Servicios Armados del Senado cómo la IA podría ayudar a proteger las operaciones militares. El CEO/desarrollador discutió el tema con The Associated Press, así como también cómo las vulnerabilidades de software en los sistemas de armas son una gran amenaza para el ejército de EE. UU. La entrevista ha sido editada para mayor claridad y duración.

P: En su testimonio, describió dos amenazas principales para las tecnologías de IA: una es el robo. Es obvio. El segundo es el envenenamiento de datos. ¿Puedes explicarlo?

R: Una forma de pensar sobre el envenenamiento de datos es la desinformación digital. Si los adversarios pueden producir datos que las tecnologías habilitadas para IA pueden ver, pueden afectar profundamente el funcionamiento de esa tecnología.

P: ¿Hay envenenamiento de datos?

R: No lo miramos en términos generales. Pero Esto es lo que pasó. Uno de los casos más sonados ocurrió en 2016. Microsoft lanzó un chatbot de Twitter llamado Tay que aprendió de las conversaciones en línea. Los usuarios maliciosos se coludieron para twittear lenguaje abusivo y abusivo. Tay comenzó a generar contenido incendiario. Microsoft lo ha desconectado.

P: La IA no son solo chatbots. Ha sido una parte integral de la ciberseguridad durante mucho tiempo, ¿verdad?

R: La inteligencia artificial se utiliza en los filtros de correo electrónico para tratar de etiquetar y segregar el correo basura y los señuelos de phishing. Otro ejemplo son los puntos finales como el antivirus en una computadora portátil o el software de detección de malware que se ejecuta en una red. Por supuesto, los piratas informáticos ofensivos también están utilizando IA para intentar vencer estos sistemas de calificación. Esto se llama IA enemiga.

P: Hablemos de los sistemas de software militar. Un año alarmante 2018 Informe de la Oficina de Responsabilidad Gubernamental dijo que casi todos los sistemas de armas desarrollados recientemente tenían vulnerabilidades críticas. ¿Y el Pentágono está pensando en poner inteligencia artificial en tales sistemas? R: Hay dos problemas aquí. Primero, necesitamos asegurar adecuadamente los sistemas de armas existentes. Tenemos una deuda técnica que llevará mucho tiempo saldar. Entonces hay una nueva frontera en la seguridad de los algoritmos de IA: cosas novedosas que instalaríamos. El informe de la GAO en realidad no hablaba de inteligencia artificial. Así que olvídate de la inteligencia artificial por un tiempo. Si estos sistemas se dejaran como están, todavía serían muy vulnerables.

Estamos hablando de ampliar los límites y agregar capacidades impulsadas por IA, como mantenimiento mejorado e inteligencia operativa. Todo está bien. Pero estamos construyendo sobre un castillo de naipes. Muchos sistemas tienen décadas de antigüedad y se han adaptado con tecnologías digitales. Aeronaves, vehículos terrestres, activos espaciales, submarinos. Ahora están interconectados. Transferimos e intercambiamos datos. Los sistemas son porosos, difíciles de mejorar y pueden ser atacados. Una vez que el atacante obtiene acceso, el juego termina.

A veces es más fácil construir una nueva plataforma que rediseñar los componentes digitales de los sistemas existentes. Pero la IA juega un papel en la seguridad de estos sistemas. La IA se puede usar para defenderse si alguien intenta comprometerla.

P: Usted testificó que detener la investigación de la IA, como han insistido algunos, sería una mala idea porque favorecería a China y otros competidores. Pero también le preocupa la prisa por los productos de IA. ¿Por qué? R: No quiero sonar fatalista, pero el llamado caso “quemado” parece aplicarse. Un producto apresurado a menudo se incendia (hackeado, falla, causa daños no deseados). Y decimos: “Vaya, deberíamos haber construido una seguridad”. Espero que el ritmo de desarrollo de la inteligencia artificial se acelere y es posible que no nos detengamos el tiempo suficiente para hacerlo de manera segura y responsable. Al menos la Casa Blanca y el Congreso están discutiendo estos temas.

P: Parece que muchas empresas, incluso en el sector de la defensa, se apresuran a anunciar productos de IA subdesarrollados. R: Todas las empresas tecnológicas y muchas empresas no tecnológicas han dado un giro casi innovador hacia la IA. Se avecinan dislocaciones económicas. Los modelos de negocio cambiarán fundamentalmente. Las dislocaciones ya están ocurriendo o en el horizonte, y los líderes empresariales están tratando de no ser atrapados.

P: ¿Qué pasa con el uso de la IA en las decisiones militares, como la selección de objetivos? R: No creo, categóricamente no creo, que los algoritmos de IA, los datos que recopilamos, estén listos para tomar decisiones a través de un sistema de armas letales. Estamos lejos de eso.

© 2023 Prensa Asociada. Reservados todos los derechos. Este material no puede ser publicado, transmitido, reescrito o redistribuido sin permiso.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *