domingo, mayo 5

A medida que los drones asesinos controlados por inteligencia artificial se hacen realidad, las naciones debaten los límites


NACIONES UNIDAS – Parece algo sacado de la ciencia ficción: enjambres de robots asesinos que cazan objetivos por sí solos y son capaces de volar a matar sin que ningún humano les dé el visto bueno.

Pero se acerca a la realidad a medida que Estados Unidos, China y un puñado de otros países avanzan rápidamente en el desarrollo y despliegue de una nueva tecnología que tiene el potencial de remodelar la naturaleza de la guerra al dejar las decisiones de vida o muerte en manos de drones autónomos equipados con programas de inteligencia artificial.

Esa perspectiva preocupa tanto a muchos otros gobiernos que están tratando de centrar la atención en ella con propuestas en las Naciones Unidas para imponer normas jurídicamente vinculantes sobre el uso de lo que los militares denominan armas autónomas letales.

Soldados manipulan minas terrestres antes de una detonación controlada en Sa Kaeo, Tailandia. Foto Lillian Suwanrumpha/Agence France-Presse.Soldados manipulan minas terrestres antes de una detonación controlada en Sa Kaeo, Tailandia. Foto Lillian Suwanrumpha/Agence France-Presse.

«Este es realmente uno de los puntos de inflexión más importantes para la humanidad», declaró en una entrevista Alexander Kmentt, principal negociador austriaco en la materia.

«Cuál es el papel de los seres humanos en el uso de la fuerza:

es una cuestión de seguridad absolutamente fundamental, una cuestión jurídica y una cuestión ética».

Pero aunque la ONU está proporcionando una plataforma para que los gobiernos expresen sus preocupaciones, parece poco probable que el proceso produzca nuevas restricciones sustantivas jurídicamente vinculantes.

Estados Unidos, Rusia, Australia, Israel y otros países han argumentado que, por el momento, no es necesaria ninguna nueva ley internacional, mientras que China quiere definir cualquier límite legal de forma tan estrecha que tendría poco efecto práctico, según los defensores del control de armas.

El resultado ha sido que el debate se ha enredado en un nudo de procedimiento con escasas posibilidades de avanzar pronto hacia un mandato jurídicamente vinculante.

«No creemos que sea realmente el momento adecuado», declaró Konstantin Vorontsov, jefe adjunto de la delegación rusa ante la ONU, a los diplomáticos que se agolpaban recientemente en una sala de conferencias del sótano de la sede de la ONU en Nueva York.

El debate sobre los riesgos de la inteligencia artificial ha cobrado actualidad en los últimos días con la batalla por el control de OpenAI, quizá la empresa de inteligencia artificial más importante del mundo, cuyos dirigentes parecen divididos sobre si la empresa tiene suficientemente en cuenta los peligros de la tecnología.

Y la semana pasada, funcionarios de China y Estados Unidos debatieron una cuestión relacionada:

los posibles límites del uso de la IA en las decisiones sobre el despliegue de armas nucleares.

Con este telón de fondo, la cuestión de qué límites deben imponerse al uso de armas autónomas letales ha adquirido una nueva urgencia, y por ahora se reduce a si basta con que la ONU adopte directrices no vinculantes, la postura apoyada por Estados Unidos.

Tropas estadounidenses manipulando misiles AIM-120 a bordo del portaaviones U.S.S. Kitty Hawk en el Golfo Pérsico en 2003. Foto Steve Helber/Associated PressTropas estadounidenses manipulando misiles AIM-120 a bordo del portaaviones U.S.S. Kitty Hawk en el Golfo Pérsico en 2003. Foto Steve Helber/Associated Press

«La palabra ‘debe’ será muy difícil de aceptar para nuestra delegación», dijo Joshua Dorosin, jefe de acuerdos internacionales del Departamento de Estado, a otros negociadores durante un debate en mayo sobre el lenguaje de las restricciones propuestas.

Dorosin y los miembros de la delegación estadounidense, que incluye a un representante del Pentágono, han argumentado que en lugar de una nueva ley internacional, la ONU debería aclarar que las leyes internacionales de derechos humanos existentes ya prohíben a las naciones el uso de armas dirigidas contra civiles o que les causen un daño desproporcionado.

Pero la postura adoptada por las grandes potencias no ha hecho sino aumentar la inquietud entre las naciones más pequeñas, que dicen estar preocupadas por la posibilidad de que las armas autónomas letales se generalicen en el campo de batalla antes de que haya un acuerdo sobre las normas para su uso.

«La complacencia ya no parece ser una opción», declaró el embajador de Pakistán, Khalil Hashmi, durante una reunión en la sede de la ONU.

«La ventana de oportunidad para actuar está disminuyendo rápidamente mientras nos preparamos para una irrupción tecnológica».

Los rápidos avances en IA y el intenso uso de drones en conflictos en Ucrania y Oriente Medio se han combinado para hacer que la cuestión sea mucho más urgente.

Hasta ahora, los drones suelen depender de operadores humanos para llevar a cabo misiones letales, pero se está desarrollando un software que pronto les permitirá encontrar y seleccionar objetivos más por sí mismos.

La intensa interferencia de las comunicaciones por radio y GPS en Ucrania no ha hecho sino acelerar el cambio, ya que los drones autónomos a menudo pueden seguir operando incluso cuando las comunicaciones están cortadas.

«No se trata del argumento de una novela distópica, sino de una realidad inminente», declaró Gaston Browne, Primer Ministro de Antigua y Barbuda, en una reciente reunión de la ONU.

Los responsables del Pentágono han dejado claro que se están preparando para desplegar armas autónomas a lo grande.

La Vicesecretaria de Defensa, Kathleen Hicks, anunció este verano que el ejército estadounidense «desplegaría sistemas autónomos y destruibles a escala de varios miles» en los próximos dos años, afirmando que el impulso para competir con la propia inversión de China en armas avanzadas requería que Estados Unidos «aprovechara plataformas que fueran pequeñas, inteligentes, baratas y numerosas».

El concepto de arma autónoma no es totalmente nuevo.

Las minas terrestres -que detonan automáticamente- se utilizan desde la Guerra Civil.

Estados Unidos tiene sistemas de misiles que se basan en sensores de radar para fijar y alcanzar objetivos de forma autónoma.

Lo que está cambiando es la introducción de la IA, que podría dotar a los sistemas de armamento de la capacidad de tomar decisiones por sí mismos tras asimilar y procesar la información.

¿Límites?

Estados Unidos ya ha adoptado políticas voluntarias que establecen límites sobre el uso de la IA y las armas autónomas letales, incluida una política del Pentágono revisada este año llamada «Autonomía en los sistemas de armas» y una política relacionada del Departamento de Estado, «Declaración política sobre el uso responsable de la inteligencia artificial y la autonomía», que ha instado a otras naciones a adoptar.

Las declaraciones políticas de Estados Unidos «permitirán a las naciones aprovechar los beneficios potenciales de los sistemas de IA en el ámbito militar, al tiempo que fomentarán medidas que eviten comportamientos irresponsables, desestabilizadores e imprudentes», declaró Bonnie Denise Jenkins, subsecretaria del Departamento de Estado.

La política del Pentágono prohíbe el uso de nuevas armas autónomas o incluso su desarrollo a menos que hayan sido aprobadas por altos funcionarios del Departamento de Defensa.

Tales armas deben funcionar en una zona geográfica definida durante períodos limitados.

Y si las armas están controladas por IA, el personal militar debe conservar «la capacidad de desconectar o desactivar los sistemas desplegados que demuestren un comportamiento no deseado».

Al menos al principio, se necesitará la aprobación humana antes de emprender acciones letales, dijeron generales del Ejército del Aire en entrevistas.

Sin embargo, Frank Kendall, secretario del Ejército del Aire, declaró en otra entrevista que, con el tiempo, estas máquinas tendrán que ser capaces de realizar acciones letales por sí solas, pero bajo supervisión humana en su despliegue.

«Las decisiones individuales frente a no tomar decisiones individuales es la diferencia entre ganar y perder, y no se va a perder», dijo.

«No creo que la gente a la que nos enfrentaríamos hiciera eso, y les daría una enorme ventaja si nos pusiéramos esa limitación».

Thomas X. Hammes, oficial retirado de los Marines e investigador de la Universidad Nacional de Defensa del Pentágono, afirmó en una entrevista y en un reciente ensayo publicado por el Atlantic Council que es un «imperativo moral que Estados Unidos y otras naciones democráticas» construyan y utilicen armas autónomas.

Argumentó que «no hacerlo en un conflicto convencional importante provocará muchas muertes, tanto militares como civiles, y potencialmente la pérdida del conflicto».

Algunos defensores del control de armas y diplomáticos no están de acuerdo, argumentando que las armas letales controladas por IA que no tienen humanos que autoricen ataques individuales transformarán la naturaleza de la lucha bélica al eliminar el papel moral directo que desempeñan los humanos en las decisiones sobre quitar una vida.

Estas armas de IA actuarán a veces de forma impredecible y es probable que cometan errores al identificar objetivos, como los coches sin conductor que tienen accidentes, afirman estos críticos.

Las nuevas armas también pueden hacer más probable el uso de la fuerza letal en tiempos de guerra, ya que los militares que las lancen no estarían poniendo inmediatamente en peligro a sus propios soldados, o podrían conducir a una escalada más rápida, han argumentado los opositores.

Grupos de control de armamento como el Comité Internacional de la Cruz Roja y Stop Killer Robots, junto con delegaciones nacionales como las de Austria, Argentina, Nueva Zelanda, Suiza y Costa Rica, han propuesto diversos límites.

Posturas

Algunos pretenden prohibir a escala mundial las armas autónomas letales dirigidas explícitamente contra seres humanos.

Otras exigirían que estas armas permanecieran bajo un «control humano significativo» y que se utilizaran en zonas limitadas durante periodos de tiempo específicos.

Kmentt, el diplomático austriaco, reconoció en una entrevista que la ONU ha tenido problemas para hacer cumplir los tratados existentes que establecen límites a las guerras.

Pero sigue siendo necesario crear una nueva norma jurídicamente vinculante, afirmó.

«El hecho de que siempre haya alguien que cometa un asesinato no significa que no sea necesaria una legislación que lo prohíba», afirmó.

«Lo que tenemos en este momento es que todo este campo está completamente desregulado».

Pero Dorosin se ha opuesto repetidamente a los requisitos propuestos que Estados Unidos considera demasiado ambiguos o no está dispuesto a aceptar, como pedir que las armas estén bajo un «control humano significativo».

El lenguaje preferido por la delegación estadounidense es «dentro de una cadena de mando humana responsable».

Dijo que para Estados Unidos es importante que los negociadores «eviten una terminología vaga y general».

Vorontsov, el diplomático ruso, tomó la palabra después de Dorosin durante uno de los debates y respaldó la postura adoptada por Estados Unidos.

«Entendemos que para muchas delegaciones la prioridad es el control humano», dijo Vorontsov.

«Para la Federación Rusa, las prioridades son algo diferentes».

Estados Unidos, China y Rusia también han argumentado que la IA y las armas autónomas podrían aportar beneficios al reducir las víctimas civiles y los daños físicos innecesarios.

«Se ha demostrado que las armas inteligentes que utilizan ordenadores y funciones autónomas para desplegar la fuerza de forma más precisa y eficiente reducen los riesgos de daños a civiles y objetos civiles», ha argumentado la delegación estadounidense.

Este mes, Kmentt obtuvo un amplio apoyo a un plan revisado que pedía a la oficina del secretario general de la ONU que elaborara un informe sobre las armas autónomas letales, pero dejaba claro que, por deferencia a las grandes potencias, las deliberaciones detalladas sobre el asunto permanecerían en un comité de la ONU en Ginebra, donde cualquier nación puede bloquear eficazmente los avances o forzar a que se suavice el lenguaje.

La semana pasada, el comité con sede en Ginebra acordó, a instancias de Rusia y otras grandes potencias, darse de plazo hasta finales de 2025 para seguir estudiando el tema, según declaró un diplomático que participó en el debate.

«Si esperamos demasiado, nos vamos a arrepentir de verdad», dijo Kmentt.

«Muy pronto será barato, fácil de conseguir y estará en todas partes.

Y la gente se preguntará: ¿Por qué no actuamos lo bastante rápido para intentar ponerle límites cuando tuvimos la oportunidad de hacerlo?».

c.2023 The New York Times Company



Source link