La Moral y la Ética en el uso de aviones no tripulados (Uav) como armas letales

Artículo
ANEPE
Julio Soto Silva, Profesor Jefe de Postgrados

La llegada de los “drones” o aviones no tripulados (UAV por sus siglas en inglés “unmanned aerial vehicle”) al teatro de guerra en los últimos años, que podría ampliarse con exoesqueletos o retinas artificiales, da cuenta  que en el futuro cercano la tecnología dominará mucho más aún el campo de batalla con sistemas de armas autónomos con poca o sin intervención humana.

Esta realidad, sin lugar a dudas, plantea tremendos desafíos éticos y morales para los futuros comandantes y operadores/pilotos de artefactos como robots y los ya conocidos UAV, que están siendo usados en diferentes escenarios de conflictos bélicos en  casi todo el mundo.

Ello, junto al probable uso de robots en el futuro, trae cuestiones morales y éticas que hay que atender. ¿Será posible  mantener el control de los “cerebros” de estos ingenios sin que ellos puedan  desarrollar una inteligencia artificial (IA) que los capacite de un momento a otro, para tomar sus propias decisiones?

Se podría decir que estamos en un mundo diferente al de pocos años atrás, ya que hemos entrado al dominio de la ciencia ficción de muchas maneras, por lo que se hace necesario que en la medida que aparezca nueva tecnología, deben fijarse nuevas reglas y leyes, y eso sería un gran paso.

La primera pregunta que habría que responderse podría plantearse así: ante el surgimiento y empleo de UAV o drones sin piloto, o autónomos, ¿quién es entonces el responsable de su juicio ante la vida y la muerte?

Noel Sharkey, científico en computación y experto en robótica nos señala que es difícil definir responsabilidades  en un  armamento de características robóticas y apunta que, por ello las “acciones letales deben tener una línea de responsabilidad muy clara”. El robot no puede ser definido como responsable de sus acciones aunque haya desarrollado su IA. Entonces, ¿quién es? ¿Es el comandante  que dispuso su utilización? ¿El político que autorizó su uso?, ¿El proceso de adquisiciones militares que lo seleccionó y adquirió?, ¿O finalmente la empresa que lo fabricó que puede aducir “fallas en el material”?[1].

Junto a Sharkey, hay otros que creen que los robots autónomos van a forzar el tipo de diálogo que, por ejemplo, se generó después del uso del gas mostaza en la I GM así como el desarrollo de armas nucleares. De hecho el Comité Internacional de la Cruz Roja ya se encuentra estudiando esta situación. Tal como lo señala Héctor López Aréstegui en su trabajo “La guerra justa y los UAV: ética  y legalidad de su empleo”[2], el Comisionado Especial de la Organización de las Naciones Unidas (ONU) Philip Alston, apunta en su informe a la Asamblea General sobre ejecuciones sumarias, extrajudiciales y arbitrarias que “el uso de los drones (UAV) para asesinatos selectivos es controvertido y, según algunos especialistas, prohibido por las normas del derecho internacional humanitario pues originan – o tienen la capacidad de provocar – el asesinato de civiles en la vecindad del sujeto blanco del ataque”[3].

Tal y como lo advierte el  mayor general (r) Charles J. Dunlap, ex Auditor Adjunto de la Procuraduría General de la Fuerza Aérea de los Estados Unidos y actual Director Ejecutivo del Centro de Estudios Jurídicos, Éticos y de Seguridad Nacional de la Universidad de Duke, “todas las leyes, en especial las leyes del conflicto armado, involucran necesariamente una subjetividad implícita en el razonamiento humano que puede ser problemática para la mentalidad técnica acostumbrada a la precisión de su actividad académica”[4].

López, citando a Singer, expresa que lo acotado hasta el momento sobre el despliegue  de UAV armados genera temores en muchos especialistas sobre la ruptura de los fundamentos de la legalidad internacional y de los principios del sistema democrático[5].  Un Estado que autoriza el quebrantamiento del principio de igualdad de los combatientes – origen de las restricciones de  su conducta en el campo de batalla[6]– rompe con más de centuria y media de progreso de las normas sobre la conducción de la guerra.

Con ello podemos apreciar que la preocupación más importante en relación al empleo de los UAV, es el marco regulatorio de carácter legal que se suma a la ética y moralidad de su empleo, fundamentalmente, por la dinámica de su funcionamiento, tanto en la legislación interna de los países como en el Derecho Internacional.

Por otra parte los especialistas militares y en el Capitolio en este tipo de armamento, reconocen que los legisladores deben discutir y enfrentar los problemas éticos mucho antes que los UAV autónomos y letales entren en servicio, que puede que esté tan cercano  como en una década o un poco más[7].

Ello entonces nos debe señalar que deberán desarrollarse, a lo menos, los siguientes esfuerzos para su  control:

  • Ingenios electrónicos que puedan incrustar dentro de estos aparatos controladores de carácter ético.
  • Un macizo cuerpo de normas legales que regule el empleo de ellos tanto en el campo de batalla como en otras aplicaciones donde puedan usarse como arma letal.
  • Un sistema de control que permita ingresar al cerebro del robot y denegar acciones no deseadas.

Acá, junto con el problema ético enunciado anteriormente, como sería el envío de ingenios no tripulados a combatir  en reemplazo de fuerzas convencionales, lo que permitiría que se “economicen vidas humanas” de los soldados o pilotos trae aparejado, por otra parte,  otro problema moral y ético que afecta a los operadores o “pilotos” a distancia de estos drones o UAV.

Efectivamente, hoy día cientos de drones son dirigidos desde instalaciones militares secretas en Maryland, Nevada o Virginia, las que operan en una intrincada red que une tomadores de decisiones, fuentes de inteligencia, controles satelitales, y las unidades donde se encuentran, frente a sus consolas, pilotos, asistentes y comandantes decidiendo qué hacer, de acuerdo a las directivas del momento y los blancos por reconocer o abatir.

El aspecto ético: necesidad y causa justa[8]

Bradley Strawser[9], analista de defensa y profesor adjunto de Filosofía de la Escuela Naval de Postgraduados de Monterey, California, cree que en ciertas situaciones el empleo de  UAV armados es éticamente obligatorio. Se sustenta en dos principios morales estructurales, el Principio de Riesgo Innecesario (PRI)  y el Principio de Derroche Innecesario de Recursos Escasos (PDIRE). El PRI es un imperativo moral que obliga al individuo con autoridad, a no exponer a sus subordinados a riesgos potencialmente letales e innecesarios para llevar a cabo una acción justa en nombre de una causa de la misma calidad. En caso que deba incurrirse en una situación peligrosa, ésta debe  justificarse por una razón fundamentada. El PDIRE es la obligación de gastar la menor cantidad de recursos comunes y escasos para la consecución de una empresa militar. Ambos principios permiten que el Estado que cuente con sistemas de armas de control remoto en misiones de combate tenga la obligación ética de hacerlo. Su empleo es parte de un justificado esfuerzo de guerra que cumple con los criterios del jus in bello y del jus ad bellum.

Strawser afirma que la doctrina de igualdad moral de combatientes (MEC) por sus siglas en inglés de “Moral Equity of Combatants”  no existe y propone un nuevo sistema de categorización de las partes en conflicto basado en una escala de responsabilidad y/o involucramiento del adversario.

Esta nueva escala permitirá el estudio y redacción de Reglas de Enfrentamiento (ROE) que correspondan al nivel de amenaza que realmente representa el adversario[10]. En el punto específico de la utilización de vehículos tripulados armados en el campo de batalla responde a las objeciones o argumentaciones (en negrita y cursiva)que le formulan sus detractores en los siguientes términos:

  1. Es innoble e injusto matar a otro con medios tan dispares. “No veo el problema ético en la materia. Lo que me interesa es que la causa sea justa. Si los objetivos de la operación están justificados y se tiene el derecho de actuar, la asimetría no existirá. La cuestión se reduce a una situación de provecho y no de moral”.
  2. El uso de UAV armados degrada el concepto tradicional de valor militar. “Esta es una preocupación común a la opinión pública tanto como al personal militar. Lo reconozco como un problema y he tenido la oportunidad de conversar con los pilotos/ operadores de estos vehículos…. Muchos de ellos tienen PTSD[11]. Piense lo que implica ver gente morir todos los días. Hay que tener valor intelectual y moral para no perder la conciencia y creer en la misión que se está realizando…… No arriesgamos la vida de un soldado cuando no hay necesidad de hacerlo, y si la causa es justa, esa fuerza normativa es muy poderosa”.
  3. Los ataques de UAV armados producen un gran daño colateral. “La calidad moral de la política que encuadra la utilización de un armamento no hace su tecnología ilegítima. Es irrelevante si se trata de UAV, rifles de precisión o ballestas. Solo las armas nucleares y las químicas son inherentemente malas porque no discriminan, tal y como sí ocurre con las UAV. El problema yace en la tentación de hacer el mal. No creo que sea el caso de los UAV por su potencial de actuar con más justicia. Todas las acciones quedan grabadas. Para tomar una decisión difícil el operador puede consultar con otras personas. Hay más espacio para la supervisión y el control. Esa es para mí una ganancia normativa”.

En otro de sus trabajos, el autor señala que los drones pueden constituir un arma preferente si son capaces de discriminar más que otras armas que son menos precisas y que exponen a sus operadores a mayores riesgos[12]. “Por supuesto que matar es lamentable en cualquier lugar o tiempo, sea en guerra o en otro contexto. Pero si una acción militar es moralmente justificable, debemos también ser morales en asegurar que es llevada a cabo con el menor daño posible a gente inocente”[13].

Agrega que reconoce que algunos medios son errados en principio, sin importar el fin que se persigue. “Mantengo esta posición por ejemplo en la tortura. Y, por supuesto, existen muchas armas de combate que deben ser clasificadas como moralmente inaceptables por principio, sean o no usadas para una causa justa. Las minas antipersonales, por ejemplo, que no tienen la habilidad para distinguir entre un soldado enemigo o un niño inocente están dentro de esta categoría. También pienso que los drones autónomos –armas son inteligencia artificial- que pueden tomar decisiones por sí solas- son igualmente erróneas en principio”[14].

San Agustín, señala Strawser, es reconocido por haber escrito que en la Guerra uno debe dejar a “la necesidad, y por lo tanto no a la propia voluntad, matar al enemigo que  uno enfrenta”. La idea es que tomar una vida humana en forma intencional, aun cuando es justificada, constituye una acción que es siempre lamentable, sombría y seria, que solo debe ejecutarse por una razón moralmente necesaria. Pero esa necesidad puede aparecer en la guerra moderna, particularmente en una causa justa contra aquellos que buscan activamente matar inocentes.

Algunos piensan que la guerra nunca puede ser justificada bajo ninguna circunstancia. Si uno tiene esa idea, la cuestión sobre si los drones son  armas moralmente permitidas, constituye un asunto debatible. Desde este punto de vista, ningún arma debería ser usada para matar a otro ser humano. Dada la historia de la guerra y sus atrocidades, este no es un tema cuestionable. Pero creo, nos señala el autor, que “la guerra puede, en algunos casos y bajo ciertas circunstancias, ser justificada. Si las condiciones de guerra justa existen, es conveniente entonces, explorar si ciertas armas presentan problemas morales especiales, o tienen ventajas potenciales morales sobre otras armas alternativas. Los drones, concluye el autor, no obstante su actual y posible mal uso, tienen el potencial para una tremenda mejoría moral sobre los bombardeos aéreos de eras anteriores”[15].

Ello nos lleva nuevamente a la pregunta: ¿Cuánto tiempo tendrá que pasar para el uso de drones autónomos, y cuáles son los riesgos al entregar esa capacidad de decidir, sin que estemos preparados para asumir las responsabilidades éticas y morales para usar esa poderosa asimetría que produce el enfrentamiento entre robots y seres humanos en el campo de batalla ya apresuradamente más cercano?

Los desafíos morales y éticos en el arte de la guerra, así como la de los soldados del futuro, que deberán convivir e incluso combatir contra ingenios con IA, abre una arista que hay que explorar, junto con los estudios que se están haciendo, con los actuales pilotos de drones o UAV, que ya están causando bajas a miles de kilómetros de distancia, sin siquiera sentir los efectos físicos de “estar en el campo de batalla”, pero sufriendo quizás otros daños que se deben analizar, desde un punto de vista fisiológico, psicológico y en lo que se refiere a nuestra preocupación de sus valores y virtudes, que les fueron inculcados cuando abrazaron la carrera militar y que hoy pueden estar en conflicto.

Nosotros estamos aún lejos de ese problema, pero nos debe preocupar, pues a veces las tendencias y las necesidades de su uso pueden llegar más temprano que tarde, y para ello debemos estar preparados.

 

[1]         HENNIGAN, W.J.: “New drone has no pilot anywhere, so who’s accountable?” Los Ángeles Times http://articles.latimes.com/2012/jan/26/business/la-fi-auto-drone-20120126, recuperado el 25 de julio de 2014.

[2]         LÓPEZ Aréstegui, Héctor: “La guerra justa y los UAV: ética y legalidad de su empleo.” paper  https://www.academia.edu/5025647/La_guerra_justa_y_los_UAV_etica_y_legalidad_de_su_empleo,  recuperado el 28 de julio de 2014.

[3]         ALSTON, Philip (2010, 28 de mayo): ”Reporte del Comisionado Especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias. Estudio sobre los asesinatos selectivos”. Asamblea General de las Naciones Unidas. http://www2.ohchr.org/english/bodies/hrcouncil/docs/14session/A.HRC.14.24.Add6.pdf. Citado Por Héctor López.

[4]         DUNLAP, Charles J. Jr. “Perspectives for Cyber Strategists on Law for Cyberwar”, 5 STRATEGIC STUD. Q. 81, 82 (2011). Citado por Héctor López. p. 2.

[5]         SINGER, Peter “Do drones undermine democracy?”. The New York Times, 21 de enero de 2012, citado por Héctor López. p. 2.

[6]         HERNÁNDEZ Maura, Santiago. “El asesinato del sheik Ahmed Yassin, ¿Acto de Guerra o ejecución extrajudicial?”. Expreso 3 de abril de 2004, citado por Héctor López. p. 2.

[7]          HENNIGAN, Op. Cit. 2012.

[8]         Para poder investigar más sobre la ética moral y uso de UAV, sugiero revisar: STRAWSER, Bradley Jay (2010): Moral Predators: The Duty To Employ Uninhabited Aerial Vehicles, Journal of Military Ethics, 9:4, 342-368  http://dx.doi.org/10.1080/15027570.2010.536403 Uninhabited Aerial Vehicles, recuperado el 29 de julio de 2014.

[9]         STRAWSER, Bradley Jay (2010): “Moral Predators: The Duty to Employ Uninhitated Aerial Vehicle”. Journal of Military Ethics, 9:4, 342 – 368  http://www.tandfonline.com/doi/abs/10.1080/15027570.2010.536403  Citado por Héctor López, p. 5.

[10]        STRAWSER, Bradley: “Walking the tightrope of just war”. Oxford Journals Humanities Analysis Volume 71, Issue 3 pp. 533-544. http://analysis.oxfordjournals.org/content/71/3/533.full?ijkey=4mcoWEGxCt4iqsz&keytype=ref. recuperado el 28 de julio de 2014

[11]        Trastorno de Estrés Postraumático. Trastorno psicológico clasificado dentro del grupo de los trastornos de ansiedad. Se caracteriza por la aparición de síntomas específicos tras la exposición a un acontecimiento estresante, extremadamente traumático, que involucra un daño físico o es de naturaleza extraordinariamente amenazadora o catastrófica para el individuo.

[12]        STRAWSER, Bradley Jay (6 de agosto de 2012,): “The morality of drone warfare revisited”. The Guardian  http://www.theguardian.com/commentisfree/2012/aug/06/morality-drone-warfare-revisited, recuperado el 28 de julio de 2014.

[13]        Íbid.

[14]        Íbid.

[15]        Íbid.

No hay comentarios

Agregar comentario