Sociedad | ADRIANA MARGARITA PORCELLI

«Un robot no tiene empatía»

Tiempo de lectura: ...
Marcelo Torres

La abogada y especialista en Relaciones Internacionales plantea los conflictos éticos y jurídicos que se derivan del desarrollo de armas autónomas letales.

«En informática, como en ninguna otra ciencia, no existe el riesgo cero, vale decir que cualquier error del sistema inteligente repercute en la vida, seguridad e integridad de personas inocentes», dice Adriana Porcelli, abogada (UBA), magíster en Relaciones Internacionales por la Universidad Maimónides y profesora en el Departamento de Ciencias Sociales de la Universidad Nacional de Luján. Autora del paper «La inteligencia artificial aplicada a la robótica en los conflictos armados. Debates sobre los sistemas de armas autónomas y la (in)suficiencia de los estándares del derecho internacional humanitario», compartió con Acción algunos de los conceptos vertidos en su trabajo académico.
–¿Cuáles son los peligros de incorporar la Inteligencia Artificial a los conflictos bélicos?
–El tema es ampliamente debatido en la actualidad. Sus detractores identifican varios riesgos en su implementación. Primero, la dificultad de distinguir entre combatientes y no combatientes, cuando los militares se entremezclan entre los civiles y tienen una apariencia similar. Lo mismo en cuanto a los heridos o los que se entreguen o cualquiera que realice algún movimiento sospechoso, una máquina no tiene la capacidad de intuir las emociones. Segundo, muchos líderes y militares conviven con sus familias, en sus hogares y cualquier ataque puede perjudicarlos. Tercero, en informática como en ninguna otra ciencia, no existe el riesgo cero, vale decir que cualquier error del sistema inteligente repercute en la vida, seguridad e integridad de personas inocentes. Cualquier error de cálculo en el objetivo, toda mínima desviación puede ser fatal.
–¿Qué otras características podrían ser censurables en el uso de armas autónomas?
–Existen datos estadísticos sobre la muerte de civiles producidas, por ejemplo, por drones. Los sistemas son hackeables, así como se puede distorsionar la información. Asimismo, en algunos casos la línea es borrosa entre objetivos civiles y militares, ya que muchos bienes sirven y pueden proporcionar una ventaja considerable al enemigo, pero también su destrucción puede perjudicar a la población civil. Se me ocurre como ejemplo una central eléctrica, que si es destruida puede causar la muerte de muchos pacientes civiles que necesiten de suministro eléctrico por temas de salud. Por otra parte, a un robot, por mejor software inteligente que posea, no se le puede enseñar la empatía humana, la misericordia, la intuición, compasión, el buen juicio prudencial, conciencia pública (la denominada cláusula Martens). También el tema de la responsabilidad penal es muy complejo en casos de relativa autonomía de la máquina: ¿quién será juzgado por crímenes de guerra? ¿el que dio la orden, el que elaboró el software, el que lo actualizó? Y, por último, un peligro ya palpable actualmente son los sesgos algorítmicos. Los sistemas de inteligencia artificial aprenden en base a lo que se les va mostrando y si el científico posee algún sesgo de raza, género, etnia, edad, ideología, el sistema lo replicaría.
–¿De qué modo esto podría afectar a los derechos humanos?
–Los derechos humanos involucrados en una guerra son todos, desde que se violenta la vida de las personas, se afectan todos los derechos humanos, ya que son interdependientes. Las personas pierden su vida, salud, integridad personal (física, moral y psicológica), alimentación, agua potable, trabajo, ambiente sano, libertad, igualdad, desarrollo, derecho a la defensa, juicio justo, derecho de los niños/as, ancianos, mujeres, y derecho a la paz, a la autodeterminación de los pueblos.
–¿Qué significaría para el actual escenario internacional que una potencia altamente desarrollada irrumpa con el uso de armas autónomas sin supervisión humana, especialmente en conflictos con países poco desarrollados?
–En mi opinión sería una catástrofe. Transformaría a cualquiera de estos líderes en dueño de las vidas, libertad y seguridad de los otros. Desde la comodidad de su escritorio podrían ordenar la destrucción de todo un país sin ninguna consecuencia, sin tener que enviar a sus soldados, sin el control de su pueblo, sin palpar el sufrimiento de la gente, solo operando máquinas aptas para matar y como si fueran meros espectadores. No se podría apelar a la compasión, misericordia, al juicio prudencial del buen combatiente, no existiría posibilidad de defensa, de tratar de negociar algún tipo de pacificación porque la fuerza de combate sería totalmente desproporcionada. Sería el fin del Derecho Internacional Humanitario, se configuraría un nuevo orden mundial muy diferente al sistema de equilibrio entre las potencias que se pretende en la actualidad.
–¿Podría llegar a aplicarse en conflictos internos o vigilancia de la ciudadanía?
–Sí, el riesgo también puede estar latente dentro de los países cuando se utilizan algunos sistemas de vigilancia y reconocimiento facial para identificar a los opositores y se los combina con estos sistemas de armas semiautónomas. El software identifica al enemigo y da la orden a un robot inteligente que lo destruya, sin juicio previo, sin ningún tipo de garantía ni posibilidad de defensa. Será el certificado de defunción de todo sistema democrático.
–Dada la carrera armamentística en constante evolución y competencia, ¿se puede esperar algún tipo de convenio internacional sobre las armas autónomas antes de que surjan masacres provocadas por los algoritmos?
–En el Derecho Internacional Humanitario existen principios básicos que se aplican a todo tipo de armamentos en controversias bélicas y son el de discriminación, de proporcionalidad, humanidad y el de precaución. En consecuencia, también se aplicaría en este tipo de guerras. Fueron muchos los intentos y campañas a nivel internacional de varias ONG, entre ellas Amnistía Internacional, Pax, Human Rights Watch, Article 36, el Comité Internacional de la Cruz Roja y de científicos, informáticos, líderes religiosos y los relatores especiales de Naciones Unidas para que se estableciera un tratado prohibiendo este tipo de armamentos letales autónomos, pero sin ningún avance.
–Y los países que las están desarrollando obviamente se oponen…
–Es que las potencias que poseen este tipo de tecnología son las que se oponen a su dictado: Estados Unidos, Corea, China, Francia, Inglaterra, Israel. Pero la situación se complica por la propia característica del Derecho Internacional Público ya que, aunque en el marco de las Naciones Unidas, el resto de los países se pusiera de acuerdo y se sancionara un tratado prohibiéndolas, no se le puede aplicar a los Estados que no lo hayan ratificado; vale decir que no hayan prestado su consentimiento en obligarse por ese tratado. Y todos sabemos que los Estados que recién mencionamos no van a obligarse por un tratado en esos términos, como sucede con el Tratado de Roma que crea la Corte Penal Internacional y con las Convenciones sobre ambiente y cambio climático.

Estás leyendo:

Sociedad ADRIANA MARGARITA PORCELLI

«Un robot no tiene empatía»

Dejar un comentario

Tenés que estar identificado para dejar un comentario.