Roboética, Inteligencia Artificial y Sistemas Armamentísticos Autónomos

¿Quién debe tener la última palabra?

Por: Emanuel Tumori*

Luego de la intervención de la Organización del Tratado del Atlántico del Norte (OTAN) que contribuyera al derrocamiento del dictador Muamar el Gadafi, producido en el año 2011, Libia se halló inmersa en una guerra civil en que se disputaban el gobierno y el control del territorio dos actores: por un lado el Gobierno de Acuerdo Nacional (auspiciado por las Naciones Unidas) y  por el otro los milicianos que se opusieron a dejar las armas e intentaron la creación de un nuevo gobierno revolucionario[1].

Según un informe del Grupo de Expertos que se encontraba establecido allí por Resolución 1973 (año 2011) del Consejo de Seguridad de la Organización de las Naciones Unidas, en el mes de marzo del año 2020, se utilizaron drones autónomos letales en el marco de una operación denominada “Tormenta de Paz”. En el extracto de un reporte de situación de fecha 04 de abril de 2019, obrante en el mismo, se hace mención a que las fuerzas del Gobierno de Acuerdo Nacional utilizaban armamento fabricado en los Emiratos Árabes Unidos, contando entre el mismo con drones de alto rendimiento y precisión en las batallas. En una de sus partes el informe reza: “Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo[2].   Estas piezas de artillería con la que contaron los actores, denominadas STM Kargu-2, fueron fabricadas por la Empresa STM (de origen turco), posicionada en la industria de la Defensa como proveedora de soluciones y servicios de consultoría en todos los sectores (civil, público y privado), llevando a cabo sus actividades en el campo militar, de los sistemas de radares, sistemas autónomos y ciberseguridad. El desarrollo de sus productos se destaca por aplicar técnicas de la inteligencia artificial para que los drones posean las siguientes capacidades: visión artificial, reconocimiento de obstáculos, sistemas de disparo, seguimiento, detección, clasificación e identificación de objetos. Estos sistemas autónomos poseen entre sus características la posibilidad de ser programados previamente al ataque de los objetivos, por lo que no requieren del accionar humano ni conectividad al momento del uso de las municiones[3].

La combinación de esfuerzos entre Inteligencia Artificial y Ser Humano es una realidad, es presente y es útil a muchísimos fines lícitos y que aportan al bienestar y desarrollo social, sin embargo, debemos posar sobre esa situación una mirada crítica y objetiva desde distintas perspectivas. Es ahí donde nos encontramos con una problemática que vale la pena mencionar por lo que se encuentra en juego, ¿cuáles son los límites legales y éticos en los avances tecnológicos en la materia? ¿Se encuentra previamente establecido en qué ámbitos es aplicable o debe considerarse una disciplina en desarrollo? ¿Se ha pensado en los niveles de ciberseguridad requeridos por los dispositivos y sistemas que utilicen el ciberespacio?

En diciembre del año 2018 en la Unión Europea se publicó un borrador de lo que va a ser la “Guía Ética para el Uso Responsable de la IA”, en la que trabajaron 52 expertos y se halla en permanente revisión para actualizarse conforme a los avances. Entre los puntos más interesantes se hallan: mantener la autonomía de los seres humanos, utilización de algoritmos seguros y confiables, privacidad de los datos, transparencia y responsabilidad. Actualmente se encuentra en debate la relevancia que está adquiriendo la robótica, en la que intervienen usuarios, profesionales e investigadores, y la IA (de las máquinas), por lo que el Parlamento ya cuenta con una propuesta de Resolución, entre los que se sancionarían los siguientes principios[4]:

  1. Proteger la dignidad humana.
  2. Proteger la libertad humana.
  3. Proteger la privacidad.
  4. Proteger a los humanos de la manipulación de los robots.
  5. Garantizar la igualdad de acceso a los avances logrados en la robótica.

La postura de la Unión Europea se encuentra reflejada en los principios mencionados y plantea que urge la necesidad de adoptar una estrategia contra los Sistemas Armamentísticos Autónomos Letales (SAAL) y los Robots Asesinos, llevando a cabo un debate internacional en el marco de la Convención de las Naciones Unidas. Por otro lado, la Comisión de Seguridad Nacional sobre Inteligencia Artificial (NSCAI) de EE.UU. que tiene como función la de efectuar recomendaciones al Congreso y al Presidente para “avanzar en el desarrollo de inteligencia artificial, aprendizaje automático y tecnologías asociadas para abordar de manera integral las necesidades de defensa y seguridad nacional”, en un reporte de este año en el cual presenta la estrategia de la Comisión para triunfar en el área, establece con claridad que no apoyan una prohibición global de los SAAL, no es de interés para la seguridad del país y no es aconsejable por las siguientes razones[6]:

  1. Al no existir una clara conceptualización de los sistemas no podría saberse a ciencia cierta cuáles se restringen.
  2. Habiendo superado la problemática de las definiciones, no hay manera práctica de verificar su cumplimiento.
  3. Es probable que los efectos del acuerdo de prohibición vayan contra los intereses estratégicos de Estados Unidos y los compromisos de estados como Rusia o China probablemente serían poco claros y vacíos.
  4. Los problemas estratégicos y prácticos de un acuerdo de prohibición superan a los beneficios potenciales para EE.UU. y sus aliados.

La población mundial está siendo testigo de los esfuerzos realizados por empresas tecnológicas que buscan reflejar en sus máquinas y sistemas las funciones y capacidades hasta ahora propias del intelecto humano, tales como la comprensión, interpretación de situaciones y aplicación de soluciones en la resolución de problemas. Ante esta situación presentada, apremia la necesidad de un análisis exhaustivo para considerar ventajas y desventajas que puedan presentarse en cada uno de los sectores donde se aplica la IA, más aún en aquellos donde la misma pueda tener injerencia sobre la vida humana, para luego regular la práctica y ética profesional tendiente al respeto de los derechos humanos, y aquellos sistemas y robots autónomos dotados de cierta letalidad no tengan la última palabra ante un posible objetivo.


*Licenciado en Seguridad.

[1] AMNISTIA INTERNACIONAL. Libia: Diez años después del levantamiento de 2011 [en línea]. [consulta: 8 de junio de 2021]. Disponible en: https://www.amnesty.org/es/latest/news/2021/02/libya-ten-years-after-uprising-abusive-militias-evade-justice-and-instead-reap-rewards/

[2] ONU. Informe final del Grupo de Expertos sobre Libia. 2021. Disponible en: https://undocs.org/es/S/2021/229/Corr.2 

[3] STM. Sitio Web de la empresa STM [en línea]. [consulta: 8 de junio de 2021]. Disponible en: https://www.stm.com.tr/en/kargu-autonomous-tactical-multi-rotor-attack-uav

[4] PARLAMENTO EUROPEO. Informe sobre Inteligencia Artificial [en línea]. [consulta: 8 de junio de 2021]. Disponible en: https://www.europarl.europa.eu/doceo/document/TA-9-2021-0009_ES.html

[6] COMISION DE SEGURIDAD NACIONAL SOBRE INTELIGENCIA ARTIFICIAL (NSCAI). Reporte Final [en línea]. [consulta: 8 de junio de 2021]. Disponible en: https://www.nscai.gov/2021-final-report/

69 comentarios en «Roboética, Inteligencia Artificial y Sistemas Armamentísticos Autónomos»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *