Las normas del Derecho Internacional Humanitario (DIH) establecen límites al uso de los medios y métodos de combate en el desarrollo de las hostilidades. Si bien en su origen el DIH no fue elaborado teniendo en cuenta los desafíos planteados por el desarrollo de la inteligencia artificial (IA) en ese contexto, es una realidad que en la actualidad la evolución de esta inteligencia, los algoritmos y su aplicación militar emergente constituyen un desafío a la luz de las normas humanitarias. Ese desafío comprende tres ámbitos fundamentales: el técnico, el legal y el ético.
Si bien se puede decir que la IA, en la etapa actual de desarrollo, permite que un programa computerizado basado en algoritmos realice ciertas tareas en un entorno complejo e incierto, a menudo con mayor precisión que los seres humanos, también debemos destacar que no hay tecnología que haga que una máquina se comporte como un ser humano, quien puede determinar si una acción es lícita o ilícita y decidir no continuar con lo programado, teniendo como objetivo primordial la protección de las víctimas.
Los Estados deben adoptar regímenes de verificación, prueba y monitoreo como parte del proceso para determinar e imponer limitaciones o prohibiciones de acuerdo a los principios esenciales de distinción y proporcionalidad que el DIH establece en la utilización de armas durante los conflictos armados internacionales o no internacionales. Tanto desde una perspectiva legal como ética el ser humano está en el centro de esta problemática, ya que la responsabilidad por el uso de la fuerza no puede transferirse a sistemas de armas o algoritmos, y sigue siendo una responsabilidad humana.
The rules of International Humanitarian Law (IHL) set limits on the use of the means and methods of combat in the conduct of hostilities. While in its origins IHL was not developed taking into account the challenges posed by Artificial Intelligence in this context, it is a reality that today the evolution of this intelligence, the algorithms and their emerging military application constitute a challenge in the light of humanitarian standards. This challenge comprises three fundamental aspects: legal, technical and ethical.
While it can be said that AI, in the current stage of development, allows a computer programme based on algorithms to perform certain tasks in a complex and uncertain environment, often with greater accuracy than humans, we must also stress that there is no technology that makes a machine behave like a human being who can determine whether an action is lawful or unlawful and decide not to proceed with the programmed action, with the protection of victims as the primary objective. This is one of the dominant themes in doctrinal debates on the application of IHL to means and methods of combat involving AI-related techniques.
States must adopt verification, testing and monitoring systems as part of the process to determine and impose limitations or prohibitions in accordance with the essential principles of distinction and proportionality that IHL establishes in the use of weapons during international or non-international armed conflicts. Moreover, it is worth noting that from a legal as well as an ethical perspective, the human being is at the center of this issue, since the responsibility for the use of force cannot be transferred to weapons systems or algorithms, as it remains a human responsibility.
La inteligencia artificial (IA) se ha expandido en las últimas décadas en varios ámbitos, entre ellos en el desarrollo de tecnología militar utilizable en los conflictos armados. Su aplicación crea cierta incertidumbre sobre conceptos como la atribución, el control y la responsabilidad, todos estrechamente vinculados al factor humano y al principio de que los Estados deben respetar y hacer respetar el Derecho Internacional Humanitario (DIH), así como los Derechos Humanos, ya que ambos cuerpos normativos tienen por fin la protección de la vida y la dignidad humana en tiempos de guerra y en tiempos de paz. Esta obligación es plenamente aplicable al posible proceso de desarrollo, adquisición, uso o transferencia de la tecnología militar desarrollada por la inteligencia artificial. El interés de este trabajo es determinar en primera instancia qué capacidades especiales y avances tecnológicos plantea la IA en el contexto bélico y cuáles pueden ser sus aspectos desfavorables en el marco de la aplicación de las normas jurídicas del DIH.
Con este fin presentaré en primer lugar una breve introducción a las normas del DIH que rigen las hostilidades. Esencialmente tres son las normas básicas que deben ser respetadas durante el desarrollo de las hostilidades: la distinción, la proporcionalidad y la precaución en el ataque a los efectos de evitar causar males superfluos o sufrimientos innecesarios.
En segundo lugar se planteará el concepto de IA y su evolución, caracterizada por la combinación del reconocimiento de imagen, el procesamiento de lenguaje y las redes neuronales. Seguidamente, expondré las aplicaciones de estas tecnologías a los conflictos armados, así como sus usos en otros ámbitos, como la ayuda humanitaria.
Por último, se realizará el análisis de la aplicación del DIH a esta nueva tecnología, subrayando la necesidad de que el centro de atención esté puesto en las responsabilidades y obligaciones que incumben a los seres humanos en las decisiones relativas a la utilización del uso de fuerza armada.
El DIH, como sistema jurídico que regula los conflictos armados, establece la limitación de los medios y métodos de combate y la protección de las víctimas, los bienes y el medioambiente que puedan ser afectados. Se consideran
Se considera 1864 la fecha de nacimiento de este derecho con la creación del primer instrumento multilateral del Derecho Internacional Humanitario: el Convenio de Ginebra de 22 de agosto de 1864 para el mejoramiento de la suerte de los militares heridos en los ejércitos en campaña (
Las restricciones y prohibiciones al empleo de ciertas armas datan de varios siglos atrás. Como sugiere
Sobre la base de los principios de distinción y de precaución en el ataque para evitar males superfluos e innecesarios
Estos principios se aplicaban en la conducción de hostilidades aún antes de la existencia de DIH como tal, y han sido
Los Estados no pueden optar por cualquier medio o método de combate
En todo caso, y de conformidad con el
Esto implica una restricción a los importantes avances tecnológicos de las últimas décadas, incluida la IA, ya que toda nueva tecnología de guerra debe utilizarse respetando las normas vigentes del DIH. Del
Este examen incorpora cuestiones de procedimiento que comprenden: determinar la autoridad nacional responsable de la prueba, las instancias institucionales que deben participar en el proceso, los mecanismos relativos a la toma de decisiones y el registro de exámenes. El mecanismo que se adopte, según esta guía, se debe basar en un enfoque imparcial y multidisciplinario de los exámenes jurídicos de las nuevas armas y que los Estados procedan a intercambiar información sobre los procedimientos. La guía debe servir para determinar la licitud de las armas en el marco de las prohibiciones y las restricciones de carácter convencional y consuetudinario, así como las normas generales de DIH para poder determinar sus efectos en la población civil, en los combatientes, en la salud y en el medio ambiente. (
La IA es una disciplina científica que pone en práctica métodos destinados a la construcción de maquinarias inteligentes capaces de actuar con una previsión adecuada en un entorno complejo, es decir, utilizando modelos entrenados a partir de datos. La Comisión Europea considera que:
«el término «inteligencia artificial» (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción-con cierto grado de autonomía-con el fin de alcanzar objetivos específicos. Los sistemas basados en la IA pueden consistir simplemente en un programa informático (p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la IA también puede estar incorporada en dispositivos de
Para la gran mayoría de las aplicaciones actuales, la IA consiste en algoritmos
Los algoritmos de
Los algoritmos de
La IA trabaja en diferentes campos como la
Como ya se ha mencionado, uno de los aspectos que la IA plantea es la innovación en los métodos de aprendizaje de las máquinas (
Los trabajos desarrollados en inteligencia artificial han permitido evolutivamente categorizar sus productos bajo cuatro enfoques: sistemas que piensan racionalmente, comprende los sistemas expertos
Cabe distinguir entre robots inteligentes y robots industriales. Como señala Adriana Margarita
Por
El Instituto Internacional de Estudios para la Paz de Estocolmo en un Informe elaborado sobre sistemas armamentísticos autónomos letales (LAWS, por sus siglas en inglés) (
Es interesante, en este contexto, la clasificación que hace el Ministerio de Defensa de Estados Unidos de las armas autónomas de acuerdo al grado de intervención humana, y por tanto dentro de la primera categoría descrita, según la cual existen tres tipos: a) aquellas armas cuyos sistemas requieren un comando humano para seleccionar y atacar objetivos (las denomina semiautónomas); b) el arma cuyo sistema
En todo caso, estos sistemas han encontrado resistencia por parte de grupos civiles. En noviembre de 2019, la
Tal como se ha expresado, la IA se ha desarrollado en los últimos años gracias a importantes avances tecnológicos como la disponibilidad de grandes cantidades de datos, el incremento de la potencia de procesamiento de los ordenadores y la innovación en los métodos de aprendizaje automático.
La IA tiene aplicación en varios aspectos de vital importancia en la conducción de hostilidades. En este contexto, se utiliza en tareas de reconocimiento de objetivos militares, vigilancia, comunicación, logística, en la manipulación de la información y el desarrollo de nuevas armas y los métodos de combate. Sin embargo, esta misma tecnología también encuentra su uso humanitario en la protección de las víctimas. En el ámbito terrestre, por ejemplo, se utilizan artefactos autónomos en el seguimiento de vehículos o, para evitar obstáculos, coordinando sistemas no tripulados con vehículos tripulados. En el ámbito marítimo esta tecnología posibilita que los navíos de superficie no tripulados, ligeros y pequeños, estén equipados con instrumentos de barrido de minas marinas. En el ámbito aéreo, son utilizados con fines humanitarios los sistemas autónomos de aeronaves de vigilancia o reconocimiento. En cuanto a las redes de información, el caso del acceso a una gran cantidad de datos y conocimiento en el ciberespacio permite a individuos y grupos un acceso inmediato a recursos estratégicos.
El uso militar de la IA plantea, sin embargo, varias preguntas esenciales con relación al método de análisis de datos que utilizan los algoritmos: ¿de dónde provienen esos datos?, ¿qué sesgos podrían tener? y ¿cómo esos sesgos podrían afectar la eficacia del modelo? Además en el contexto de un conflicto armado se hace necesario hacer juicios de percepción de manera rápida sobre grandes cantidades de contenido visual, en las que los datos que se utilizan para preparar el algoritmo pueden discrepar a veces de los datos reales, o puede incluso haber una falta de ellos.
Por otra parte, pueden existir situaciones en las que se requiere hacer juicios complejos y en las que resulta difícil codificar nociones de DIH en los algoritmos. En ocasiones se hace complicado caracterizar el concepto de conflicto armado, al igual que la noción de población civil, la de combatiente y prisionero de guerra, la de un bien civil utilizado para un fin militar, o la participación de la población civil en las hostilidades; y esta complejidad o ambigüedad pueden implicar riesgos al generar identificaciones erróneas. Si los datos sesgados ingresan inicialmente en el sistema, no solo se traducirán en recomendaciones futuras, también podrán expandirse y ampliar su alcance a medida que esas recomendaciones sesgadas se retroalimentan en el sistema
Reafirmamos por ello un concepto ya expresado, toda nueva tecnología de uso militar aplicable a los conflictos armados debe utilizarse de conformidad con las normas existentes del DIH teniendo en cuenta los principios de distinción y proporcionalidad. Este es un requisito mínimo. Estos principios son transversales a la aplicación de todos los medios y métodos de combates. Es cierto que las características únicas de las nuevas tecnologías de guerra, las circunstancias de su uso, y sus consecuencias humanitarias pueden plantear dudas sobre si las normas existentes son suficientes o necesitan ser aclaradas o complementadas. Frente a estos cuestionamientos sugiero que las aplicaciones militares de las tecnologías nuevas y emergentes no son inevitables y podemos (y debemos) mantener ante ellas un criterio prudencial. Se trata, además, de decisiones tomadas por los Estados, que deben cumplir con las normas existentes y tener en cuenta las posibles consecuencias para los civiles y para los combatientes que ya no participan en las hostilidades, así como consideraciones más amplias de «humanidad» y «conciencia pública»
Hay aspectos de gran importancia en el uso de la IA, como la identificación, la fiabilidad y la previsibilidad, que hoy día aún no hay certeza de que puedan ser cumplidos por una máquina en situaciones de uso de fuerza armada. Durante el funcionamiento de un arma que selecciona objetivos sin intervención humana, la identificación plantea un nivel de supervisión, intervención y capacidad de desactivación humana. El nivel de previsibilidad estima el funcionamiento y las consecuencias del uso de este tipo de armamento. Por último, la fiabilidad se establece en relación a la probabilidad de fallas. Teniendo en cuenta estas variables, ¿puede la IA ayudar a proporcionar una imagen más completa y precisa de las ventajas que aporta en casos de ataques militares o de daños esperados a civiles u objetos civiles?
La respuesta a esta pregunta no es inmediata. Utilizar la IA para armas autónomas ofensivas requiere un análisis cuidadoso. Es preciso tener en cuenta desde perspectivas jurídicas y éticas los siguientes aspectos: a) las armas semiautónomas deben permitir a los mandos militares ejercer de manera plena un control efectivo a través del juicio humano; b) la responsabilidad de los mandos militares o subordinados no puede excluirse en el uso de armas semiautónomas; c) las empresas que se dedican al desarrollo de la IA en la elaboración de armas deben tener un control y revisión gubernamental estricto, y todos los programas de IA diseñados con fines hostiles deben ser supervisados por investigadores capacitados que confirmen su adecuación a las normativas (
Según Michel Schmitt y Jeffrey Thurnher, deben distinguirse las armas completamente autónomas de aquellas que son semiautónomas, estas últimas frecuentes en las guerras contemporáneas (
En la etapa actual de desarrollo de la tecnología de IA, y a la luz de las normas del DIH, no se puede admitir que haya sistemas tomadores de decisiones totalmente autónomos en el campo de batalla. En un conflicto armado, muchas de estas decisiones son esenciales, lo que implica que su adopción puede traer aparejadas muertes o lesiones graves, daños o destrucción de la propiedad, o puede restringir las libertades individuales. Mantener el papel fundamental del ser humano en esas decisiones y el control sobre ellas será esencial para evitar consecuencias impredecibles tanto para civiles como para combatientes.
No sólo en el ámbito del DIH sino también en el sistema universal de protección de los Derechos Humanos se respalda indirectamente, en virtud del cumplimiento del art. 6 del Pacto de Derechos civiles y Políticos, la limitación de estas nuevas tecnologías
Los Estados partes que usan las armas existentes y estudian, desarrollan, adquieren o adoptan nuevas armas y nuevos medios o métodos de guerra deben tener siempre en cuenta su impacto sobre el derecho a la vida. Por ejemplo, el desarrollo, con vistas a su uso en operaciones militares, de nuevos robots autónomos letales que carecen de discernimiento y compasión humanos plantea difíciles cuestiones jurídicas y éticas en relación con el derecho a la vida, incluidas cuestiones relacionadas con la responsabilidad jurídica por su utilización. [El Comité considera, por tanto, que estos sistemas de armas no deberían [desarrollarse y] ponerse en funcionamiento, ni en tiempos de guerra ni en tiempos de paz, al menos no antes del establecimiento de un marco normativo que garantice su utilización conforme al artículo 6 y a otras normas pertinentes del derecho internacional].
Como se ha mencionado, tal vez la aplicación más amplia y de mayor alcance sea el uso de la IA y el aprendizaje automático para la toma de decisiones, que permite la recopilación y el análisis generalizados de fuentes de datos para identificar personas u objetos, evaluar patrones de vida o comportamiento, hacer recomendaciones para la estrategia u operaciones militares, o hacer predicciones sobre acciones o situaciones futuras. Uno de los aspectos que podrían considerarse más influyentes en el uso bélico de la IA son los mecanismos para generar información falsa como método de combate, pues esta información es cada vez más difícil de distinguir de la información real. El uso de estos sistemas por las partes en conflicto para amplificar los antiguos métodos de propaganda y manipular la opinión e influir en las decisiones podría tener implicaciones significativas sobre el terreno
Estos sistemas de apoyo a la toma de decisiones son una ampliación de las herramientas de inteligencia, vigilancia y reconocimiento utilizadas por la IA. El uso posible de estos sistemas es extremadamente amplio: desde para decidir estrategias militares -como a quién/es o qué atacar, a quién detener y durante cuánto tiempo- hasta los intentos de predecir o anticiparse al contendiente. Es importante relacionar estas aplicaciones con el principio de proporcionalidad, el principio de buena fe, la previsibilidad y la fiabilidad. Estos principios, que no pueden ser comprendidos por una máquina, deben de estar presentes en la toma de decisiones, ya que en relación a ellos se establece la responsabilidad internacional imputable a un Estado por la violación de una norma jurídica exigible y la comisión de un hecho internacionalmente ilícito, así como con la responsabilidad penal individual ante la realización de crímenes de guerra. Dentro del ámbito penal internacional un elemento esencial es la existencia de la culpa y la pena, términos que no pueden aplicarse en el ámbito jurídico a un sistema de armas autónomas letales. El Consejo de Derechos Humanos de las Naciones Unidas, en el Informe del relator especial Christof Heyns, establece: «Los robots no tienen capacidad de discernimiento moral, por lo que si causan pérdidas de vida no se les puede exigir ningún tipo de responsabilidad, como sería normalmente el caso si las decisiones las hubieran tomado seres humanos. ¿En quién recae entonces la responsabilidad?» (
Cabe preguntarse, para ahondar en el problema de la responsabilidad de un mando respecto a un arma autónoma letal, si ésta podría ser considerada un subordinado. Ante un subordinado humano el superior incurre en responsabilidad cuando no impidió el crimen o no aplicó las sanciones correspondientes a quien lo cometió. El superior jerárquico militar es responsable por su acción cuando ese sistema de armas letales incurre en un crimen de guerra. ¿Podría el superior militar conocer cabalmente los alcances técnicos y consecuencias de esa arma letal de tal manera que pudiese impedir su acción? A la luz de las normas sobre responsabilidad frente a hechos ilícitos podría, sí, imputarse esta responsabilidad al Estado, pero en cuanto a la responsabilidad penal estas violaciones quedarían impunes. Por lo tanto podría considerarse que si es imposible exigir responsabilidades de índole penal por las consecuencias del uso de un arma, su uso debe ser considerado ilícito.
Los sistemas de apoyo a la toma de decisiones basados en la IA y el aprendizaje automático deben contemplar que sean los seres humanos quienes tomen, en última instancia, decisiones a la hora de llevar a cabo las hostilidades; ya que si bien en determinadas circunstancias estos sistemas de apoyo pueden aportar mayor precisión y minimizar los riegos para los civiles, nada garantiza que, teniendo en cuenta las posibles limitaciones de la tecnología como la imprevisibilidad y la fiabilidad, no tengan como efecto violaciones del DIH. Tal sería el caso de un sistema de IA utilizado para iniciar directamente un ataque, en lugar de producir un análisis que permita a los responsables humanos la toma de decisiones, ya que ese ataque a un objetivo militar -que es una acción lícita- no pueda ser abortado en el supuesto de que hubiera civiles que se encontraran incidentalmente en ese lugar (
Otro aspecto a destacar en el análisis del uso de la IA en la toma de decisiones automatizadas desde lo jurídico y lo ético es el relativo a la detención de personas en el contexto de un conflicto armado, ya que pueden plantear problemas de inexactitud y parcialidad. Como ha expresado el CICR en más de una oportunidad, estos tipos de herramientas de IA podrían conducir a una creciente personalización de la guerra, con sistemas digitales que reúnen información personal identificable procedente de múltiples fuentes, bases de datos, comunicaciones, datos biométricos, informes sociales para formar una caracterización generada algorítmicamente sobre una persona, su estatus y su capacidad de ser blanco de ataques, o para predecir sus acciones futuras (
Mantener el papel fundamental del ser humano en esas decisiones y el control sobre ellas será esencial para evitar consecuencias impredecibles para los civiles y los combatientes.
La IA, como ya señalamos, puede ser útil para la introducción de formas innovadoras de capturar y explotar la información digitalizada con la finalidad de asistencia humanitaria digital. Algunas organizaciones humanitarias -por ejemplo, el
En efecto, como tantos gobiernos han declarado, el desarrollo de la IA debe estar de acuerdo con valores compatibles con la dignidad humana, los derechos y las libertades. Así, el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea subrayó la importancia de «la agencia y la supervisión humanas» de la IA. Por su parte, el Departamento de Defensa de Estados Unidos en su Estrategia de IA de 2018 para la Defensa hace referencia a la adopción reflexiva, responsable y centrada en el ser humano de la IA (
En opinión del CICR, preservar el control humano sobre las tareas y el juicio humano en las decisiones que puedan tener graves consecuencias para la vida de las personas será también esencial para preservar una medida de humanidad en la guerra. El CICR ha subrayado la necesidad de conservar la capacidad de decisión humana sobre el uso de la fuerza en los conflictos armados, una opinión que se deriva de consideraciones éticas más amplias sobre la humanidad, la responsabilidad moral, la dignidad humana y los dictados de la conciencia pública (
Preservar el control y el juicio humanos será un componente esencial para garantizar la observancia de las normas y mitigar las preocupaciones éticas que plantean ciertas aplicaciones de la IA y el aprendizaje automático.
Los responsables de utilizar determinados medios o métodos de combate que involucren técnicas o herramientas relacionadas con la IA deberán evaluar diversas situaciones, teniendo en consideración las normas del DIH, entre ellas:
Proteger a las posibles víctimas del uso de la fuerza armada tomando todas las precauciones en el ataque, para asegurar el respeto a la condición civil.
Atribuir al Estado la responsabilidad penal de los individuos, ya sean miembros de las fuerzas armadas o de grupos armados, que empleen armas que impliquen la aplicación de IA, como ya se ha mencionado en este artículo.
Evaluar las funciones de todos los componentes de los sistemas de armas que involucren técnicas de IA, antes y después de su empleo mediante una supervisión continua.
Considerar la viabilidad de umbrales de desactivación automática y/o revisión adicional con relación a los medios o métodos que impliquen técnicas de IA.
Analizar la seguridad en el uso continuado de medios y métodos de combates vinculados a la IA.
Contemplar la imposibilidad de probables improvisaciones en el empleo de medios o métodos relacionados con la IA.
Conocer los componentes computacionales adoptados, es decir la configuración de los modelos y sus componentes respecto al empleo de armas, medios y métodos de guerra que impliquen técnicas o herramientas relacionadas con la IA;
Evaluar los sesgos que puedan surgir en relación con los componentes informáticos adoptados para el empleo de medios o métodos de guerra que impliquen técnicas o herramientas relacionadas con la IA.
Es necesario que se mantenga un control humano en la aplicación militar de las tecnologías de IA, que se cumplan las normas del DIH ya existentes que establecen reglas legales y éticas sobre el empleo de la fuerza letal y que aquellas técnicas que violen sus disposiciones sean dejadas de lado o en última instancia prohibidas, tal como ya ha sucedido con otros medios y métodos de combate que no respetaron los esenciales principios humanitarios de distinción y proporcionalidad, por ejemplo las minas antipersonas o las armas nucleares
Sin lugar a duda el desarrollo de la tecnología ha aportado grandes avances al mundo, no debemos negarnos a ella, pero es necesario tener claro que se debe mantener el control humano y el juicio humano en aquellas decisiones que puedan tener graves consecuencias para las personas. Y una situación de conflicto armado es justamente donde es más necesario conservar la decisión humana sobre el uso de la fuerza. El avance de la tecnología es irreversible y el dilema que se presenta no se resuelve con retrotraerse, sino reflexionando cómo construir y cómo avanzar éticamente para obtener el mayor bien posible para el ser humano y evitar sufrimientos innecesarios.
Los sistemas de aprendizaje automático construyen sus propias reglas, siguen en ciertos casos aprendiendo y pueden cambiar el modelo después de desplegar su tarea específica. Pueden, por lo tanto, al incrementar su autonomía apartarse de las normas que regulan el uso de la violencia armada.
En realidad, hablar de un sistema autónomo no sólo remite a la toma de decisiones de manera independiente, esa autonomía implica también tener la facultad de determinarse y reconocerse en el cumplimiento de las normas jurídicas, y si estas se incumplen, asumir responsabilidades concretas: esto hace a la dignidad humana. Durante el desarrollo de un conflicto armado, no puede ponerse en manos de sistemas inteligentes decisiones que puedan agravar aún más la condición de víctimas de las personas afectadas.
Pero debemos reconocer que si se hace referencia a una ética de los sistemas inteligentes no podemos dejar de poner especial atención en el hecho de cómo orientar el uso humano de estos sistemas en forma ética.
Estas normas jurídicas se estipulan en la Convención de la Haya de 1899, revisadas por la Convención de la Haya de 1907.
Después de 1949 el DIH se concreta convencionalmente en: I. Convenio de Ginebra para aliviar la suerte que corren los heridos y los enfermos de las fuerzas armadas en campaña, 1949; II. Convenio de Ginebra para aliviar la suerte que corren los heridos, los enfermos y los náufragos de las fuerzas armadas en el mar, 1949; III. Convenio de Ginebra relativo al trato debido a los prisioneros de guerra, 1949; IV. Convenio de Ginebra relativo a la protección debida a las personas civiles en tiempo de guerra, 1949. Protocolo I adicional a los Convenios de Ginebra de 1949 relativo a la protección de las víctimas de los conflictos armados internacionales, 1977; Protocolo II adicional a los Convenios de Ginebra de 1949 relativo a la protección de las víctimas de los conflictos armados sin carácter internacional, 1977.
Maas afirma que la brutalidad de Guerra de los 30 años sería la causa de que en el Tratado de Westfalia de 1648 se intentara poner fin a determinadas prácticas de guerra.
La Declaración de San Petersburgo no tenía carácter convencional obligatorio, pero en su elaboración participaron la mayoría de los Estados con mayor poderío armamentístico de esa época, lo cual puso de relieve que existía entre ellos un consenso importante sobre estas cuestiones.
El principio de distinción implica que las partes beligerantes deben hacer distinción en todo momento entre la población civil y los combatientes, y entre los bienes de carácter civil y los objetivos militares, y deben dirigir sus operaciones únicamente contra los objetivos militares (ver Protocolo I, Art. 48). En virtud del principio de precaución para evitar males superfluos o innecesarios, enunciado en el artículo 57, del Protocolo I, el DIH restringe o prohíbe el uso de ciertas armas por tener efectos que se consideran excesivamente crueles sin importar las circunstancias.
Los textos de las disposiciones relativas a las balas dum-dum, biológicas, químicas, láser cegador, minas antipersona, municiones en racimo y armas nucleares pueden encontrase, respectivamente, en las pp. 99ss, 135ss, 95ss, 212ss, 285ss y 127ss de
Esta Opinión Consultiva emanada de la CIJ puso en relieve el carácter de destrucción masiva de las armas nucleares, antes de la adopción del actual Tratado que las prohíbe, avalando desde lo jurisprudencial los principios de distinción y de evitar males innecesarios y superfluos.
Las definiciones del término son variadas. Tal vez la más intuitiva y comprehensiva es la que propone Monasterio: «Un código
Las redes neuronales permiten buscar la combinación de parámetros que mejor se ajusta a un determinado problema. Una red neuronal artificial es un método de computación inspirado en modelos biológicos que trata de imitar la operación básica de las neuronas cerebrales.
Es de destacar que dado que estamos analizando la utilización de la IA en el ámbito de las situaciones de violencia armada, es necesaria una supervisión continua por parte de los Estados de los componentes informáticos adoptados en el empleo de medios y métodos de combate que impliquen técnicas o herramientas relacionadas con la IA.
Los agentes de aprendizaje profundo se han utilizado para tomar el lugar de un jugador humano en juegos como ajedrez, shogi o go de gran exigencia para el intelecto humano. El AlphaZero es una versión modificada de AlphaGo Zero que puede jugar shogi, ajedrez y go. El agente modificado comienza con solo información básica de las reglas del juego, y también se entrena completamente a través del auto aprendizaje.
Dentro del campo de
También se puede mencionar como un campo de la IA, a partir de la década del 60, el desarrollo de sistemas expertos, tal como el Dendral, cuyo propósito era interpretar la estructura molecular, que se divide en tres partes funcionales: plan, generación y prueba, desarrollado en la Universidad de Stanford en la década de 1960 durante casi diez años. Planteaba la posibilidad del uso de ordenadores para modelar el pensamiento científico que luego fue seguido por otros sistemas en diversos ámbitos como la medicina, la economía, las finanzas, los sistemas de defensa y seguridad. De acuerdo con Badaró, Ibáñez y Agüero, «un sistema experto es un sistema que emplea conocimiento humano capturado en una computadora para resolver problemas que normalmente requieren de expertos humanos. Los sistemas bien diseñados imitan el proceso de razonamiento que los expertos utilizan para resolver problemas específicos. Dichos sistemas pueden ser utilizados por no-expertos para mejorar sus habilidades en la resolución de problemas. Los sistemas expertos también pueden ser utilizados como asistentes. Además, estos sistemas pueden funcionar mejor que cualquier humano experto individualmente, tomando decisiones en una específica y acotada área de pericia, denominada como dominio» (
Un ejemplo interesante de dichos sesgos se encuentra en esta noticia del
Explícitamente reconocidos en la Cláusula de Martens, que dice: «Mientras que se forma un Código más completo de las leyes de la guerra, las Altas Partes Contratantes juzgan oportuno declarar que, en los casos no comprendidos en las disposiciones reglamentarias adoptadas por ellas, las poblaciones y los beligerantes permanecen bajo la garantía y el régimen de los principios del Derecho de Gentes preconizados por los usos establecidos entre las naciones civilizadas, por las leyes de la humanidad y por las exigencias de la conciencia pública», en el Preámbulo del (II) Convenio de La Haya de 1899 relativo a las leyes y costumbres de la guerra terrestre. Esta cláusula debe su nombre al delegado de Rusia en la Conferencia de la Paz de La Haya de 1899.
El artículo 6 reconoce y protege el derecho a la vida de todos los seres humanos. Se trata del derecho supremo respecto del cual no se autoriza suspensión alguna, ni siquiera en situaciones de conflicto armado y otras emergencias públicas.
Accesible en:
Para el CICR, existe la preocupación de que los civiles puedan, como resultado de la desinformación digital o la información errónea, ser objeto de detención o malos tratos, discriminación o denegación de acceso a los servicios esenciales, o ataques contra su persona o propiedad.
Ver
En concreto, el EAAF ha utilizado algoritmos para la búsqueda e identificación de personas desaparecidas, creando redes complejas y métodos estadísticos que han contribuido a la investigación de la identificación de soldados argentinos enterrados en las Islas Malvinas durante el conflicto armado entre el Reino Unido, Irlanda del Norte y la República Argentina.
Convención de 1997 sobre la prohibición de las minas antipersona y su destrucción y el Tratado sobre la prohibición de armas nucleares de 2017.