Seyyed Javad Mohammadi – Experto en Inteligencia Artificial
De la revolución tecnológica a la transformación de la naturaleza de la guerra
En las últimas décadas, los desarrollos tecnológicos han alterado fundamentalmente la naturaleza de la guerra. Si el poder militar en el siglo XX se definía por armamento pesado y capacidades industriales, en el siglo XXI, los algoritmos, los datos y los sistemas inteligentes se han convertido en elementos determinantes.
Los análisis publicados por el Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI) indican que la competencia entre grandes potencias se está desplazando cada vez más hacia el dominio de la inteligencia artificial militar. Esta tendencia abarca no solo el desarrollo de armas autónomas sino también la integración de la IA en todos los niveles de operaciones militares—desde la identificación de objetivos hasta la toma de decisiones tácticas.
En este sentido, los informes de Foreign Policy sobre conflictos recientes, particularmente en Ucrania, demuestran que el uso de algoritmos para guiar drones y analizar datos del campo de batalla se ha convertido en un elemento crítico. Esta transformación ha incrementado la velocidad y precisión de las operaciones pero ha ensanchado simultáneamente la brecha entre los tomadores de decisiones y las consecuencias humanas de sus acciones.
Militarización de la inteligencia artificial: Una amenaza más allá de las armas nucleares
A diferencia de las armas nucleares, cuyo uso ha sido restringido debido a sus consecuencias catastróficas, la inteligencia artificial militar se expande rápidamente y enfrenta menos barreras legales y éticas. Además, las armas basadas en IA pueden operar sin supervisión humana directa, una característica que crea nuevos peligros.
Algunos expertos creen que la inteligencia artificial podría evolucionar hacia armas incluso más peligrosas que las armas nucleares. La razón no radica en su poder destructivo sino en su potencial de despliegue generalizado, costos más bajos y un umbral reducido para su uso.
Los informes de la Universidad de Stanford también destacan los desafíos regulatorios de esta tecnología y demuestran que la brecha entre el desarrollo tecnológico y la formulación de marcos legales se está ampliando rápidamente. Esta brecha exacerba el riesgo de uso no regulado de la inteligencia artificial en la guerra.
De campo de pruebas a catástrofe humana: El incidente de la escuela de Minab
La aplicación de la inteligencia artificial en operaciones militares, cuando se combina con datos incompletos o sesgos algorítmicos, puede tener consecuencias catastróficas. En ataques recientes contra Irán, han surgido informes respecto al uso de sistemas basados en IA para identificación y targeting, indicando que la toma de decisiones en ciertos casos ha sido delegada a algoritmos.
Uno de los ejemplos más trágicos de esta tendencia es el ataque que resultó en el martirio de 168 estudiantes en Minab. Esta catástrofe demuestra cómo la dependencia de sistemas automatizados, sin supervisión humana adecuada, puede conducir a errores fatales.
Bajo tales circunstancias, surge la pregunta fundamental: ¿quién asume la responsabilidad de estos errores? ¿Puede un algoritmo ser considerado responsable, o debería atribuirse esta responsabilidad a sus diseñadores y usuarios? Esta pregunta representa uno de los desafíos fundamentales del derecho internacional en la era de la inteligencia artificial.
La erosión de la ética en la guerra: De la decisión humana a la decisión de máquina
Una de las consecuencias profundas de la militarización de la inteligencia artificial es la erosión gradual de la ética en la guerra. En conflictos tradicionales, las decisiones respecto al uso de la fuerza—por más presionadas que estuvieran—eran ultimadamente tomadas por humanos. Esto aseguraba al menos un grado mínimo de responsabilidad moral.
Con el advenimiento de la inteligencia artificial, esta relación se ha visto perturbada. Los algoritmos operan basándose en datos y patrones predefinidos y carecen de comprensión humana de conceptos como sufrimiento, dignidad y proporcionalidad. Esta característica incrementa el riesgo de transformar la guerra en un proceso puramente técnico desprovisto de consideraciones humanas.
El desarrollo de nuevas tecnologías sin consideración por los derechos humanos puede conducir a violaciones generalizadas de estos derechos. En el dominio militar, este riesgo es significativamente mayor, ya que las decisiones tomadas están directamente vinculadas a vidas humanas. En tal entorno, el concepto de responsabilidad también se vuelve ambiguo. Cuando un ataque es conducido por un sistema automatizado, determinar quién debe ser considerado responsable se convierte en un desafío complejo. Esta situación puede conducir a una forma de irresponsabilidad estructural en la que ningún actor es plenamente responsable.
Conclusión
La guerra futura se ha convertido, más que nunca antes, en una arena en la cual tecnología y poder militar están completamente entrelazados. La inteligencia artificial, como una de las más significativas de estas tecnologías, no solo ha alterado métodos de guerra sino que también ha desafiado conceptos fundamentales como responsabilidad, ética y legitimidad.
Experiencias recientes, incluida la atrocidad de la escuela de Minab, demuestran que el uso no regulado de estas tecnologías puede tener consecuencias humanas catastróficas. Bajo tales circunstancias, la necesidad de formular nuevas reglas legales y éticas es más apremiante que nunca. Sin embargo, la realidad del sistema internacional sugiere que la competencia por superioridad tecnológica puede prevalecer sobre estas consideraciones. En consecuencia, el futuro de la guerra será moldeado menos por principios éticos y más por algoritmos y la lógica del poder.
Este texto fue traducido utilizando inteligencia artificial y puede contener errores. Si nota un error claro que haga el texto incomprensible, por favor informe a los editores del sitio web.


0 Comments