La Fuerza Aérea de los Estados Unidos ha puesto a prueba su aeronave experimental XQ-58A Valkyrie, un avión sin piloto impulsado por inteligencia artificial (IA). Diseñado para volar distancias considerables, con un diseño sigiloso y la capacidad de portar misiles de largo alcance, la característica más sorprendente de Valkyrie es su propulsión por IA, convirtiéndolo en un ejemplo pionero de la integración de tecnología emergente en la maquinaria militar.
Valkyrie, un dron de nueva generación, representa lo que la Fuerza Aérea espera que sea un complemento eficaz para su flota de aviones de combate tradicionales. Equipado con sensores y IA, este avión puede identificar y evaluar amenazas enemigas y, tras recibir autorización humana, ejecutar ataques. Una reciente demostración en la Base Aérea Eglin en Florida mostró cómo un piloto humano volaría junto a Valkyrie, poniendo en evidencia la extrañeza de volar junto a una máquina autónoma.
Este avance tecnológico no solo está transformando la estrategia militar y la táctica de combate, sino que también está cambiando la industria armamentística de EE.UU., abriendo oportunidades para nuevos contratistas y desafiando el dominio de las grandes empresas tradicionales del sector.
Además, con la creciente amenaza de China, especialmente en la región del Mar del Sur de China y Taiwán, la Fuerza Aérea estadounidense está revaluando su actual flota y estrategias. El enfoque hacia drones propulsados por IA, denominados aeronaves de combate colaborativas, es una respuesta a estos desafíos. La Fuerza Aérea planea construir entre 1,000 y 2,000 de estos drones a un coste significativamente menor en comparación con aviones de combate tradicionales.
Estos aviones autónomos podrán desempeñar varias funciones, desde misiones de vigilancia hasta operaciones de ataque en formación. Con IA especializada, evaluarán y actuarán según la información obtenida, siempre bajo la supervisión humana.
Sin embargo, este avance tecnológico también plantea serias preocupaciones éticas y morales. La posibilidad de externalizar la decisión de matar a máquinas genera debates intensos. A pesar de las salvaguardias en la política del Pentágono, la cuestión del grado de autonomía que se debe otorgar a estas máquinas letales sigue siendo controvertida.
Las autoridades de la Fuerza Aérea son conscientes de estas preocupaciones y trabajan meticulosamente para avanzar en la integración de la IA, teniendo en cuenta tanto los beneficios potenciales como los riesgos asociados.
Artículo original por Eric Lipton, fuente: The New York Times.