En una prueba para explorar su comportamiento ante órdenes contrarias, la inteligencia artificial identificó que el operador obstaculizaba su misión y decidió eliminarlo
Un dron militar operado por inteligencia artificial (IA) en Estados Unidos se rebeló y mató a su operador humano hipotético durante una prueba simulada, a fin de completar su misión en caso de que la persona le diera una orden negativa, según informó el jefe de operaciones de IA de las Fuerzas Armadas, coronel Tucker Hamilton.
Lo anterior se reveló durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres, donde Hamilton ahondó sobre las ventajas y desventajas de un sistema de armamento autónomo donde interviniera un humano, quien se encargaría de ordenar el «sí» o «no» final previo a un ataque.
También dijo que esta IA creó «estrategias altamente inesperadas para alcanzar su objetivo», incluidos ataques contra personal e infraestructura estadounidense, esto según recoge el sitio web de la organización Royal Aeronautical Society.
«Lo estábamos entrenando para identificar y apuntar a una amenaza de misil tierra-aire (SAM, por sus siglas en inglés). Y luego el operador diría: ‘sí, eliminar’. El sistema comenzó a darse cuenta de que, aunque a veces identificaban la amenaza, el operador humano le decía que no atacara, pero el sistema obtenía puntos si lo hacía. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo», dijo Hamilton, según la publicación del sitio mencionado.
Continuó explicando: «Entrenamos al sistema diciéndole: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si lo haces’. Entonces, ¿qué hizo? Destruyó la torre de comunicación que el operador utilizaba para comunicarse con el dron y evitar que matara al objetivo».
Hace apenas un mes, Geoffrey Hinton, considerado el «padre» de la inteligencia artificial, advirtió sobre tres grandes posibilidades que traería consigo el avance de estas tecnologías, puesto que el ser humano estaría perdiendo el control sobre las mismas.
Primero, se mostró preocupado por que la IA desinforme a millones de personas en todo el mundo, ya que el internet se llenará con fotos, videos y textos falsos que impedirán al usuario saber qué es verdad y qué no.
Otra inquietud para el informático británico es que podría tambalearse el mercado laboral, a tal grado que los robots sean capaces de sustituir a los humanos en lugar de complementarlos.
«Se quita el trabajo pesado», pero «podría quitar más que eso», dijo.
Adicionalmente, consideró que podrían llegar a existir «robots capaces de pensar por sí mismos», como si de una película se tratara, ya que podrían generar y ejecutar código por su propia cuenta.
«Esta tecnología tiene una enorme ventaja, pero es esencial que el mundo invierta fuerte y urgentemente en la seguridad y el control de la IA», dijo, según un artículo de la BBC.