La inteligencia artificial a un paso de revolucionar la guerra

 

Universidad New South Wales. Professor Toby Walsh en entrevista con la AFP en Buenos Aires, julio 28, 2015, durante la Conferencia sobre Inteligencia Artificial. AFP PHOTO / JUAN MABROMATA

Universidad New South Wales. Professor Toby Walsh en entrevista con la AFP en Buenos Aires, julio 28, 2015, durante la Conferencia sobre Inteligencia Artificial. AFP PHOTO / JUAN MABROMATA


La inteligencia artificial avanza en el terreno militar y un reconocido experto británico explica porqué es tan importante prohibir y legislar cuanto antes sobre esta materia, antes de que la tecnología caiga en manos de terroristas.

Toby Walsh, profesor de Inteligencia Artificial de la Universidad New South Wales de Australia, explicó a la AFP en Buenos Aires algunas claves para entender los riesgos reales de estas armas capaces de desarrollarse a muy bajo costo, en el marco de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) en la capital argentina.

¿Cuál es el riesgo de las “armas ofensivas autónomas”, también conocidas como robots asesinos?

“Esto va a revolucionar la guerra. Este es el tercer tipo de revolución. La primera fue cuando inventamos el arma de fuego, la segunda fue la bomba nuclear y esta es la tercera revolución: esto va a cambiar la forma en que pensamos la guerra, va a hacer la guerra mucho más eficiente, mucho más letal y esto es algo que tenemos que parar ahora antes de tener una nueva carrera armamentista”.

¿Qué diferencia hay entre una arma autónoma y un dron, por ejemplo?

“Las diferencias entre las armas autónomas y los drones como los que hemos visto en Irak y en otros lugares es que con la primera no hay un humano involucrado en el proceso. Con el drone todavía tenemos algún soldado en algún lugar, a veces maniobrando un control manual (joystick) desde Estados Unidos que le permite controlar el aparato no tripulado, y por lo tanto es quien tomará la decisión de matar a alguien o no”.

Pero en el caso de los ‘robots asesinos’ “estamos hablando de que tenemos un equipo (programa) que toma decisiones, es un umbral moral completamente diferente que hemos cruzado”.

¿Cómo se establecen las responsabilidades de un crimen cometido por un arma autónoma?

“Es muy claro, no tenemos el marco legal: ¿es la persona que construyó el robot autónomo?, ¿es la persona que trajo el programa (de funcionamiento)?, ¿es la persona que encendió el arma? ¿Quién va a ser responsable?”.

¿Por qué este llamado del martes en una carta abierta para solicitar que se prohíba el uso de armas ofensivas autónomas en conflictos?

“Hay que legislar sobre el tema lo más rápido posible porque la tecnología podría estar disponible dentro de muy poco, y se necesita tiempo (para establecer el marco legal) y los diplomáticos no trabajan muy rápidamente. Tenemos que tomar una decisión hoy que dará forma a nuestro futuro y determinar si seguimos un camino del bien. Apoyamos el llamado por una serie de diferentes organizaciones humanitarias para la prohibición de la ONU sobre armas autónomas ofensivas, similar a la reciente prohibición de las armas láser cegadoras”.

¿Existe algún proyecto que conlleve el concepto de ‘arma autónoma’ que sea positivo para la sociedad?

“La tecnología que se usa para un automóvil autónomo (sin conductor) es muy similar o idéntica a la que se usa para desarrollar un arma autónoma y por esa razón vamos a contar con esa tecnología (…).

“Las miles de personas que mueren en las carreteras de todos los países van a disminuir con el automóvil autónomo. Los autos autónomos son mucho más precisos y cometen muchos menos errores que las personas”, aseguró Walsh al afirmar que sobre este tema también se espera contar con una legislación, pero que un futuro con vehículos que “hablen entre sí” para transitar sin cometer infracciones es algo mucho más cercano de lo que imaginamos.


AFP


Post relacionado:

Científicos de todo el mundo piden la prohibición de los llamados “robots asesinos”


 

Debes loguearte para poder agregar comentarios ingresa ahora