Las armas letales autónomas ante la opinión pública


Las armas letales autónomas ante la opinión pública

En la ciencia ficción, uno de los antagonistas más comunes han sido los “robots asesinos”, máquinas equipadas con armas o fuerza sobrehumana y capaces de atacar por cuenta propia: desde el Golem de la mitología hebrea hasta el ED-209 de RoboCop, tenemos una larga lista de máquinas que son creadas para proteger a los seres humanos y, en un giro irónico, terminan poniéndolos en peligro.

Los avances en robótica e inteligencia artificial de los últimos años han permitido que la idea de una máquina capaz de atacar sin la intervención de un operador humano esté cerca de convertirse en una realidad. Hay gobiernos invirtiendo sumas importantes para que esto suceda, y se han realizado convenciones en las Naciones Unidas enfocadas en este tema. De hecho, ya se ha designado un acrónimo para definirse a esta clase de robots: LAWS (Lethal Autonomous Weapon Systems) o ALAs (Armas Letales Autónomas), en su adaptación al idioma español.

Y aunque ya existen pronunciamientos hechos por personalidades del mundo de la ciencia y la tecnología, hasta hace poco no había interés en preguntarle al público su opinión sobre este tema. Al final del día, serán ellos quienes experimenten las consecuencias directas e indirectas de la aprobación o rechazo al desarrollo de armas autónomas.

Por este motivo, la Open Roboethics Initiative -una organización no gubernamental enfocada en el uso y desarrollo de directivas que aseguren un uso ético de la inteligencia artificial- realizó una encuesta online, que tuvo como objetivo al público de diversos países, para sondear su postura y opinión ante las armas autónomas. Esta encuesta se tradujo a 14 diferentes idiomas con el objetivo de evitar uno de los problemas principales de este tipo de sondeos: la parcialidad. Y es que la mayoría de los estudios anteriores habían sido realizados a través de encuestas en el idioma inglés, lo que excluye a un enorme rango de la población mundial. Entre ellos un público que debería tomarse muy en cuenta al hablar de este tema: los habitantes de las regiones del medio oriente.

Por esta razón se tomó especial cuidado en elegir a un equipo de traductores para conservar el sentido original de las preguntas que forman este estudio. Básicamente, el objetivo era determinar la reacción de una persona ante la posibilidad de que su país usara armas autónomas en contra de otro, y ante la posibilidad de ser el objetivo de un ataque con este tipo de armas; así como los motivos para justificar su reacción.

Al final del estudio, que contó con la participación de 49 países y más de 1000 participantes, se pudo comprobar un efectivo rechazo por parte del público a esta tecnología. El 85% de los encuestados está en contra de que los robots autónomos sean usados para fines bélicos, aún considerando que uno de los argumentos más fuertes a favor del uso de esta tecnología es la posibilidad de evitar que los seres humanos se expongan al riesgo físico y psicológico de un conflicto armado directo.

En caso de un conflicto armado, la mayoría de los participantes preferiría que su país usara Armas Remotamente Operadas, es decir, robots militares cuyas acciones son controladas y supervisadas por un ser humano. Las razones para justificar esta respuesta fueron muy variadas, pero de entre ellas resaltó el argumento de que las decisiones donde esté en juego la vida humana sólo deben ser tomadas por otro ser humano.

Lo sorprendente fue que esta justificación se encontró a lo largo de todas las muestras, independientemente del país al que pertenecían los encuestados, como la respuesta número uno. Esto nos lleva a concluir que el rechazo del público ante las armas autónomas no se debe a la “mala reputación” creada a través de las obras de ciencia ficción. Las personas no temen a un futuro en que las máquinas se rebelen, sino un futuro en que la vida humana esté en manos de una máquina, ya sea para protegerla o para atacarla.

Entre otros datos que cabe resaltar: un 20% de los encuestados desconfía que la tecnología detrás de las armas autónomas sea lo suficientemente robusta para llevar a cabo su cometido, y un 14% piensa que hay enormes posibilidades que estos avances caigan en manos equivocadas. De hecho, en caso de que un arma autónoma cometa un error que le cueste la vida a una o varias personas ¿quién sería el responsable? ¿los desarrolladores? ¿el comando militar que ordenó su intervención? ¿el gobierno que aceptó su participación en un conflicto armado? ¿o alguien más? Esta es la preocupación del 12% de los encuestados, y es de hecho, una preocupación muy válida ya que no existen antecedentes legales para este tipo de situaciones.

Con estos antecedentes, no es de sorprendernos que un 67% de los participantes respondiera que está a favor de una prohibición internacional al uso y desarrollo de armas autónomas. Al final del día, aún con nuestros errores y prejuicios, la mayoría del público confía más en la capacidad humana que en la de una máquina, al menos en lo que respecta a los conflictos armados.

 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s