¿Son inevitables los robots asesinos como Terminator?
close
Recibe noticias a través de nuestro newsletter
¡Gracias! Desde ahora recibirás un correo diario con las noticias más relevantes.
sync

¿Son inevitables los robots asesinos como Terminator?

Miles de millones de dólares se invierte hoy en día en la industria de armamento no tripulado. Su combinación con sistemas más avanzados de inteligencia articial podría volver real la pesadilla de ciencia ficción.
Por Tim Bowler *BBC Mundo
22 de mayo, 2014
Comparte

Un robot tanque se mueve rápidamente sobre los matorrales, se detiene repentinamente y su ametralladora dispara con una precisión devastadora.

Parece una película de ciencia ficción pero es la escena de un video sobre un robot que está siendo probado por el ejército de Estados Unidos.

Una muestra más de cómo la ciencia ficción de ayer se ha vuelto una realidad en los escenarios de combate modernos.

El tanque en miniatura, de solo un metro de largo, es uno más de los vehículos robotizados utilizado por los militares de todo el mundo.

Más de 90 países operan estos sistemas. Una industria que según la consultora IHS valdrá US$98.000 millones en los próximos diez años.

“Estados Unidos sigue siendo el principal mercado y el motor principal detrás de esta industria, pero muchos países están mejorando sus propias capacidades en el campo de los sistemas no tripulados”, señala Derrick Maple de IHS.

La empresa constructora del robot tanque, Qinetiq, ha fabricado una amplia gama de robots diseñados para misiones de reconocimiento o vigilancia, o para internarse en zonas plagadas de trampas, que impliquen un riesgo mayúsculo para enviar tropas.

Armado con un lanzador de granada o una ametralladora, la última versión del robot tanque o MAARS por sus siglas en inglés, es ciertamente letal, pero no independiente.

Decisiones propias

MAARS depende de un soldado que lo controla a distancia y solo tiene un rango de autonomía de 800 metros.

Sin embargo, muchos críticos temen que la unión entre avances en el campo de la robótica y la miniaturización, con un progreso en el campo de la inteligencia artificial, terminen creando un Terminator o, más probable, un precursor de esa criatura popularizada por Hollywood.

Otros sostienen que esa clase de desarrollo en el campo de la inteligencia artificial llevará muchas décadas, y que en el futuro más próximo siempre será necesaria la presencia de un humano para monitorear los sistemas.

Pero actualmente algunas de estas armas se encuentran en uso tienen el poder de decidir si atacan o no un objetivo.

Tomemos como ejemplo la nave no tripulada israelí Harpy.

Sus fabricantes, IAI, la llaman el arma autónoma que puedes “lanzar y olvidar”, aunque en jerga militar también se la conoce como “munición merodeadora”.

Una vez lanzada detrás de las líneas enemigas, Harpy -básicamente un misil guiado con alas- sobrevuela el área hasta que encuentra un objetivo adecuado (en su caso, radares enemigos).

Cuando un radar es detectado, es el drone el que decide si lanza un ataque o no.

Harpy solo es lanzado si un operador considera que puede haber radares enemigos en la zona, pero es probable que esta clase de automatización se vuelva más común.

Diferenciar aliados de contrarios

Por ahora el obstáculo real para un uso más amplio de lo que algunos llaman “robots asesinos” es lograr que puedan distinguir entre amigos y enemigos.

“Un tanque es bastante diferente a una camioneta, pero un tanque enemigo y un tanque amigo pueden verse bastante parecidos para una máquina”, dice el experto en Defensa del Centro para una Nueva Seguridad Americana Paul Scharre.

“Los militares no querrán desplegar algo en el campo de batalla que pueda accidentalmente volverse en contra de sus propias fuerzas”, añade.

Lo mismo piensa el general Larry James, vicejefe de personal de inteligencia de las Fuerzas Aéreas de EE.UU.

“Estamos muchos, muchos años, si no décadas, de estar seguros que un sistema de inteligencia artificial puede hacer ese tipo de discriminación”.

A pesar de estas dificultades, el plan del Departamento de Defensa para los próximos 25 años publicado en 2013 sostiene que “los sistemas no tripulados siguen siendo muy promisorios para las misiones de guerra del futuro”.

El plan indica que, una vez que se superen las dificultades técnicas, se pueden lograr rápidos avances desconocidos hasta el momento.

Se estima que Washington gastará en la próxima década en el mercado de vehículos áereos no tripulados (UAVs por sus siglas en inglés) tres veces más que China, el segundo gran inversor en esta área.

Des-inventar

Uno de los científicos más avanzados en este campo es Sanjiv Singh, profesor de robótica de la Universidad Carnegie Mellon y jefe ejecutivo de la compañía Near Earth Autonomy.

Su equipo, que trabaja para el ejército estadounidense, ha desarrollado con éxito un helicóptero no tripulado autónomo.

Usando lasers ultra sensitivos, la nave crea mapas del terreno, decide cuál es la aproximación más segura y elige los sitios para aterrizar sin necesidad de un piloto o un operador remoto.

Ahora, el equipo de Singh trabaja en helicópteros autónomos que podrían llevar tropas o evacuar heridos o víctimas.

Según el científico, esto implicaría un gran salto en relación a la tecnología actual de los drones, que son comandados a partir de información derivada del sistema de posicionamiento global (GPS por sus siglas en inglés).

“Si uno comete un error en el plan de vuelo, estas naves chocan felices contra una montaña, si ésta se encuentra en su camino”.

El analista independiente de Defensa Paul Beaver opina que, con todo el dinero que está siendo invertido en el sector, sistemas de armamento autónomo serán una realidad.

“Es como las armas nucleares, uno no las puede des-inventar”.

Pero su preocupación principal no son los estados considerados marginales.

“Creo que estamos a una década de que el crimen organizado tenga este tipo de sistemas y los venda a grupos terroristas”.

“Computadoras asesinas”

A comienzos de este mes, delegados de 117 países se encontraron en la sede de las Naciones Unidas en Ginebra, Suiza, para analizar una prohibición en este tipo de sistemas automatizados letales.

Aunque la tecnología para crear “robots asesinos” no existe aún, activistas sostienen que el mundo necesita actuar desde ahora.

“Hay tanta gente que cree que esto es inevitable, y hasta deseable, que tenemos que hacer algo ya para evitarlo”, dice Stephen Goose, de la organización Human Rights Watch.

Pero al solo prestar atención a los usos militares de naves no tripuladas, podemos perder noción de otra amenaza propia de la sofisticada inteligencia artificial.

“Lo problemático es que diseñamos algo que puede operar muy rápido y no siempre podemos predecir cómo lo hará”, explica Sean O’Heigeartaigh, del Centro de Estudios para Riesgos Existentes de la Universidad de Cambridge.

En 2010, por ejemplo, algoritmos de computadoras bursátiles contribuyeron a que, por unos instantes, miles de miles de millones en acciones desaparecieran.

“Esto muestra que es muy difícil poner un alto a estos procesos de toma de decisiones, porque estos sistemas operan mucho más rápido que los humanos”.

Por eso O’Heigeartaigh advierte que el uso por parte de civiles de la inteligencia artificial puede ser más peligroso que sus aplicaciones militares.

“Al no tratarse de militares, no habrá la misma atención en cuestiones de seguridad y ética, y puede ser que algo se salga de control, especialmente si uno diseña un algoritmo que es capaz de mejorarse a sí mismo y rediseñar su propio código”.

En otras palabras, quizás no debemos estar tan preocupados por robots asesinos, sino por computadoras asesinas.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia. Tú puedes ayudarnos a seguir. Sé parte del equipo. Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.

#YoSoyAnimal

Tiroteo de Uvalde: Nuevo Informe revela 'indiferencia generalizada' por parte de las autoridades durante el ataque

La policía esperó más de una hora fuera de las aulas antes de que entrara un equipo de respuesta, según el informe más exhaustivo hasta la fecha, publicado el domingo.
17 de julio, 2022
Comparte
Padres de la matanza de Uvalde Texas

Getty Images

El nuevo informe sobre el tiroteo de la escuela de Uvalde (Texas) en el que murieron 21 víctimas y el atacante, reveló fallos sistémicos, y malas decisiones por parte de las autoridades encargadas de dar respuesta al caso.

El informe preliminar de un comité de la Cámara de Representantes del estado se hizo público el domingo tras ser entregado primero a las familias de las víctimas.

Describe una actitud “de indiferencia generalizada” por parte de las autoridades en el lugar de los hechos.

La policía esperó más de una hora fuera de las aulas antes de que entrara un equipo.

El atacante, de 18 años, perpetró una masacre en la escuela primaria Robb en la ciudad de Uvalde, Texas, donde mató a 19 niños y dos maestras.

El comité indicó que el nuevo informe, de casi 80 páginas, aporta el relato más completo hasta el momento de lo que sucedió durante y después del ataque.

Concluye que la escuela no estaba adecuadamente preparada para el riesgo de un asaltante armado y solía dejar las puertas abiertas o sin llave, lo que contraviene las políticas de seguridad en el distrito escolar.

Stephanie y Michael Chavez de San Antonio presentan sus respetos en un memorial improvisado afuera de la escuela primaria Robb.

El ataque de Uvalde el 24 de mayo fue el peor tiroteo en una escuela de Estados Unidos en una década. Reuters.

Debido a fallos en el mantenimiento y a la preparación previa del ataque, el tirador probablemente mató a la mayoría de sus víctimas antes de que los servicios de respuesta entraran en el edificio, explica el informe.

“De las aproximadamente 142 rondas que disparó el atacante dentro del edificio, es casi seguro que gastó más de 100 antes de que entrara cualquier agente”.

El día de la masacre acudieron a la escuela 376 efectivos, la mayoría policías federales y estatales.

El jefe de policía de centros escolares de Uvalde, Pete Arredondo, redactó en el momento el plan de respuesta al tirador, asignándose a sí mismo el mando del incidente, pero testificó que no consideraba que hubiera asumido tal papel ese día.

Arredondo renunció a su puesto después de que se le diera de baja administrativa el mes pasado.

“El vacío de liderazgo podría haber contribuido a la pérdida de vidas, ya que las víctimas heridas esperaron más de una hora para recibir ayuda y el atacante continuó disparando esporádicamente su arma”, especifica el informe.

Ningún efectivo de respuesta tomó la iniciativa, agrega.

Si bien el informe critica duramente a las fuerzas del orden, también expone que no hay nadie “a quien podamos atribuir mala fe o malas intenciones” al margen del atacante.

A principios de esta semana, un periódico local publicó imágenes filtradas de cámaras de vigilancia de Uvalde, que muestran la llegada del joven armado y la policía esperando 77 minutos para confrontarlo.

Captura de pantalla de las imágenes de una cámara de vigilancia dentro de la escuela primaria Robb

Austin American-Statesman
Un panel del Senado del estado de Texas había planeado mostrar primero las imágenes a las familias en duelo.

Ese vídeo se publicó días antes de que los funcionarios anunciaran que habían planeado mostrárselo a las familias o hacerlo público.


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

https://www.youtube.com/watch?v=XiceVYepxzQ

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia. Tú puedes ayudarnos a seguir. Sé parte del equipo. Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.

#YoSoyAnimal
close
¡Muchas gracias!

Estamos procesando tu membresía, por favor sé paciente, este proceso puede tomar hasta dos minutos.

No cierres esta ventana.