El científico mexicano que analiza los límites y amenazas de la robótica

Por en Robótica

Para Raúl Rojas, el principal peligro de los robots es que acaben tomando decisiones equivocadas, algo que puede suceder sobre todo en el caso de los drones.

Del 13 al 17 de noviembre en Ginebra (Suiza), patrocinado por la ONU, representantes de los gobiernos de varios países y diversos especialistas discutieron sobre la posible prohibición de la inteligencia artificial aunque no se logró llegar a ningún acuerdo. Raúl Rojas González, científico mexicano, nacionalizado alemán, afirmó a Sputnik que un robot jamás será humano.

Para que un sistema sea autónomo es necesario ante todo que sea capaz de tomar decisiones por su cuenta. Los drones, por ejemplo, deberían ser capaces no solo de reconocer un tanque, sino también de perseguirlo si se desplaza. Pero en el caso de los robots asesinos, Rojas es de los que no albergan dudas.

"La verdad es que la frontera entre este tipo de armas y sistemas como son los misiles, que mediante GPS localizan a su objetivo, no está clara", dice a Sputnik, y arguye que esta es la razón por la que en la conferencia de Ginebra no se ha llegado a ningún acuerdo sobre la prohibición de este tipo de armas. Una prohibición de estas características afectaría a demasiados tipos de armamento.

Según el experto mexicano, el objetivo de las nuevas tecnologías militares es, en primer lugar, "mantener a las personas lejos de las zonas conflictivas en toda una serie de escenarios de guerra" pero a ese primer objetivo se le añade otro: el de que esa distancia entre las personas y el conflicto sea, además, psicológica. De manera que el tema de la responsabilidad por los actos cometidos queda relegada a un segundo plano.

Para Rojas, el principal peligro de los robots es que acaben tomando decisiones equivocadas, algo que puede suceder sobre todo en el caso de los drones. Una persona, explica, siempre puede confiar en su intuición y en su conocimiento de la situación.

Rojas argumenta también que a las máquinas se las puede engañar muy fácilmente, y pone como ejemplo a los cohetes que, guiados por calor, persiguen aeronaves. Esas mismas aeronaves pueden desprender objetos a altas temperaturas que acaben por despistar al misil.

Rojas se muestra cauto y cree que las máquinas no deberían tomar decisiones cuyos resultados pueden ser letales sin el consentimiento o la aprobación previa de un humano.

"Alguien debería hacerse responsable de la situación y no echarle la culpa a las máquinas", concluye.

Comentarios