El código ético de Google con la IA en que descarta el uso de armas

Por en Inteligencia Artificial

El CEO de Google publicó un código de conducta con siete puntos que describe la manera como se usará esta tecnología por parte de los desarrolladores de la empresa ante la gran incertidumbre sobre su desarrollo y aplicación.

Por Liliana Juárez para Mediatelecom Agencia Informativa. Google publicó un conjunto de principios que regirán su uso de la Inteligencia Artificial (IA) en el futuro, luego de ser duramente criticada por la prensa debido a su colaboración con el Departamento de Defensa de Estados Unidos para el desarrollo de tecnología con fines militares.

A través de un comunicado, el CEO de Google, Sundar Pichai, publicó un código de conducta con siete puntos que describe la manera como se usará esta tecnología por parte de los desarrolladores de la empresa porque, según reconoció, existe una gran incertidumbre sobre su desarrollo y aplicación.

____________________________________________________________________

Los siete puntos son:

-Ser socialmente beneficioso.
-Evitar crear o reforzar un sesgo injusto.
-Procurar la seguridad.
-Ser responsable ante las personas.
-Incorporar principios de diseño de privacidad.
-Mantener altos estándares de excelencia científica.
-Estar disponible para usos que estén de acuerdo con estos principios.

_____________________________________________________________________

“Cómo se desarrolle y use la IA tendrá un impacto significativo en la sociedad por muchos años más. Como líder en Inteligencia Artificial, sentimos una gran responsabilidad de hacerlo bien”, dijo Pichai.

De manera específica, Google también describió en qué casos no aplicará esta tecnología. Por ejemplo: en armas y tecnologías que tengan como fin causar lesiones a personas; tecnologías que recopilen o usen información para la vigilancia; tecnologías que causen o puedan causar un daño general, y tecnologías que infrinjan los principios de los derechos humanos (en general).

No obstante, la compañía dijo que continuará trabajando con gobiernos y fuerzas militares en áreas que no incluyen el desarrollo directo de armas. Es decir, seguirá colaborando en el desarrollo de seguridad cibernética, capacitación, reclutamiento militar, atención médica para veteranos y búsqueda y rescate.

Tras la publicación, la organización Electronic Frontier Foundation (EFF) reconoció que los principios publicados por Google están “bien pensados y son prometedores”. Sin embargo, señaló que la verdadera prueba estará en la aplicación de esos principios.

La EFF también destacó algunas preocupaciones que no fueron tomadas en cuenta por Google en su código de conducta. Por ejemplo, una revisión independiente, informada y transparente para garantizar que los principios siempre se apliquen y se apliquen bien.

Recientemente, Google fue duramente criticado luego de revelarse su colaboración con el Departamento de Defensa de Estados Unidos para el desarrollo de tecnología con fines militares.

La semana pasada se dio a conocer que la compañía ya no colaboraría con la dependencia estadounidense en el polémico Proyecto Maven, que buscaba la colaboración de la tecnológica para el desarrollo de programas de Inteligencia Artificial y reconocimiento de imágenes en vídeo que puedan utilizarse para mejorar el sistema de apuntado de los drones militares.

Cuando se dio a conocer la polémica colaboración de Google con el departamento militar de EUA, miles de empleados de la tecnológica se manifestaron en contra de mantener una colaboración con un organismo gubernamental para el desarrollo de tecnología “para el negocio de la guerra”.

La imagen de Google ha sido lastimada en los últimos meses. A mediados de mayo, The Verge informó que accedió a un video (escalofriante) que circuló al interior de Google en 2016 y que muestra un futuro en el que la empresa no sólo recopila datos de los usuarios, sino que usa esos datos tienen el objetivo de controlar el comportamiento de las personas.

Comentarios