Estos son los nuevos “principios” éticos del Pentágono para la I.A. en la guerra
El lunes, el Pentágono anunció la adopción oficial de una serie de nuevos principios para el uso ético de la inteligencia artificial en la guerra, informa Associated Press. Los principios se formaron a partir de una comisión con el …
El lunes, el Pentágono anunció la adopción oficial de una serie de nuevos principios para el uso ético de la inteligencia artificial en la guerra, informa Associated Press.
Los principios se formaron a partir de una comisión con el (oscuro nombre de Newspeak-y) nombre de la Junta de Innovación de Defensa, que publicó sus recomendaciones (título: "Principios de la IA": Recomendaciones sobre el uso ético de la inteligencia artificial por el Departamento de Defensa") al Pentágono en octubre pasado.
La junta fue encabezada por el ex CEO de Google Eric Schmidt, ha dado un giro interesante (como lo señaló la AP) debido a la forma en que Google parecía (o: pretendía) abandonar un proyecto del departamento de defensa que involucra a la I.A. en 2018 después de las protestas internas del personal de Google (por no decir nada de la forma en que la participación de Google fue manejada "Responsable".
Según el informe de finales de 2019, los principios son (con nuestra paráfrasis entre paréntesis):
1. Responsable ("los seres humanos" en el D.O.D. necesitan ejercer su juicio en el uso de la I.A. en la guerra)
2. Equitativo (el Departamento de Defensa "debe tomar medidas deliberadas" para evitar el sesgo en el reconocimiento de la I.A.)
3. Rastreable (el Departamento de Defensa debería mostrar sus deberes y entender cómo funciona la tecnología por el Pentágono).
4. Confiable (los sistemas de I.A. deben tener un "dominio de uso bien definido" y también, funcionar bien)
5. Gobernable (los sistemas de inteligencia artificial necesitan "la capacidad de detectar y evitar daños o interrupciones no intencionales", es decir, no se nos va a ir de la mano como skynet).
Todo esto suena amplio, inofensivo, ineficaz, miope y dolorosamente obvio dejando muchas lagunas.
La Next Web llamó a los principios "brumosos" y "desdentados". Y Dave Gershgorn de OneZero señaló que estas supuestas éticas falta "'no matar a alguien con un robot'". Puedes decidir por ti mismo si te parecen efectivos una vez los has leído.