Google elimina restricciones de armas y vigilancia en el uso de IA
En su más reciente actualización en las políticas de uso de su inteligencia artificial, Google excluyó los apartados que hablan sobre armas y vigilancia.
Este martes el gigante tecnológico estadounidense Google actualizó sus guías éticas en el uso de la Inteligencia Artificial (IA) y eliminó de sus políticas el compromiso de no aplicar esta tecnología en aplicaciones relacionadas con armas o vigilancia que violen normas internacionales o contraríen los derechos.
Antes de esta modificación, el manejo sobre la IA en estos ámbitos decía que excluía “tecnologías que causan o es probable que causen daño general”.
Estos cambios y la nueva visión de la compañía sobre sus principios de la IA fueron expuestos en el blog de la empresa en un escrito firmado por el jefe de IA de Google, Demis Hassabis, y el vicepresidente senior de tecnología y sociedad de la compañía, James Manyika.
Estas modificaciones, de acuerdo con Google, se realizaron porque “las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos”.
“Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional”, se lee en su comunicacdo.
Ahora, Google recurrirá al control humano y tendrá en cuenta la colaboración de los usuarios para garantizar que su tecnología se emplee de acuerdo a los principios “ampliamente aceptados del derecho internacional y los derechos humanos”.