Google ha realizado uno de los cambios más sustantivos en sus principios de IA desde que los publica por primera vez en 2018. En un cambio visto por el Washington Post, el gigante de la búsqueda editó el documento para eliminar las promesas que había hecho prometedor que no "Diseñar o implementar" Herramientas de IA para usar en cualquier armas o tecnología de vigilancia. Anteriormente, esas pautas incluían una sección titulada "solicitudes que no perseguiremos," que no está presente en la versión actual del documento.
En cambio, ahora hay una sección titulada "Desarrollo y implementación responsables." Allí, Google dice que implementará "Supervisión humana apropiada, diligencia debida y mecanismos de retroalimentación para alinearse con los objetivos del usuario, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos."
Ese es un compromiso mucho más amplio que los específicos que la compañía hizo tan recientemente como a fines del mes pasado, cuando la versión anterior de sus principios de IA todavía estaba en vivo en su sitio web. Por ejemplo, en lo que respecta a las armas, la compañía dijo anteriormente que no diseñaría AI para su uso en "Armas u otras tecnologías cuyo propósito principal o implementación es causar o facilitar directamente lesiones a las personas “. En cuanto a las herramientas de vigilancia de IA, la compañía dijo que no desarrollaría tecnología que viola "Normas aceptadas internacionalmente."
Cuando se le pidió comentarios, un portavoz de Google señaló a Engadget a una publicación de blog que la compañía publicó el jueves. En él, el CEO de Deepmind, Demis Hassabis y James Manyika, vicepresidente senior de investigación, laboratorios, tecnología y sociedad en Google, dicen la aparición de AI como "Tecnología de uso general" requirió un cambio de política.
"Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntas para crear una IA que proteja a las personas, promueva el crecimiento global y apoya la seguridad nacional," Los dos escribieron. "… Guiados por nuestros principios de IA, continuaremos centrándonos en la investigación y las aplicaciones de IA que se alinean con nuestra misión, nuestro enfoque científico y nuestras áreas de especialización, y mantenemos consistentes con los principios ampliamente aceptados del derecho internacional y los derechos humanos, siempre evaluando específicos Trabaje cuidadosamente evaluando si los beneficios superan sustancialmente los riesgos potenciales."
Cuando Google publicó por primera vez sus principios de IA en 2018, lo hizo después del Proyecto Maven. Era un contrato gubernamental controvertido que, si Google hubiera decidido renovarlo, habría visto a la compañía proporcionar software de IA al Departamento de Defensa para analizar imágenes de drones. Docenas de empleados de Google abandonan la empresa en protesta del contrato, con miles más firmando una petición en oposición. Cuando Google finalmente publicó sus nuevas pautas, el CEO Sundar Pichai le dijo al personal que su esperanza era que se pararían "la prueba del tiempo."
Para 2021, sin embargo, Google comenzó a perseguir contratos militares nuevamente, con lo que supuestamente era un "agresivo" oferta por el contrato de nube de capacidad de la nube de guerra conjunta del Pentágono. A principios de este año, el Washington Post informó que los empleados de Google habían trabajado repetidamente con el Ministerio de Defensa de Israel para expandir el uso del gobierno de herramientas de IA.
Este artículo apareció originalmente en Engadget en https://www.engadget.com/ai/google-now-thinks-its-ok-to-use-ai-for aweapons-and-surveillance-224824373.html?src=rsss