Google ha publicado un nuevo conjunto de principios de IA que no mencionan su promesa anterior de no usar la tecnología para desarrollar armas o herramientas de vigilancia que violen las normas internacionales.

Los principios originales de IA de la fábrica de chocolate, esbozado Por el CEO Sundar Pichai a mediados de 2018, incluyó una sección sobre «Aplicaciones de IA que no perseguiremos». En la parte superior de la lista había un compromiso de no diseñar o implementar IA para «tecnologías que causan o es probable que causen daños generales» y una promesa de sopesar los riesgos para que Google «proceda solo dónde creemos que los beneficios superan sustancialmente el consumo riesgos ”.

Otras aplicaciones de inteligencia artificial que Google prometió evitar ese año incluyó:

  • Armas u otras tecnologías cuyo propósito principal o implementación es causar o facilitar directamente lesiones a las personas.
  • Tecnologías que recopilan o utilizan información para la vigilancia que violan las normas aceptadas internacionalmente.
  • Tecnologías cuyo propósito contraviene los principios ampliamente aceptados del derecho internacional y los derechos humanos.

Esos principios fueron publicados dos meses después de unos 3.000 Googlers firmó una petición oponerse a la participación del gigante web en un programa del Pentágono llamado Proyecto Maven Eso utilizó la IA de Google para analizar imágenes de drones.

El mismo mes Pichai publicó la publicación de principios de AI de Google, el gigante de la búsqueda y los anuncios decidió no Renovar su contrato para Project Maven después de su vencimiento en 2019.

En diciembre de 2018, el creador de Chrome desafiado Otras empresas tecnológicas que construyen IA para seguir su liderazgo y desarrollar tecnología responsable que «evite el abuso y los resultados dañinos».

El martes de esta semana, la publicación del blog de Pichai 2018 agregó un aviso que aconseja a los lectores que, al 4 de febrero de 2025, Google «realizó actualizaciones a nuestros principios de IA» que se pueden encontrar en Ai.google.

Los principios AI actualizados de la fábrica de chocolate se centran en tres cosas: innovación audaz; desarrollo y implementación responsable; y proceso de colaboración.

Estos principios actualizados no mencionan las aplicaciones en las que Google no funcionará ni se compromete a no usar IA para fines dañinos o desarrollo de armas.

Afirman que Google desarrollará e implementará modelos de IA y aplicaciones «donde los probables beneficios generales superan sustancialmente los riesgos previsibles».

También hay una promesa de usar siempre «supervisión humana apropiada, diligencia debida y mecanismos de retroalimentación para alinearse con los objetivos del usuario, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos», más una promesa de invertir en «enfoques líderes en la industria Para avanzar en la investigación y los puntos de referencia de la seguridad, las soluciones técnicas pioneras para abordar los riesgos y compartir nuestros aprendizajes con el ecosistema «.

El Big G también ha prometido «diseño, pruebas, monitoreo y salvaguardas rigurosos para mitigar los resultados no intencionados o dañinos y evitar el sesgo injusto» junto con «promover la privacidad y la seguridad, y respetar los derechos de propiedad intelectual».

Una sección de los nuevos principios ofrece el siguiente ejemplo de cómo operarán:

También el martes, Google publicó su informe anual de progreso de AI responsable, que aborda la actual carrera armamentista de IA.

«Hay una competencia global para el liderazgo de IA dentro de un paisaje geopolítico cada vez más complejo». dicho James Manyika, vicepresidente sénior de investigación, laboratorios, tecnología y sociedad, y Demis Hassabis, cofundador y CEO de Google Deepmind.

«Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos», continuaron los ejecutivos de Google. «Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntas para crear IA que proteja a las personas, promueve el crecimiento global y apoya la seguridad nacional».

Google continuará buscando «investigación y aplicaciones de IA que se alineen con nuestra misión, nuestro enfoque científico y nuestras áreas de especialización, y se mantengan consistentes con principios ampliamente aceptados de derecho internacional y derechos humanos», agregó el dúo.

Google no respondió de inmediato a El registroLas consultas, incluso si hay alguna aplicación de IA, que no realizará bajo los principios de IA actualizados, por qué eliminó las armas y las menciones de vigilancia de sus usos prohibidos, y si tiene alguna política o directrices específicas sobre cómo puede ser su IA. utilizado para estos propósitos previamente no ok.

Actualizaremos este artículo si recibimos noticias de la fábrica de chocolate.

Mientras tanto, los rivales de Google brindan felizmente modelos de aprendizaje automático y servicios de TI al ejército y el gobierno de los Estados Unidos, al menos. Microsoft ha argumentado que las fuerzas armadas de Estados Unidos merecen las mejores herramientas, que en la mente del gigante de Windows es su tecnología. OpadaiAmazon, IBM, Oracle y Antrópico Trabaja con el tío Sam en varios proyectos. Incluso Google estos días. El titán de Internet es menos aprensivo al respecto. ®

Source link