Google introduce estándares éticos para el uso de AI

Justo hoy, Sundar Pichai de Google estableció el nuevo manifiesto de IA de la compañía. Si bien puede parecer una respuesta más detallada a los recientes contratos militares de IA, en muchos sentidos, el nuevo conjunto de principios es más precisamente la respuesta a las preguntas planteadas inicialmente el año pasado por Sergey Brin en la carta de los Fundadores de Alphabet de 2017. En él, Brin especuló sobre el impacto del aprendizaje automático y la IA, así como los problemas y expectativas que tenía Google en el desarrollo de la nueva tecnología. Y ahora, un año después, la empresa ha revelado sus objetivos y sus límites.

A raíz del miedo (¿mongering?) de la IA, Google ha establecido sus propias reglas.

El aprendizaje automático y la inteligencia artificial presentan una situación moral difícil. Google reconoce que la IA es capaz de abordar problemas graves de una manera que nadie más puede, literalmente salvando vidas en muchas aplicaciones, pero también comprende que se han planteado preguntas e inquietudes específicas con respecto a su uso. Con ese fin, Google ha establecido siete "principios" que supuestamente lo guiarán a medida que avanza. Y no son solo abstracciones de ciencia ficción como las "Leyes de la robótica", son pautas reales que la compañía cree que puede usar tanto para la ingeniería como para las decisiones comerciales.

ANDROIDPOLICE VÍDEO DEL DÍA

  1. Ser socialmente beneficioso.
  2. Evite crear o reforzar prejuicios injustos.
  3. Ser construido y probado para la seguridad.
  4. Ser responsable ante las personas.
  5. Incorporar principios de diseño de privacidad.
  6. Mantener altos estándares de excelencia científica.
  7. Estar disponible para usos que estén de acuerdo con estos principios, con base en los siguientes factores adicionales:
    1. ¿Cuál es el uso principal?
    2. ¿Es único?
    3. ¿Tendrá un impacto significativo?
    4. ¿Cuál será la participación de Google?

El TL; DR para esto es que no hay TL; DR. Las nuevas reglas de Google son bastante detalladas y bastante cortas, simplemente léalas. Si bien podrían resumirse de manera abstracta diciendo algo genérico como "Google decide no hacer daño con la IA", eso sería una simplificación excesiva de la especificidad detrás de estas nuevas pautas.

Para ser claros, Google entiende que, en algún nivel, cualquier nueva tecnología, incluida la IA, podría causar "daño" en abstracto: daño a los intereses creados que se ven dañados por la introducción de una nueva tecnología, daño a economías o grupos mal adaptados, daño de errores en la supervisión y "daño" inevitable o imprevisto derivado del uso inesperado. Creer lo contrario sería miope, y la única mitigación de cualquier daño sería evitar por completo la búsqueda de nuevas tecnologías como la IA.

Además de estas nuevas reglas, Google ha establecido un conjunto de casos de uso de IA que explícitamente no seguirá, incluidas tecnologías que probablemente causen "daño general" (incluidas las armas), tecnologías que permiten la vigilancia (más allá de las "normas aceptadas", cualquiera que sea el doble discurso que eso signifique), y cualquier violación general de los principios del derecho internacional o de los derechos humanos. Sin embargo, aunque Google no trabajará en IA para usar en armas, trabajará con gobiernos y militares en otras áreas ya reveladas, incluida la ciberseguridad, la atención médica y la capacitación.

Google también entiende que establecer límites para la IA no es una declaración única; es una conversación en curso como resultado de cambios en la comprensión, y planea aprovechar los pensamientos de otros en múltiples áreas y disciplinas en el futuro. Pero independientemente de los cambios que pueda hacer en el futuro, se ha establecido el primer plan de juego de Google para la ética relacionada con la IA.

Fuente: Google

Video:

Ir arriba