Una actualización de nuestro trabajo en IA e innovación responsable

La inteligencia artificial es una herramienta poderosa, que tendrá un impacto importante y por muchos años en la sociedad, para mejorar la sostenibilidad en todo el mundo y avanzar en la predicción de detección de enfermedades. Como líderes en IA, siempre hemos priorizado la importancia de comprender sus implicaciones sociales y de desarrollarla de una manera que sea adecuada para todos.

Por este motivo, hace dos años publicamos nuestros Principios de la IA y emitimos regularmente información actualizada sobre nuestro trabajo. Como nuestro CEO Sundar Pichai afirmó el pasado mes de enero, cuando la IA se desarrolla de manera responsable y en beneficio de la sociedad, tiene el potencial de mejorar miles de millones de vidas.

El mundo ha cambiado mucho desde enero, y en muchos sentidos nuestros Principios se han vuelto aún más importantes para el trabajo de nuestros investigadores y equipos de producto. Estamos comprometidos en desarrollar la IA reduciendo al mínimo los sesgos injustos, comprobando la seguridad, midiendo los beneficios sociales e incorporando fuertes protecciones de la privacidad a nuestros productos. Nuestros Principios nos proporcionan unas directrices muy claras sobre las aplicaciones de IA que no diseñaremos ni implementaremos, como las que violan los derechos humanos o posibilitan actividades de vigilancia contrarias a las normas internacionales. Por ejemplo, fuimos la primera gran empresa que decidió, hace ya varios años, no poner en el mercado las herramientas de reconocimiento facial de uso general.

Durante los últimos 12 meses, hemos explicado nuestro punto de vista sobre lo que consideramos que debe ser un desarrollo responsable de la IA (puedes verlo en nuestro informe de agosto de 2019 y nuestra reciente propuesta a la consulta sobre inteligencia artificial lanzada por la Comisión Europea). Asimismo, este año hemos ampliado nuestros programas de formación interna, hemos aplicado nuestros principios a nuestras herramientas e investigaciones, hemos llevado a cabo un proceso de revisión integral, hemos colaborado con empresas y entidades de todo el mundo, y estamos siempre al día de las últimas tendencias y patrones de IA.

En el marco de las actualizaciones anuales de nuestros Principios de IA, como las que ya ofrecimos en el Keyword en 2018 y 2019, os ofrecemos aquí nuestro último resumen de lo que hemos aprendido y de cómo lo estamos poniendo en práctica.

Formación interna
Además de lanzar la formación inicial de Ética tecnológica, que más de 800 Googlers ya recibieron el https://www.blog.google/technology/ai/responsible-ai-principles/año pasado, a principios de este año desarrollamos un nuevo curso para la detección de posibles incumplimientos de nuestros Principios de IA. Después de un curso piloto, al que asistieron más de 2.000 Googlers, esta formación está ahora disponible como curso online para todos los Googlers de la empresa. En el curso los empleados aprenden a hacer las preguntas adecuadas para detectar posibles problemas éticos; por ejemplo, si una aplicación de IA puede conducir a la exclusión económica o educativa, o puede causar daños físicos, psicológicos, sociales o ambientales. Recientemente se ha lanzado una versión de este curso como formación obligatoria para los equipos de Cloud que tratan con los clientes y, a día de hoy, ya han asistido 5.000 empleados de Cloud.

Herramientas e investigación
Nuestros investigadores no solo trabajan en la ciencia y la tecnología informática de hoy, sino también en la del mañana. Continúan desempeñando un papel de liderazgo en este campo, habiendo publicado en el último año más de 200 artículos y trabajos académicos sobre nuevos métodos tecnológicos que permiten poner en práctica nuestros principios. Estas publicaciones tratan de cómo abordar desde la tecnología las cuestiones relativas a la equidad, la seguridad, la privacidad y la asunción de responsabilidad hacia las personas, así como de técnicas eficaces para mejorar la equidad en el aprendizaje automático a gran escala, un método para incorporar los principios éticos a los modelos aprendidos por las máquinas, y principios de diseño para sistemas de aprendizaje automático interpretables.

Un ejemplo concreto de investigación aplicada para la responsabilidad en IA es la evolución de las Model Cards (fichas de modelo) durante el último año. Un equipo de investigadores de Google ha publicado en el que se propone un sistema similar al de las etiquetas de valores nutricionales de los alimentos, dirigido a informar sobre la intención de uso de un modelo de IA y sobre su desempeño para personas de distintos entornos. Hemos puesto en práctica esta investigación emitiendo Model Cards para los modelos de detección de caras y detección de objetos utilizados en el producto Vision API de Google Cloud.

Nuestro objetivo es que Google sea un colaborador útil no solo para los investigadores y desarrolladores que crean aplicaciones de IA, sino también para los miles de millones de personas que las utilizan en productos cotidianos. Hemos dado un paso más, con el lanzamiento de 14 nuevas herramientas que ayudan a comprender cómo funciona la IA responsable, desde las simples visualizaciones de datos sobre sesgos algorítmicos destinadas al público general, hasta paneles y conjuntos de herramientas de IA explicable para usuarios corporativos. Puedes encontrar unos cuantos en nuestro nuevo toolkit de IA responsable con TensorFlow.

Proceso de revisión 
Como ya mencionamos, Google cuenta con un equipo central dedicado a revisar las propuestas de investigación y las aplicaciones de IA para comprobar su conformidad con nuestros principios. La puesta en práctica de los Principios de IA es un trabajo desafiante. Nuestro proceso de revisión es iterativo, y seguimos perfeccionando y mejorando nuestras evaluaciones a medida que las tecnologías avanzan. El equipo también consulta con expertos de dominio interno sobre cuestiones de equidad, seguridad, privacidad, derechos humanos, entre otras, en el aprendizaje automático.

Si lo consideramos relevante, en nuestro proceso de revisión también recurrimos a expertos para que evalúen nuestros nuevos productos desde el punto de vista de los derechos humanos, antes de su lanzamiento. Por ejemplo, encomendamos a la organización sin ánimo de lucro BSR (Empresas por la Responsabilidad Social) una evaluación formal de derechos humanos en la nueva herramienta de reconocimiento de celebridades, que se ofrece en los productos Vision y Video Intelligence de Google Cloud. BSR se apoyó en los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos para ayudar a nuestro equipo de producto a analizar las implicaciones que un producto puede tener en la privacidad y en la libertad de expresión de las personas, así como los posibles perjuicios que podrían derivarse, como la discriminación. Esta evaluación no solo tuvo en cuenta el diseño del producto, sino también las políticas sobre su uso.

Además, dado que toda evaluación solvente de IA no solo ha de tener en cuenta los aspectos técnicos, sino también los contextos sociales, nuestro proceso de revisión de IA incluye un abanico más amplio de puntos de vista, involucrando a expertos en ciencias sociales y a los grupos de apoyo de empleados de Google.

Como ejemplo, explicaremos a continuación cómo hemos aprovechado las enseñanzas de un caso que publicamos en nuestra última información sobre los Principios de IA: la revisión de la investigación académica sobre tecnología de texto a voz (TTS). Desde entonces, hemos aplicado lo que aprendimos en aquella revisión para implementar en todo el conjunto de Google un único enfoque para la tecnología TTS. El servicio de texto a voz de Google Cloud, que se utiliza en productos como Google Lens, pone en práctica el siguiente enfoque:

Puesto que el TTS podría usarse en diversos productos, consultamos a un grupo de expertos técnicos y comerciales de Google. Estos consideraron que la propuesta incumplía nuestros Principios de IA, según los cuales hay que buscar el beneficio para la sociedad y rendir cuentas a las personas, además de integrar la privacidad en el diseño y evitar tecnologías que causen o puedan causar un perjuicio general.

  • Los revisores identificaron los beneficios de una interfaz de usuario mejorada para varios productos, además de importantes beneficios relativos a la accesibilidad para personas con discapacidad auditiva. 
  • Consideraron los riesgos de mimetismo y suplantación de la voz, manipulación de medios y difamación.
  • Tuvieron en cuenta cómo se usa un modelo de IA y reconocieron la importancia de agregar capas de barreras contra posibles actos de ciberdelincuencia, con el fin de reducir la posibilidad de daños.
  • Recomendaron precauciones para la privacidad y la seguridad que deberían incorporarse a los dispositivos como barreras contra el mal uso, reduciendo el riesgo de daño general derivado del uso malintencionado de la tecnología TTS.
  • Los revisores recomendaron aprobar el uso de la tecnología TTS en nuestros productos, pero solo con el consentimiento del usuario y con medidas de privacidad y seguridad en los dispositivos.
  • No aprobaron el código abierto para los modelos de TTS, debido al riesgo elevado de que alguien los use malintencionadamente para crear falsificaciones profundas dañinas y distribuir información falsa.  

Colaboraciones externas

Para disponer de un mayor número y una mayor diversidad de perspectivas externas, este año lanzamos la Mesa Redonda de Investigación sobre IA Equitativa, que reúne a defensores civiles de los colectivos, quienes actualmente están subrepresentados en la industria tecnológica, y tienen más probabilidades de verse afectados por las consecuencias de la IA y la tecnología avanzada. Este grupo de líderes comunitarios y académicos sin ánimo de lucro se reúne con nosotros cada tres meses para discutir cuestiones éticas de la IA. Lo que aprendemos durante estos debates nos ayuda a definir nuestras actividades operativas y los marcos de referencia para la toma de decisiones.

Este año, nuestro esfuerzo a nivel global incluyó nuevos programas para ayudar al público no experto (políticos, personas recién iniciadas en el aprendizaje automático o expertos de dominio) a comprender y a participar en la creación de sistemas de IA responsable. Estos son algunos de los programas:

  • Colaboración con Yielding Accomplished African Women para celebrar la primera Conferencia sobre mujeres en el aprendizaje automático en África. Construimos una red de 1.250 ingenieras de aprendizaje automático en seis países africanos. Utilizando Google Cloud Platform, formamos y certificamos a 100 mujeres en la conferencia de Accra, en Ghana. Más de 30 universidades y 50 empresas y organizaciones estuvieron representadas en la conferencia, cuyo programa incluía talleres sobre Qwiklabs, AutoML, TensorFlow, el enfoque centrado en el ser humano para la IA, el mindfulness y #IamRemarkable.
  • Publicación, en asociación con el Ministerio de Salud Pública de Tailandia, del primer estudio sobre cómo los investigadores aplican la información facilitada por los equipos de enfermería y los pacientes para elaborar recomendaciones sobre futuras aplicaciones de la IA, sobre la base de cómo los enfermeros implementaron un nuevo sistema de IA para el cribado de pacientes susceptibles de retinopatía diabética.
  • Lanzamiento de un taller de ML para políticos con contenidos y casos de estudio sobre explicabilidad, imparcialidad, privacidad y seguridad. Impartimos este taller a través de Google Meet, con más de 80 participantes del ámbito político, y se organizarán más talleres en lo que resta de año.
  • Organización del Simposio PAIR (People + AI Research) en Londres, que se centró en el ML participativo y marcó la expansión de PAIR a la región EMEA. En el evento, que atrajo a 160 participantes del mundo académico, la industria, la ingeniería y el diseño, se celebraron debates interdisciplinarios sobre IA centrada en el ser humano, así como demostraciones prácticas de herramientas para la equidad y la interpretabilidad del ML.

Mantenemos nuestro compromiso de colaborar con actores externos de distintos ámbitos de procedencia y seguimos al servicio, como miembros y en la junta directiva, de Partnership on AI, una organización que reúne a múltiples actores, y que estudia y formula las mejores prácticas en tecnologías de IA. Como ejemplo de nuestro trabajo conjunto, Partnership on AI está desarrollando mejores prácticas basadas en nuestra propuesta de Model Cards, como marco de rendición de cuentas entre sus miembros.

Tendencias, tecnologías y modelos emergentes en IA
Sabemos que ningún sistema, ya sea humano o con IA, será perfecto, por lo que no creemos que la tarea de mejorarlo pueda considerarse acabada algún día. En nuestras revisiones de los Principios de la IA seguimos identificando nuevas tendencias y nuevos desafíos. Esto nos lleva a plantearnos varias preguntas; por ejemplo, cómo y cuándo hay que desarrollar de manera responsable medios sintéticos, mantener a los humanos en un ciclo adecuado de decisiones de IA, lanzar productos con métricas de imparcialidad sólidas, implementar tecnologías afectivas, y proporcionar explicaciones sobre cómo funciona la IA, dentro de los propios productos.

Como Sundar escribió en enero, es crucial que empresas como la nuestra no solo desarrollen nuevas tecnologías prometedoras, sino que también las aprovechen para bien y las pongan a disposición de todos. Por eso creemos que la regulación puede ofrecer pautas muy útiles para la innovación en IA; y por eso compartimos nuestras experiencias, mostrando cómo la aplicación de la IA puede abordarse conforme a unos principios. Mientras seguimos desarrollando y utilizando la IA de manera responsable, en beneficio de las personas y de la sociedad, estaremos encantados de informarte de las acciones específicas que emprendamos y de nuestros avances.

<!– INSTRUCTIONS Enter info below to be used in google.com/about site blog syndication. Leave elements empty if there is no valid data. Example: http://1.bp.blogspot.com/-mX0dxJxp8dg/Vo8MSdxypWI/AAAAAAAARsI/EjaFhvgAEgc/s1600/Beutler_Google_Giftwrap_-v2TW.png –>
Source: Google Oficial

Deja un comentario