TECNO-VIRAL

Google compartió la evaluación de sus progresos en Inteligencia Artificial durante 2022

En el marco del Foro Económico Mundial, Google compartió la evaluación de los progresos de la compañía en 2022 en Inteligencia Artificial y pone de manifiesto la importancia de seguir los principios para construir la IA con equidad, seguridad, privacidad y responsabilidad. Por otra parte, destaca que definir y minimizar los riesgos de la Inteligencia Artificial es una necesidad en 2023. Dado que esta tecnología desempeña un papel cada vez más destacado en la economía y la sociedad, se debe avanzar en prácticas responsables y la colaboración entre compañías, reguladores y la sociedad para maximizar sus beneficios.

expoagro 2023

La evolución de los principios

En 2018, Google fue una de las primeras compañías en publicar sus Principios de la Inteligencia Artificial, y en establecer límites para las aplicaciones que no se desarrollarán. Estos principios orientan las decisiones en materia de investigación, diseño y desarrollo de productos, así como las formas de resolver los desafíos operativos, de diseño y de ingeniería. Sin embargo, no son reglas estancas, evolucionan al igual que lo hace la tecnología. Por este motivo, la compañía presentó su 4º informe anual sobre los avances en los Principios de la IA, la revisión de su compromiso con el desarrollo responsable de tecnologías emergentes como la inteligencia artificial.

Este informe es un análisis exhaustivo que revela cómo se ponen en práctica los Principios de la IA y la necesidad de una estructura de gobernanza formalizada que respalde la aplicación de los mismos, así como rigurosas pruebas y revisiones éticas. También expone los tres pilares de la gobernanza de los Principios de la IA, para ayudar a más compañías a crear un enfoque estructurado en los equipos de investigación, operaciones y productos.

Tres pilares de la gobernanza de los principios de la IA

Principios de la IA: sirven de carta ética e informan las políticas de producto de Google. En el informe se analizan productos anunciados en 2022 y cómo se ajustan a los principios, así como tres casos de estudio. Incluye un análisis sobre cómo se toman las decisiones acerca de qué lanzar y qué no, y cómo abordar cuestiones de IA responsable, como la equidad en los productos.

La educación y los recursos proporcionan formación ética y herramientas técnicas para probar, evaluar y supervisar la aplicación de los Principios de la IA a los productos y servicios de Google. En este reporte, por primera vez se comparten detalles de una nueva herramienta para supervisar la madurez de la IA responsable de los productos, así como actualizaciones sobre enfoques técnicos de imparcialidad, transparencia de los datos y mucho más.

Las estructuras y procesos representan marcos de evaluación de riesgos, revisiones éticas y responsabilidad ejecutiva. En el informe, se profundiza sobre la identificación y medición del riesgo en las revisiones de los Principios de la IA, así como una mirada a cómo se aborda la evaluación de nuevas aplicaciones de IA.

Los principios de la IA

Ser socialmente beneficiosa: Que el beneficio probable para las personas y la sociedad supere sustancialmente los riesgos y desventajas previsibles.

Evitar crear o reforzar sesgos injustos: Evitar sesgos injustos sobre las personas, en particular relacionados a características sensibles como la etnia, el género, la nacionalidad, los ingresos, la orientación sexual, capacidad y las creencias políticas o religiosas.

Estar construida y probada ser segura: Diseñada para ser lo suficientemente cautelosa y siguiendo las mejores prácticas en materia de investigación sobre seguridad, incluyendo pruebas en entornos restringidos y monitorización según corresponda.

Ser responsable con las personas: Proporcionar oportunidades adecuadas para la retroalimentación, explicaciones pertinentes, apelación, sujeto a la dirección y el control humanos apropiados.
Incorporar principios de diseño de privacidad: Fomentar arquitecturas que incluyan medidas de protección de la privacidad y ofrecer la transparencia y el control adecuados sobre el uso de los datos.
Mantener altos estándares de excelencia científica: La innovación tecnológica se basa en el método científico y en el compromiso con la investigación abierta, el rigor intelectual, la integridad y la colaboración.

Estar disponible para usos acordes con estos principios: Se trabajará para limitar las aplicaciones perjudiciales o abusivas.

Caso de aplicación: Reducir sesgos de género en el Traductor de Google

Los investigadores del equipo Translate desarrollaron recientemente un nuevo conjunto de datos para estudiar y prevenir el sesgo de género en el aprendizaje automático, en consonancia con el Principio #2 de la IA: «evitar el sesgo injusto». Esta investigación exploró la traducción de género entre inglés y español, e inglés y alemán.

Los métodos tradicionales de traducción automática neural traducen las frases una por una, pero la información sobre el género puede no aparecer explícitamente en cada oración. Para superar este desafío, los investigadores construyeron un nuevo modelo que incorpora el contexto de las frases que siguen para mejorar la precisión del género cuando se traducen pronombres personales.

Para más información sobre el enfoque de Google en Inteligencia Artificial podés visitar este blogpost en Español, y para conocer siete formas en la que la compañía esta aplicando esta tecnología para ayudar a resolver los problemas de la humanidad visitá este link.

g2k

Publicaciones relacionadas

Botón volver arriba