Impulsando la Inteligencia Artificial comprometida, segura y equitativa

Foto: Microsoft

Microsoft ha evolucionado su marco de desarrollo responsable para soluciones de Inteligencia Artificial (IA) y ha compartido algunas recomendaciones mediante el documento: Estándar de IA Responsable.

El objetivo ha sido impulsar la creación de una Inteligencia Artificial (IA) comprometida, segura y equitativa, por lo que este marco de trabajo sirve de guía práctica y específica para los equipos de desarrollo.

El marco va más allá de los principios generales que han dominado el panorama de la IA hasta la fecha, busca la creación de soluciones de este tipo y que los usuarios puedan confiar.

“Un grupo multidisciplinario de investigadores, ingenieros y expertos en regulación, elaboró este Estándar de IA Responsable, que toma como base los primeros trabajos de la compañía en este sentido”.

En esta guía, según un comunicado de prensa, Microsoft ha compartido lecciones aprendidas de sus propias experiencias e invita abiertamente a hacer comentarios y contribuir al debate sobre la creación de mejores normas y prácticas en torno a la IA.

La compañía ha optado por guiar el proceso de desarrollo de soluciones de IA, desde su concepción, hasta el modo en que la gente interactúa con estas. Cree necesario mantener a las personas en el centro del diseño de esta tecnología y respetar la equidad, confiabilidad, seguridad, privacidad, inclusión, transparencia y responsabilidad.

“El Estándar de Microsoft incluye objetivos o resultados concretos que los equipos que desarrollan sistemas de IA deben esforzarse por conseguir”.

Además, ha compartido su experiencia y el patrón que ha seguido para mejorar su tecnología de voz a texto para mantener los principios de equidad y evitar algún tipo de sesgos.

La Inteligencia Artificial inclusiva

Microsoft ha proporcionado orientación y herramientas que capacitan a sus clientes para implementar la tecnología de reconocimiento facial de forma responsable.

Los clientes de Azure Cognitive Services ahora pueden utilizar el paquete Fairlearn de código abierto y el Fairness Dashboard de Microsoft para medir la imparcialidad de los algoritmos de verificación facial de Microsoft en sus propios datos.

“Pueden identificar y abordar posibles problemas de imparcialidad y sesgos antes de desplegar su tecnología”.

También ha actualizado la documentación de transparencia para que los clientes mejoren la precisión y equidad de sus sistemas. Se ha incorporado una revisión humana que ayuda a detectar y resolver casos de identificación errónea u otros fallos.

La empresa de tecnología ha ofrecido una nueva API (Interfaz de Programación de Aplicaciones) de calidad de reconocimiento que indica problemas de iluminación, desenfoque, oclusiones o ángulo de la cabeza en imágenes enviadas para verificación facial.

Además, ha proporcionado una aplicación de referencia que aporta sugerencias en tiempo real para que los usuarios capturen imágenes de mayor calidad.