fbpx
  • Jun 19, 2021

5 prioridades clave para ayudar a mitigar el sesgo en los sistemas de Inteligencia Artificial

 5 prioridades clave para ayudar a mitigar el sesgo en los sistemas de Inteligencia Artificial

Dra. Stacy Hobson, Directora de Tecnologías Responsables e Inclusivas, IBM Research

Anjelica Dortch, Ejecutiva de Políticas de Tecnología, IBM Government & Regulatory Affairs

No cabe duda de que los sesgos humanos pueden influir en los algoritmos de inteligencia artificial (IA) y dar lugar a resultados discriminatorios. Sin embargo, es difícil discernir cuán generalizados son estos sesgos en las tecnologías que desarrollamos y utilizamos en nuestra vida. Aunque mitigar los sesgos en IA puede ser un reto para algunos modelos y sistemas automatizados de toma de decisiones, es imperativo reducir la probabilidad de resultados indeseables.

Nuestra sociedad continúa evolucionando con la rápida innovación de las tecnologías emergentes, especialmente la IA. La industria, la academia, los gobiernos y los consumidores tienen la responsabilidad compartida de asegurar que los sistemas de IA sean debidamente probados y evaluados ante la posibilidad de sesgos. Además, cualquier acción o práctica prohibida por la legislación antidiscriminatoria vigente también debería aplicarse. Para respaldar las estrategias de mitigación de sesgos, las organizaciones deben trabajar para crear, implementar y poner en práctica los principios éticos de la IA y garantizar una gobernanza adecuada para una revisión y supervisión continua.

La empresa cree que, para aprovechar el potencial transformador de la IA, es necesario el compromiso activo de desarrollarla y usarla de manera responsable, para prevenir resultados discriminatorios que podrían perjudicar a las personas y a sus familias. Un aspecto crítico del desarrollo responsable de la IA es el enfoque en la identificación y mitigación de los sesgos. En los últimos años, la organización ha compartido los resultados de investigaciones, ha puesto a disposición herramientas y ha proporcionado a las empresas y a sus consumidores una mejor comprensión de los sistemas de IA. Esto incluye el kit de herramientas de AI Fairness 360, AI FactSheets y Watson OpenScale, así como las nuevas capacidades de Watson, diseñadas para ayudar a las empresas a crear una IA confiable.

El año pasado, Policy Lab hizo un llamado a una “regulación de precisión” para fortalecer la confianza en la IA, con un marco basado en principios como la responsabilidad, la transparencia, la equidad y la seguridad, que solicitaba tomar medidas a la industria y los gobiernos. A la luz de cómo ha evolucionado el diálogo público sobre los sesgos en IA, esa perspectiva es más importante que nunca. Es por lo que, en respuesta a la atención renovada sobre las desigualdades y la forma en que la tecnología -en áreas como la justicia penal, servicios financieros, atención sanitaria y recursos humanos- puede ser mal utilizada para exacerbar las injusticias, la empresa sugiere que los encargados de la formulación de políticas públicas tomen medidas adicionales para dar forma a un entorno legislativo adecuado que aborde las preocupaciones legítimas de la sociedad.

La marca se compromete con la defensa de la diversidad, la equidad y la inclusión en nuestra sociedad, economía y la tecnología que construimos. Como tal, solicitamos a los gobiernos que implementen cinco prioridades para fortalecer la adopción de pruebas, evaluaciones y estrategias de mitigación de los sesgos en los sistemas de IA:

1. Reforzar el conocimiento y alfabetización en IA para toda la sociedad. Una mayor comprensión sobre qué es la IA, sus beneficios potenciales y cómo interactuar con los sistemas podría acelerar su crecimiento y la confianza en ellos. Además, el desarrollo y la implementación de una agenda nacional de IA puede promover un ecosistema más inclusivo y diverso, así como apoyar la erradicación de conceptos equivocados. En esta línea, el aumento de la inversión en educación para incluir IA en los planes de estudio y el incremento del financiamiento para la investigación pueden garantizar una gama más diversa de partes interesadas que guíen la planificación, desarrollo y aplicación de los sistemas de IA en el futuro. Los ministerios y organismos de ciencia y tecnología también deben dar prioridad al establecimiento de alianzas que promuevan la equidad en IA.

2. Requerir evaluaciones y pruebas para los sistemas de IA de alto riesgo, centrándose en proteger a los consumidores, al tiempo que permite la innovación. Esto significa exigir pruebas y mitigación de sesgos -realizadas de forma sólida y transparente- para sistemas de IA como los utilizados en la justicia. Estos sistemas también deben monitorearse y probarse de forma continua. Además, centrar los requisitos de evaluación antes de la implementación para los sistemas de IA de alto riesgo que presentan el mayor potencial de perjuicio; documentar los procesos de evaluación, hacerlos auditables y conservarlos durante un periodo mínimo de tiempo; convocar y realizar foros nacionales e internacionales para acelerar el consenso para una IA confiable; proporcionar recursos y experiencias para ayudar a todas las organizaciones a garantizar IA responsable; aumentar la inversión en investigación y desarrollo para pruebas y mitigación de sesgos; y apoyar la capacitación acelerada de los desarrolladores sobre reconocimiento de sesgos.

3. Exigir transparencia en la IA a través de la divulgación. Los desarrolladores y propietarios deben informar a los usuarios cuando interactúan con tecnologías de IA con poca o nula participación humana, así como cuando se utiliza un sistema de IA de alto riesgo. Además, en el caso de los sistemas automatizados de toma de decisiones, como mínimo, debe comunicarse al usuario por qué y cómo se tomó una decisión particular utilizando IA.

4. Solicitar mecanismos para la revisión y retroalimentación de los consumidores. Los operadores de aplicaciones de alto riesgo deben poner a disposición canales de comunicación (por ejemplo, correo electrónico, número de teléfono o dirección postal) para recibir las preguntas, preocupaciones o quejas de los usuarios. Los propietarios deben actuar de forma responsable al realizar revisiones continuas de las inquietudes planteadas por los consumidores y, cuando sea necesario, trabajar en cuestiones sistémicas.

5. Establecer limitaciones universales al uso de la IA y adoptar prácticas responsables de licenciamiento. Para evitar que los sistemas se aprovechen para usos ilegales, irresponsables y perjudiciales, la organización solicita el establecimiento de limitaciones universales al uso de aplicaciones de IA de alto riesgo para prohibir su empleo en vigilancia masiva, discriminación racial y la violación de los derechos humanos y las libertades básicas. También, ampliar el desarrollo, la educación y la adopción de términos de licencia responsables para el software de código abierto y las aplicaciones basadas en IA.

Se avecinan nuevas leyes, marcos normativos y directrices para mitigar los sesgos en los sistemas de IA. Si se elaboran sobre la base de las prioridades mencionadas, estas medidas pueden proporcionar a la industria y a las organizaciones requisitos claros de prueba, evaluación, mitigación y educación para aumentar la confianza y la seguridad del consumidor en la inteligencia artificial.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Coordinador

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *