3 razones por las que su organización necesitará asesores de algoritmos externos

Por Satta Sarmah-Hightower

Los líderes empresariales están exprimiendo todo el valor que pueden de la inteligencia artificial (IA). Un estudio de KPMG de 2021 encuentra la mayoría de los líderes empresariales del gobierno, la fabricación industrial, los servicios financieros, el comercio minorista, las ciencias de la vida y el cuidado de la salud dicen que la IA es al menos moderadamente funcional en sus organizaciones. El estudio también encuentra que la mitad de los encuestados dice que su organización aceleró la adopción de IA en respuesta a la pandemia de Covid-19. En las organizaciones donde se ha adoptado la IA, al menos la mitad dice que la tecnología ha superado las expectativas.

Los algoritmos de IA son cada vez más responsables de una variedad de interacciones e innovaciones actuales, desde recomendaciones de productos y servicio de atención experiencias a los bancos decisiones de préstamos e incluso respuesta policial.

Pero a pesar de todos los beneficios que ofrecen, los algoritmos de IA conllevan grandes riesgos si no se monitorean y evalúan de manera efectiva en cuanto a resiliencia, justicia, explicabilidad e integridad. Para ayudar a los líderes empresariales a monitorear y evaluar la IA, el estudio al que se hace referencia anteriormente muestra que un Un número creciente de líderes empresariales quiere que el gobierno regule la IA para permitir que las organizaciones inviertan en la tecnología y los procesos comerciales correctos. Para obtener el apoyo y la supervisión necesarios, es aconsejable considerar evaluaciones externas ofrecidas por un proveedor de servicios con experiencia en la prestación de dichos servicios. Aquí hay tres razones por las cuales.

1. Los algoritmos son "cajas negras"

Los algoritmos de IA, que aprenden de los datos para resolver problemas y optimizar tareas, hacen que los sistemas sean más inteligentes, lo que les permite recopilar y generar información mucho más rápido que los humanos.

Sin embargo, algunas partes interesadas consideran que estos algoritmos son "cajas negras", explica Drew Rosen, director gerente de auditoría de KPMG, una firma líder de servicios profesionales. Específicamente, es posible que ciertas partes interesadas no entiendan cómo el algoritmo llegó a una determinada decisión y, por lo tanto, es posible que no confíen en la imparcialidad o precisión de esa decisión.

"Los resultados obtenidos del algoritmo pueden ser propensos a sesgos y malas interpretaciones de los resultados", dice Rosen. “Eso también puede generar algunos riesgos para la entidad, ya que aprovechan esos resultados y los comparten con el público y sus partes interesadas”.

Un algoritmo que utiliza datos defectuosos, por ejemplo, es ineficaz en el mejor de los casos y dañino en el peor. ¿Cómo sería eso en la práctica? Considere un chatbot basado en IA que proporciona información de cuenta incorrecta a los usuarios o una herramienta de traducción automática de idiomas que traduce el texto de manera incorrecta. Ambos casos podrían resultar en errores graves o malas interpretaciones para las entidades gubernamentales o empresas, así como para los electores y clientes que confían en las decisiones tomadas por esos algoritmos.

Otro factor que contribuye al problema de la caja negra es cuando el sesgo inherente se filtra en el desarrollo de modelos de IA, lo que puede causar una toma de decisiones sesgada. Los prestamistas de crédito, por ejemplo, utilizan cada vez más la IA para predecir la solvencia crediticia de los prestatarios potenciales para tomar decisiones de préstamo. Sin embargo, puede surgir un riesgo cuando las entradas clave en la IA, como el puntaje crediticio de un prestatario potencial, tiene un error material, lo que lleva a que a esas personas se les nieguen los préstamos.

Esto destaca la necesidad de un evaluador externo que pueda servir como evaluador imparcial y brindar una evaluación enfocada, basada en criterios aceptados, de la relevancia y confiabilidad de los datos históricos y las suposiciones que impulsan un algoritmo.

2. Las partes interesadas y los reguladores exigen transparencia

En 2022, no había requisitos de informes actuales para la IA responsable. Sin embargo, dice Rosen, “al igual que los órganos de gobierno introdujeron la regulación ESG [ambiental, social y de gobernanza] para informe sobre ciertas métricas ESG, es solo cuestión de tiempo que veamos requisitos de informes reglamentarios adicionales para una IA responsable”.

De hecho, a partir del 1 de enero de 2023, la Ciudad de Nueva York Ley Local 144 requiere que se realice una auditoría de sesgo en una herramienta de decisión de empleo automatizada antes de que se utilice.

Y a nivel federal, la Ley de Iniciativa Nacional de Inteligencia Artificial de 2020—que se basa en un Orden ejecutiva 2019—se centra en las normas técnicas y la orientación de la IA. Además, el Ley de responsabilidad algorítmica podría requerir evaluaciones de impacto de los sistemas de decisión automatizados y procesos de decisión críticos aumentados. Y en el extranjero, el Ley de inteligencia artificial se ha propuesto, ofreciendo un marco regulatorio integral con objetivos específicos sobre seguridad, cumplimiento, gobernanza y confiabilidad de la IA.

Con estos cambios, las organizaciones están bajo la lupa de la gobernanza. Un evaluador de algoritmos puede proporcionar dichos informes que aborden los requisitos reglamentarios y mejoren la transparencia de las partes interesadas mientras evitan el riesgo de que las partes malinterpreten o sean engañado por los resultados de la evaluación.

3. Las empresas se benefician de la gestión de riesgos a largo plazo

Steve Camara, socio de la práctica de garantía de tecnología de KPMG, predice que las inversiones en IA seguirán creciendo a medida que las entidades continúen con la automatización de procesos, el desarrollo de innovaciones que mejoren la experiencia del cliente y la distribución del desarrollo de IA entre las funciones comerciales. Para mantenerse competitivas y rentables, las organizaciones necesitarán controles efectivos que no solo aborden las deficiencias inmediatas de la IA, sino que también reduzcan los riesgos a largo plazo asociados con las operaciones comerciales impulsadas por la IA.

Aquí es donde intervienen los evaluadores externos como un recurso inteligente y de confianza. A medida que las organizaciones adoptan cada vez más la integridad de la IA como un habilitador de negocios, la asociación puede convertirse menos en un servicio ad hoc y más en una colaboración constante, explica Camara.

“Vemos un camino a seguir en el que será necesario que haya una relación continua entre las organizaciones que están desarrollando y poniendo en marcha la IA de forma continua y un asesor externo objetivo”, dice.

Una mirada hacia lo que viene después

En el futuro, las organizaciones podrían utilizar evaluaciones externas de forma más cíclica a medida que desarrollan nuevos modelos, incorporan nuevas fuentes de datos, integran soluciones de proveedores externos o navegan por nuevos requisitos de cumplimiento, por ejemplo.

Cuando se exigen requisitos adicionales de regulación y cumplimiento, los evaluadores externos pueden proporcionar servicios para evaluar directamente qué tan bien una organización ha implementado o utilizado la IA en relación con esos requisitos. Estos evaluadores estarían mejor posicionados para compartir los resultados de la evaluación de manera clara y consistente.

Para capitalizar la tecnología y al mismo tiempo protegerse contra sus limitaciones, una organización debe buscar asesores externos para proporcionar informes en los que luego pueda confiar para demostrar una mayor transparencia al implementar algoritmos. A partir de ahí, tanto la organización como las partes interesadas pueden comprender mejor el poder de la IA y sus limitaciones.

Fuente: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/