
(Imagen cortesía del NIST)
El Instituto Nacional de Estándares y Tecnología (NIST) publicó hoy el Marco de gestión de riesgos de IA, un documento destinado a ayudar a las organizaciones a desarrollar e implementar voluntariamente sistemas de IA sin prejuicios ni otros resultados negativos. El documento tiene una muy buena oportunidad de definir el enfoque authorized estándar que las organizaciones utilizarán para mitigar los riesgos de la IA en el futuro, cube Andrew Burt, fundador de la firma de abogados de IA BNH.ai.
A medida que se acelera el ritmo del desarrollo de la IA, también lo hacen los daños potenciales del uso de la IA. Él NISTa petición del Congreso de los Estados Unidos, ideó la Marco de gestión de riesgos de IA (RMF) para diseñar un enfoque repetible para crear sistemas de IA responsables.
“Sin los controles adecuados, los sistemas de IA pueden amplificar, perpetuar o exacerbar los resultados injustos o indeseables para las personas y las comunidades”, afirma el resumen ejecutivo de RMF. “Con los controles adecuados, los sistemas de IA pueden mitigar y gestionar los resultados no equitativos”.
El documento de 48 páginas, que puede accede aquíbusca ayudar a las organizaciones a abordar la gestión de riesgos de IA de cuatro maneras, denominadas funciones básicas de RMF, que incluyen mapear, medir, administrar y gobernar.
Primero, alienta a los usuarios a trazar el sistema de IA en su totalidad, incluido el propósito comercial previsto y los daños potenciales que pueden resultar del uso de IA. Imaginar las diferentes formas en que los sistemas de IA pueden tener resultados positivos y negativos es esencial para todo el proceso. El contexto comercial es basic aquí, al igual que la tolerancia de la organización al riesgo.
En segundo lugar, la RMF le pide al profesional ético de la IA que use los mapas creados en el primer paso para determinar cómo medir los impactos que están teniendo los sistemas de IA, tanto de manera cuantitativa como cualitativa. Las mediciones deben realizarse con regularidad, cubrir la funcionalidad, la examinabilidad y la confiabilidad (evitación de sesgos) de los sistemas de IA, y los resultados deben compararse con los puntos de referencia, afirma la RMF.
En tercer lugar, las organizaciones utilizarán las medidas del paso dos para ayudarse a administrar el sistema de IA de manera continua. El marco brinda a los usuarios las herramientas para administrar los riesgos de los sistemas de inteligencia synthetic implementados y para asignar recursos de administración de riesgos en función de los riesgos evaluados y priorizados, cube RMF.
Las funciones de mapear, medir y administrar se unen bajo un marco de gobierno normal, que brinda al usuario las políticas y procedimientos para implementar todos los componentes necesarios de una estrategia de mitigación de riesgos.
La RMF no tiene fuerza de ley, y probablemente nunca la tendrá. Pero sí presenta un enfoque viable para gestionar el riesgo en IA, cube Burt, quien cofundó BNH.ai en 2019 después de trabajar como Immutael principal asesor authorized de
“Parte de la ventaja del marco NIST es que es voluntario, no regulatorio”, cube Burt. datanami en una entrevista hoy. “Dicho esto, creo que va a establecer el estándar de atención”.
El estado precise de la ley estadounidense en lo que respecta a la IA es “el Salvaje Oeste”, cube Burt. No existen estándares legales claros, lo que es una preocupación tanto para las empresas que buscan adoptar la IA como para los ciudadanos que esperan no verse perjudicados por ella.
El NIST RMF tiene el potencial de convertirse en “un estándar concreto y específico” en el que todos en los EE. UU. puedan estar de acuerdo, cube Burt.
“Desde una perspectiva authorized, si las personas tienen prácticas que difieren enormemente del NIST RMF, creo que será fácil para un demandante decir ‘Oye, lo que estás haciendo es negligente o irresponsable’ o ‘¿Por qué no haces esto?’”, cube. “Este es un estándar claro, una mejor práctica clara”.
BNH.ai realiza auditorías de IA para varios clientes, y Burt prevé que el enfoque RMF se convierta en la forma estándar de realizar auditorías de IA en el futuro. Las empresas se están dando cuenta rápidamente del hecho de que necesitan auditar sus sistemas de IA para garantizar que no perjudiquen a los usuarios ni perpetúen el sesgo de manera dañina. En muchos sentidos, el carro de la IA se está adelantando al caballo.
“El mercado está adoptando estas tecnologías mucho más rápido de lo que pueden mitigar su daño”, cube Burt. “Ahí es donde entramos nosotros como bufete de abogados. Ahí es donde las regulaciones están comenzando a entrar. Ahí es donde entra el marco del NIST. Hay todo tipo de palos y zanahorias que, creo, ayudarán a corregir este desequilibrio. Pero en este momento, diría que hay un desequilibrio bastante severo entre el valor que las personas obtienen de estas herramientas y el riesgo actual que representan”.
Gran parte del riesgo se deriva de la rápida adopción de herramientas como ChatGPT y otros modelos de IA generativos y de lenguaje extenso. Dado que estos sistemas están entrenados en un corpus de datos que es casi igual a todo Web, la cantidad de prejuicios y discursos de odio contenidos en los datos de entrenamiento es potencialmente asombrosa.
“En los últimos tres meses, el gran cambio en el potencial de la IA para causar daño se relaciona con cuántas personas están usando estos sistemas”, cube Burt. “No sé los números de ChatGPT y otros, pero se están disparando. Estos sistemas están comenzando a implementarse fuera de los entornos de laboratorio de formas realmente significativas. Y ahí es donde entra la ley. Ahí es donde entra el riesgo y ahí es donde empiezan a generarse daños reales”.
La RMF de alguna manera se convertirá en el contraataque estadounidense a la Ley de IA de la Unión Europea. Propuesta por primera vez en 2021, es possible que la Ley de IA de la UE se convierta en ley este año y, con su grados de niveles de riesgo aceptable–tendrá un impacto dramático en la capacidad de las empresas para implementar sistemas de IA.
Sin embargo, existen grandes diferencias entre los dos enfoques. Para empezar, la Ley de AI tendrá fuerza de ley e impondrá multas por transgresiones. El RMF, por otro lado, es completamente voluntario e impondrá cambios al convertirse en el estándar de la industria que los abogados pueden citar en los tribunales civiles.
El RMF también es lo suficientemente normal y versatile para adaptarse al panorama de IA que cambia rápidamente, lo que también lo pone en desacuerdo con la Ley de IA, cube Burt.
“Diría que el enfoque (de la UE) tiende a ser bastante sistemático y bastante rigid, comparable al RGPD”, cube Burt. “Están tratando de abordar realmente la eversión todo a la vez. Es un esfuerzo valiente, pero el NIST RMF es mucho más versatile. Las organizaciones más pequeñas con recursos mínimos pueden aplicarlo. Las grandes organizaciones con una gran cantidad de recursos pueden aplicarlo. Diría que es mucho más un enfoque versatile basado en el riesgo y específico del contexto”.
Puede acceder a más información sobre la RMF en www.nist.gov/itl/ai-risk-management-framework.
Artículos relacionados:
La nueva ley de IA de Europa pone la ética en el centro de atención
Las organizaciones luchan contra el sesgo de la IA
Nuevo bufete de abogados aborda la responsabilidad de AI