La Ley de IA de la UE podría ayudar a llegar a la IA Confiable, según la Fundación Mozilla


Un año después de la presentación del primer borrador, los detalles sobre la Ley de IA de la UE seguían siendo escasos y esporádicos. A pesar de que este marco regulatorio aún no está finalizado, o mejor dicho, precisamente por eso, ahora es el momento de aprender más sobre él.

Previamente, Cubrimos algunos datos clave sobre la Ley de IA de la UE: a quién se aplica, cuándo se promulgará y de qué se trata. Nos embarcamos en esta exploración junto con el director ejecutivo de la Fundación Mozilla, Mark Surman, y el investigador sénior de políticas Maximilian Gahntz.

Como compartió Surman, El enfoque de Mozilla en la IA surgió casi al mismo tiempo que la Ley de IA de la UE también comenzó su ciclo de vida, alrededor de 2019. Mozilla ha trabajado con personas de todo el mundo para trazar una teoría sobre cómo hacer que la IA sea más confiable, centrándose en dos resultados a largo plazo: agencia y responsabilidad. .

Hoy retomamos la conversación con Surman y Gahntz. Discutimos las recomendaciones de Mozilla para mejorar la Ley de IA de la UE y cómo las personas pueden involucrarse, y la Teoría del cambio de IA de Mozilla.

La Ley de IA de la UE es un trabajo en progreso

Se acerca la Ley de IA de la UE, ya que se espera que entre en vigencia alrededor de 2025, y su impacto en la IA podría ser comparable al impacto que tuvo el RGPD en la privacidad de los datos.

La Ley de IA de la UE se aplica a los usuarios y proveedores de sistemas de IA ubicados dentro de la UE, proveedores establecidos fuera de la UE que son la fuente de la comercialización o puesta en servicio de un sistema de IA dentro de la UE, y proveedores y usuarios de sistemas de IA establecidos fuera de la UE cuando los resultados generados por el sistema se utilicen en la UE.

Su enfoque se basa en una categorización de 4 niveles de los sistemas de IA de acuerdo con el riesgo percibido que plantean: los sistemas de riesgo inaceptable están completamente prohibidos (aunque se aplican algunas excepciones), los sistemas de alto riesgo están sujetos a reglas de trazabilidad, transparencia y solidez, los sistemas de bajo -los sistemas de riesgo requieren transparencia por parte del proveedor y sistemas de mínimo riesgo para los que no se establecen requisitos.

En este punto, el Parlamento de la UE está desarrollando su posición, considerando los aportes que recibe de los comités designados y de terceros. Una vez que el Parlamento de la UE haya consolidado lo que entiende bajo el término IA confiable, presentará sus concepts sobre cómo cambiar el borrador inicial. Seguirá una ronda closing de negociaciones entre el Parlamento, la Comisión y los Estados miembros, y será entonces cuando se aprobará la Ley de IA de la UE.

Para influir en la dirección de la Ley de IA de la UE, ahora es el momento de actuar. Como se indica en el documento de Mozilla de 2020 Creación de IA confiable, la IA tiene un inmenso potencial para mejorar nuestra calidad de vida. Pero integrar IA en las plataformas y productos que usamos todos los días puede comprometer igualmente nuestra seguridad y privacidad. (…) A menos que se tomen medidas críticas para que estos sistemas sean más confiables, la IA corre el riesgo de profundizar las desigualdades existentes.

Mozilla cree que se necesita una regulación efectiva y con visión de futuro si queremos que la IA sea más confiable. Por eso acogió con satisfacción las ambiciones de la Comisión Europea en su Libro Blanco sobre Inteligencia Synthetic hace dos años. La posición de Mozilla es que la Ley de IA de la UE es un paso en la dirección correcta, pero también deja espacio para mejoras.

Las mejoras sugeridas por Mozilla han sido presentado en una publicación de weblog. Se centran en tres puntos:

  1. Garantizar la rendición de cuentas
  2. Creando transparencia sistémica
  3. Dar a las personas y las comunidades una voz más fuerte.

Los 3 puntos focales

La rendición de cuentas se trata realmente de averiguar quién debe ser responsable de qué a lo largo de la cadena de suministro de IA, como explicó Gahntz. Los riesgos deben abordarse donde surgen; ya sea en la etapa de diseño técnico o en la etapa de implementación, agregó.

La Ley de IA de la UE impondría la mayoría de las obligaciones a quienes desarrollan y comercializan sistemas de IA de alto riesgo en su forma precise. Si bien existen buenas razones para ello, Gahntz cree que los riesgos asociados con un sistema de IA también dependen de su propósito exacto y del contexto en el que se utiliza. Quién implementa el sistema y cuál es el entorno organizacional de implementación que podría verse afectado por el uso del sistema: todas estas son preguntas relevantes.

Para contextualizar esto, consideremos el caso de un modelo de lenguaje grande como GPT-3. Podría usarse para resumir una historia corta (riesgo bajo) o para evaluar ensayos de estudiantes (riesgo alto). Las posibles consecuencias aquí difieren enormemente, y los implementadores deben rendir cuentas por la forma en que usan los sistemas de inteligencia synthetic, pero sin introducir obligaciones que no puedan cumplir de manera efectiva, argumenta Mozilla.

La transparencia sistémica va más allá de la transparencia orientada al usuario. Si bien es bueno que los usuarios sepan cuándo están interactuando con un sistema de IA, lo que también necesitamos a un nivel superior es que los periodistas, investigadores y reguladores puedan analizar los sistemas y cómo estos afectan a las personas y las comunidades sobre el terreno. dijo Gahntz.

El borrador de la Ley de IA de la UE incluye un mecanismo potencialmente poderoso para garantizar la transparencia sistémica: una base de datos pública para sistemas de IA de alto riesgo, creada y mantenida por la Comisión, donde los desarrolladores se registran y brindan información sobre estos sistemas antes de que puedan implementarse.

La recomendación de Mozilla aquí es triple. En primer lugar, este mecanismo se amplía para aplicarse a todos los implementadores de sistemas de IA de alto riesgo. En segundo lugar, también informa información adicional, como descripciones del diseño, la lógica normal y el rendimiento de un sistema de IA. En tercer lugar, que incluya información sobre incidentes graves y fallos de funcionamiento, que los desarrolladores ya tendrían que informar a los reguladores nacionales en virtud de la Ley de IA.

shift-industry-norms-header2x-80-original.jpg

El compromiso de Mozilla con la Ley de IA de la UE está en línea con su Teoría del cambio de IA, que incluye cambiar las normas de la industria, desarrollar nuevas tecnologías y productos, generar demanda y crear regulaciones e incentivos.

Fundación Mozilla

Dar a las personas y las comunidades una voz más fuerte es algo que falta en el borrador authentic de la Ley de IA de la UE, dijo Gahntz. Tal como está ahora, solo los reguladores de la UE podrían responsabilizar a las empresas por los impactos de los productos y servicios habilitados para IA.

Sin embargo, Mozilla cree que también es basic que las personas puedan hacer que las empresas rindan cuentas. Además, otras organizaciones, como las organizaciones de protección al consumidor o los sindicatos, deben tener la capacidad de presentar quejas en nombre de las personas o del interés público.

Por lo tanto, Mozilla apoya una propuesta para agregar un mecanismo de quejas de abajo hacia arriba para que las personas y grupos de personas afectadas presenten quejas formales ante las autoridades nacionales de supervisión como un único punto de contacto en cada estado miembro de la UE.

Mozilla también señala que hay varias formas adicionales en las que se puede fortalecer la Ley de IA antes de que se adopte. Por ejemplo, preparar el mecanismo para el futuro para designar lo que constituye IA de alto riesgo y garantizar que se considere una variedad de perspectivas al poner en funcionamiento los requisitos que los sistemas de IA de alto riesgo deberán cumplir.

Involucrarse en la teoría del cambio de la IA

Puede estar de acuerdo con las recomendaciones de Mozilla y desea brindar su apoyo. Es posible que desee agregar a ellos, o puede que desee proponer su propio conjunto de recomendaciones. Sin embargo, como señaló la gente de Mozilla, el proceso de involucrarse es un poco como liderar su propia campaña: no existe tal cosa como “este es el formulario que debe completar”.

“La forma de involucrarse es realmente el proceso democrático regular. Tiene funcionarios electos que analizan estas preguntas, también tiene personas dentro del servicio público que hacen estas preguntas, y luego tiene una industria en el público que tiene un debate sobre estas preguntas.

Creo que hay un mecanismo specific; ciertamente, personas como nosotros van a opinar con recomendaciones específicas. Y al opinar con nosotros, ayuda a amplificarlos.

Pero creo que la conversación democrática abierta: estar en público, hacer aliados y conectarse con personas con cuyas concepts está de acuerdo, luchar y sacar a la superficie los temas difíciles. Eso es lo que marcará la diferencia, y ciertamente es donde estamos enfocados. “, dijo Surman.

En este punto, de lo que realmente se trata es de influir en la opinión pública y la opinión de las personas en posición de tomar decisiones, según Gahntz. Eso significa parlamentarios, funcionarios de los estados miembros de la UE y funcionarios dentro de la Comisión Europea, agregó.

A un nivel más básico, lo que la gente puede hacer es lo mismo de siempre, opinó Gahntz. Puedes escribir a tu native eurodiputado; puedes estar activo en las redes sociales e intentar amplificar las voces con las que estás de acuerdo; puede firmar peticiones, and so on. Mozilla tiene una larga historia de participación en la configuración de políticas públicas.

“Las cuestiones de agencia y responsabilidad son nuestro enfoque, y creemos que la Ley de IA de la UE es un muy buen telón de fondo en el que pueden tener un efecto dominó international para impulsar las cosas en la dirección correcta en estos temas”, dijo Surman.

La agencia y la rendición de cuentas son resultados deseados a largo plazo en La teoría del cambio de la IA de Mozilla, desarrollado en 2019 al pasar 12 meses hablando con expertos, leyendo y probando campañas y proyectos con temas de IA. Esta exploración perfeccionó el pensamiento de Mozilla sobre la IA confiable al reforzar varias áreas de desafío, incluidos los monopolios y la centralización, el gobierno y la privacidad de los datos, el sesgo y la discriminación, y la transparencia y la responsabilidad.

La teoría del cambio de IA de Mozilla identifica una serie de resultados a corto plazo (1 a 3 años), agrupados en 4 resultados a mediano plazo (3 a 5 años): cambiar las normas de la industria, desarrollar nuevas tecnologías y productos, generar demanda y crear regulaciones y incentivos El impacto previsto a largo plazo sería “un mundo de IA (donde) la tecnología de consumo enriquece la vida de los seres humanos”.

“La regulación es un habilitador, pero sin personas que construyan diferentes tecnologías de una manera diferente y sin personas que quieran usar esa tecnología, la ley es un pedazo de papel”, como lo expresó Surman.

si miramos el precedente del RGPDa veces hemos obtenido nuevas empresas realmente interesantes y nuevos productos de software program que tienen en cuenta la privacidad, y a veces hemos recibido molestos recordatorios emergentes sobre la recopilación de sus datos y cookies, y así sucesivamente, agregó.

“Asegurarse de que una ley como esta genere un cambio actual y un valor actual para las personas es un asunto complicado. Por eso, en este momento, el enfoque debe estar en cuáles son las cosas prácticas que la industria y los desarrolladores e implementadores pueden hacer para hacer que la IA sea más confiable. Necesitamos asegurarnos de que las regulaciones realmente reflejen e incentiven ese tipo de acción y no solo sentarse en la nube”, concluyó Surman.

Related Articles

Presentamos Apple Enterprise Join – Apple

11 de enero de 2023 ACTUALIZAR Presentamos Apple Enterprise Join ...

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Same Category

spot_img

Stay in touch!

Follow our Instagram