Ver todos los programas

Regulación y protección de datos en los sistemas de Inteligencia Artificial.

.

Gonzalo Navarro Ruiz, Director de Regulatorio Financiero en Ontier, firma global de abogados, nos ha acompañado en el episodio 325 de Data is in the Air. 

Con él, hemos hablado sobre Regulación en materia de Datos e Inteligencia Artificial, con especial foco en el impacto que, normativas como el Reglamento Europeo de IA, tienen sobre las empresas.

Regulación Inteligencia Artificial
José A. González, Gonzalo Navarro Ruiz, Esther Morales y Laura Blanco

Anteproyecto de Gobernanza de la Inteligencia Artificial en España

El principal objetivo de este anteproyecto es replicar y adaptar la legislación española al Reglamento Europeo de Inteligencia Artificial, aprobado el pasado año. El anteproyecto se centra en dos aspectos:

  • Definir el papel que van a tener organismos como la Agencia Española de Supervisión de IA

Será la encargada de supervisar todos los sistemas de Inteligencia Artificial, especialmente de aquellos que se catalogan como prohibidos o de alto riesgo, y responsable de aplicar las correspondientes sanciones a las empresas que incumplan las previsiones regulatorias correspondientes. 

Dentro de los sistemas de IA prohibidos encontramos, entre otros, aquellos que pretenden manipular el comportamiento en general, como es el caso de sistemas destinados a catalogar a la población, es decir, a asignar puntuaciones que puedan impactar negativamente en su día a día.  

Por ejemplo, en la obtención de cualquier ayuda pública o el acceso a determinados servicios.  

  • Creación de sandbox regulatorios

Los sandbox regulatorios son bancos de pruebas que aseguran que el desarrollo de estos sistemas de IA se haga con todas las garantías y en beneficio de la sociedad.

“El approach que tiene la Unión Europea respecto al desarrollo deestos sistemas, es que deben hacerlo para complementar al ser humano, para aumentar sus capacidades.”

Preocupaciones de las autoridades en materia de protección de datos

Gonzalo nos explica, que las principales preocupaciones de las autoridades se relacionan con los sistemas de Deep learning y su dificultad para realizar una trazabilidad de dónde han obtenido sus datos y para qué los usan.

Estos sistemas, conocidos como “Black box”, no permiten conocer cómo un sistema de IA ha llegado a un determinado resultado. Estos sistemas aprenden por sí solos, por lo que ese aprendizaje hace que sea complicado determinar cómo han llegado a estos resultados.  

Otra de las preocupaciones se relaciona con el uso de datos personales de los sistemas de IA y el riesgo de que haya un acceso no autorizado, o de que se empleen para una finalidad distinta a la que estaba prevista. 

Utilización de datos anónimos para el entrenamiento de modelos de Inteligencia Artificial 

Es necesario evaluar cada caso para ver si se están tratando datos personales y, si esos son anónimos.  

Nuestro invitado nos explica que, si se consigue justificar que se ha conseguido la completa anonimización del dato personal y, por lo tanto, no se puede saber quién está detrás de ese dato, no aplicaría el Reglamento General de Protección de Datos. Sin embargo, demostrarlo es difícil, pues para justificar que un dato es anónimo, hay que probar que no se puede llegar a él de forma sencilla, tanto en términos de tecnología como de coste.  

Los sectores altamente regulados requieren garantías adicionales al emplear la IA

En el caso de sectores altamente regulados, como el FinTech, que cuentan con su propia normativa y en el que las entidades se relacionan con consumidores, se exigen una serie de garantías adicionales al emplear sistemas de Inteligencia Artificial. La finalidad es proteger al consumidor.  

Por ejemplo, para conceder productos financieros, como un seguro de vida, existen una serie de estudios previos. Si se van a emplean herramientas de IA para el tratamiento masivo de datos, será necesario establecer garantías adicionales. 

“Hay que generar confianza. La IA es muy buena, yo estoy convencido de ello, siempre que se apliquen ciertas garantías para proteger al ciudadano, generar confianza en los sistemas y aportar un valor añadido.” 

Principales desafíos en el tratamiento masivo de datos en la era de la IA 

Gonzalo Navarro nos explica que el desafío fundamental, es que el dato que se recopila sea utilizado para la finalidad para la que se ha captado. En relación a la IA, que se entrena con millones de datos, es difícil garantizar que todos ellos se utilizan para la finalidad para la que fueron captados. 

El Reglamento General de Protección de Datos, habla del principio de minimización de los datos personales, que implica recoger los datos imprescindibles para la finalidad que persigue.

Además, importante supervisar estrictamente los modelos de entrenamiento de Inteligencia Artificial para velar que se cumple con estos principios de minimización y que los datos se utilizan para la finalidad para la que se han captado.

Los datos personales más vulnerables, aquellos con capacidad de afectar a los derechos fundamentales de las personas 

En relación a los datos personales más vulnerables, Gonzalo destaca datos de creencias religiosas, salud, orientación sexual, convicciones políticas o biométricos.

Los datos biométricos, se pueden obtener, por ejemplo, por reconocimiento facial. Una de las prácticas prohibidas, tanto por el reglamento europeo como por el Anteproyecto de Ley, es la posibilidad de captar indiscriminadamente y sin ninguna finalidad, datos aleatorios de imágenes a través de bancos públicos para identificar a las personas. Solo se permite el reconocimiento facial en tiempo real, en espacios públicos, siempre que eso esté justificado por razones de seguridad nacional y que además esté autorizado por un juez de lo contencioso-administrativo.

Evaluación concreta para las IAs con una incidencia especial en el marco de protección de datos 

En este sentido, Gonzalo nos habla de las Evaluaciones de Impactos relativas a la Protección de Datos. Cuando se va a desarrollar un sistema de IA que utiliza datos personales, se debe hacer una evaluación previa con la finalidad de mitigar posibles riesgos asociados. En esta evaluación, se deben contemplar aspectos como:

  • Qué tipo de datos se van a utilizar para entrenar los modelos.
  • Si va a haber datos personales, en qué medida.
  • Si los datos son sensibles.
  • Si impactará en colectivos vulnerable o en los derechos fundamentales. 

Regulación vs Innovación en Inteligencia Artificial

Lograr un equilibrio entre regulación e innovación es fundamental. La regulación es necesaria, pues la Inteligencia Artificial abre muchas oportunidades, pero también pueden conllevar riesgos, que se deben limitar con la regulación. De esta forma, se podrá conseguir que estos sistemas de IA complementen al ser humano y generen nuevas oportunidades.

En este sentido, nuestro invitado considera que el Reglamento de IA es muy positivo, ya que al ser general, principalmente regula y clasifica sus usos.

Transforma tu negocio con una estrategia de datos efectiva

En Berocam, creemos firmemente en el poder de los datos para impulsar la evolución de las organizaciones. Nuestro enfoque se centra en acompañar a las empresas en la adopción de la analítica avanzada y la Inteligencia Artificial, asegurando que cada solución se adapte a las necesidades específicas del negocio. La transformación digital es un proceso continuo, y contar con un partner estratégico puede marcar la diferencia.

Puedes escuchar el programa entero haciendo clic arriba.

Volver arriba

compártelo.

te puede interesar.