Sociedad

CEPD aprueba directrices para el uso responsable de datos en IA

Redacción | Jueves 19 de diciembre de 2024

El Comité Europeo de Protección de Datos (CEPD) ha aprobado un dictamen sobre el uso de datos personales en el desarrollo de modelos de inteligencia artificial (IA). Este documento aborda aspectos clave como el anonimato de los modelos, el uso del interés legítimo como base jurídica y las implicaciones del tratamiento ilegal de datos. El CEPD busca garantizar que la innovación en IA se realice de manera ética y conforme al Reglamento General de Protección de Datos (RGPD). Además, se establecen criterios para evaluar la expectativa razonable de los usuarios respecto al uso de sus datos.



El Comité Europeo de Protección de Datos (CEPD) ha emitido un dictamen que aborda el uso de datos personales en el desarrollo y la implementación de modelos de inteligencia artificial (IA). Este documento, aprobado recientemente, se centra en tres aspectos clave: la anonimización de los modelos de IA, el uso del interés legítimo como base jurídica y las implicaciones del tratamiento ilegal de datos personales.

Solicitado por la Autoridad Irlandesa de Protección de Datos, el dictamen busca establecer una armonización normativa a nivel europeo. Para ello, el CEPD organizó un evento con partes interesadas y mantuvo diálogos con la Oficina de IA de la UE, reconociendo la importancia de regular tecnologías que impactan significativamente en la sociedad.

Perspectivas sobre Anonimato e Interés Legítimo

En relación al anonimato, el dictamen establece que las autoridades deben evaluar cada caso para determinar si un modelo puede considerarse anónimo. Para ello, es fundamental que sea poco probable identificar a las personas cuyos datos fueron utilizados y extraer información personal mediante consultas. Además, se proporciona una lista no exhaustiva de métodos para demostrar esta condición.

interés legítimo, se ofrecen pautas generales que las autoridades deben considerar al evaluar su idoneidad como base jurídica para el tratamiento de datos en modelos de IA. Una prueba de tres pasos es sugerida para ayudar en esta evaluación, destacando ejemplos prácticos como agentes conversacionales y aplicaciones en ciberseguridad.

Criterios y Medidas Mitigadoras

El dictamen también incluye criterios para que las autoridades evalúen si los individuos pueden esperar ciertos usos de sus datos personales. Entre estos criterios se encuentran la disponibilidad pública de los datos, la naturaleza de la relación entre el individuo y el responsable del tratamiento, así como el contexto y la fuente de recolección.

Si tras realizar una prueba de sopesamiento se determina que un tratamiento podría tener efectos negativos sobre las personas, se sugieren medidas mitigadoras. Estas pueden incluir soluciones técnicas o facilitar a los individuos el ejercicio de sus derechos y aumentar la transparencia del proceso.

Implicaciones del Tratamiento Ilegal

Finalmente, el dictamen advierte que desarrollar un modelo de IA utilizando datuos personales tratados ilegalmente podría comprometer su legalidad, a menos que dicho modelo haya sido adecuadamente anonimizado. Con esto en mente, se busca proporcionar orientaciones claras ante la diversidad y rápida evolución de los modelos de IA.

Además, el CEPD está trabajando en directrices más específicas que aborden temas como el raspado web, buscando adaptarse a los desafíos emergentes en este ámbito tecnológico.

Nota para los editores:
*Un dictamen conforme al artículo 64, apartado 2, aborda cuestiones generales o tiene efectos en más de un Estado miembro.

Preguntas sobre la noticia

¿Qué es el dictamen del CEPD sobre los modelos de IA?

El dictamen del Comité Europeo de Protección de Datos (CEPD) aborda el uso de datos personales en el desarrollo e implementación de modelos de inteligencia artificial (IA), evaluando aspectos como el anonimato, el interés legítimo y la legalidad del tratamiento de datos.

¿Cuáles son los principales puntos que examina el dictamen?

El dictamen examina cuándo y cómo pueden considerarse anónimos los modelos de IA, si se puede utilizar el interés legítimo como base jurídica para su desarrollo, y qué ocurre si se utilizan datos personales tratados ilegalmente.

¿Qué criterios deben considerar las Autoridades de Protección de Datos (APD) sobre el anonimato?

Las APD deben evaluar caso por caso si un modelo de IA es anónimo, considerando si es poco probable identificar a las personas cuyos datos fueron utilizados y si es posible extraer esos datos del modelo.

Cómo se evalúa el interés legítimo en el tratamiento de datos para IA?

El dictamen proporciona consideraciones generales para que las APD evalúen si el interés legítimo es una base adecuada para tratar datos personales, incluyendo una prueba de tres pasos para ayudar en esta evaluación.

¿Qué sucede si se desarrolla un modelo de IA con datos tratados ilegalmente?

Si un modelo ha sido desarrollado utilizando datos personales tratados ilegalmente, esto podría afectar su legalidad a menos que haya sido debidamente anonimizado.

¿Qué medidas pueden tomarse para mitigar impactos negativos en las personas?

El dictamen incluye ejemplos de medidas atenuantes que pueden ser técnicas o relacionadas con facilitar a las personas el ejercicio de sus derechos o aumentar la transparencia.

TEMAS RELACIONADOS: