El Comité Europeo de Protección de Datos (CEPD) ha aprobado un dictamen sobre el uso de datos personales en el desarrollo de modelos de inteligencia artificial (IA). Este documento aborda aspectos clave como el anonimato de los modelos, el uso del interés legítimo como base jurídica y las implicaciones del tratamiento ilegal de datos. El CEPD busca garantizar que la innovación en IA se realice de manera ética y conforme al Reglamento General de Protección de Datos (RGPD). Además, se establecen criterios para evaluar la expectativa razonable de los usuarios respecto al uso de sus datos.
El Comité Europeo de Protección de Datos (CEPD) ha emitido un dictamen que aborda el uso de datos personales en el desarrollo y la implementación de modelos de inteligencia artificial (IA). Este documento, aprobado recientemente, se centra en tres aspectos clave: la anonimización de los modelos de IA, el uso del interés legítimo como base jurídica y las implicaciones del tratamiento ilegal de datos personales.
Solicitado por la Autoridad Irlandesa de Protección de Datos, el dictamen busca establecer una armonización normativa a nivel europeo. Para ello, el CEPD organizó un evento con partes interesadas y mantuvo diálogos con la Oficina de IA de la UE, reconociendo la importancia de regular tecnologías que impactan significativamente en la sociedad.
En relación al anonimato, el dictamen establece que las autoridades deben evaluar cada caso para determinar si un modelo puede considerarse anónimo. Para ello, es fundamental que sea poco probable identificar a las personas cuyos datos fueron utilizados y extraer información personal mediante consultas. Además, se proporciona una lista no exhaustiva de métodos para demostrar esta condición.
interés legítimo, se ofrecen pautas generales que las autoridades deben considerar al evaluar su idoneidad como base jurídica para el tratamiento de datos en modelos de IA. Una prueba de tres pasos es sugerida para ayudar en esta evaluación, destacando ejemplos prácticos como agentes conversacionales y aplicaciones en ciberseguridad.El dictamen también incluye criterios para que las autoridades evalúen si los individuos pueden esperar ciertos usos de sus datos personales. Entre estos criterios se encuentran la disponibilidad pública de los datos, la naturaleza de la relación entre el individuo y el responsable del tratamiento, así como el contexto y la fuente de recolección.
Si tras realizar una prueba de sopesamiento se determina que un tratamiento podría tener efectos negativos sobre las personas, se sugieren medidas mitigadoras. Estas pueden incluir soluciones técnicas o facilitar a los individuos el ejercicio de sus derechos y aumentar la transparencia del proceso.
Finalmente, el dictamen advierte que desarrollar un modelo de IA utilizando datuos personales tratados ilegalmente podría comprometer su legalidad, a menos que dicho modelo haya sido adecuadamente anonimizado. Con esto en mente, se busca proporcionar orientaciones claras ante la diversidad y rápida evolución de los modelos de IA.
Además, el CEPD está trabajando en directrices más específicas que aborden temas como el raspado web, buscando adaptarse a los desafíos emergentes en este ámbito tecnológico.
Nota para los editores:
*Un dictamen conforme al artículo 64, apartado 2, aborda cuestiones generales o tiene efectos en más de un Estado miembro.
El dictamen del Comité Europeo de Protección de Datos (CEPD) aborda el uso de datos personales en el desarrollo e implementación de modelos de inteligencia artificial (IA), evaluando aspectos como el anonimato, el interés legítimo y la legalidad del tratamiento de datos.
El dictamen examina cuándo y cómo pueden considerarse anónimos los modelos de IA, si se puede utilizar el interés legítimo como base jurídica para su desarrollo, y qué ocurre si se utilizan datos personales tratados ilegalmente.
Las APD deben evaluar caso por caso si un modelo de IA es anónimo, considerando si es poco probable identificar a las personas cuyos datos fueron utilizados y si es posible extraer esos datos del modelo.
El dictamen proporciona consideraciones generales para que las APD evalúen si el interés legítimo es una base adecuada para tratar datos personales, incluyendo una prueba de tres pasos para ayudar en esta evaluación.
Si un modelo ha sido desarrollado utilizando datos personales tratados ilegalmente, esto podría afectar su legalidad a menos que haya sido debidamente anonimizado.
El dictamen incluye ejemplos de medidas atenuantes que pueden ser técnicas o relacionadas con facilitar a las personas el ejercicio de sus derechos o aumentar la transparencia.