Projectes de recerca competitius finançats per entitats externes
Desaprendizaje automático eficiente con garantías de privacidad
Acrònim
CLEARING-IT
Títol projecte
Desaprendizaje automático eficiente con garantías de privacidad
Referència externa
PID2024-157271NB-I00
Descripció/abstract
En los últimos años, hemos sido testigos de un salto exponencial en el campo de la inteligencia artificial. Las redes neuronales para el aprendizaje automático se han beneficiado enormemente de la gran mejora en la capacidad de procesamiento y de la disponibilidad de grandes volúmenes de datos de entrenamiento. Más recientemente, los modelos fundamentales, como los grandes modelos de lenguaje (LLM) o los modelos de difusión (DM), han supuesto una mejora aún más vertiginosa. Los modelos fundamentales basan su éxito en el hecho de haber sido entrenados con ingentes cantidades de datos de todo tipo y condición, incluidos datos personales, potencialmente sensibles o sujetos a derechos de autor. La capacidad de estos modelos para memorizar esas grandes cantidades de datos los hace vulnerables a ataques que permiten recuperar con exactitud los datos personales o sujetos a derechos de autor con los que han sido entrenados. En ambos casos, tanto los individuos (que pueden invocar el derecho al olvido recogido en la GDPR), como los propietarios de los datos sujetos a derechos de autor, pueden exigir la eliminación de esa información. Igualmente, si el modelo ha sido entrenado con datos sesgados o con contenido nocivo o directamente erróneo, ofrecerá conclusiones y conceptos incorrectos, sesgados o nocivos. Si queremos que la inteligencia artificial sea confiable y centrada en el ser humano, también es necesario poder eliminar estos conceptos o conocimientos del modelo. La solución más sencilla, pero también la más costosa a nivel computacional, sería eliminar los datos requeridos del conjunto de datos de entrenamiento y reentrenar el modelo desde cero. Como esta solución no es factible desde el punto de vista económico (el entrenamiento de un gran modelo es extremadamente costoso), los métodos de desaprendizaje automático (machine unlearning) buscan eliminar conceptos y datos del modelo sin tener que reentrenarlo desde cero. Sin embargo, los métodos actuales no son capaces de ofrecer un desaprendizaje con garantías a un coste de computación y almacenamiento reducido y escalable. El objetivo principal de CLEARING-IT es desarrollar métodos de desaprendizaje automático eficientes y con garantías de privacidad, tanto para modelos convencionales como para modelos fundamentales y tanto para datos tabulares como datos no estructurados. Para ello, proponemos combinar mecanismos de desaprendizaje con las garantías de privacidad que ofrecen los modelos de privacidad como la k-anonimidad o la privacidad diferencial. El desarrollo de estos nuevos métodos de desaprendizaje supondrá un gran avance en la dirección de alcanzar el objetivo de desarrollar una inteligencia artificial confiable y centrada en el ser humano (trustworthy AI) y constituirá una manera efectiva de implementar el derecho al olvido recogido en la GDPR en el ámbito de la inteligencia artificial y el aprendizaje automático.
Entitat finançadora
MINISTERIO DE CIENCIA, INNOVACION Y UNIVERSIDADES
Import concedit
159.250,00 €
Logos
Convocatòria
Ayudas a «Proyectos de Generación de Conocimiento» y a actuaciones para la formación de personal investigador predoctoral asociadas a dichos proyectos, en el marco del Plan Estatal de Investigación Científica, Técnica y de Innovación 2024-2027. Año 2024
Data inici
01-09-2025
Data fi
31-08-2028
Departament/IP
Enginyeria Informàtica i Matemàtiques/DOMINGO FERRER, JOSEP; SÁNCHEZ RUENES, DAVID