Diari Més

Tecnologia

Un estudi de la URV alerta de la dificultat d'esborrar dades sensibles en IA

La recerca evidencia les limitacions del desaprenentatge en intel·ligència artificial i alerta que cal desenvolupar nous mètodes que facilitin l’eliminació de dades

Els investigadors han analitzat l'efectivitat de les tècniques de desaprenentatge a XatGPT, Mixtral, Bard o Copilot.

Els investigadors han analitzat l'efectivitat de les tècniques de desaprenentatge a XatGPT, Mixtral, Bard o Copilot.URV

Publicat per

Creat:

Actualitzat:

Etiquetes:

Un estudi de la Universitat Rovira i Virgili (URV) evidencia les limitacions del desaprenentatge en models d'intel·ligència artificial i adverteix de la necessitat de desenvolupar nous mètodes que permetin eliminar amb garanties dades sensibles o personals.

Els investigadors han analitzat l'efectivitat de les tècniques de desaprenentatge en models de llenguatge extensos com XatGPT, Mixtral, Bard o Copilot, que tenen com a objectiu eliminar informació personal, incorrecta o discriminatòria dels sistemes, i conclouen que no existeix una fórmula que asseguri l'oblit total de les dades, tret de tornar a entrenar el model des de zero sense la informació que es desitja eliminar.

Segons els autors de l'estudi, això entra en conflicte amb el dret a l'oblit, recollit en el Reglament General de Protecció de Dades de la Unió Europea, que obliga a suprimir les dades personals si així ho sol·licita l'interessat.

Les grans companyies que gestionen aquests models d'IA entrenen els seus sistemes amb enormes volums d'informació per millorar el seu rendiment, cosa que dificulta la identificació i eliminació selectiva de certes dades.

Els investigadors distingeixen dues vies per aconseguir el desaprenentatge: la primera consisteix a reentrenar completament el model, però implica un cost computacional elevat; mentre que la segona, més eficient, busca eliminar només parts concretes de coneixement sense refer el sistema des de zero, tot i que no ofereix garanties plenes.

A més, els investigadors apunten que no es coneix amb precisió com s'emmagatzema la informació en els models, ni tan sols per part de qui els desenvolupen.

L'estudi conclou que serà necessari dissenyar noves formes d'entrenar els models d'IA pensant des de l'inici en el desaprenentatge, com fragmentar dades de manera que es puguin suprimir parts concretes del coneixement sense comprometre la totalitat del model ni la seva funcionalitat.

tracking