Diari Més

Tecnología

Un estudio de la URV alerta de la dificultad en borrar datos sensibles en IA

La investigación evidencia las limitaciones del desaprendizaje en inteligencia artificial y alerta de que hay que desarrollar nuevos métodos que faciliten la eliminación de datos

Los investigadores han analizado la efectividad de las técnicas de desaprendizaje en XatGPT, Mixtral, Bard o Copilot.

Los investigadores han analizado la efectividad de las técnicas de desaprendizaje en XatGPT, Mixtral, Bard o Copilot.URV

Publicado por

Creado:

Actualizado:

Un estudio de la Universidad Rovira i Virgili (URV) evidencia las limitaciones del desaprendizaje en modelos de inteligencia artificial y advierte de la necesidad de desarrollar nuevos métodos que permitan eliminar con garantías datos sensibles o personales.

Los investigadores han analizado la efectividad de las técnicas de desaprendizaje en modelos de lenguaje extensos como XatGPT, Mixtral, Bard o Copilot, que tienen como objetivo, eliminar información personal, incorrecta o discriminatoria de los sistemas, y concluyen que no existe una fórmula que asegure el olvido total de los datos, excepto volver a entrenar al modelo desde cero sin la información que se desea eliminar.

Según los autores del estudio, eso entra en conflicto con el derecho al olvido, recogido en el Reglamento General de Protección de Datos de la Unión Europea, que obliga a suprimir los datos personales si así lo solicita el interesado.

Les grandes compañías que gestionan a estos modelos de IA entrenan sus sistemas con enormes volúmenes de información para mejorar su rendimiento, cosa que dificulta la identificación y eliminación selectiva de ciertos datos.

Los investigadores distinguen dos vías para conseguir el desaprendizaje: la primera consiste en reentrenar completamente el modelo, pero implica un coste computacional elevado; mientras que la segunda, más eficiente, busca eliminar sólo partes concretas de conocimiento sin rehacer el sistema desde cero, aunque no ofrece garantías llenas.

Además, los investigadores apuntan que no se conoce con precisión como se almacena la información en los modelos, ni siquiera por parte de quién los desarrollan.

El estudio concluye que será necesario diseñar nuevas formas de entrenar a los modelos de IA pensante desde el inicio en el desaprendizaje, como fragmentar datos de manera que se puedan suprimir partes concretas del conocimiento sin comprometer la totalidad del modelo ni su funcionalidad.

tracking