Itsitio

Privacidad en modelos de lenguaje: cómo tus datos acaban en la IA

Informações:

Sinopsis

La Inteligencia Artificial Generativa está transformando la forma en que trabajamos y nos comunicamos, pero también plantea riesgos inéditos en la protección de datos personales. En este episodio de Cybertalks, Gustavo Aldegani analiza cómo modelos como GPT pueden exponer información sensible a través de técnicas de ataque como membership inference, model inversion o reconstrucción de datos, incluso cuando se aplican procesos de limpieza o fine-tuning.Exploraremos los peligros de los datasets contaminados, la exposición involuntaria de información y los desafíos de mantener la privacidad en un ecosistema de IA cada vez más extendido. También revisaremos las principales estrategias de defensa, como la privacidad diferencial, el aprendizaje federado, el cifrado homomórfico y la purificación de predicciones, junto con los avances académicos más recientes y el rol de marcos regulatorios como el GDPR.