Reducir y explicar a BERT. Una nueva técnica de IA verde mejora la eficiencia de los modelos de lenguaje Noticia

Un equipo de investigadores de la Universidad de Granada ha desarrollado una innovadora metodología para la compresión de modelos de lenguaje basados en BERT. El enfoque, denominado Persistent BERT Compression and Explainability (PBCE), utiliza homología persistente para identificar y eliminar neuronas redundantes, logrando una reducción del tamaño del modelo de hasta un 47% en BERT Base y un 42% en BERT Large sin afectar significativamente la precisión de las tareas de procesamiento del lenguaje natural (NLP).