Reducir y explicar a BERT. Una nueva técnica de IA verde mejora la eficiencia de los modelos de lenguaje Noticia
Un equipo de investigadores de la Universidad de Granada ha desarrollado una innovadora metodología para la compresión de modelos de lenguaje basados en BERT. El enfoque, denominado Persistent BERT Compression and Explainability (PBCE), utiliza homología persistente para identificar y eliminar neuronas redundantes, logrando una reducción del tamaño del modelo de hasta un 47% en BERT […]