Uso responsable de la Inteligencia Artificial

19 abril, 2024

El enorme potencial de la inteligencia artificial generativa (GAI) es ahora reconocido en todos los sectores, al igual que los desafíos y riesgos que deben abordarse de manera responsable y ética al implementarla. Con esto en mente, se ha creado este estudio como una guía que incluye recomendaciones, análisis en profundidad de las herramientas disponibles en el mercado, y casos de uso y mejores prácticas en el sector público y privado. El estudio es fruto del trabajo del grupo de trabajo Cotec, coordinado por Repsol y Tecnatom, en el que participaron más de 40 representantes de las organizaciones miembros de la Fundación, entre ellas investigadoras de nuestro instituto DaSCI.
Este artículo explora el tema de la inteligencia artificial y los modelos de lenguaje a gran escala (LLM), explicando qué son y en qué se diferencian de otras formas de inteligencia artificial. También describe cómo funciona IAG, qué ventajas ofrece sobre otros sistemas de diálogo basados ​​en GLM y qué precauciones se deben tomar al utilizarlo. Por otro lado, incluye una comparativa de los proveedores más importantes de estas herramientas y da consejos sobre cuándo es apropiado utilizar software comercial o de código abierto. Finalmente, se describen los perfiles de la organización en función del caso de uso propuesto: adaptador, usuario o desarrollador.
La publicación identifica seis aspectos clave de la implementación de IAG: identificar casos de uso, evaluar la preparación empresarial, construir un ecosistema de socios y proveedores, gestionar riesgos, comprender los modelos financieros y saber cómo escalar y gestionar los casos de uso.
A lo largo de seis meses de reuniones del grupo de trabajo, se identificaron casos de éxito incluidos en el documento en diversos campos: entretenimiento, educación, salud, marketing, atención al cliente, fabricación y tecnologías de la información o derecho, entre otros.
Entre las propuestas formuladas en el documento se encuentra el establecimiento de una gobernanza sólida en varias etapas del ciclo de vida de desarrollo de IAG. “En cualquier desarrollo en el que implementemos soluciones de este tipo, debemos considerar las implicaciones éticas y sociales de esta tecnología y reconocer que mantener la privacidad o seguridad de los datos que utilizamos es importante”, afirman los autores.
También destacan la importancia de “garantizar que los sistemas IAG implementados se utilicen de manera responsable y no contribuyan a la discriminación, la desigualdad o la degradación ambiental, ya que estos sistemas resultan en un consumo intensivo de recursos”.

El informe fue presentado en febrero con la presencia en la clausura del director general de Digitalización e IA del Ministerio de Transformacion Digital y Función Pública, Salvador Estevan, que en su intervención anunció la intención de generar un marco de sandbox que «ayude a generar guías que permitan a las pymes y empresas en general abordar la implantación de la IA con las mayores garantías y de la forma más eficiente posible».

Podéis descargar el texo en este enlace.