Un equipo científico de Google DeepMind ha desarrollado una herramienta capaz de añadir marcas de agua a textos generados por grandes modelos lingüísticos, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente.
Los grandes modelos lingüísticos (LLM, en sus siglas en inglés) son un tipo de inteligencia artificial (IA) muy utilizados que pueden generar texto para chatbots, ayuda a la escritura y otros fines. Sin embargo, puede resultar difícil identificar y atribuir el contenido producido por esta IA a una fuente concreta, lo que pone en entredicho la fiabilidad de la información.
En imágenes, vídeos o audios es relativamente sencillo insertar marcas de agua, pero en los textos esto supone un reto: cualquier alteración en las palabras puede afectar el significado y la calidad del contenido.
También puede leer: EEUU evalúa trocear Google en un histórico caso antimonopolio
Se han propuesto marcas de agua como solución, pero no se han implantado a gran escala, reseñó EFE.
Ahora, en un artículo publicado en la revista Nature, los investigadores Sumanth Dathathri y Pushmeet Kohli, de Google DeepMind, describen una estrategia que utiliza un novedoso algoritmo de muestreo para aplicar marcas de agua al texto generado por IA, conocida como SynthID-Text.
La herramienta utiliza este algoritmo «para sesgar sutilmente la elección de palabras del LLM, insertando una firma que pueda ser reconocida por el software de detección asociado», explican los investigadores.
La detectabilidad de estas marcas de agua se evaluó con varios modelos disponibles públicamente y SynthID-Text mostró una eficacia mejorada en comparación con los enfoques existentes, asegura un resumen de la revista.
Según los científicos, el uso de SynthID-Text tiene además un impacto insignificante en la potencia de cálculo necesaria para ejecutar el LLM, lo que reduce la barrera para su implementación.
Con información de EFE.