China publicó una propuesta de requisitos de seguridad para las empresas que ofrecen servicios basados en inteligencia artificial generativa, incluida una lista negra de fuentes que no pueden utilizarse para entrenar modelos de IA.
La IA generativa, popularizada por el éxito del chatbot ChatGPT de OpenAI, aprende a realizar acciones a partir de datos anteriores y crea nuevos contenidos, como texto o imágenes, basándose en ese entrenamiento.
Los requisitos fueron publicados el miércoles por el Comité Nacional de Normalización de la Seguridad de la Información, del que forman parte funcionarios de la Administración del Ciberespacio de China, el Ministerio de Industria y Tecnología de la Información y la policía.
También puede leer:
La red social X ha eliminado cientos de cuentas afiliadas a Hamás
El comité propone realizar una evaluación de seguridad de cada contenido utilizado para entrenar modelos de inteligencia artificial generativa disponible al público, y poner en la lista negra aquellos que contengan «más de un 5% de información ilegal y perjudicial».
Dicha información incluye «apología del terrorismo» o la violencia, así como «derrocar el sistema socialista», «dañar la imagen del país» y «socavar la unidad nacional y la estabilidad social». El proyecto de normas también establece que la información censurada en Internet en China no debe utilizarse para entrenar modelos.
Su publicación se produce poco más de un mes después de que los reguladores permitieron a varias empresas tecnológicas chinas, entre ellas el gigante de los motores de búsqueda Baidu, lanzar al público sus chatbots basados en IA generativa.
Desde abril, la CAC ha manifestado su deseo de que las empresas presenten evaluaciones de seguridad a las autoridades antes de lanzar al público servicios basados en IA generativa.
En julio, el regulador del ciberespacio publicó una serie de medidas para regular estos servicios que, según los analistas, eran mucho menos onerosas que las esbozadas en el borrador de abril.
El proyecto de requisitos de seguridad publicado el miércoles exige a las organizaciones que entrenan estos modelos de IA que soliciten el consentimiento de las personas cuya información personal, incluidos los datos biométricos, se utiliza con fines de entrenamiento.
También establecen directrices detalladas sobre cómo evitar violaciones de la propiedad intelectual.
Los países de todo el mundo se esfuerzan por poner límites a esta tecnología. China considera que la IA es un campo en el que quiere rivalizar con Estados Unidos, y se ha propuesto convertirse en líder mundial en este campo para 2030.
Reuters