AECINE y Egeda organizan un debate sobre el código deontológico en IA para cine y audiovisual
La industria cinematográfica busca establecer límites y criterios para un uso responsable de la Inteligencia Artificial
En el marco de la 28ª edición del Festival de Málaga, la Asociación Estatal de Productoras de Cine Independiente (AECINE), con el apoyo de EGEDA, ha organizado una mesa de debate sobre la necesidad de un código deontológico que marque las bases de un uso ético y responsable de la inteligencia artificial en el sector audiovisual. El encuentro, al que ha asistido Juan Antonio Vigar, director del Festival de Málaga, se ha celebrado este domingo 16 de marzo en el Museo Carmen Thyssen Málaga.
Se han abordado cuestiones clave como la propiedad intelectual, la gestión de derechos y las implicaciones éticas del uso de la IA en la producción audiovisual. La mesa ha tenido como moderadora a María Luisa Gutiérrez, presidenta de AECINE y CEO de Bowfinger International Pictures; con la participación de expertos como Ignasi Camós, Director General del ICAA; Clara Ruipérez de Azcárate, Directora de Estrategia Jurídica de Contenidos de Telefónica; y Eduardo Jiménez, socio fundador de Free Your Mind y productor de Quexito Films.
Juan Antonio Vigar ha dado comienzo al coloquio señalando la importancia de debates como estos, para conocer “cómo nos va a incidir la inteligencia artificial en el futuro a corto y medio plazo y qué claves nos da para que el sector sea capaz de reinventarse una vez más”. Por su parte, Rafael Sánchez, director de Relaciones Institucionales y Comunicación de Egeda, ha recalcado cómo “la IA abre unas posibilidades en las que creemos que los productores necesitan cierta regulación”.
Eduardo Jiménez ha puesto el ejemplo de un spot que crearon con catorce inteligencias artificiales diferentes, un proyecto que de manera tradicional habría costado “más de un millón de euros, pero de esta forma costó quince veces menos”. Sin embargo, ha señalado que “el gran reto que tenemos por delante a nivel técnico es tener una IA que sea capaz de entender lo que hace”.
Sobre si la IA puede acabar con puestos de empleo, los tres ponentes lo tienen claro, tal y como ha añadido Ignasi Camós: “Las revoluciones vinculadas a procesos de creación destruyen y crean empleo”. Todos han asegurado que la IA no viene para quitar empleos, porque siempre habrá falta personas especializadas en su funcionamiento.
Clara Ruipérez, al igual que Jiménez, ha señalado que la IA es perfecta para los trabajos tediosos: “Ahora lo que hay que hacer es humanizarla, y para eso hacen falta nuevos profesionales”. Asimismo, en palabras de Eduardo Jiménez: “Los profesionales no quieren hacer trabajos repetitivos, son artistas digitales y quieren retos”.
Ignasi Camós ha adelantado que desde el ICAA van a exigir declaraciones de responsabilidad sobre el uso íntegro de Inteligencia Artificial para los certificados de culturalidad: “De haberse utilizado modelos de IA, tendrán que especificarlos y hacerse responsables de haber cumplido la normativa vigente”. En el caso de los guionistas, además, “se usará una herramienta para analizar cuánto del guión se ha hecho con esta tecnología”.
En varios países de Europa, ya se exige a los creadores que especifiquen en un cuestionario qué IA han utilizado, cuáles son los motivos de uso y si se han respetado los derechos de autor y de propiedad intelectual. Los ponentes han explicado que “aquí vamos a utilizar la declaración responsable, porque nos parece más operativo”.
Para Clara Ruipérez el control debe centrarse más en la parte de la educación de la IA: “han salido una serie de inteligencias artificiales generativas que se han entrenado sobre muchísimos datos quedando desprotegida la propiedad intelectual”. Y ha añadido: “Como la regulación no va a llegar rápido y los productores necesitamos utilizarla, hay que saber qué podemos hacer para que todo el mundo esté tranquilo y no nos vinculen con el hecho de que esas IAs se hayan entrenando vulnerando derechos de autor”, ha añadido Clara Ruipérez.
El coloquio ha dejado claro que la Inteligencia Artificial es una herramienta con un enorme potencial para la industria audiovisual, pero su implementación debe ir acompañada de una regulación clara y un uso ético que proteja los derechos de los creadores. El desarrollo de un código deontológico es un paso esencial para garantizar que la IA no solo optimice procesos, sino que también respete la integridad artística y laboral del sector.
Compartir