Summit 2025
Definir la autoría de las obras, otro reto de la IA
Actualmente es difícil identificar qué texto fue escrito por una tecnología o un humano: Helena Gómez, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas
En los contenidos generados por inteligencia artificial (IA), como pueden ser textos, imágenes o audios, queda pendiente la tarea de redefinir el concepto de autoría, establecieron académicos de la UNAM en el encuentro AI Summit 2025.
En la reunión organizada por el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la Universidad, y las empresas OpenAI y Fintual, se abordó el tema de “Retos en la autoría de contenidos generados por IA”.
Helena Gómez Adorno, del IIMAS, explicó que en la actualidad resulta difícil identificar qué texto fue escrito por esa tecnología o por un humano. “Antes había análisis de autoría; cuando escribimos tenemos ‘huellas de estilo’, como el uso de comas, signos de puntuación o elecciones léxicas (palabras que usamos)”.
Desde hace tiempo ha habido métodos de atribución de autoría o análisis de estilo de escritura basados en estilometría y, posteriormente, en técnicas como machine learning o deep learning: no obstante, muchas de esas técnicas hoy ya no funcionan, señaló la especialista.
En el ámbito académico, consideró, hay mucha preocupación en torno al uso de este tipo de tecnología para generar textos y “queremos saber si esto favorece o no el pensamiento crítico, qué problemas puede tener en la educación”, y otros asuntos relacionados con la evaluación y mitigación de contenido generado por IA.
Para identificar textos generados por esa tecnología, se entrena un modelo de clasificación: se extraen las características de estilo para tratar de identificar ciertos patrones lingüísticos. “Pero cada vez que OpenAI lanza un nuevo modelo, tiene un estilo diferente y los patrones anteriores ya no funcionan y hay que volver a hacer el entrenamiento. Por eso, es muy difícil mantener un modelo actualizado y que pueda identificar cualquier IA”.
Para enfrentar ese fenómeno, sostuvo Gómez Adorno, no hay una sola solución, sino muchos enfoques. Lo que se requiere es que desde edades tempranas se inculque el uso de estos modelos del lenguaje desde el punto de vista ético y pedagógico, sin que eso afecte a la enseñanza y los procesos cognitivos, y para formar profesionales y humanos funcionales en la sociedad.
Modelos de redes neuronales
Jorge Pérez González, de la Unidad Yucatán del IIMAS, refirió que en la actualidad tenemos IA generativa basada en modelos de redes neuronales que ayudan a producir nuevas imágenes. Esto ha facilitado la creación de modelos arquitectónicos, diseños para la industria de la moda, etcétera. “Ha sido muy útil en diferentes contextos”.
En ese proceso intervienen cuatro actores principales: los desarrolladores, es decir, computólogos, matemáticos, actuarios, dedicados a diseñar algoritmos de IA generativa; los generadores de datasets; los desarrolladores que llevan los algoritmos a aplicaciones; y los usuarios que escriben los comandos para generar una imagen.
En ese caso, expuso hay que preguntarse quién de ellos es el autor principal. En lugares como Estados Unidos y Europa, un algoritmo de IA no puede ser autor único de una creación; “tiene que venir de la mano de la creatividad humana”, aclaró en la sesión moderada por Katya Rodríguez Vázquez, también del IIMAS.
Hoy, muchas imágenes son generadas mediante algoritmos de IA, pero éstos también se usan para detectar si aquellas son fake o no. “Estamos llegando a un circulo vicioso de contenido generado por redes neuronales y verificado por redes neuronales. Por esto, es importante que haya supervisión humana”, recalcó.
Fernanda López Escobedo, de la Escuela Nacional de Ciencias Forenses, dijo que el desarrollo de sintetizadores de voz ha sido positivo; por ejemplo, se ha logrado imitar dialectos o emociones. Pero también tiene su lado negativo: las voces fake, producidas por IA, para cometer delitos, como fraudes telefónicos, o diseminar noticias falsas.
La académica mencionó que se hace comparación forense de voz cuando “tenemos que determinar justamente si una voz dubitada, aquella que no sabemos a quién pertenece, es la de un sospechoso, a la cual llamamos indubitada”.
No obstante, hoy se presenta un reto extra: determinar primero si la voz dubitada es creada por IA o es humana. Los forenses tenemos ese reto y cuando logramos hacer la distinción, entonces comenzamos con el proceso de comparación de voz, describió.
Otro desafío es ubicar lo que no es tan imitable; hay características lingüísticas como la duración de las vocales, o la relajación de palabras al final de una oración, que seguramente la IA logrará copiar, pero que hoy son lo que permitirá, desde el punto de vista forense, determinar si una voz es artificial o no, finalizó.