Avanza irrupción de la inteligencia artificial generativa

¿Quién debe regular y emitir una ley de una tecnología que es transfronteriza? Debe buscarse una alianza entre academia, gobierno, industria y sociedad: Pablo Pruneda Gross, del IIJ

La inteligencia artificial (IA) se faculta para las causas más venturosas de la humanidad, pero también para la creación de sistemas autónomos y de armamento, por lo que la especie humana se encuentra en peligro; como cuando se descubrió la energía atómica. De ahí que su regulación sea un tema que no podemos dejar de considerar, planteó Pablo Pruneda Gross.

El coordinador de la línea de investigación “Derecho e Inteligencia Artificial” del Instituto de Investigaciones Jurídicas (IIJ), aseguró que si a la IA se le permite tener acceso a mecanismos que dañen o atenten contra la vida puede tener la capacidad de decidir entre que viva o no un ser humano.

“Lo que hemos visto desde 2018 es una irrupción tecnológica que ha venido a violentar positiva y negativamente; tenemos mecanismos de reconocimiento de voz y facial, algoritmos que revisan la moderación de contenidos en una red social: primero me clasifican a ver qué intereses tengo y luego me mandan la información que saben que nos puede interesar. Ahora entendemos por qué no dejamos de ver la pantalla”, explicó.

ChatGPT

Al intervenir en el Seminario Derecho digital y tecnologías disruptivas, el investigador se refirió a la inteligencia artificial generativa, como el ChatGPT (www.openai.com), herramienta que “es una especie de chat como WhatsApp, sólo que en lugar de hablar con una persona, se conversa con una entidad artificial; no es una buscador de fuentes, sino un generador de contenido que trabaja con frases cercanas a la realidad; por eso asombra”.

En el Aula Centenario del IIJ, Pruneda Gross mencionó que es una entidad que nos recuerda la primera vez que usamos el internet y cómo nos asombramos de lo que ocurre en nuestra computadora. “Eso mismo está pasando con este chat, se programa mediante la emulación de las redes neuronales; ya se creó la versión más moderna (GPT4) a través de machine learning que es el deep learning”.

ChatGPT busca a partir de lo que encuentra y crea contenidos: le das imágenes y realiza un diseño, un archivo o lectura en PDF y le solicitas que formule un resumen con los puntos fundamentales, o la creación de una página de internet y la hace.

“Con GPT4 se viene un replanteamiento de la inteligencia general artificial, la cual tiene capacidades similares a las de un ser humano. Se trata de un algoritmo que programa algoritmos y si lo que programa lo hace mejor que el ser humano rápidamente habrá un crecimiento exponencial de la tecnología y nosotros nos vamos a quedar viendo”, destacó.

Pablo Pruneda mencionó que la IA generativa tiene capacidades similares a las de un ser humano como lo es el Chat- GPT4 y advirtió: “tiene muchas ventajas y enseñanzas, pero puede ser que estemos abriendo una caja de Pandora, puede ser una tecnología tan perniciosa que extinga a la raza humana; de ese tamaño es el problema y ahora sí hay indicios en la tecnología que están presentes para afirmarlo. ¿Qué tenemos que hacer? Regular”.

Y es que, en aras de ganar la carrera tecnológica, formuladores y creadores están tomando atajos y cometiendo errores, por lo que tiene que haber un regulador, pero, ¿quién debe regular?, ¿quién va a emitir una ley de una tecnología que es transfronteriza?, ¿qué soberanía aplica?

Riesgos

El experto mencionó algunos riesgos de no regular o legislar las prácticas de la IA generativa. “Puede ser alienada a ciertos valores e intereses humanos; además de la generación de contenido escrito, imagen y video falso o malicioso que podría utilizarse en fraudes o suplantación de personas e identidades; puede ser una influencia en la democracia hacia la polarización; incidir en la protección a la imagen e intimidad; se convertiría en un riesgo en la interacción con menores de edad”.

¿Se acuerdan de una imagen reciente del Papa Francisco I en la que porta una chamarra larga blanca exhibida en redes sociales digitales? Es una fotografía hecha por ChatGPT, ejemplificó.

Ante eso, Pablo Pruneda preguntó: “¿Quién debe evaluar esto?, ¿el gobierno?, ¿sólo éste o se lo dejamos a las empresas? Hay que generar un discurso conjunto entre academia, gobierno, empresa, industria y sociedad civil. En este momento, como dijo el periodista estadunidense Ezra Klein, “es mejor equivocarnos por sobrerregular, que por subregular”.

Estuvieron también Mauricio Padrón Innamorato e Israel Santos Flores, secretario académico e investigador del IIJ, respectivamente, así como Alicia Edith Trejo Jiménez, doctoranda de dicho Instituto, y María Cristina Múzquiz Fragoso, directora de Docencia en Tecnologías de Información y Comunicación de la Dirección General de Computo y de Tecnologías de Información y Comunicación.

También podría gustarte