Peligrosidad de la IA, depende de sus fines

Los riesgos pueden ser tan altos como la propia capacidad del ser humano de hacerse daño a sí mismo, advirtió el catedrático de la Facultad de Ciencias de la UNAM, Claudio Nebbia Rubio

El nivel de peligrosidad que puede traer consigo el desarrollo de la inteligencia artificial (IA) depende en gran medida de los fines para los que es creada y del uso que se le quiera dar. Los riesgos pueden ser tan altos como la propia capacidad del ser humano de hacerse daño a sí mismo, advirtió el catedrático de la Facultad de Ciencias de la UNAM, Claudio Nebbia Rubio.

Durante su participación en la mesa redonda Cazando mitos. Yo robot. ¿El desarrollo de la IA es un peligro para los humanos?, el investigador universitario comentó que en un ejercicio reciente, cuando se le preguntó a una inteligencia artificial si podía acabar con la humanidad, la respuesta fue sí, y la razón que daba era muy clara: porque ella misma se pone bajo amenaza.

De esta forma, puntualizó, si la misma humanidad usa la inteligencia artificial para ponerse en peligro, esa herramienta lo hará mucho más eficiente.

“¿La inteligencia artificial nos hará daño? Seguramente sí, porque simplemente es una herramienta que usan personas que ya lo están haciendo.”

Por otra parte, señaló que, detrás del desarrollo de la inteligencia artificial hay un tema de intereses económicos, en el que el objetivo será siempre buscar el rendimiento laboral que permita obtener mayores ganancias.

“Existe una cuestión económica muy clara en el mundo: si puedo contratar a alguien que sepa usar la inteligencia artificial y hacerme el trabajo de varios, pues lo prefiero claramente sobre la opción de contratar a muchas personas.”

Resaltó que cada vez en un mayor número de empresas y en diferentes ramas de la industria se está ejerciendo una fuerte presión para que la gente adquiera habilidades en el manejo y desarrollo de la IA, con la idea de ahorrarse presupuestos, y quienes no cuentan con esos conocimientos lamentablemente son despedidos.

El mercado se sigue revolucionando de manera acelerada, agregó, y son esas grandes empresas que cuentan con el capital económico para invertir las que están marcando la línea hacia dónde se mueven la investigación y el desarrollo en inteligencia artificial de acuerdo con sus propios intereses.

“El desarrollo de la ciencia o la tecnociencia ya no deviene de las academias, ahora lo hacen esas industrias y empresarios, como Elon Musk. Las decisiones en torno a los usos y las razones para el avance de la IA ya no vienen puramente del interés de explicarnos el mundo, sino de qué hacemos para que este producto sea cada vez más necesario.”

En este contexto, Nebbia Rubio consideró que es válido cuestionarnos si gran parte del desarrollo de la ciencia actual en torno a la IA emana de los deseos de la industria, o cuál es el papel de ésta en su progreso y la elección del camino que seguirá la investigación en este rubro.

Datos personales

Por su parte, Vladimir Lemus Yáñez, profesor de la Facultad de Ciencias y especialista en física computacional, comentó que dentro de todo el proceso de desarrollo de la inteligencia artificial, lo más perturbador no es que las máquinas empiecen a parecerse cada vez más a las personas o que eventualmente nos sustituyan en labores que resultan complicadas, sino la manera en que, a través de ellas, se han allegado de nuestros datos personales y cómo los están utilizando.

A lo que sí debemos tener miedo, subrayó, es cómo se usan nuestros datos, los cuales han obtenido a través de las máquinas que están en la parte digital de nuestro celular, tableta o computadora y los aparatos digitales que usamos, bajo la idea de que todo lo que es público es gratis.

Consideró además que es importante dejar atrás la visión catastrófica de que la IA desarrollará robots o androides que tarde o temprano nos desplazarán y desaparecerá el planeta, y cambiar el enfoque empezando a hablar de las muchas cosas positivas que se pueden realizar con estas herramientas digitales, como el plegamiento de proteínas, que es una de las cosas más complicadas de alcanzar, en términos científicos, para el tratamiento del alzhéimer.

Asimismo, opinó que lo que se requiere es que esas inteligencias se desarrollen a partir de proyectos en las universidades y organismos públicos autónomos, con el fin de apuntar hacia los problemas que realmente queremos resolver.

Experiencias subjetivas

En su momento, Enrique Soto Astorga, profesor investigador del Departamento de Matemáticas de la Facultad de Ciencias, consideró que los seres humanos seguimos construyendo y buscando máquinas cada vez más capaces para sustituir tareas que son tediosas, resolver problemas los cuales no podemos solucionar por nuestras limitantes físicas o explorar espacios a los que no podemos acceder porque no pertenecemos a ellos; por ejemplo los digitales.

Comentó que la filosofía de la mente y la ciencia cognitiva han coincidido por mucho tiempo en no poder explicar qué son las experiencias subjetivas, por lo que crear inteligencias que no son humanas, parecería un medio adecuado para realizar una aproximación al problema del intelecto humano y de la mente.

“Queremos máquinas que sean más y más capaces de resolver problemas, para aumentar nuestros alcances de exploración, de creatividad, de investigación; pero también por esta necesidad de explicarnos el mundo”, concluyó.

También podría gustarte