POR CAMILA NARVAJA, MARTÍN MEDINA & FEDERICO LEDESMA
“Es un error pensar que se debe prohibir la inteligencia artificial en el ámbito académico y periodístico”, así lo sostiene el profesor de la Universidad Nacional de Córdoba e investigador del CONICET, Darío Sandrone. El especialista brindó una charla sobre el “Vínculo humano-máquina en la era de la IA. Aspectos éticos, políticos y sociales”, en Filosofía y Letras.
En la última década, el auge de la inteligencia artificial (IA) transformó diversas disciplinas, desde la medicina hasta la educación, pasando por el arte, el periodismo y las humanidades. La IA, que se refiere a la capacidad de las máquinas para realizar tareas que normalmente requieren inteligencia humana, permite la automatización de procesos, el análisis de grandes volúmenes de datos y la creación de contenido de manera más eficiente.
En el ámbito del periodismo, la IA generó tanto oportunidades como desafíos. Herramientas como los algoritmos de procesamiento de lenguaje natural permiten a los periodistas analizar rápidamente información y generar informes automatizados, lo que podría aumentar la eficiencia en la producción de noticias. Este avance también plantea preguntas críticas sobre la veracidad, la autoría y la responsabilidad en la información que se presenta al público.
En las humanidades (ciencias sociales), la incorporación de la IA invita a una reevaluación de los métodos tradicionales de investigación y análisis. Las disciplinas humanísticas se enfrentan al reto de integrar estas tecnologías sin perder de vista la esencia del pensamiento crítico y el análisis profundo que caracterizan a estas áreas del conocimiento. La intersección entre la IA y las humanidades no solo plantea cuestiones sobre cómo se produce y se consume el conocimiento, sino también sobre el papel que deben desempeñar las instituciones educativas.
¿Cuáles son hoy los principales desafíos para las carreras de humanidades frente al avance técnico-científico?
Primero hay que decir que las humanidades han tenido diferentes épocas en relación a su abordaje con la tecnología y que no todos los sectores de las humanidades y los estudios sociales han rechazado la idea de indagar en las nuevas tecnologías, sino que hay muchos sectores que se han acercado y que han intentado abordarlo.
Hoy me parece que lo fundamental es pensar que hay que realizar buenas preguntas, es decir pensar dónde están los verdaderos problemas que pueden traer las inteligencias artificiales y no rechazarla en bloque, sino pensar ¿cómo se inserta en la sociedad?, ¿en qué prácticas?, ¿cómo se reciben?, ¿cómo se usan?, ¿cómo se diseñan?, ¿quiénes lo diseñan?, ¿para qué lo diseñan?, y entonces ahí ya se complica bastante la cuestión de la inteligencia artificial.
No es “la inteligencia artificial”, sino las inteligencias artificiales distribuidas y difundidas en una sociedad, lo cual nos implica justamente pensar el vínculo no de “el humano con la inteligencia artificial”, sino de los humanos en diferentes sectores sociales, diferentes sectores económicos, para diferentes usos y diferentes diseños. Entonces, tanto las ciencias humanas como las ciencias sociales deben abordar y además hacerlo de manera no exclusiva, es decir, relacionarse con otras disciplinas, por ejemplo las humanidades relacionarse con la sociología, con la ciencia de la comunicación, con la ciencia de la información, con la programación, porque de esa manera podés tener una idea más precisa de cuál es tu objeto de indagación.
¿Qué rol puede y debe cumplir la universidad en la formación del pensamiento crítico sobre la inteligencia artificial?
Hace unos meses, salió una carta firmada por un montón de empresarios y académicos, entre los que estaba, por ejemplo, Elon Musk, que apenas salió el CHAP-GPT proponen privar o prohibir , el desarrollo de inteligencia artificial a ese nivel durante 6 meses. En ese momento sale otra carta de una organización no gubernamental alemana que se dedica a hacer la inteligencia artificial de manera abierta y colaborativa donde dice que “Es un error pensar que se debe prohibir la inteligencia artificial por parte de las corporaciones como una solución a evitar los peligros sociales de la inteligencia artificial”. Que más bien lo que habría que hacer es permitir que los municipios, las provincias, los estados, las universidades públicas desarrollen sus propias inteligencias artificiales porque de esa manera es más fácil identificar los errores, las fallas y los peligros de la inteligencia artificial que si simplemente prohibir que los privados lo hagan de manera abrupta.
Entonces me parece que no deberíamos tener solamente un rol de la universidad pública de controlar y criticar el desarrollo de las inteligencias artificiales en los sectores privados, sino producirlo también, porque producirlo con otro paradigma, desde lo público, con utilizaciones o con fines que quizás no sea rentable para el sector privado, pero que podría desarrollarse para la comunidad o para nuestra sociedad.
¿Cree que el uso de las IA puede poner en crisis los criterios de veracidad, autoría y responsabilidad como en cuanto al periodismo? y ¿Qué papel debería tener la carrera por ejemplo de comunicación para enfrentar alguno de estos desafíos que pudiera llegar a haber en un futuro?
El criterio de autoría es algo que entra en jaque antes que, con la tecnología de la inteligencia artificial, con la tecnología digital, que no es necesariamente lo mismo. En el momento que una copia se puede pegar y copiar de manera tan fácil, fluidamente, a través de tecnologías digitales, la idea de original y copia empieza ya a complicarse o a deteriorarse.
Lo que agrega además la inteligencia artificial, es la posibilidad de producir algo no solamente copiarlo sino producirlo de manera generativa, algo que no existía, sino que existe a partir de eso. Pero lo podes hacer al estilo que vos propones.
Por ejemplo podes pedirle a una inteligencia artificial que te saque una nota o una columna sobre un tema con determinados parámetros, cómo lo haría tal columnista, cómo lo haría tal otro. Y en ese sentido, quizá uno de los requisitos que podríamos pedir, no al periodismo o a la comunicación, sino a las regulaciones en general,estoy pensando en alguna ley o alguna regulación particular, sea que en casos de que algo sea producido por una inteligencia artificial, haya una inscripción específica que diga, este texto fue como una especie de “copyright humano”, pero si en tantas obras se pone este texto, tal cosa, ¿Qué costaría agregarle una inscripción?
Justamente no es muere o no la autoría, pero sí empieza a entrar por ciertas derivaciones que la hacen difusa, que la hacen confusa y que pueden sobre todo confundir al lector. Yo puedo querer leer una obra, a mí me puede dar lo mismo querer leer una obra escrita por una máquina, de la misma manera que me da lo mismo sentarme a esta silla que posiblemente la fabricó una máquina y no a una silla que la fabricó un humano. Y quizás no me importe, como no me importa dónde me siento ahora, una discusión que se daba en el siglo XIX. Había toda una discusión sobre si las máquinas iban a poder fabricar muebles o vajillas como las fabrican los humanos. Y finalmente hoy hubo un cambio cultural y ni nos fijamos. Quizá en el futuro entremos a nuestras casas, pongamos la radio y hay una canción y nos preguntemos si la hizo un cantante o una inteligencia artificial, o abramos un diario y nos preguntamos si la nota la hizo un periodista humano o una inteligencia artificial.
Quizá eso pase en los próximos 30 años, pero por el momento creo que tendría que haber una inscripción que advierta de cuándo se está usando y cuando no para evitar el engaño al lector sobre todo.


