"Estamos ante un escenario distinto de creación de contenido, y de potencial desinformación por parte de grupos de poder o grupos que simplemente quieren desinformar o manipular a la comunidad pública".

Ana María Castillo

Chilena
Doctora en Comunicación Universidad Autónoma de Barcelona | Académica U. de Chile | Núcleo de Inteligencia Artificial, Sociedad, Información y Comunicación.

Sus áreas de investigación son la ética de la IA, economía digital, futuro del trabajo y educación de la IA. También es profesora Asistente del Instituto de Comunicación e Imagen de la Universidad de Chile y codirectora del Núcleo IA+SIC «Inteligencia Artificial, Sociedad, Información y Comunicación».

¿Cuál es el peligro de la desinformación generada por sistemas de inteligencia artificial?

No son los modelos los que generan la desinformación. Y esto es súper importante porque las estrategias de desinformación generalmente son trabajadas desde los equipos de manipulación que perfectamente podrían generar desinformación incluso sin inteligencia artificial. La desinformación se hizo desde mucho antes del uso de medios digitales y sobre todo de los modelos de inteligencia artificial.

¿Qué medidas deben tomar los periodistas y medios de medios para evitar que la inteligencia artificial sea usada para manipular la opinión pública?

La manipulación de la opinión pública viene de grupos particulares y tiene fines, no es desarrollada por la propia tecnología. Lo que podemos hacer es estar atentos como generadores de noticias, periodistas, reporteros e investigadores, sobre cuáles son los riesgos, qué es lo que tenemos que saber, conocer y poder entender cómo funcionan, cuáles son sus limitaciones y cómo podemos contrarrestar sus efectos.

Ahí es donde la educación es fundamental, y sobre todo por parte de las escuelas de periodismo, donde estamos formando el debate ético y poder también atender a lo técnico, porque son dos ramas que parece que están apareciendo muy cortamente. Uno es la posibilidad de efectivamente manejar esas tecnologías y poder identificar cuándo están siendo utilizadas, para qué. Y la otra parte, que es el debate ético: poder entender cuáles son los riesgos de la utilización de esas tecnologías. Porque lo cierto es que se nos está pidiendo cada día que las utilicemos en las salas de redacciones.

Esta es una tecnología que ya está incorporada en nuestro proceso periodístico. Estamos ante una exigencia que tensiona nuestro quehacer diario y que nos requiere cada vez más rapidez, más eficiencia y esto nos llama a utilizar estos modelos (IA), que nos facilitan ciertas tareas. Entonces, ser también conscientes de qué es lo que estamos cediendo y cómo estamos poniendo en riesgo la producción periodística, la generación de contenido y su calidad. Entonces, es el debate entre lo técnico, saber utilizar las herramientas, y también lo ético, saber hasta dónde utilizar.

¿Cómo se puede garantizar la privacidad de los datos personales de los individuos cuando se utilizan algoritmos de inteligencia artificial para recopilar y analizar información?

Esto es muy complejo porque no está asegurado. Solo por normas generales o regulaciones internacionales que no necesariamente se están aplicando en Chile. Y luego, porque dependen de cuán transparentes sean los mecanismos de recolección de datos. Entonces, poder distinguir estas distintas clases de tomografías de inteligencia artificial, y luego como estas son entrenadas o cuáles son las bases de datos con las que se han alimentado.

Y si me preguntas por el periodismo, yo digo sí. Estamos ante un escenario distinto de creación de contenido, y de potencial desinformación por parte de grupos de poder o grupos simplemente que quieren desinformar o que quieren manipular a la comunidad pública.

Y otra cosa son los desafíos éticos que están desde hace mucho tiempo impactando en diferentes niveles de la comunidad, en diferentes niveles de estado. Y que están ahí y que no van a dejar de estar. Las tecnologías van a continuar avanzando su desarrollo. Y lo que hay que hacer es intentar nivelar un poco el debate público informado, e informar a los ciudadanos.

¿Qué desafíos éticos surgen cuando se utilizan asistentes de inteligencia artificial para interactuar con el público en nombre de medios de comunicación o también periodistas?

Siempre hay riesgos en la utilización de este tipo de herramientas. Así como hay beneficios. Hay beneficios porque el público puede verse mucho más visualizado o escuchado a un nivel más íntimo. Esto sin duda es un beneficio para el público y también para la comunicación. Ahora, cuando no hay una efectiva supervisión y un efectivo entrenamiento de estos sistemas, siempre va a ocurrir que hay parte de la población que se encuentra excluida.

Por ejemplo, los asistentes de bots tienen mucha menor efectividad para voces que están en tonos distintos, como, la de los jóvenes, las de los niños, que están excluidas. Lo mismo con los idiomas. Hay asistentes de bots que funcionan mucho mejor en ciertas lenguas. En inglés sobre todo. No necesariamente en español, no necesariamente en español de Chile. Entonces, hay otro elemento. Los riesgos, que los tenemos que mencionar así, se siguen centrando en quiénes son los que quedan fuera de la utilización efectiva, correcta y plena de las tecnologías artificiales y que, no necesariamente, pueden acceder a esta tecnología porque tienen menos recursos, menos oportunidades y posibilidades.

Seguimos viendo que la capacidad de informarse más y mejor, sigue estando en manos de muy poco porcentaje de la población. Y hay otro amplio porcentaje de población que puede quedar desfavorecido respecto de la posibilidad de acceder a este tipo de tecnologías.

¿Qué pasa cuando estos mismos asistentes de IA, que interactúan con el público, se hacen pasar como periodistas o medios de comunicación?

Hoy día nos informamos, y esto lo dijo Elai Pariser hace diez años, nos informamos y hacemos burbujas informativas. Estas burbujas informativas son más hoy día y somos mucho más vulnerables que hace diez años. Porque tenemos a TikTok diciéndonos qué es lo que tenemos que ver, porque tenemos el algoritmo de Instagram de Meta y de Twitter. Entonces estamos confiando en unos algoritmos que entregan información sobre lo que queremos ver y saber. En ese sentido estamos ante el escenario donde el filtro informativo está en manos de la inteligencia artificial. Porque le damos likes a ciertas cosas, porque preferimos cierto contenido por sobre otro, porque nos informamos a través de redes sociales. Los medios tradicionales tienen menos poder, menos impacto.

Nos estamos informando a través de los filtros que nos entregan las redes sociales, aunque tengamos información a medias, porque no está completa, solo vemos los titulares. Sí esto avanza y, se genera solo un noticiero, generado por inteligencia artificial, que lo que hace es reunir, crear noticias o generar absolutamente todo el contenido, estaríamos llevando a un nivel mucho más avanzado de lo que hoy día ya estamos viviendo. Y es dejar, de nuevo voy a usar un término que es de Eric Sadin, un filósofo francés, que nos dice que estamos delegando nuestro poder decisional, y también de generación de información, a la máquina.

¿Cuál es la responsabilidad de los periodistas y medios de comunicación, en el uso de inteligencia artificial que garantice estándares éticos?

Es altísima. Primero, porque como periodistas y como medios tenemos que informar sobre la tecnología que estamos desarrollando. Este año ha sido especialmente importante en ese sentido porque se ha hablado mucho sobre inteligencia artificial. Ahora, me cuestiono también si se ha hablado desde el punto de vista que necesitamos que se hable. Soy muy crítica de los medios de comunicación en ese sentido, hemos hablado de si los robots se van a tomar el mundo, si los robots nos van a superar y nos van a transformar en esclavos humanos. Se ha hablado desde ese punto de vista que no contribuye al debate. Hay que hablar de manera informada sobre las reales posibilidades de la inteligencia artificial y sobre las cosas que sí están ocurriendo en el mundo, como por ejemplo la automatización de todas las decisiones en organismos públicos.

En esas discusiones, por ejemplo, Chile es uno de los líderes en la discusión sobre regulación de inteligencia artificial en América Latina. Para poder ponernos de acuerdo y decir cuáles van a ser los marcos éticos. Eso es un desafío ético para nuestra profesión. Saber cuáles son las conversaciones a las que hay que atender. Y, sobre cuáles son las decisiones que tenemos que tomar periodísticamente en el debate interno, es importantísimo saber qué herramientas de inteligencia artificial vamos a utilizar, cómo, hasta dónde y con qué marco.

Por Javiera Díaz, Sebastián Fuenzalida y Valentina Moraga

MÁS VOCES

David Caswell | Arquitecto AI

"Probablemente no habrá menos periodistas, y creo incluso que existe la posibilidad de que haya más periodistas debido a la IA, porque permitirá una idea mucho más amplia de lo que es el periodismo".

Ana Paula Valacco | Journalism AI

"Este cambio ha marcado una nueva era en la forma en que se aborda la producción de contenido, permitiendo una participación más amplia y diversa en el proceso editorial".

Urbano García Alonso | RTVE

"A medida que se va democratizando esta tecnología, van siendo necesarios nuevos perfiles y nuevas tareas. Yo he definido hasta 40 nuevas categorías profesionales que habitualmente no vemos en los medios tradicionales".

Oswaldo Aguilar | Radio Fórmula de México

"Las inteligencias artificiales no van a destruir trabajos, sino que van a abrir oportunidades laborales nuevas para las personas que sepan usarlas, para las personas que sepan aprovechar su potencial y conducirlo hacia el futuro".

Mar Tomico | Newtral España

"El uso de inteligencia artificial ha traído muchas ventajas (...), pero su desarrollo supone varios retos, ya que son tareas complejas que conllevan muchos recursos hasta poder alcanzar un nivel de precisión que sea útil para los fact checkers".

Chany Guyot | RED/ACCIÓN Argentina >

"Esta tecnología todavía está bastante inmadura para reemplazar enteramente el trabajo de un periodista. En todo caso sí puede hoy asistir para hacer su trabajo mejor, más rápido con más volumen y demás".

Ismael Nafría | Periodista español

"No veo un futuro negativo ni pesimista con la inteligencia artificial, pero sí que exige conocerlo. Entenderlo bien, hablarlo, trabajarlo, experimentar y ser muy respetuoso con el usuario al final".

Julieta Bugacoff | LatFem Argentina

"Si bien ChatGPT y otras inteligencias artificiales, son herramientas extremadamente útiles a la hora de verificar datos, hay que tener presente que tienen falencias y que el trabajo humano, en ese sentido, no se puede reemplazar de ninguna forma".

Tomás Dodds | Universidad de Leiden

"La forma en la que la IA transforme al periodismo va a depender del grado de libertad que los periodistas tengan para adaptar, integrar y moldear estas tecnologías a sus propios valores e ideales" .

Manu Chatlani | Agencia Jelly

"La actualidad nos sumerge en una revolución equiparable a la electricidad, tal como lo expresó una vez el ex presidente Obama. Y esa revolución, es la inteligencia artificial".

Ingrid Bachmann | Académica UC

"Es muy complicado determinar cuánto contenido rondando allá afuera ha sido generado o alterado a través de inteligencia artificial. Pero además no se transparenta, ya que nadie te dice que está usando estas herramientas".

Juan Carlos Camus | Académico UDP

"Somos la industria que en los últimos 30 años ha sido la más afectada por los cambios tecnológicos, somos nosotros los que hemos utilizado y adoptado la mayor cantidad de tecnología que cualquier otro".

Fabián Padilla | Fast Check

"Va a llegar un punto en el cual va a ser muy difícil que la gente logre distinguir qué es cierto y qué no. El mundo de posibilidades que se abre para crear desinformación es infinito".

Ana María Castillo | Académica UCHILE

"Estamos ante un escenario distinto de creación de contenido, y de potencial desinformación por parte de grupos de poder o grupos que simplemente quieren desinformar o manipular a la comunidad pública".

Daniel Silva | Periodista

"Tú le podrías pedir a la inteligencia artificial que, por ejemplo, te escriba una nota. Eso hoy, con las herramientas que hay, lo puedes hacer, pero es un problema. Porque en el fondo la IA no sabe discriminar lo que es información verídica de la que no".

Cristián Vásquez | Cenia

"Hay que hacerles entender a las personas que la IA es una herramienta que está a nuestro servicio y uso, y no nos va a reemplazar como tal, sino que la persona que nos podría reemplazar es quien maneje esta herramienta de mejor manera".

ChatGPT | OpenAI

"La IA puede heredar sesgos de los datos con los que se entrena, lo que plantea desafíos éticos y la posibilidad de generar contenido sesgado (…). Sin embargo, la inteligencia artificial en el campo del periodismo no es intrínsecamente buena ni mala".

Tomás González Velasco | Extend

"Actualmente, el acceso a herramientas de inteligencia artificial es infinito, lo que obliga a la comunicación estratégica a definir con claridad qué es lo que ofrece y que no se puede reemplazar con un chat".

Cambia, todo cambia

Contenidos
Joaquín Acevedo, Paulette Acuña, Ignacia Arriagada, Fernanda Ávila, Antonia Benavente, Nicol Calfiqueo, Valeria Cid, María Diaz, Javiera Diaz, Patricio Escobar, Sebastián Fuenzalida, Matías Hermosilla, Constanza López, Valentina Moraga, Rocío Oyarce, Micol Parra, Valeria Pozo, Damaris Rueda, Alexandra Tabilo y Tomás Urra.

Imágenes y Video
Codioful en Unplash | Google DeepMind en Pexels

Este especial fue desarrollado por el curso "Experiencia Vergara 240", dirigido por el profesor Fernando Morales Brunet.