A la izquierda, Carmen Peñafiel, catedrática de Periodismo de la UPV y secretaria general del colegio vasco de Periodistas

A la izquierda, Carmen Peñafiel, catedrática de Periodismo de la UPV y secretaria general del colegio vasco de Periodistas Cedida

Sociedad EGIA EDO GEZURRA

Carmen Peñafiel: "La IA puede mejorar el mundo en el que vivimos o empeorarlo"

Publicada
Actualizada

Noticias relacionadas

La inteligencia artificial (IA) se ha convertido en una de las tecnologías más transformadoras del siglo XXI. No solo ha cambiado la manera en la que los usuarios interactúan con el mundo digital, sino también la forma en la que reciben la información. Hoy en día, la IA es una herramienta cotidiana en la vida de mucha gente, sin embargo, surgen riesgos, como los bulos o fake news.

Carmen Peñafiel, catedrática de Periodismo de la Universidad del País Vasco (UPV/EHU), presidenta de la Asociación española de Investigación de la comunicación y secretaria general del Colegio Vasco de Periodistas, ha querido dar unos tintes a este diario acerca del riesgo, detección y prevención de la desinformación en un contexto en el que, según la Unión Europea (UE), el 86% de los europeos piensan que la rápida propagación de la desinformación es un problema importante para la democracia.

- Carmen, en primer lugar, ¿qué se entiende por IA? 

- La IA es una inteligencia desarrollada en máquinas capaz de imitar en algunos casos las funcionalidades de la inteligencia humana. Nació hace muchos años, pero el boom vino a partir de 2021, que es cuando todo el mundo empezó a hablar de inteligencia artificial. 

José Antonio Lozano, catedrático del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad del País Vasco (UPV/EHU) y director Científico del Basque Center for Applied Mathematics (BCAM), define la IA como “una mezcla entre ciencia, filosofía y mucha tecnología”. 

Nos encontramos en un cambio de paradigma en la actualidad. Estamos viviendo la quinta revolución industrial.

- ¿La quinta revolución industrial?

- La IA ha pasado de estar en manos de especialistas a acompañar a la ciudadanía en general en su rutina diaria. Afecta a todos los ámbitos de la sociedad y tiene un papel central en la transformación digital. Por ello, ha pasado a ser ya una prioridad para la UE. Este junio publicó un Reglamento en relación a la IA. 

A la inteligencia artificial le sigue faltando el sentido común que tenemos los humanos. Aún no hemos trasladado a los sistemas el conocimiento que hemos adquirido a lo largo de la historia los humanos. Por estos riesgos se pone a la IA en el punto de mira. 

- ¿Qué riesgos existen?

- El mal uso de la inteligencia artificial supone una de las principales amenazas que existen en la difusión de información. Así nacen los bulos. Existen muchos “laboratorios” de fake news en países fuera y dentro de la UE que generan noticias falsas y luego las diseminan a través de las redes sociales. Durante la pandemia recibimos muchas noticias falsas. 

Son procesos complejos en los que la tecnología a través de archivos de video, imagen y voz manipulados por inteligencia artificial, logra que algo o alguien parezca real. En este sentido se cometen delitos relacionados con la imagen, el fraude y el honor

Por ejemplo, en campañas electorales, video, imagen y voz se manipulan y facilitan esa desinformación. Así se propagan noticias falsas, desinformación, desacreditación a personas, etcétera. Lo suelen hacer para influir en las votaciones y en las tomas de decisiones en general, y esto es muy peligroso. Incluso para llevar a cabo venganzas, manipular mercados financieros y desestabilizar relaciones internacionales. 

- Pero hacer eso es muy poco ético...

- Sí. La IA no debe regularse únicamente desde un enfoque tecnológico, sino también desde una perspectiva ética. Tanto la regulación como la ética son pilares fundamentales para garantizar una evolución tecnológica segura y beneficiosa para la humanidad.

Como se ha dicho siempre, la tecnología no es ni buena ni mala por sí misma; su impacto depende de cómo la utilicemos. En el caso de la inteligencia artificial, puede ayudarnos a mejorar el mundo en el que vivimos o, por el contrario, contribuir a empeorarlo. 

- Y, ¿cómo puede el usuario detectar que no se trata de una manipulación?

- Muchas veces es fácil detectarlas, por ejemplo, en la forma de mirar: con la inteligencia artificial, las figuras siempre mantienen la mirada fija, pero los humanos necesitamos parpadear. Si no lo hacen, es una señal de alerta. Se puede apreciar en los rostros, la cara, los gestos… En el video en general. 

Si no es suficiente, también se puede acudir a plataformas de verificación para que nos quiten esa sospecha como Maldita.es, malditobulo o neutral que verifican las informaciones falsas. 

Por último, cuando un lector note algo sospechoso, lo mejor es contrastarlo con medios de confianza. Es fundamental verificar si han publicado la misma información. Todos confiamos en medios tradicionales que cuentan con trayectoria, calidad y profesionales competentes. Debemos acudir a estas fuentes para obtener más información sobre la noticia. Si aparece en ningún otro lugar, es probable que sea un engaño, ya que hay personas que hilan muy fino.

- Como sociedad, ¿cómo podemos hacer frente a los bulos y a las fake news

- En primer lugar, tanto los poderes públicos, como la sociedad en su conjunto, tenemos que extremar precauciones para evitar la desinformación. Tenemos que ser cautos y, en el momento en el que sospechamos de que nos está llegando un bulo o noticia falsa, no compartirlo en nuestro entorno digital.

En segundo lugar, para hacer frente a los malos usos de la inteligencia artificial necesitamos una buena formación. Hay que preparar a las nuevas generaciones a un entorno laboral donde la tecnología y la actividad profesional convergen.

En tercer lugar, se podría replicar en los municipios lo que se hizo con el aprendizaje de internet para las personas mayores, creando aulas formativas para educar a la población. En la sociedad actual, es necesario contar con un servicio de asesoramiento que ayude a identificar noticias falsas.

- El Colegio Vasco de Periodistas ha publicado este junio junto a La Diócesis de Bilbao el  ‘Decálogo para el uso ético de la inteligencia artificial en los medios de comunicación’. ¿De qué estamos hablando? 

- En el decálogo se recoge una serie de principios para asegurar que la aplicación de la inteligencia artificial por parte de los profesionales de la comunicación garantice el derecho a la información de la ciudadanía. La evolución tecnológica se tiene que hacer de una manera ética, priorizando siempre la protección de la información.

Algunos de los puntos señalados son la transparencia, la calidad y verificación o la investigación por parte del profesional de la comunicación. 

- En el decálogo se habla de “limitaciones”. ¿A qué se refieren? 

- El periodista argentino experto en tecnología digital, Álvaro Liuzzi, habla del “riesgo de los sesgos”. Él explica que las plataformas a las que accedemos para trabajar con inteligencia artificial han sido configuradas de una determinada manera para ofrecernos servicios. 

Estos sesgos pueden generar discriminación. Por ejemplo, la selección de noticias: ¿por qué nos muestra unas y no otras? Estos algoritmos pueden priorizar ciertos contenidos y ocultar otros, influenciando en nuestra percepción. Es importante cuestionar y analizar cómo se toman estas decisiones para evitar la manipulación o la desinformación.

Del riesgo de los sesgos también se habla en el reglamento europeo, que dice que las máquinas no deben ser entrenadas con este tipo de sesgos, pero, la realidad es que existen, lo que ha acarreado muchos problemas.

- Por último, ¿cómo imagina que la inteligencia artificial seguirá configurando el panorama digitial?

- Nadie se atreve a predecir cómo evolucionará esta tecnología. En el mundo digital, especialmente con la inteligencia artificial, podemos especular sobre los próximos 12 meses, pero los expertos en telecomunicaciones afirman que prever cinco años es imposible. Antes, los avances que tardaban cien años ahora ocurren en cinco.

Aunque es difícil prever el cambio, filósofos coinciden en que la inteligencia artificial no es solo un fenómeno tecnológico, sino también un punto de inflexión existencial. No solo implica avances en hardware y software, sino también en nuestra comprensión de la conciencia, identidad y relación con el universo. Este concepto nos está desafiando a reconsiderar qué significa ser humano en un mundo donde las fronteras de la inteligencia, creatividad y vida están en constante expansión.