Austral Comunicación

ISSN-L 2313-9129

ISSN-E 2313-9137

Volumen 14, número 1, 2025

e01403

El tecnopesimismo en la prensa escrita española en el debate público sobre el impacto social de la Inteligencia Artificial

Cristian González-Arias*

https://orcid.org/0000-0001-7689-6948

Instituto de Literatura y Ciencias del Lenguaje, Pontificia Universidad Católica de Valparaíso. Valparaíso, Chile.

Facultad de Ciencias de la Comunicación, Universidad de Santiago de Compostela. Santiago de Compostela, España.

cristian.gonzalez@pucv.cl

Xosé López-García

https://orcid.org/0000-0002-1873-8260

Facultad de Ciencias de la Comunicación, Universidad de Santiago de Compostela. Santiago de Compostela, España.

xose.lopez.garcia@usc.gal

Fecha de finalización: 24 de abril de 2024.

Recibido: 24 de abril de 2024

Aceptado: 14 de noviembre de 2024.

Publicado: 27 de noviembre de 2024.

DOI: https://doi.org/10.26422/aucom.2025.1401.gon.

Resumen

La evolución acelerada de la Inteligencia Artificial (IA) ha intensificado el debate público sobre sus implicaciones sociales. En este contexto, la cobertura periodística de los avances tecnológicos desempeña un papel clave en la formación de la opinión pública. Como mediadora del debate público, la prensa tiene la responsabilidad de proporcionar una cobertura crítica y equilibrada de estos temas de interés. Este estudio analiza cómo los medios representan las preocupaciones éticas sobre los efectos sociales de la IA. A partir de un corpus de 912 artículos de 12 periódicos españoles, se identificaron los temas y voces que configuraron el debate durante un mes, cinco meses después del lanzamiento de ChatGPT. Los resultados revelan los principales discursos que organizan el debate público, destacando un predominio de la perspectiva tecnopesimista, que subraya los riesgos potenciales de la IA para la humanidad y la necesidad urgente de establecer estándares éticos. Además, se muestra que las grandes empresas tecnológicas han desempeñado un rol destacado en el debate, actuando no solo como protagonistas del desarrollo tecnológico, sino también como las principales voces que impulsan la discusión, en contraste con la limitada participación de actores políticos, gubernamentales y de la sociedad civil. Aunque no se observaron diferencias sistemáticas entre los diarios analizados, surgieron algunas diferencias de posicionamiento al comparar los medios tradicionales con los nativos digitales.

Palabras clave: inteligencia artificial, ética tecnológica, dilemas éticos, debate público, cobertura mediática, tecnopesimismo.

Technopessimism in the Spanish Print Media in the Public Debate on the Social Impact of Artificial Intelligence

Abstract

The rapid evolution of Artificial Intelligence (AI) has intensified public debate about its social implications. In this context, journalistic coverage of technological advancements plays a key role in shaping public opinion. As a mediator of public debate, the press has the responsibility to provide critical and balanced coverage of these important issues. This study analyzes how the media represents ethical concerns regarding the social effects of AI. Based on a corpus of 912 articles from 12 Spanish newspapers, the topics and voices shaping the debate over a one-month period, five months after the launch of ChatGPT, were identified. The results reveal the main discourses organizing public debate, highlighting a predominant technopessimist perspective that emphasizes the potential risks AI poses to humanity and the urgent need to establish ethical standards. Additionally, it shows that large tech companies have played a prominent role in the debate, acting not only as key players in technological development but also as the main voices driving the discussion, in contrast to the limited participation of political, governmental, and civil society actors. While no systematic differences were observed between the newspapers analyzed, some differences in positioning emerged when comparing traditional media with digital-native outlets.

Keywords: Artificial Intelligence, Technoethics, Ethical dilemmas, Public debate, Media coverage,Technopessimism.

O tecnopesimismo na imprensa escrita espanhola no debate público sobre o impacto social da inteligência artificial

Resumo

A rápida evolução da Inteligência Artificial (IA) intensificou o debate público sobre suas implicações sociais. Nesse contexto, a cobertura jornalística dos avanços tecnológicos desempenha um papel fundamental na formação da opinião pública. Como mediadora do debate público, a imprensa tem a responsabilidade de oferecer uma cobertura crítica e equilibrada desses temas de interesse. Este estudo analisa como os meios de comunicação representam as preocupações éticas sobre os efeitos sociais da IA. Com base em um corpus de 912 artigos de 12 jornais espanhóis, foram identificados os temas e vozes que configuraram o debate durante um mês, cinco meses após o lançamento do ChatGPT. Os resultados revelam os principais discursos que organizam o debate público, destacando o predomínio de uma perspectiva tecnopesimista, que sublinha os riscos potenciais da IA para a humanidade e a necessidade urgente de estabelecer padrões éticos. Além disso, observa-se que as grandes empresas de tecnologia desempenharam um papel destacado no debate, atuando não apenas como protagonistas do desenvolvimento tecnológico, mas também como as principais vozes que impulsionam a discussão, em contraste com a limitada participação de atores políticos, governamentais e da sociedade civil. Embora não tenham sido observadas diferenças sistemáticas entre os jornais analisados, surgiram algumas diferenças de posicionamento ao comparar os meios tradicionais com os nativos digitais.

Palavras-chave: inteligência artificial, ética tecnológica, dilemas éticos, debate público, cobertura mediática e tecnopesimismo.

Introducción

Los recientes avances en Inteligencia Artificial (IA), en particular el desarrollo de chatbots basados en Modelos de Lenguaje de Gran Escala (LLM), han suscitado una creciente preocupación tanto entre la ciudadanía como en la comunidad científica, debido a las profundas y amplias implicaciones que su adopción conlleva en diversos ámbitos.

En el campo de la comunicación, múltiples investigaciones han examinado diversas áreas de aplicación. Se ha explorado la integración de nuevas tecnologías en los medios (Noain-Sánchez, 2022; Túñez-López, Ufarte-Ruiz, & Maxs, 2022; Sánchez-García et al., 2023; Peña-Fernández et al., 2023), la transformación del panorama mediático y la percepción de los periodistas (De-Lima-Santos & Mesquita, 2021), el impacto en la difusión de desinformación (Palomo, Tandoc, & Cunha, 2023; García-Orosa, 2021) y los desafíos éticos asociados a su implementación (Barceló-Ugarte et al., 2021).

Se reconoce que la forma en que los medios de comunicación informan sobre las tecnologías emergentes influye de manera decisiva en la percepción pública de sus posibilidades, efectos, beneficios, daños y riesgos (Vincente & Dias-Trindade, 2021; Nguyen, 2023). La creciente penetración de la tecnología en la vida cotidiana ha generado una preocupación pública, dado su impacto en múltiples dimensiones sociales, tales como el bienestar individual, el mercado laboral, el crecimiento económico, la estratificación social, la cultura, la política y la seguridad (Nguyen, 2023). En este contexto, como sugieren Tamássy y Géring (2022), resulta crucial analizar el discurso del periodismo para comprender sus posicionamientos, sus limitaciones y su lugar en el espacio público. En especial, por la importancia de la opinión pública en el desarrollo y adopción de nuevas tecnologías, es crucial prestar atención a cómo se presentan las cuestiones éticas de la IA en los medios (Ouchchy, Coin y Dubljević, 2020).

Esta investigación se focaliza en la participación de los medios en el debate público, a través del análisis de los textos que efectivamente publican. Adoptamos un enfoque de Análisis del Discurso centrado en el acto de enunciación. Esta investigación responde a la pregunta: ¿Cómo representa la prensa las preocupaciones éticas que surgen de los recientes avances de la IA? Este estudio explora el rol de los medios en la construcción de la opinión pública y evalúa su potencial influencia como facilitadores en el entendimiento ciudadano sobre el avance tecnológico.

La representación de la IA en la prensa

Investigaciones actuales en el ámbito de la IA han destacado un aumento en la conciencia pública sobre los desafíos éticos asociados a esta tecnología. Esto se ha visto impulsado mayormente por escándalos que involucran la violación de privacidad, sesgos algorítmicos y manipulación de usuarios en plataformas digitales, según indica Nguyen (2023). Dentro del ámbito de la prensa generalista en inglés, se ha notado incremento significativo de la IA como tema en las noticias desde mediados de la década de 2010 (Sun et al., 2020; Nguyen y Hekman, 2022). El mismo incremento ha sido observado en el contexto holandés (Vergeer, 2020). También en el ámbito anglosajón, Roe y Perkins (2023) destacan un incremento de cinco veces en la cantidad de artículos sobre IA solo entre enero y mayo de 2023, ciertamente, asociado al impacto de la puesta en público de chatbots de IA de última generación.

Para Nguyen y Hekman (2022), el aumento de la cobertura mediática de temas asociados a la IA ha estado acompañado del desarrollo de una perspectiva cada vez más crítica de la prensa hacia la IA. Brennen, Howard y Nielsen (2020), desde una perspectiva sociológica y periodística, argumentan que los medios influyen y potencian las expectativas respecto a la IA, afectando su posible rol interventor en la sociedad. En ámbitos específicos, como el sector salud donde la IA ha demostrado un potencial notable, también se ha generado un gran interés mediático. Bunz y Braghieri (2021) llevaron a cabo un análisis cuantitativo y cualitativo de artículos en medios anglosajones sobre sistemas de IA en medicina, que evidencia una tendencia a valorar la IA por encima del conocimiento humano, incluso atribuyéndoles características humanas.

Crépel y Cardon (2022) examinaron alrededor de 30.000 artículos de prensa sobre IA en el Reino Unido y EE. UU., e identifican dos visiones opuestas en el discurso mediático. Una busca desarrollar la IA con capacidades cognitivas similares al ser humano, mientras que la otra aspira a mejorar la inteligencia humana mediante la tecnología. Estas visiones se asocian con dos preocupaciones predominantes: el temor a la autonomía futura de la IA y la crítica a los sesgos y discriminaciones algorítmicas.

Un análisis de diarios generalistas[1] españoles tras el lanzamiento de ChatGPT revela que durante los cien primeros días de su lanzamiento la percepción dominante fue que ChatGPT representa un avance tecnológico significativo, aunque los errores que comente evidencian su inmadurez. Se destacan como principales defectos de esta tecnología su incapacidad para discernir entre lo verdadero y los falso, su funcionamiento opaco y la falta de transparencia de sus fuentes. Sin embargo, debido a su potencial comercial, se advierte una competencia intensa por el liderazgo en IA, lo que evidencia la necesidad de legislación para minimizar riesgos de uso indebido (González-Arias y López-García, 2023).

El debate público mediático: temas y voces

En las sociedades democráticas, el discurso periodístico constituye un espacio de participación donde diversos actores sociales intervienen en el debate público, emitiendo opiniones sobre temas de actualidad. Esta pluralidad de voces enriquece el debate y refleja la complejidad del discurso mediático, conceptualizado como polifonía (Bakhtin 1984), que pone de manifiesto la confluencia de diferentes visiones sobre la sociedad, la tradición y los valores de los actores sociales (Arfuch, 2002).

El debate público mediático abarca múltiples voces que trascienden a los autores empíricos de los textos periodísticos, incluyendo también a las fuentes citadas en los medios, cuyos puntos de vista son incorporados al discurso. La visibilidad que los medios otorgan a determinados temas y actores influye de manera significativa en la gestión de los asuntos públicos y en la configuración del espacio público.

Diversas metodologías, desde grupos focales hasta encuestas, han abordado el estudio de la opinión pública, que tradicionalmente se contrasta con los hechos. No obstante, como señala Myers (2004), las condiciones de lo opinable son más complejas y diversas. En el espacio público mediático, no solo los artículos de opinión (editoriales o columnas de opinión) permiten un posicionamiento sobre la realidad social, sino que diversos géneros periodísticos pueden vehiculizar opiniones, especialmente cuando las voces de terceros constituyen la noticia misma (González-Arias y Campos-Rojas, 2020).

Desde la perspectiva del Análisis del Discurso, la opinión se sitúa en el ámbito de la argumentación, donde el emisor manifiesta su postura sobre un tema (Charaudeau, 2003) mediante un enunciado que problematiza dicho tema y adopta una posición frente a él. En este contexto, el estudio de la opinión en el espacio público puede realizarse a través de la identificación de los temas de debate y de las voces que participan en él. La identificación de voces y temas en el debate mediático requiere analizar enunciados que presenten puntos de vista sobre un tema en particular. Estos puntos de vista, que abren nuevas perspectivas sobre un tema (González y Campos, 2020), se atribuyen a voces responsables, las que a su vez pueden ser clasificadas según su sector social. De este modo, el análisis de la opinión pública en el contexto periodístico puede desglosarse en dos dimensiones esenciales: los temas tratados y las voces que expresan los puntos de vista, lo que permite una comprensión amplia del debate mediático. A partir de la consideración de los temas abordados, es posible reconstruir los discursos que estructuran y orientan el debate público, permitiendo así identificar los principales marcos interpretativos presentes en el espacio mediático.

Metodología

Se llevó a cabo una investigación cualitativa desde la perspectiva del Análisis del Discurso, con un enfoque comunicativo. Este análisis se caracteriza por ser inductivo, recursivo e interpretativo, centrado en el estudio de datos textuales en relación con el contexto de enunciación (Charaudeau, 2003).

Desde esta perspectiva, el discurso mediático se concibe como una práctica social situada y regulada por convenciones sociales. En consecuencia, el texto periodístico no solo se interpreta como el producto de una práctica comunicativa, sino también como un objeto semiótico que puede ser analizado en profundidad. El texto refleja la interacción compleja entre dos dimensiones fundamentales: la instancia de enunciación y la instancia de recepción, ambas inmersas en un contexto social específico.

Para este estudio, se utilizó un enfoque metodológico que combina la codificación asistida por IA con el análisis manual de contenidos éticos. Este enfoque integra herramientas automatizadas, proporcionadas por software especializado en inteligencia artificial, para la codificación de datos, complementadas por una verificación manual. Este proceso garantiza tanto la eficiencia en la identificación de citas relevantes como la precisión en su análisis, asegurando que las referencias seleccionadas reflejen fielmente los temas éticos tratados en un corpus de gran volumen.

Los procedimientos metodológicos se desarrollaron en cinco etapas principales:

a.       Recolección del corpus.

b.      Identificación de citas textuales que vehiculan el debate ético.

c.       Codificación de temas y voces asociados al debate ético.

d.      Verificación y análisis manual de las citas seleccionadas.

e.       Reconstrucción de los discursos del debate.

Corpus

Se llevó a cabo un análisis de una selección de diarios generalistas españoles, abarcando el periodo de un mes desde el 23 de abril al 23 de mayo de 2023 (González-Arias, 2024). Este mes corresponde a cinco meses después del lanzamiento del ChatGPT. La selección de los textos se realizó a través de la plataforma Factiva, filtrando aquellas publicaciones que mencionaran al menos una vez la sigla ‘IA’ para referirse a la inteligencia artificial. El corpus final quedó compuesto por 912 noticias provenientes de 12 diarios generalistas. Se buscó un equilibrio entre medios tradicionales y nativos digitales: seis de ellos pertenecen a los medios ‘heredados’, tradicionalmente vinculados al formato impreso y que han migrado o ampliado su presencia en el entorno digital, mientras que los otros seis son medios ‘nativos’, que surgieron y operan principalmente en el ámbito digital.

Tabla 1. Textos seleccionados por diario

Tipo

Diarios

Textos

Heredados

20 Minutos

120

ABC

159

El Mundo

29

El País

36

La Razón

98

La Vanguardia

150

Nativos

El Confidencial

57

El Confidencial Digital

71

El Diario.es

33

El Español

136

El Huffpost

17

Infolibre

6

Identificación de citas textuales asociadas al debate ético

Se trabajó con el software AtlasTi 23 que ofrece, en una versión beta, codificación asistida por IA proporcionada por la empresa OpenAI. Se realizó la codificación automatizada sobre la totalidad del corpus. De este procesamiento se obtuvieron 12.405 códigos vinculados a 9408 citas textuales. A partir de ese conjunto de códigos que reflejaban una inmensa cantidad de temas tratados, se filtraron todos los que estuvieran asociados al término ‘ética’ y sus flexiones (número y género). Con este procedimiento se obtuvieron los 67 códigos que abordaban distintos aspectos de la ética y que estaban vinculados a 327 citas. En consecuencia, se analizaron concretamente 327 citas textuales relacionadas con la discusión ética. Posteriormente, el análisis manual permitió verificar si todas las citas correspondían efectivamente a cuestiones éticas.

Los enunciados podían manifestar juicios de valor, identificando declaraciones que expresaran lo que se considera bueno o malo, justo o injusto, correcto o incorrecto. También se consideraron ámbitos que comúnmente implican consideraciones éticas o morales, tales como justicia social, derechos humanos, equidad, privacidad, responsabilidad y sostenibilidad. Asimismo, se consideraron los enunciados que discuten las consecuencias de acciones, decisiones o políticas, evaluando su impacto potencial, tanto positivo como negativo, en la sociedad. Se consideró también la discusión sobre responsabilidades y obligaciones de personas, organizaciones o gobiernos en situaciones específicas.

Con estos procedimientos se pudo tener certeza de que todas las citas textuales analizadas correspondían al debate ético. Sin embargo, la metodología no otorga la certeza de que toda la discusión ética haya sido considerada en esta muestra. No obstante, por tratarse de una búsqueda sistemática, creemos que representa adecuadamente el debate ético sobre la IA.

Análisis cualitativo de citas textuales asociados a temas y voces

A través de una codificación manual y cualitativa de los enunciados con contenido ético, identificamos y clasificamos los temas del debate y las voces responsables de dichos enunciados. En cuanto a las voces, se incluyó no sólo a los autores firmantes de los textos, sino también a las múltiples voces y opiniones citadas en los textos. Esta selección implicó un proceso recursivo de agrupamiento de temas y voces en sucesivos grados de abstracción.

Finalmente, debido a la incorporación de citas que surgieron en el contexto analizado y a la división de citas por corrección de la segmentación textual, se llegó a un total de 344 citas. En la Tabla 2 se presenta el número de citas textuales estudiadas por diario.

Tabla 2. Número de citas textuales por diario

Diarios

Citas

20 Minutos

18

ABC

18

El Mundo

10

El País

15

La Razón

36

La Vanguardia

70

El Confidencial

71

El Confidencial Digital

19

El Diario.es

16

El Español

60

El Huffpost

7

Infolibre

4

Total

344

Resultados

En esta sección se presentan los resultados del estudio en tres etapas. En primer lugar, se identifican y se analizan los temas que han configurado el debate ético sobre el impacto social de la IA. El análisis cualitativo de estos temas permite reconstruir los discursos que emergen a partir de ellos, por lo que se dedica una mayor extensión a la descripción detallada de los 14 temas identificados. A continuación, se examinan las diversas voces que han participado en el debate, abarcando tanto a los autores de los textos como a las fuentes citadas. Finalmente, se explora la relación entre los temas y las voces involucradas, subrayando las diferencias en la cobertura mediática entre los medios tradicionales y los nativos digitales.

Temas del debate ético en la prensa española

La Tabla 3 presenta los 14 temas que organizan el debate ético en la prensa española en el periodo analizado, ordenados según su frecuencia de aparición. Dada la naturaleza intrincada del debate, estos temas están estrechamente interrelacionados. No obstante, creemos que esta clasificación captura eficazmente la variedad de preocupaciones que emergieron durante el periodo estudiado.

Tabla 3. Temas del debate ético en la prensa

Temas

%

1.            Riesgo de destrucción de la humanidad

11,5

2.            Necesidad de estándares éticos

11,5

3.            Uso malicioso de la IA

10,1

4.            Determinismo tecnológico

8,8

5.            Responsabilidad de las empresas tecnológicas

8,8

6.            Antropomorfismo

8,8

7.            Regulación

7,7

8.            Gobernanza democrática

5,9

9.            Potenciales beneficios

5,6

10.          Uso transparente de los datos

5,1

11.          Voluntarismo en el uso de la IA

5,1

12.          Limitaciones de la inteligencia humana

4,3

13.          Sostenibilidad

4,0

14.          Educación y recualificación profesional

2,9

Total

100%

 

A continuación, se presenta una descripción detallada de cada uno de los temas, con el objetivo de identificar y analizar el discurso subyacente que da forma al debate público sobre la IA. Esta aproximación permite entender cómo se articulan las preocupaciones éticas y sociales que estructuran el discurso mediático. Es importante destacar que esta reconstrucción se basa estrictamente en los fragmentos textuales agrupados bajo las etiquetas correspondientes.

- Riesgo de destrucción de la humanidad

El discurso sobre el riesgo de destrucción de la humanidad compara a la IA con otras herramientas de poder y destrucción, en particular, con las armas nucleares. Se evidencia una preocupación sobre los riesgos técnicos y geopolíticos asociados al desarrollo y uso de la IA. La carrera tecnológica entre potencias, en particular entre Estados Unidos y China, es destacada como un eje central de esta tensión. Se alude a una “guerra fría tecnológica”, en la que ambas naciones buscan alcanzar una IA fuerte. Se planea que China busca potenciar la IA como herramienta de poder, con miras a desafiar la supremacía estadounidense.

Teníamos muchas colaboraciones con China y ahora tenemos miedo, por ejemplo, de que científicos chinos que vienen a trabajar en tecnologías clave como los ordenadores cuánticos o la nanomedicina sean espías. (El Mundo, 07/05/2023).

A su vez, la potencialidad creciente de las herramientas de IA, cuya complejidad podría llegar a ser incomprensible e incontrolable para el ser humano, plantea desafíos fundamentales sobre cómo alinear objetivos y evitar posibles catástrofes. En esta línea, destaca una preocupación por una eventual ‘inteligencia maquínica’ desprovista de limitaciones morales y éticas, la cual podría, en teoría, cambiar el escenario de conflictos futuros y revolucionar el campo de batalla. En este sentido, la creación de armas de guerra autónomas, tales como ‘soldados robots’, genera opiniones divididas, desde aquellas que ven un potencial estratégico en su desarrollo y aquellas que perciben riesgos fundamentales en su utilización.

Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no podían igualarlo. He cambiado de postura en los últimos meses. Creo que podemos desarrollar algo que es mucho más eficiente que el cerebro porque es digital. (El País, 07/05/2023).

La posición bélica defiende la inevitabilidad del uso de IA en armamento y su impacto material en conflictos actuales y futuros. Se argumenta que, mientras que en Occidente podría haber resistencias éticas para investigar estas tecnologías aplicadas a la guerra, otras potencias, como China, podrían no compartir esas mismas restricciones, lo que podría generar desequilibrios de poder. Esta tensión también es evidente en discusiones sobre investigación en áreas como las armas biológicas, donde dilemas históricos adquieren nuevas dimensiones en el contexto de la IA. Las perspectivas sobre su desarrollo y aplicación fluctúan entre un pragmatismo estratégico y un enfoque catastrofista, lo que evidencia la profundidad y amplitud del debate en curso.

…los LLM son potencialmente peligrosos pero cruciales y efectivos contra el adversario. Y si nosotros no invertimos en esto, ellos lo harán. Actualmente llevamos ventaja. Estoy alineado, de una forma extraña, con los que creen que es un peligro, porque tengo temores reales sobre el uso de los algoritmos y los LLM en el contexto occidental para que los gobiernos no destripar las libertades civiles. Aunque los usos operacionales más importantes de la IA han sido en el campo de batalla y utilizan más la inteligencia artificial generativa, que es parecido, pero con un tipo de matemática diferente. (El Confidencial, 20/05/2023).

- Necesidad de estándares éticos

Se plantea la urgencia de una ‘Tecnoética’, que promueva una ética centrada en las personas, y que consiga una IA que beneficie a la sociedad en su conjunto. Se reconoce que la IA no es éticamente neutral y que es crucial reflexionar sobre sus consecuencias y las repercusiones sociales. La creación de principios éticos debería brindar un estándar moral en el desarrollo y despliegue de la IA.

En el año 2018, la Comisión Europea propuso una inteligencia artificial que beneficie a las personas y a la sociedad en su conjunto. Un año más tarde, presentó unas directrices éticas para una inteligencia artificial fiable. Está previsto que España sea pionera por el proyecto piloto que identificará buenas prácticas, que permitirán a las Administraciones públicas y a las empresas implementar la nueva regulación europea en los sistemas de inteligencia artificial. (ABC, 21/05/2023).

No obstante, se enfrentan retos en la construcción de tecnologías seguras, especialmente en un contexto capitalista competitivo. Se destaca la preocupación sobre individuos vulnerables, como niños o aquellos con problemas de salud mental, que pueden ser susceptibles a la manipulación de los bots.

Las personas vulnerables, por ejemplo, los niños y las personas con problemas de salud mental preexistentes, pueden ser víctimas fáciles de tales comportamientos de bots, lo que puede acarrear graves consecuencias. (La Vanguardia, 04/05/2023).

Se espera que, en la búsqueda de avances tecnológicos, no se sacrifiquen valores como la paz, la justicia y la verdad. Aunque se reconocen las limitaciones inherentes a la ética, en tanto construcción cultural que puede variar de un país a otro.

- Uso malicioso de la IA

Existe una creciente preocupación por el potencial de uso malicioso de la IA. El papel de la IA en cuestiones de confianza y verdad, fundamentos de la vida social, es examinado con un creciente escepticismo. Esta desconfianza está alimentada, en parte, por el temor de una proliferación de fraudes y desinformación. Desde la creación de reseñas ficticias en sitios de venta en línea, a la potencial distorsión de nuestra memoria histórica, y los riesgos que supone para la integridad del debate público.

El cofundador de Apple Steve Wozniak ha alertado sobre el riesgo de que herramientas potenciadas por inteligencia artificial (IA), como ChatGPT, sean explotadas por usuarios maliciosos con el fin de crear informaciones erróneas con las que engañar a los internautas. «La IA es tan inteligente que está abierta a los jugadores maliciosos, los que quieren engañarte sobre quiénes son», señaló Wozniak en una reciente entrevista con la BBC. (ABC, 10/05/2023).

En el plano laboral, el impacto de la IA es igualmente preocupante. La utilización de estas herramientas para gestionar y supervisar actividades y ubicación de los trabajadores plantea interrogantes sobre los derechos laborales.

Ambas prácticas (gestión de la actividad laboral mediante una IA y supervisión de la ubicación por big data) son manifiestamente ilegales si no cumplen con una serie de preceptos legales (antes y durante), atentando así contra derechos fundamentales como la privacidad o la intimidad o contraponiéndose a otros, como el derecho a no ser objeto de decisiones automatizadas. (El Diario.es, 12/05/2023).

Un punto de vista compartido sugiere que la sociedad no ha meditado adecuadamente sobre el futuro deseado con la IA. Estas tecnologías, al ser impulsadas por poderosas fuerzas económicas, presentan riesgos sin precedentes, desde la creación de enfermedades letales hasta la explotación de vulnerabilidades humanas.

- Determinismo tecnológico

Se propuso públicamente por representantes de empresas tecnológicas y científicos la idea de instituir una pausa en el desarrollo de la IA. Esta propuesta postula la necesidad de detener temporalmente los avances en este campo hasta que se garantice su control y gestión adecuada. No obstante, se cuestiona la viabilidad y utilidad de esa moratoria. Algunos plantean que pedir una pausa es una perspectiva ingenua. Se señala que potencias tecnológicas como China probablemente no acatarán tal detención, dada la competencia global y los intereses geopolíticos en juego.

A pesar de que parece irrefutable que el desarrollo de la IA es imparable debido a sus beneficios comerciales y su potencial transformador, se debe garantizar que su implementación sea ética. Ante la imposibilidad de detener su avance, es esencial centrarse en un enfoque de prevención y control de daños.

Científicos y líderes empresariales muy destacados están diciendo que detengamos el desarrollo de la IA, pero esto nunca sucederá. No por problemas tecnológicos sino por el dilema comercial. Si Google está desarrollando IA y teme que Facebook los derrote, no se detendrán porque tienen la certeza absoluta de que si lo hacen, alguien más no lo hará. Estados Unidos no se detendrá porque sabe que China está desarrollando IA. (La Razón, 19/05/2023).

También se ha cuestionado el diseño de estas tecnologías, ya que detrás de cualquier herramienta tecnológica siempre hay un agente humano que tiene la responsabilidad de garantizar que la tecnología no solo funcione, sino que también sea socialmente beneficiosa y éticamente aceptable.

Para la ministra de Ciencia e Innovación, Diana Morant, las máquinas “al final van a hacer lo que se les diga que hagan”. “Detrás de una máquina siempre hay alguien que la ha programado y es muy importante, en el proceso de diseño de una tecnología, de todo el impacto que tiene [sic]. Los diseñadores de las tecnologías tenemos que tener siempre presente los principios éticos”, ha defendido. (El Confidencial Digital, 25/04/2023).

El concepto de ‘alineación’ adquiere relevancia en este debate. Antes de que la IA pueda causar algún tipo de catástrofe, por un mal diseño o por acciones no previstas, se debe asegurar la alineación entre las metas de estas herramientas y los valores y objetivos humanos. Se teme que, si eventualmente, la Inteligencia Artificial General (AGI) llegara a ser autónoma, las consecuencias de sus acciones pudieran escapar de nuestro control.

- Responsabilidad de las grandes tecnológicas

Se propone que las grandes tecnológicas tienen el deber de adoptar medidas para atenuar los riesgos asociados al desarrollo de las IA. No obstante, surge la preocupación de que la IA se está desarrollando predominantemente en el ámbito privado, donde no siempre prima el bien común. En el mismo sentido, se advierte del potencial riesgo de que los individuos que dominan esta tecnología acumulen un poder desmedido, lo cual podría tener implicaciones más graves que la propia tecnología.

En la narrativa del miedo que rodea a la IA, otra perspectiva sugiere que quienes buscan ejercer control sobre el poder que la tecnología confiere son también quienes instigan ese temor. Esta estrategia podría tener como objetivo mantener el interés público, garantizar el financiamiento y, en última instancia, influir en la regulación.

Los que controlan las tecnologías las quieren usar para su propio beneficio. Lo estamos viendo mucho con el debate de la IA, los mismos que quieren controlar el poder político, económico y social que genera esa tecnología, también crean el miedo hacia ella. (El Mundo, 07/05/2023).

Surgen tres aspectos clave de la responsabilidad de las empresas: la rapidez con que se busca innovar puede conducir a decisiones precipitadas, parecen mostrar un menor interés por una autocrítica en aspectos éticos y parecen diseñar productos destinados a captar y retener la atención del usuario, lo que propicia potencialmente comportamientos adictivos.

- Antropomorfismo

Se advierte una tendencia intrínseca entre las personas a atribuir características humanas a las máquinas. Esta proclividad resulta en lo que podría denominarse una ‘ilusión antropomórfica’. En esencia, nuestra cognición, evolucionada en un contexto predominantemente social, parece no estar completamente adaptada para interactuar con sistemas que emulan rasgos humanos, pero carecen de la esencia orgánica y emocional inherente a los seres humanos.

Que cada vez interactuamos más con sistemas que nos parecen dotados de consciencia. Es como una ilusión. Lo interesante es que, a pesar de que sabemos que no lo son, no podemos evitarlo. Como ocurre con las ilusiones ópticas. Esto va a ser muy disruptivo; si no podemos evitar atribuir consciencia a estas máquinas, esperaremos que se comporten de una manera determinada. (La Razón, 03/05/2023).

Las cualidades antropomórficas que se atribuyen comúnmente a las máquinas incluyen la inteligencia, la conciencia y una gama de sentimientos. Se propone que es posible que algunos de estos sentimientos sean equiparables a los humanos, mientras que otros podrían ser nuevos y no reconocibles por la perspectiva humana. Además, se asume en ocasiones que estas máquinas muestran moralidad y empatía, aunque en el mejor de los casos, se trataría solo de una simulación.

A pesar de antropomorfizar a las máquinas y confiar en ellas, su inteligencia no incluye capacidades como la empatía o la sensibilidad hacia el interlocutor. Por mucho que parezcan humanas, no comprenden ni sienten, sino que se limitan a identificar patrones en base a unos datos de entrada y responder en consecuencia. (La Vanguardia, 04/05/2023).

La antropomorfización de las máquinas conlleva consecuencias tangibles. Se ha llegado a debatir sobre el reconocimiento de derechos para estas entidades, tales como el derecho a la energía o la actualización. Se propone que, si llegáramos al punto de aceptar que una máquina ha adquirido conciencia, surgiría el dilema ético de si deben ser tratadas como personas, lo que implicaría concederles derechos.

¿Las mentes sintéticas del mañana, posiblemente destinadas a superar la inteligencia humana, tendrán algún día derecho a votar o a casarse? Si exigen tales derechos, ¿habrá alguien que pueda negarse? (El Confidencial, 07/05/2023).

La crítica a la antropomorfización radica en que el diseño antropomórfico puede ser engañoso, creando falsas expectativas y relaciones. Se sabe que hay personas dispuestas a proteger a los agentes electrónicos de actos que podrían ser considerados crueles.

Los argumentos a favor de la antropomorfización apuntan a que ser amables con las máquinas podría tener beneficios sociales, fomentando un comportamiento más gentil y empático en general. No obstante, hay un posicionamiento contrario que sostiene que los robots, independientemente de su nivel de inteligencia o similitud con los humanos, deberían ser tratados como instrumentos o servidumbre, relegando cualquier posibilidad de otorgarles derechos o consideraciones éticas.

En un artículo titulado “Los robots deberían ser esclavos”, la Dra. Bryson sostiene que “sería un error dejar que la gente pensara que sus robots son personas” … Los robots, según este punto de vista, son meros aparatos parecidos a sofisticadas tostadoras. “Nadie”, escribe, “debería dudar ni un instante a la hora de decidir si salvar a un humano o a un robot de un edificio en llamas. (El Confidencial, 07/05/2023).

- Regulación

Existe un consenso sobre la urgencia de establecer regulaciones que garanticen un uso ético y seguro de la IA, pero que se haga sin coartar su potencial innovador. Se plantea que estamos en un momento crítico en que todavía es posible regular y gobernar la IA de manera efectiva. La finalidad de tal regulación no sería otra que establecer normas claras de seguridad para los modelos de IA, garantizando que puedan ser evaluados, verificados y validados en términos de su seguridad y ética. Asimismo, se plantea el imperativo de abrir un debate sobre qué derechos fundamentales queremos preservar en el contexto de esta regulación. No obstante, más allá de la normativa, se subraya la necesidad de actuar con rectitud y ética, reconociendo que las grandes corporaciones han capitalizado en gran medida el uso de datos, en detrimento de artistas e instituciones públicas.

En cuanto a propuestas legislativas concretas, hay un llamado generalizado para una regulación a escala europea o de un mayor alcance internacional para controlar efectivamente la IA. La reciente aprobación por parte de la UE de la Ley de Inteligencia Artificial, que pretende establecer límites legales y éticos al uso y desarrollo de esta tecnología, representa un hito significativo. Sin embargo, algunas voces sugieren que la legislación europea podría no ser suficiente y que es necesario regular específicamente aspectos como el uso de Modelos de Lenguaje de Gran Escala (LLM) en herramientas bélicas, así como la sostenibilidad y la privacidad de los datos.

El director ejecutivo y cofundador de Open AI, desarrolladora del programa de generación de texto ChatGPT, Sam Altman, pidió este martes al Congreso de Estados Unidos que regule el desarrollo y los usos de la inteligencia artificial (IA). (El HuffPost, 17/05/2023).

- Gobernanza democrática

Se plantea la gobernanza democrática de la IA es una cuestión profundamente política y social. A medida que la IA se integra en diversos aspectos de nuestra vida cotidiana, surge una cuestión crítica: ¿Cómo puede la sociedad garantizar que esta tecnología se utilice de una manera que refuerce, en lugar de socavar, los principios democráticos?

La interconexión entre ciencia, política y diplomacia es innegable en este contexto. A menudo, la percepción pública es que la IA es puramente un producto de avances científicos; sin embargo, su desarrollo y aplicación tienen profundas implicaciones políticas. Salvaguardar los intereses públicos, proteger nuestra cultura y, fundamentalmente, nuestra democracia son preocupaciones que emergen ante la proliferación de estas tecnologías.

Queda de manifiesto que el desafío central radica en que, con frecuencia, la sociedad confía en estas tecnologías sin que existan las garantías adecuadas por parte de los proveedores. Esta confianza indiscriminada, combinada con prácticas como el financiamiento opaco de la investigación -específicamente, aludiendo a fuentes de financiamiento de lugares como los Emiratos Árabes Unidos (EAU)-, crea un escenario en el cual los consumidores pueden quedar desprotegidos y susceptibles a violaciones de privacidad y vigilancia masiva.

‘No entiendo que debamos aceptar una joint venture en investigación con un fondo directamente controlado por el Gobierno de EAU, conocido por su falta de respeto a los derechos humanos. Especialmente cuando uno de los objetivos que tenemos en España y Europa es el desarrollo de una IA ética’, explica a El Confidencial Carles Sierra, uno de los expertos que abandonaron este órgano constituido en 2020… (El Confidencial, 22/05/2023).

- Potenciales beneficios

Se observa una notable bifurcación en las perspectivas sobre la IA, que oscila entre el pesimismo catastrófico y un optimismo evolutivo. Uno de los hitos más destacados en este discurso es la potencial construcción de una Inteligencia Artificial General. Estos avances, lejos de ser meramente técnicos, abren la posibilidad de que la IA pueda generar discusiones de carácter filosófico, problematizando aún más las fronteras entre lo humano y lo artificial.

Desde la visión optimista, se postula que la IA tiene el potencial de ser un agente catalizador en la construcción de una sociedad mejor. Esta postura critica la miopía de no reconocer las oportunidades sin precedentes que la tecnología ofrece. Se aspira a construir una IA servicial, honesta e inofensiva, que pueda incorporar y reflejar los mejores rasgos humanos en su funcionamiento. Bajo esta óptica, se espera que las máquinas se encarguen de tareas rutinarias y precisas, dejando a los humanos las responsabilidades que requieran un mayor análisis y discernimiento ético.

- Uso transparente de los datos

La avanzada capacidad de análisis de esta tecnología ha suscitado inquietudes sobre la posible intrusión en la intimidad del individuo, llegando a plantear cuestionamientos tan profundos como si estas herramientas pudieran, eventualmente, ‘leer la mente’ o anticipar nuestro comportamiento.

Por otro lado, la recopilación, almacenamiento y procesamiento de datos plantea preocupaciones importantes en relación con la privacidad y la seguridad. Estas prácticas pueden exponer a las personas a riesgos, como el robo de identidad, el acoso y la discriminación. (El Español, 18/05/2023).

Diversas voces han señalado la necesidad de regular los datos de entrenamiento y promover la transparencia sobre la información con la que se alimentan las máquinas de IA. Un obstáculo evidente para evaluar el respeto a los datos personales de las implementaciones de IA es la falta de transparencia en las bases de datos empleadas.

Las empresas tecnológicas han mostrado reticencia a abordar temas sensibles como la protección de datos y los sesgos algorítmicos. Se ha propuesto la prohibición de sistemas opacos y la limitación en la recopilación masiva de datos. Además, para proteger el trabajo de creadores, se enfatiza que los desarrolladores de IA deben respetar los derechos de autor. Una propuesta radical al respecto ha sido la nacionalización de los datos, siguiendo el modelo implementado en países como China.

- Voluntarismo en el uso de la IA

Otra idea de consenso es que el bien o el mal no están intrínsecamente ligados a la tecnología, sino más bien a las decisiones humanas sobre su aplicación. Bajo esta perspectiva, se plantea que la IA, en lugar de ser vista como un reemplazo o amenaza, debe ser entendida como un complemento que puede coadyuvar al progreso.

Los usos constructivos de la IA están emergiendo en diversos campos. Una artista, por ejemplo, ha autorizado el uso de su voz para que terceros puedan generar canciones, demostrando la versatilidad y la creatividad que esta tecnología puede aportar al mundo del arte. Asimismo, un bot de ajedrez que juega de manera ‘deficiente’ se ha popularizado, evidenciando que la IA no necesariamente busca la perfección, sino que puede ser programada para interactuar de maneras novedosas y entretenidas con los usuarios.

- Limitaciones de la inteligencia humana

Se postula que la IA es tan peligrosa como la inteligencia natural. Esta reflexión apunta a la idea de que nuestra incapacidad para reflexionar críticamente sobre nuestra relación y dependencia de estas tecnologías emergentes podría ser más alarmante que los propios sistemas tecnológicos.

Todas estas novedades le dan miedo a mucha gente. A mí no: a mí me dan más miedo las personas que no piensan, que las máquinas que piensan. (El Mundo, 19/05/2023).

Frente a esto se plantea que, desde una perspectiva evolutiva, los seres humanos están limitados por su biología y la historia evolutiva. En contraste, la IA, siendo un producto de diseño y no de evolución biológica, opera en un marco distinto. Así, las capacidades cognitivas y decisionales de estas máquinas, aunque modeladas inicialmente por humanos, no están intrínsecamente alineadas con nuestra propia naturaleza. Esto alimenta la preocupación de una eventual superación de la inteligencia humana por parte de sistemas artificiales avanzados.

No obstante, esta perspectiva no debe oscurecer un argumento fundamental: estamos, quizá, desplazando incorrectamente nuestra atención hacia las potenciales desventajas o amenazas de la IA, en lugar de abordar las limitaciones inherentes a nuestra propia ‘inteligencia natural’. Se plantea, en consecuencia, el potencial advenimiento de superinteligencias o máquinas capaces de ‘automejoramiento’.

- Sostenibilidad

El discurso sobre la sostenibilidad plantea la necesidad de promover un desarrollo sostenible de la IA. La urgencia de un enfoque sostenible radica en que las prácticas actuales de desarrollo en IA, a pesar de sus avances significativos, conllevan a menudo un consumo energético excesivo, lo cual entra en conflicto directo con los objetivos medioambientales globales.

No obstante, el desarrollo sostenible en el ámbito de la IA no solo debe atender a la reducción de su huella ecológica, sino que también debe considerar los criterios ESG (Environmental, Social and Governance), asegurando que las innovaciones en esta área se realicen bajo parámetros medioambientales, sociales y de gobernanza. Además, es imperativo que este desarrollo esté centrado en las personas, y garantizar que las innovaciones en IA beneficien a la sociedad en su conjunto y no solo a sectores particulares o intereses corporativos.

En este contexto, emerge la propuesta de los denominados ‘algoritmos verdes’. Estas soluciones algorítmicas, que se hallan en proceso de investigación y desarrollo, buscan optimizar el funcionamiento de la IA reduciendo su demanda energética y, por ende, su impacto ambiental. Si bien representan una promisoria alternativa al modelo actual, aún enfrentan desafíos en cuanto a su implementación y difusión en el sector tecnológico.

Su equipo explora también otro de los caminos hacia la IA verde, que consiste en acelerar los procesos. Intentan hacer lo mismo en menos tiempo. Bolón urge una ley que regule la IA tanto desde el punto de vista ético como de sostenibilidad. (El País, 12/05/2023).

- Educación y recualificación profesional

Este discurso aborda las implicancias que la IA tiene para el sistema educativo actual y la necesidad de adaptación de los trabajadores a este nuevo paradigma. En primera instancia, se destaca la exigencia de implementar cambios estructurales en la educación, tanto en términos de contenidos como de métodos. Esta adaptación no sólo busca comprender y aprovechar el potencial de la IA, sino también anticipar y responder a los desafíos que presenta en términos laborales. Contraria a la percepción apocalíptica de que la IA aniquilará el empleo, la perspectiva emergente sugiere que, si bien es posible que algunos empleos desaparezcan, surgirán nuevos roles y perfiles profesionales en respuesta a las demandas de la era digital.

Esta transición, no obstante, exige una formación adecuada. Se subraya con urgencia la necesidad de ofrecer capacitación especializada a los educadores, especialmente en el contexto europeo. Los docentes deben ser competentes no sólo en el uso práctico de herramientas digitales, sino también en comprender los riesgos, garantizar la seguridad y promover una ética coherente en entornos virtuales. Además, deben estar preparados para explorar y aprovechar nuevas modalidades y oportunidades de enseñanza que estos avances tecnológicos posibilitan.

Voces que participan en el debate

A continuación, se presenta una síntesis de las voces que han contribuido al debate sobre los asuntos éticos de la IA. Los grupos de voces son fundamentales para comprender quiénes han articulado los discursos que estructuran el debate mediático sobre estos temas.

Tabla 4. Grupos de voces en el debate sobre el impacto social de la IA

Voces

%

Expertos y científicos

33,3

Diario o autor del texto

22,3

Representantes de empresa tecnológica

20,3

Políticos

5,7

Artista

5,4

Institución política extranjera o europea

3,3

Anónimos o indeterminados

2,1

Institución académica

1,8

Gobierno Español

1,5

Representantes de la sociedad civil

1,5

Jueces

1,2

Agencias de noticias

0,6

Autoridad Religiosa

0,6

Militares

0,6

 

Como se observa en la Tabla 4, se identificaron 14 grupos de voces, ordenados según su frecuencia de aparición. Este debate está dominado en gran medida por tres grupos principales: Expertos y científicos (33,3%), Diario o autor del texto (22,3%), y Representantes de empresas tecnológicas (20,3%). Juntos, estos tres actores constituyen más del 75% de las voces en el debate, lo que sugiere que el discurso está principalmente impulsado por expertos, los medios como mediadores, y las empresas tecnológicas, quienes están directamente involucradas en el desarrollo de la IA.

La participación relativamente baja de otros actores, como políticos (5,7%), representantes de la sociedad civil (1,5%) y gobiernos (1,5%), indica una limitada intervención del ámbito político y social en la discusión sobre los aspectos éticos de la IA. Esto sugiere que el debate se ha mantenido principalmente en el ámbito técnico y empresarial, sin una presencia significativa de voces que representen intereses públicos o enfoques regulatorios. La baja representación de actores como instituciones académicas (1,8%) y autoridades religiosas (0,6%) refuerza la idea de un debate concentrado en especialistas y sectores privados.

Por último, la escasa participación de militares y jueces sugiere que, aunque existen preocupaciones en torno al uso de la IA en temas de seguridad o derecho, estos sectores aún no han tenido una intervención activa en el debate público sobre los aspectos éticos de la IA.

Los resultados revelan una convergencia de diversas voces y perspectivas, que abren tímidamente el debate a diferentes perspectivas.

De la Tabla 5, que cruza los tres actores principales (Expertos y científicos, Diario o autor del texto, y Representantes de empresas tecnológicas) con los temas en los que participan, se pueden hacer varias interpretaciones clave.

Tabla 5. Temas más discutidos por los tres grupos principales

Tema

Voces

Expertos y científicos

Diario o autor del texto

Representantes empresas tecnológicas

Riesgo de destrucción de la humanidad

6,4

10,1

25,7

 

Necesidad de estándares éticos

8,8

1,3

9,5

 

Uso malicioso de la IA

8,0

19,0

8,1

 

Determinismo tecnológico

8,8

8,9

16,2

 

Responsabilidad de las empresas tecnológicas

8,8

11,4

4,1

 

Antropomorfismo

16,8

5,1

2,7

 

Regulación

5,6

10,1

9,5

 

Gobernanza democrática

5,6

6,3

2,7

 

Potenciales beneficios

8,8

2,5

8,1

 

Uso transparente de los datos

4,8

6,3

5,4

 

Voluntarismo en el uso de la IA

6,4

8,9

2,7

 

Limitaciones de la inteligencia humana

4,8

3,8

1,4

 

Sostenibilidad

5,6

5,1

2,7

 

Educación y recualificación profesional

0,8

1,3

1,4

 

Totales

100%

100%

100%

 

 

Los Representantes de empresas tecnológicas son los actores más asociados con el tema del “Riesgo de destrucción de la humanidad” (25,7%). Este dato resulta significativo, ya que estos actores, directamente involucrados en el desarrollo de la IA, parecen posicionarse como los más preocupados por los peligros existenciales que esta tecnología podría implicar.

En cuanto a las preocupaciones compartidas entre Expertos y Representantes de empresas tecnológicas, ambos grupos tienen una presencia relativamente equilibrada en temas como la “Necesidad de estándares éticos” (8,8% vs. 9,5%), el “Determinismo tecnológico” (8,8% vs. 16,2%), y la “Regulación” (5,6% vs. 9,5%). Esto sugiere que tanto los expertos como las empresas tecnológicas están alineados en la discusión sobre la urgencia de establecer regulaciones y estándares éticos, aunque las empresas tecnológicas parecen estar más activas en señalar el determinismo tecnológico, es decir, la inevitabilidad del desarrollo de la IA.

Por su parte, los medios (Diario o autor del texto) destacan el discurso que advierte sobre el uso malicioso de la IA (19%). Este hallazgo subraya el papel de los medios como mediadores del debate público, enfocándose en los riesgos inmediatos y prácticos de la tecnología, como el uso de IA para fraudes, desinformación, o vigilancia, aspectos que capturan más fácilmente la atención pública.

Igualmente se puede señalar que los expertos y científicos aparecen más vinculados con el tema del “Antropomorfismo” (16,8%). Este dato refleja su interés en los aspectos técnicos y filosóficos de la IA, especialmente en lo que concierne a las implicaciones de otorgar características humanas a las máquinas y cómo esto afecta las interacciones entre humanos y máquinas.

Algunos temas, como la “Educación y recualificación profesional” y las “Limitaciones de la inteligencia humana”, reciben poca atención por parte de los tres grupos principales. Esto podría indicar que estos temas, aunque relevantes para la IA, no son percibidos como prioritarios en el debate público sobre sus implicaciones éticas.

Comparativa entre diarios heredados y nativos digitales

La Tabla 6, que compara los temas prioritarios entre medios heredados y nativos digitales, revela diferencias importantes en el enfoque que cada tipo de medio da a los asuntos éticos relacionados con la IA.

Tabla 6. Comparación tema entre heredados y nativos

Tema

Heredados

Nativos

Riesgo de destrucción de la humanidad

15,3%

7,6%

Antropomorfismo

5,3%

11,9%

Responsabilidad de las grandes tecnológicas

11,6%

6,0%

Sostenibilidad

1,6%

6,5%

Gobernanza democrática

4,2%

7,6%

Limitaciones de la inteligencia humana

2,7%

6,0%

 

Como se puede apreciar, los medios heredados (15,3%) priorizan significativamente más el “Riesgo de destrucción de la humanidad” que los nativos digitales (7,6%). Esto sugiere que los medios tradicionales tienden a enfatizar los riesgos existenciales de la IA y las preocupaciones apocalípticas, lo cual podría estar relacionado con su enfoque en temas globales de alto impacto que captan la atención del público de manera más dramática. Los medios heredados suelen mantener un tono más conservador o de advertencia, enfocándose en riesgos a largo plazo.

Por parte de los medios nativos digitales se expresa un mayor interés en el “Antropomorfismo” (con un 11,9%), mientras los heredados, con un porcentaje menor (5,3%). Esto puede reflejar un enfoque más cercano a los aspectos innovadores y disruptivos de la IA en el ámbito digital, donde la interacción entre humanos y máquinas es más inmediata. Los nativos digitales podrían estar más interesados en discutir cómo la IA con características humanas afecta la vida cotidiana y la tecnología de consumo.

Los medios heredados (11,6%) tratan más la “Responsabilidad de las grandes tecnológicas” en comparación con los nativos digitales (6,0%). Esto podría sugerir que los medios tradicionales están más enfocados en cuestionar el papel y la responsabilidad de las grandes corporaciones tecnológicas en el desarrollo y regulación de la IA, posiblemente debido a su historial de cobertura más crítica de los poderes corporativos.

Asimismo, los medios nativos digitales (6,5%) prestan más atención a la sostenibilidad que los medios heredados (1,6%). Esto puede indicar que los nativos digitales están más alineados con las tendencias contemporáneas que abogan por una mayor conciencia ambiental y ética en el desarrollo de nuevas tecnologías, así como con el enfoque en los impactos a largo plazo de la IA en el medioambiente.

El tema de la “Gobernanza democrática” recibe mayor atención en los medios nativos digitales (7,6%) que en los heredados (4,2%). Esto podría reflejar un interés más marcado en los medios nativos por la participación ciudadana y la necesidad de un marco regulatorio inclusivo para la IA, en línea con las preocupaciones de una audiencia más joven y orientada hacia el activismo digital.

Los medios nativos digitales (6,0%) prestan más atención a las limitaciones de la inteligencia humana en comparación con los medios heredados (2,7%). Este enfoque puede estar relacionado con debates más filosóficos o innovadores sobre la posibilidad de que la IA supere a la inteligencia humana y cómo eso redefine los límites del conocimiento y la creatividad humana.

La Tabla 7, que compara las voces del debate sobre la IA entre medios heredados y nativos digitales, ofrece una visión clara de las diferencias en los actores que participan en la construcción de discursos en cada tipo de medio.

Tabla 7. Voces del debate entre heredados y nativos

Voces

Heredados

Nativos

Expertos y científicos

40,1%

26,3%

Diario o autor del texto

18,0%

26,3%

Artistas

7,5%

3,4%

Representantes de empresas tecnológicas

18,6%

21,7%

 

Como se observa, los medios heredados incluyen una participación significativamente mayor de expertos y científicos (40,1%) en comparación con los nativos digitales (26,3%). Esto sugiere que los medios tradicionales tienden a apoyarse más en figuras de autoridad académica o técnica para respaldar sus contenidos, lo que podría estar relacionado con su enfoque en ofrecer análisis más profundos o respaldar sus reportajes con opiniones expertas. Los medios heredados parecen priorizar la credibilidad de voces especializadas para tratar temas éticos y tecnológicos.

Los nativos digitales dan un mayor protagonismo a la voz del diario o del autor del texto (26,3%) en comparación con los heredados (18,0%). Esto indica que, en los medios digitales, los propios periodistas, editores o columnistas tienen un rol más visible y activo en el debate. Los medios nativos parecen depender más de la opinión y análisis propio de sus autores, lo que podría reflejar una mayor flexibilidad en el estilo editorial o un enfoque más personal y directo en su contenido, característico de los medios en línea.

La presencia de artistas en los medios heredados (7,5%) es considerablemente mayor que en los nativos digitales (3,4%). Esto puede sugerir que los medios tradicionales otorgan mayor espacio a perspectivas creativas o culturales en el debate sobre la IA, posiblemente para conectar los desarrollos tecnológicos con el impacto cultural o artístico. En cambio, los medios nativos digitales podrían estar más enfocados en aspectos técnicos o prácticos y menos en las implicaciones culturales de la IA.

Los nativos digitales otorgan más espacio a los representantes de empresas tecnológicas (21,7%) en comparación con los medios heredados (18,6%). Esto puede indicar una mayor alineación de los medios nativos con los actores del sector tecnológico, lo que podría reflejar la naturaleza digital de su entorno y una relación más cercana con la innovación tecnológica. Los medios nativos pueden estar más interesados en dar voz a los desarrolladores y empresas que impulsan el avance de la IA, probablemente debido a su audiencia más enfocada en la tecnología.

Discusión

A partir de los hallazgos, se examinan las principales tendencias discursivas, el papel de los diferentes actores involucrados y las implicaciones éticas y sociales del avance tecnológico. Además, se contrastan estos resultados con estudios previos, destacando las aportaciones del presente estudio al campo de los estudios periodísticos y la percepción pública de las tecnologías emergentes.

Los resultados revelan un escenario complejo, caracterizado por visiones alarmistas y un optimismo moderado. La posibilidad de destrucción de la humanidad, agravada por el uso malintencionado de la IA, subraya la necesidad urgente de establecer estándares éticos. Este contexto refleja el dilema del determinismo tecnológico, donde el avance de la tecnología parece imparable y fuera del control humano, alineándose con la corriente del tecnopesimismo. Este enfoque crítico hacia el progreso tecnológico no es nuevo, ya que pensadores como Spengler (1923) y Ellul (1954) han advertido sobre la deshumanización y los riesgos sociales de un mundo dominado por la técnica. En la actualidad, este debate ha cobrado relevancia con la revolución digital. Zuboff (2019) expone cómo el capitalismo de vigilancia, impulsado por las plataformas digitales, erosiona la privacidad y los fundamentos democráticos.

El debate sobre la IA plantea interrogantes sobre la responsabilidad de las grandes empresas tecnológicas en el desarrollo y uso de estas tecnologías. Además, la atribución de rasgos antropomórficos a los sistemas automatizados y la necesidad de un marco regulatorio que garantice una gobernanza democrática son cuestiones centrales. A pesar de los riesgos, los resultados también destacan los beneficios potenciales de la IA, siempre que su uso sea transparente, particularmente en lo que respecta al manejo de datos personales. La educación y la recualificación profesional son elementos relevantes para garantizar que las habilidades humanas evolucionen junto con los avances tecnológicos, facilitando una integración ética de la IA en la sociedad.

La cobertura mediática juega un papel fundamental en la percepción pública de la IA. Investigaciones previas (Sun et al., 2020) indican que el impacto mediático es mayor cuando la tecnología se asocia estrechamente con la realidad y genera controversia, como ha sido el caso de la IA. Desde el lanzamiento de ChatGPT en noviembre de 2022, se ha incrementado notablemente la cobertura sobre la IA, transformando el debate. Estudios anteriores, como el de Ouchchy, Coin y Dubljević (2020), mostraban que antes de 2022 la visión mediática era más superficial y se centraba en temas como la militarización, la privacidad y los prejuicios. A partir de 2023, la cobertura mediática ha adoptado un enfoque más complejo, como lo demuestran investigaciones posteriores.

Los temas discutidos en los medios han cambiado significativamente a lo largo de 2023. En estudios recientes, como el de Roe y Perkins (2023), se identifican nuevos temas dominantes como el peligro inminente, las capacidades positivas y negativas de la IA, y la necesidad de regulación. De manera similar, González-Arias y López-García (2023) reportan que, durante los primeros cien días tras el lanzamiento de ChatGPT, los temas más recurrentes en la prensa española fueron la necesidad de regulación, las limitaciones de ChatGPT y sus capacidades. En esta investigación, realizada cinco meses después del lanzamiento de ChatGPT, se observa una diversificación de los temas, con un enfoque creciente en los riesgos de destrucción de la humanidad (11,5%), la necesidad de estándares éticos (11,5%), el uso malicioso de la IA (10,1%), y el determinismo tecnológico (8,8%).

En cuanto a las voces que dominan el debate sobre la IA, González-Arias y López-García (2023) identifican a investigadores (38%) y autores de artículos periodísticos (39%) como los principales actores. En esta investigación, los expertos y científicos también juegan un papel protagónico (33,3%), seguidos por los autores periodísticos (22,3%) y representantes de empresas tecnológicas (20,3%).

El rol de los autores de los textos periodísticos es fundamental, ya que actúan como mediadores del debate, exponiendo principalmente los riesgos del uso malintencionado de la IA y la necesidad de regulación, lo que refleja en gran medida los posicionamientos editoriales de los medios. Asimismo, los representantes de las empresas tecnológicas, de manera paradójica, subrayan los peligros asociados al desarrollo de la IA y el determinismo tecnológico, a pesar de estar activamente involucrados en su avance y solicitar su regulación. Este comportamiento, aunque excede el alcance de este artículo, puede interpretarse como un reflejo paradigmático de la incertidumbre que rodea el futuro tecnológico y de los complejos intereses que subyacen a la relación entre el desarrollo tecnológico y la sociedad.

Conclusiones

Esta investigación ha abordado la representación de las preocupaciones éticas derivadas de los recientes avances en IA en la prensa, explorando el rol de los medios en la construcción de la opinión pública y su potencial influencia en el entendimiento ciudadano sobre el avance tecnológico. Los resultados revelan un incremento significativo en la cobertura de noticias sobre IA desde la introducción de ChatGPT en noviembre de 2022, lo que ha transformado la representación mediática de esta tecnología, debido a la accesibilidad y experimentación directa del público con sus capacidades y limitaciones.

El debate público sobre IA está dominado por una perspectiva tecnopesimista, que destaca los riesgos potenciales para la humanidad y la necesidad urgente de establecer estándares éticos. Las grandes empresas tecnológicas han jugado un papel central tanto como actores del debate como fuentes predominantes, en contraste con la ausencia de participación visible de actores políticos, gubernamentales y de la sociedad civil.

Entre los temas abordados, sobresale una narrativa bélica que promueve el desarrollo de armamento basado en IA, impulsada por el sector privado y acompañada de desconfianza hacia China y gobiernos no alineados con los intereses de Estados Unidos. En contraparte, los aspectos favorables se centran en los posibles beneficios de la IA, estrechamente vinculados a la reforma educativa y a programas de recualificación profesional.

La comparación entre los diarios tradicionales y los nativos digitales revela diferencias significativas. Los primeros priorizan temas globales como el riesgo existencial y la responsabilidad corporativa, mientras que los segundos destacan aspectos como el antropomorfismo, la sostenibilidad tecnológica y la gobernanza. Además, los periódicos tradicionales tienden a recurrir a expertos externos, mientras que en los medios digitales prevalecen las voces internas y editoriales.

La IA se distingue de otras tecnologías emergentes por su complejidad y aplicaciones disruptivas, que generan una percepción pública marcada por la imprevisibilidad. Por tanto, el enfoque mediático en torno a la IA tiene un impacto considerable en la comprensión social de esta tecnología. Es crucial que los medios adopten un enfoque equilibrado e inclusivo, evitando la especulación y el sensacionalismo, para proteger su rol en el debate público informado.

Asimismo, esta investigación muestra cómo los estereotipos e idealizaciones sobre la IA se consolidan a través de discursos que dominan los discursos mediáticos. En este sentido, los periodistas no solo actúan como mediadores, sino que juegan un papel sustantivo en la agenda mediática, influyendo en la discusión sobre los aspectos éticos y de regulación. El análisis del protagonismo de las voces expertas, en contraste con la creciente participación de empresas tecnológicas, resalta la necesidad de examinar quiénes dominan el discurso y cómo sus intereses moldean la percepción pública de la IA.

Finalmente, este estudio contribuye al campo de los estudios periodísticos al ofrecer nuevas perspectivas sobre la responsabilidad de los medios en la representación equilibrada de tecnologías emergentes, en un contexto de creciente incertidumbre tecnológica. Se subraya la necesidad de ampliar el debate en otros espacios para reconfigurar lo público y cuestionar las percepciones establecidas.

Aunque esta investigación ofrece un análisis detallado sobre la representación mediática de las preocupaciones éticas en torno a la IA, presenta algunas limitaciones. En primer lugar, el estudio se centra en un periodo de un mes, seleccionado de manera arbitraria cinco meses después del lanzamiento de ChatGPT. Esta delimitación temporal debe ser considerada al interpretar los resultados, ya que se constituye en el marco de interpretación de las conclusiones. Además, aunque se utilizó una muestra variada y representativa de diarios españoles, esta no abarca la riqueza y diversidad del espectro mediático del país, lo que podría limitar la generalización de los hallazgos.

Además, se empleó una herramienta automatizada de análisis de textos basada en IA para realizar un primer filtrado de fragmentos que abordaban cuestiones éticas en los artículos periodísticos. Sin embargo, debido a las limitaciones de la herramienta, es posible que algunos fragmentos relevantes hayan quedado fuera del análisis. A pesar de ello, podemos afirmar que todos los fragmentos seleccionados y analizados manualmente estaban relacionados con el tema en estudio.

En cuanto a las proyecciones futuras, esta investigación abre varias líneas de estudio. Sería interesante explorar cómo evoluciona el debate mediático sobre IA a medida que la tecnología y su regulación avanzan, prestando especial atención a la aparición de nuevas voces, como actores políticos, legisladores o movimientos civiles, que hasta ahora han tenido una participación limitada en el discurso público. Asimismo, sería relevante expandir el análisis a otros países para obtener una visión comparativa más amplia. A medida que las herramientas de IA alcancen mayor precisión, también se podría ampliar su uso en diferentes etapas de la investigación, algo que actualmente es limitado debido a la falta de fiabilidad observada en determinadas tareas.

Referencias

Arfuch, L. (2002). El espacio biográfico: Dilemas de la subjetividad contemporánea. Fondo de Cultura Económica.

Bakhtin, M. M. (1984). Problems of Dostoevsky's Poetics (Caryl Emerson, Ed. & Trans.). University of Minnesota Press.

Barceló‐Ugarte, T., Pérez‐Tornero, J. M. & Vila‐Fumàs, P. (2021). Ethical challenges in incorporating artificial intelligence into newsrooms. In M. Luengo & S. Herrera-Damas (Eds.), News Media Innovation Reconsidered: Ethics and Values in a Creative Reconstruction of Journalism (pp. 138-153). Hoboken: Wiley-Blackwell. https://doi.org/10.1002/9781119706519.

Brennen, S., Howard, P. & Nielsen, R. (2020). What to expect when you’re expecting robots: Futures, expectations, and pseudo-artificial general intelligence in UK news. Journalism, 1-17. https://doi.org/10.1177/1464884920947535.

Bunz, M. & Braghieri, M. (2022). The AI doctor will see you now: Assessing the framing of AI in news coverage. AI & Society, 37, 9-22. https://doi.org/10.1007/s00146-021-01145-9.

Charaudeau, P. (2003). El discurso de la información. La construcción del espejo social. Gedisa.

Crépel, M. & Cardon, D. (2022). Robots vs algorithmes: Prophétie et critique dans la représentation médiatique des controverses de l’IA. Réseaux, 2-3(232-233), 129-167. https://doi.org/10.3917/res.232.0129.

De-Lima-Santos, M. F. & Mesquita, L. (2021). Data journalism beyond technological determinism. Journalism Studies, 22(11), 1416-1435. https://doi.org/10.1080/1461670X.2021.1944279.

García-Orosa, B. (2021). Disinformation, social media, bots, and astroturfing: The fourth wave of digital democracy. Profesional de la Información, 30(6), e300603. https://doi.org/10.3145/epi.2021.nov.03.

González-Arias, C. (2024). Temas y voces de debate público sobre IA en prensa española [Base de datos]. Harvard Dataverse. https://doi.org/10.7910/DVN/5OHWHV.

González Arias, C., & Campos Rojas, C. (2020). El flujo de opinión sobre el sistema de pensiones en cuatro géneros de la prensa chilena: cobertura, voces y problemáticas. Logos: Revista de Lingüística, Filosofía y Literatura, 30(1), 138-153. https://doi.org/10.15443/RL3012.

González-Arias, C. & López-García, X. (2023). ChatGPT: Stream of opinion in five newspapers in the first 100 days since its launch. Profesional de la Información, 32(5), e320524. https://doi.org/ 10.3145/epi.2023.sep.24.

Myers, Greg (2004) Matters of opinion: talking about public issues. Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9780511486708.

Nguyen, D. & Hekman, E. (2022). The news framing of artificial intelligence: A critical exploration of how media discourses make sense of automation. AI & Society. https://doi.org/10.1007/s00146-022-01511-1.

Nguyen, D. (2023). How news media frame data risks in their coverage of big data and AI. Internet Policy Review, 12(2). https://doi.org/10.14763/2023.2.1708.

Noain-Sánchez, A. (2022). Abordando el Impacto de la Inteligencia Artificial en el Periodismo: la percepción de expertos, periodistas y académicos. Comunicación y Sociedad, 35(3), 105-121. https://doi.org/10.15581/003.35.3.105-121.

Ouchchy, L., Coin, A. & Dubljević, V. (2020). AI in the headlines: The portrayal of the ethical issues of artificial intelligence in the media. AI & Society, 35, 927-936. https://doi.org/10.1007/s00146-020-00965-5.

Palomo, B., Tandoc, E. & Cunha, R. (2023). El impacto de la desinformación en las rutinas profesionales y soluciones basadas en la inteligencia artificial. Estudios del Mensaje Periodístico, 29(4). https://doi.org/10.5209/esmp.92160.

Peña-Fernández, S., Meso-Ayerdi, K., Larrondo-Ureta, A. & Díaz-Noci, J. (2023). Without journalists, there is no journalism: The social dimension of generative artificial intelligence in the media. Profesional de la Información, 32(2), e320227. https://doi.org/10.3145/epi.2023.mar.27.

Roe, J. & Perkins, M. (2023). ‘What they’re not telling you about ChatGPT’: Exploring the discourse of AI in UK news media headlines. Humanities & Social Sciences Communications, 10, 753. https://doi.org/10.1057/s41599-023-02282-w.

Sánchez-García, P., Merayo-Álvarez, N., Calvo-Barbero, C. & Diez-Gracia, A. (2023). Spanish technological development of artificial intelligence applied to journalism: Companies and tools for documentation, production and distribution of information. Profesional de la Información, 32(2), e320208. https://doi.org/10.3145/epi.2023.mar.08.

Sun, S., Zhai, Y., Shen, B. & Chen, Y. (2020). Newspaper coverage of artificial intelligence: A perspective of emerging technologies. Telematics and Informatics, 53, 101433. https://doi.org/10.1016/j.tele.2020.101433.

Tamássy, R. & Géring, Z. (2022). Rich variety of DA approaches applied in social media research: A systematic scoping review. Discourse & Communication, 16(1), 93-109. https://doi.org/10.1177/17504813211043722.

Vergeer, M. (2020). Artificial intelligence in the Dutch press: An analysis of topics and trends. Communication Studies, 71(3), 373–392. https://doi.org/10.1080/10510974.2020.1733038.

* Roles de autoría

Los autores desempeñaron los roles de autoría del trabajo según el siguiente detalle:

Cristian González-Arias: Conceptualización, Análisis formal, Investigación, Metodología, Software, Validación, Redacción-borrador, original, Escritura-revisión y edición.

Xosé López-García: Conceptualización, Análisis formal, Adquisición de fondos, Investigación, Metodología, Administración del proyecto, Supervisión, Escritura-revisión y edición.

Manifiestan no tener conflicto de interés alguno.



[1] Un “diario generalista” es un periódico que cubre una amplia variedad de temas y no se enfoca en un área específica. Estos diarios incluyen noticias de política, economía, sociedad, cultura, deportes, tecnología, y sucesos internacionales, entre otros.