Austral Comunicación

ISSN-L 2313-9129

ISSN-E 2313-9137

Volumen 14, número 2, 2025

e01423

Combatiendo el discurso de odio en Twitch: análisis exploratorio de los retos de la moderación de contenidos

Núria Roca-Trenchs*

https://orcid.org/0000-0002-9389-5098

Facultad de Ciencias de la Comunicación. Universitat Internacional de Catalunya. Barcelona, España.

 nroca@uic.es

Alexandre López-Borrull

https://orcid.org/0000-0003-1609-2088

Estudios de Ciencias de la Información y de la Comunicación, Universitat Oberta de Catalunya. Barcelona, España.

 alopezbo@uoc.edu

Ferran Lalueza

https://orcid.org/0000-0002-7010-9795

Estudios de Ciencias de la Información y de la Comunicación, Universitat Oberta de Catalunya. Barcelona, España.

flalueza@uoc.edu

Fecha de finalización: 20 de abril de 2024.

Recibido: 20 de abril de 2024.

Aceptado: 25 de marzo de 2024.

Publicado: 24 de abril de 2025

DOI: https://doi.org/10.26422/aucom.2025.1402.tre

Resumen

Twitch se ha consolidado como una de las plataformas favoritas entre los jóvenes: el 42,1% de su audiencia oscila entre los 18 y 24 años, mientras que el global de su público se sitúa en 2,6 millones de espectadores que consumen cerca de 6.000 millones de horas de contenido al trimestre. La plataforma se centró, originalmente, en los videojuegos en línea y, ahora, los streamers –siete millones en todo el mundo–, amplían y diversifican su contenido, que se emite en directo y que lo hace mayoritariamente efímero y difícil de rastrear. Twitch favorece la creación de comunidades porque los creadores de contenido conectan más directamente con su audiencia joven a partir del uso de narrativas innovadoras. No obstante, esta facilidad con la que se conecta con el público también plantea riesgos, porque los streamers pueden promover la polarización y los discursos extremistas particularmente si, junto al entretenimiento, articulan una agenda política más o menos oculta que difunde ideas tóxicas. En un contexto en el que preocupa la dieta mediática de los jóvenes, porque aún están construyendo su identidad, esto adquiere relevancia, porque pueden ser más fácilmente manipulados. Se presentan estudios de caso en los que han surgido polémicas alrededor de los contenidos difundidos en Twitch para: 1) identificar los patrones discursivos de los contenidos tóxicos (los que promueven homofobia, racismo, misoginia, violencia de género, terrorismo, etc., o dañan la salud mental en Twitch; y 2) analizar críticamente la respuesta de la plataforma en la lucha contra la difusión de los mensajes de odio. Una de las principales conclusiones señala que, aunque la plataforma modifica y amplía periódicamente sus normas de conducta, las polémicas mediáticas siguen siendo frecuentes, lo que refleja la dificultad de encontrar el equilibrio entre el control de contenidos y la sensación de censura.

Palabras clave: discurso de odio, identidad, juventud, medios sociales, polarización, Twitch.

Combating hate speech on Twitch: exploratory analysis of content moderation challenges

Abstract

Twitch has established itself as one of the favourite platforms among young people: 42.1% of its audience is between 18 and 24 years old, while the overall audience is 2,6 million viewers who consume around 6 billion hours of content per quarter. The platform originally focused on online video games, and now streamers - seven million worldwide - are expanding and diversifying their content, which is streamed live, making it mostly ephemeral and difficult to track. Twitch favours the creation of communities because content creators connect more directly with their young audience through the use of innovative narratives. However, this ease of connecting with the audience also poses risks, because streamers can promote polarisation and extremist discourse, particularly if, alongside entertainment, they articulate a more or less hidden political agenda that spreads toxic ideas. In a context where the media diet of young people is a concern, because they are still constructing their identity, this becomes relevant because they can be more easily manipulated. Case studies are presented where controversies have arisen around content broadcast on Twitch in order to: 1) identify the discursive patterns of toxic content (that which promotes homophobia, racism, misogyny, gender-based violence, terrorism, etc., or harms mental health on Twitch; and 2) critically analyse the platform's response in combating the dissemination of hate speech. One of the main conclusions is that, although the platform regularly modifies and expands its rules of conduct, media controversies are still frequent, reflecting the difficulty of finding a balance between content control and a sense of censorship.

Keywords: hate speech, identity, youth, social media, polarization, Twitch.

Combater o discurso de ódio no Twitch: análise exploratória dos desafios da moderação de conteúdos

Resumo

O Twitch estabeleceu-se como uma das plataformas preferidas dos jovens: 42,1% da sua audiência tem entre 18 e 24 anos, enquanto a audiência total é de 2,6 milhões de espectadores que consomem cerca de 6 mil milhões de horas de conteúdos por trimestre. A plataforma centrava-se inicialmente nos jogos de vídeo em linha, mas atualmente os streamers - sete milhões em todo o mundo - estão a expandir e a diversificar os seus conteúdos, que são transmitidos em direto, o que os torna efémeros e difíceis de seguir. O Twitch favorece a criação de comunidades porque os criadores de conteúdos se ligam mais diretamente ao seu público jovem através da utilização de narrativas inovadoras. No entanto, esta facilidade de ligação com o público também comporta riscos, porque os streamers podem promover a polarização e o discurso extremista, nomeadamente se, a par do entretenimento, articularem uma agenda política mais ou menos oculta que difunda ideias tóxicas. Num contexto em que a dieta mediática dos jovens é preocupante, porque estes ainda estão a construir a sua identidade, isto torna-se relevante porque podem ser mais facilmente manipulados. São apresentados estudos de caso em que surgiram controvérsias em torno de conteúdos difundidos no Twitch com o objetivo de: 1) identificar os padrões discursivos dos conteúdos tóxicos (aqueles que promovem a homofobia, o racismo, a misoginia, a violência de género, o terrorismo, etc., ou que prejudicam a saúde mental no Twitch; e 2) analisar criticamente a resposta da plataforma no combate à disseminação do discurso de ódio. Uma das principais conclusões é que, embora a plataforma modifique e amplie regularmente as suas regras de conduta, as controvérsias mediáticas continuam a ser frequentes, reflectindo a dificuldade de encontrar um equilíbrio entre o controlo dos conteúdos e o sentimento de censura.

Palavras chave: discurso de ódio, identidade, juventude, polarização, redes sociais, Twitch.

Introducción

El sector audiovisual se ha adaptado al uso de internet y de dispositivos móviles en el entorno informacional y de entretenimiento. El actual y complejo ecosistema de medios de comunicación: una mezcla entre los tradicionales (periódicos, radio y televisión) y los sociales (TikTok, Instagram y, también, Twitch, entre otros), evidencia el progresivo cambio de hábitos de consumo del público, sobre todo, en espacios en que surgen nuevas narrativas que se sirven de diferentes soportes, plataformas y lenguajes cuyo objetivo es conseguir una mayor implicación de la audiencia (Jenkins, Clinton, Purushotma, Robison y Weigel, 2009; Varela, 2005), sobre todo, joven.

Precisamente, uno de los primeros en utilizar el concepto de convergencia mediática fue Jenkins (2008), quien la entiende como un proceso que implica una variación cultural en la audiencia porque como consumidores ya no buscan la información o el entretenimiento en un solo canal, sino que generan conexiones entre ellos y, además, quieren tener un papel mucho más activo y participativo en la historia que se está relatando, con lo que se convierten en consumidores y creadores de contenido a la vez (Stein, 2015). Los cambios percibidos en la industria mediática son decisivos en lo referido al consumo de contenidos por parte del público más joven, que busca nuevos espacios de entretenimiento en los que relacionarse, porque en ellos puede encontrar intereses comunes, experimentar con diferentes identidades participando en distintas comunidades y creando múltiples perfiles (Boyd, 2014) y generar nuevos vínculos en un espacio virtual que acaba originando un modelo cultural (Ruiz Martín y Alcalá Mellado, 2016), muy distinto del creado por los medios tradicionales.

Twitch, desde su creación en 2011, se ha convertido en una de las plataformas que ofrece una gran variedad de contenido partiendo de la experimentación con las nuevas narrativas y más enfocada al público joven, que puede participar activamente de los contenidos que ofrecen los streamers. Aunque buena parte del contenido difundido en Twitch es inocuo, también se dan casos en que se generan efectos nocivos, tanto por parte de los streamers, como por parte de los espectadores en su rol activo de interacción con la emisión. En este sentido, se define inocuo como un contenido que no causa daño ni ofensa a los receptores del mensaje, ya sea el receptor directo o bien los miembros de la comunidad del propio streamer (seguidores y usuarios). Ello puede crear desencuentros, pero a efectos de estudio se ha optado por contenidos objetivamente dañinos y no se ha considerado que sean neutros (carentes de sesgo o parcialidad), porque ello quita elementos de valor al streamer.

El hecho de que haya una gran preocupación por la proliferación del discurso de odio y la polarización convierte a Twitch en un idóneo objeto de estudio al existir la amenaza de que aumente el consumo o la difusión de dicho tipo de contenidos –que van más allá de la mera experiencia informativa o de entretenimiento–. A todo ello, cabe añadir que el sofisticado entramado de medios de comunicación ha conducido al público general –y también, el joven– a sentir cierto desasosiego o, lo que autores como Zhang, Ding y Ma (2020) definen como fatiga social, por el exceso de información y contenidos que se pueden consumir. Esto supone que los individuos pueden estar más expuestos o vulnerables frente a la difusión de mensajes potencialmente tóxicos.

La investigación se centra en el análisis de distintos estudios de caso para: 1) identificar los patrones discursivos de los contenidos tóxicos (los que promueven homofobia, racismo, misoginia, violencia de género, terrorismo, etc., o dañan la salud mental en Twitch; y 2) analizar críticamente la respuesta de la plataforma en la lucha contra la difusión de los mensajes de odio.

El interés de la investigación radica en su contribución a desvelar el modo en que las especificidades de Twitch pueden facilitar la expansión de discursos de odio. En los últimos años ya se han publicado importantes estudios en torno a las características y usos de Twitch, ya sea centrándose en su empleo por parte de las administraciones públicas (Kazanin, 2017) o en el análisis de su potencial como herramienta de comunicación estratégica a partir de la existencia de influenciadores y creadores de opinión (Wulf, Schneider y Beckert, 2020). También se ha estudiado la sobreabundancia de información que existe en sus chats (Nematzadeh, Luca Ciampaglia, Ahn y Flammini, 2019), así como el modo en que logran atraer al público y aumentar la participación (Yang y Kang, 2021). Desde una visión política, también se ha estudiado la publicación de mensajes políticos (Ruiz-Bravo, Selander y Roshan, 2022), o su posible uso como herramienta de comunicación política por su efecto diferencial para captar la atención del público joven (Roca-Trenchs, López-Borrull y Lalueza, 2024). No obstante, se ha hecho poco énfasis en la literatura a su contribución a la difusión de mensajes de odio y el consecuente aumento de la polarización como sí han estudiado autores como Arcila-Calderón, Blanco-Herrero y Valdez Apolo (2020) en otros medios sociales. Por ello, este estudio abre esta vía para el estudio de dichos fenómenos en medios emergentes y con nuevas narrativas.

Desarrollo

Twitch comenzó como plataforma de ocio y entretenimiento (Wulf et al., 2020) y, con el tiempo, ha introducido otros tipos de contenidos audiovisuales que, ahora, se orientan mayormente al entretenimiento: no sólo se pueden encontrar videojuegos sino, también, contenidos que tratan temas como: música, viajes, arte, comida, divulgación científica, moda, etc. El 42,1% de la audiencia de Twitch oscila entre los 18 y 24 años y el global de audiencia se sitúa en 2,6 millones de espectadores simultáneos que consumen cerca de 6.000 millones de horas de contenido al trimestre; mientras que los creadores de contenido ya suman siete millones en el mundo (Orús, 2023). Y aunque buena parte del contenido que se emite es inofensivo, también existe una parte del contenido que puede ser nocivo, ya sea al propagar mensajes afines a la homofobia, el racismo, la misoginia, la violencia de género y el terrorismo o al propiciar problemas de salud mental, todo ello al servicio de la difusión de ideas extremistas

Por ello, la investigación se centra en el discurso de odio, un fenómeno cada vez más preocupante en el ámbito de la comunicación y, especialmente, en plataformas digitales como Twitch. El público joven es el que predomina en este medio social y, dado que está en proceso de construir su propia identidad, es el más susceptible de ser influenciado o manipulado (Yang, Holden y Arlati, 2021). Aunque hoy no existe una definición unánime para explicar qué se entiende por discurso de odio, la Organización de las Naciones Unidas (2019) hace una aproximación, en la que se considera:

[...] cualquier tipo de comunicación ya sea oral o escrita, —o también comportamiento—, que ataca o utiliza un lenguaje peyorativo o discriminatorio en referencia a una persona o grupo en función de lo que son, en otras palabras, basándose en su religión, etnia, nacionalidad, raza, color, ascendencia, género u otras formas de identidad. (p. 3).

Twitch destaca por facilitar la interacción entre el streamer y el público, estableciendo conversaciones en tiempo real –a diferencia de otras plataformas que se centran en la interacción en diferido–, lo que genera una transformación de los hábitos del consumo audiovisual a nivel mundial (Gutiérrez Lozano y Cuartero, 2020) y favoreciendo una mayor interacción. Los medios sociales, como Twitch, pueden facilitar la transmisión y amplificación del discurso de odio actuando como mecanismo de propagación (Arcila-Calderón, 2022) por su naturaleza interactiva y en tiempo real a través de comentarios o reacciones, esto es, la participación directa de los espectadores. Su rápida proliferación ha puesto de relieve la aparición de creadores de contenidos que tienen miles de seguidores y a quienes se les otorga autoridad y liderazgo. Los jóvenes se sienten identificados con sus contenidos y buscan la forma de conseguir el reconocimiento social en este entorno virtual. Algunos autores apuntan ya que las comunidades en medios sociales pueden actuar como cámaras de resonancia (Waisbord, 2020) donde las ideas más extremistas se refuerzan y validan, por lo que el público joven, en su búsqueda de reconocimiento, puede adoptar actitudes alineadas con el discurso de odio. Autores como Han, Seering, Kumar, Hancock y Durumeric (2023) profundizan en la difusión del discurso de odio en los medios sociales e introducen el concepto de hate raid como “una forma de ataque que satura el espacio de chat de un streamer con mensajes de odio, a menudo a través del uso de bots y la automatización” (p. 19). En un espacio pensado para la interacción, ese ataque hace muy difícil obviar los comentarios, con lo que la propia experiencia de la retransmisión pierde mucha calidad, más allá de los contenidos, además de la molestia y la desconcentración del streamer (Meisner, 2023).

En esta investigación, el discurso de odio se relaciona con la polarización, entendida como la distancia ideológica o social que existe entre diferentes grupos en una sociedad (McCoy y Rahman, 2016). Desde esta perspectiva y, de acuerdo con Abuín-Vences, Cuesta-Cambra, Niño-González y Bengoechea-González (2022), el discurso de odio

[...] modela la ideología de los receptores con ideas afines, con la finalidad de reafirmar la identidad social y marcar la diferencia con otros grupos sociales provocando el fenómeno de la desensibilización, incrementando los prejuicios y provocando la evitación de los sujetos objeto de odio, pudiendo desencadenar actos violentos. (p. 83).

El progresivo auge del populismo ha contribuido de forma significativa a la polarización. Según Waisbord (2020), esto sucede cuando tanto los medios de comunicación tradicionales como los medios de comunicación digitales explotan esas divisiones, fomentando el resentimiento social y avivando dinámicas del ‘nosotros contra ellos’ Abuín-Vences et al. (2022). En las plataformas digitales, específicamente, se crean narrativas que refuerzan los prejuicios y conducen a la estigmatización de determinados grupos sociales. Los algoritmos, diseñados para que los usuarios pasen más tiempo en las plataformas digitales, suelen promover este contenido polarizante (Gao, Liu y Gao, 2023) y que genera más interacción. De hecho, cuanto más fracturada está una sociedad –por cuestiones de lengua, raza, religión–, mayor es el grado de polarización y división, por lo que los individuos que la conforman pueden terminar sintiendo miedo, desconfianza y odio hacia los otros, y llegar a desestabilizar el sistema democrático sobre el que se sustenta (Crespo, Garrido, Martínez y Mora, 2021).

Por ello, resulta de suma importancia investigar en torno al contenido que se difunde en los medios sociales y los desafíos regulatorios que presentan, no sólo porque se han convertido en herramientas valiosas para conectar con el público joven (Becerra, 2021), sino porque plataformas como Twitch, aunque pueden ser un espacio de deliberación y participación donde hacer activismo LGBTI+, en contra del racismo, la violencia de género, a favor de la salud mental, etc., también pueden convertirse en escenarios de conflictos ideológicos donde la polarización del discurso fomenta la desinformación y facilita la difusión de ideas extremistas.

Metodología

La investigación plantea un análisis cualitativo de los datos, empleando el caso de estudio como método para analizar el contenido de las emisiones de diferentes streamers. Dicho método es adecuado para observar, identificar e interpretar el tipo de contenido que se difunde y para comprobar si se propagan contenidos tóxicos en Twitch. La importancia del caso de estudio como método de investigación radica en el hecho de que el objeto de estudio pretende responder al “cómo”; no se puede manipular el comportamiento del fenómeno de estudio; se quiere contextualizar el objeto de la investigación, y los límites entre el fenómeno y el contexto no son claros (Yin, 2003). En esta investigación resulta relevante aplicar el estudio de caso para saber qué contenidos se difunden en Twitch y alcanzar los objetivos planteados inicialmente.

El diseño de la investigación se ha basado en la identificación de los perfiles en Twitch donde los creadores de contenido han sido instigadores o bien las víctimas de discurso de odio y de los que se ha hecho eco mediático, es decir, han sobrepasado el umbral de la plataforma y la polémica, o la exclusión del streamer ha llegado a sitios de noticias especializados en streaming. Se ha tenido en cuenta el tipo de conflicto: acoso sexual, racismo, misoginia, insulto y burla hacia colectivos como el LGTBI y se ha identificado el colectivo al que se ataca. Finalmente, se ha evaluado si el ataque ha tenido consecuencias, como la expulsión de la plataforma (temporal o permanente). En la elección de los casos, una vez identificados ejemplos representativos de los criterios de inclusión elegidos, se validaron por el efecto mediático que habían tenido en prensa generalista y prensa especializada en este tipo de eventos y retransmisiones. Se eliminaron algunos perfiles en los que el discurso de odio era personalizado o no se identificaba claramente una comunidad como destinatario del mensaje de odio. Así, la investigación también incluye una revisión bibliográfica y una recopilación periodística en torno al discurso de odio en la plataforma.

El análisis que se realiza es de carácter exploratorio, porque permite cierta ductilidad y a la vez facilita la comprensión del objeto de estudio para conseguir una visión mucho más amplia sobre el fenómeno (Ramos-Galarza, 2020). Así, se identifican los posibles contenidos nocivos o tóxicos en las emisiones de los creadores de contenidos, ya sea de ellos mismos o de su público. Aunque son diversos los factores que pueden hacer que las personas consideren un contenido como tóxico, autores como Kumar, Kelley, Consolvo, Mason, Bursztein, Durmeric, Thomas y Bailey (2021) engloban, en el término de contenido tóxico, conceptos como ataques basados en la identidad (racismo), el acoso en juegos en línea, amenazas de violencia, acoso sexual, etc., considerando que “These attacks represent a subset of abuse stemming from hate and harassment, a broader threat that encompasses any activity where an attacker attempts to inflict emotional harm on a target (e.g., stalking, doxxing, sextortion, and intimate partner violence)” (p. 299). En esta investigación, se consideran todos los temas relacionados con la homofobia, la misoginia, el racismo, la violencia de género, el terrorismo o los problemas de salud mental.

Se analizan ocho casos distintos. Cabe destacar como limitación metodológica la dificultad que implica un análisis de contenido en los medios sociales y, concretamente en Twitch, porque sus contenidos son efímeros (Bainotti, Caliandro y Gandini, 2021). Los estudios de caso se han escogido a partir de tres criterios de inclusión: 1) el eco mediático generado en medios digitales especializados en streaming, pero también en medios generalistas; 2) que haya una pluralidad de contenidos en relación con las comunidades víctimas del mensaje de odio (racismo, LGBTI, mujer), y 3) las motivaciones sociales y políticas de cada perfil, ya fuera que tenga una motivación política, una motivación social, o que los contenidos hayan aparecido en medio de contenidos no políticos.

Considerando estos criterios, como instigadores de contenido tóxico se han elegido: GipsyCrusader (perfil abiertamente racista y homófobo), Donald Trump (perfil que en un discurso en directo hacía una apelación que podía incitar al racismo), Destiny (perfil que hace escarnio al colectivo LGBTI) y Greekgodx (perfil con discursos provocativos).

Como ejemplos de víctimas de ataques, se escogieron: Charleyy Hodson (perfil que recibió acoso sexual), Keffals Streamer (perfil que recibió hate raids por ser activista trans, Crystal Molly (perfil que recibió escarnio y burla por ser trans) y Gonzabella (perfil atacado con comentarios misóginos).

Análisis de resultados

Perfiles emisores de mensajes de odio

Gipsy Crusader: de plataforma en plataforma hasta acabar en prisión. Este streamer tiene un perfil abiertamente racista y homófobo y recurre a distintos medios sociales para promover su mensaje de odio. En este caso, estamos ante un perfil peligroso que ha ido siendo expulsado de diversos medios sociales a medida que se ha ido detectando su presencia. Actualmente se informa que estaría en prisión por posesión ilegal de armas. Su modus operandi consistía en transmitir en plataformas de streaming como Twitch o Dlive su participación en la plataforma Omegle, una red de chat aleatorio, donde hacía llamamientos contra colectivos y a estar preparados para una guerra civil.

Peiser (2021) describe cómo Paul Miller (su nombre real) se disfrazaba de Joker y otros personajes famosos y reconocibles y captaba la atención de adolescentes para hacerles preguntar como si consideraban “que los judíos debían ser gaseados”. Fue expulsado definitivamente de Twitch en 2019, y su caso ha sido recogido en un estudio de O’Connor sobre la presencia de la extrema derecha en Twitch (2021). Podría definirse como un patrón de streamer con agenda política clara y violenta, con ataques y mensajes de odio contra distintos tipos de colectivos.

Destiny: del streaming de StarCraft al posicionamiento político. Steven Kenneth Bonnell II, conocido como Destiny en Twitch y otros medios sociales, es un ejemplo de cómo plataformas como Twitch nacieron para el seguimiento de los juegos en línea, pero paulatinamente fueron incorporando nuevos contenidos. Destiny empieza, como relata su perfil en Wikipedia, jugando al StarCraft pero, poco a poco, y gracias a su lenguaje incisivo y contundente, va creando una comunidad fiel incorporando contenidos de reflexión política y entrevistas. También muestra su ideología, que pasa de exponerse como libertario a posiciones más contrarias a la extrema derecha. Además, usa sus directos para debatir con perfiles de derecha extrema a los que acorrala con su lenguaje contundente y su verbo fácil. Tal como recoge la noticia publicada en Wired (Quirk, 2020), había sido ya expulsado temporalmente de Twitch en cuatro ocasiones (y tres en X). En alguna ocasión, como en julio de 2018, el motivo parece haber sido decir la “f-word”.

Finalmente, en 2022 fue expulsado definitivamente de Twitch. Según informan Litchfield y Chalk (2022) los motivos podrían ser: o bien por haber entrevistado a un perfil expulsado anteriormente de la plataforma por sus ideas, Nick Fuentes, nacionalista blanco que fue expulsado por promover hate raids contra perfiles de mujeres y activistas LGTB (lo cual incumple las normas); o bien por haber criticado la presencia de deportistas trans en competiciones femeninas, lo cual atrajo un debate en medios sociales.

En este caso, se observa un perfil que va de los juegos a la política, que es exitoso y acoge una comunidad fiel, y donde parte de su éxito, como en otros casos, es por la utilización de lenguaje contundente. Ello le comporta moverse en una línea muy fina, fácil de traspasar. Ante ello, la respuesta de la plataforma pasa por expulsiones temporales, unos ciertos días, pero también siendo consciente que son perfiles que atraen a un gran número de seguidores con contenidos diferentes de los juegos. Finalmente, cuando sus declaraciones o acciones acaban siendo insostenibles, es expulsado permanente.

Trump, siempre Trump. El actual presidente de Estados Unidos, Donald Trump, ha protagonizado distintos conflictos en los medios sociales. Su cuenta @realDonaldTrump en X fue suspendida de forma permanente en enero de 2021 por incitación a la violencia: sus seguidores irrumpieron a la fuerza en el Capitolio. El caso ha sido estudiado en la bibliografía por autores como Floridi (2021) o Alizadeh et al. (2022), e incluso acabó creando su medio social, Truth Social. Por el mismo motivo, pero anteriormente, su cuenta en Twitch fue suspendida permanentemente en 2020 por promover el discurso de odio, concretamente, contra el colectivo de personas inmigrantes y promover teorías de la conspiración infundadas en torno al fraude electoral. El exmandatario incitó al odio al afirmar que México enviaba violadores a los Estados Unidos.

Aunque evidentemente Donald Trump merece una categoría especial de estudio por el hecho de ser presidente de los Estados Unidos, cabe considerar también en este caso que Twitch es propiedad de Amazon, cuyo fundador, Jeff Bezos, mantiene una larga enemistad con Trump (Cilliza, 2019), lo cual podría también explicar que fuera la primera red en expulsarlo, mucho antes de los hechos del Capitolio, donde entonces ya sí había sido expulsado de múltiples plataformas. La estrategia de Trump pasa por aprovechar todas las plataformas para retransmitir sus actos, obtener cobertura mediática y así multiplicar la capacidad de llegar a múltiples públicos a la vez (Zhang, Lukito, Suk y McGrady, 2024).

Paralelamente al estudio de los perfiles y expulsiones y en el marco de que el resto de medios sociales iban rehabilitando la figura de Trump (posterior a su intento de asesinato en un mítin de campaña), en 2024, tres años después, se le devolvió su perfil en Twitch, donde ahora conserva una comunidad de más de 305.000 seguidores. En este sentido, teniendo constancia de los equilibrios geopolíticos que los medios sociales deben tener, se contextualiza tanto su expulsión como su vuelta a las plataformas. Diversos autores coinciden en relacionar sus narrativas y discursos con el aumento de discursos de odio y rechazo a determinadas comunidades, por lo que su presencia o no en una plataforma es una decisión ni trivial, ni sencilla, ni neutra (Hamed, 2021; Valcore et al., 2023).

Greekgodx: castigado en la plataforma como en el patio del colegio. Dimitri ‘Greekgodx’ Antonatos acumula diversas expulsiones temporales por incorporar dentro de sus directos contenidos vejatorios contra inmigrantes o mujeres. En este sentido, es importante tener en cuenta que la plataforma notifica que se ha infringido el código de conducta, pero no detalla los motivos concretos, lo que ha hecho que se generen debates sobre los verdaderos motivos. En algunos casos, por sus opiniones machistas y retrógradas (Bhattacharya, 2022). Otras veces parece haber sido por hacer twerking, e incluso se ha especulado con que sea debido por haber empezado a hacer retransmisiones en Kick, el principal nuevo competidor de Twitch.

Se trata de un perfil que no tiene de por sí una agenda política clara, sino que son sus escalas de valores las que van creando una comunidad y esporádicamente, se pasa a la utilización de expresiones y acciones que van contra las normas. Ello comporta sucesivas expulsiones temporales, de tres días, dos semanas, convirtiendo la plataforma en un patio de colegio antiguo con los castigos como método de corrección, esperando que haya automoderación.

En la siguiente tabla se sintetizan los resultados del estudio de caso de los perfiles instigadores de mensajes de odio.

Tabla 1. Análisis de perfiles instigadores de discurso de odio

Creador de contenido

Protagonista en el conflicto

Tipo de conflicto

Colectivo/ Target

Consecuencias

GipsyCrusader

Instigador

Racismo

Homofobia

Inmigrantes

LGBTI

Expulsión permanente

Donald Trump

Instigador

Conducta de odio

Racismo

Inmigrantes

Expulsión permanente

Destiny

Instigador

Insultos

Burla

LGBTI

Diversas expulsiones temporales en 2021 y 2022 por difundir datos personales y otros motivos.

Expulsión definitiva en marzo de 2022 por promover hate raids a colectivos trans

Greekgdox

Instigador

Misoginia

Femenino

Acumulación de expulsiones temporales

Fuente: elaboración propia.

Perfiles receptores de mensajes de odio

Charleyy Hodson, cuando ser una gran jugadora no elimina el acoso sexual. El caso de Charleyy Hodson ejemplifica la dificultad de las mujeres en consolidar sus comunidades de forma segura sin sufrir acoso de ningún tipo. En 2017, una de las mejores gamers del Reino Unido inició una campaña para visibilizar el acoso a que eran sometidos muchos perfiles, especialmente de mujeres, e interpeló a los propietarios de la plataforma a tomar cartas en el asunto y automatizar acciones para evitar el acoso (Blunden, 2017). Por su parte, Farokhmanesh (2017) describe la importancia del acoso en el momento de la retransmisión, por cuanto la interacción y la cámara están pendientes de cualquier reacción del streamer, y la capacidad de distracción y parálisis conduce a peores experiencias. Además, en aquel momento se criticó a la plataforma por no tomarse ni muy en serio ni muy rápido las denuncias, hasta que estas tuvieron un eco mediático. A todo ello, en un contexto donde se quería potenciar la igualdad en dichas plataformas como gamers, pero con la percepción de impunidad para con el acoso a streamers.

Keffals, el coste de la denuncia del acoso. El caso de Keffals es paradigmático de las dificultades para los activistas que levantan la voz, precisamente, para denunciar el acoso en las plataformas de streaming. En 2022, por tanto, no en los primeros compases de la plataforma, Carla Sorrenti, conocida como Keffals, fue expulsada temporalmente de Twitch. En su denuncia, ella entendía que el motivo había sido que había reflejado en su argumentación los insultos que recibía en forma de comentarios en sus retransmisiones (Luna, 2022). El grupo de fanáticos provenía de la comunidad de usuarios de Destiny, perfil del que hemos hablado anteriormente y que mantenía un discurso transfóbico. En este caso, además, cabe comentar que el acoso no acabó allí ni en la plataforma, sino que hubo polémica porque la streamer fue detenida en su país, Canadá, debido a falsas denuncias que aludían a que la streamer había anunciado que atacaría a miembros del colectivo cisgénero[1]. Por tanto, un acoso que ya toma una derivada mayor, en el odio. Keffals estuvo escondida durante un tiempo hasta su aparición en la TwitchCon de octubre del 2022, bajo la protección de Twitch, en un intento de la plataforma de dejar claro su posicionamiento respecto al acoso (Sung, 2022). Aun así, cabe destacar que todo ello sigue ocurriendo bajo múltiples y mayores normas de conducta implementadas por la plataforma y después del #ADayOffTwitch, del cual hablaremos más adelante.

Crystal Molly, burla sin efectos. El caso de Crystal Molly es un ejemplo de un tipo de burla sin ninguna consecuencia real, pero que tiene mucho efecto en tener lugar durante un torneo Fortnite creado por el Rubius, un famoso streamer español, con mucha audiencia. En ella, alguno de los participantes hizo comentarios hirientes de la voz de Crystal Molly, activista trans y streamer muy conocida. En este caso, no existen agendas políticas, pero es peligroso ver cómo determinados comentarios que pueden parecer inocuos en la relajación de la retransmisión pueden generar y crear opinión, sobre todo por no generar empatía (Méndez, 2023).

Gonzabella, víctima de acoso en directo. Gonzabella fue víctima de acoso en septiembre de 2023, por el hecho de que describe el caldo de cultivo en que muchas de las retransmisiones tienen lugar cuando son al aire libre, y es el acoso que recibió por parte de un hombre que se encontraba en la misma terraza mientras retransmitía (Fernandez Segura, 2023). Se observa como un hecho común en conexiones en directo de retransmisiones tradicionales durante eventos y conciertos, como San Fermín y otras fiestas de verano (Ramírez, 2017).

La siguiente tabla recoge resumidamente los cuatro casos analizados.

Tabla 2. Análisis de perfiles víctimas de discurso de odio

Creador de contenido

Protagonismo en el conflicto

Tipo de conflicto

Colectivo atacado

Consecuencias

Charleyy Hodson

Víctima

Acoso sexual

Femenino

Cambios paulatinos en las normas de conducta

Keffals

Víctima

Hate raid

Trans

Expulsión temporal de la streamer

Crystal Molly

Víctima

Escarnio

Burla

Trans

Ninguna consecuencia

Gonzabella

Víctima

Acoso

Femenino

Ninguna consecuencia en la plataforma

Fuente: elaboración propia.

La regulación de contenidos en Twitch: el hámster en la rueda del control de contenidos

Twitch pone a disposición de los usuarios una serie de reglas en el chat y que los moderadores se responsabilizan de hacer cumplir. Entre las directrices para la comunidad, se señala el respeto a los demás, incluidos los creadores de contenidos, a los cuales se debe evitar “[...] cosificarlos sexualmente, acosarlos, describir actos violentos hacia ellos, describir reacciones físicas hacia ellos o deshumanizarlos de cualquier otra manera” (Twitch, 2024b). Del mismo modo se debe actuar con el resto del público: “Queremos que este canal sea un lugar seguro y acogedor para todos. No hagas nada que pueda hacer sentir a alguien fuera de lugar. Esto incluye, entre otros, generalizaciones de tipos de personas, discursos de odio o lenguaje discriminatorio basado en el género, la religión, la etnia, el sexo o el origen socioeconómico” (Twitch, 2024b).

Además, Twitch se unió al Código de Conducta de la Unión Europea en 2020 para combatir el discurso de odio ilegal en línea, como ya hicieron X, YouTube, Instagram o TikTok. No obstante, aunque se estén tomando medidas para evitar la difusión de contenido tóxico, se dan casos en los que los reguladores de contenidos se han visto obligados a actuar. En septiembre de 2020, se prohibió el uso de la bandera confederada de Estados Unidos y se prohibieron palabras como “simp”, “incel” o “virgen”. En septiembre de 2021, se generó la etiqueta #ADayOffTwitch, un movimiento impulsado por los creadores de contenido ShineyPen, Lucia Everblack y RekitRaven con el que pretendían mostrar su desacuerdo con los usuarios tóxicos: los creadores de contenido pedían mejores herramientas para controlar el acoso y el discurso de odio (Onli, 2021). Es significativa esta acción dado que las ganancias de determinados streamers son muy elevadas y no conectarse un día implicaba dejar de ganar grandes sumas, lo que daba una idea de la percepción imperante entre los usuarios que los discursos de odio y el acoso mediante hate raid eran insostenibles.

Una consulta en el portal Streamerbans permite comprobar que se dan expulsiones diarias de Twitch y es una constante difícil de soslayar en el día a día. En este sentido, aún con los intentos de Twitch de dar una imagen de control de ciertos contenidos y de las campañas de acoso, dicha plataforma aparece de forma evidente asociada a mensajes de odio y polémicas. Perfiles como el de Gipsy Crusader son relativamente sencillos de expulsar porque no existe una decisión polémica, y, por tanto, es fácil asegurar que el odio no tiene cabida. Pero cuando las campañas de hate raid se hicieron más habituales, la plataforma parecía un lugar menos seguro para determinados colectivos. Twitch no puede permitirse este tipo de acciones, así que se han ido incorporando nuevas normas para evitar la pérdida de interés, audiencia y streamers hacia otras plataformas digitales. Curiosamente, parece que algunas fugas se han dirigido desde los perfiles expulsados con menos controles al estar menos en el foco de las administraciones. Se establece, pues, un equilibrio de vasos comunicantes entre plataformas.

Discusión / Conclusiones

En relación con el primer objetivo, se han identificado los patrones discursivos y las características que pueden contribuir a potenciar la presencia del discurso de odio en Twitch y a acentuar la polarización.

La primera es el carácter efímero de la mayor parte de los contenidos difundidos a través de este medio social. Una vez que ha concluido una emisión, la plataforma no permite recuperar ese contenido excepto si su creador decide mantenerlo accesible, lo cual no es la práctica habitual. En consecuencia, detectar y penalizar cualquier mala praxis a posteriori no es una opción viable la mayor parte de las veces. Esta circunstancia se ve agravada por el hecho de que las retransmisiones suelen generar conversaciones en directo entre los seguidores a través de chats que son públicos. Controlar el contenido de estos chats en vivo deviene una labor claramente inabarcable.

La segunda característica es que, al potenciarse las retransmisiones en directo, se incrementa el sentimiento de comunidad (Diwanji, Reed, Ferchaud, Seibert, Weinbrecht y Sellers, 2020), puesto que creadores de contenido y seguidores pueden interactuar en tiempo real. Sentirse parte de una comunidad provoca que el usuario sea mucho más receptivo a las ideas que en ella se transmiten al actuar como cámaras de resonancia (Waisbord, 2020) y, al mismo tiempo, le mantiene alejado de otras comunidades que puedan plantear ideas alternativas. Adoctrinar a los seguidores, por tanto, resulta más sencillo que en otras plataformas en las que la interacción entre perfiles que tengan posicionamientos opuestos resulta mucho más común. A efectos prácticos, es como si el filtro burbuja fuera mucho más rígido. De este modo, se dificulta la contrastación de los contenidos consumidos con puntos de vista alternativos y se dan alas a los contenidos tóxicos, puesto que tendrán una posibilidad mucho menor de ser rebatidos por alguien ajeno a la comunidad que los difunde.

La tercera característica, en este caso exógena, alude a la edad de los usuarios. Tratándose mayoritariamente de un público joven, es consecuentemente un público más vulnerable (Yang, Holden y Ariati, 2021), puesto que el hecho de disponer de menos experiencia y de menos referentes lo hace más permeable a ideas extremistas carentes de cualquier fundamento sólido.

La cuarta característica es el predominio de los elementos visuales, que, en comparación con los textuales, son mucho más difíciles de controlar por los sistemas de moderación de contenido automatizados (el control “manual” llevado a cabo por humanos no es viable dada la enorme multiplicidad de retransmisiones simultáneas cuyo contenido, además, típicamente no puede ser recuperado posteriormente). Un elemento tan característico de las emisiones de Twitch como puede ser, por ejemplo, el uso de emotes, ha sido asociado a la permeabilidad que esta plataforma tiene respecto a los discursos de odio (Kim, Wohn y Cha, 2022). Si sumamos a este carácter eminentemente visual el hecho de que también se emplean artimañas para eludir los controles automatizados de texto (por ejemplo, alterando sutilmente la grafía correcta de palabras vetadas), la posibilidad de burlar los sistemas de moderación se ve notablemente incrementada.

La quinta característica es el contexto lúdico en el que se desarrollan buena parte de las interacciones generadas en la plataforma. La popularización y consolidación de Twitch va intrínsecamente ligada a las retransmisiones de partidas de videojuegos y de eSports, así como otros contenidos relacionados con el entretenimiento, lo que favorece que el usuario desactive su espíritu crítico y sus defensas ante eventuales intentos de adoctrinamiento extremista. En consecuencia, tácticas como la de mostrar a un creador de contenido jugando a un videojuego mientras va hablando para promocionar una determinada perspectiva política (O’Connor, 2021) pueden ser particularmente efectivas en esta plataforma. Además, en un entorno lúdico competitivo, el discurso de odio puede aparecer también como reacción airada ante una eventual derrota.

En relación con el segundo objetivo, analizar críticamente la respuesta de la plataforma en la lucha contra la difusión de los mensajes de odio, se constata que los gestores de la plataforma no han sido particularmente proactivos en impulsar sistemas de moderación de contenidos, lo cual también puede contribuir a propiciar la circulación de contenidos vinculados a discursos de odio. Hasta finales de 2020 Twitch no incluyó en su guía para la comunidad pautas mínimamente sólidas para combatir el discurso extremista, ya sea el que difunden los creadores de contenido o el público (ambos pueden ser instigadores y víctimas). Además, hasta el año 2021 no publicó informes de transparencia sobre las medidas tomadas para proteger a sus usuarios frente a contenidos tóxicos. Aunque existan medidas reguladoras, los creadores de contenidos y el propio público encuentran en Twitch un canal idóneo dónde difundir sus propias ideas y sus perfiles son fáciles de identificar (si existe informe o quejas). No todo lo que se difunde incluye contenido nocivo, pero sí que hay espacio para atacar ciertos colectivos y pocas repercusiones legales, porque la plataforma impone medidas que, aunque sencillas de implementar y defender, resultan insuficientes, como suspender temporalmente o permanentemente (siempre a posteriori) al creador de contenido o al usuario instigador.

De ello, se desprende la necesidad de actuar para conjugar la creación de contenidos (de calidad) y avivar a la vez el interés de streamers y usuarios que pueden sentirse atraídos por contenidos cuestionables. Mantener este equilibrio a menudo resulta difícil para las plataformas más exitosas, a las cuales las administraciones exigen más medidas de control que, cuando se llevan a cabo, provoca que determinados colectivos y perfiles migren a otros entornos menos regulados, pero también más minoritarios como es el caso de Parler –por parte de colectivos conservadores en Estados Unidos– o Truth Social, el medio social creado por Donald Trump y del cual no parece probable que sea expulsado.

Twitch se ha convertido en un espacio en que los creadores de contenido, pero también el público, pueden encontrar facilidades para difundir mensajes perniciosos o nocivos y, por lo tanto, tanto ser instigadores cómo convertirse en víctimas de los mismos. En este sentido, se han identificado patrones de canales abiertamente racistas, homófobos o misóginos; perfiles que utilizan contenidos sensibles, que difunden insultos o hacen escarnio y perfiles que promueven hate raids (Han, Seering, Kumar, Hancock y Durumeric, 2023). A partir de su discurso contra ciertos colectivos se consigue ganar popularidad, aunque ello implique consecuencias como la expulsión de la plataforma. La propia dinámica de Twitch parece favorecer el crecimiento de perfiles polémicos y contundentes, aunque este mismo crecimiento les sitúa en un foco que les puede hacer que acaben expulsados. En relación con los perfiles que reciben mensajes de odio se observa cómo las mujeres tienen más dificultad para asegurar sus comunidades en línea, pero también cómo estas mismas mujeres visibilizan el acoso que reciben. Tortajada y Vera (2021) señalan que el feminismo se ha robustecido a través de los medios sociales -con un aumento del activismo-; pero alertan también de una escalada de los discursos antifeministas. En esta línea, se observa que colectivos como el LGBTI tampoco están exentos de ser víctimas de acoso. Autores como Rivera-Martin, Martínez de Bartolomé y López (2022) exponen que el anonimato que proporcionan los medios sociales puede fomentar, aún más, el rechazo a la diversidad.

Twitch parece jugar al gato y al ratón a la hora de tomar medidas para el control de los mensajes de odio. En la mayoría de los casos analizados, se expulsa de forma temporal a los instigadores (sean creadores de contenido o público), lo cual parece ser una medida demasiado suave o insuficiente para erradicar del todo este tipo de contenido, que puede conducir a prácticas inapropiadas o perjudiciales. En marzo de 2024 (Twitch, 2024a), la plataforma publicó un nuevo comunicado en el que manifestó, una vez más, la voluntad de incorporar más medidas para eliminar conductas inapropiadas. Ello evidencia la insuficiencia del sistema de moderación vigente y a la vez permite cuestionar si en el streaming con interacción de usuarios es posible la creación de espacios seguros para todos los colectivos. Si por muchas normas y prohibiciones con las que se doten las plataformas la percepción es que no bastan, ello cuestiona la misma existencia de la plataforma, como se vio en el caso de Omegle, aunque en este caso los motivos fueron los abusos sexuales (Vallejo, 2023). Las normas no deben ser las de un patio de colegio con expulsiones temporales. Vale la pena visualizar sitios web como Streamcharts para ver cuántos perfiles son expulsados (y también a los que se levanta la prohibición).

Cabe destacar el difícil equilibrio de las plataformas y, en este caso concreto, de Twitch para controlar, regular o moderar los contenidos y preservar el interés de los usuarios. Al fin y al cabo, los contenidos nocivos pueden ser particularmente llamativos y la prioridad de los medios sociales no es combatirlos sino captar la atención del público, en sintonía con el concepto de trending truth empleado por López Borrull (2023). Se observa que parece prevalecer el intento de mantener a los usuarios y el engagement, lo que contrasta con la afirmación de Barata Mir (2022), quien asegura que “Internet es, seguramente, el entorno en el que la expresión y difusión de ideas, opiniones e informaciones se encuentra sujeta a un mayor número de principios y reglas establecidas tanto por los Estados como por poderosos sujetos privados” (p. 91).

Se pone énfasis en la recomendación sobre la necesidad de las instituciones y gobiernos de regular los contenidos en los medios sociales, así como de la autorregulación, tal y como señalan autores como Naranjo (2020) y de examinar la calidad de la dieta mediática de los jóvenes, que deberían encontrar espacios de deliberación, discusión y participación en los que informarse y entretenerse de forma segura. Por ello, autores como Magallón-Rosa (2021) insisten en los desafíos que implica la legislación digital. Sin duda, aquello que está claro es el hecho de que las plataformas deben seguir siendo responsables del control de los contenidos que emiten, así como tener reglas y normas de conducta claras y específicas. Al fin y al cabo, de acuerdo con Carral (2024): “además de reforzar la polarización, el hábito de informarse a través de las redes sociales propicia la normalización de la retórica agresiva” (p. 3).

En conclusión, aunque Twitch ha implementado diversas medidas para combatir el discurso de odio, la naturaleza efímera y dinámica de los contenidos en la plataforma presenta desafíos significativos para una moderación efectiva. La interacción en tiempo real y la creación de comunidades cerradas pueden facilitar la propagación de discursos polarizantes y extremistas, especialmente entre una audiencia joven y vulnerable. Esta investigación ha identificado patrones preocupantes en la difusión de contenidos tóxicos y ha evaluado la respuesta de la plataforma, pero es evidente que se necesitan políticas más proactivas para mitigar estos riesgos.

A partir de la investigación, de carácter exploratorio, se asumen como limitaciones y futuras líneas de investigación la dificultad para rastrear y analizar contenidos efímeros, así como los estudios de caso que no pretenden ser representativos de lo que sucede en la plataforma, pero sí resultan significativos para entender qué pasa en la plataforma. Además, la falta de acceso a datos internos de Twitch limita la capacidad de evaluar completamente la eficacia de las medidas implementadas. Parece oportuno que futuras investigaciones aborden estas limitaciones mediante la colaboración con la plataforma para obtener datos más completos.

La polarización en Twitch, exacerbada por la naturaleza interactiva y en tiempo real de la plataforma, subraya la necesidad de estudios continuos que exploren cómo las comunidades digitales fomentan y cómo podrían mitigar la difusión de discursos de odio. La investigación futura debería centrarse en desarrollar estrategias de moderación que no solo sean reactivas, sino también preventivas y que consideren el impacto psicológico y social en los usuarios jóvenes. En este sentido un debate sobre las posibilidades de las herramientas de IA generativa con supervisión manual podrían ser una respuesta, como sucede con los medios sociales, aunque precisamente recientemente las plataformas están promoviendo giros para eliminar el control efectivo de contenidos, tanto en X como en las plataformas de Meta.

En resumen, mientras que Twitch continúa siendo un espacio valioso para la interacción y el entretenimiento, parece más que oportuno que se implementen y evalúen continuamente nuevas estrategias para garantizar un entorno seguro y acogedor para todos los usuarios. La colaboración entre investigadores, plataformas y reguladores será esencial para abordar los desafíos dinámicos y complejos que presenta la moderación de contenidos en tiempo real.

Referencias

Abuín-Vences, N., Cuesta-Cambra, U., Niño-González J.I. y Bengoechea-González, C. (2022). Análisis del discurso de odio en función de la ideología: efectos emocionales y cognitivos. Comunicar, 71, 37–48. https://www.revistacomunicar.com/index.php?contenido=detalles&numero=71&articulo=71-2022-03. https://doi.org/10.3916/C71-2022-03.

Ali, M. S. B. (2020). Does ICT promote democracy similarly in developed and developing countries? A linear and nonlinear panel threshold framework, Telematics and Informatics, 50(1), 101382, https://doi.org/10.1016/j.tele.2020.101382.

Alizadeh, M., Gilardi, F., Hoes, E., Klüser, K. J., Kubli, M. y Marchal, N. (2022). Content Moderation As a Political Issue: The Twitter Discourse Around Trump’s Ban. Journal of Quantitative Description: Digital Media, 2, 1–44. https://doi.org/10.51685/jqd.2022.023.

Arcila-Calderón, C., Sánchez-Holgado, P., Quintana-Moreno, C., Amores, J.J. y Blanco-Herrero, D. (2022). Discurso de odio y aceptación social hacia migrantes en Europa: Análisis de tuits con geolocalización. Comunicar, XXX(71), 21–35. https://doi.org/10.3916/C71-2022-02

Arcila-Calderón, C., Blanco-Herrero, D. y Valdez Apolo, M. B. (2020). Rechazo y discurso de odio en Twitter - Rejection and Hate Speech in Twitter. Revista española de Investigaciones Sociológicas, 172, 21–39. http://dx.doi.org/10.5477/cis/reis.172.21

Bainotti, L., Caliandro, A. y Gandini, A. (2021). From archive cultures to ephemeral content, and back: Studying Instagram Stories with digital methods. New Media & Society, 23(12), 3656-3676. https://doi.org/10.1177/1461444820960071.

Barata Mir, J. (2022). Libertad de expresión, regulación y moderación privada de contenidos. Teoría & Derecho. Revista de Pensamiento Jurídico, 32, 88–107. https://doi.org/10.36151/TD.2022.039.

Becerra, M. A. (2021). Regulación de las plataformas digitales: Dos casos de análisis con Google y Facebook como protagonistas. Revista Argentina de Regulación y Derecho de las Telecomunicaciones, 2, 1–12.

Bhattacharya, R. (29 de junio de 2022). Why was Greekgodx banned from Twitch?. Sportskeeda. https://www.sportskeeda.com/esports/news-why-was-greekgodx-banned-twitch.

Blunden, M. (1 de septiembre de 2017). Female gamer who was sexually harassed by trolls over live stream calls for automatic ban on abusers. The Standard. https://www.standard.co.uk/news/tech/female-gamer-who-was-sexually-harassed-over-live-stream-calls-for-trolls-to-be-banned-a3624641.html.

Boyd, D. (2014). It’s complicated. The social lives of networked teens. Yale University Press.

Carral, U. (2024). Toxicidad política en redes sociales. El caso de las elecciones del #28M. Cátedra Ideograma-UPF. https://orcid.org/0000-0002-2329-3331.

Cilliza, C. (8 de febrero de 2019). Donald Trump y Jeff Bezos: la larga y dramática historia de su enemistad. CNN. https://cnnespanol.cnn.com/2019/02/08/donald-trump-y-jeff-bezos-la-larga-y-dramatica-historia-de-su-enemistad/.

Crespo, I., Garrido, A., Martínez, M.A. y Mora, A. (2021). Polarización afectiva, partidismo y brecha perceptiva. Una aproximación teórica. Revista Más Poder Local, 45, 7–20.

Diwanji, V., Reed, A., Ferchaud, A., Seibert, J., Weinbrecht, V., y Sellers, N. (2020). Don't just watch, join in: Exploring information behavior and copresence on Twitch. Computers in Human Behavior, 105, 106221. https://doi.org/10.1016/j.chb.2019.106221.

Farokhmanesh, M. (12 de agosto de 2017). Twitch yanks harassment livestream, but doesn’t ban the user who made it. The Verge. https://www.theverge.com/2017/8/12/16120496/twitch-harassment-livestream-irl.

Floridi, L. (2021). Trump, Parler, and Regulating the Infosphere as Our Commons. Philosophy & Technology, 34, 1–5. https://doi.org/10.1007/s13347-021-00446-7.

Gao, Y., Liu, F. y Gao, L. (2023). Echo chamber effects on short video platforms. Scientific reports, 13, 1-17. https://doi.org/10.1038/s41598-023-33370-1

Hamed, D.M. (2021), "Trump's January 6 Address: Hate Speech or Freedom of Speech? A Transdisciplinary Study", Journal of Humanities and Applied Social Sciences, 4(5), pp. 438-456. https://doi.org/10.1108/JHASS-03-2021-0055

Han, C. Seering, J., Kumar, D., Hancock, J.T. y Durumeric, Z. (2023). Hate Raids on Twitch: Echoes of the Past, New Modalities, and Implications for Platform Governance. Proceedings of the. ACM on Human-Computer Interaction. 7, CSCW1, 133, 1–28. https://doi.org/10.1145/3579609.

Jenkins, H., Clinton, K., Purushotma, R., Robison, A. J. y Weigel, M. (2009). Confronting the Challenges of Participatory Culture: Media Education for the 21 Century. MacArthur.

Jenkins, H. (2008). Cultura de la convergencia. Paidós.

Kazanin, Victor E. (2017). “Telegram-Channels and Twitch-Broadcast As  the Prospective Technologies in Government Transparency” Contemporary Problems of Social Work, v. 3, n. 4. https://doi.org/10.17922/2412-5466-2017-3-4

Kim, J., Wohn, D. Y., Cha, M. (2022). Understanding and identifying the use of emotes in toxic chat on Twitch. Online Social Networks and Media, 27, 100180. https://doi.org/10.1016/j.osnem.2021.100180.

Kumar, D., Kelley, P.G., Consolvo, S., Mason, J., Bursztein, E., Durmeric, Z., Thomas, K. y Bailey, M. (9-10 de agosto de 2021). Designing Toxic Content Classification for a Diversity of Perspectives. Seventeenth Symposium on Usable Privacy and Security, en línea. https://doi.org/10.48550/arXiv.2106.04511.

Litchfield, T. y Chalk, A. (28 de marzo de 2022). Politics streamer Destiny receives indefinite ban from Twitch. Pc Games. https://www.pcgamer.com/politics-streamer-destiny-receives-indefinite-ban-from-twitch/.

López-Borrull, A. (2023). En busca de la verdad perdida: redes sociales y desinformación. Anuario ThinkEPI, 17, 1–4. https://doi.org/10.3145/thinkepi.2023.e17a44.

Luna, A. (27 de julio de 2022). Twitch banea a una de las streamers trans más importantes del mundo, tras defenderse de unos mensajes de odio. Flooxer Now!. https://www.flooxernow.com/fan/twitch-banea-streamers-trans-mas-importantes-mundo-keffals-ian-alexander_2022072762e13fe2b4b11000014281c1.html.

Magallón-Rosa, R. (2021). La (no) regulación de la desinformación en la Unión Europea. Una perspectiva comparada. Revista de Derecho Político, 106, 319–347.             https://doi.org/10.5944/rdp.106.2019.26159.

McCoy, J.L. y Rahman, T. (23-28 julio de 2016). Polarized Democracies in Comparative Perspective: Toward a Conceptual Framework. Conferencia de la International Political Science Association, Poznan, Polonia.

Meisner, C. (2023). Networked Responses to Networked Harassment? Creators’ Coordinated Management of “Hate Raids” on Twitch. Social Media + Society, 9(2), 1-12. https://doi.org/10.1177/20563051231179696.

Méndez, V. (2023). Streamers son acusados de transfobia por burlarse de la voz de participante en torneo Fornite de ElRubius. Tarreo. https://www.tarreo.com/noticias/763856/Streamers-son-acusados-de-transfobia-por-burlarse-de-la-voz-de-participante-en-torneo-Fornite-de-ElRubius.

Naranjo, T. (2020). Regulación y prevención para los delitos en las redes sociales. En D. Caldevilla. Libro de Actas del XII Congreso Internacional Latina de Comunicación Social, 217. Editorial Historia de los Sistemas Informativos. https://doi.org/10.4185/RLCS-2021-1505.

Nematzadeh, A., Luca Ciampaglia, G., Ahn, Y. y Flammini, A. (2019). Information overload in group communication: from conversation to cacophony in the Twitch chat. Royal Society Open Science, 6(10), 191412. https://doi.org/10.1098/rsos.191412.

O’Connor, C. (2021). Gaming and Extremism. The Extreme Right on Twitch. Institute for Strategic Dialogue. https://www.isdglobal.org/isd-publications/gaming-and-extremism-the-extreme-right-on-twitch/.

Onli (5 de septiembre de 2021). Twitch en problemas por discursos de odio generó un hashtag con la leyenda #ADayOffTwtich, te decimos qué hay detrás de la huelga. ONLI. https://onli.mx/sostenibilidad/twitch-en-problemas-por-discursos-de-odio-genero-un-hashtag-con-la-leyenda-adayofftwtich

Organización de las Naciones Unidas (2019). Plan de acción contra el discurso de odio. https://www.un.org/en/genocideprevention/documents/Action_plan_on_hate_speech_ES.pdf

Peiser, J. (23 de junop de 2021). He was preparing for ‘a coming civil war,’ feds say. Now he faces up to 30 years in prison. The Washington Post. https://www.washingtonpost.com/nation/2021/06/23/paul-miller-gypsy-crusader/.

Quirk, T. (15 de enero de 2020). Can This Notorious Troll Turn People Away From Extremism? Wired. https://www.wired.com/story/twitch-politics-online-debate/

Ramírez, C.E. (7 de julio de 2017). Una periodista de Espejo Público sufre acoso mientras trabaja en San Fermín: "Hay cierta mujer que incita". Huffington Post. https://www.huffingtonpost.es/entry/una-periodista-de-espejo-publico-sufre-acoso-mientras-trabaja-en_es_5c8af19fe4b0f374fa9b82b2.html.

Ramos-Galarza, C. (2020). Los alcances de una investigación. CienciAmerica, 9(3), 1–6. http://dx.doi.org/10.33210/ca.v9i3.336.

Rivera-Martin, B., Martínez de Bartolomé Rincón, I. y López López, P. J. (2022). Discurso de odio hacia las personas LGTBIQ+: medios y audiencia social. Revista Prisma Social,39, 213-233.https://doi.org/10.2547/revist.8748

Roca-Trenchs, N., López-Borrull, A, y Lalueza, F (2024). Twitch como herramienta de comunicación política: análisis de potencialidades. Cuadernos.Info, (57), 25–45. https://doi.org/10.7764/cdi.57.64235

Ruiz-Bravo, N., Selander, L. y Roshan, M. (4-7 de enero de 2022). The political turn of Twitch - Understanding live chat as an emergent political space. 55th Hawaii International Conference on System Sciences. Maui, Hawaii, Estados Unidos. http://hdl.handle.net/10125/79723.

Ruiz Martín, J.M. y Alcalá Mellado, J.R. (2016). Los cuatro ejes de la cultura participativa actual. De las plataformas virtuales al medialab. Icono 14, 14(1), 95–122. http://doi.org/10.7195/ri14.v14i1.904.

Orús, A. (4 de enero de 2024). Consumo de los medios de comunicación en Europa. Statista. https://es.statista.com/temas/3558/consumo-de-los-medios-de-comunicacion-en-europa/#topicOverview.

Orús, A. (14 de noviembre de 2023). Número mensual de streamers activos en Twitch en todo el mundo de enero de 2018 a octubre de 2023. Statista. https://es.statista.com/estadisticas/1350021/streamers-activos-en-twitch-en-todo-el-mundo/.

Stein, L.E. (2015). Millennial fandom: television audiences in the transmedia age. University of Iowa Press.

Sung, M. (12 de octubre de 2022). Trans Twitch streamer Keffals is ready to return home. NBC News. https://www.nbcnews.com/pop-culture/keffals-twitch-kiwi-farms-new-chapter-rcna47780.

Tortajada, I. y Vera, T. (2021). Feminismo, misoginia y redes sociales. Investigaciones Feministas, 12(1), 1-4. https://doi.org/10.5209/infe.74446.

Twitch (6 de marzo de 2024a). Nuestros planes para 2024: Carta abierta del CEO de Twitch, Dan Clancy. https://blog.twitch.tv/es-es/2024/03/06/our-plans-for-2024-an-open-letter-from-twitch-ceo-dan-clancy/.

Twitch (1 de marzo de 2024b). Reglas del chat para el canal oficial de Twitch. https://help.twitch.tv/s/article/official-twitch-channel-chat-rules?language=es.

Valcore, J., Asquith, N.L. y Rodgers, J. “We’re led by stupid people”: Exploring Trump’s use of denigrating and deprecating speech to promote hatred and violence. Crime Law Soc Change 80, 237–256 (2023). https://doi.org/10.1007/s10611-023-10085-y

Vallejo, A. (9 de noviembre de 2023). Omegle dice adiós tras 14 años en activo: cierra una de las webs de videochat aleatorio más exitosas y problemáticas a la vez. Genbeta. https://www.genbeta.com/actualidad/omegle-dice-adios-14-anos-activo-cierra-webs-videochat-aleatorio-exitosas-problematicas-a-vez.

Varela, J. (2005). El asalto de los medios sociales. Cuadernos de periodistas, 2, 20-34.

Waisbord, S. (2020). ¿Es válido atribuir la polarización política a la comunicación digital? Sobre burbujas, plataformas y polarización afectiva. Revista SAAP, 14(2), 249–279. https://dx.doi.org/10.46468/rsaap.14.2.a1

Wulf, T., Schneider, F.M. y Beckert, S. (2020). Watching Players: An exploration of media enjoyment on Twitch. Games and Culture, 15(3), 328–346. https://doi.org/10.1177/1555412018788161.

Yang, C.C., Holden, S.M. y Ariati, J. (2021). Social Media and Psychological Well‑Being Among Youth: The Multidimensional Model of Social Media Use. Clinical Child and Family Psychology Review, 24, 631–650. https://doi.org/10.1007/s10567-021-00359-z

Yang, K.C.C. y Kang, Y. (2021). Livestreaming Influencers, Influence Types, and Political Participation: A Case Study of Taiwan’s 2020 Presidential Election. Asiascape: Digital Asia, 8(1–2), 92–118. https://doi.org/10.1163/22142312-12340133.

Yin, R. K. (2003). Case study research: Design and methods. Sage.

Zhang, Y., Lukito, J., Suk, J., y McGrady, R. (2024). Trump, Twitter, and Truth Social: how Trump used both mainstream and alt-tech social media to drive news media attention. Journal of Information Technology & Politics, 1–14. https://doi.org/10.1080/19331681.2024.2328156.

Zhang, X., Ding, X., y Ma, L. (2020). The influences of information overload and social overload on intention to switch in social media. Behaviour & Information Technology, 41(2), 228–241. https://doi.org/10.1080/0144929X.2020.1800820

*Roles de autoría

Todos los autores participaron por igual de la elaboración del trabajo, aprobaron la versión final para publicar y son capaces de responder respecto de todos los aspectos del manuscrito. Los autores manifiestan no tener conflicto de interés alguno.

Obra bajo licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.



[1] En esta investigación se considera el colectivo cisgénero a partir de la definición que contempla tl Diccionario de la Real Academia Española: “Dicho de una persona cuya identidad de género coincide con el sexo que se le asignó al nacer”.