Aplicación de herramientas de IA como metodología para el análisis de la toxicidad en la conversación en redes sociales: Estudio de caso de la política española en Twitter

Autores/as

DOI:

https://doi.org/10.4185/rlcs-2024-2205

Palabras clave:

Twitter, redes sociales, inteligencia artificial, toxicidad, bots, metodología, perspective API

Resumen

Introducción: Se analiza una nueva metodología de inteligencia artificial (IA), entendiendo que la comunicación se presenta como uno de los campos de trabajo más trascendentes para su aplicación. Además de las fases de recolección y producción de contenido, otras áreas dentro del mundo de la comunicación como la distribución, y en concreto la moderación de comentarios (en redes sociales y en medios) también están viviendo un período de innovación, pero de forma menos evidente para la audiencia. Metodología: Se procede a conocer cómo diversas herramientas de IA pueden medir la calidad de la conversación y combatir la toxicidad en espacios comunicativos. Se han analizado 43.165 tuits publicados del 18 al 24 de octubre de 2021 correspondientes a siete políticos españoles y a la cascada de respuestas de los usuarios. Resultados: Las principales consecuencias apuntan a los insultos como la categoría tóxica predominante en los comentarios, independientemente de la ideología. Además, las conversaciones cuentan con un promedio del 21% de usuarios bots. Discusión: Visto lo anterior, esta investigación muestra cómo nuevas metodologías de IA pueden contabilizar un término hasta ahora tan cualitativo como la toxicidad y contradice los hallazgos previos sobre bots como difusores de toxicidad, siendo los usuarios reales quienes más toxicidad generan. Conclusiones: En el estudio concreto de política, se percibe una diferencia de comportamientos entre la conversación horizontal entre pares y la vertical con los políticos. Por tanto, estas herramientas ayudan a visibilizar nuevas realidades como la toxicidad, con el fin último de llegar a erradicarla y sanear el debate online.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Uxia Carral, Carlos III University of Madrid

Estudiante predoctoral en Investigación en Medios de Comunicación en la Universidad Carlos III de Madrid (UC3M). Sus líneas de investigación son las redes sociales, la innovación en la comunicación y el humanismo tecnológico. Ha hecho estancias en University Technology of Sydney (UTS) y en La Sapienza (Roma, Italia). También ha trabajado como periodista en medios de comunicación como Cadena SER y de verificación como Newtral. Además, ha llevado la comunicación de varios proyectos europeos financiados por la Comisión Europea y ha colaborado como periodista de visualización de datos en el Círculo de Análisis Euromediterráneo (CAEM). Autora de varios libros y capítulos sobre desinformación, populismos, redes sociales y Unión Europea.

Carlos Elías, Carlos III University of Madrid

Catedrático de Periodismo de la Universidad Carlos III de Madrid (UC3M) y catedrático Jean Monnet “UE, desinformación y fake news”. Se especializó en ciencia, tecnología y esfera pública en estancias postdoctorales de un año en London School of Economics y otro año en Harvard. Ha trabajado como periodista en la Agencia Efe (política) y El Mundo (responsable de ciencia).  Su último libro es Science on the Ropes. Decline of Scientific Culture in the era of Fake News (Springer, 2019). Es director del máster de Comunicación Corporative e Institucional de la UC3M y colabora habitualmente con medios como El Mundo, RNE y RTVE.

Citas

Barocas, S., Hardt, M. y Narayanan, A. (2023). Fairness and machine learning: Limitations and Opportunities. MIT Press.

Bijker, W. E. y Pinch, T. (1987). The social construction of facts and artifacts. https://acortar.link/Y4RqvA

Blanco-Alfonso I., García-Galera C. y Tejedor-Calvo S. (2019). El impacto de las fake news en la investigación en Ciencias Sociales. Revisión bibliográfica sistematizada. Historia y Comunicación Social, 24(2), 449-469. https://doi.org/10.5209/hics.66290 DOI: https://doi.org/10.5209/hics.66290

Burke, M., Kraut, R. y Joyce, E. (2010). Membership claims and requests: Conversation-level newcomer socialization strategies in online groups. Small group research, 41(1), 4-40. https://doi.org/10.1177/1046496409351936 DOI: https://doi.org/10.1177/1046496409351936

Caldarelli, G., De Nicola, R., Del Vigna, F., Petrocchi, M. y Saracco, F. (2020). The role of bot squads in the political propaganda on Twitter. Commun Phys, 3. https://doi.org/10.1038/s42005-020-0340-4 DOI: https://doi.org/10.1038/s42005-020-0340-4

Carral, U., Tuñón, J. y Elías, C. (2023). Populism, cyberdemocracy and disinformation: analysis of the social media strategies of the French extreme right in the 2014 and 2019 European elections. Humanit Soc Sci Commun 10, 23. https://doi.org/10.1057/s41599-023-01507-2 DOI: https://doi.org/10.1057/s41599-023-01507-2

Casero-Ripollés, A., Feenstra, R. A. y Tormey, S. (2016). Old and New Media Logics in an Electoral Campaign: The Case of Podemos and the Two-Way Street Mediatization of Politics. The International Journal of Press/Politics, 21(3), 378-397. https://doi.org/10.1177/1940161216645340 DOI: https://doi.org/10.1177/1940161216645340

Chadwick, A. (2013). The hybrid media system: Politics and power. Oxford University Press DOI: https://doi.org/10.1093/acprof:oso/9780199759477.001.0001

Diéguez, A. (2005). El determinismo tecnológico: indicaciones para su interpretación. Argumentos de Razón Técnica, 8, 67-87. http://www-formal.stanford.edu/jmc/whatisai.pdf

Elías, C. (2019). Science on the Ropes. Decline of Scientific Culture in the Era of Fake News. Springer-Nature. https://doi.org/10.1007/978-3-030-12978-1 DOI: https://doi.org/10.1007/978-3-030-12978-1

Ellul, J. (1962). The Technological Order. Technology and Culture, 3(4), 394-421. https://doi.org/10.2307/3100993 DOI: https://doi.org/10.2307/3100993

Feldman, O. (2023). Challenging Etiquette: Insults, Sarcasm, and Irony in Japanese Politicians’ Discourse. En O. Feldman (Ed.), Political Debasement. The Language of Politics. Springer. https://doi.org/10.1007/978-981-99-0467-9_5 DOI: https://doi.org/10.1007/978-981-99-0467-9_5

Frankfurt, H. (2006). On Bullshit: sobre la manipulación de la verdad. Paidós

Fuchs, C. (2021). Social media: A critical introduction. Sage. DOI: https://doi.org/10.4324/9781003199182-1

Goldhaber, M. H. (1997). The attention economy and the Net. First Monday, 2(4). https://doi.org/10.5210/fm.v2i4.519 DOI: https://doi.org/10.5210/fm.v2i4.519

Guerrero-Solé, F. y Philippe, O. (2020). La toxicidad de la política española en Twitter durante la pandemia de la COVID-19. Hipertext.net, 21, 133-139. https://doi.org/10.31009/hipertext.net.2020.i21.12 DOI: https://doi.org/10.31009/hipertext.net.2020.i21.12

Hosseini, H., Kannan, S., Zhang, B. y Poovendran, R. (2017). Deceiving Google's perspective API built for detecting toxic comments. Cornell University. htttps://doi.org/10.48550/arXiv.1702.08138

Howard, P. N., Bradshaw, S., Kollanyi, B. y Bolsolver, G. (2017). Junk News and Bots during the French Presidential Election: What Are French Voters Sharing Over Twitter in Round Two? ComProp data memo, 21(3). https://acortar.link/IUZfrN

Innerarity, D. (2018, 31 diciembre). El año de la volatilidad. El País. https://elpais.com/elpais/2018/12/28/opinion/1546021545_365361.html

Jain, E., Brown, S., Chen, J., Neaton, E., Baidas, M., Dong, Z. y Artan, N. S. (2018, diciembre). Adversarial Text Generation for Google's Perspective API. 2018 International Conference on Computational Science and Computational Intelligence (CSCI), (pp. 1136-1141). IEEE. http://doi.org/10.1109/CSCI46756.2018.00220 DOI: https://doi.org/10.1109/CSCI46756.2018.00220

Jenkins, H. (2006). Convergence culture: Where old and new media collide. NYU Press.

Jigsaw. (2016, septiembre 19). New York times and Jigsaw partner to scale moderation platform. Medium. https://acortar.link/t1R0hG

Jigsaw. (2019a, marzo12). Tune: Control the comments you see. Medium. https://acortar.link/ACX5fU

Jigsaw. (2019b, octubre 23). One of Europe’s largest gaming platforms is tackling toxicity with machine learning. Jigsaw. https://acortar.link/KgcA2i

Jigsaw. (2021, febrero 10). Helping authors understand toxicity, one comment at a time. Medium. https://bit.ly/3KgjnSz

Jürgens, P., Jungherr, A. y Schoen, H. (2011). Small worlds with a difference: New gatekeepers and the filtering of political information on Twitter. Proceedings of the 3rd international web science conference. https://doi.org/10.1145/2527031.2527034 DOI: https://doi.org/10.1145/2527031.2527034

Just, N. y Latzer, M. (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, culture & society, 39(2), 238-258. htpps://doi.org/10.1177/0163443716643157 DOI: https://doi.org/10.1177/0163443716643157

Kaplan, D. M. (Ed.). (2009). Readings in the Philosophy of Technology. Rowman & Littlefield Publishers.

Keyes, R. (2004). The Post-Truth Era: Dishonesty and Deception in Contemporary Life. St. Martin’s Press.

Lampe, C. y Johnston, E. (2005). Follow the effects of feedback on new members in an online community. Proceedings of the 2005 international ACM SIGGROUP conference on Supporting group work. https://doi.org/10.1145/1099203.1099206 DOI: https://doi.org/10.1145/1099203.1099206

López-Garcí¬a, X. y Vizoso, Á. (2021). Periodismo de alta tecnologí¬a: signo de los tiempos digitales del tercer milenio. Profesional de la Información, 30(3). https://doi.org/10.3145/epi.2021.may.01 DOI: https://doi.org/10.3145/epi.2021.may.01

Magallón-Rosa, R. (2019). Unfaking news: cómo combatir la desinformación. Pirámide.

Martínez Valerio, L. (2022). Mensajes de odio hacia la comunidad LGTBIQ+: análisis de los perfiles de Instagram de la prensa española durante la “Semana del Orgullo”. Revista Latina de Comunicación Social, 80, 364-388. https://doi.org/10.4185/RLCS-2022-1749 DOI: https://doi.org/10.4185/RLCS-2022-1749

McCarthy, J. (2007). What is Artificial Intelligence? Stanford University.

McIntyre, L. (2018). Post-truth. MIT Press. DOI: https://doi.org/10.7551/mitpress/11483.001.0001

McLuhan, M. (1996). El medio es el masaje. Un inventario de efectos. Paidós.

Meraz, S. y Papacharissi, Z. (2013). Networked gatekeeping and networked framing on# Egypt. The international journal of press/politics, 18(2), 138-166. https://doi.org/10.1177/1940161212474472 DOI: https://doi.org/10.1177/1940161212474472

Moreno-López, R. y Arroyo-López, C. (2022). Redes, equipos de monitoreo y aplicaciones móvil para combatir los discursos y delitos de odio en Europa. Revista Latina de Comunicación Social, 80, 347-363. https://doi.org/10.4185/RLCS-2022-1750 DOI: https://doi.org/10.4185/RLCS-2022-1750

Napoli, P. M. (2014). Automated media: An institutional theory perspective on algorithmic media production and consumption. Communication theory, 24(3), 340-360. https://doi.org/10.1111/comt.12039 DOI: https://doi.org/10.1111/comt.12039

Noble, S. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press. DOI: https://doi.org/10.2307/j.ctt1pwt9w5

Pichai, S. (2018, 7 de junio). AI at Google: Our Principles. Blog Google. https://blog.google/technology/ai/ai-principles/

Rieder, B. y Skop, Y. (2021). The fabrics of machine moderation: Studying the technical, normative, and organizational structure of Perspective API. Big Data & Society, 8(2), https://doi.org/10.1177/2053951721104618 DOI: https://doi.org/10.1177/20539517211046181

Sánchez-García, P., Merayo-Álvarez, N., Calvo-Barbero, C. y Diez-Gracia, A. (2023). Spanish technological development of artificial intelligence applied to journalism: companies and tools for documentation, production, and distribution of information. El Profesional de la Información, 32(2). https://doi.org/10.3145/epi.2023.mar.08 DOI: https://doi.org/10.3145/epi.2023.mar.08

Schuchard, R., Crooks, A., Stefanidis, A. y Croitoru, A. (2019). Bots fired: examining social bot evidence in online mass shooting conversations. Palgrave Communications, 5(1), 1-12. https://doi.org/10.1057/s41599-019-0359-x DOI: https://doi.org/10.1057/s41599-019-0359-x

Shao, C., Ciampaglia, G.L., Varol, O., Yang, K-C, Flammini A. y Menczer, F. (2018). The spread of low-credibility content by social bots. Nat Commun 9. https://doi.org/10.1038/s41467-018-06930-7 DOI: https://doi.org/10.1038/s41467-018-06930-7

Silverman, C. (2014). Verification Handbook. European Journalism Centre.

Southwell, B. G., Thorson, E. A. y Sheble, L. (Eds.). (2018). Misinformation and mass audiences. University of Texas Press.

Stryker, R., Conway, B. A. y Danielson, J. T. (2016). What is political incivility? Communication Monographs, 83(4), 535-556. https://doi.org/10.1080/03637751.2016.1201207 DOI: https://doi.org/10.1080/03637751.2016.1201207

Toffler, A. (1975). Alvin Toffler. Pacifica Tape Library.

Tune. (s/f). Tune experimental. Google.com. https://acortar.link/bvJqZk

Vosoughi, S., Roy, D. y Aral, S. (2018). The spread of true and false news online. Science, 359(6380), 1146-1151. https://doi.org/10.1126/science.aap9559 DOI: https://doi.org/10.1126/science.aap9559

Wallace, J. (2017). Modelling contemporary gatekeeping: The rise of individuals, algorithms, and platforms in digital news dissemination. Digital Journalism, 6(3), 274-293. https://doi.org/10.1080/21670811.2017.1343648 DOI: https://doi.org/10.1080/21670811.2017.1343648

Wardle, C. y Derakhshan, H. (2017). Information disorder: Toward an interdisciplinary framework for research and policymaking. Strasbourg: Council of Europe. https://acortar.link/dsM2G5

Yang, K. C., Varol, O., Hui, P. M. y Menczer, F. (2020). Scalable and generalizable social ???????????? detection through data selection. Proceedings of the AAAI conference on artificial intelligence, 34(1), 1096-1103. https://doi.org/10.1609/aaai.v34i01.5460 DOI: https://doi.org/10.1609/aaai.v34i01.5460

Zuiderveen, F. B., Trilling, D., Möller, J., Bodó, B., De Vreese, C. H. y Helberger, N. (2016). Should we worry about filter bubbles? Internet Policy Review. Journal on Internet Regulation, 5(1). https://doi.org/10.14763/2016.1.401 DOI: https://doi.org/10.14763/2016.1.401

Artículos relacionados

Aramburú Moncada, L. G., López Redondo, I., & López Hidalgo, A. (2023). Inteligencia artificial en RTVE al servicio de la España vacía. Proyecto de cobertura informativa con redacción automatizada para las elecciones municipales de 2023. Revista Latina de Comunicación Social, 81, 1-16. https://doi.org/10.4185/RLCS-2023-1550 DOI: https://doi.org/10.4185/RLCS-2023-1550

Deliyore Vega, M. D. (2021). Redes como espacio de comunicación para la educación virtual de estudiantes con discapacidad en Costa Rica en tiempos de pandemia. Historia y Comunicación Social, 26(Especial), 75-85. https://doi.org/10.5209/hics.74243 DOI: https://doi.org/10.5209/hics.74243

Demuner Flores, M. del R. (2021). Uso de redes sociales en microempresas ante efectos COVID-19. Revista de Comunicación de la SEECI, 54, 97-118. https://doi.org/10.15198/seeci.2021.54.e660 DOI: https://doi.org/10.15198/seeci.2021.54.e660

Hueso Romero, J. J. (2022). Creación de una red neuronal artificial para predecir el comportamiento de las plataformas MOOC sobre la agenda 2030 y los objetivos para el desarrollo sostenible. Vivat Academia. Revista de Comunicación, 155, 61-89. https://doi.org/10.15178/va.2022.155.e1386 DOI: https://doi.org/10.15178/va.2022.155.e1386

Sancho Escrivá, J. V., Fanjul Peyró, C., De la Iglesia Vayá, M., Montell, Joaquín A., & Escartí Fabra, M. J. (2020). Aplicación de la inteligencia artificial con procesamiento del lenguaje natural para textos de investigación cualitativa en la relación médico-paciente con enfermedad mental mediante el uso de tecnologías móviles. Revista de Comunicación y Salud, 10(1), 19-41. http://doi.org/10.35669/rcys.2020.10(1).19-41 DOI: https://doi.org/10.35669/rcys.2020.10(1).19-41

Publicado

24-01-2024

Cómo citar

Carral, Uxia, y Carlos Elías. 2024. «Aplicación De Herramientas De IA Como metodología Para El análisis De La Toxicidad En La conversación En Redes Sociales: Estudio De Caso De La política española En Twitter». Revista Latina De Comunicación Social, n.º 82 (enero):1-18. https://doi.org/10.4185/rlcs-2024-2205.

Número

Sección

Artículos de Investigación