Una intel·ligència artificial de la Universitat Politècnica de València adverteix que un 50% del discurs polític és tòxic

Dels discursos analitzats de 10 sessions de les Corts Valencianes, la meitat van donar una puntuació de toxicitat superior al 50%. Així ho han plasmat les conclusions de l’estudi fet per l’equip de l’Institut Universitari Valencià d’Investigació en Intel·ligència Artificial (Vrain) de la Universitat Politècnica de València (UPV).
L’estudi ha desenvolupat una metodologia amb un sistema d’intel·ligència artificial modular que és capaç d’identificar amb més precisió la ironia, la crítica mordaç o el sarcasme per a detectar quan el llenguatge polític travessa el llindar de la toxicitat. L’estudi ha abastat 875 mostres de les sessions, de les quals 435 tenien una puntuació de toxicitat superior al 50%.
L’article s’ha exposat amb el títol “IA enriquida en sentiments per a la detecció de discursos tòxics. Un cas d’estudi de discursos polítics en les Corts Valencianes”, en la conferència internacional d’agents i intel·ligència artificial (Icaart) 2025 celebrada a la ciutat de Porto. L’equip d’investigadors ha estat format pels membres del grup PROS, Antoni Mestre, Joan Fons, Manoli Albert, Vicente Pelechano, i la investigadora del Departament d’Informàtica de la Universitat de València, Miriam Gil, juntament amb l’investigador de la Università degli Studi del Sannio a Benevento (Itàlia), Francesco Malafarina, són els desenvolupadors d’aquesta metodologia les conclusions de la qual han presentat fa poc.
Moderació automatitzada
L’estudi proposa un enfocament innovador que millora els sistemes tradicionals de detecció de discurs tòxic pel fet d’introduir una ‘zona de confusió’. “En compte d’etiquetar un missatge com a simplement tòxic o no tòxic, la IA detecta els casos més ambigus i els sotmet a una anàlisi de sentiment que permet avaluar millor el to emocional del discurs”, explica l’investigador de Vrain de la UPV, Antoni Mestre.
Mentre que els resultats, sense la zona de confusió, abasten una precisió del 80,35%, quan s’incorpora la capa d’anàlisi de sentiment a la detecció de discursos tòxics, sobretot en contextos políticament carregats i lingüísticament complexos, com les Corts, la precisió millora fins al 87,89%.
“El nostre treball ofereix una visió més matisada del llenguatge polític. I obri noves possibilitats per a la moderació automatitzada de continguts i l’anàlisi del debat públic amb eines més sofisticades i justes. La seua aplicació en els parlaments permetria als seus presidents moderar el debat de manera més equitativa i precisa, garantint un discurs més respectuós i constructiu”, conclou Antoni Mestre.
0