Ecco un IA che diminuisce gli insulti nelle chat di gioco

Videogiochi e lavoro

Buongiorno cari lettori, oggi vi andremo a parlare degli studi che si stanno effettuando sulla tossicità dei videogiochi, e nello specifico di un IA che potrebbe risolvere il problema.

Giocare online è un’opportunità per i gamer di incontrarsi, socializzare e godersi una competizione amichevole. Sfortunatamente, questa divertente attività può essere ostacolata da linguaggio offensivo e tossicità, con un impatto negativo sull’esperienza di gioco e causando danni psicologici. La tossicità di genere e razziale, in particolare, è fin troppo comune nei giochi online.

Per combattere questo problema, vari gruppi di ricercatori hanno sviluppato modelli di intelligenza artificiale in grado di rilevare comportamenti tossici in tempo reale mentre le persone giocano. Un gruppo ha recentemente sviluppato un nuovo modello, sebbene il modello sia in grado di rilevare la tossicità con una discreta precisione, il suo sviluppo dimostra quanto possa essere difficile determinare ciò che è considerato tossico.

“Differenziare ciò che gli individui percepiscono come tossico o meno è una grande sfida in questo contesto quando i giocatori accettano un linguaggio così tossico o usano un linguaggio che altri potrebbero considerare tossico senza malizia all’interno del loro gruppo di amici. Inoltre, queste norme differiscono tra le varie comunità di gioco”, spiega Julian Frommel, assistente professore all’Università di Utrecht, che è stato coinvolto nello studio.

In un lavoro precedente, Frommel e i suoi colleghi hanno scoperto che la tossicità potrebbe essere sempre più normalizzata nelle comunità di gioco. Ciò li ha spinti a sviluppare il nuovo modello di intelligenza artificiale, che potrebbe essere utile per filtrare il linguaggio problematico o aiutare i moderatori umani a decidere le sanzioni per questo tipo di giocatori.

Per creare il loro modello, i ricercatori hanno prima chiesto ai partecipanti di guardare video di giocatori che giocavano a Overwatch e valutare su una scala quanto fossero tossici i giocatori nelle chat vocali del gioco. La scala partiva da 1 (“sono assolutamente in disaccordo”) a 100 (“sono assolutamente d’accordo”) su otto caratteristiche dei giocatori nella partita, ad esempio, fino a che punto erano d’accordo sul fatto che i giocatori fossero arrabbiati, offensivi o tossici.

“Siamo rimasti sorpresi di quanto i valutatori umani differissero nelle loro valutazioni di tossicità della stessa clip, ma in retrospettiva, questo evidenzia una sfida significativa nel rilevamento utilizzando dei metodi automatizzati: come la sfida della soggettività”, afferma Frommel.

“Studi più recenti hanno rivelato che ciò che una persona sperimenta come negativo può essere vissuto da un’altra persona come completamente benigno. Questo ha a che fare con le nostre diverse identità, background e precedenti esperienze di gioco”, spiega Frommel. “E ha senso che siamo individualmente diversi nelle nostre sensibilità, ma questo crea una sfida per i modelli di apprendimento automatico che si basano su una verità di base concordata”.

Utilizzando i dati dei partecipanti allo studio, i ricercatori hanno costruito il loro modello di intelligenza artificiale e lo hanno convalidato, scoprendo che può prevedere se una partita era tossica con una precisione dell’86,3%. Questo è alla pari con modelli di intelligenza artificiale simili sviluppati per lo stesso scopo, sebbene un gruppo di ricerca abbia raggiunto una precisione del 95,7% utilizzando un diverso tipo di algoritmo di apprendimento automatico per rilevare quello.

“I vantaggi di questo approccio includono che si tratta di un modello abbastanza semplice senza costi di calcolo sostanziali e che può essere automatizzato e applicato come approccio non invasivo in molti giochi che utilizzano chat vocali in-game”, afferma Frommel.

Tuttavia, osserva che sono necessari molti altri passaggi per affrontare la tossicità nei giochi online utilizzando i modelli di intelligenza artificiale, inclusa la conferma dei risultati, il miglioramento dell’accuratezza della previsione, la risoluzione di problemi come pregiudizi, privacy ed etica e la considerazione di fattori contestuali e di soggettività.