E' stato messo a punto dalla Fondazione Bruno Kessler di Trento

E’ un algoritmo, con il genio deduttivo di Sherlock Holmes e l’intuito irriverente di James Bond. Lavora tra le pieghe della rete, il ‘cervellone’ messo a punto dalla Fondazione Bruno Kessler di Trento. Il gruppo di ricerca digital humanities ha infatti creato una spia dotata di intelligenza artificiale capace di intercettare i software che generano contenuti malevoli sfruttando le reazioni emotive degli utenti e predire gli hate speech. Tweet e post classificati come discorsi che alimentano odio, cyberbullismo, intolleranza e violenza psicologica da social. “E’ nato così ‘Kid actions’, progetto europeo di cyber educazione che ora attraverso una piattaforma dedicata entra in 5 scuole del Trentino e 3 del resto del Paese per insegnare agli studenti un uso più consapevole del linguaggio online – spiega a LaPresse Sara Tonelli, coordinatrice del team digitale della Fondazione Kessler -. L’intelligenza artificiale, in questo caso specifico, fa un’azione di pre-filtro individuando i contenuti potenzialmente violenti. Poi deve intervenire l’uomo che seleziona i linguaggi sottili, i contesti in cui sono inseriti e i sottintesi che possono generare equivoci o sfociare in violenze verbali. Diciamo che algoritmo ed essere umano si alleano in nome dell’educazione digitale”. Una volta catturate le parole in odore d’odio, l’algoritmo le macina una ad una consigliando le risposte migliori per abbassare i toni e interrompere così la moltiplicazione dei like o delle visualizzazioni di cui invece si compiacciono gli hater. “L’algoritmo che abbiamo generato rappresenta una nuova frontiera contro gli odiatori seriali – prosegue Tonelli -. Lo abbiamo testato con successo con Amnesty: gli attivisti lo hanno utilizzato per gestire le discussioni online ed arginare i commenti che avrebbero innescato un’escalation di violenza. Il problema, oggi, è un altro: definire il discorso d’odio dal punto di vista normativo. Ci confrontiamo con legislazioni nazionali una diversa dall’altra, spesso formulate in epoca ante social. In Italia ad esempio è stato introdotto il reato di cyberbullismo, ma riguarda solo i minorenni e non identifica in maniera generale il fenomeno. In questa confusione, le piattaforme social attuano politiche diverse da nazione a nazione ben sapendo che non c’è una risposta univoca. Ora puntiamo a far lavorare bene l’algoritmo sulle parole più violente, in modo che la macchina impari a riconoscere le modalità con cui emergono queste forme d’espressione. Anche perché c’è mancanza di trasparenza da parte delle piattaforme ed è un grande ostacolo: solo Twitter, ad esempio, collabora con noi fornendoci dati per la ricerca”.

© Copyright Olycom - Riproduzione Riservata