«Hai scritto qualcosa di cui potresti pentirti?». Twitter annuncia così di aver abilitato sugli account in lingua inglese di Ios e Android una nuova funzionalità che ti suggerisce di riflettere sul tuo tweet prima di pubblicarlo, se contiene linguaggi potenzialmente offensivi o violenti. Il sistema, testato per tutto il 2020, è stato messo in circolazione dopo essere stato perfezionato sulla base dei risultati ottenuti e del feedback degli utenti.

L’esperimento – Il social sostiene che le discussioni intense sulla sua piattaforma sono spesso dovute a risposte impulsive da parte degli utenti e ha ipotizzato che un’ulteriore riflessione avrebbe potuto portare le persone a riconsiderare il loro linguaggio se condito di insulti, parolacce o parole d’odio. Con l’introduzione di un reminder precedente alla pubblicazione, le persone hanno l’opportunità di prendersi un momento e modificare, eliminare o inviare la risposta così come l’avevano scritta. I risultati del test hanno in parte confermato la teoria di Twitter: se sollecitato, il 34% degli utenti ha corretto la sua risposta iniziale o ha deciso di non inviarla affatto. Dopo aver ricevuto il primo reminder, le persone hanno digitato in media l’11% in meno di risposte offensive e hanno avuto meno probabilità di ricevere a loro volta messaggi d’odio.

Gli aggiornamenti – Un anno di verifiche ha permesso a Twitter di aggiustare il tiro, apportando una serie di modifiche al sistema che decide quando e come inviare i reminder. Durante i test, per esempio, molte persone venivano sollecitate inutilmente, perché l’algoritmo faticava a cogliere le sfumature di molte conversazioni, non riuscendo a distinguere tra linguaggio offensivo, sarcasmo e prese in giro amichevoli. Ora il sistema sembra essere in grado di riconoscere la natura della relazione tra gli interlocutori, prendendo in considerazione anche la frequenza delle loro interazioni e le loro preferenze di tono nel comunicare. La tecnologia è stata poi potenziata in modo da rilevare in maniera più accurata linguaggi forti o volgari, ma anche captare le situazioni in cui determinate parole possano essere rivendicate da minoranze ed essere utilizzate innocuamente. Infine, è stato creato un metodo più semplice per gli utenti di recensire l’algoritmo.