I ricercatori che operano nel campo della salute mentale si chiedono se le tecniche di intervento allestite dal social network avranno effetto sulla sua comunità.
di Rachel Metz
È passato quasi un anno dal lancio di Facebook Live, che permette agli utenti di trasmettere video in tempo reale per i loro follower. In questo stesso lasso di tempo, diverse persone si sono suicidate in diretta – inclusa una ragazzina di 14 anni che nel gennaio di quest’anno si è impiccata nel bagno di una casa adottiva.
Facebook vuole scongiurare queste tragedie, e per questo ha implementato una serie di strumenti di supporto. Gli spettatori possono ora segnalare gli amici che nei video sembrano manifestare sintomi di depressione, autolesionismo o tendenze suicide. Gli utenti segnalati riceveranno quindi un invito a contattare una linea di assistenza o un amico. Si tratta della stessa tipologia di strumenti che Facebook offre quando riceve segnalazioni riguardo aggiornamenti di status preoccupanti.
Un simile intervento può veramente aiutare? Joe Franklin, assistant professor presso la Florida State University e direttore del Technology and Psychopathology Lab, sostiene che si tratti di una mossa nella giusta direzione, ma che manchino le prove scientifiche che tali forme di intervento abbiano una qualche particolare utilità.
“Non penso che sia una cattiva idea e che andrebbe studiata”, dice. “Avrei diverse domande a riguardo, però – non mi aspetto che sia particolarmente efficace”.
Willa Casstevens, un associate professor presso la North Carolina State University il cui lavoro include la ricerca di soluzioni per la prevenzione dei suicidi, spera che un intervento simile venga percepito positivamente dai più giovani in particolare, visto che sono abituati a interagire attraverso i social media.
“Una mano amica, offerta nel momento giusto, può smuovere montagne e compiere miracoli”, dice. “La domanda, quindi, è se le persone raggiunte si trovino nella posizione giusta per cogliere questa offerta”.
Facebook ha anche descritto l’uso di tecniche per il riconoscimento di trend al fine di individuare pensieri suicidi all’interno dei commenti e dei post sul social network. Un post evidenziato verrebbe così sottoposto a revisione da parte del team operativo della comunità, che potrebbe quindi decidere se cercare di raggiungerne l’autore.
Franklin, la cui ricerca include lo studio di come l’apprendimento automatico potrebbe passare al setaccio le cartelle cliniche e determinare le probabilità che un paziente tenti di commettere un suicidio, vede in questi metodi li futuro della rilevazione, specialmente grazie alla facilità con cui è possibile rapportare i dati alle comunità. Nel suo operato, però, ha scoperto che le persone tendono a utilizzare parole come “suicidio” o frasi come “uccidermi” con tono colloquiale; dunque non è facile discernere la differenza con persone che intendono realmente suicidarsi.
Ciononostante, Franklin dice che “è un grande passo in termini di azioni volte all’identificazione delle persone in pericolo”.