為了防止使用者自殺,Facobook 想了 3 個辦法

語言: CN / TW / HK

根據 世界衛生組織的一份報告 ,每年約有 800 萬人因自殺而死亡,每 40 秒就有一人自殺死亡,而社交媒體上的自殺、自殘等潛在暴力危險內容,正在加劇這種狀況。

因此,昨天的世界預防自殺日,Facebook 公佈了一系列措施 ,來幫助那些有自殺或自我傷害傾向的人,並最大程度避免其他人受其影響。

這是 Facebook 聯合美國、英國、加拿大、墨西哥、菲律賓、印度、泰國等多國的相關專家 研討後得出的方案 ,facebook 還專門 僱傭了一名健康專家 來加入安全政策團隊,專門分析 Facebook 政策和應用對人們心理健康的影響。

▲ 圖片來自:FACEBOOK/VICTOR TANGERMANN

首先,人們在 Facebook 和 Instagram 上, 將不能再把自我傷害的圖片分享和傳播 ,相關內容也很難在 Instagram 上搜索到,Facebook 更不會讓這些內容出現在推薦裡。

而且, 跟飲食失調相關的內容 也會被禁止,包括與不健康減肥相關的術語,側重於描繪肋骨、頸骨、肩胛骨、凹陷的胃、突出的脊柱等等資訊。

▲ 圖片來自:washingtonexaminer

平臺上還會出現一個「敏感度螢幕」,就是當有潛在危險圖片出現時,使用者可以選擇看或不看,以避免人們在無意中看到讓人不安的圖片,造成心理傷害。

另外,Facebook 還第一次嘗試 從平臺上分享「人們如何談論自殺」的公共資料 ,這是通過社交媒體監控工具 CrowdTangle 來實現的,它一般為學術研究人員提供,而現在可以讓專家機構和學術研究院來發現 Facebook 和 Instagram 上的不良資訊,然後對資訊進行研究,對使用者進行監督和干預。

▲圖片來自:wraltechwire

不過從另一面來看,人們在社交媒體上公開討論自己的情況,並得到網民、家人、朋友的關注,也有益於他們對他們的自殺心理進行疏導。

但在網際網路上發聲並不等同於在日記本上記錄,一段衝擊力極大的文字或圖片,可能引發大規模的群體效應, 科學研究也證明了 自殺可能具有傳染性,群體自殺爆發是會發生的真實情境。

▲ 圖片來自:Getty Images

所以從 2019 年 4 月到 6 月,Facebook 的工作人員就通過機器學習系統加人工稽核,對超過 150 萬件自殺和自傷內容進行了移除或模糊處理,並在使用者報告之前發現了超過 95%的自殺和自傷內容。

同一時期,他們在 Instagram 上也對超過 80 萬條此內容進行了介入,有時還會將把心理健康內容發給建立自殺內容的個人,或在危急情況下,向用戶所在的地方當局發出警報。

但為了讓有自殺自殘傾向的人們有一個表達和傾訴的渠道,並能聽到如同朋友和家人一般的意見,Facebook 最後還將在安全中心和 Instagram 上加入一個 名為 #chatsafe 的線上交流指南平臺

這個指南平臺是由年輕人來制定的,他們對這些敏感話題更有切身的認知。當有人搜尋自殺自殘等內容時,就能看到裡面的內容資源獲得幫助,這也會為那些有自殺想法、行為或相同感受的人建立更多心理上的支柱,並能線上進行交流和開導。

其實不止 Facebook,其他大型公司如 YouTube 和 Twitter,也面臨著來自立法者和使用者的輿論壓力,要求他們嚴厲打擊來自其平臺的有毒內容。

所以本月,YouTube 表示已經 禁止超過 17,000 個帳戶 傳播「仇恨內容」;而 Twitter 針對其認為違反其使用者協議的內容, 推出了一系列新政策變更 ;Facebook 除了昨天的新動向,早在 2017 年 11 月 就開始在全球範圍內推出 AI 預防自殺工具 ,以保證第一時間響應釋出自殺帖子的使用者。

▲ 圖片來自: Derzsi Elekes Andor

在 Google、Facebook 、Twitter、百度各自的平臺上,也設定了求助熱線號碼,當人們搜尋「自殺」一詞,號碼就會在頁面第一列位置快速出現。

無論是為了讓網際網路環境更加健康,還是要保持自身平臺保持長期發展,對這些科技大公司來說,保護使用者安全怎麼都不為過。

題圖來自:Techworm

分享到: