Facebook在今年(2017年)3月時開始在美國,測試這套軟體,採用的是「模式識別」(pattern recognition)技術來偵測站上的貼文、留言、影片與實況轉播內容,檢查是否含有輕生念頭,當偵測到關鍵字句,如「我想死」、「我討厭我的人生,我想自殺」等,其他留言像是「你還好嗎?」、「需要幫忙嗎?」也都屬於重要指標,就會把這些用戶標記起來,轉發給內部的社群營運部門,透過員工在第一時間過濾並查驗,若發現確實有自殺傾向,Facebook就會通知當地官方機構前往關心。
Facebook的社群經營團隊甚至在全球部署了數千名人力,專門審核有關臉書內容的各種舉報,其中有一組人馬接受過自殺與自殘的特殊訓練,可在必要時提供援助,在5月時,Facebook更增聘3,000多人負責監控,這樣的AI查驗系統,比其他用戶回報消息的檢查速度快上30%,而光在10月中,Facebook就透過AI系統,發現100個想輕生案例,Facebook於11/27宣布,將把此AI系統從美國擴展到全球,但是唯獨歐盟被排除其外,主要原因是受限於當地的資料保護及隱私法令。