人工智能尚未準備好在可預見的未來有效地管理在線內容

Ofcom和Cambridge Consultants合作完成了一份報告,研究了AI支持的在線內容審核的有效性。
世界各國政府對社交網絡和通信服務施加越來越大的壓力,要求對發布在其中的內容負責。社會本身正越來越意識到直播恐怖襲擊,網絡欺凌,政治操縱等帶來的危險。
對于某些擁有數十億用戶的平臺,手動管理發布的所有內容是不可行的。上載非法內容后,通常需要有人舉報并等待人類主持人做出決定(這些主持人有時在暴露于此類內容后需要接受治療)。
Ofcom和Cambridge Consultants的報告建議,AI可以通過以下幾種主要方式幫助減輕對主持人的心理影響:
改變他們所接觸的有害物質的含量和類型。
自動模糊掉部分內容,主持人可以根據需要選擇查看以做出決定。
人們可以“詢問”有關內容的AI問題以做好準備,或者知道是否對他們來說特別困難,這可能是由于過去的個人經驗所致。
手動審核內容的過程緩慢,通常意味著有數百萬人在刪除有害內容之前就將其刪除。盡管當今大多數AI審核實施仍需要人工監督,但內容檢測方面的一些進步有助于加快標記和刪除內容的速度。
本月早些時候,Facebook擁有的Instagram 公布了對人工智能驅動的審核系統的改進,以防止發布麻煩的內容。盡管以前只限于評論,但Instagram現在會問用戶“您確定要發布嗎?” 對于它認為可能對他人造成困擾的任何帖子。
作為英國的電信監管機構,Ofcom的報告應有助于形成可行的政策,而不是政治家的通用要求,而不是真正了解這些事情的工作原理(有人能記得呼吁禁止加密和/或故意創建后門的呼吁嗎?)
該報告實質上確定了在可預見的將來,不可能進行有效的全自動內容審核。
完全自動化的內容審核存在問題的主要原因之一是-雖然可以通過單獨分析來識別一些有害的帖子,但其他內容則需要對上下文有充分的了解。例如,研究人員指出,對于當今的AI適度解決方案而言,很難解決國家法律中的地區和文化差異以及什么在社會上可以接受,但對于本地人類主持人而言卻微不足道。
一些內容也比其他內容容易分析。照片和預先錄制的視頻可以在發布之前進行分析,而實況直播則特別困難,因為看似無辜的場景可能會很快變得有害。
劍橋咨詢公司的報告說:“將繼續要求人類主持人審閱高度上下文,細微差別的內容。” “但是,基于AI的內容審核系統可以減少人工審核的需求,并減少查看有害內容對他們的影響。”
雖然我們對于人工智能技術抱以厚望,但是同時也是需要認識到,人工智能技術在目前也并不能說較為成熟,我們其實一直在人工智能技術大門的門口打轉,想要真正的使得人工智能技術普及并發展,其實我們還有很長的道路要走。