CNET科技行者 8月18日 北京消息:Instagram正面臨著所有社交媒體網(wǎng)站中都會遇到的問題——網(wǎng)絡霸凌的問題。但是,Instagram并沒有像Facebook和Twitter那樣,讓用戶承擔責任,而是通過使用機器學習來消除平臺上言語的攻擊行為。
反霸凌慈善機構(gòu)Ditch the Label最近進行的一項調(diào)查發(fā)現(xiàn),在12至25歲的英國青少年中,有42%的人認為Instagram是讓他們感到最受欺負的平臺,而這在Facebook和Twitter上分別僅為37%和9%,遠遠低于Instagram。此外,71%的被調(diào)查者認為所有社交媒體在阻止網(wǎng)絡霸凌方面做得還很不夠。
尋找解決方案
為了解決網(wǎng)絡霸凌問題,Instagram最近宣布了一項新戰(zhàn)略:集成機器學習算法來檢測和阻止其平臺上的潛在霸凌行為。該公司的首席執(zhí)行官兼聯(lián)合創(chuàng)始人Kevin Systrom在一篇博文中表示,這項研究的目的是為了在Instagram上建立一個友善、包容的社區(qū)。
Instagram正在使用DeepText機器學習算法來嘗試解決網(wǎng)絡霸凌問題。在2016年6月,F(xiàn)acebook的工程師們推出了DeepText,它作為基于深度學習的文本理解引擎,以近乎人類的準確度,每秒可以理解數(shù)千個帖子的文本內(nèi)容,同時還能實現(xiàn)上下文聯(lián)想功能。
通過深度學習,DeepText使用了人腦神經(jīng)網(wǎng)絡建模的算法,像人類大腦一樣工作,通過演繹推理來確定某個單詞在特定語境下的意思。
例如,如果有人使用“mole”這個詞,DeepText則會識別用戶指的是小型哺乳動物、皮膚瑕疵還是叛徒。Facebook使用該系統(tǒng)篩選數(shù)千個帖子,更好地理解用戶,旨在創(chuàng)造一個更好、個性化的用戶體驗,來滿足個人興趣。
后來,2016年10月,Instagram又通過DeepText來消除垃圾郵件。該算法針對尋找企圖出售產(chǎn)品的組織,分析暗示數(shù)據(jù)是否為垃圾郵件。
DeepText的成功讓Instagram也在考慮該系統(tǒng)的其他用途。在2017年6月的博客文章中,Systrom宣布該公司將使用DeepText作為“阻止某些令人反感評論的過濾器”。該平臺使用最初由Facebook創(chuàng)建的技術來創(chuàng)建一個過濾器,為用戶建立一個安全的環(huán)境。
其他社交網(wǎng)站
網(wǎng)絡霸凌并不是Instagram獨有的問題——其他主流的社交媒體網(wǎng)絡也在為其用戶做出安全方面的改變。
康奈爾大學的研究生John Davidson也是很多關于社交媒體中網(wǎng)絡霸凌論文的合著者,他在談到Twitter時表示,“機器學習算法已被證明是檢測不良言論和網(wǎng)絡霸凌的有效方法。”Davidson表示,諸如“邏輯回歸模型、N Bayes、隨機森林、支持向量機”等各種不同的算法都被證實是有效的。但是,他表示所有這些方法的關鍵都是依賴監(jiān)督學習,這是一種使用標簽訓練數(shù)據(jù)進行推理的機器學習策略。Davidson表示, 他的研究涉及收集數(shù)百萬個具有潛在可能的網(wǎng)絡霸凌(種族誹謗等等)推文,并為它們打上標簽,然后將這些數(shù)據(jù)提供給算法。Davidson補充表示,這些例子用于訓練算法,之后它應該能夠自己區(qū)分出不良的言論。
Twitter在2016年11月發(fā)布博客文章,發(fā)布了通知靜音功能以及仇恨行為策略,為用戶提供更直接的方法來阻止濫用媒體的行為。雖然這些努力正在試圖阻止網(wǎng)絡霸凌,但是屏蔽攻擊性的通知并不會使推文不存在。
Facebook試圖通過建立Bullying Prevention Hub(霸凌預防中心)來減少網(wǎng)絡霸凌事件。當青少年、家長和教育工作者自身或者他們認識的某個人遭到霸凌時,這個中心就是他們可以使用的資源。雖然為開啟網(wǎng)絡霸凌對話提供了寶貴的建議,但Facebook的欺凌預防中心并沒有直接采取任何行動來正面消除攻擊的內(nèi)容。該公司只用該工具根據(jù)用戶的興趣向用戶推薦內(nèi)容。
DeepText的優(yōu)缺點
盡管如此,這些努力還遠不能夠完全阻止網(wǎng)絡霸凌。
謝菲爾德大學的博士生Zeerak Waseem專注于辱罵語言檢測和Twitter上的仇恨言論,他表示,“這些嘗試沒有效果”。
為什么?雖然Twitter和Facebook在抑制網(wǎng)絡霸凌方面都取得了長足進展,但Instagram是第一個使攻擊性評論自動消失的社交網(wǎng)站。Systrom的博文和Wired都解釋了人工智能目前在Instagram帳戶上的運行情況。如果用戶發(fā)布令人反感或騷擾的語言,DeepText會捕獲并立即刪除它。Wired報道說,為了防止霸凌者試圖戲弄該系統(tǒng),攻擊性的言論仍然可以被犯罪者看到。用戶還可以手動輸入要阻止的單詞或短語,通過阻止每個用戶設定的獨特的觸發(fā)詞,使DeepText更加有效。
然而,DeepText并不完美。
Instagram的機器學習算法自動集成在平臺上,但一些不良言論仍然可以繞過該工具。 Waseem說,隱含的侮辱,如昵稱或誹謗的代號會讓DeepText難以發(fā)現(xiàn)。而且,該功能可以輕松關閉。只要用手指點擊“隱藏攻擊評論”就可以切換關閉狀態(tài),如果它的任務是消除網(wǎng)絡霸凌,這似乎是違反直覺的。言論自由與創(chuàng)造一個擺脫仇恨言論的環(huán)境之間的界線是不容易找到的。Davidson補充表示,“機器學習不是一個能夠阻止網(wǎng)絡霸凌或網(wǎng)絡不良言論的萬能藥。”機器學習可以幫助被欺負的用戶體驗更好,但沒有技術會阻止個人說壞話。
Ditch the Label的首席執(zhí)行官Liam Hackett認為,Instagram平臺上年輕用戶眾多,網(wǎng)絡霸凌的問題也最為嚴重。侮辱形形色色,從對照片的負面評論到霸凌者創(chuàng)造假帳戶來攻擊目標人群都有。
Hackett贊揚了Instagram的努力,并且認為機器學習策略是多么明智,社交網(wǎng)絡應該更多地投資于這項技術。他提到Instagram如何使用人工智能在反網(wǎng)絡霸凌的運動中取得了很大的進步,人工智能真的在改變游戲。
并且,除了防止霸凌,DeepText還有其他功能可以幫助企業(yè)深入了解客戶的興趣。
問題的根源
機器學習在情感層面上邁出了正確的一步。然而,解決不良網(wǎng)民為什么會在這些平臺上持續(xù)不斷進行言論攻擊是一個更大的問題。
Hackett表示,“互聯(lián)網(wǎng)使人類變得不那么人性化”,舒舒服服地躲在屏幕后面侮辱其他用戶比在面對面的時候說出這些侮辱性的言辭要容易得多。線下的人際關系具有隱含的行為準則——這是一種不言而喻的社會規(guī)范。在互聯(lián)網(wǎng)上卻并不總是遵循同樣的準則。
作為今年最受歡迎的社交媒體網(wǎng)絡之一,Instagram擁有7億的活躍用戶,并且用戶數(shù)還在快速增長,在四個月的時間內(nèi)即可獲得1億新用戶。然而,用戶數(shù)量的增加也同時帶來了傷害性內(nèi)容和冒犯性語言的增加。
Hackett指出,程序本身可能不是教導人們在網(wǎng)上相互尊重的完全解決方案。
好文章,需要你的鼓勵
浙江大學團隊提出動態(tài)專家搜索方法,讓AI能根據(jù)不同問題靈活調(diào)整內(nèi)部專家配置。該方法在數(shù)學、編程等任務上顯著提升推理準確率,且不增加計算成本。研究發(fā)現(xiàn)不同類型問題偏愛不同專家配置,為AI推理優(yōu)化開辟新路徑。
清華大學研究團隊提出SIRI方法,通過"壓縮-擴張"交替訓練策略,成功解決了大型推理模型"話多且準確率低"的問題。實驗顯示,該方法在數(shù)學競賽題上將模型準確率提升43.2%的同時,輸出長度減少46.9%,真正實現(xiàn)了效率與性能的雙重優(yōu)化,為AI模型訓練提供了新思路。
南洋理工大學與騰訊聯(lián)合研究團隊開發(fā)出Rolling Forcing技術,實現(xiàn)AI視頻實時流式生成的重大突破。該技術通過滾動窗口聯(lián)合去噪、注意力錨點機制和高效訓練算法三項創(chuàng)新,解決了長視頻生成中的錯誤累積問題,可在單GPU上以16fps速度生成多分鐘高質(zhì)量視頻,延遲僅0.76秒,質(zhì)量漂移指標從傳統(tǒng)方法的1.66降至0.01,為交互式媒體和內(nèi)容創(chuàng)作開辟新可能。
華中科技大學研究團隊發(fā)現(xiàn),通過讓AI模型學習解決幾何問題,能夠顯著提升其空間理解能力。他們構(gòu)建了包含約30000個幾何題目的Euclid30K數(shù)據(jù)集,使用強化學習方法訓練多個AI模型。實驗結(jié)果顯示,幾何訓練在四個空間智能測試基準上都帶來顯著提升,其中最佳模型達到49.6%準確率,超越此前最好成績。這項研究揭示了基礎幾何知識對培養(yǎng)AI空間智能的重要價值。