科學家:探尋AI“選擇性失憶”的新問題!
人工智能的“遺忘”與人類不同,這也是該領域面臨的一大挑戰(zhàn)。據(jù)《連線》雜志網(wǎng)站近日消息稱,作為計算機科學中的新興領域,機器學習研究者們已經(jīng)開始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數(shù)據(jù)。如果未來能夠實現(xiàn),那么這一概
念將幫助人們更好地控制數(shù)據(jù)。
機器學習宗旨是使用計算機作為工具并致力于真實、實時的模擬人類學習方式,其可以將現(xiàn)有內(nèi)容進行知識結構劃分,再廣泛應用于解決工程應用和科學領域的復雜問題?,F(xiàn)在,機器學習被視作最具智能特征的研究領域,但科學家已經(jīng)提出了新的問題:機器會學習,但它會遺忘嗎?實際上,它們的學習方式雖然在效仿人類,但“遺忘”方式卻與我們大不一樣。
機器學習的“遺忘”,對于有需求的用戶,也就是那些對他們在網(wǎng)上分享的內(nèi)容感到后悔的人來說,其實很直觀。但從技術層面來講,消除特定數(shù)據(jù)點影響的傳統(tǒng)方法,是“從零開始”重建系統(tǒng),這是一項代價可能相當高昂的工作,令企業(yè)幾乎難以承受。具體來說,某些地區(qū)的用戶如果他們對披露的內(nèi)容改變了主意,其實是有權要求公司刪除他們的數(shù)據(jù)的。但徹底抹除這件事很難實現(xiàn),因為一旦經(jīng)過訓練,機器學習系統(tǒng)就不會輕易改變,甚至就連訓練者們自己,也不清楚系統(tǒng)是如何掌握這些能力的,因為他們并不能完全理解自己調(diào)試或訓練出的算法。
2019年有科學家提出可以將機器學習項目的源數(shù)據(jù)分成多個部分,以實現(xiàn)對單個數(shù)據(jù)點的“遺忘”,但最近已被證明存在缺陷。如果提交的刪除請求以特定的順序出現(xiàn),無論是偶然的還是惡意的,機器學習系統(tǒng)都會崩潰。因此,要實現(xiàn)“選擇性失憶”這個概念,科學家可能需要在計算機科學方面做出全新探索。
“當他們(用戶)要求刪除數(shù)據(jù)時,我們能否消除他們數(shù)據(jù)的所有影響,同時避免從頭開始重新訓練的全部成本?”賓夕法尼亞大學機器學習教授亞倫·羅斯表示,他們目前進行的研究就是希望能找到一些“中間地帶”。或許在不久的將來,有望找出一條既可以控制數(shù)據(jù)也可以保護由數(shù)據(jù)產(chǎn)生的價值的發(fā)展道路。