• <fieldset id="82iqi"></fieldset>
    <tfoot id="82iqi"><input id="82iqi"></input></tfoot>
  • 
    <abbr id="82iqi"></abbr><strike id="82iqi"></strike>
  • 撕開《魷魚游戲》中恐怖AI的面具

    在廣受歡迎的《魷魚游戲》系列中,AI扮演了什么角色?我們將何去何從?

    廣受歡迎的《魷魚游戲》(Squid Game)在世界各地的新聞媒體和社交媒體上掀起了一股巨大的熱潮,這部劇及其受歡迎程度可以從很多方面來理解,尤其是在劇中使用的AI對科技愛好者的吸引力,因為如果沒有它們游戲中的許多元素就不可能出現。

    01 AI真的很重要

    要管理這些致命游戲,技術,尤其是AI是關鍵元素。首先,如果沒有數據庫和智能過濾和搜索算法,參與者的選擇是不可能的。搜索引擎的前后都需要軟件工程師,而且必須為“未來”的參與者使用推薦系統。

    接下來是實際的游戲,第一個游戲被翻譯為“紅燈綠燈”,但游戲的直譯應該是“Mugunghwa( 木槿花,韓國的國花)開花了。”這個名字是“它”背對著重復的短語。從系列中可以看出,規則也略有不同。當“它”重復這個短語時,玩家可以移動,但是當“它”轉身時必須凍結,不然你就輸了(或者在系列賽中被瞬間殺死)。

    《魷魚游戲》中的“它”實際上是一個有著兩個變焦鏡頭眼睛的巨型機器人,每當它轉過身來掃描參與者時,它都試圖檢測運動。如果有人移動,這個人就會被識別出來,并用遙控步槍精確地射擊。這涉及到幾種技術,令人害怕的是,所有這些技術都很容易獲得。

    1、運動檢測:這很容易做到,只需幾行Python代碼就可以完成。

    2、人臉識別:將某物檢測為人是一項目標檢測任務,使用深度學習非常容易(例如YOLO)。另一方面,識別那個人是誰需要更多的工作,但是只要你收集一些訓練圖像就可以完成。

    3、機器人:墻上有幾支遙控步槍。這些步槍似乎沒有安裝任何傳感器,所以我假設視覺信息來自機器人的眼睛。信息必須至少包含目標的位置、距離和姿態。用攝像機校準每支步槍不是小事,但可以做到,近期由美國“幽靈機器人”(Ghost Robotics)公司和“寶劍國際”(SWORD International)公司聯手打造的戰斗機器狗就是很好的例子。

    對于這款游戲來說,AI技術尤為重要,因為它能夠提供一種“公平感”。想象一下,這款致命游戲是由真人扮演“IT”,而游戲職員則是這場射擊游戲的操作者,要在瘋狂的人群中高精度地射擊一個移動的個體,即使是頂尖的狙擊手也難以辦到,同時人類不可能同時準確而公平地跟蹤和檢測這么多人的運動,無法保證游戲的公平性。

    但有了AI這些問題都可以被克服。當人類“它”叫你出來時,你會爭辯。當人工智能機器人檢測到動作并開槍時,沒有人提出爭議,AI沒有感情不會對任何個體產生偏頗(但存在偏見),所以看起來AI是這款游戲必不可少的,但卻不是最終解決方案。

    02 AI不是最終解決方案

    AI雖然重要,但是它可能會成為一個邪惡的工具。

    在我看來,《魷魚游戲》生動地描述了AI如何被富人和有權有勢的人用作另一種方便的工具來剝削弱勢群體。作為一名軟件開發人員和人工智能研究人員,我所從事的、有時引以為豪的工作可能會變成如此邪惡和暴力的東西,這是一個可怕的想法。

    許多人工智能研究人員也有同感。YOLO (You Only Look Once)是當今最流行的目標檢測模型之一,由約瑟夫·雷德蒙(Joseph Redmon)開發。2017年,他在一場廣受關注的TED演講中自豪地展示了自己的最新作品。

    然而,一年后,他發現自己的算法被軍方使用,在中東和世界各地追蹤并殺害了成千上萬人,這讓他感到恐懼。例如去年一名伊朗核科學家在去年(2020年)被AI機槍打死,今年(2021年)8月,阿富汗平民被一架軍用無人機炸死。

    去年喬治·弗洛伊德(George Floyd)去世之后,人工智能中的偏見成為了一個大討論話題。我們現在意識到,人工智能可能和人類一樣有偏見,甚至更有偏見。問題可能來自多個層面:例如,傾斜的數據集、訓練期間超參數的輕微擾動、轉移的域或惡意的對抗攻擊,但總歸一句話:AI存在偏見。

    03 為什么AI也有偏見?

    首先得明白一點:今天的人工智能模型通常是預先訓練好的,并且是開源的,這使得研究人員和公司都可以快速實施人工智能,并根據他們的具體需求進行調整,這是AI存在偏見的根源所在。

    雖然這種方法使人工智能更加商業化,但也有一個真正的缺點,即少數模型現在支撐著各行業和各大洲的大多數人工智能應用。這些系統被未檢測到的或未知的偏見所困擾,這意味著為他們的應用調整這些系統的開發者是在一個脆弱的基礎上工作。根據斯坦福大學基礎模型研究中心最近的一項研究,這些基礎模型中的任何偏見或它們所依據的數據都會被使用它們的人繼承下來,從而造成錯誤被放大的可能性。

    例如,YFCC100M是Flickr的一個公開數據集,通常用于訓練模型。當你檢查這個數據集中的人物圖像時,你會發現世界各地的圖像分布嚴重偏向美國,這意味著缺乏來自其他地區和文化的人的代表。

    訓練數據中的這些類型的傾斜導致人工智能模型在其輸出中存在代表性不足或過度的偏見--也就是說,輸出中白人或西方文化更占優勢。當多個數據集被合并以創建大型訓練數據集時,缺乏透明度,要知道你是否有一個平衡的人、地區和文化組合會變得越來越困難。由此產生的人工智能模型被公布,其中包含令人震驚的偏見,這并不奇怪。

    此外,當基礎的人工智能模型被公布時,通常很少甚至沒有圍繞其局限性提供信息。解開潛在的問題是留給最終用戶來測試的,這一步往往被忽略了。如果沒有透明度和對特定數據集的全面了解,要發現人工智能模型的局限性是很有挑戰性的,例如對婦女、兒童或發展中國家的表現較差。

    04 如何減少AI的偏見

    AI存在偏見是不爭的事實,它既不能被消滅也不能被忽視,當前部分從業者為了獲得更強大的模型,往往會選擇更大的訓練數據,從而犧牲了對數據中的偏差和偏見的理解。人工智能中的偏見并非小事,在未來幾年將需要整個科技行業的合作,目前已有從業者采取一些預防措施了。

    例如Getty Images,他們要求對其授權的創意內容進行模型公布,這使他們能夠在元數據(即描述其他數據的一組數據)中包含自我識別的信息,從而讓人工智能團隊能夠在數百萬張圖片中自動搜索,并迅速識別數據中的偏差。開源數據集往往因缺乏元數據而受到限制,在將多個來源的數據集合并以創建一個更大的數據池時,這個問題就更嚴重了。

    還有部分從業者在基礎模型發布時同時發布相應的數據表,描述基礎訓練數據,提供數據集中內容的描述性統計。這樣做將為后來的用戶提供一個模型的優勢和局限性的感覺,使后來者能夠做出明智的決定。

    另一個互補的方法是讓人工智能開發者能夠獲得一個已知偏見和基礎模型的常見限制的運行列表,包括開發一個容易獲得的偏見測試數據庫,人工智能研究人員使用這些模型可以有效預防AI偏見,就像《魷魚游戲》中的AI從不偏袒任何人一樣。

    本文來自微信公眾號“Techsoho”(ID:scilabs),編輯:Light,出品:科技智谷,36氪經授權發布。