• <fieldset id="82iqi"></fieldset>
    <tfoot id="82iqi"><input id="82iqi"></input></tfoot>
  • 
    <abbr id="82iqi"></abbr><strike id="82iqi"></strike>
  • 精彩!尤瓦爾vs李飛飛:一場關于“AI威脅論”的終極對話

    尤瓦爾vs李飛飛:一場關于“AI威脅論”的終極對話

    尤瓦爾·赫拉利和李飛飛在斯坦福大學展開了一場別開生面的對話,他們所提出的問題已經遠遠超出了我們可以解答的范圍。《連線》雜志主編尼古拉斯?湯普森在座無虛席的紀念禮堂主持了這場90分鐘的談話。

    赫拉利(Harari)是耶路撒冷希伯來大學的歷史教授,曾兩次獲得波隆斯基創意獎,他是國際暢銷書《智人:人類簡史》和《上帝的人:未來簡史》的作者。

    李飛飛是著名的人工智能研究者,工程師和計算機科學教授。她是當今人工智能領域最多產的學者之一,在深度學習和計算機視覺方面的成果被世界各地的公司和研究團隊借鑒和使用。其最著名的角色研究成果是創建了ImageNet,這是一個在計算機視覺應用程序中被廣泛使用的1400萬圖像手工注釋數據集。

    他們談到了一些關于人工智能和技術的重要話題,包括我們是否仍然可以相信人類的能動性;人工智能時代的民主是怎樣的形式;以及人工智能是否最終會威脅人類或是幫助人類。

    李飛飛和赫拉利并沒有把我們引向那些晦澀難懂的話題上,而是要求我們認真思考更多重要的問題:這些問題不但反映了人工智能技術對個人自由和選擇的影響,也反映了其對當前社會中的法律,經濟和政治制度的影響。

    這四個相關問題試圖幫助我們去梳理AI對個人的影響:

    重新思考自由意志——尤瓦爾·赫拉利(Yuval Noah Harari)

    愛情和人工智能的極限——李飛飛

    將自我意識外包給人工智能?——尤瓦爾·赫拉利(Yuval Noah Harari)

    處于人工智能核心地位的人類,

    像許多看到它的人一樣,我帶著一種緊迫感重復著這段對話。這些在學界極具爭議的話題也是AI從業者,政策制定者以及公眾都應該思考的。

    而我們需要迅速采取行動。“工程師們不會等待。即使工程師愿意等待,他們背后的投資者也不會等待。因此,這意味著我們并沒有太多的時間,”赫拉利警告說。

    1、

    尤瓦爾vs李飛飛:一場關于“AI威脅論”的終極對話

    如果你不能信任客戶,如果你不信任自己的感受,那么你信任誰?——尤瓦爾·赫拉利(Yuval Noah Harari)

    討論進行到自由意志和能動性這一深奧而又復雜的話題上,完全跳過了淺顯的內容。

    對自由意志有效性的質疑乍一看似乎是一種無關緊要的理論探索——完全超出了工程學科的范圍。但事實上,許多頗為激烈的討論最后都回到了哲學家們爭論了數千年的話題之上。

    只是這一次,我們擁有了一個全新的視角——正如赫拉利所指出的,我們本身擁有的許多根深蒂固的觀念正在受到挑戰,“不是哲學思想,而是實用技術。”

    赫拉利在這十年中的大部分時間里都在質疑自由意志和個體能動性的核心概念。

    他并不是孤身一人。由于測量神經活動的技術進步,許多神經心理學專家都對自由意志發起了新的抨擊。

    這導致許多頂級神經科學家懷疑我們的決策自由。

    “我們只是在我們既定思維中處理信息,且它會機械地引導我們的行為。因此,我們認為我們有意識做出的那些的決定,實際上只是一種幻覺,可以歸結為我們的大腦想要我們要做的事情。“

    ——漢娜·克里克洛(Hannah Crichlow),普林斯頓大學著名神經學家,《命運科學》(The Science of Fate)一書的作者。

    但是,無論科學怎樣的進步和成熟,我們的自由意志終究不能擺脫被操控的命運。赫拉利稱之為“入侵人類”——這對我們的社會構成了巨大風險。

    某些組織可能會努力“創造一種算法,它能比我更了解我自己,從而能夠操縱我、提升我甚至取代我。”這將是我們的挑戰——不僅要決定這些指令發展或替換的應該是什么,更重要的是由誰來決定。

    我們可能會想,我們應當如何決定人類進化的方向。

    “誰來定義這些優化和性能提升的好與壞呢?”那么,如果“什么是好”這個問題我們都沒有答案,那又要如何決定該強化哪個方面呢?這是一個非常深刻的倫理問題和哲學問題,哲學家們已經辯論了數千年。“話說回來,我們需要加強哪些優秀品質呢?”赫拉利問道。

    我們中的大多數人都會很自然地“求助于傳統的人文主義思想”,優先考慮個人的選擇和自由。然而,赫拉利警告稱:“當一種可以大規模攻擊人類的技術出現時,這一切都不管用了。”

    如果人類的能動性和自由意志這一概念本身正處于爭論之中,那么就很難去定義AI技術可以被用在哪里。這也同時影響到了我們生活的各個方面——我們選擇做什么,我們可能買什么,我們可能去哪里,我們會以何種方式進行投票。而目前還不能決定究竟應該由誰來決定技術的使用范圍。

    由于生物技術(B)、計算能力(C)和數據分析(D)的共同發展,這種技術界限不斷模糊的發展狀況讓我們面臨一個重大問題,赫拉利認為這些技術甚至已經可以攻擊人類了(HH)。

    數學家把它概括為B * C * D = HH。

    隨著現代技術的發展,入侵人類可能成為一種非常現實的可能性。“這不僅僅是討論開始的時刻,也是我們直面挑戰的時刻”李飛飛補充說。

    如果存在操縱,那么如何保證政府、商業和個人自由的體系依然合乎法律的要求?

    愛與人工智能的

    2、

    尤瓦爾vs李飛飛:一場關于“AI威脅論”的終極對話

    愛情也是可以被“黑”的嗎? ——李飛飛

    如果人類可以被“黑客”攻擊,我們的行為和信仰可以被操縱,那么這種微妙控制的極限是什么?

    我們可能會承認,我們可以通過一些微小的嘗試來控制自己——當走進一家剛做過肉桂面包的面包店時,誰不會突然想吃肉桂面包呢?——但我們控制行為的方式肯定是有限度的。

    在這一點上,似乎沒有人能夠確切知道這些操作的極限是什么。

    然而,操縱的策略是眾所周知的。犯罪分子和行騙者會利用這些工具,使他們既因勇敢無畏而受到崇敬,也因其故事在媒體上傳播和被電影、文學及電視講述而受到譴責。

    總的來說,我們不相信自己是很容易被操縱的人。相反,我們認為那些被操縱的人是少數愚蠢的人。“最容易被操縱的人是那些相信自由意志的人,因為他們認為自己不會被操縱,”赫拉利總結道。

    將愛武器化作為操縱的潛在手段不僅是可能的,而且有充分的證據可以證明。這一主題與歷史悠久的愛情騙局是一致的;我們很多人都聽說過“異地戀的人因為一些小緊急情況需要突然大量的錢”。在去年詐取美國人1.43億美元的所有騙局中,愛情騙局是最“成功”的。

    哥倫比亞大學心理學家、《自信游戲》(The Confidence Game)一書的作者瑪麗亞?科尼科娃(Maria Konnikova)提醒我們,操縱“首先是通過情緒來完成的。”這讓我們處于一種脆弱的狀態,因為“至少在那一刻,感覺取代了思考。”

    畢竟,控制系統——不管是不是人工智能——并不需要通過體驗愛來控制人類與他人聯系和親近的能力。赫拉利解釋說:“被操縱愛情和實際感受到的愛情是兩碼事。”

    在不降低人類愛情重要性的前提下,生物學和神經化學成分已經得到了很好的研究。

    考慮到我們每個人被提供的信息量越來越大,我們對個體的生理和心理習性的了解也越來越深入,再加上分析大量數據的成本越來越低,我們不能忽視這種更加昂貴的騙局出現的可能性。這些騙局利用了非常真實的情感,比如孤獨、寂寞以及迫切想要與他人建立聯系的渴望。

    我們都容易受到這種操縱。科尼科娃提醒我們:“我們希望相信他們告訴我們的東西。”

    在數據科學和技術快速發展的時代背景下,甚少有人能夠對這種技術極限有著明確的判斷和定義。但李飛飛很樂觀:“我想確保在座的每一位都認識到,我們離那個目標非常、非常、非常遠,因為這項技術還處于萌芽階段。”然而,風險越來越大,現狀還能持續多久?危機還有多久到來?

    正如李飛飛所提到的的:“我認為你確實凸顯了解決這場潛在危機的緊迫性和重要性。但我認為,面對這種情況,我們更需要的是采取行動。”

    3、將自我意識外包給人工智能

    尤瓦爾vs李飛飛:一場關于“AI威脅論”的終極對話

    生活在一個從算法中了解自身重要信息的世界意味著什么? ——尤瓦爾·赫拉利

    幾千年來,人類一直在將我們大腦的一些功能外包出去:比如寫作使我們能夠保持更加準確的記錄,但并不是依賴于我們的記憶;導航從神話傳說和星圖發展到地圖和GPS。

    但有了人工智能,我們就有了一個革命性的機遇:如果自我意識是人類將要外包給技術的東西之一,那會怎樣?

    赫拉利講述了一個關于他自己如何進行發現自我的故事,他說自己直到20多歲才知道自己是同性戀。這個故事引人深思,我們都在努力看到自己的盲點。“我直到21歲才意識到自己是同性戀。回想起那段時間,我不知道是15歲還是17歲,在那時候就應該表現的很明顯了,但我卻意識不到。”

    赫拉利繼續說道:“但是現在人工智能,即使是今天非常愚蠢的人工智能,也不會錯過它。”這開辟了一個非常有趣的新可能性:或許算法會知道一些我們都不知道的,關于我們自身的事情?

    在人工智能發展的這幾十年間,這一直是一個誘人的想法。

    “我把我所有的錢都押在一個賭注上——我們建造機器人的原因與我們做其他類型的科學和藝術的原因相同,因為我們知道一些我們以前不知道的重要事情,甚至我們可以確定我們已經將這些知識拋之腦后,將它浪費。簡單地說,就是以一種新的方式看待自己。”

    ——?帕梅拉·麥考達克(Pamela McCorduck),著名的人工智能歷史學家,《思考的機器》(Machines Who Think)一書的作者

    在今天,利用我們所擁有的的數據,我們可能更早地診斷出從抑郁癥到癌癥等各種不同的疾病,其結果也會對我們的生活產生很有意義的影響。

    利用已有數據去探索除了關于身心健康之外的其他領域的新事物確實是一件令人興奮的事情。畢竟,無論文化、時代和地位如何變幻,人類所經歷的某些事情是無法改變的。

    隨著分析方法變得越來越先進,可用的數據越來越多,我們可以了解到,我們與朋友,鄰居甚至生活在全球各地的其他人竟然擁有著相似度極高的生活方式?

    然而,我們前進的路上,仍然存在著兩項挑戰。

    把我們的信息交給一種算法,即使是非常聰明的算法,也是相當危險的,尤其是當它使質疑和驗證變得困難時。

    “一旦你把某個東西打扮成一個算法或沾染一點人工智能,它就會帶上這種權威的氣息,讓人很難反駁。

    ——漢娜·弗萊(Hannah Fry,),著名的倫敦大學學院數學家,《你好,世界》的作者。

    如果一個算法預測我們患了癌癥,我們可以進行檢查來驗證,但如果它告訴我們一些更模糊的東西,比如我們是否受歡迎(或不受歡迎),我們可能傾向于認為這是真的,因為我們沒有辦法驗證它。而由于對潛在錯誤算法的錯誤信任,可能會導致我們做出截然不同的決定,弗萊指出,我們可能會相信算法的說法,它甚至凌駕于我們的個人判斷之上。

    她講述了一車游客的故事:“他們試圖跟著導航的指令,開車越過溪流以達到他們的目的地,但事實卻是他們都落了水,等待營救。”

    如果我們的自我認知被扭曲了,誰會來拯救我們呢?

    此外,使用數據將他人的經驗和自己的處境聯系起來的做法可能并不可行,因為算法并不與你分享一些他人已知的相關信息。

    “如果算法不與你共享信息,而是與廣告商或者政府共享信息,會發生什么?”赫拉利問道。

    即便是現在,我們在社交媒體上的信息也被用來為我們提供“相關”廣告,而我們才剛剛了解是誰在購買我們的信息。

    赫拉利說:“這是一個很好的警示案例,因為它已經發生了。”

    人工智能被用來預測我們是否會辭職或與另一半分手。這兩個都是非常私人的決定,我們中的許多人甚至都不愿意讓朋友知道,更不用說非個人組織了。

    李飛飛質疑算法的這種方式是不是會比我們自己內省還要好。“我也并不能十分確定!”她說,“但這給了我們希望,我們或許能夠在還有時間的時候,更慎重的考慮一下如何應對這其中一些挑戰。”

    “人類從發現火開始,創造的任何技術都是一把雙刃劍。因此,它可以改善生活、工作和社會,但也會帶來危險,人工智能也同樣有著危險”她提醒我們。

    處于

    4、

    尤瓦爾vs李飛飛:一場關于“AI威脅論”的終極對話

    我們能否以“人本位”的精神,重新定義在人工智能技術支持下所搭建的教育、研究和對話體系? ——李飛飛

    在如此多相關學科參與下的討論中,李為我們提供了一個開放式的巧妙想法,意圖開始引導我們解決所面臨的一些問題:以“人本位”的方式對人工智能進行重構。

    李飛飛已經開始在斯坦福大學進行改革,其目標很明確——為所有規模和來源的組織提供一個通用的功能模板。

    她建立了斯坦福大學以“人本位”思想指導的的人工智能(HAI)研究所,來自不同領域的個人聚集在一起,開展新的合作對話。

    該研究所有三個原則:

    1.要慎重考慮我們希望AI成為什么樣的“人”;

    2.鼓勵多學科合作研究;

    3.專注于人性的增強與提升。

    “我們不一定非要在今天找到一個解決方案,但我們會與人文學者、哲學家、歷史學家、政治科學家、經濟學家、倫理學家、法律學者、神經學家、心理學家,以及更多的其他領域的研究者們一起討論和探尋人工智能發展的下一步應該怎么走。”李飛飛說道

    這一建議源于研究人員和從業人員在獲得和保持公眾信任、提供積極的用戶體驗以及如何用相對思慮周全的措施消除人工智能所帶來的恐慌等方面所面臨的挑戰。

    在人工智能的領域中制定一個明確的目標,是將我們都團結起來所邁出的重要一步,而且不同學科之間的交叉也會變得越來越具有吸引力。

    “這正是為什么我們認為人工智能的新篇章需要通過人文主義者,社會科學家,商業領袖,民間社會和政府的共同努力來一起書寫。”李強調。

    但我們已經走到了十字路口。

    事實上,我們今天面臨的許多倫理問題都源于工程師們做出的一些決定,“快速行動,打破常規”的風氣最終導致了真正的毀滅。

    在科技行業工作可能會讓創造者看不到他們所創造的技術帶來的后果和影響。有無數意想不到的結果:比如大型在線零售商排擠小企業,從而改變我們城市的產業架構等。

    我們如何平衡我們對創新的渴望和隨之而來的風險呢?如果公司在未慎重考慮AI產品所帶來的一些后果的情況下而獲得了成功,我們是否應采取措施來抑制他的發展?

    李飛飛對“將道德規范納入軟件學領域”持樂觀態度。

    “以人為本的人工智能需要由下一代技術專家來開發,他們上過(斯坦福大學政治學教授)羅布?賴希(Rob Reich)的《計算機、倫理與公共政策》(Computers, Ethics and Public Policy)等課程,會思考其中的倫理含義,也會顧及人類福祉。”

    無論這個目標有多簡單,人工智能領域中的很多人都會質疑它是否也是最具挑戰性的那個目標。

    “我們不可能單獨作為技術專家來做這件事。”李飛飛警告說。

    我們如何說服那些在人工智能領域工作的技術人員,尤其是那些可能不想關心他們工作的社會影響等模糊問題的人:他們應該關心這些事情!而且,這是否應當僅僅是一種期望?我們是否需要在整個行業中為每個角色提供道德維度?李飛飛并不太確定。

    “我們中的一些審慎者甚至也不知所措。所以倫理學家和哲學家應該參與進來,和我們一起解決這些問題。”

    盡管在這個領域工作的前瞻性人士中,很少有人會忽視這個問題的重要性,但它所要求的標準不應被最小化。在技術領域中,對于任何非技術或與技術相關的話題一直存在著很大的蔑視,人工智能領域會尊重這些新視角的重要性嗎?還是會對任何不理解反向傳播的人不屑一顧?

    當被問及赫拉利的作品是否會出現在她的教學大綱上時,李飛飛打趣道:“對不起,不在我的教學大綱上,我教的是深度學習,他的書里并沒有方程式。”

    結語

    這次談話恰逢其時的提出了一些重要的新問題:關于人工智能在未來幾十年對我們個人的影響。在不能精確把握人工智能受控范圍的前提下,我們仍舊需要降低被其反向威脅的可能性,赫拉利敦促我們專注于自我意識:

    “這是所有哲學書籍中最古老的忠告:了解你自己。我們從蘇格拉底、孔子、佛陀那里聽到:認識你自己。但有一個不同之處,那就是現在有了競爭,你要和這些大公司和政府競爭。如果他們比你更了解你自己,游戲就結束了。”

    但正如李飛飛所建議的,合作是必要的。這項工作已開始在世界各地的許多組織中逐漸形成。赫拉利和李飛飛之間的對話也標志著人工智能領域中,一種新型合作關系的誕生。

    “我們開啟了人文主義者和技術專家之間的對話,我希望看到更多這樣的對話。”她說。