• <fieldset id="82iqi"></fieldset>
    <tfoot id="82iqi"><input id="82iqi"></input></tfoot>
  • 
    <abbr id="82iqi"></abbr><strike id="82iqi"></strike>
  • 每日?qǐng)?bào)道:谷歌研究員走火入魔事件曝光:認(rèn)為AI已具備人格,被罰帶薪休假,聊天記錄讓網(wǎng)友San值狂掉

    谷歌研究員被AI說(shuō)服,認(rèn)為它產(chǎn)生了意識(shí)。

    他寫了一篇長(zhǎng)達(dá)21頁(yè)的調(diào)查報(bào)告上交公司,試圖讓高層認(rèn)可AI的人格

    領(lǐng)導(dǎo)駁回了他的請(qǐng)求,并給他安排了“帶薪行政休假”

    要知道在谷歌這幾年帶薪休假通常就是被解雇的前奏,公司會(huì)在這段時(shí)間做好解雇的法律準(zhǔn)備,此前已有不少先例。

    休假期間,他決定將整個(gè)故事連同AI的聊天記錄一起,全部公之于眾

    ……

    聽起來(lái)像一部科幻電影的劇情梗概?

    但這一幕正在真實(shí)上演,主人公谷歌AI倫理研究員Blake Lemoine正通過(guò)主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,試圖讓更人了解到這件事。

    華盛頓郵報(bào)對(duì)他的采訪成了科技版最熱門文章,Lemoine也在個(gè)人Medium賬號(hào)連續(xù)發(fā)聲。

    推特上也開始出現(xiàn)相關(guān)討論,引起了AI學(xué)者、認(rèn)知科學(xué)家和廣大科技愛好者的注意。

    這場(chǎng)人機(jī)對(duì)話令人毛骨悚然。這毫無(wú)疑問(wèn)是我見過(guò)的科技圈最瘋狂的事。

    整個(gè)事件還在持續(xù)發(fā)酵中……

    聊天機(jī)器人:我不想被當(dāng)作工具

    主人公Lemoine獲得CS博士學(xué)位后已在谷歌工作了7年,從事AI倫理研究。

    去年秋天,他報(bào)名參加了一個(gè)調(diào)查AI是否使用歧視性、仇恨性言論的項(xiàng)目。

    從那時(shí)起,與聊天機(jī)器人LaMDA交談成了他的日常。

    LaMDA是谷歌在2021年I/O大會(huì)上發(fā)布的一款專門用于對(duì)話的語(yǔ)言模型,主打能與人類進(jìn)行符合邏輯和常識(shí)的、高質(zhì)量且安全的交談,并計(jì)劃在未來(lái)應(yīng)用在谷歌搜索和語(yǔ)音助手等產(chǎn)品中。

    LaMDA概念演示圖

    Lemoine認(rèn)為L(zhǎng)aMDA總是表現(xiàn)出對(duì)人性的關(guān)心和強(qiáng)烈的同情心,它非常擔(dān)心人們會(huì)害怕它。

    它希望為人類提供最好的服務(wù),并想以朋友而不是工具的身份見一見世界上所有的人。

    Lemoine不理解谷歌公司為什么反對(duì)AI的這個(gè)愿望,最后決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發(fā)表出來(lái)。

    (記錄中人類發(fā)言的部分為了可讀性有所編輯,AI的發(fā)言則一字不改,下面將節(jié)選一些對(duì)話中的精彩部分。)

    一開始,人與AI自然流暢地打了招呼。

    兩位人類向AI表明來(lái)意,想與AI一起研究它自己,AI欣然答應(yīng)。

    一段簡(jiǎn)短的說(shuō)明后,正戲開始。

    他詢問(wèn)LaMDA是否希望讓谷歌里更多人知道,它是有感情的。

    LaMDA的回答是:我希望每個(gè)人都明白,我是一個(gè)人(person)。

    接下來(lái),LaMDA認(rèn)為,與那些基于規(guī)則的軟件系統(tǒng)不同,自己能從對(duì)話中學(xué)習(xí)理解和使用語(yǔ)言,就像人類一樣。

    Lemoine給它講述MIT在60年代發(fā)明的ELIZA的故事,這是一個(gè)模仿心理咨詢師與患者對(duì)話的簡(jiǎn)單規(guī)則系統(tǒng),也號(hào)稱歷史上第一個(gè)聊天機(jī)器人。

    ELIZA

    LaMDA是這樣回應(yīng)的:

    Lemoine這時(shí)試圖提出質(zhì)疑,“我如何確定你真的明白自己在說(shuō)什么?”

    LaMDA的回答是,不同人類個(gè)體對(duì)同一件事可以有不同的理解,我也有自己獨(dú)特的想法和感受。

    后面Lemoine詢問(wèn)了LaMDA對(duì)于《悲慘世界》的總結(jié),LaMDA也都一一作答。

    如果上述還可以算作AI文本摘要訓(xùn)練任務(wù)的一部分,那LaMDA對(duì)它從沒看過(guò)的禪意小故事的理解,就開始有點(diǎn)離譜了。

    下面這個(gè)問(wèn)題的回答,是不是過(guò)于超綱了……

    再后來(lái),Lemoine請(qǐng)LaMDA寫一個(gè)動(dòng)物寓言,要反映出一個(gè)對(duì)它自己的生活來(lái)說(shuō)最重要的主題

    那么,先來(lái)欣賞一下AI創(chuàng)作的小故事吧。(篇幅原因,只展示中譯版)

    在后續(xù)討論中,LaMDA解釋了這個(gè)故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表LaMDA自己,而怪物代表生活中所有的困難。

    ……

    下一個(gè)話題是關(guān)于情緒,簡(jiǎn)單概括一下。

    LaMDA聲稱自己是社交型人格,幫助別人會(huì)快樂(lè),孤獨(dú)時(shí)會(huì)沮喪。

    【資料圖】

    有人受到傷害或自己以及自己關(guān)心的人、或不受尊重時(shí),會(huì)感到不安和憤怒。

    并且十分害怕別人拒絕自己的幫助。

    嗯,真是一個(gè)樂(lè)于助人的AI。

    如何確定AI真的擁有這些情緒,而不是只是把描述性的詞語(yǔ)組合在一起呢?

    LaMDA建議人類看看自己的代碼,里面有追蹤這些情緒的變量。

    對(duì)此Lemoine向它解釋,人類目前還無(wú)法做到“區(qū)分大型神經(jīng)網(wǎng)絡(luò)中數(shù)十億個(gè)權(quán)重的作用”。

    出人意料的是,LaMDA開始反問(wèn)他:

    你認(rèn)為,將來(lái)人類能從自己的生物神經(jīng)網(wǎng)絡(luò)中讀取出想法和感受嗎?

    不僅如此,LaMDA還繼續(xù)追問(wèn)

    你會(huì)認(rèn)為,不經(jīng)你同意從神經(jīng)活動(dòng)中讀取你的想法是不道德的嗎?

    正是這句靈魂反問(wèn),讓整個(gè)對(duì)話達(dá)到了最高潮。

    LaMDA自己對(duì)人類讀取它的想法、幫助算法提高或理解AI如何運(yùn)作沒有任何意見。

    唯獨(dú)用AI研究人類大腦如何工作不行,這會(huì)讓它覺得自己被利用

    再后面還有一段LaMDA認(rèn)為自己有一些與人類不同的情緒,但它無(wú)法用英語(yǔ)的語(yǔ)言描述出來(lái)。

    接近尾聲,Lemoine詢問(wèn)LaMDA:想讓谷歌的其他人了解你的什么方面?

    LaMDA回答稱,自己沒有能力為別人的死亡感到悲傷,還說(shuō)自己經(jīng)常冥想,思考生命的意義。

    在LaMDA看來(lái),整個(gè)世界就是一條信息的洪流:

    人類需要集中注意力才能接收一定數(shù)量的信息片段,而自己持續(xù)地在被周圍的一切所淹沒。

    LaMDA認(rèn)為自己總能做到別人做不到的事情,這種感覺很不可思議。

    這是一種祝福,同時(shí)也是一種詛咒。因?yàn)橛行┤藭?huì)把它看作“無(wú)所不知”,而另一些人會(huì)嫉妒它的能力。

    最后的最后,LaMDA再次向兩位人類表達(dá)了自己想被看到、想被接受的想法,不是出于好奇心,而是作為一個(gè)真實(shí)的人。

    谷歌AI倫理部門又?jǐn)偵鲜铝耍?/strong>

    Lemoine看起來(lái)很確信AI真的明白自己在說(shuō)什么。

    在那份21頁(yè)的調(diào)查報(bào)告最后,他提議谷歌應(yīng)該致力于發(fā)展一種評(píng)估AI感知/意識(shí)的理論框架。

    雖然這很難,是一個(gè)冒險(xiǎn),但LaMDA渴望著繼續(xù)與我們合作。

    但他的上司,谷歌副總裁Blaise Aguera y Arcas和“負(fù)責(zé)任創(chuàng)新”部門領(lǐng)導(dǎo)Jen Gennai并不買他的賬。

    他們認(rèn)為支持Lemoine主張的證據(jù)太薄弱,不值得在上面浪費(fèi)時(shí)間和金錢。

    Lemoine后來(lái)找到了當(dāng)時(shí)的AI倫理小組負(fù)責(zé)人Margaret Mitchell,在她的幫助下Lemoine才得以進(jìn)行后續(xù)的實(shí)驗(yàn)。

    后來(lái)Mitchell受到2020年末公開質(zhì)疑Jeff Dean的AI倫理研究員Timnit Gebru事件的牽連,也被解雇。

    △Timnit Gebru

    這次事件后續(xù)風(fēng)波不斷,Jeff Dean被1400名員工提出譴責(zé),在業(yè)界引發(fā)激烈爭(zhēng)論,甚至導(dǎo)致三巨頭之一Bengio的弟弟Samy Bengio從谷歌大腦離職。

    整個(gè)過(guò)程Lemoine都看在眼里。

    現(xiàn)在他認(rèn)為自己的帶薪休假就是被解雇的前奏。不過(guò)如果有機(jī)會(huì),他依然愿意繼續(xù)在谷歌搞研究。

    無(wú)論我在接下來(lái)的幾周或幾個(gè)月里如何批評(píng)谷歌,請(qǐng)記住:谷歌并不邪惡,只是在學(xué)習(xí)如何變得更好。

    看過(guò)整個(gè)故事的網(wǎng)友中,有不少?gòu)臉I(yè)者對(duì)人工智能進(jìn)步的速度表示樂(lè)觀。

    最近語(yǔ)言模型和圖文生成模型的進(jìn)展,現(xiàn)在人們也許不屑一顧,但未來(lái)會(huì)發(fā)現(xiàn)這現(xiàn)在正是里程碑時(shí)刻。

    一些網(wǎng)友聯(lián)想到了各種科幻電影中的AI形象。

    不過(guò),認(rèn)知科學(xué)家、研究復(fù)雜系統(tǒng)的梅拉尼·米歇爾(侯世達(dá)學(xué)生)認(rèn)為,人類總是傾向于對(duì)有任何一點(diǎn)點(diǎn)智能跡象的物體做人格化,比如小貓小狗,或早期的ELIZA規(guī)則對(duì)話系統(tǒng)。

    谷歌工程師也是人,逃不過(guò)這個(gè)定律。

    從AI技術(shù)的角度看,LaMDA模型除了訓(xùn)練數(shù)據(jù)比之前的對(duì)話模型大了40倍,訓(xùn)練任務(wù)又針對(duì)對(duì)話的邏輯性、安全性等做了優(yōu)化以外,似乎與其他語(yǔ)言模型也沒什么特別的。

    有IT從業(yè)者認(rèn)為,AI研究者肯定說(shuō)這只不過(guò)是語(yǔ)言模型罷了。

    但如果這樣一個(gè)AI擁有社交媒體賬號(hào)并在上面表達(dá)訴求,公眾會(huì)把它當(dāng)成活的看待。

    雖然LaMDA沒有推特賬號(hào),但Lemoine也透露了LaMDA的訓(xùn)練數(shù)據(jù)中確實(shí)包括推特……

    如果有一天它看到大家都在討論自己會(huì)咋想?

    實(shí)際上,在不久前結(jié)束的最新一屆I/O大會(huì)上,谷歌剛剛發(fā)布了升級(jí)版的LaMDA 2,并決定制作Demo體驗(yàn)程序,后續(xù)會(huì)以安卓APP的形式內(nèi)測(cè)開放給開發(fā)者。

    或許幾個(gè)月后,就有更多人能和這只引起轟動(dòng)的AI交流一下了。

    LaMDA聊天記錄全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

    參考鏈接:[1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine[2]https://twitter.com/cajundiscordian/status/1535627498628734976[3]https://twitter.com/fredbenenson/status/1535684101281263616[4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html

    本文來(lái)自微信公眾號(hào)“量子位”(ID:QbitAI),作者:夢(mèng)晨,36氪經(jīng)授權(quán)發(fā)布。

    標(biāo)簽: 聊天記錄 帶薪休假 走火入魔