• <fieldset id="82iqi"></fieldset>
    <tfoot id="82iqi"><input id="82iqi"></input></tfoot>
  • 
    <abbr id="82iqi"></abbr><strike id="82iqi"></strike>
  • 人工智能有風險,監管制度需保證

    人工智能在人類生活 所能實現的力量 愈強大, 人工智能的監管制度問題也就愈重要,尤其是 在 與機器結合 的背景下 , 例如: 自動駕駛汽車、工廠機器 設備 、醫生為病人進行遠程手術 的 機器人 、幫助飛行員導航的智能軟件系統,等等。

    然而,像之前其他變革性技術一樣,人工智能在當前引起了很多懷疑,甚至是恐懼,這就催生了限制其應用范圍的一系列法規和政策。那為了促進當今最強大的技術的合理應用,我們到底能做什么呢?

    就風河公司來說,該公司擁有具有最高安全標準的智能系統,而且在此方面擁有40年的經驗。該公司的負責人稱:“我們相信,我們有責任不斷推進我們的技術,同時推進這種技術對世界的積極影響。就人工智能驅動的機器人技術而言,我們要積極主動地提供透明、公平和隱私的系統,使得人們對人工智能充分信任。

    01人工智能與機器人技術高度結合

    今天的工業機器人正在發生根本性的轉變,從局限于重復性動作的機器蛻變為認知性的人類工作合作者。人工智能需要攝入基于機器人的傳感器收集的大量數據,這些數據需要實時解譯,因此這些數據不能被送到云端進行處理,而是要接近機器的地方進行分析。正是這種邊緣計算賦予了機器實時意識,使機器人能夠比人類更快地對決策采取行動,而人類則需要信任這些決策。

    隨著機器人的移動性、協作性、邊緣駐留以及與其他物聯網設備的連接,數據豐富的生態系統給潛在的黑客提供了可乘之機。公司可能會發現自己容易受到惡意軟件、網絡贖金、生產延遲和業務中斷等方面的影響。更為重要的是,針對高度靈活且強大的機器人系統的網絡攻擊也帶來了一些嚴重的物理安全問題。

    02人工智能的風險是什么?

    圍繞人工智能的潛在問題的引發人們的討論,目前主要集中在幾個關鍵問題上。

    隱私和安全:人工智能在數據上運行,因此網絡安全漏洞可能對個人和組織構成威脅。

    不透明性/透明度:數據是如何處理的,如何使用的?人工智能系統識別的模式可能無法真正代表分析決策的輸出。哪些數據被選中?其質量如何確定?這些都需要在系統中建立透明的算法問責制度,以確保人工智能的輸出真正符合標準,并且是公平且沒有偏見的。

    偏見:偏見會以多種方式影響算法,特別是通過使用有缺陷的數據或與當前問題無關的數據集(統計偏見)。

    規范的道德考慮:與人工智能之前的其他顛覆性技術一樣,管理這一領域的法律和法規的制定正在追趕著人工智能的發展。有大量的技術努力來檢測和消除人工智能系統的偏見,但是它們都還處于早期階段。此外,技術修復也有其局限性,因為它們需要制定一個公平的數學概念,而這是很難做到的。

    雖然目前實際的政策很少,但也有一些值得注意的嘗試。數據創新中心2019年的一份歐盟政策文件提出:值得信賴的人工智能應該是合法的、道德的和技術上有彈性的,并能夠闡明能夠實現這些目標的前提要求:人類監督、技術穩健性、隱私和數據治理、透明度、公平性、問責制等。隨著人工智能不斷發展,這些要求都將編入立法之中。

    另外,據美聯社報道,在2021年秋天,總統喬·拜登的頂級科學顧問開始呼吁制定新的“權力法案”,以防范更加強大的新人工智能技術所帶來的風險。

    如果公司能夠合理地應用人工智能,這將為公司帶來巨大利益,但如果在沒有道德保障的情況下使用人工智能,也會損害公司的聲譽和未來業績。制定標準或起草立法并不是很容易就能完成的,這是因為人工智能涵蓋了一個廣泛的、無定形的領域,從戰場機器人到自動駕駛汽車到用于審查合同的法律助理,人工智能無處不在。事實上,幾乎所有與機器學習和數據科學有關的東西現在都被認為是人工智能的一種形式。

    03評估人工智能應用的框架

    展望未來,作為對之前工作的補充,一個旨在確保道德實施的擬議框架正在成為人們討論的焦點。該框架是圍繞四個關鍵支柱建立的,即信任、透明、公平和隱私。

    信任:首先,證明人工智能應用的可信度毫無疑問是應用人工智能的門檻問題。人們需要知道,他們正在使用的人工智能應用程序是來自可靠的來源,并且是在負責任和可信的監督下開發的。

    透明度:充分披露人工智能使用的透明度,并解釋其在具體使用場景中的好處,將在減少人們的擔憂和擴大人工智能應用方面起到很大作用。

    公平性:開發者需要表明,人工智能是以公平和公正的方式部署的。由于人工智能在其基本狀態下缺乏應用判斷的能力,而主要側重于模式識別,因此需要對算法進行微調以消除偏見。還應引入一些程序,以消除我們人類不可避免地帶來的一些偏見。

    隱私:至關重要的是,開發人員應考慮到使用人工智能可能會影響數據中嵌入的個人身份信息(PII)。雖然當前的人工智能通過繞開人類與敏感數據的互動這種方式確實消除了一些隱私問題,但它同時也引發了其他問題,如信息的使用范圍,它的存儲位置,以及誰可以訪問它的權限問題。

    04技術界對人工智能的積極態度

    人工智能毫無疑問將繼續存在于我們的生活,而人工智能的監管與控制問題肯定會隨之而來。行業參與者正在積極尋找方法,以確保他們的應用程序遵循要求,同時也要保證人工智能的發展復合信賴、透明、公平和確保隱私的框架。目前的一個有效措施就是使用同行評審系統。在此系統中,人工智能開發者將提交他們應用程序的用例,在一個類似于開源環境的人工智能社區中進行審查。

    另一個增加人工智能應用清晰度的方法是建立一個特設組織,公司將把他們的項目和應用提交給一個中央人工智能注冊處,與通常由控制議程的正式機構不同,注冊處將是一個收集反饋、建議和肯定的自我報告機構。最終,確保人工智能應用以道德方式進行部署。

    本文來自微信公眾號“Techsoho”(ID:scilabs),作者:王曉東,36氪經授權發布。

    標簽: 人工智能 監管制度