娛樂城

知道何時無法信任其數據的神經網絡威博娛樂城rk

越來越多地,被稱為深度學習神經網絡的人工智能係統用於告知對人類健康和安全至關重要的決策,例如在自動駕駛或醫療診斷中。這些網絡擅長識別大型複雜數據集中的模式以幫助決策。但是我們怎麼知道它們是正確的?亞歷山大·阿米尼(Alexander Amini)和他的麻省理工學院(MIT)和哈佛大學(Harv)真人娛樂城阿爾德大學想找出答案。

他們開發了一種用於神經網絡處理數據的快速方法,不僅可以輸出預測,還可以基於可用數據的質量輸出模型的置信度。這種進步可能會挽救生命,因為當今的現實世界已經部署了深度學習。網絡的確定性程度可以是自動駕駛汽車確定“很明顯可以通過十字路口”和“很可能已經明確,所以以防萬一”之間的區別。

用於神經網絡的不確定性估計的當前方法在計算上趨於昂貴並且對於瞬間決策而言相對較慢。但是,阿米尼(Amini)的方法被稱為“深度證據回歸”,可以加快這一過程,並可能導致更安全的結果。麻省理工學院計算機科學與人工智能實驗室(CSAIL)的Daniela Rus教授小組的博士生Amini說:“我們不僅需要擁有高性能模型的能力,而且還需要了解何時我們無法信任那些模型。

“這個想法淘金娛樂城 重要且廣泛適用。它可用於評估依賴於學習模型的產品。通過估算學習模型的不確定性,我們還可以了解到娛樂城 期望模型,哪些缺失的數據可以改善模型,” Rus說。

阿米尼(Amini)將與Rus一起在下個月的NeurIPS會議上介紹該研究,Rus是安德魯和厄爾納·維特比(Andrew and Erna Viterbi)電機工程和計算機科學教授,CSAIL的負責人,也是麻省理工學院斯蒂芬·A·施瓦茨曼計算機學院的副院長。麻省理工學院的研究生Wilko Schwarting以及麻省理工學院和哈佛大學的Ava Soleimany。

有效的不確定性

在經歷了起伏的歷史之後,深度學習在各種任務上表現出了卓越的性能,在某些情況下甚至超過了人類的準確性。如今,深度學習似乎隨計算機而去。它為搜索引擎結果,社交媒體供稿和麵部識別提供了動力。 “我們在使用深度學習方面取得了巨大的成功,”阿米尼說。 “神經網絡真的擅長於99%的時間知道正確的答案。”但是有99%的人無法挽救生命。

“研究人員無法企及的一件事是能力新球網娛樂城您可以從這些模型中了解並告訴我們何時可能出錯,”阿米尼說。 “我們真的很在意這1%的時間,以及我們如何可靠,高效地檢測到這些情況。”

神經網絡可能非常龐大,有時會充滿數十億個參數。因此,僅僅為了獲得答案可能是繁重的計算工作,更不用說置信度了。神經網絡中的不確定性分析並不新鮮。但是,以前的方法基於貝葉斯深度學習,已經多次依賴於運行或採樣神經網絡來了解其信心。該過程需要時間和內存,這在高速流量中可能並不存在。

研究人員設計了一種僅通過一次神經網絡即可估算不確定性的方法。他們設計了具有大量輸出的網絡,不僅生成了決策,而且還收集了新的概率分佈,以收集支持該決策的證據。這些分佈稱為證據分佈,直接捕獲了模型對其偏好的信心94大發網部門。這包括基礎輸入數據以及模型的最終決策中存在的任何不確定性。這種區別可以表明是否可以通過調整神經網絡本身來減少不確定性,或者輸入數據是否只是有噪聲。

信心檢查

為了進行測試,研究人員開始了具有挑戰性的計算機視覺任務。他們訓練了他們的神經網絡以分析單眼彩色圖像並估計每個像素的深度值(即距相機鏡頭的距離)。自動駕駛汽車可能會使用類似的計算來估計其與行人或另一輛汽車的接近度,這並非簡單的任務。

他們的網絡性能與以前的最新模型相當,但它也具有估算自身不確定性的能力。正如研究人員所希望的那樣,該網絡預測了預測錯誤深度的像素的不確定性很高。 “它已經針對網絡產生的錯誤進行了校準,我們認為這是判斷新的不確定性評估器質量時最重要的事情之一,”阿米尼說。

為了對校准進行壓力測試,該團隊還表明,網絡對“分佈外”數據預測了更高的不確定性-訓練期間從未遇到過的全新圖像類型。在室內家庭場景上訓練網絡後,他們為網絡提供了一批室外駕駛場景。該網絡一直警告說,它對新穎的戶外場景的反應尚不確定。該測試強調了網絡在用戶不應該完全信任其決策時進行標記的能力。在這些情況下,“如果這是醫療保健應用程序,也許我們不信任該模型所給出的診斷,而是尋求第二意見,” Amini說。

網絡甚至知道何時對照片進行篡改,從而有可能避開數據操縱攻擊。在另一項試驗中,研究人員在輸入網絡的一批圖像中提高了對抗噪聲水平。效果是微妙的-人眼幾乎察覺不到-但網絡嗅出了這些圖像,並以高度不確定性標記了其輸出。這種在虛假數據上發出警報的能力可以幫助檢測和阻止對抗性攻擊,這是深造時代中日益受到關注的問題。

DeepMind的人工智能研究人員Raia Hadsell說,深度證據回歸是“一種簡單而優雅的方法,它提高了不確定性估計的範圍,這對機器人技術和其他現實世界的控制系統很重要”。 “這是以一種新穎的方式來完成的,它避免了其他方法的一些凌亂方面-例如採樣或合奏-不僅使它優雅,而且在計算上更加高效-一種成功的組合。”

深入的證據回歸可以增強AI輔助決策的安全性。阿米尼說:“我們開始看到更多這些[神經網絡]模型從研究實驗室流到現實世界,進入正在觸及人類的情況,從而可能危及生命。” “使用該方法的任何用戶,無論是醫生還是坐在汽車乘客座位上的人,都必須意識到與該決定相關的任何風險或不確定性。”他設想該系統不僅可以快速標記不確定性,還可以使用它在諸如自動駕駛汽車駛近十字路口等危險場景中做出更為保守的決策。

他說:“任何具有可部署機器學習的領域最終都需要具有可靠的不確定性意識。”

本文已從以下材料重新發布。注意:材料的長度和內容可能已被編輯。有關更多信息,請聯繫引用的來源。