亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

人工智能下一個前沿:可解釋性

發布時間:2020-08-10 21:17:02 來源:ITPUB博客 閱讀:107 作者:AIBigbull2050 欄目:互聯網科技
2019-07-01 22:56:51

不確定性是AI的一個特征,而不是一個bug。

人工智能下一個前沿:可解釋性

十億美元的問題

50多年來,計算機已成為我們生活的一部分。他們開始時只是大公司使用的這些巨大的裝置,他們最新的迭代是我們口袋里的小巧智能手機。

在我們與計算機交互的整個歷史中,我們主要使用它們作為擴展自身能力的手段。它們使我們能夠更有效地編寫,更輕松地編輯照片和視頻,以便即時訪問信息。

在這樣做的過程中,他們遵循了古老的機器范式: 以可靠的方式運作的結構,其存在的唯一目的是使我們的生活更容易完成一項特定任務。從戰車到發動機和汽車,再到電腦,創造所有這些東西的唯一目的就是幫助我們解決具體問題。

盡管我們人類喜歡抱怨我們的機器不能正確地為我們提供服務的各種方式,從史前戰車 分解,到展現可怕的“ 死亡”藍屏的現代計算機,事實是大多數時候這些機器工作得非常好。

考慮一下您的汽車發生故障的頻率。如果你特別不走運,那可能是每三個月一次。或者考慮一下現在重啟計算機的頻率。每周一次?可能每隔一周? 這是他們的功能周期中非常小的百分比。

更重要的是,在工作的機器和不工作的機器之間存在明確的分界線。你的車要么向前移動要么向前移動,如果它是一個或另一個,你就會很清楚。您的計算機是否正在運行 - 再次,那里沒有模糊的邊界。

這使我們與機器的交互非常簡單。我們需要的是某種實用性。我們的汽車應該讓我們從A點到B點,他們能夠做到或不做。我們的計算機應該可以幫助我們編寫,編輯照片或上網,反過來也可以完成任務。作為用戶,我們可以立即判斷它是否是其中之一。

更重要的是,我們從不會三思而后行,是否存在某種中間狀態,一種不確定狀態,即事物既有效又無效。當然,我們的汽車發動機可能存在一些我們無視的問題,但我們的汽車會很樂意繼續下去,直到這個問題變得嚴重到足以讓它崩潰。或者可能有一些未知的病毒在我們的計算機操作系統中惡化,但在事情開始嚴重失靈之前我們不會意識到這一點。

我們與機器的交互基于這種基本的二進制操作模式。它們要么"開啟"要么"關閉",要么完全不工作,要么100%可靠。

但是在過去的幾年里發生了一些變化。我們的機器能夠以不同的模式運行,這是一種新的狀態,在這種狀態下,事物不會"正常"工作。他們現在已經進入了一個不確定的領域,這是迄今為止尚未開發的計算機領域,而且到目前為止,它還是人類的一項獨家特權。

不確定性

什么是不確定性?這是一個與世界特定地區有關的概念。當你想到明天的天氣時,會有一定的不確定性。或者股票市場因其帶來的不確定性而臭名昭著。即使是所謂的簡單任務也存在相關的不確定性: 這條信息真實存在嗎?這真的是我想買的咖啡機嗎?我真的生病了,還是只是過敏?

這些問題直到最近才會出現在我們自己或另一個人身上。在大多數情況下,我們不會給出簡單的是或否答案。即使我們這樣做了,我們也會(或應該)要求一些理由。果然,有時我們可能會解決某種更高級別的權威:例如醫生,律師或牧師。但即使他們也不能免于為他們對感興趣的主題提出自己的意見。

為什么我們拒絕接受不合理的意見?這是因為我們知道每種觀點中都存在固有的不確定性概念。這也是因為這些問題的答案將為進一步決策提供一個墊腳石。我們希望有堅實的基礎來建立我們的生活,這就是為什么我們需要對別人告訴我們的東西有信心。

信任

信任需要付出巨大的努力,但很容易丟失。

人類擺脫向他人證明自己觀點的必要性的唯一途徑就是培養出令人難以置信的信任,以至于他們的觀點不受審查。這將使他們能夠避免為他們的所有答案提供理由,因為他們已經證明了過去正確行事的記錄。

信任需要付出巨大的努力,但很容易丟失。這是一個眾所周知的人性事實,尤其是因為失去了對被證明將我們誤入歧途的人的信任,這是一種非常有用的防御機制,可以對付那些試圖利用其權威地位的人。

可解釋性

它們是錯誤的,因為任何實體在不確定性下做出選擇的任務,這些選擇都有影響人類生活的能力,然后這個實體成為我們社會生態系統的一部分,并因此獲得改變我們世界的能力。 - 好的或壞的

這如何與計算機聯系起來?如上所述,他們現在正在走向不確定的領域。他們被要求表達意見或做出涉及不確定性的決定。我們要求亞馬遜以合適的價格為我們找到合適的產品。我們要求Google向我們提供準確的信息,并向Facebook提供最新消息。我們的算法可以監控我們的健康狀況,決定我們重新犯罪的可能性,或查看一堆簡歷以找到合適的候選人。

我們知道沒有確定的方法來滿足這些要求,我們肯定不會要求人類做出100%正確的決定。然而,如果我們沒有辦法仔細檢查他們的慷慨和可靠性,我們絕不會相信人類專家為我們做出所有這些決定。

事實上,如果一個人負責所有那些只會按照自己的意愿行事并且從未被要求解釋他們的行為,我們會認為這對我們的民主是絕對的冒犯。如果提供任何類型的解釋超出其心智能力,那將更加荒謬。我們肯定永遠不會允許一個人這樣做,對嗎?我們會嗎?

為什么我們允許機器?聽起來很有趣,這是因為直到最近這個想法還沒有超出我們的想法。還記得我們是如何習慣于思考我們的機器,因為這些有限的生命總是在兩個狀態之間運行,"開"和"關"?

還記得我們從未預料到會出現某種不確定性,一個薛定諤的盒子,我們的機器會在同一時間打開和關閉,或者更好的是,它們會進入我們人類認為的不確定性領域。最后的機器智能前沿?

當我們決定使用算法為我們做出這些重要決策的那一刻,我們決定用它們來模擬具有固有元素不確定性的世界部分。

在我們遇到這種道德困境之前,我們認為我們需要創造一臺具有人類精神能力的機器,一種真正的通用AI。這就是為什么我們高興地讓我們的算法承擔人類專家的角色,因為我們從未想過會產生任何問題。

即使在今天,人們也在談論機器這些冷酷的計算實體,這些實體在做出決策時是公正的,因此比人類更好。他們永遠不會不公平或有偏見,因為他們沒有感情或經歷偏見。遺憾的是,這種談話也源于當今數據科學最前沿的人們。

事實是他們錯了。

更不用說隱私問題,平衡數據集,公平性或任何其他標語,這些標語目前正在吸引機器學習社區。它們是錯誤的,因為任何實體在不確定性下做出選擇的任務,這些選擇都有影響人類生活的能力,然后這個實體成為我們社會生態系統的一部分,并因此獲得改變我們世界的能力。 - 好的或壞的。

這就是我們發現自己處于谷歌之后的狀態,其他人在我們的社會中獲得了如此突出的地位。這個想法并沒有讓我們想到這些算法可能會在引擎蓋下發生故障,故障是他們設計的一部分 - 一個功能,而不是一個bug。在問題開始出現之前我們沒有注意到。

任何涉及不確定性的決定,世界上任何不確定的部分,這些決策都不能模仿我們從機器中習慣的可靠性。天氣可以準確預測90%。也許99%。也許99.9999999%。沒關系。總是會出現錯誤,而這個錯誤導致了向不確定性轉變的過渡。

你什么時候對嗎?你什么時候錯的?我什么時候可以信任你?這些是每個理智的人在向他們提出其中一個問題時應該詢問他們的機器的問題。如果接收端有人,我們會問這些問題。

但我們沒有。我們被我們與機器交互的悠久歷史所迷惑,這些機器明確無誤地"開啟"或"關閉", 我們已經放松了警惕。我們被允許自己被機械"Oracles"統治,這些機器旨在如實地回答我們所有的問題。

驗收

如果你的醫生說他們在醫學院的考試中得到95%,你會感到滿意嗎?不幸的是,他們不能為他們的專業意見提供額外的理由嗎?你愿意接受他們的話嗎?

我們怎樣才能擺脫這種混亂局面?我們怎樣才能讓公眾知道他們現在處理的機器不可靠,永遠不可靠?我們如何處理這種認識的后果?我們如何回歸并幫助智能機器在我們的世界中恢復其應有的位置,盡管是以更負責任的方式?

我們只有一種方法來處理這種不確定性。作為人類,我們不斷地為我們的決定和信仰辯護,而我們論證的力量(或缺乏)決定了別人對我們的看法的認真程度。我們應該將算法保持在相同的高標準。

關于我們目前用于創建智能機器的方式。我們定義一個問題。這個問題可以簡單明了:你在這張照片中看到的是貓還是狗?然后我們收集了很多貓狗的照片,我們反復向我們的算法展示它們,讓它回答我們的問題,并在它正確回答問題時讓它知道。然后我們測試它在 以前從未見過的一系列圖片上的新發現的知識。我們測量它得到的正確答案的百分比,并愉快地報告我們的算法準確性。然后我們將這個算法部署在一個真實的世界系統中,試圖回答不同人類提出的同一個問題。

如果我們只是希望我們的智能手機能夠在我們的照片上自動標記我們的狗,這可能是相當無辜的,當它為我們的鄰居的貓弄錯它時它甚至可能是可愛的, 但如果我們談論更嚴重的應用程序,事情會變得丑陋。

假設你參加考試后,你會走進醫生的辦公室,醫生告訴你,你患有癌癥。你可能會說, "你是怎么得出這個結論的?"

如果你的醫生說他們在醫學院的考試中得到95%,你會感到滿意嗎?不幸的是,他們不能為他們的專業意見提供額外的理由嗎?你愿意接受他們的話嗎?

難道你不高興醫生說:你的檢查顯示了這個和那個,這就是為什么我認為你得了癌癥?即使你不完全明白他們在談論什么,你難道不相信那個人嗎?

作為科學家和實踐者,這是我們應該遵守的標準。

繼續

我們可以不再認為自己超越了與功能社會每個成員相關的道德標準

它也不在我們手中。無論我們是否愿意,更廣泛的公眾將很快開始堅持我們的算法到相同的標準。在某些地區,他們已經開始了。

我們可以繼續否認這一事實,我們可以堅持認為機器學習算法不需要解釋自己,它們在某種程度上超出了這一點(就像牧師曾經一樣!),我們應該只關注它們使它們表現得更好。

我們可以,但是當公眾超越我們時,我們不應該抱怨。當規則和規定來到我們的路上。我們可以隨心所欲地抗議他們,我們可以談論無法看到進步方式的倒退監管機構。因為我們是科學家,所以我們可以認為自己在精神上更優越。我們可以瞧不起我們應該服務的社會。

或者我們可以承認我們尚未達到目標的事實。我們可以承認公眾的恐懼。我們可以專注于我們的算法確實可以改善人類生活的情況,并遠離那些弊大于利的人。我們可以不再認為自己超越了與功能社會每個成員相關的道德標準。

這就是當你離開學術界并進入現實世界時會發生的事情。



https://www.toutiao.com/i6708708718810235403/




向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

夏河县| 文昌市| 苍溪县| 嵊州市| 富锦市| 肃南| 水富县| 阿拉善右旗| 禄劝| 泸水县| 建宁县| 历史| 天门市| 五莲县| 台东市| 谷城县| 顺平县| 万安县| 织金县| 新巴尔虎左旗| 美姑县| 中卫市| 大丰市| 潼南县| 北海市| 祥云县| 修武县| 芦山县| 梁平县| 通榆县| 方正县| 太保市| 天门市| 安图县| 巴南区| 永嘉县| 城固县| 无为县| 巴中市| 抚顺县| 卢氏县|