久久久精品国产sm最大网站_亚洲熟妇无码AV不卡在线播放_欧美日韩免费一区中文_国产日产久久高清欧美一区

首頁(yè) / 資訊中心 / 交通百科/如何看待我們和人工智能的關(guān)系

如何看待我們和人工智能的關(guān)系

發(fā)布時(shí)間:2018-07-09 分類(lèi):交通百科

談到人工智能的未來(lái),有兩種觀點(diǎn):

烏托邦觀點(diǎn):人工智能將迎來(lái)一個(gè)新的啟蒙時(shí)代,在這個(gè)新時(shí)代里,人類(lèi)不再工作,而是追求更崇高的目標(biāo)。未未系統(tǒng)將被規(guī)劃來(lái)治療疾病,公平地解決爭(zhēng)端,并且只以有益于我們的方式來(lái)增加我們?nèi)祟?lèi)的存在。

世界末日的觀點(diǎn)是:人工智能將竊取我們的工作,在進(jìn)化上超越人類(lèi),成為戰(zhàn)爭(zhēng)機(jī)器,并將遙遠(yuǎn)的未來(lái)置于當(dāng)前的需求之上。我們難以控制的努力只會(huì)暴露出我們自身的缺點(diǎn)和將道德應(yīng)用于我們無(wú)法控制的技術(shù)的能力的低下。

人工智能

和大多數(shù)事情一樣,真相可能介于兩者之間

不管你落在這個(gè)光譜的什么位置,重要的是要考慮隨著技術(shù)的發(fā)展,人類(lèi)應(yīng)該怎樣影響人工智能。一種觀點(diǎn)認(rèn)為,人類(lèi)將在很大程度上形成人工智能的良心或道德結(jié)構(gòu)。但我們要怎么做呢?我們?cè)鯓硬拍馨褌惱磉\(yùn)用到人工智能中來(lái)幫助防止最壞的事情發(fā)生呢?

人與人工智能的關(guān)系

深度學(xué)習(xí)系統(tǒng)的力量在于它們決定自己的參數(shù)或特征。只要給他們一個(gè)任務(wù)或目標(biāo),指向他們的數(shù)據(jù),他們處理其余的。例如,SAS可視化數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)中的自動(dòng)匯總功能可以為自己找出最佳結(jié)果。但人仍然是整個(gè)過(guò)程中最關(guān)鍵的部分。

雖然未來(lái)的人工智能系統(tǒng)也可能能夠收集他們自己的數(shù)據(jù),但大多數(shù)當(dāng)前的系統(tǒng)依靠人來(lái)提供輸入?yún)?shù),包括數(shù)據(jù)和最佳結(jié)果,這是通過(guò)學(xué)習(xí)定義類(lèi)強(qiáng)化學(xué)習(xí)確定的。當(dāng)您要求算法找出實(shí)現(xiàn)該結(jié)果的最佳方法時(shí),您不知道機(jī)器將如何解決該問(wèn)題。你只是知道它會(huì)比你更有效率。

鑒于目前人類(lèi)和人工智能之間的這種關(guān)系,我們可以采取一些步驟,從道德上更好地控制人工智能項(xiàng)目的結(jié)果,讓我們從這三個(gè)開(kāi)始。

人工智能倫理的第一步:提供最好的數(shù)據(jù)

人工智能算法是通過(guò)一組用于通知或構(gòu)建算法的數(shù)據(jù)來(lái)訓(xùn)練的。如果您的算法是將鯨魚(yú)識(shí)別為馬,顯然您需要提供更多關(guān)于鯨魚(yú)(和馬)的數(shù)據(jù)。同樣,如果您的算法是將動(dòng)物識(shí)別為人類(lèi),則需要提供更多關(guān)于更多不同人類(lèi)集合的數(shù)據(jù)。如果你的算法做出了不準(zhǔn)確或不道德的決定,這可能意味著沒(méi)有足夠的數(shù)據(jù)來(lái)訓(xùn)練模型,或者學(xué)習(xí)強(qiáng)化不適合預(yù)期的結(jié)果。

當(dāng)然,也有可能是人類(lèi)在不知不覺(jué)中通過(guò)有偏見(jiàn)的數(shù)據(jù)選擇或錯(cuò)誤分配的強(qiáng)化值向系統(tǒng)注入了不道德的價(jià)值??傊覀儽仨毚_保我們提供的數(shù)據(jù)和輸入為算法繪制了完整和正確的圖片。

人工智能倫理的第二步:提供適當(dāng)?shù)谋O(jiān)督

為所有人工智能項(xiàng)目建立一個(gè)有明確所有者和利益相關(guān)者的治理系統(tǒng)。定義哪些決定你將自動(dòng)與人工智能,哪些將需要人的投入。對(duì)過(guò)程中的所有部分分配責(zé)任,對(duì)人工智能錯(cuò)誤負(fù)責(zé),并為人工智能系統(tǒng)的開(kāi)發(fā)設(shè)置明確的邊界。這包括定期監(jiān)測(cè)和審計(jì)算法,以確保偏見(jiàn)不會(huì)悄悄進(jìn)入,而且模型仍按預(yù)期運(yùn)作。

無(wú)論是數(shù)據(jù)科學(xué)家還是一位敬業(yè)的倫理學(xué)家,都應(yīng)該有人負(fù)責(zé)人工智能的政策和協(xié)議,包括遵守規(guī)則。也許有一天,所有的組織都會(huì)建立一個(gè)首席人工智能倫理學(xué)家的角色。但是,無(wú)論標(biāo)題如何,都必須有人負(fù)責(zé)確定輸出和性能是否在給定的道德框架內(nèi)。

就像我們一直需要治理、可跟蹤性、監(jiān)視和標(biāo)準(zhǔn)分析的改進(jìn)一樣,我們也對(duì)人工智能也是如此。然而,人工智能的影響要大得多,因?yàn)闄C(jī)器可以開(kāi)始問(wèn)題,自己定義答案。

人工智能倫理的第3步:考慮新技術(shù)的影響

為了讓個(gè)人執(zhí)行政策,這項(xiàng)技術(shù)必須允許人類(lèi)做出調(diào)整。人類(lèi)必須能夠選擇和調(diào)整訓(xùn)練數(shù)據(jù),控制數(shù)據(jù)源,并選擇數(shù)據(jù)轉(zhuǎn)換的方式。同樣,人工智能技術(shù)應(yīng)該支持健壯的治理,包括數(shù)據(jù)訪問(wèn)和在算法不正確或在道德定義的邊界之外操作時(shí)對(duì)算法進(jìn)行指導(dǎo)的能力。

沒(méi)有辦法用人工智能來(lái)預(yù)測(cè)所有可能的場(chǎng)景,但重要的是要考慮到可能性,并為正面和負(fù)面的強(qiáng)化設(shè)置控制。例如,引入新的、甚至相互競(jìng)爭(zhēng)的目標(biāo)可以獎(jiǎng)勵(lì)符合道德的決定,并將不道德的決定認(rèn)定為錯(cuò)誤或被誤導(dǎo)。一個(gè)人工智能系統(tǒng)被設(shè)計(jì)成對(duì)質(zhì)量和效率給予同等的重視,將產(chǎn)生不同的結(jié)果,而不是一個(gè)完全集中在效率上的系統(tǒng)。此外,設(shè)計(jì)一個(gè)具有若干獨(dú)立和相互沖突的目標(biāo)的人工智能系統(tǒng)可能會(huì)增加該系統(tǒng)的問(wèn)責(zé)制。

不要回避人工智能倫理

人工智能可以提高汽車(chē)安全和診斷癌癥-但它也可以選擇巡航導(dǎo)彈的目標(biāo)。所有人工智能能力都有相當(dāng)大的倫理影響,需要從多個(gè)角度加以討論。我們?nèi)绾未_保人工智能的道德體系不被濫用?

上面的三個(gè)步驟只是一個(gè)開(kāi)始。他們將幫助你開(kāi)始關(guān)于為你的組織制定道德人工智能指導(dǎo)方針的艱難對(duì)話。你可能不愿劃清這些道德界限,但我們不能回避這場(chǎng)對(duì)話。所以別等了。現(xiàn)在就開(kāi)始討論,這樣您就可以確定邊界,如何執(zhí)行它們,甚至在必要時(shí)如何更改它們。