人工智能正在推動(dòng)超級(jí)監(jiān)控
Hauptmann表示使用車牌跟蹤功能跟蹤車輛是"一個(gè)已經(jīng)得到解決的實(shí)際問(wèn)題",在受控設(shè)置中的面部識(shí)別也是一樣的。(使用低質(zhì)量的閉路電視監(jiān)控視頻進(jìn)行面部識(shí)別就完全是另一回事了。)對(duì)汽車和衣物等物品的識(shí)別也非常可靠,在多臺(tái)攝像機(jī)之間自動(dòng)跟蹤一個(gè)人也是可以實(shí)現(xiàn),但前提是條件是正確的。Hauptmann表示:"在一個(gè)非擁擠的場(chǎng)景中跟蹤一個(gè)人的效果可能非常好,但是在擁擠的場(chǎng)景中,還是算了吧。"他表示,如果這個(gè)人穿著的是不起眼的服裝,要做到這一點(diǎn)就特別難。
一些人工智能監(jiān)控任務(wù)已經(jīng)解決了;另外一些還需要繼續(xù)努力
但是,即使是這些非常基本的工具也可以產(chǎn)生非常強(qiáng)大的效果。比如在莫斯科,一個(gè)類似的基礎(chǔ)設(shè)施正在組裝,將面部識(shí)別軟件插入到一個(gè)集中式系統(tǒng)中,該系統(tǒng)擁有超過(guò)10萬(wàn)臺(tái)高分辨率攝像頭,覆蓋了這個(gè)城市90%以上的公寓入口。
在這種情況下,可能會(huì)有一個(gè)良性循環(huán),隨著軟件越來(lái)越好,系統(tǒng)會(huì)收集更多的數(shù)據(jù),從而幫助軟件變得更好。Hauptmann表示:"我認(rèn)為這一切都會(huì)有所改善。"他表示:"這種情況正在出現(xiàn)。"
如果這些系統(tǒng)已經(jīng)在工作了,那么我們就已經(jīng)有了像算法偏差這樣的問(wèn)題。這可不是一個(gè)假設(shè)的挑戰(zhàn)。研究表明,機(jī)器學(xué)習(xí)系統(tǒng)吸收了為它們編寫(xiě)程序的社會(huì)的種族歧視和性別歧視--從總是會(huì)將女性放置在廚房的圖像識(shí)別軟件到總是說(shuō)黑人更容易再次犯罪的刑事司法系統(tǒng),比比皆是。如果我們使用舊的視頻剪輯來(lái)訓(xùn)練人工智能監(jiān)控系統(tǒng),例如采集自閉路電視視頻監(jiān)控或者警察佩戴的攝像頭的視頻,那么存在于社會(huì)中的偏見(jiàn)就很可能會(huì)延續(xù)下去。
Meredith Whittaker是紐約大學(xué)(NYU)關(guān)注道德的"AI Now"研究所的聯(lián)席主任,她表示,這個(gè)過(guò)程已經(jīng)在執(zhí)法過(guò)程出現(xiàn)了,并將擴(kuò)展到私有部門(mén)。Whittaker舉出了Axon(以前被稱為T(mén)aser)的例子,該公司收購(gòu)了幾家人工智能公司,以幫助其將視頻分析功能集成到產(chǎn)品中。Whittaker表示:"他們得到的數(shù)據(jù)來(lái)自警察佩戴的攝像頭,這些數(shù)據(jù)告訴了我們很多關(guān)于單個(gè)警務(wù)人員會(huì)關(guān)注誰(shuí)的情況,但是并沒(méi)有給我們一個(gè)完整的描述。 "她表示:"這是一個(gè)真正的危險(xiǎn),我們正在將帶有偏見(jiàn)的犯罪和罪犯的圖片普遍化。"
ACLU高級(jí)政策分析師Jay Stanley表示,即使我們能夠解決這些自動(dòng)化系統(tǒng)中的偏見(jiàn),也不能使它們變得良性。他說(shuō),將閉路電視視頻監(jiān)控?cái)z像頭從被動(dòng)的觀察者轉(zhuǎn)變?yōu)橹鲃?dòng)的觀察者可能會(huì)對(duì)公民社會(huì)產(chǎn)生巨大的不利影響。
"我們希望人們不僅僅擁有自由,還要感受到自由。"
Stanley表示:"我們希望人們不僅僅擁有自由,還要感受到自由。這意味著他們不必?fù)?dān)心未知的、看不見(jiàn)的觀眾會(huì)如何解釋或曲解他們的每一個(gè)動(dòng)作和話語(yǔ)。" Stanley表示:"要擔(dān)心的是人們會(huì)不斷地自我監(jiān)控,擔(dān)心他們所做的一切都會(huì)被曲解,并給他們的生活帶來(lái)負(fù)面的后果。"
Stanley還表示,不準(zhǔn)確的人工智能監(jiān)控發(fā)出的錯(cuò)誤警報(bào)也可能導(dǎo)致執(zhí)法部門(mén)和公眾之間更加危險(xiǎn)的對(duì)抗。比如說(shuō),想想看Daniel Shaver的槍擊事件吧,在看到Shaver拿著槍后,一名警察被叫到德克薩斯州的一個(gè)旅館房間里。警長(zhǎng)Charles Langley在Shaver按照他的要求趴在地面上時(shí),開(kāi)槍射殺了他。而Shaver被發(fā)現(xiàn)持有的槍是一支粒丸槍,這是他用來(lái)從事他的害蟲(chóng)控制工作的。
如果一個(gè)人可以犯這樣的錯(cuò)誤,電腦還有什么機(jī)會(huì)?而且,即使是監(jiān)控系統(tǒng)變得部分自動(dòng)化,這樣的錯(cuò)誤會(huì)變得更加常見(jiàn)還是更少?Stanley表示:"如果技術(shù)出現(xiàn)在那里,就會(huì)有一些警察不得不照看那里。"
當(dāng)人工智能監(jiān)控變得普及的時(shí)候,誰(shuí)來(lái)管理這些算法呢?
Whittaker表示,我們?cè)谶@個(gè)領(lǐng)域看到的只是人工智能大趨勢(shì)的一部分,在這個(gè)趨勢(shì)中,我們使用這些相對(duì)粗糙的工具,嘗試著根據(jù)人們的形象對(duì)他們進(jìn)行分類。她列舉了去年發(fā)表的一項(xiàng)有爭(zhēng)議的研究作為一個(gè)類似的例子,該研究聲稱能夠通過(guò)面部識(shí)別來(lái)確定性取向。人工智能給出的結(jié)果的準(zhǔn)確性值得懷疑,但批評(píng)人士指出,它是否有效并不重要;重要的是人們是否相信它有用,并且是否會(huì)仍然使用數(shù)據(jù)做判斷。
Whittaker表示:"令我感到不安的是,許多這樣的系統(tǒng)正在被注入我們的核心基礎(chǔ)設(shè)施之中,而且沒(méi)有讓我們可以提出關(guān)于有效性問(wèn)題的民主程序,也沒(méi)有通知大家將要部署這些系統(tǒng)。"Whittaker表示:"這不過(guò)是正在出現(xiàn)的又一個(gè)新的例子:算法系統(tǒng)根據(jù)模式識(shí)別提供分類并確定個(gè)體類型,可是這些識(shí)別模式是從數(shù)據(jù)中提取的,而這些數(shù)據(jù)里包含了文化和歷史的偏見(jiàn)。"
當(dāng)我們向IC Realtime公司詢問(wèn)人工智能監(jiān)控可能如何被濫用的問(wèn)題時(shí),他們給出了一個(gè)在科技行業(yè)常見(jiàn)的答案:這些技術(shù)是價(jià)值中立的,只是如何使用它們以及由誰(shuí)來(lái)使用它們才決定了它們是好是壞。Sailor表示:"任何新技術(shù)都面臨著有可能落入不法之徒的手中的危險(xiǎn)。"Sailor表示:"任何技術(shù)都是如此……而我認(rèn)為在這個(gè)問(wèn)題上,利遠(yuǎn)大于弊。"
責(zé)任編輯:任我行
-
開(kāi)放系統(tǒng)的直連附加存儲(chǔ)——DAS
-
還在為云存儲(chǔ)掏冤枉錢?那不要錯(cuò)過(guò)優(yōu)化工作負(fù)載、節(jié)省開(kāi)支的這10個(gè)方法
-
企業(yè)離不開(kāi)存儲(chǔ)軟件的五大理由