英國(guó)警方擔(dān)心,在他們的行動(dòng)中使用人工智能可能會(huì)導(dǎo)致越來越多的偏見和對(duì)自動(dòng)化的過度依賴。
英國(guó)政府咨詢機(jī)構(gòu)數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)委托進(jìn)行的一項(xiàng)研究警告稱,機(jī)器人維修,警方認(rèn)為人工智能可能“放大”偏見。
英國(guó)皇家聯(lián)合軍種研究所(RUSI)就這項(xiàng)研究采訪了50名專家,其中包括高級(jí)警官。
種族定性仍然是一個(gè)大問題。被攔下的黑人青年比白人青年多。RUSI采訪的專家們擔(dān)心,如果他們根據(jù)現(xiàn)有的警察數(shù)據(jù)進(jìn)行訓(xùn)練,這些人類偏見可能會(huì)進(jìn)入算法。
報(bào)告還指出,來自弱勢(shì)群體的人傾向于使用更多的公共交通工具。由于數(shù)據(jù)可能是從使用公共交通工具中收集的,KUKA機(jī)器人示教器維修,這增加了這些人被標(biāo)記的可能性。
人臉識(shí)別算法的準(zhǔn)確性經(jīng)常受到質(zhì)疑。今年早些時(shí)候,算法正義聯(lián)盟(Algorithmic Justice League)測(cè)試了所有主要技術(shù),發(fā)現(xiàn)算法尤其難以對(duì)付膚色較深的女性。
美國(guó)公民自由聯(lián)盟(American Civil Liberties Union)也發(fā)布了一份類似的報(bào)告,重點(diǎn)關(guān)注亞馬遜的reko人臉識(shí)別系統(tǒng)。當(dāng)與國(guó)會(huì)議員進(jìn)行測(cè)試時(shí),它往往錯(cuò)誤地標(biāo)記了膚色較深的人。
這兩項(xiàng)研究結(jié)果都表明,如果今天公開推廣這種技術(shù),可能會(huì)造成毀滅性的社會(huì)影響。很高興聽到英國(guó)當(dāng)局至少意識(shí)到了潛在的復(fù)雜性。
RUSI報(bào)告說,參與這項(xiàng)研究的專家希望看到為可接受的技術(shù)使用制定更清晰的指導(dǎo)方針。
他們希望這將為警察部隊(duì)提供信心,以一種安全、負(fù)責(zé)任的方式采用這種可能有益的新技術(shù)。
助理警長(zhǎng)喬納森·德雷克告訴BBC新聞:“多年來,警察部隊(duì)一直在尋求創(chuàng)新,利用技術(shù)來保護(hù)公眾,庫(kù)卡機(jī)器人何服電機(jī)維修,防止傷害,我們將繼續(xù)探索實(shí)現(xiàn)這些目標(biāo)的新方法。”




