可能存在偏見、侵入性等 微軟宣布停售情緒狀態(tài)分析技術(shù)

2022-06-22 17:05:40來源:網(wǎng)易科技報道

6月22日消息,美國當(dāng)?shù)貢r間周二,微軟宣布將停止銷售基于面部圖像分析個人情緒狀態(tài)的自動化技術(shù),并限制其面部識別工具的使用。多年來,許...

6月22日消息,美國當(dāng)?shù)貢r間周二,微軟宣布將停止銷售基于面部圖像分析個人情緒狀態(tài)的自動化技術(shù),并限制其面部識別工具的使用。

多年來,許多活動人士和學(xué)者始終擔(dān)心,聲稱能夠識別個人年齡、性別和情緒狀態(tài)的面部分析軟件可能存在偏見、侵入性,或者根本不可靠,因此不應(yīng)該被允許出售。

微軟承認(rèn)的確存在上述問題,并在美國當(dāng)?shù)貢r間周二表示,計劃從其人工智能(AI)服務(wù)中移除這些用于檢測、分析和識別人臉的功能。微軟將于本周停止向新用戶出售該技術(shù),現(xiàn)有用戶也將在今年內(nèi)逐步停用。

這些改變是微軟加強(qiáng)對其AI產(chǎn)品控制努力的一部分。經(jīng)過兩年的審查,微軟的一個團(tuán)隊制定了一份“負(fù)責(zé)任AI標(biāo)準(zhǔn)”。在長達(dá)27頁的文件中,該公司列出了對負(fù)責(zé)任AI系統(tǒng)的具體要求,以確保它們不會對社會產(chǎn)生有害影響。

這些要求包括確保AI系統(tǒng)“為它們致力于解決的問題提供有效的解決方案”,以及“為已確定的人口群體(包括邊緣化群體)提供類似質(zhì)量的服務(wù)”。

這些技術(shù)將被用于幫助個人獲得就業(yè)、教育、醫(yī)療保健、金融服務(wù)或人生機(jī)遇等做出重要決定,在發(fā)布之前,它們需要接受由微軟首席負(fù)責(zé)任AI官娜塔莎·克蘭普頓(Natasha Crampton)領(lǐng)導(dǎo)的團(tuán)隊的評估。

顯然,微軟對這種情緒識別工具的擔(dān)憂加劇了,它可以將個人的面部表情歸為憤怒、輕蔑、厭惡、恐懼、快樂、中立、悲傷或驚訝等??颂m普頓說:“我們表達(dá)自我的方式存在著巨大的文化、地理和個人差異,這引發(fā)了人們對AI識別工具可靠性的擔(dān)憂,同時也會讓人產(chǎn)生更大的疑問,即面部表情是否是反映個人內(nèi)心情緒狀態(tài)的可靠指標(biāo)。”

克蘭普頓還說,年齡和性別分析工具以及其他檢測微笑等面部特征的工具,可能有助于盲人或視力不佳者解讀視覺圖像。但微軟認(rèn)為,向公眾普遍提供這些分析工具不合適??颂m普頓強(qiáng)調(diào),該系統(tǒng)的所謂性別分類器是二元的,“這與我們的價值觀并不完全一致”。

微軟還將對其人臉識別功能施加新的控制,該功能可用于身份核查或搜索特定的人。例如,網(wǎng)約車公司Uber在其應(yīng)用中使用該軟件來驗證司機(jī)的臉是否與該司機(jī)賬戶上的ID匹配。想要使用微軟面部識別工具的軟件開發(fā)商需要申請訪問權(quán)限,并解釋他們計劃如何部署該工具。

用戶還將被要求申請并解釋他們將如何使用其他可能被濫用的AI系統(tǒng),如定制神經(jīng)語音(Custom Neural Voice)。該服務(wù)可以根據(jù)某人的演講樣本生成人的聲紋,這樣作者就可以創(chuàng)建他們的合成聲音,以用他們不會說的語言閱讀有聲讀物。

由于該工具可能被濫用,比如生成某個人沒有說過的話,用戶必須經(jīng)過一系列步驟來確認(rèn)他們使用的聲音得到了授權(quán),并且錄音中包括微軟可以檢測到的水印??颂m普頓說:“我們正在采取具體行動,以踐行我們的AI原則,但這將是一段漫長的旅程。”

與其他科技公司一樣,微軟的AI產(chǎn)品在開發(fā)過程中也遭遇了許多挫折。2016年,微軟在推特上發(fā)布了名為Tay的聊天機(jī)器人,旨在從與其互動的用戶那里學(xué)習(xí)如何“理解對話”。然而,該機(jī)器人很快就開始發(fā)布具有種族歧視和攻擊性的推文,微軟最終不得不將其刪除。

2020年,研究人員發(fā)現(xiàn),微軟、蘋果、谷歌、IBM和亞馬遜開發(fā)的“語音轉(zhuǎn)文本”工具在黑人用戶中的表現(xiàn)不太好。盡管微軟的系統(tǒng)是其中最好的,但對白人的誤認(rèn)率為15%,而對黑人的誤認(rèn)率為27%。

雖然微軟收集了各種各樣的語音數(shù)據(jù)來訓(xùn)練其AI系統(tǒng),但其始終沒有徹底理解語言的多樣化。因此,該公司聘請了來自華盛頓大學(xué)的社會語言學(xué)專家來幫助解釋其需要了解的語言變體。這種方法超越了人口統(tǒng)計和地區(qū)差異,囊括了人們在正式和非正式場合的說話方式。

克蘭普頓說:“認(rèn)為種族是某個人說話方式的決定因素,實(shí)際上有很大誤導(dǎo)性。我們咨詢專家后了解到,實(shí)際上有很多因素會影響語言的多樣性。解決語音與文本之間差距的過程,為公司在新標(biāo)準(zhǔn)制定指導(dǎo)方針提供了巨大幫助。”

克蘭普頓還稱:“現(xiàn)在是為AI制定規(guī)范的關(guān)鍵時期。”她指的是歐洲擬議中的法規(guī),該法規(guī)對AI的使用設(shè)定了規(guī)則和限制??颂m普頓說:“我們希望能夠利用我們的標(biāo)準(zhǔn),為科技公司普遍應(yīng)該遵守的標(biāo)準(zhǔn)的討論和制定做出貢獻(xiàn)。”

關(guān)于AI的潛在危害,科技界已經(jīng)進(jìn)行了多年的激烈辯論。爭論的起因是,有些AI錯誤和失誤對人們的生活產(chǎn)生了實(shí)際影響,比如決定人們是否能獲得福利的算法。荷蘭稅務(wù)機(jī)構(gòu)錯誤地剝奪了貧困家庭的兒童看護(hù)福利,因為一個有缺陷的算法排除了具有雙重國籍的人。

用于識別和分析人臉的自動化軟件一直備受爭議。去年,F(xiàn)acebook關(guān)閉了其已有十年歷史的照片識別系統(tǒng)。該公司負(fù)責(zé)AI業(yè)務(wù)的副總裁提到,“很多人對面部識別技術(shù)在社會中的地位感到擔(dān)憂”。

幾名黑人男子因面部識別匹配有誤而被錯誤逮捕。2020年,在明尼阿波利斯市警察槍殺喬治·弗洛伊德(George Floyd)后,引發(fā)了“黑人的命也是命”(Black Lives Matter)的抗議活動。與此同時,亞馬遜和微軟宣布暫停美國警方使用其面部識別產(chǎn)品,稱需要對其使用制定更明確的法律。

自那以后,美國華盛頓和馬薩諸塞州通過了法規(guī),其中要求對警察使用面部識別工具進(jìn)行司法監(jiān)督??颂m普頓說,微軟曾考慮是否開始在有法律依據(jù)的州向警方提供其軟件,但目前決定不這樣做。她說,隨著法律環(huán)境的變化,這種情況可能會改變。

普林斯頓大學(xué)計算機(jī)科學(xué)教授、著名AI專家阿溫德·納拉亞南(Arvind Narayanan)表示,公司可能正在放棄分析面部的技術(shù),因為他們可能意識到,至少目前,這些系統(tǒng)沒有太大的商業(yè)價值。微軟沒有透露其面部分析功能有多少用戶。納拉亞南預(yù)測,公司不太可能放棄其他侵入性技術(shù),比如定向廣告,它會讓人們選擇最好的廣告來展示給特定用戶,因為它們依然是“搖錢樹”。 (小小)

關(guān)鍵詞: 可能存在偏見 微軟宣布停售情緒狀態(tài)分析技術(shù) 限制面部識別工具使用 AI產(chǎn)品控制

責(zé)任編輯:hnmd004