作者: 兆光科技 發(fā)布時間: 2024/08/09 點擊: 10126次
随著(zhe)人工智能(néng)的不斷發(fā)展,越來越多的問題也凸顯了出來。這(zhè)篇文章來自編譯,作者在文中介紹了知名 AI 專家 Meredith Broussard 關于編碼偏見的研究,并探讨了在技術系統中可能(néng)存在的真正社會危害。文中還(hái)讨論了醫療算法中的種(zhǒng)族偏見和一些人工智能(néng)技術的使用問題,并提出了算法審計的潛力和應用,以及人工智能(néng)在醫學(xué)領域的表現問題和可能(néng)帶來的風險。
梅雷迪思·布魯薩德(Meredith Broussard)。圖片來源:Maria Spann
梅雷迪思·布魯薩德(Meredith Broussard)是一位數據記者和學(xué)者,她是紐約大學(xué)(New York University)亞瑟·L.卡特新聞學(xué)院的副教授,其研究重點是人工智能(néng)存在的偏見。她一直緻力于提高人們對(duì)未加約束的人工智能(néng)的警醒意識。
在 2018 年出版的《人工無智能(néng)》(Artificial Unintelligence)這(zhè)本書中,她創造了“技術沙文主義”(technochauvinism)這(zhè)個術語,用來描述相信技術解決方案可以解決人類問題的盲目信仰。
她還(hái)參與錄制了 2020 年在流媒體播放平台 Netflix 播放的紀錄片《編碼偏見》(Coded Bias)。這(zhè)部紀錄片主要講述了人工智能(néng)和機器學(xué)習系統呈現出的種(zhǒng)族偏見和性别偏見的問題。
前不久,布魯薩德又出版了一本新書——《絕不是小問題:科技中的種(zhǒng)族、性别和能(néng)力偏見》(More Than a Glitch: Confronting Race, Gender and Ability Bias in Tech)。
事(shì)實上,技術系統中可能(néng)存在偏見的新聞并不是什麼(me)新鮮事(shì)。爲什麼(me)您會出版這(zhè)本書呢?
這(zhè)本書旨在幫助人們了解可能(néng)潛藏在技術中的真正社會危害。大量優質新聞報道(dào)和學(xué)術研究都(dōu)提到過(guò)算法偏見,以及其已經(jīng)對(duì)人們造成(chéng)的危害。我希望在這(zhè)些報道(dào)和思考的基礎上再往前走一步。除此之外,我還(hái)希望人們知道(dào),現在已經(jīng)有了衡量算法系統偏見的方法。它們并非完全無法知曉的黑匣子。相反,我們已經(jīng)有一套可以用于實施的算法審計方法。
爲什麼(me)這(zhè)個問題“絕不是小問題”?當算法使用具有偏見的數據集進(jìn)行訓練時,可能(néng)會導緻其具有種(zhǒng)族主義和性别歧視的傾向(xiàng)。因此,是不是唯一的解決辦法就是使用更具代表性的數據呢?
“小問題”表示的是一種(zhǒng)可以輕松解決的暫時問題。我認爲,種(zhǒng)族主義、性别歧視和能(néng)力主義都(dōu)是系統性問題,由于這(zhè)些問題都(dōu)深深地根植于我們的社會中,屬于“根深蒂固”的問題,所以也會存在于技術系統中。對(duì)此,如果隻是簡單地增加數據或者進(jìn)行表面(miàn)上的修補,肯定是不夠的。
以批準抵押貸款的算法爲例,研究發(fā)現,這(zhè)些算法拒絕有色人種(zhǒng)借款人的可能(néng)性比白人借款人高出 40% 至 80%。究其原因,是因爲這(zhè)些算法是根據過(guò)去抵押貸款發(fā)放數據而進(jìn)行訓練的。在美國(guó),“貸款歧視”問題由來已久。因此,我們不可能(néng)從數據端來解決算法問題,因爲根本不存在所謂更好(hǎo)的數據。
您認爲,我們應該在允許進(jìn)入到我們生活和社會的技術方面(miàn)更加謹慎。那麼(me),您是否認爲我們應該直接拒絕任何存在編碼偏見的人工智能(néng)技術呢?
如今,幾乎所有技術都(dōu)在廣泛采用人工智能(néng)技術。但我們完全可以讓技術爲每個人提供良好(hǎo)的服務,并且我們可以在是否采用這(zhè)些技術方面(miàn)做出更加深思熟慮的選擇。
我對(duì)歐盟拟議的《人工智能(néng)法》(AI Act)草案中所提出的區分高低風險人工智能(néng)的概念特别感興趣。低風險的面(miàn)部識别應用可以是通過(guò)人工智能(néng)技術來解鎖你的手機,其中的風險不高,如果這(zhè)個方法不管用,你還(hái)可以通過(guò)輸入密碼來解鎖手機。然而,在執法過(guò)程中使用面(miàn)部識别技術則是一種(zhǒng)高風險的用途,需要對(duì)其進(jìn)行監管,或者更理想的是,完全不采用這(zhè)項技術,畢竟它也會導緻錯誤逮捕,并且效果不佳。因此,我們并非一定要使用計算機來完成(chéng)所有的任務。不能(néng)僅僅因爲某項技術客觀存在于我們的生活或社會中,就認定它一定是好(hǎo)的。
許多人都(dōu)對(duì)使用人工智能(néng)來輔助診斷疾病感興趣。但其中也會存在種(zhǒng)族偏見,這(zhè)種(zhǒng)情況主要是因爲不具代表性的數據集(例如,診斷皮膚癌的人工智能(néng)系統可能(néng)在較淺膚色上的診斷結果更準确,因爲其訓練過(guò)程中主要參考的就是這(zhè)些數據)。那麼(me),正如 2021 年發(fā)表于《科學(xué)》(Science)雜志的一篇研究報告所提到的那樣(yàng),我們是否應該針對(duì)醫療算法中的偏見設定“可接受的阈值”?
我認爲現在來探讨這(zhè)個問題還(hái)爲時過(guò)早。目前,我們仍然需要提高人們對(duì)醫療方面(miàn)的種(zhǒng)族主義問題的認識。在我們開(kāi)始將(jiāng)其編碼成(chéng)算法之前,我們需要緩一緩,先解決社會上的一些問題。一旦將(jiāng)種(zhǒng)族主義決策編碼成(chéng)算法,它就變得難以被(bèi)發(fā)現和消除了。
您之前被(bèi)診斷出患有乳腺癌,後(hòu)來也接受了成(chéng)功的治療。确診後(hòu),您嘗試通過(guò)一個開(kāi)源的癌症檢測人工智能(néng)系統來分析自己的乳腺 X 光片,并發(fā)現它确實能(néng)檢測出你患有乳腺癌的事(shì)實。這(zhè)個系統成(chéng)功地檢測出了你的乳腺癌,那這(zhè)算是人工智能(néng)的好(hǎo)消息吧?
當我看到人工智能(néng)在掃描圖像時使用紅色方框标記出我的腫瘤區域時,我感到非常驚奇。但通過(guò)這(zhè)項試驗,我發(fā)現,這(zhè)類診斷型人工智能(néng)的精度比我想象的要低一點,需要權衡各種(zhǒng)複雜的因素。
例如,開(kāi)發(fā)人員必須在準确率方面(miàn)做出選擇——更多的假陽性還(hái)是假陰性?他們傾向(xiàng)于選擇前者,因爲甯可誤判也不能(néng)錯過(guò),但這(zhè)也意味著(zhe),如果出現假陽性結果,你會進(jìn)入診斷流程,在随後(hòu)的幾周時間裡(lǐ),你可能(néng)就要展開(kāi)各種(zhǒng)檢查,而且還(hái)會經(jīng)曆恐慌。
在很多人眼中,未來機器肯定會取代醫生,這(zhè)樣(yàng)的未來都(dōu)是光鮮亮麗且美好(hǎo)的。但對(duì)我來說,這(zhè)聽起(qǐ)來沒(méi)有任何吸引力。
我們是否有望改進(jìn)我們的算法?
我對(duì)算法審計的潛力持樂觀态度。算法審計這(zhè)個過(guò)程實際上就是檢查算法的輸入、輸出和代碼,以評估其是否存在偏見。我已經(jīng)做了一些關于這(zhè)方面(miàn)的工作,旨在關注算法在特定上下文中的使用情況,解決所有利益相關者(包括受影響群體成(chéng)員)的各方面(miàn)問題。
現在,人工智能(néng)聊天機器人非常熱門。但這(zhè)項技術也充斥著(zhe)偏見。OpenAI 公司推出的聊天機器人雖然增加了一些防護措施,但仍然很容易被(bèi)規避。我們是哪裡(lǐ)做錯了嗎?
盡管還(hái)需要做更多的工作,但我對(duì)這(zhè)些防護措施表示贊賞。過(guò)去并沒(méi)有這(zhè)些防護措施,所以這(zhè)算是一種(zhǒng)進(jìn)步。人工智能(néng)也會出錯,這(zhè)是完全可以預見的,因此我們不應該再感到驚訝了。
我們在 ChatGPT 中看到的問題也是人工智能(néng)倫理研究人員所預料到的,相關研究發(fā)現也提及到了這(zhè)些問題。其中,知名的研究人員還(hái)包括 2020 年被(bèi)谷歌解雇的蒂姆尼特·格布魯(Timnit Gebru)。我們需要認識到這(zhè)項技術并非神奇的存在。它是由人們開(kāi)發(fā)出來的,因此,它肯定會存在問題,也會出現故障。
OpenAI 公司的聯合創始人山姆·阿爾特曼(Sam Altman)前不久在推廣人工智能(néng)醫生,以此作爲解決醫療危機的一種(zhǒng)方式。他似乎在暗示一個兩(liǎng)層醫療體系,一個是專爲富人服務的體系,他們可以直接咨詢人類醫生,另一個是爲我們其他人服務的,即我們所了解的人工智能(néng)醫生。您認爲事(shì)情會朝著(zhe)這(zhè)個方向(xiàng)發(fā)展嗎?對(duì)此你是否感到擔憂?
人工智能(néng)在醫學(xué)中的表現并不是特别好(hǎo),因此,如果一個非常富有的人說:“嘿,你可以讓人工智能(néng)幫你做醫療診斷,人類醫生將(jiāng)主要服務于我們。”那在我眼中,這(zhè)似乎就是一個問題,而且這(zhè)一局面(miàn)恐怕也無法引領我們走向(xiàng)更美好(hǎo)的世界。此外,這(zhè)些算法最終將(jiāng)普及到所有人,因此,我們最好(hǎo)能(néng)解決這(zhè)些問題,确保所有人都(dōu)能(néng)從中受益,而不是讓富人享受更好(hǎo)的醫療服務。
标簽: AI
版權申明:本站文章部分自網絡,如有侵權,請聯系:hezuo@lyzg168.com
特别注意:本站所有轉載文章言論不代表本站觀點,本站所提供的攝影照片,插畫,設計作品,如需使用,請與原作者聯系,版權歸原作者所有
輸入您的聯系信息,我們將(jiāng)盡快和你取得聯系!
Tel:15137991270
企業QQ:210603461
Emile:hezuo@lyzg168.com
地址:洛陽市西工區王城大道(dào)221号富雅東方B座1711室
網站:https://www.lyzg168.com
我們的微信
關注兆光,了解我們的服務與最新資訊。
Copyright © 2018-2019 洛陽霆雲網絡科技有限公司