作者: 兆光科技 發(fā)布時間: 2024/08/09 點擊: 9062次
按照人工智能(néng)這(zhè)種(zhǒng)指數式的發(fā)展趨勢,未來人工智能(néng)可能(néng)會成(chéng)爲我們無所不在的助理。本文探讨了人工智能(néng)對(duì)産品設計和界面(miàn)設計的影響。作者認爲,人工智能(néng)會成(chéng)爲人類的得力助手,但同時也引發(fā)了一系列倫理、隐私和社會影響等問題。爲了做出人工智能(néng)的最佳應用,設計師需要與倫理學(xué)家、法律專家等其他領域的專家合作,考慮倫理決策、風險評估、隐私保護等方面(miàn)的影響。此外,文章還(hái)提到了設計師應該轉變角色,從 UI 設計者轉變爲系統設計者,關注人工智能(néng)的智能(néng)設計和決策框架。
作爲一名設計師和科幻電影愛好(hǎo)者,我一直被(bèi)那種(zhǒng)烏托邦願景所吸引,人工智能(néng)會變成(chéng)我的助手或守護者,無論是斯嘉麗·約翰遜在《她》(HER)裡(lǐ)面(miàn)那無處不在的聲音,還(hái)是《超能(néng)陸戰隊》(Big Hero 6)裡(lǐ)的那位關心人的機器人,或者是《鋼鐵俠》裡(lǐ)面(miàn)的賈維斯(JARVIS),我的每一個突發(fā)奇想它都(dōu)會幫我搞定。就算未讀郵件有成(chéng)千上萬也不用擔心;有私人健康教練幫自己做決定來保持體形;我還(hái)可以把數十億美元的生意委托出去給 AI 助手,好(hǎo)讓自己能(néng)扮演超級英雄,這(zhè)樣(yàng)的事(shì)情誰會不喜歡呢?有人工智能(néng)加持的智能(néng)系統將(jiāng)會比任何人都(dōu)能(néng)更準确地爲任何給定的用戶場景決定最佳的 UI 範例。對(duì)于這(zhè)樣(yàng)的未來,設計師最終應該做些什麼(me)樣(yàng)的準備呢?
人工智能(néng)是一項我們才剛剛開(kāi)始試驗的變革性技術。不過(guò),故事(shì)不會隻停留在那些主動出現的多模式的“用戶界面(miàn)”上。對(duì)于依賴智能(néng)系統的人來說,系統必須展示出人類價值觀、道(dào)德決策、決策透明度、隐私控制、數據安全、可追溯性、公平性和包容性、情境性以及許多其他的考慮因素。
“當人工智能(néng)接受來自整個互聯網的人類經(jīng)驗的訓練時,這(zhè)些控股公司應該有義務用爲所有人創造現實世界價值的方式,去回饋社會。”
將(jiāng)有人工智能(néng)支持的多模式“禮賓服務”變爲保護人們和社會的現實,需要對(duì)企業構建、管理和維護此類系統的方式進(jìn)行重新構想。原因如下——企業的文化和運營會嚴重影響決策,而決策又會影響人工智能(néng)服務的最終運作方式。
人工智能(néng)驅動的産品或服務反映了組織提倡和支持的價值觀、人員、流程以及指标。爲了目标的一緻性,企業必須采用商業模式和治理系統,將(jiāng)人們和社會的福祉内核與企業成(chéng)功聯系起(qǐ)來,并切實反映到員工的激勵計劃之中。在每個辦公室的牆上貼上一張精心設計的使命宣言或海報,宣揚你的原則和價值觀,這(zhè)些并不足以确保一緻性或影響力——研究人員和開(kāi)發(fā)者需要明确的自上而下的方向(xiàng),這(zhè)種(zhǒng)方向(xiàng)要體現在外部,這(zhè)樣(yàng)才能(néng)維持問責制。各國(guó)政府正在就人工智能(néng)的機制形成(chéng)更清晰的意見,并逐步制定更嚴格的政策來保護人類和社會。員工、利益相關者與股東應該達成(chéng)共識,要在賺錢的同時保障大家的安全和自主性,而不是他們的數據。
CEO 必須用獨特的技能(néng)組合、流程和方法對(duì)組織進(jìn)行調整和重組,确保提供充分的保護,從而提供符合道(dào)德規範的結果與價值。雖然人工智能(néng)將(jiāng)通過(guò)釋放資源爲企業改善效率,但這(zhè)些資源必須專注于保護社會的一系列新責任——資源的維恩圖從産品管理轉向(xiàng)治理和監督。企業應該實驗新的貨币化和薪酬策略,激勵員工做正确的事(shì),就算這(zhè)意味著(zhe)收入受損也在所不辭。當社會層面(miàn)對(duì)要不要大規模推出未經(jīng)測試或驗證的系統猶豫不決時,創始人必須管理好(hǎo)投資者的期望。
組織結構圖嚴重影響 AI 智能(néng)的開(kāi)發(fā)。
随著(zhe)人工智能(néng)“理解”的保真度提高,大型人工智能(néng)系統會理解更多人類交流的微妙之處。出于效率和功效的原因,人工智能(néng)今後(hòu)隻需要更少的數據就能(néng)絮叨更多,提高其綜合人類輸入的準确性,從而生成(chéng)更準确的建議來改善結果。簡單來說,人工智能(néng)會成(chéng)爲…
一個虛拟禮賓服務,可根據對(duì)你的了解來提供所需的服務,你與它的互動越多,它就會變得越好(hǎo)。
— Rachel Kobetz
在這(zhè)個世界裡(lǐ),人工智能(néng)對(duì)你的非口頭以及口頭交流信号、習慣以及數據消費的理解將(jiāng)呈指數式的提高,它幫你建立的個人檔案的保真度要比任何人都(dōu)要好(hǎo)。它與個人形成(chéng)的那種(zhǒng)關系似乎親密到好(hǎo)像它有先見之明一樣(yàng),它能(néng)爲你提供正确的答案、建議、以及做出前瞻性的行動,快到幾乎連眼睛都(dōu)不眨一下。
産品設計師專注于設計滿足用戶未盡需求的解決方案,假設他們具備了同理心,可以幫助他們實現目标。他們進(jìn)行研究,發(fā)現洞察、建立假設、開(kāi)發(fā)和測試原型,逐漸實現可增強用戶體驗的功能(néng),做出可交付解決方案。這(zhè)個過(guò)程高效、流暢,但卻是不完整的。
紅隊的工作方式則完全不一樣(yàng)。一開(kāi)始的時候,紅隊是“黑客”,他們被(bèi)雇來爲進(jìn)行滲透測試的 CTO 尋找攻破安全系統的方法,這(zhè)樣(yàng)一來,在黑客發(fā)現漏洞之後(hòu),他們就能(néng)采取措施,減少錯誤,修補漏洞。
在從零開(kāi)始設計人工智能(néng)型産品時,設計人員可以借鑒紅隊的做法,去思考人工智能(néng)可能(néng)會如何通過(guò)缺乏透明度或公平性等方式帶來不利結果,思考惡意行爲者會如何操縱人工智能(néng),對(duì)模型的表現産生負面(miàn)影響,或者利用人工智能(néng)給不同的用例造成(chéng)傷害。他們還(hái)可以頭腦風暴一下,設想人工智能(néng)可能(néng)會如何發(fā)展,或者形成(chéng)與最初預期目的不一緻的湧現能(néng)力。通過(guò)從紅隊的角度進(jìn)行頭腦風暴,産品團隊可以評估人工智能(néng)是否符合自己的目的。團隊可以召開(kāi)典型的“假設……會怎樣(yàng)”頭腦風暴會議,其目标是建立一份“可能(néng)會如何出錯”的場景列表。邀請隐私、合規、道(dào)德、哲學(xué)、公民與人權、工程以及網絡安全方面(miàn)的參與者擔任黑帽角色,讓大家一起(qǐ)探讨,碰撞出新的産品創意。CTO 還(hái)可以針對(duì)現有産品采用這(zhè)個流程,來幫助避免出現不良結果。最終,這(zhè)種(zhǒng)方法的目的是幫助評估風險、确定新的用途和機會,并提高和擴大團隊的整體認識,制訂出嚴格的方法體系,幫助設計和開(kāi)發(fā)保護人類、社會以及公司的人工智能(néng)解決方案。
始終在場的用戶界面(miàn)可以在瞬間提供任何信息。
以下我們提供一個示例場景,說明擁有一位時刻在場的、高度親密的人工智能(néng)助手的潛在缺點。
“想象有一個無處不在的隐形的人工智能(néng),它可以看到并記住你所做的一切,對(duì)你的一言一行都(dōu)了如指掌,因此可以随時提供方便的、個性化以及非侵入性的上下文信息和服務。從表面(miàn)上看,這(zhè)個系統將(jiāng)是你的終極助手,它可以改變你的生活并釋放你的時間,讓你可以專注于生活當中最重要的事(shì)情。
有了這(zhè)種(zhǒng)層次的數據,模型可以預測你的一整天,在你不知情的情況下影響你的每一個決定。那些有錢買得起(qǐ)人工智能(néng)助手的人將(jiāng)獲得人生的金票,貧富差距被(bèi)無情地拉大。人們將(jiāng)生活在一個超個性化體驗的世界裡(lǐ),表面(miàn)看來,這(zhè)種(zhǒng)體驗會讓人感覺很神奇。分享更多數據的人會獲得更多的人工智能(néng)“超能(néng)力”,從而進(jìn)一步推動這(zhè)個循環。無法獲得人工智能(néng)的人還(hái)是會被(bèi)記錄下來,他們沒(méi)法選擇退出對(duì)自己數據的收集。不過(guò),對(duì)于人工智能(néng)采用者來說,他們的世界觀和對(duì)人們的期望往往會被(bèi)他們每天收到的數千條公開(kāi)、間接的建議所改變,將(jiāng)他們與那些沒(méi)有收到的人區分開(kāi)來,從而弱化了社會的共同信仰與共同點。”
藍隊(專注于正面(miàn)解決方案的團隊)可以拆解這(zhè)個場景,對(duì)所描述的風險進(jìn)行分類,并尋找緩解不利結果的方法,提出“我們可以如何”的問題,确保永遠在場的 UI (人工智能(néng)) 不會傷害到人,或以不利于他們的福祉或社會穩定的方式影響到他們。
産品設計將(jiāng)不再關注 UI 上的像素、不用關心模式庫裡(lǐ)面(miàn)的組件,或進(jìn)入導航系統的内容決策——盡管所有這(zhè)些事(shì)情在未來一段時間内仍然是必要的。 人工智能(néng)初創企業已經(jīng)開(kāi)始在許多典型的産品設計任務中模仿甚至替代設計師的角色,并且随著(zhe)時間的推移,這(zhè)一趨勢隻會加速和改善。
設計師必須與時俱進(jìn),利用他們對(duì)用戶的同理心,在新角色中充分發(fā)揮這(zhè)一點,推動戰略設計決策的制定,影響當今智能(néng)系統開(kāi)發(fā)、管理和治理所涉及的每一個功能(néng)。爲了保護社會免受反烏托邦未來的影響,設計師必須促進(jìn)跨組織的合作,并與他們之前從未合作過(guò)的專家和利益相關者(如倫理學(xué)家、民權和人權倡導者、合規專家、哲學(xué)家、心理學(xué)家、行爲經(jīng)濟學(xué)家、和人類學(xué)家)結盟,幫助組織制定知情、一緻的戰略和運營模式,公平地造福于所有社區。設計師必須學(xué)會聚焦于系統設計而不是設計系統,因爲人工智能(néng)是在許多相互競争的議程、系統、流程以及人員之中開(kāi)發(fā)出來并進(jìn)行管理的。相比之下,未來設計系統這(zhè)件事(shì)將(jiāng)會由人工智能(néng)來負責監督。
設計師習慣于适應不斷變化的設計挑戰,因爲他們所做的一切都(dōu)堅持以人爲本的方法。這(zhè)種(zhǒng)以人爲本的做事(shì)方法可以幫助設計師擺脫智能(néng)副駕駛系統的幹擾。高影響力設計的未來將(jiāng)是藝術性地去設計服務的智能(néng)(人工智能(néng)思維),這(zhè)在任何像素觸及屏幕之前很久就已經(jīng)發(fā)生了。因爲沒(méi)有規則手冊,所以設計領袖必須專注于將(jiāng)合适的利益相關者聚集在一起(qǐ),就人工智能(néng)應該如何表現、應該針對(duì)哪些用例進(jìn)行開(kāi)發(fā)、如何進(jìn)行訓練、出現問題時該如何處理等做出明智決定,用戶將(jiāng)對(duì)自己的數據以及人工智能(néng)提供的建議擁有什麼(me)樣(yàng)的自主權,以及其價值是否大于其固有的缺點展開(kāi)讨論。設計師必須思考,如果把一些事(shì)情完全自動化,會不會讓人們不再能(néng)用老派的方式做事(shì),因爲有時候人就是要經(jīng)過(guò)奮鬥才能(néng)成(chéng)長(cháng)(比如教育就是這(zhè)樣(yàng))。人工智能(néng)可讓産品團隊管理跨不同社區的個性化應用,确保文化規範、安全性以及人的主動性。
質疑關于世界需要解決哪些問題以及人工智能(néng)是否适合這(zhè)些解決方案的基本假設。如果這(zhè)個問題很普遍,解決方案也很容易獲得并且适用于所有人,那麼(me)你可能(néng)會成(chéng)爲赢家。
質疑他們團隊的使命是否符合社會和地球的福祉。你的收入目标會不會影響到你對(duì)技術的利用方式,進(jìn)而對(duì)社會産生影響?
將(jiāng)設計師角色的概念擴展到隻關注産品 UI 的人之外。公司需要對(duì)人工智能(néng)戰略規劃采用文科方法,确保工程和數據科學(xué)家充分了解他們開(kāi)發(fā)的服務可能(néng)産生的倫理、法律和社會心理影響。要在小組讨論、研讨會以及戰術實施中運用設計思維,從多個角度整合需求,以确保結果公平。
适應和學(xué)習新技能(néng)組合可确保對(duì)人工智能(néng)的調校是正确的,且合乎道(dào)德,從而造福于用戶、利益相關者、社會和地球。問題是——從事(shì)“産品”工作的人是不是得減少一些,從而有更多的人可以從事(shì)道(dào)德決策框架的工作,去管理好(hǎo)智能(néng)系統?
思考一下設計思維如何确保解決方案對(duì)所有人公平且可用。如果人人都(dōu)需要一部 700 美元的手機與寬帶互聯網,那麼(me)幾個世紀以來一直讓社區被(bèi)邊緣化的不平等現象可能(néng)還(hái)會延續。
考慮實施自上而下的戰略,讓道(dào)德、公民和法律因素與業務目标保持一緻,以便産品團隊對(duì)成(chéng)功有清晰的認識。想一想當今人工智能(néng)發(fā)展的那條指數式的學(xué)習曲線,預測可能(néng)會帶來哪些新的好(hǎo)處和危害,然後(hòu)回過(guò)頭來思考一下這(zhè)可以爲今天的決策提供哪些參考。
在設計人工智能(néng)型産品時,要注意既要考慮用戶的便利,也要思考爲世界做好(hǎo)事(shì)。人生就是要學(xué)習如何應對(duì)障礙。
開(kāi)發(fā)穩健的風險評估方法和決策框架,從而确保團隊能(néng)思考管理人工智能(néng)型産品的好(hǎo)處和挑戰。建立紅隊的流程和評估方法,并不斷進(jìn)行優化和排序,以确保産品團隊在盡最大努力保護人類和社會的同時保持動力。
關注當前人工智能(néng)的責任和隐私問題,熟悉監管要求,并推遲對(duì)未來的展望,直到組織的運營成(chéng)熟度已經(jīng)爲管理“思維機器”的複雜性做好(hǎo)了準備。
标簽: AI
版權申明:本站文章部分自網絡,如有侵權,請聯系:hezuo@lyzg168.com
特别注意:本站所有轉載文章言論不代表本站觀點,本站所提供的攝影照片,插畫,設計作品,如需使用,請與原作者聯系,版權歸原作者所有
輸入您的聯系信息,我們將(jiāng)盡快和你取得聯系!
Tel:15137991270
企業QQ:210603461
Emile:hezuo@lyzg168.com
地址:洛陽市西工區王城大道(dào)221号富雅東方B座1711室
網站:https://www.lyzg168.com
我們的微信
關注兆光,了解我們的服務與最新資訊。
Copyright © 2018-2019 洛陽霆雲網絡科技有限公司