作者: 兆光科技 發(fā)布時間: 2024/08/09 點擊: 10039次
人工智能(néng)拯救世界,我們將(jiāng)百分百支持工程師讓 AI 成(chéng)爲現實!
【CSDN 編者按】AI 會讓我們失業嗎?AI 會“殺”死人類嗎?當一門重要的新技術橫空出世的時候,人們總是會擔心它給人們帶來的種(zhǒng)種(zhǒng)威脅,基于此,本文作者認爲,雖然 AI 風險很高,但也存在非常有影響力的機遇。
人工智能(néng)的時代來了,很多人都(dōu)吓壞了。
幸運的是,我帶來了一個好(hǎo)消息:人工智能(néng)不僅不會毀滅世界,而且還(hái)有可能(néng)會拯救世界。
首先,我們來簡單地介紹一下人工智能(néng)(AI)是什麼(me)。AI 是通過(guò)數學(xué)和軟件代碼教計算機如何以類似于人類的方式理解、綜合和生成(chéng)知識的應用程序。AI 是一種(zhǒng)計算機程序,與其他計算機程序一樣(yàng),AI可以運行、接受輸入、處理并生成(chéng)輸出。AI的輸出在廣泛的領域都(dōu)有應用,包括編程、醫學(xué)、法律、創意藝術以及其他等等。與其他技術一樣(yàng),AI也是歸人所有并由人控制的。
至于 AI 不是什麼(me),簡單來說,AI不是殺手軟件,也不是突然活過(guò)來并決定謀殺人類或以其他方式毀掉一切的機器人,與你在電影中看到的情節完全不同。
對(duì)于 AI 可以成(chéng)爲什麼(me),簡單的描述是:一種(zhǒng)讓我們關心的一切變得更好(hǎo)的方法。
經(jīng)過(guò)幾十年以及數千項的研究,社會科學(xué)得出一個最有效的核心結論是,人類智慧可以改善廣泛的生活産出。聰明的人幾乎在各個活動領域都(dōu)能(néng)取得更好(hǎo)的結果:學(xué)業成(chéng)績、工作業績、職業地位、收入、創造力、身體健康、長(cháng)壽、學(xué)習新技能(néng)、管理複雜任務、領導力、創業成(chéng)功、解決沖突、閱讀理解、制定财務決策、理解他人的觀點、創造性藝術、育兒成(chéng)果以及生活滿意度。
此外,人類智慧是我們幾千年來創造出今天生活的世界的杠杆:科學(xué)、技術、數學(xué)、物理、化學(xué)、醫學(xué)、能(néng)源、建築、交通、通信、藝術、音樂、文化、哲學(xué)、 倫理、道(dào)德。如果這(zhè)些領域沒(méi)有人類智慧的參與,我們仍將(jiāng)住在茅草屋,食不果腹。然而,在過(guò)去的四千年裡(lǐ),我們利用人類的智慧將(jiāng)我們的生活水平提高了數萬倍。
AI 爲我們提供了增強人類智能(néng)的機會,可以進(jìn)一步提升所有的智能(néng)成(chéng)果,包括新藥品的發(fā)明創造、解決氣候變化,以及探索其他星球等等。
AI 增強人類智能(néng)的應用已經(jīng)開(kāi)始,AI 已通過(guò)多種(zhǒng)計算機控制系統的形式滲透我們的生活,如今随著(zhe) ChatGPT 等 AI 大型語言模型迅速升級,隻要我們敞開(kāi)懷抱擁抱 AI,就能(néng)加速這(zhè)一切發(fā)展。
在這(zhè)個 AI 的新時代:
每個孩子都(dōu)將(jiāng)擁有一位無比耐心、無比善良,且擁有無限知識、能(néng)提供無限幫助的AI導師。每個孩子成(chéng)長(cháng)的每一步,都(dōu)有AI導師陪伴在側,用無限愛心幫助孩子們發(fā)揮最大潛能(néng)。
每個人都(dōu)將(jiāng)擁有一位無比耐心、無比善良,且擁有無限知識、能(néng)提供無限幫助的 AI 助手/教練/導師/培訓師/顧問/治療師。我們在生活中遇到所有的機遇和挑戰,都(dōu)有AI助手陪伴在側,最大限度地提升每個人的成(chéng)果。
每位科學(xué)家都(dōu)將(jiāng)擁有一位 AI 助手/合作者/夥伴,極大地擴展他們的科學(xué)研究和成(chéng)果範圍。每位藝術家、工程師、商人、醫生、護理人員也都(dōu)將(jiāng)擁有一位 AI 助手/合作者/夥伴。
每位領導人,包括首席執行官、政府官員、非營利組織主席、體育教練、教師也都(dōu)將(jiāng)擁有一位 AI 助手/合作者/夥伴。幫助領導人做出的更好(hǎo)的決策,這(zhè)可以放大優秀的決策帶來的影響力,因此這(zhè)種(zhǒng)智能(néng)增強是重中之重。
整個經(jīng)濟體的生産力將(jiāng)急劇加速,推動經(jīng)濟增長(cháng)、創造新興産業、新的就業機會、激勵收入增長(cháng),并引領全球邁入物質繁榮的新時代。
科學(xué)的突破性發(fā)展、新技術和藥品的問世將(jiāng)得到全面(miàn)擴大,因爲AI可以幫助我們進(jìn)一步破譯自然法則,并爲我們謀求福利。
創意藝術將(jiāng)進(jìn)入黃金時代,因爲AI增強的藝術家、音樂家、作家和電影制作人能(néng)夠比以往任何時候更快、更大規模地實現他們的願景。
我甚至認爲,AI 將(jiāng)在必要時大幅降低戰時死亡率。每一場戰争都(dōu)是在巨大的壓力下做出可怕的決定,能(néng)力有限的人類領導能(néng)夠獲取的信息也非常有限。而如今,軍事(shì)指揮官和政治領導人將(jiāng)擁有AI顧問,幫助他們做出更好(hǎo)的戰略以及戰術決策,最大限度地減少風險、錯誤和不必要的流血事(shì)件。
簡而言之,凡是能(néng)夠通過(guò)人類的智能(néng)解決的任何問題,有了AI的幫助就能(néng)做得更好(hǎo),我們將(jiāng)能(néng)夠應對(duì)沒(méi)有 AI 就無法應對(duì)的新挑戰,包括治愈所有疾病,以及實現星際旅行。
AI 不僅僅有智慧!AI 最被(bèi)低估的品質是它的人性化程度。在AI的助力下,即使是沒(méi)有藝術才能(néng)的人也能(néng)夠自由地創造和分享他們的藝術想法。與善解人意的 AI 交談可以提高人類應對(duì)逆境的能(néng)力。AI 醫療聊天機器人比人類更具同理心。擁有無限耐心且富有同情心的 AI 不僅不會讓這(zhè)個世界變得更加嚴酷和機械化,而且還(hái)能(néng)讓世界變得更加溫暖和美好(hǎo)。
雖然風險很高,但也存在非常有影響力的機遇。AI 可能(néng)是人類文明所創造的最重要、也是最好(hǎo)的産物,不僅堪比電力和微芯片,甚至可能(néng)超越它們。
我們應當擔心的風險并非 AI 的發(fā)展和大量應用,相反是我們對(duì)自己、對(duì)我們的孩子以及對(duì)我們的未來所承擔的道(dào)德義務。
有了 AI,我們將(jiāng)生活在一個更美好(hǎo)的世界,而機會就在眼前。
與上述積極的觀點形成(chéng)鮮明對(duì)比的是,目前公衆對(duì)于AI充滿了恐懼和偏執。
我們經(jīng)常聽到這(zhè)樣(yàng)的說法:AI 會以各種(zhǒng)方式殺死我們所有人,毀掉我們的社會,奪走我們的飯碗,造成(chéng)嚴重的不平等,并助纣爲虐。
如何解釋這(zhè)種(zhǒng)從近乎烏托邦到可怕的反烏托邦的分歧?
從曆史的角度來看,每一項重要的新技術出現都(dōu)會引發(fā)道(dào)德恐慌,包括電燈、汽車、收音機以及互聯網,人們認爲這(zhè)些新技術將(jiāng)摧毀世界、社會或者同時毀滅二者。幾十年來,我們一次又一次地見證了這(zhè)種(zhǒng)悲觀主義者。而事(shì)實上,目前我們看到的AI恐慌甚至都(dōu)不是第一次。
誠然,許多新技術确實引發(fā)了不良後(hòu)果,但通常同一種(zhǒng)技術同樣(yàng)能(néng)在其他方面(miàn)爲我們帶來巨大的好(hǎo)處。道(dào)德恐慌确實意味著(zhe)一些擔憂。
但道(dào)德恐慌本質上是非理性的,它會放大合理的擔憂,甚至到歇斯底裡(lǐ)的程度,具有諷刺意味的是,這(zhè)使得人們更難面(miàn)對(duì)真正嚴重的擔憂。
那麼(me),現在 AI 面(miàn)臨著(zhe)全面(miàn)的道(dào)德恐慌嗎?
很多人利用這(zhè)種(zhǒng)道(dào)德恐慌提出采取政策行動的要求,包括新的 AI 限制、法規和法律。這(zhè)些人就 AI 的危險發(fā)表了極其戲劇化的公開(kāi)聲明,這(zhè)無疑進(jìn)一步煽動了道(dào)德恐慌,而他們表現得就像是公共利益的無私捍衛者。
但他們真的是人類的捍衛者嗎?
他們是對(duì)還(hái)是錯?
經(jīng)濟學(xué)家觀察到了這(zhè)種(zhǒng)改革運動的長(cháng)期模式。這(zhè)類運動的參與者分爲兩(liǎng)類:“浸信會”和“走私者”,這(zhè)裡(lǐ)我們借鑒了上個世紀20年代的美國(guó)禁酒令:
“浸信會”指的是社會改革的真正信徒,他們認爲酒精正在破壞社會的道(dào)德結構,需要新的限制、法規和法律來防止社會災難。
套用到 AI 的 風險,“浸信會”指的是相信 AI 真的會帶來災難的人群。
“走私者”指的是自私自利的機會主義者,他們利用新的限制、法規和法律打擊競争對(duì)手,從而在經(jīng)濟上獲利。
在美國(guó)禁酒令期間,“走私者”就是私下販賣酒精的投機分子,他們利用這(zhè)個期間向(xiàng)美國(guó)人出售非法酒類而攫取巨額利潤。
套用到 AI 的 風險,“走私者”可以利用這(zhè)個風險建立監管壁壘,爲自己謀求更多利益,這(zhè)些壁壘形成(chéng)了一個由政府支持的 AI 供應商組成(chéng)的壟斷聯盟,保護他們免受創業公司和開(kāi)源競争的影響。
有人提出,一些人既是“浸信會”教徒,也是“走私者”,特别是那些被(bèi)大學(xué)、智囊團、活動家團體和媒體機構收買攻擊 AI 的人。如果你拿了錢或資助來助長(cháng) AI 恐慌,那麼(me)你就是“走私者”。
“走私者”的問題在于,他們會赢。“浸信會”隻不過(guò)是天真的空想家,而“走私者”是經(jīng)營者,所以像這(zhè)樣(yàng)的改革運動的結果往往是“走私者”得到他們想要的東西,比如監管俘獲、競争隔離,以及壟斷聯盟的形成(chéng),隻留下“浸信會”疑惑他們對(duì)于社會進(jìn)步的推動究竟哪裡(lǐ)出錯了。
其實,不久前我們剛剛經(jīng)曆了一個令人震驚的例子,2008 年全球金融危機後(hòu)的銀行業改革。“浸信會”告訴我們,我們需要新的法律法規來拆分“太大而不能(néng)倒”的銀行,以防止此類危機再次發(fā)生。所以,美國(guó)國(guó)會通過(guò)了 2010 年的多德-弗蘭克法案,表面(miàn)上該法案是“浸信會”如願以償,但實際上卻爲“走私者”所用。結果是,2008 年“太大而不能(néng)倒”的銀行太多,而且規模過(guò)大。
所以在實踐中,即使“浸信會”是正确的,也會被(bèi)“走私者”所用,導緻他們成(chéng)爲最後(hòu)的受益方。
而如今,AI 監管的發(fā)展正在重演曆史。
然而,僅确立每個人的身份,并質疑他們的動機是不夠的。我們必須反思“浸信會”和“走私者”的論點。
有關 AI 的末日風險,首當其沖的就是 AI 會幹掉所有人類。
我們自己創造的技術崛起(qǐ)并摧毀我們的恐懼已深深地融入了我們的文化。希臘人在普羅米修斯神話中表達了這(zhè)種(zhǒng)恐懼,普羅米修斯爲人類帶來了火,但同時火也具有破壞力,爲此普羅米修斯被(bèi)衆神審判,遭受永久的折磨。瑪麗·雪萊在她的小說《弗蘭肯斯坦》(又名《現代普羅米修斯》)中講述了這(zhè)個神話的現代版,我們開(kāi)發(fā)出了永生技術,然而這(zhè)種(zhǒng)技術崛起(qǐ)後(hòu)試圖摧毀我們。當然,詹姆斯·卡梅隆的電影《終結者》中紅眼殺人機器人也爲 AI 帶來的恐慌抹上了濃墨重彩的一筆。
這(zhè)個設想之所以得到發(fā)展,是爲了鼓勵我們認真考慮新技術的潛在風險,畢竟火确實可以燒毀整個城市。但同時,火也是現代文明的基礎,可以在寒冷的夜晚爲我們帶來溫暖和安全。這(zhè)個神話忽視了大多數新技術帶來的積極影響,一味強調破壞性,缺乏理性分析。我們不能(néng)因爲前人有這(zhè)樣(yàng)的恐懼就盲目跟從,我們可以更加理性。
我的觀點是,AI 將(jiāng)幹掉所有人類這(zhè)個想法是一個嚴重的錯誤。AI 不是經(jīng)過(guò)數十億年的進(jìn)化而加入适者生存之戰的生物,AI 不同于動物和我們。AI 是數學(xué)、代碼和計算機的産物,由人類建造,歸人類所有,由人使用,由人控制。AI 發(fā)展到一定的程度就會産生自己的思想,并産生幹掉所有人類的動機,這(zhè)種(zhǒng)想法本身沒(méi)有充分的根據。
簡而言之,AI 不會産生這(zhè)種(zhǒng)想法,它沒(méi)有目标,它不想殺死你,因爲它沒(méi)有生命。AI 就是一台機器,就像烤面(miàn)包一樣(yàng),它們不會突然跳起(qǐ)來幹掉你。
如今很明顯,“浸信會”的信徒相信 AI 是殺手,大量的媒體報道(dào)了駭人聽聞的“警告”,其中一些人聲稱有關這(zhè)個話題的研究已長(cháng)達幾十年了,而且還(hái)說研究結果令他們感到恐懼。部分信徒甚至是AI創新方面(miàn)的領導者。這(zhè)些人主張對(duì) AI 實施各種(zhǒng)奇怪和極端的限制,禁止 AI 開(kāi)發(fā),甚至主張對(duì)數據中心發(fā)動軍事(shì)空襲和核戰争。他們争辯說,像我這(zhè)樣(yàng)的人不能(néng)排除 AI 未來的災難性後(hòu)果,因此我們必須采取預防措施,哪怕是這(zhè)些措施可能(néng)涉及大量的暴力和死亡,也要防止 AI 的潛在存在風險。
我認爲,他們的立場并沒(méi)有從科學(xué)的角度出發(fā),他們設定的可檢驗假設是什麼(me)?如何證僞這(zhè)個假設?我們如何得知何時進(jìn)入危險區域?這(zhè)些問題基本上沒(méi)有答案,他們隻能(néng)找借口說:“你無法證明它不會發(fā)生!”事(shì)實上,這(zhè)些“浸信會”的立場是非常不科學(xué)和極端的,況且他們還(hái)在呼籲暴力行爲,所以我不禁會質疑他們的動機。
具體來說,我認爲他們的動機主要有以下三點:
首先,馮·諾伊曼認爲核武器是結束第二次世界大戰并防止第三次世界大戰的唯一方法,他在回應羅伯特·奧本海默時表示,“有些人承認罪行是爲了獲取罪惡的殊榮。”爲了宣揚自己工作的重要性,還(hái)有什麼(me)方式比公開(kāi)吹噓更加戲劇性的?這(zhè)就解釋了爲什麼(me)實際構建和資助 AI 的“浸信會”教徒會言行不一,我們應該關注他們的行動,而不是他們的言論。
其次,有些“浸信會”教徒實際上就是“走私者”,包括“AI安全專家”、“AI倫理學(xué)家”、“AI風險研究員”等職業。他們拿了錢宣揚毀滅論,所以我們應該理性思考他們的言論。
第三,“AI 風險”已經(jīng)發(fā)展成(chéng)爲一種(zhǒng)“邪教”,不僅吸引了邊緣人物,而且還(hái)拿到了不少的資助。這(zhè)類“邪教”并不新鮮,西方的千禧年主義由來已久,并由此而産生了末世“邪教”。而如今人們對(duì) AI 風險的恐懼與千禧年主義如出一轍。有關千禧年主義,維基百科上的說明如下:
千禧年主義的概念來自于“千紀”,即是指長(cháng)度爲一千年的時間循環。千禧年主義是某些基督教教派正式的或民間的信仰,這(zhè)種(zhǒng)信仰相信將(jiāng)來會有一個黃金時代:全球和平來臨,地球將(jiāng)變爲天堂。人類將(jiāng)繁榮,大一統的時代來臨以及“基督統治世界”。
很明顯,我們不能(néng)任由這(zhè)種(zhǒng)“邪教”來決定法律和社會的未來。
有關 AI 風險的讨論,第二個廣泛的觀點是 AI 會毀掉我們的社會,AI 會生成(chéng)“有害”的輸出,對(duì)人類造成(chéng)深遠的傷害。
簡單來說,他們認爲,即便 AI 不會幹掉我們,也會散播仇恨言論和錯誤信息。
事(shì)實上,有關 AI 風險的描述最近從“AI 安全”(用于描述 AI 會幹掉我們的術語)變成(chéng)了“AI 對(duì)齊”(用于描述 AI 會“危害”到人類社會的術語)。最初擔心 AI 安全的人們不滿這(zhè)種(zhǒng)轉變,但他們不知道(dào)如何轉變回去,于是如今他們又發(fā)明了一個新詞語“AI 不會幹掉每個人主義”(notkilleveryoneism),雖然這(zhè)個詞語尚未被(bèi)廣泛采用,但至少意思很明确。
有關 AI 社會風險的術語“AI 對(duì)齊”是什麼(me)意思?和什麼(me)對(duì)齊?人類價值觀。哪個人類的價值觀?這(zhè)就是棘手的地方。
碰巧的是,我曾親曆類似的情況:社交媒體“信任與安全”之戰。多年來,社交媒體服務一直承受著(zhe)來自政府和活動家的巨大壓力,他們要求禁止、限制、審查社交媒體内容。有關“仇恨言論”(以及“算法偏見”)和“錯誤信息”的擔憂如今已從社交媒體轉移到了“AI 對(duì)齊”。
我從社交媒體大戰吸取的教訓是:
一方面(miàn),沒(méi)有絕對(duì)的言論自由立場。首先,每個國(guó)家都(dōu)會將(jiāng)某些内容定爲非法。其次,對(duì)于某些類型的内容,幾乎每個社會都(dōu)會一緻同意禁止訪問這(zhè)些内容,而無論合法與否。因此,任何内容技術平台都(dōu)會受到一些限制。
另一方面(miàn),滑坡謬誤(Slippery slope,一種(zhǒng)非形式謬誤,使用連串的因果推論,卻誇大了每個環節的因果強度,而得到不合理的結論。)實際上并不是謬誤,而是必然。一旦框架開(kāi)始限制極其可怕的内容(比如仇恨言論、錯誤信息或虛假聲明),政府機構以及其他團隊就會介入,并要求對(duì)他們認爲對(duì)社會和/或他們的個人偏好(hǎo)構成(chéng)威脅的所有言論進(jìn)行更嚴格的審查和抑制。
而如今“AI 對(duì)齊”也面(miàn)臨相同的狀況。支持者聲稱他們設計的 AI 能(néng)夠生成(chéng)對(duì)社會有益的言論和思想,并禁止 AI 生成(chéng)對(duì)社會有害的言論和思想。而反對(duì)者則聲稱,思想警察過(guò)于傲慢和專橫,他們才是徹頭徹尾的犯罪。
如果你不認爲社交媒體和 AI 遭遇了相同的道(dào)德問題,至少應該意識到,相較于圍繞社交媒體審查制度的鬥争,有關允許 AI 生成(chéng)什麼(me)内容的問題更爲重要。AI 極有可能(néng)成(chéng)爲世界萬物的控制層。AI 運作機制的重要性超越了一切。
我們不能(néng)讓思想警察抑制 AI。
自機械織布機問世以來,數百年間,人們對(duì)于因機械化、自動化、計算機化或人工智能(néng)而導緻失業的恐懼反複出現。盡管從曆史的長(cháng)河來看,每一項新技術都(dōu)會帶來更多更高薪酬的工作崗位,但每一波恐慌都(dōu)會有人說“這(zhè)次不同”:這(zhè)一次真的不同以往,科技會打碎每個人的飯碗。然而,這(zhè)種(zhǒng)情況從未出現。
縱觀近期,我們經(jīng)曆了兩(liǎng)次這(zhè)樣(yàng)的科技引發(fā)的失業恐慌:2000年的外包恐慌和 2010 年前後(hòu)的自動化恐慌。盡管在過(guò)去的幾十年裡(lǐ),許多領導、專家,甚至是科技行業的高管都(dōu)在敲桌子說,大規模的失業即將(jiāng)爆發(fā),然而到 2019 年底(新冠疫情爆發(fā)之前),全世界的工作崗位數量高于曆史時期,而且薪資也更高。
然而,這(zhè)個錯誤的思想不會消亡。
果然,它又回來了。
這(zhè)一次,取代所有工作崗位,并使得人類變得多餘的技術——真正的人工智能(néng)真的來臨了。這(zhè)一次曆史肯定不會重演,AI 將(jiāng)引發(fā)大規模失業,經(jīng)濟、就業和薪資都(dōu)不會再次快速增長(cháng)。真的是這(zhè)樣(yàng)嗎?
不,當然不是。事(shì)實上,如果我們允許 AI 融入整個經(jīng)濟,那麼(me)就有可能(néng)迎來有史以來最劇烈且持續時間最長(cháng)的經(jīng)濟繁榮,相應地工作崗位和薪資增長(cháng)也會創新紀錄,與人們的恐懼截然相反。原因如下。
自動化扼殺工作崗位的厄運論者不斷犯的核心錯誤是“固定勞動總量謬誤”(認爲社會中需要做的工作總量是固定的)。這(zhè)種(zhǒng)錯誤的觀念認爲某個時間點,社會中需要做的工作總量是固定的,或者由機器來做,或者由人類來做,如果由機器來做,那麼(me)人類就沒(méi)有工作可做了。
“固定勞動總量謬誤”源于幼稚的直覺,顯然是錯誤的。我們將(jiāng)技術應用于生産,生産力就會得到提高,投入減少,産出增加。結果是,商品和服務的價格降低。随著(zhe)商品和服務價格的下降,我們支付的費用也會相應減少,這(zhè)意味著(zhe),我們將(jiāng)擁有額外的消費能(néng)力來購買其他東西。這(zhè)會刺激需求,推動生産力的創新,包括新産品和新産業,而這(zhè)反過(guò)來就會爲那些被(bèi)機器取代的人創造新的就業機會。其結果是,整個經(jīng)濟體增大,我們將(jiāng)擁有更高的物質繁榮、更多的工業、更多的産品和更多的就業機會。
好(hǎo)消息還(hái)不止這(zhè)些。我們還(hái)可以獲得更高的薪資。這(zhè)是因爲,從個體勞動力的角度來看,市場決定了薪酬將(jiāng)随著(zhe)勞動力的邊際收益産量(即在其他要素投入量不變的條件下,單位勞動力的投入所帶來的産量增加,從而導緻收益的增加)而變化。在科技的主力下,個體員工的生産力將(jiāng)高于傳統企業的員工。雇主會因爲工人的工作效率提高而支付更高的薪水,否則其他雇主也會這(zhè)麼(me)做,這(zhè)并不以個人意志爲轉移。結果是,引入高科技後(hòu),不僅該行業的就業人數會增加,而且薪資也會提高。
總而言之,技術能(néng)夠提高我們的工作效率。這(zhè)會導緻現有商品和服務的價格下降,薪資上漲。而這(zhè)反過(guò)來又會促進(jìn)經(jīng)濟增長(cháng)和就業增長(cháng),同時推動就業機會和産業創新。如果市場經(jīng)濟正常運行,同時允許自由引進(jìn)技術,那麼(me)這(zhè)個良性循環會不斷攀升。正如 Milton Friedman 所說:“人類的需求永無止境”,我們的欲望總是超出我們的所有。在注入了技術的市場經(jīng)濟下,每個人都(dōu)可以獲得自己想要的一切,但這(zhè)從未成(chéng)爲現實。這(zhè)就是爲什麼(me)科技永遠不會搶走我們的飯碗的原因。
這(zhè)一次有了 AI,我們就可以擁有取代所有人類勞動的技術。想一想,所有人類勞動都(dōu)機器取代意味著(zhe)什麼(me)。
這(zhè)將(jiāng)意味著(zhe),生産力發(fā)展騰飛,超越任何曆史時刻。現有商品和服務的價格全面(miàn)下降,甚至降到幾乎爲零。消費者的消費能(néng)力將(jiāng)飙升。經(jīng)濟將(jiāng)爆發(fā)新的需求。企業家們將(jiāng)創造出令人眼花缭亂的新産業、新産品和新服務,并迅速雇傭盡可能(néng)多的工人和 AI 來滿足新的需求。
然後(hòu) AI 將(jiāng)再次取代勞動力。這(zhè)個循環會一直重複,推動消費者的消費能(néng)力,刺激經(jīng)濟增長(cháng),而就業和薪資水平也將(jiāng)水漲船高。這(zhè)將(jiāng)是一個直線上升的物質烏托邦,這(zhè)是連亞當·斯密和卡爾·馬克思都(dōu)不敢夢想的新世界。
我們理應如此幸運。
提到卡爾·馬克思,我們不禁會想到 AI 引發(fā)的下一個風險,假設 AI 确實會搶走我們的飯碗,那麼(me)會不會導緻嚴重的财富不均等,AI 的所有者將(jiāng)獲取所有的經(jīng)濟回報,而普通人一無所獲?
事(shì)實上,這(zhè)是馬克思主義的一個核心主張,即生産資料的所有者(資産階級)將(jiāng)不可避免地從無産階級那裡(lǐ)竊取所有社會财富。然而,這(zhè)一理論的問題在于,技術的所有者將(jiāng) AI 據爲己有并不能(néng)獲益,相反他們會將(jiāng) AI 賣給盡可能(néng)多的客戶。對(duì)于任何産品來說,最大的市場就是整個世界,80 億人口。因此在現實中,每一項新技術(即使是那些最初隻向(xiàng)高薪大公司或富人出售的稀有技術)都(dōu)會迅速擴散,直到進(jìn)入大衆市場,普及到地球上每個人的手中。
舉一個這(zhè)類的例子,2006 年伊隆·馬斯克公開(kāi)了他爲特斯拉制定的所謂“秘密計劃”:
第 1 步,打造 [昂貴] 的跑車;
第 2 步,用這(zhè)筆錢制造普通大衆也能(néng)負擔得起(qǐ)的汽車;
第 3 步,用這(zhè)筆錢制造更經(jīng)濟實惠的汽車。
當然,實際上他正是這(zhè)麼(me)做的,結果是他成(chéng)爲了世界上最富有的人。
最後(hòu)一點是關鍵。如果馬斯克的汽車隻賣給富人,他會更富有嗎?不會。如果隻爲自己制造汽車,他會更富有嗎?當然不會。他通過(guò)向(xiàng)全世界這(zhè)個最大的市場銷售汽車來最大化自己的利潤。
簡而言之,正如我們過(guò)去看到的那樣(yàng),無論是汽車、電力、收音機、電腦、互聯網、手機還(hái)是搜索引擎,最終都(dōu)能(néng)進(jìn)入每個人的手中。此類技術的制造商會非常積極地降低價格,直到地球上的每個人都(dōu)能(néng)負擔得起(qǐ)。而如今 AI 的發(fā)展也無異于此,這(zhè)就是爲什麼(me)你可以低成(chéng)本使用最先進(jìn)的生成(chéng) AI,甚至可以免費使用微軟的 Bing 和谷歌的 Bard,而今後(hòu)的發(fā)展也將(jiāng)遵循這(zhè)個規律。不是因爲這(zhè)些供應商愚蠢或慷慨,而是因爲他們貪婪,他們想要最大化市場規模,從而最大化他們的利潤。
因此,現實與技術推動财富集中化相反,技術的個人用戶,最終包括地球上的每個人,都(dōu)將(jiāng)被(bèi)賦予使用 AI 的權力,并享用 AI 帶來的大部分價值。與現有技術一樣(yàng),構建 AI 的公司也將(jiāng)競相實現這(zhè)一目标。
當然,我并不是說我們的社會沒(méi)有不平等的問題。這(zhè)個問題确實存在,但并不是由技術導緻的。AI 的風險和不平等并不是說 AI 會導緻更多的不平等,而是我們不允許利用 AI 來減少不平等。
以上,我解釋了爲什麼(me)說經(jīng)常被(bèi)提及的 AI 風險中實際上有四個并不是真的:AI 不會蘇醒并幹掉我們;AI 不會毀滅我們的社會;AI 不會導緻大規模失業;AI 不會引發(fā)更多的不平等。下面(miàn),我們來談談第五點,我非常同意的一點:AI 將(jiāng)助纣爲虐,幫助壞人做壞事(shì)。
從某種(zhǒng)意義上說,這(zhè)是一個“重言式”(邏輯學(xué)名詞。如果一個公式,對(duì)于在任一解釋下其真值都(dōu)爲真,就稱爲重言式,又叫(jiào)永真式)。科技是一種(zhǒng)工具。工具(比如火和石頭)可以用來做好(hǎo)事(shì)(可用來飯和蓋房子),也可以用來做壞事(shì)(可用來防火和打人)。任何技術都(dōu)可以用來做好(hǎo)事(shì),也可以用來做壞事(shì)。毫無疑問,AI 也可以降低不法分子作惡的難度。
有些人也許會說,既然如此,我們就應該防患于未然。然而不幸的是,AI 并不是很難獲取的物理材料(比如钚)。恰恰相反,它是世界上最容易獲得的材料——數學(xué)和代碼。
網上有數不盡的免費課程、書籍、論文和視頻,可供你學(xué)習如何構建 AI,而且優秀的開(kāi)源實現每天都(dōu)在激增。AI 就像空氣,無處不在。我們應該如何逮捕這(zhè)些不法分子?監視和控制所有的計算機?奪走他們的 GPU?
實際上,我們有兩(liǎng)種(zhǒng)非常直接的方法可以解決不法分子利用 AI 做壞事(shì)的風險,而這(zhè)些正是我們應該關注的方面(miàn)。
首先,我們需要制定法律,將(jiāng)利用 AI 做的大多數壞事(shì)定爲犯罪。從銀行偷錢?犯罪。制造生化武器?犯罪。實施恐怖行爲?犯罪。我們可以集中精力在力所能(néng)及的情況下防止這(zhè)些罪行,如果無法防範則起(qǐ)訴不法分子。
但是,你可能(néng)注意到了,我說我們應該在 AI 輔助犯罪發(fā)生之前預防,這(zhè)種(zhǒng)預防難道(dào)不是意味著(zhe)禁用 AI 嗎?實際上,我們還(hái)有另一種(zhǒng)方法可以防止此類犯罪,那就是將(jiāng) AI 作爲防禦工具。同樣(yàng)是 AI,到了壞人手裡(lǐ)就會變得很危險,而到了好(hǎo)人手裡(lǐ)就能(néng)變成(chéng)強大的武器,特别是用于防止壞事(shì)做壞事(shì)。
例如,如果你擔心 AI 會冒充人類或生成(chéng)虛假視頻,那麼(me)就可以構建新系統,讓人們通過(guò)加密簽名驗證身份和内容的真實性。其實,早在 AI 出現之前,虛假内容就已經(jīng)存在了。我們不能(néng)禁用文字處理器、Photoshop 或 AI,而是應該使用技術來構建一個真正解決問題的系統。
其次,我們應該付出大量努力,將(jiāng) AI 用于好(hǎo)的、合法的防禦目的。我們可以將(jiāng) AI 用于網絡防禦、生物防禦、追捕恐怖分子,以及其他保護我們自己、社區和家園的安全的一切措施。
當然,政府内外已有很多人在朝著(zhe)這(zhè)個方向(xiàng)努力,如果我們能(néng)夠利用 AI 來防止壞人做壞事(shì),那麼(me)充滿 AI 的世界將(jiāng)更加安全。
AI 真正的風險在于:不以最大的力量和速度追求 AI。
與其因爲擔心被(bèi) AI 幹掉、AI 毀滅社會、AI 導緻大規模失業、AI 引發(fā)更多不平等而惶惶不可終日,不如盡我們所能(néng)利用好(hǎo) AI。
我們應該盡可能(néng)快地推動 AI 進(jìn)入我們的經(jīng)濟和社會,以最大限度地提高經(jīng)濟生産力和人類潛能(néng)。
我想提出一個簡單的計劃:
允許大型 AI 公司盡可能(néng)快速和積極地構建 AI,但不允許監管俘獲,不允許建立受政府保護的壟斷聯盟。 最大化 AI 技術給予的回報。
允許 AI 創業公司盡可能(néng)快速和積極地構建 AI。 他們既不應該對(duì)抗政府給予大公司的保護,也不應該接受政府的援助。 他們應該公平競争。 即便這(zhè)些創業公司沒(méi)有成(chéng)功,他們的存在也會不斷刺激大公司,無論哪一方獲勝,受惠的都(dōu)是我們的經(jīng)濟和社會。
允許開(kāi)源 AI 自由發(fā)展,并與大型 AI 公司和初創公司競争。 開(kāi)源不應該有監管障礙。 即便開(kāi)源無法打敗大公司,它們的廣泛傳播對(duì)于世界各地想要學(xué)習如何構建和使用 AI 的人來說都(dōu)是一個福音,而且還(hái)可以确保每個有能(néng)力的人都(dōu)可以使用 AI,無論身份如何,也無論擁有多少财富,他們都(dōu)可以從中受益。
爲了抵消不法分子利用 AI 做壞事(shì)的風險,政府與私營部門應積極參與每個潛在風險領域,利用 AI 最大限度地提高社會的防禦能(néng)力。 AI 可以成(chéng)爲解決問題的強大工具,我們應該擁抱它。
以上就是我們利用 AI 拯救整個世界的方式。
最後(hòu),我想通過(guò)兩(liǎng)段簡單的陳述結束本文。
AI 的發(fā)展始于 20 世紀 40 年代,與計算機的問世出于同一時期。首篇關于神經(jīng)網絡(如今 AI 的架構)的科學(xué)論文發(fā)表于 1943 年。在過(guò)去的 80 年裡(lǐ),整整幾代 AI 科學(xué)家出生、上學(xué)、工作,直到離世,都(dōu)沒(méi)有看到如今我們獲得的回報。他們每一個人都(dōu)是傳奇。
如今,越來越多的工程師都(dōu)在努力讓 AI 成(chéng)爲現實,其中許多人都(dōu)很年輕,可能(néng)他們的祖父母甚至曾祖父母也曾參與 AI 的創建,而散布恐懼和末日的言論將(jiāng)他們描繪成(chéng)了魯莽的惡棍。不相信他們是魯莽的惡棍。他們每一個人都(dōu)是英雄。我和我們公司願意盡可能(néng)多地支持他們,而且我們肯定會百分百支持他們以及他們的工作。
标簽: AI
版權申明:本站文章部分自網絡,如有侵權,請聯系:hezuo@lyzg168.com
特别注意:本站所有轉載文章言論不代表本站觀點,本站所提供的攝影照片,插畫,設計作品,如需使用,請與原作者聯系,版權歸原作者所有
輸入您的聯系信息,我們將(jiāng)盡快和你取得聯系!
Tel:15137991270
企業QQ:210603461
Emile:hezuo@lyzg168.com
地址:洛陽市西工區王城大道(dào)221号富雅東方B座1711室
網站:https://www.lyzg168.com
我們的微信
關注兆光,了解我們的服務與最新資訊。
Copyright © 2018-2019 洛陽霆雲網絡科技有限公司