首頁 / 新聞 / 75歲圖靈獎得主Hinton離職谷歌:痛悔畢生工作,無法阻止人類AI大戰

75歲圖靈獎得主Hinton離職谷歌:痛悔畢生工作,無法阻止人類AI大戰

作者: 兆光科技 發(fā)布時間: 2024/08/09 點擊: 7968次

一覺醒來,整個科技圈驚掉了下巴!!! 

深度學(xué)習泰鬥、神經(jīng)網絡之父Geoffrey Hinton突然宣布離職谷歌。 

爲了能(néng)夠自由談論人工智能(néng)風險,而不考慮這(zhè)對(duì)谷歌的影響。 

紐約時報的報道(dào)中,Hinton直接警示世人:注意,前方有危險,前方有危險,前方有危險! 

而正是對(duì)人工智能(néng)風險深深地擔憂,讓這(zhè)位深度學(xué)習巨佬直言:「我對(duì)自己的畢生工作,感到非常後(hòu)悔。」 

如今,距離Hinton入職谷歌,剛好(hǎo)十年。 

對(duì)于Hinton此舉,有人甚至勸說,應該將(jiāng)關注人工智能(néng)安全常态化,而不必辭去工作。 

這(zhè)更應該是你留下來的理由。因爲世界是不會停止的,像你這(zhè)樣(yàng)的偉大人物應該堅持下去,并將(jiāng)人工智能(néng)發(fā)展的更好(hǎo)。 

你應該勸說你的學(xué)生Yann LeCun和Ilya Sutskever。 

值得一提的是,ChatGPT背後(hòu)真正的英雄正是OpenAI的聯合創始人兼首席科學(xué)家Ilya。 

AI「關鍵時刻」,人類控制不住了

被(bèi)稱爲「人工智能(néng)教父」的Geoffrey Hinton,一直都(dōu)是該領域最受尊敬的先驅之一。 

今年3月末,萬名大佬簽字發(fā)出聯名信,呼籲暫停訓練比GPT-4更強大的AI六個月。 

圖靈三巨頭中,Bengio高調簽名、LeCun旗幟鮮明地反對(duì),唯有Hinton一言不發(fā),耐人尋味地保持沉默。 

而Hinton提出離職的時間,正是在此之後(hòu)的4月份。 

從他的推特上可以看出,無論是最近GPT-4等超強AI引發(fā)的巨大争議,還(hái)是谷歌高層的劇烈動蕩,Hinton都(dōu)始終保持緘默,不發(fā)一言。 

許多人關注著(zhe)這(zhè)位人工智能(néng)教父的态度。 

在CBS的一次采訪中,Hinton表示「我們幾乎已經(jīng)讓學(xué)會計算機如何自我改進(jìn)了,這(zhè)很危險,我們必須認真考慮,如何控制它。」 

從人工智能(néng)的開(kāi)創者到末日預言者,Hinton的轉變,也标志著(zhe)科技行業正處于幾十年來最重要的一個拐點。 

先驅的沉痛反思,讓我們終于不能(néng)再掩耳盜鈴,假裝沒(méi)有看見AI可能(néng)給人類社會引發(fā)的深刻改變和巨大危機了。 

蓋茨等許多大佬認爲,ChatGPT可能(néng)與上世紀90年代初網絡浏覽器一樣(yàng)重要,并可能(néng)在藥物研究、教育等領域帶來突破。 

與此同時,令許多業内人士不安的是,他們擔心自己所做的研究,正在向(xiàng)外釋放某種(zhǒng)危險。 

因爲生成(chéng)式人工智能(néng)可能(néng)已經(jīng)成(chéng)爲産生錯誤信息的工具。并在未來的某個時候,可能(néng)會對(duì)人類構成(chéng)威脅。 

在Hinton看來,如何防止壞人利用它做壞事(shì),我們還(hái)未能(néng)找到方法。 

在3月底呼籲暫停超強AI六個月的公開(kāi)信發(fā)出幾天後(hòu),人工智能(néng)促進(jìn)協會的19位領導人也發(fā)布了公開(kāi)信,警告AI的風險。 

其中就包括微軟的首席科學(xué)官Eric Horvitz,而微軟已在一系列産品中(包括Bing搜索引擎中)部署了OpenAI的GPT技術。 

在喧嚣的反對(duì)浪潮中,人工智能(néng)教父Hinton卻并未在這(zhè)兩(liǎng)封信上簽名。 

他說,自己在辭去工作之前,并不想公開(kāi)批評谷歌,或其他公司。 

忍到上個月,Hinton終于下定決心,通知谷歌自己即將(jiāng)辭職。 

選擇離職谷歌後(hòu),Hinton終于可以暢所欲言地談論AI的風險了。

我對(duì)我的畢生工作,感到十分後(hòu)悔。

我隻能(néng)這(zhè)樣(yàng)安慰自己:即使沒(méi)有我,也會有别人。

上周四,他與谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了電話,但他表示不便透露此次談話的細節。 

作爲一家大公司,谷歌對(duì)于AI的态度一向(xiàng)保守,甚至保守到,眼睜睜看著(zhe)自己在聊天AI機器人之戰中被(bèi)甩在後(hòu)面(miàn)。 

早在2015年,谷歌的圖像識别AI曾將(jiāng)黑人标記爲「大猩猩」,招緻的批評讓谷歌成(chéng)爲驚弓之鳥。 

在OpenAI推出Dall-E 2、名震全球之前,谷歌就有類似模型,但并沒(méi)有發(fā)布,因爲谷歌認爲需要對(duì)AI生成(chéng)的内容負責。 

而早在2021年,谷歌就已有了類似ChatGPT的LaMDA聊天機器人,但谷歌始終未發(fā)布。直到2022年11月底,OpenAI憑ChatGPT占盡風頭。 

如今,谷歌首席科學(xué)家Jeff Dean在一份聲明中表示:「我們仍然緻力于對(duì)人工智能(néng)采取負責任的态度,我們正在不斷學(xué)習了解新出現的風險,同時也在大膽創新。」 

開(kāi)啓了曆史,也見證了曆史

1972年,Hinton在愛丁堡大學(xué)開(kāi)始了他的研究生生涯。 

在那裡(lǐ),他首次開(kāi)始研究神經(jīng)網絡——一種(zhǒng)通過(guò)分析數據來學(xué)習技能(néng)的數學(xué)系統。 

當時,很少有研究人員相信這(zhè)個觀點。但這(zhè)成(chéng)了他畢生的心血。 

2012年,Hinton和他兩(liǎng)名學(xué)生Ilya Sutskever和Alex Krishevsky建立了一個神經(jīng)網絡,可以分析數千張照片,并自學(xué)識别花、狗和汽車等常見物體。 

神經(jīng)網絡成(chéng)爲他與兩(liǎng)名學(xué)生共同創建的公司DNNresearch背後(hòu)的突破性概念,該公司最終在2013年被(bèi)谷以4400萬美元收購。 

2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起(qǐ)因對(duì)神經(jīng)網絡的研究獲得了2018年的圖靈獎,而神經(jīng)網絡正是ChatGPT、Bard等聊天機器人背後(hòu)的奠基性技術。 

而Hinton的學(xué)生Ilya Sutskever,也在後(hòu)來成(chéng)爲OpenAI首席科學(xué)家。 

大約在同一時間,谷歌、 OpenAI和其他科技公司開(kāi)始構建從大量數字文本中學(xué)習的神經(jīng)網絡。 

那時的Hinton認爲,這(zhè)是機器理解和産生語言的一種(zhǒng)強大方式。當然不得不承認,比起(qǐ)人類處理語言的方式沒(méi),神經(jīng)網絡還(hái)是力不能(néng)及。 

2022年,随著(zhe)谷歌和OpenAI 利用大量數據構建超強AI。 

Hinton的觀點發(fā)生了重大轉變。他仍然認爲這(zhè)些系統在某些方面(miàn)不如人類的大腦,但它們在其他方面(miàn)正在超越人類的智力。 

GPT-4發(fā)布當天,Hinton曾表示, 

毛蟲吸取了營養之後(hòu),就會化繭爲蝶。而人類提取了數十億個理解的金塊,GPT-4,就是人類的蝴蝶。 

Hinton稱贊的背後(hòu),讓許多人看到超強人工智能(néng)系統的智力已經(jīng)非同尋常。 

對(duì)此,Hinton談到人工智能(néng)技術時表示,随著(zhe)科技公司改進(jìn)人工智能(néng)系統,它們變得越來越危險。 

看看五年前和現在的情況,如果還(hái)要繼續傳播這(zhè)項技術,後(hòu)果就太可怕了! 

在谷歌十年生涯中,Hinton一直看好(hǎo)谷歌在人工智能(néng)技術上謹慎的态度。 

他表示,直到去年,谷歌一直扮演著(zhe)這(zhè)項技術的「合适管家」角色,謹小慎微地不去發(fā)布可能(néng)造成(chéng)危險的AI。 

這(zhè)恰恰解釋了,爲啥谷歌在這(zhè)波人工智能(néng)浪潮中落後(hòu)的原因。 

但是現在,微軟爲其必應搜索引擎接入GPT-4的能(néng)力,已經(jīng)讓谷歌焦急地不得不做點什麼(me)。 

Hinton稱,科技巨頭們正在進(jìn)行一場可能(néng)無法阻止的競争。 

他眼下擔心的是,互聯網上將(jiāng)充斥著(zhe)虛假的照片、視頻和文本,人們也無法去辨别什麼(me)是真實的,什麼(me)是虛假的内容。 

他甚至還(hái)擔心,人工智能(néng)技術遲早會颠覆就業市場。 

如今,像ChatGPT這(zhè)樣(yàng)的聊天機器人往往能(néng)很好(hǎo)地輔助人類工作,甚至取代律師助理、私人助理、翻譯、以及其他處理死記硬背任務的人。 

未來,他表示自己很擔憂,GPT-4叠代會對(duì)人類構成(chéng)威脅,強AI從大量數據中能(néng)夠學(xué)到意想不到的行爲。 

人工智能(néng)系統不僅可以生成(chéng)代碼,而且自己運行代碼。前段時間爆火的Auto-GPT就是一個非常典型的例子。 

他擔心有一天真正的自主武器ーー那些殺人機器人ーー會成(chéng)爲現實。 

上世紀80年代,Hinton曾是卡内基梅隆大學(xué)的計算機科學(xué)教授,但因爲不願接受五角大樓的資助,他選擇了離開(kāi)CMU,前往加拿大。當時,Hinton強烈反對(duì)在戰場上使用AI,他將(jiāng)其稱爲「機器人士兵」。 

在一些人看來,類似的系統實際上比人類更聰明。Hinton表示自己曾經(jīng)認爲,這(zhè)太離譜了,最起(qǐ)碼要30-50年,甚至更久才能(néng)實現。 

而現在,我不再那麼(me)想了。 

許多其他專家,包括Hinton的許多學(xué)生和同事(shì),說這(zhè)種(zhǒng)威脅還(hái)僅是一種(zhǒng)假設。 

他指出,谷歌和微軟,以及其他公司之間的競争,將(jiāng)升級爲一場全球性競賽。如果沒(méi)有某種(zhǒng)全球性的監管,這(zhè)場競賽將(jiāng)不會停止!

但他表示,這(zhè)也不是絕對(duì)的。與核武器不同,我們無法知道(dào)哪個公司或國(guó)家,是否在秘密研究這(zhè)項技術。 

網友熱議

有網友認爲,Hinton對(duì)于的AI的看法太悲觀了。 

我見過(guò)的ChatGPT積極應用案例遠多于消極的,但現在的趨勢是把AI描繪成(chéng)邪惡的煉金術。這(zhè)些擔憂是合理的,我們會學(xué)習,我們會糾正它,然後(hòu)我們會繼續前進(jìn)。 

甚至有網友將(jiāng)其比爲天網,但我們還(hái)不能(néng)將(jiāng)其關閉。「人工智能(néng)就像潘多拉的魔盒一樣(yàng),一旦打開(kāi)就無法關閉。」 

還(hái)有人對(duì)谷歌「負責任」這(zhè)一觀點提出異議: 

-使用Breitbart訓練AI模型;-讓負面(miàn)信息在YouTube上大肆傳播(反過(guò)來又爲推薦算法提供依據);-散布有關安全和隐私的科學(xué)假信息;-開(kāi)除專家 

谷歌大腦和DeepMind合并這(zhè)一事(shì),與此相關嗎? 

還(hái)有網友發(fā)出疑問,連Hinton都(dōu)離職了,下一個會是?


标簽: AI

版權申明:本站文章部分自網絡,如有侵權,請聯系:hezuo@lyzg168.com

特别注意:本站所有轉載文章言論不代表本站觀點,本站所提供的攝影照片,插畫,設計作品,如需使用,請與原作者聯系,版權歸原作者所有

聯系我們

輸入您的聯系信息,我們將(jiāng)盡快和你取得聯系!

洛陽霆雲網絡科技有限公司

Tel:15137991270

企業QQ:210603461

Emile:hezuo@lyzg168.com

地址:洛陽市西工區王城大道(dào)221号富雅東方B座1711室

網站:https://www.lyzg168.com

洛陽app開(kāi)發(fā),洛陽app開(kāi)發(fā)公司,洛陽手機軟件開(kāi)發(fā),蘋果保上架,洛陽網站開(kāi)發(fā),洛陽網站制作,洛陽微信定制開(kāi)發(fā)

我們的微信

關注兆光,了解我們的服務與最新資訊。

Copyright © ​2018-2019 洛陽霆雲網絡科技有限公司