12月10日,辛頓在瑞典斯德哥爾摩諾貝爾獎(jiǎng)?lì)C獎(jiǎng)禮發(fā)布演說。 網(wǎng)上圖片

被譽(yù)為「人工智能(AI)教父」的科學(xué)家、2024年諾貝爾物理學(xué)獎(jiǎng)得主辛頓日前表示,他認(rèn)為未來30年內(nèi),AI滅絕人類社會(huì)的幾率是10%至20%。辛頓警告AI的發(fā)展或超出人類控制,呼籲當(dāng)局必須盡快加強(qiáng)監(jiān)管。

辛頓接受英國(guó)廣播公司(BBC)訪問,被問及他預(yù)計(jì)AI末日的幾率是否有變化,辛頓稱「沒有太大變化,介乎10%至20%?!剐令D形容,人類過往從未應(yīng)對(duì)過較人類群體更聰明的事物,「你見過一個(gè)較聰明物種,被一個(gè)較愚鈍的物種控制嗎?這種例子很少。我唯一能想到的就是嬰兒『控制』其母親,人類歷經(jīng)漫長(zhǎng)演化,才讓嬰兒能『控制』母親,但這幾乎是我所知的唯一例子?!?/span>

辛頓去年辭掉在科企Google的職位,希望更自由地討論AI發(fā)展不受控的風(fēng)險(xiǎn)。辛頓認(rèn)為人類與強(qiáng)大的AI系統(tǒng)相比,如同學(xué)步的幼兒,「我喜歡這麼想:想像你自己和一名3歲幼童;我們就是那個(gè)幼童?,F(xiàn)狀是多數(shù)專家認(rèn)為,人們或能在未來20年內(nèi)開發(fā)出較人類更聰明的AI,這是很恐怖的想法?!?/span>

對(duì)於AI的研發(fā)進(jìn)度,辛頓認(rèn)為其遠(yuǎn)超自己的預(yù)期,呼籲當(dāng)局必須介入監(jiān)管,「我擔(dān)心『看不見的手』無法保障我們的安全,只將問題交給大型科企,它們所獲得的利益不足以確保其安全研發(fā)AI,只有政府監(jiān)管才能迫使它們從事更多安全研究?!?/span>