(資料圖片)
鳳凰網(wǎng)科技訊《AI前哨》北京時間7月6日消息,ChatGPT開發(fā)商OpenAI周三宣布,公司計劃投入大量資源,并組建一支新的研究團隊,以確保其人工智能(AI)對人類是安全的,最終實現(xiàn)AI的自我監(jiān)督。
OpenAI聯(lián)合創(chuàng)始人伊利亞蘇斯克維爾(Ilya Sutskever)和AI一致性問題主管簡萊克(Jan Leike)周三在一篇博客文章中寫道:“超級智能的巨大力量可能……導(dǎo)致人類被剝奪權(quán)力,甚至人類滅絕。目前,我們還沒有一個解決方案來操控或控制一個潛在的超智能AI,并防止它不受控制。”AI一致性(alignment)指的是AI的行為符合設(shè)計者的利益和預(yù)期目標(biāo)。
他們在博文中預(yù)測,比人類更聰明的超智能AI可能在這個十年(2030年前)就javascript會到來,人類將需要比目前更好的技術(shù)來控制超智能AI,因此需要在所謂的“一致性研究”方面取得突破。“一致性研究”的重點是確保AI對人類有益。
OpenAI發(fā)表的防AI失控博文
OpenAI承諾,將拿出未來四年所獲算力的20%用于解決AI失控的問題。此外,該公司正在組建一個新的團隊來組織這項工作,并將其稱之為超級一致性團隊。該團隊的目標(biāo)是創(chuàng)建一個“人類水平”的AI研究人員,然后借助大量算力擴大這項努力。OpenAI表示,這意味著他們將使用人類反饋信息來訓(xùn)練AI系統(tǒng),訓(xùn)練AI系統(tǒng)來輔助人類評估,然后最終訓(xùn)練AI系統(tǒng)開展一致性研究。
不過,AI安全擁護(hù)者康納萊希(Connor Leahy)表示,OpenAI的計劃從根本上存在缺陷,因為可達(dá)到“人類水平”的初級版AI可能會在被用于解決AI安全問題之前失控并造成嚴(yán)重破壞。“在構(gòu)建人類水平的智能之前,你必須先解決一致性問題,否則你無法控制它,這是可以默認(rèn)的。我個人認(rèn)為這不是一個特別好或安全的計劃。”萊希表示。
另外,分析公司Similarweb的數(shù)據(jù)顯示,在去年11月推出編程客棧便火爆全球后,ChatGPT網(wǎng)站的月度流量和獨立訪客數(shù)量在今年6月份首次出現(xiàn)下降。Similarweb稱,ChatGPT網(wǎng)站的全球桌面和移動流量在6月份環(huán)比下降了9.7%,獨立訪客數(shù)量環(huán)比下降了5.7%,訪客在該網(wǎng)站上停留的時間也下降了8.5%。鳳凰網(wǎng)科技《AI前哨》對此將持續(xù)關(guān)注。





