火鷹視角
關(guān)注互聯(lián)網(wǎng),關(guān)注技術(shù)開(kāi)發(fā),透析與分享移動(dòng)互聯(lián)網(wǎng)行業(yè)最新動(dòng)態(tài)未來(lái)科技黑暗面?AI創(chuàng )始人聲援:別盲目推廣開(kāi)源大型語(yǔ)言模型!
時(shí)間:時(shí)間: 2023-06-06 14:29:30 閱讀: 次 分類(lèi):APP開(kāi)發(fā)然而,Hinton教授卻表達了對于不斷發(fā)展擴大的大型語(yǔ)言模型所帶來(lái)的問(wèn)題與擔憂(yōu)。最近他辭去了谷歌的職位,并在劍橋大學(xué)生存風(fēng)險研究中心發(fā)表了深入的演講。他指出:“開(kāi)源大型語(yǔ)言模型的危險在于,它使得更多的瘋子可以利用AI實(shí)現他們所想要的目標?!边@對于整個(gè)社會(huì )來(lái)說(shuō),都是一種巨大的挑戰。
Hinton教授提出了一個(gè)有趣的想法:把大型語(yǔ)言模型“關(guān)進(jìn)籠子”,可能是更有益的。他認為,讓這些AI技術(shù)繼續局限在像OpenAI等公司的實(shí)驗室內開(kāi)發(fā),最終可能會(huì )證明對我們至關(guān)重要。
他指出:“如果這些AI技術(shù)是危險的,那么最好由幾個(gè)不同國家的幾家大公司來(lái)開(kāi)發(fā),同時(shí)找到控制它的方法。一旦開(kāi)源了代碼,有些人就會(huì )開(kāi)始用它做各種瘋狂的事情?!?Hinton強調,“這些AI系統將變得比我們更聰明,而這一時(shí)刻可能很快就會(huì )到來(lái)。如果超級智能AI能夠在未來(lái)5到20年內實(shí)現,我們不能讓哲學(xué)家來(lái)決定該怎么做,而是需要有實(shí)踐經(jīng)驗的人員來(lái)說(shuō)決定?!?/span>
他補充道:“我認為最好的辦法是,AI開(kāi)發(fā)商必須在開(kāi)發(fā)AI模型時(shí)投入大量人力和資源來(lái)檢查它們的安全性。我們需要獲得這些方面的經(jīng)驗,了解它們可能會(huì )如何失控,以及如何控制它們?!?/span>
Hinton曾供職于谷歌旗下的DeepMind AI實(shí)驗室,該實(shí)驗室日前表示已經(jīng)開(kāi)發(fā)出了一個(gè)早期預警系統,可以發(fā)現AI帶來(lái)的潛在風(fēng)險。這些進(jìn)步展示了我們不僅可以控制AI技術(shù)的發(fā)展,而且也可以在其成為威脅之前就能夠意識到其中的潛在風(fēng)險。
Hinton教授提出了一個(gè)引人入勝的想法:將大型語(yǔ)言模型“關(guān)進(jìn)籠子”或許是更有益的。他認為,讓這些AI技術(shù)繼續局限在OpenAI等公司的實(shí)驗室內開(kāi)發(fā),可能最終證明對我們至關(guān)重要。
他強調:“如果這些AI技術(shù)是危險的,那么最好由幾個(gè)不同國家的大型企業(yè)來(lái)分別進(jìn)行開(kāi)發(fā),并同時(shí)找到控制方法。一旦代碼被公開(kāi),就會(huì )有某些人開(kāi)始利用它們完成各種瘋狂的事情?!?Hinton認為,“這些AI系統將變得比我們更聰明,而這一時(shí)刻也許很快就會(huì )到來(lái)。如果超級智能AI能夠在未來(lái)5到20年內實(shí)現,我們不能讓哲學(xué)家來(lái)決定該怎么做,而是需要有實(shí)踐經(jīng)驗的人員來(lái)做決策?!?/span>
他補充道:“我認為最好的辦法是,在開(kāi)發(fā)大型語(yǔ)言模型時(shí),AI開(kāi)發(fā)商必須投入大量人力和資源來(lái)檢查它們的安全性。我們需要獲得這方面的經(jīng)驗,以了解它們可能如何失控,及如何控制它們?!?/span>
Hinton曾供職于谷歌旗下的DeepMind AI實(shí)驗室,該實(shí)驗室近日表示已經(jīng)開(kāi)發(fā)出了一個(gè)早期預警系統,可以發(fā)現AI帶來(lái)的潛在風(fēng)險。這些進(jìn)展表明,我們不僅可以控制AI技術(shù)的發(fā)展,而且也能夠在其成為威脅之前就意識到其中的潛在風(fēng)險。
網(wǎng)易科技訊 6月28日消息,據臺灣媒體報道,鴻海精密近日在股東大會(huì )上展示了其研發(fā)的一...