(資料圖片)
7月6日,在2023世界人工智能大會開幕式上,2018年圖靈獎得主、Meta AI基礎(chǔ)人工智能研究院團(tuán)隊首席人工智能科學(xué)家楊立昆(Yann LeCun)表示,不喜歡AGI(通用人工智能)這個名詞。
他解釋稱,每一個智能都是專項的,人類智能也是非常專業(yè)、專項的,但LLM(大語言模型)只基于文本訓(xùn)練,不是利用視頻訓(xùn)練,因此它們不理解物理世界,沒辦法規(guī)劃、推理,就沒辦法實現(xiàn)目標(biāo)。
在近期關(guān)于AGI的辯論中,楊立昆多次表示,類ChatGPT產(chǎn)品并不能真正理解現(xiàn)實世界,更無從談起實現(xiàn)人類智慧。
楊立昆認(rèn)為,現(xiàn)在還沒有一個足夠智能的系統(tǒng)來處理各種事情,所以人工智能系統(tǒng)需要一個世界模型(World Model),這個模型主要通過觀察來訓(xùn)練,并通過少量交互處理不確定性。這個世界模型就像人類理解世界的方式一樣,通過物理直覺等方式了解世界的一切,對于未來10年的人工智能研究來說,這是個巨大挑戰(zhàn)。
對于如何實現(xiàn)AI的治理和規(guī)范,楊立昆認(rèn)為,可以通過可控的方法、設(shè)置安全護(hù)欄等使它們不會出現(xiàn)欺騙和支配人們的行為。
楊立昆最后表示,他完全不同意“因為任何人可用人工智能做任何事,情況可能會非常危險,所以需要嚴(yán)格監(jiān)管人工智能”的說法。
他認(rèn)為,嚴(yán)格監(jiān)管人工智能發(fā)展并不能保證AI安全,從長遠(yuǎn)來看,讓人工智能平臺安全、良善、實用的唯一方法就是開源。未來每個人都能通過人工智能助手和數(shù)字世界溝通。如果人工智能只被少數(shù)人控制,這是不可以的。