美國紐約大學(xué)研究人員通過一個(gè)孩子的眼睛和耳朵來訓(xùn)練多模式人工智能(AI)系統(tǒng),使用的數(shù)據(jù)來自孩子6個(gè)月大到兩歲生日期間的頭戴攝像頭的視頻記錄。該模型或神經(jīng)網(wǎng)絡(luò)實(shí)際上可利用孩子經(jīng)歷的有限片段,學(xué)習(xí)大量的單詞和概念。也就是說,視頻只捕捉了孩子大約1%的清醒時(shí)間,但這對于真正的語言學(xué)習(xí)來說已經(jīng)足夠。研究團(tuán)隊(duì)共使用了超過60小時(shí)的視頻素材,包含大約25萬個(gè)單詞實(shí)例。這些單詞實(shí)例與孩子在說出這些單詞時(shí)所看到的視頻幀相關(guān)聯(lián),包括進(jìn)餐、讀書和玩耍等各種不同的活動(dòng)。團(tuán)隊(duì)對模型測試結(jié)果表明,該模型不但能夠?qū)W習(xí)孩子日常經(jīng)歷中存在的大量單詞和概念,還可以將它們概括為視覺實(shí)例,哪怕實(shí)例與模型訓(xùn)練中看到的完全不同。
(摘自《科技日報(bào)》)
點(diǎn)評:上面這則科研成果訊息提示我們,人類的視聽覺器官在人工智能的加持下,可以利用很少的學(xué)習(xí)時(shí)間達(dá)到過去需要花費(fèi)若干倍時(shí)間才能掌握的海量語言。當(dāng)今世界科技創(chuàng)新層出不窮,ChatGPT、AI、云計(jì)算、量子通信、大數(shù)據(jù)等等,都已經(jīng)融入我們的工作、學(xué)習(xí)和生活中,處在這樣一個(gè)耳聞眼見日新月異的時(shí)代,要跟上時(shí)代,不落伍,不做局外人,我們就要與孩子一起不斷學(xué)習(xí)新知,與時(shí)俱進(jìn),從而共享人類發(fā)展進(jìn)步的成果。