谷歌發(fā)布新版AI系統(tǒng) 圖像配文準(zhǔn)確率高達(dá)93.9%
- 來(lái)源:威鋒網(wǎng)
- 作者:skylark
- 編輯:豆角
近日,谷歌發(fā)布了最新版機(jī)器學(xué)習(xí)系統(tǒng),通過(guò)識(shí)別圖像中的內(nèi)容,配上對(duì)應(yīng)文字,效果達(dá)到了歷史最佳。
谷歌已經(jīng)在 TensorFlow 上開(kāi)源了這項(xiàng)成果。自 2014 年以來(lái),谷歌一直致力于這個(gè)項(xiàng)目,現(xiàn)在這個(gè)算法描述圖像的準(zhǔn)確率已經(jīng)高達(dá) 93.9% 。因?yàn)樗麄冋谑褂靡粋€(gè)使用一個(gè)開(kāi)始架構(gòu)的最新的迭代,所以對(duì)于谷歌團(tuán)隊(duì)來(lái)說(shuō),有個(gè)大問(wèn)題是該算法是否可以做的比簡(jiǎn)單識(shí)別圖像中的對(duì)象更多。
要真正解釋和描述一張照片,人工智能不僅需要了解圖片中是什么,更要了解圖像中這些對(duì)象有什么相互關(guān)系。谷歌的開(kāi)發(fā)人員表示這不只是一個(gè)數(shù)據(jù)的倒推。該算法必須能夠自然地理解圖像中的對(duì)象和它們的用途。
谷歌研究的博客發(fā)文說(shuō):“令人興奮的是,在展示全新情境時(shí),我們的模型的確可以產(chǎn)生準(zhǔn)確的配文,這顯示出系統(tǒng)對(duì)圖像中目標(biāo)和背景的理解更深了。”同樣重要的是,“它還學(xué)會(huì)了如何表示知識(shí)在自然的英語(yǔ)短語(yǔ),盡管它只讀了人類(lèi)給的說(shuō)明字幕,沒(méi)有在接受其他額外的訓(xùn)練。”
至少?gòu)哪壳皝?lái)說(shuō),相對(duì)于視頻,機(jī)器學(xué)習(xí)算法能更好地理解靜止圖像的內(nèi)容。
玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門(mén)評(píng)論
全部評(píng)論