Meta推出由AI驅動的SAM模型 可以識別圖片/視頻中的任何對象并分離 – 藍點網
最近 OPENAI 和微軟以及谷歌在 AI 領域都比較火,推出圖片作為科技巨頭之一的動的對象點網 Meta 也沒閑著,今天 Meta AI 開源了一款名為 Segment Anything Model 的識別視頻成都外圍上門外圍女(電話微信156-8194-*7106)提供頂級外圍女上門,可滿足你的一切要求模型,該模型由 AI 驅動,任何經過 1100 萬張圖片和 11 億個標記后訓練而成,并分可以廣泛識別圖片或視頻中的離藍任何對象,并分離出來。推出圖片
Segment Anything 直譯過來就是動的對象點網細分任何東西,如果只是識別視頻把 SAM 模型當做摳圖工具那可能大材小用了,從演示來看 Meta 的任何成都外圍上門外圍女(電話微信156-8194-*7106)提供頂級外圍女上門,可滿足你的一切要求這個模型非常強大,可以結合其他應用一起使用,并分比如在機器人里實時識別畫面中的離藍對象,然后再分析圖片識別具體內容。推出圖片

這個新 AI 模型看起來還是非常強大的,不過 Meta 暫時還沒介紹研究這個 AI 模型的識別視頻用途,在論文里 Meta AI 稱這是促進對計算機視覺基礎模型的研究。
按藍點網猜測估計 Meta AI 還在研究圖片識別的其他內容,SAM 負責將對象從圖片或視頻幀里分離,其他 AI 模型可以識別對象的內容,這樣確實符合 Meta AI 所說的促進計算機視覺基礎。
考慮到現在 AI 的發展速度,估計未來這種分離對象的技術,也會被廣泛使用。
Meta AI 上線了一個 demo 網站可以供用戶測試:https://segment-anything.com/
目前 Meta AI 提供了三個模型,一個 2.4GB,一個 1.2GB,另一個 358MB,開發者在本地部署的時候可以用得上這些模型。
如果你想在本地部署,請按照以下方法操作:https://github.com/facebookresearch/segment-anything
論文地址:https://arxiv.org/abs/2304.02643