一款名為Vary-toy的「年輕人的第一個多模態大模型」來了!
模型大小不到2B,消費級顯示卡可訓練,GTX1080ti 8G的老顯示卡輕鬆運作。
想將一份文件圖片轉換成Markdown格式?以往需要文字辨識、版面偵測與排序、公式表格處理、文字清洗等多個步驟。
現在只需一句話指令:
無論中英文,圖片中的大段文字都能分分鐘擷取出來:
對一張圖做物件偵測,還是能給出具體座標的那種:
(大型視覺語言模型)主流研究中的所有能力:文檔OCR識別(Document OCR )、視覺定位(Visual Grounding)、圖像描述(Image Caption)、視覺問答(VQA)。
舊·GTX1080,心情belike:
1.2k star,但也有不少人因為資源受限運作不了。
考慮到目前開源得很好且性能出色的「小」VLM比較少,於是該團隊又新發布了號稱是「年輕人的第一個多模大模型」的Vary-toy。 與Vary相比,Vary-toy除了小之外,也訓練了更強的視覺詞表,新的詞表不再將模型局限於文檔級OCR,而是給出了一個更通用和全面的視覺詞表,其不僅能做文檔級OCR,還能做通用視覺目標檢測。
那這究竟是如何做到的呢? Vary-toy的模型結構和訓練流程如下圖所示,總的來說,訓練共分兩個階段。Vary-toy在DocVQA可以達到65.6%的ANLS,在ChartQA上達到59.1%的準確率,RefCOCO88.1%的準確率:
#MMVet上可以達到29%準確率,無論是從基準測試評分還是可視化效果上,不到2B的Vary-toy甚至能和一些流行的7B模型的性能一較高下。
專案連結:
[1]https://arxiv.org/abs/2401.12503
[3] https://varytoy.github.io/
以上是開源線上的年輕人首選多模態大模型:輕鬆運行1080Ti的詳細內容。更多資訊請關注PHP中文網其他相關文章!