智譜AI與清華KEG合作,發表了名為CogVLM-17B的開源多模態大模型

WBOY
發布: 2023-10-12 11:41:01
轉載
1146 人瀏覽過

鞭牛士 10月12日消息,近日,智譜AI&清華KEG於魔搭社群發布並直接開源了多模態大模型-CogVLM-17B。據悉,CogVLM是一個強大的開源視覺語言模型,利用視覺專家模組深度整合語言編碼和視覺編碼,在14項權威跨模態基準上取得了SOTA效能。

智譜AI與清華KEG合作,發表了名為CogVLM-17B的開源多模態大模型

CogVLM-17B是目前多模態權威學術榜單上綜合成績第一的模型,在14個資料集上取得了最先進的或是第二名的成績。 CogVLM的效果取決於「視覺優先」的思想,即在多模態模型中將視覺理解放在更優先的位置。它使用了5B參數的視覺編碼器和6B參數的視覺專家模組,總共有11B參數來建模影像特徵,甚至比文字的7B參數還要多

以上是智譜AI與清華KEG合作,發表了名為CogVLM-17B的開源多模態大模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:sohu.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!