20:21 何英煒、楊日興/台北報導

阿里雲推出兩款大規模視覺語言模型 具中英圖文識別能力

阿里雲28日宣布推出兩款大規模視覺語言模型Qwen-VL及Qwen-VL-Chat,支持中英文圖文輸入,並具備多模態訊息理解能力,目前已在其開源社區魔搭(ModelScope)及AI協作平台Hugging Face上架,促進開源生態發展。

Qwen-VL和Qwen-VL-Chat是支持中英文語言的視覺語言模型,以阿里雲之前開源的通義千問70億參數模型Qwen-7B為基礎語言模型研發,除具備中英文圖文識別、描述和問答對話能力,更新增視覺定位和圖像文字理解能力。

Qwen-VL及基於這一模型微調的對話模型Qwen-VL-Chat可用於知識問答、圖像標題生成、圖像問答、文件問答、細粒度視覺定位等多種場景。例如用戶可拍下醫院樓層導覽圖,問Qwen-VL Chat「外科在哪層?」、「耳鼻喉科去哪層?」,Qwen-VL會根據圖片訊息給出文字回覆。

為進一步助力AI技術普惠,全球學術、研究及商業機構均可免費獲取上述模型的代碼、模型權重和文件。對於商業應用需求,月活躍用戶少於1億的公司可免費使用模型,用戶數超過該量級的企業可向阿里雲申請許可證。

阿里雲在8月初時開源通義千問70億參數通用模型Qwen-7B和對話模型Qwen-7B-Chat。不到一個月,兩個模型在開源社區的累計下載量已突破40萬。

你可能還喜歡