阿里云通义开源首个多模态推理模型QVQ 视觉推理比肩OpenAI o1
12月25日,阿里云通义千问发布业界首个开源多模态推理模型QVQ-72B-Preview。QVQ展现出超预期的视觉理解和推理能力,在解决数学、物理、科学等领域的复杂推理问题上表现尤为突出。多项评测数据显示,QVQ超越了此前的视觉理解模型「开源王者」Qwen2-VL,整体表现与「满血版」OpenAI o1、Claude3.5 Sonnet等推理模型相当。目前,开发者可在魔搭社区和HuggingFace平台上直接体验。
人类的推理能力植根于语言思维和视觉记忆中,正因此,利用视觉理解增强大模型推理能力,成为AI技术的前沿探索之一。一个月前,通义发布AI推理模型QwQ-32B-Preview,即斩获SuperCLUE的AI推理模型榜单「全球开源冠军」;如今,通义团队在Qwen2-VL-72B开源模型基础上,研发出多模态推理模型QVQ-72B-Preview,可实现更仔细的逐步推理,视觉推理能力也显著进步,在解决复杂问题时表现惊艳。
在考察模型视觉理解及推理的MMMU评测中,QVQ取得了70.3分,水平已达大学级别;在聚焦数学的视觉推理测试MathVista中,QVQ得分超过OpenAI o1,印证了其强大的图形推理能力;在更具多样性和学科广度的MathVison评测中,QVQ表现超越Claude3.5及GPT4o,说明QVQ更擅长解决真实数学问题;在奥赛级别的OlympiadBench基准测试中,QVQ也展现了出色的视觉推理能力。
QVQ是一个会基于视觉进行深度思考推理的大模型。QVQ不但能感知更准确的视觉内容,并据此作出更细致的分析推理,还会质疑自身假设,仔细审视其推理过程的每一步,经过深思熟虑后给出最后结论。QVQ可以轻松识别“梗图”内涵;看真实照片可合理推断出物体个数及高度等信息;在面对数学、物理、化学等各科学领域难题,QVQ能像人甚至科学家一样,给出思考过程和准确答案。
目前,QVQ-72B-Preview已在魔搭社区和HuggingFace等平台上开源,开发者可上手体验。据了解,一个月前开源的推理模型QwQ受到全球开发者热捧,一发布就登上HuggingFace模型趋势榜榜首。截至目前,通义千问Qwen的衍生模型数突破7.8万个,已超越Llama成为全球规模最大的AI模型群。
免责声明:本文章由会员“极目新闻”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系