Qwen3-Embedding-0.6B
https://huggingface.co/Qwen/Qwen3-Embedding-0.6B
遇见 Qwen3-VL—— 迄今为止 Qwen 系列中最强大的视觉语言模型。
这一代产品实现了全方位的全面升级:卓越的文本理解与生成能力,更深层的视知觉与推理,延长的上下文处理长度,增强的空间与视频动态理解,以及更强大的智能体交互功能。
提供密集型和 MoE 架构,支持从边缘到云的扩展,并配备增强推理的 Instruct 与 Thinking 版本,实现灵活按需部署。
关键增强功能:
视觉代理:操作 PC / 移动设备的图形用户界面 —— 识别元素,理解功能,调用工具,完成任务。
视觉编码增强:从图像 / 视频生成 Draw.io/HTML/CSS/JS。
高级空间感知:判断物体位置、视角及遮挡情况;提供更强大的二维基础,并为空间推理和具身 AI 实现三维基础。
长文本与视频理解:原生支持 256K 上下文,可扩展至 1M;处理书籍及数小时视频,具备完整记忆与二级索引能力。
增强型多模态推理:在 STEM / 数学领域表现出色,擅长因果分析及提供逻辑严密、基于证据的解答。
升级视觉识别:通过更广泛、更高质量的预训练,能够 “识别一切”—— 名人、动漫、产品、地标、动植物等。
扩展 OCR 功能:支持 32 种语言(之前为 19 种);在低光、模糊和倾斜条件下表现更佳;对稀有 / 古代字符及专业术语处理更优;长文档结构解析能力增强。
文本理解媲美纯 LLM:无缝融合文本与视觉,实现无损统一的理解。
模型架构更新:
Interleaved-MRoPE:通过稳健的位置嵌入,在时间、宽度和高度维度上实现全频段分配,从而增强长时视频推理能力。
DeepStack:融合多层次 ViT 特征,捕捉细微细节,强化图像与文本的对齐精度。
文本 - 时间戳对齐:超越 T-RoPE,实现精确的、基于时间戳的事件定位,以加强视频时序建模。
模型性能
多模态性能

纯文本性能
快速入门
以下,我们提供简单示例,展示如何通过🤖 ModelScope 和🤗 Transformers 使用 Qwen3-VL。
Qwen3-VL 的代码已包含在最新版的 Hugging Face Transformers 中,建议您使用以下命令从源码构建:
pip install git+https://github.com/huggingface/transformers
# pip install transformers==4.57.0 # currently, V4.57.0 is not released使用🤗 Transformers 进行聊天
此处展示一段代码片段,演示如何结合 transformers 使用聊天模型:
from transformers import Qwen3VLForConditionalGeneration, AutoProcessor
# default: Load the model on the available device(s)
model = Qwen3VLForConditionalGeneration.from_pretrained(
"Qwen/Qwen3-VL-4B-Thinking", dtype="auto", device_map="auto"
)
# We recommend enabling flash_attention_2 for better acceleration and memory saving, especially in multi-image and video scenarios.
# model = Qwen3VLForConditionalGeneration.from_pretrained(
# "Qwen/Qwen3-VL-4B-Thinking",
# dtype=torch.bfloat16,
# attn_implementation="flash_attention_2",
# device_map="auto",
# )
processor = AutoProcessor.from_pretrained("Qwen/Qwen3-VL-4B-Thinking")
messages = [
{
"role": "user",
"content": [
{
"type": "image",
"image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg",
},
{"type": "text", "text": "Describe this image."},
],
}
]
# Preparation for inference
inputs = processor.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_dict=True,
return_tensors="pt"
)
inputs = inputs.to(model.device)
# Inference: Generation of the output
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)最后编辑:Jeebiz 更新时间:2025-10-23 17:52