A-vision
					Collection
				
A-vision models based on Qwen visual language models
					• 
				1 item
				• 
				Updated
					
				•
					
					2
A-Vision — Visual-Language модель, адаптированная под русский язык и домен Авито. Она понимает изображение и текст вместе: описывает фото, отвечает на вопросы по картинке, сверяет соответствие описания и фото, извлекает бренды/надписи/произвольный текст (OCR).
| Метрика | Qwen2.5-VL-7B-Instruct | A-Vision | 
|---|---|---|
| AvitoImageGen_RU | 0.7259 | 0.7668 | 
| MMMU_EN | 0.543 | 0.489 | 
| MMMU_RU | 0.469 | 0.474 | 
| RealWorldQA_EN | 0.673 | 0.693 | 
| RealWorldQA_RU | 0.647 | 0.652 | 
| OCRBench_EN | 878 | 834 | 
| OCRVQA_EN | 77.506 | 74.4098 | 
| ChartQA_EN | 86.44 | 86 | 
| DocVQA_EN | 94.7458 | 94.9702 | 
В токенизаторе A-vision плотность токенизации выше, чем у Qwen2.5-VL-7B-Instruct, поэтому число токенов в контексте и при генерации стало меньше для одинаковых примеров. Кроме того, размер самой модели сократился до 7.4B, при 8.3B у Qwen2.5-VL-7B-Instruct. За счет этого одинаковые русскоязычные примеры адаптированной моделью обрабатываются быстрее в среднем на 50% в сравнении с исходной Qwen2.5-VL-7B-Instruct.
Ниже — минимальный пример инференса VLM (текст+картинка).
import torch
from PIL import Image
from transformers import AutoProcessor, AutoModelForImageTextToText
from qwen_vl_utils import process_vision_info
model_id = "AvitoTech/a-vision"
# Модель и процессор
model = AutoModelForImageTextToText.from_pretrained(
    model_id,
    torch_dtype="auto",
    device_map="auto",
)
processor = AutoProcessor.from_pretrained(model_id)
img = Image.open("assets/hoodie.jpg")  # выберите локально загруженное изображение
messages = [
    {
        "role": "user",
        "content": [
            {
                "type": "image",
                "image": img,
                "min_pixels": 4 * 28 * 28,
                "max_pixels": 1024 * 28 * 28,
            },
            {
                "type": "text",
                "text": "Опиши изображение."
            }
        ],
    }
]
# Подготовка входа
chat_text = processor.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
    text=[chat_text],
    images=image_inputs,
    videos=video_inputs,
    padding=True,
    return_tensors="pt",
)
inputs = inputs.to("cuda")
# Генерация
generated_ids = model.generate(**inputs, max_new_tokens=256)
generated_ids_trimmed = [
    out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
response = processor.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
- Для лучшей производительности имеет смысл подбирать
min_pixels/max_pixels.
Base model
Qwen/Qwen2.5-VL-7B-Instruct