Instructions to use Lacax/deepseek_ocr_lora with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Local Apps
- Unsloth Studio new
How to use Lacax/deepseek_ocr_lora with Unsloth Studio:
Install Unsloth Studio (macOS, Linux, WSL)
curl -fsSL https://unsloth.ai/install.sh | sh # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for Lacax/deepseek_ocr_lora to start chatting
Install Unsloth Studio (Windows)
irm https://unsloth.ai/install.ps1 | iex # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for Lacax/deepseek_ocr_lora to start chatting
Using HuggingFace Spaces for Unsloth
# No setup required # Open https://huggingface.co/spaces/unsloth/studio in your browser # Search for Lacax/deepseek_ocr_lora to start chatting
Load model with FastModel
pip install unsloth from unsloth import FastModel model, tokenizer = FastModel.from_pretrained( model_name="Lacax/deepseek_ocr_lora", max_seq_length=2048, )
DeepSeek OCR LoRA — Extracción estructurada de tickets y facturas
Descripción
Este modelo es un LoRA fine-tuning sobre unsloth/DeepSeek-OCR-2, entrenado para analizar imágenes de tickets de compra, recibos y facturas y devolver su contenido en formato JSON estructurado.
El objetivo principal del proyecto fue académico: estudiar el comportamiento de un modelo de visión multimodal al ser adaptado para extraer información con una estructura de salida fija.
El modelo está diseñado principalmente para documentos en español.
Salida esperada
Dado una imagen de ticket o factura, el modelo devuelve un JSON con la siguiente estructura:
{
"comercio": "Nombre del establecimiento",
"fecha": "DD/MM/AAAA",
"cif": "B12345678",
"items": [
{
"descripcion": "Nombre del producto",
"cantidad": 2,
"precio": 3.50
}
],
"precio_total": 7.00
}
Uso
Este modelo requiere cargar el modelo base por separado y aplicar el LoRA encima:
from transformers import AutoModelForCausalLM, AutoProcessor
from peft import PeftModel
BASE_MODEL_ID = "unsloth/DeepSeek-OCR-2"
LORA_ID = "Lacax/deepseek_ocr_lora"
processor = AutoProcessor.from_pretrained(BASE_MODEL_ID)
model = AutoModelForCausalLM.from_pretrained(BASE_MODEL_ID)
model = PeftModel.from_pretrained(model, LORA_ID)
Nota: El repo del LoRA es privado. Se requiere un
HF_TOKENcon acceso al repoLacax/deepseek_ocr_lora. El modelo baseunsloth/DeepSeek-OCR-2es público.
Datos de entrenamiento
- Tipo: Imágenes de tickets y facturas reales (fotografías propias)
- Tamaño: ~100 imágenes
- Formato: Cada imagen asociada a su JSON ground truth con la estructura descrita arriba
- Idioma: Español
- Origen: Dataset propio, no publicado
Estadísticas de entrenamiento
| Parámetro | Valor |
|---|---|
| Épocas completadas | 3 |
| Duración total | |
| Muestras / segundo | 0.40 |
| Pérdida final (train) | 0.0399 |
| Framework | Unsloth + PEFT |
| Plataforma | RunPod (GPU cloud) |
Limitaciones
- Dataset pequeño (~100 imágenes): el modelo puede no generalizar bien a formatos de ticket muy distintos a los usados en entrenamiento.
- Entrenado únicamente con documentos en español; rendimiento no garantizado en otros idiomas.
- Proyecto de carácter académico/experimental, no validado en producción.
- La pérdida baja de entrenamiento (0.04) puede indicar cierto sobreajuste al dataset propio.
Modelo base
Autor
Jonatan Thorpe Plaza — Proyecto de estudio personal sobre fine-tuning de modelos de visión multimodal.