Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -1,23 +1,4 @@
|
|
| 1 |
-
|
| 2 |
-
# ------------------------------------------------------------------------------------------------
|
| 3 |
-
# Flujo:
|
| 4 |
-
# 1. OCR local con DeepSeek-OCR (CUDA solo dentro de @spaces.GPU).
|
| 5 |
-
# 2. Chat médico remoto con TxAgent-T1-Llama-3.1-8B usando provider "featherless-ai"
|
| 6 |
-
# vía .chat.completions.create() (tarea conversational).
|
| 7 |
-
#
|
| 8 |
-
# Variables de entorno recomendadas (Settings → Secrets):
|
| 9 |
-
# HF_TOKEN=hf_xxx (OBLIGATORIO para usar inference)
|
| 10 |
-
# TX_MODEL_ID=mims-harvard/TxAgent-T1-Llama-3.1-8B
|
| 11 |
-
# GEN_MAX_NEW_TOKENS=512
|
| 12 |
-
# GEN_TEMPERATURE=0.2
|
| 13 |
-
# GEN_TOP_P=0.9
|
| 14 |
-
# OCR_REVISION=<commit opcional estable de DeepSeek-OCR>
|
| 15 |
-
# OCR_ATTN_IMPL=flash_attention_2 (o "eager" si no hay FlashAttention2)
|
| 16 |
-
#
|
| 17 |
-
# Nota importante:
|
| 18 |
-
# - NO tocamos CUDA en el proceso principal. Solo dentro de ocr_infer().
|
| 19 |
-
# - No usamos text_generation. El provider featherless-ai ofrece "conversational".
|
| 20 |
-
# - Evitamos el 404 del router hf-inference porque forzamos provider="featherless-ai".
|
| 21 |
# ------------------------------------------------------------------------------------------------
|
| 22 |
|
| 23 |
import os, tempfile, traceback
|
|
@@ -29,7 +10,7 @@ import spaces
|
|
| 29 |
from huggingface_hub import InferenceClient
|
| 30 |
|
| 31 |
# =========================
|
| 32 |
-
# Configuración del Chat remoto
|
| 33 |
# =========================
|
| 34 |
TX_MODEL_ID = os.getenv("TX_MODEL_ID", "mims-harvard/TxAgent-T1-Llama-3.1-8B")
|
| 35 |
HF_TOKEN = os.getenv("HF_TOKEN")
|
|
@@ -269,7 +250,7 @@ with gr.Blocks(
|
|
| 269 |
"""
|
| 270 |
# 📄 DeepSeek-OCR → 💬 Chat Clínico
|
| 271 |
1. **Sube una imagen** y corre **OCR** (imagen anotada, Markdown y texto).
|
| 272 |
-
2.
|
| 273 |
como contexto clínico.
|
| 274 |
|
| 275 |
⚠ Uso educativo. No reemplaza consejo médico profesional.
|
|
|
|
| 1 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 2 |
# ------------------------------------------------------------------------------------------------
|
| 3 |
|
| 4 |
import os, tempfile, traceback
|
|
|
|
| 10 |
from huggingface_hub import InferenceClient
|
| 11 |
|
| 12 |
# =========================
|
| 13 |
+
# Configuración del Chat remoto
|
| 14 |
# =========================
|
| 15 |
TX_MODEL_ID = os.getenv("TX_MODEL_ID", "mims-harvard/TxAgent-T1-Llama-3.1-8B")
|
| 16 |
HF_TOKEN = os.getenv("HF_TOKEN")
|
|
|
|
| 250 |
"""
|
| 251 |
# 📄 DeepSeek-OCR → 💬 Chat Clínico
|
| 252 |
1. **Sube una imagen** y corre **OCR** (imagen anotada, Markdown y texto).
|
| 253 |
+
2. El chat usa automáticamente el texto detectado por OCR
|
| 254 |
como contexto clínico.
|
| 255 |
|
| 256 |
⚠ Uso educativo. No reemplaza consejo médico profesional.
|