kawre commited on
Commit
db1a73e
·
verified ·
1 Parent(s): 122aa06

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +37 -7
README.md CHANGED
@@ -1,11 +1,41 @@
 
 
 
 
 
 
 
 
 
 
1
 
2
- Este Space usa o Llama 3.1 via Inference API da Hugging Face.
3
 
4
- 1. Crie um token na Hugging Face: https://huggingface.co/settings/tokens
5
- 2. No Space: Settings Secrets New Secret
6
- - Name: HF_TOKEN
7
- - Value: cole o token
8
- 3. Suba os arquivos `app.py`, `requirements.txt`, `README.md` no Space
9
 
 
10
 
11
- O Space inicia automaticamente a interface Gradio. Digite um prompt e veja a resposta do modelo.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ title: Meu Space com Llama 3.1
3
+ emoji: 🤖
4
+ colorFrom: blue
5
+ colorTo: green
6
+ sdk: gradio
7
+ sdk_version: "3.44" # substitua pela versão que você está usando
8
+ app_file: app.py
9
+ pinned: false
10
+ ---
11
 
12
+ # Meu Space com Llama 3.1
13
 
14
+ ## Como Funciona
15
+ Este Space utiliza o **Llama 3.1** via **Inference API** da Hugging Face para processar prompts do usuário.
16
+ Dependendo da query, é possível integrar fluxos em cascata com outros modelos auxiliares.
 
 
17
 
18
+ ---
19
 
20
+ ## Setup / Configuração
21
+
22
+ 1. **Crie um token na Hugging Face:**
23
+ [https://huggingface.co/settings/tokens](https://huggingface.co/settings/tokens)
24
+
25
+ 2. **Adicione o token no Space como Secret:**
26
+ - Vá em **Settings → Secrets → New Secret**
27
+ - **Name:** `HF_TOKEN`
28
+ - **Value:** cole o token
29
+
30
+ 3. **Suba os arquivos no Space:**
31
+ - `app.py` → código principal do chatbot
32
+ - `requirements.txt` → dependências (`gradio`, `huggingface-hub`)
33
+ - `README.md` → este arquivo
34
+
35
+ > Todos os arquivos devem estar na **raiz do Space**.
36
+
37
+ ---
38
+
39
+ ## Como Rodar
40
+ - O Space inicia automaticamente a interface Gradio ao ser carregado
41
+ - Digite um prompt na interface e veja a resposta do modelo