📄 Documentation du Modèle Eleonord/Melta27-Animaux

🦁 Aperçu du Modèle

Melta27-Animaux est une version affinée (fine-tuned) du modèle de langage de petite taille (SLM) Melta27 créé par Clemylia, basé sur l'architecture propriétaire Aricate v4.

Ce modèle a été entraîné spécifiquement sur la dataset Eleonord/Animaux pour étendre son vocabulaire et améliorer sa capacité à générer des réponses cohérentes sur le thème des animaux.

  • Modèle de base : Clemylia/Melta27
  • Architecture : Aricate v4***
  • Dataset d'entraînement (Fine-Tuning) : Eleonord/Animaux

⚙️ Configuration Technique

Le modèle conserve les hyperparamètres de l'architecture Aricate v4 de base, mais avec un vocabulaire étendu.

Paramètre Valeur Description
vocab_size (Automatique) Taille du vocabulaire étendue, incluant le vocabulaire de base de Melta27 plus les mots de la dataset Eleonord/Animaux.
embedding_dim 64 Dimension de la couche d'Embedding.
hidden_dim 128 Dimension cachée du réseau GRU.
num_layers 2 Nombre de couches récurrentes (GRU).

🚀 Utilisation du Modèle pour la Génération

Puisque ce modèle utilise l'architecture Aricate v4 et un tokenizer personnalisé (aricate_tokenizer.txt), il ne peut pas être chargé directement par les classes AutoModel ou AutoTokenizer de la librairie Hugging Face transformers.

Tu dois utiliser la structure de classe AricateModel et WordTokenizer fournie par l'architecture.

1. Chargement du Modèle et du Tokenizer

Pour charger le modèle et le tokenizer à partir de ce dépôt, tu peux utiliser les fonctions de la librairie huggingface_hub :

import torch
import json
from huggingface_hub import hf_hub_download
# Assurez-vous d'avoir les classes AricateModel et WordTokenizer définies dans votre script
from votre_script_aricate import AricateModel, WordTokenizer 

# --- A. Téléchargement des fichiers ---
REPO_ID = "Eleonord/Melta27-Animaux" 

# Téléchargement de la configuration
config_path = hf_hub_download(repo_id=REPO_ID, filename="config.json")
with open(config_path, 'r') as f:
    config = json.load(f)

# Téléchargement du tokenizer
tokenizer_path = hf_hub_download(repo_id=REPO_ID, filename="aricate_tokenizer.txt")
with open(tokenizer_path, 'r', encoding='utf-8') as f:
    vocab_data = json.load(f)

# Téléchargement des poids (safetensors)
weights_path = hf_hub_download(repo_id=REPO_ID, filename="model.safetensors")

# --- B. Initialisation ---
# 1. Initialisation du Tokenizer avec le vocabulaire téléchargé
tokenizer = WordTokenizer(existing_vocab=vocab_data)

# 2. Initialisation du Modèle
model = AricateModel(**config) 

# 3. Chargement des poids
pretrained_state_dict = torch.load(weights_path, map_location="cpu")
model.load_state_dict(pretrained_state_dict)

model.eval()
print(f"Modèle {REPO_ID} chargé et prêt à l'emploi.")

2. Génération de Séquence

Utilise la fonction generate_sequence_beam (définie dans ton script d'entraînement) pour interroger le modèle.

# Exemple d'utilisation (en supposant que generate_sequence_beam est défini)
question = "Quel animal dort debout ?" 
max_len_input = 20 # Longueur maximale des séquences d'entrée utilisées lors de l'entraînement

response = generate_sequence_beam(
    model=model, 
    tokenizer=tokenizer, 
    question=question, 
    max_length=30, 
    max_len_input=max_len_input,
    beam_size=3
)

print(f"Question : {question}")
print(f"Réponse générée : {response}") 

📝 Licence et Auteur

  • Licence : (MIT)
  • Auteur du Fine-Tuning : Eleonord
  • Architecture de base : Aricate v4 par Clemylia
Downloads last month
41
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Eleonord/Melta27-Animaux

Finetuned
(1)
this model

Datasets used to train Eleonord/Melta27-Animaux