← Tilbage til guides

Fine-tuning Guide

Tilpas en eksisterende LLM til dine specifikke behov. Lær hvornår fine-tuning giver mening, hvordan du gør det, og hvad du skal være opmærksom på.

Hvad er Fine-tuning?

Fine-tuning er processen med at tage en eksisterende, præ-trænet LLM og fortsætte træningen på et mindre, specialiseret datasæt for at tilpasse modellen til en specifik opgave eller domæne.

I stedet for at træne en model fra bunden (som kræver enorme ressourcer), bygger du videre på den viden modellen allerede har og lærer den at specialisere sig.

Tænk på det som: I stedet for at uddanne en læge fra fødslen, tager du en medicinstudent og specialiserer dem i kirurgi.

Hvornår Bør Du Fine-tune?

Gode Use Cases for Fine-tuning

  • Konsistent tone og stil: Din virksomheds specifikke kommunikationsstil
  • Domæne-specifik terminologi: Medicinsk, juridisk, teknisk jargon
  • Struktureret output: Specifikt format der bruges gentagne gange
  • Forbedret performance på specifik opgave: Højere kvalitet end base model
  • Kortere prompts: Reducer token forbrug ved at "bake in" instruktioner

Dårlige Grunde til Fine-tuning

  • Ny viden: Brug RAG i stedet for at tilføje fakta
  • Opdatering af information: Fine-tuned models bliver forældet
  • Lille mængde data: Du skal bruge hundredvis af eksempler minimum
  • At "fikse" dårlige prompts: God prompt engineering er billigere

🤔 Beslutningsguide

Stil dig selv disse spørgsmål:

  1. Kan jeg opnå det samme med bedre prompt engineering? (Prøv dette først!)
  2. Kan jeg løse det med RAG eller function calling?
  3. Har jeg nok kvalitetsdata (500+ eksempler er et godt minimum)?
  4. Retfærdiggør omkostningerne værdiforslaget?
  5. Er opgaven specifik og gentagen nok til at fine-tuning giver mening?

Sådan Gør Du Det

1️⃣

Indsaml og Forbered Data

Du har brug for eksempler på input/output par der repræsenterer den opgave du vil optimere. Kvalitet er vigtigere end kvantitet.

Eksempel format (JSONL):

{"messages": [
  {"role": "system", "content": "Du er en kundeservice assistent"},
  {"role": "user", "content": "Hvordan returnerer jeg en vare?"},
  {"role": "assistant", "content": "For at returnere..."}
]}
  • • Minimum 50-100 eksempler, ideelt 500+
  • • Høj kvalitet data er kritisk
  • • Diversitet i eksempler er vigtigt
2️⃣

Vælg Base Model

Vælg hvilken eksisterende model du vil fine-tune. De fleste providers tilbyder fine-tuning:

OpenAI

GPT-4o-mini, GPT-3.5-turbo

Anthropic

Ikke tilgængelig endnu

Google

Gemini modeller

Open Source

Llama, Mistral via platforms

3️⃣

Upload og Start Træning

Upload dit datasæt og start fine-tuning processen gennem provider's API eller dashboard.

Eksempel: OpenAI fine-tuning

# Upload fil
openai.files.create(
  file=open("training_data.jsonl", "rb"),
  purpose="fine-tune"
)

# Start fine-tuning
openai.fine_tuning.jobs.create(
  training_file="file-abc123",
  model="gpt-4o-mini-2024-07-18"
)
4️⃣

Test og Evaluer

Når modellen er færdig, test den grundigt før du deployer til produktion.

  • • Sammenlign med base model
  • • Test edge cases
  • • Kør gennem validation dataset
  • • Tjek for overfitting
5️⃣

Deploy og Monitorér

Brug din fine-tuned model i produktion og monitorér performance. Vær klar til at re-fine-tune hvis data eller krav ændrer sig.

Omkostninger og Overvejelser

💰 Omkostninger

Training Costs

Du betaler for tokens brugt under træning. For OpenAI GPT-4o-mini:

~$0.008 per 1K tokens (kan variere)

Inference Costs

Fine-tuned modeller koster typisk mere per token end base models:

Ofte 2-3x prisen af base model

Data Forberedelse

Tid og ressourcer til at samle, rense og formatere data. Ofte den største omkostning!

Vedligeholdelse

Ongoing omkostninger til at opdatere og re-fine-tune når behov eller data ændrer sig.

⚠️ Vigtige Overvejelser

Overfitting

Modellen kan blive for specialiseret til træningsdata og performe dårligt på nye eksempler. Brug validation data til at detectere dette.

Data Quality

"Garbage in, garbage out" - dårlig træningsdata giver dårlige resultater. Investér tid i at sikre høj datakvalitet.

Model Drift

Din fine-tuned model bliver forældet. Planlæg for periodisk re-training når krav eller data ændrer sig.

Vendor Lock-in

Fine-tuned modeller er bundet til den specifikke provider. Svært at migrere senere.

Alternativer til Fine-tuning

Før du investerer i fine-tuning, overvej om disse alternativer kan løse dit problem:

Prompt Engineering

Bedre prompts kan ofte give samme resultater som fine-tuning. Start altid her!

RAG (Retrieval-Augmented Generation)

Perfekt til at tilføje ny viden eller virksomheds-specifik information.

Few-shot Learning

Inkluder eksempler direkte i prompten i stedet for at fine-tune.

Større Context Window

Brug modeller med større context for at inkludere mere information i prompten.

📖 Relaterede Guides