Edit model card

Checkpoint 1

Training setup

The training was perfomed on the LUMI supercomputer within the DeployAI EU project. Based of the base model AI-Sweden-Models/Llama-3-8B.

Dataset

A data recipe by: 42 Labs

How to use

import transformers
import torch

model_id = "AI-Sweden-Models/Llama-3-8B-instruct"

pipeline = transformers.pipeline(
    "text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device_map="auto",
)

messages = [
    {"role": "system", "content": "Du är en hjälpsam assistant som svarar klokt och vänligt."},
    {"role": "user", "content": "Hur gör man pannkakor? Och vad behöver man handla? Undrar också vad 5+6 är.."},
]

terminators = [
    pipeline.tokenizer.eos_token_id,
    pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
]

outputs = pipeline(
    messages,
    max_new_tokens=256,
    eos_token_id=terminators,
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
)
print(outputs[0]["generated_text"][-1])
>>> "För att göra pannkakor behöver du följande ingredienser:
- 1 kopp vetemjöl
- 1 tesked bakpulver
- 1/4 tesked salt
- 1 kopp mjölk
- 1 stort ägg
- 2 matskedar smält smör eller olja

För att börja, blanda vetemjölet, bakpulvret och saltet i en bunke. I en annan skål, vispa ihop mjölken, ägget och smöret eller oljan. 
Tillsätt de våta ingredienserna till de torra ingredienserna och blanda tills det är väl blandat. 
Låt smeten vila i cirka 10 minuter.

För att göra pannkakorna, värm en non-stick-panna eller stekpanna över medelvärme. 
När den är varm, häll smeten på pannan och grädda tills kanterna börjar torka ut och toppen är fast. 
Vänd pannkakan med en stekspade och grädda den andra sidan tills den är gyllenbrun. 
Upprepa med resten av smeten.

När det gäller 5+6 är svaret 11."
Downloads last month
4,338
Safetensors
Model size
8.03B params
Tensor type
BF16
·
Inference API
Input a message to start chatting with AI-Sweden-Models/Llama-3-8B-instruct.
Model is too large to load in Inference API (serverless). To try the model, launch it on Inference Endpoints (dedicated) instead.

Quantized from