--- license: apache-2.0 datasets: - trollek/Danoia-v01 - trollek/ProbingPanoia-v01 - trollek/Panoia-v02 - smangrul/ultrachat-10k-chatml - Gryphe/Sonnet3.5-SlimOrcaDedupCleaned-20k language: - da - en base_model: - LumiOpen/Viking-7B - mpasila/Viking-Magnum-v0.1-7B - mpasila/Viking-SlimSonnet-v1-7B library_name: transformers tags: - mergekit - merge --- Android Vikingen Holger # Du har fundet Holger! Det er *forrykt* at danske open source sprogmodeller halter lidt; **æøå** be damned! Og nok også andre ting, men \[A-ZÆØÅa-zæøå\] giver kronisk mentaleksem. **Anyway!** HOLGER! En fintunet åben Viking på åbne data under et åbent licens. Respekt for licenser er sådan kapitalismen er, og GUDS NÅDE fucking trøste dig hvis du ikke udgiver Llama modeller uden også at bøje knæet for Zuck. Redemption arc eller ej. 10% af 1 fantasiliard er stadig mere end jeg kan prostiturere mig selv for. ## Sprogmodellens beskrivelse > Hva' lav' do nu? - Det vil jeg helst ikke snakke om. - Kom nu! - Jeg træner og snakker med sprogmodeller.. - Fra udlandet? - Jaaaa... Viking modellen kan åbenbart finde ud af at overføre træning fra engelsk til dansk, og sandsynligvis de andre skandisprog. Maybe. ## Kvanter - [trollek/Holger-7B-v0.1-GGUF](https://huggingface.co/trollek/Holger-7B-v0.1-GGUF) ## Merge Detaljer ### Merge Metode Denne model er merged med della_linear metoden og med [LumiOpen/Viking-7B](https://huggingface.co/LumiOpen/Viking-7B) som base. ### Modeller Merged Følgende modeller er brugt i dette merge: * viking/merges/holger5 * viking/merges/holger3 * [mpasila/Viking-Magnum-v0.1-7B](https://huggingface.co/mpasila/Viking-Magnum-v0.1-7B) * [mpasila/Viking-SlimSonnet-v1-7B](https://huggingface.co/mpasila/Viking-SlimSonnet-v1-7B) ### Konfiguration Følgende YAML konfigurationsfil blev brugt til at skabe dette merge: ```yaml models: - model: viking/merges/holger3 parameters: weight: 0.53 density: 0.55 epsilon: 0.11 - model: viking/merges/holger5 parameters: weight: 0.78 density: 0.81 epsilon: 0.17 - model: mpasila/Viking-Magnum-v0.1-7B parameters: weight: 0.88 density: 0.91 epsilon: 0.07 - model: mpasila/Viking-SlimSonnet-v1-7B parameters: weight: 0.83 density: 0.75 epsilon: 0.11 merge_method: della_linear base_model: LumiOpen/Viking-7B parameters: normalize: true int8_mask: true lambda: 1.08 dtype: bfloat16 ```