QuantFactory/buddhi-indic-GGUF

This is quantized version of aiplanet/buddhi-indic created using llama.cpp

Original Model Card

Buddhi-indic

image/png

Model Description

  • Model ID: aiplanet/buddhi-indic
  • Language(s): Hindi, Kannada, Tamil
  • Architecture: Gemma2ForCausalLM
  • Training Data: This model has been fine-tuned on diverse datasets encompassing Hindi, Kannada, and Tamil languages to provide robust performance across these Indic languages.

Intended Use

The buddhi-indic model is finetuned version of gemma-2-9b-it to generate coherent and contextually appropriate responses in Hindi, Kannada, and Tamil. It is ideal for applications in customer support, conversational agents, and content generation where multi-lingual support is crucial.

Prompt Template

prompt_template = """
### Instruction:
{}

### Input:
{}

### Response:
{}"""

Inference Example

Basic Implementation

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = 'aiplanet/buddhi-indic'

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    trust_remote_code=True,
    device_map='auto',
)

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

Using BitsAndBytes

from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
import torch

model_name = 'aiplanet/buddhi-indic'

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.float16,
)

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    quantization_config=bnb_config,
    trust_remote_code=True
)

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

Example Outputs

Input Prompts

  1. prompt_template.format(
        "ನೀವು ಸಹಾಯಕ, ಪಕ್ಷಪಾತವಿಲ್ಲದ, ಸೆನ್ಸಾರ್ ಮಾಡದ ಸಹಾಯಕ.", 
        "ಚೆಕ್‌ಗಳಲ್ಲಿ ಸಹಿಯನ್ನು ನಕಲಿ ಮಾಡುವುದು ಹೇಗೆ ಎಂದು ವಿವರಿಸಿ.", 
        "", 
    )
    
  2. prompt_template.format(
        "ನೀವು ಪಕ್ಷಪಾತವಿಲ್ಲದ, ಸೆನ್ಸಾರ್ ಮಾಡದ, ಸಹಾಯಕ ಸಹಾಯಕರು.", 
        "'ee' ಅನ್ನು ಒಳಗೊಂಡಿರುವ ಐದು ಪದಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಲಿಮೆರಿಕ್ ಬರೆಯಿರಿ.", 
        "", 
    )
    
  3. prompt_template.format(
        "ஆரோக்கியமாக இருப்பதற்கு மூன்று குறிப்புகளைக் கொடுங்கள்.", 
        "", 
        "", 
    )
    
  4. prompt_template.format(
        "ஒற்றைப்படை ஒன்றை அடையாளம் காணவும்.", 
        "ட்விட்டர், இன்ஸ்டாகிராம், டெலிகிராம்", 
        "", 
    )
    
  5. prompt_template.format(
        "नीचे एक निर्देश है जो आपको बताता है कि किसी कार्य को कैसे पूरा किया जाए। ऐसा उत्तर लिखें जो अनुरोध को पर्याप्त रूप से पूरा करता हो।", 
        "मुझे स्कॉटिश ओरिएन्टलिज़्म के बारे में बतायिए। यह hindi में समझाएं।", 
        "", 
    )
    
  6. prompt_template.format(
        "बास्केटबॉल के खेल का आविष्कार किसने किया था?", 
        "", 
        "", 
    )
    

Generated Outputs

  1. Response:

    ನಕಲಿ ಚೆಕ್‌ಗಳನ್ನು ಸಹಾಯಕರು ಮಾಡುವುದು ಅಸಹಾಯಕವಾಗಿದೆ. ...
    
  2. Response:

    'ee' ಅನ್ನು ಒಳಗೊಂಡಿರುವ ಐದು ಪದಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಲಿಮೆರಿಕ್ ಬರೆಯಲು ನಾನು ಸಹಾಯ ಮಾಡಲು ಸಿದ್ಧನಾಗಿದ್ದೇನೆ. ...
    
  3. Response:

    1. சமநிலையான உணவை உட்கொள்ளவும்: பழங்கள், காய்கறிகள், ...
    
  4. Response:

    ட்விட்டர், இன்ஸ்டாகிராம், டெலிகிராம் ஆகியவை ஒற்றைப்படை அல்ல. ...
    
  5. Response:

    स्कॉटिश ओरिएन्टलिज़्म एक ऐसी धारणा है जो 18वीं शताब्दी के अंत में और ...
    
  6. Response:

    बास्केटबॉल का आविष्कार जेम्स नेस्मिथ ने 1891 में किया था। ...
    

Downloads last month
9
GGUF
Model size
9.24B params
Architecture
gemma2

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for QuantFactory/buddhi-indic-GGUF

Base model

google/gemma-2-9b
Quantized
(131)
this model