--- license: apache-2.0 datasets: - HuggingFaceFW/fineweb-2 language: - fa metrics: - bleu - brier_score base_model: - uclanlp/plbart-multi_task-php new_version: Qwen/QwQ-32B-Preview library_name: flair tags: - code - php - css - js - html --- # مدل کارت برای مدل برنامه نویسی Chtgpt ## جزئیات مدل ### توضیحات مدل مدل Chtgpt یک مدل پردازش زبان طبیعی است که برای تولید، درک و بازنویسی کد به زبان فارسی توسعه یافته است. این مدل با هدف بهبود کارایی و خوانایی کدها طراحی شده است و قابلیت کار با زبان های برنامه نویسی وب مانند PHP, CSS, JS و HTML را دارا می باشد. * **توسعه دهنده:** [amirbasim] * **زبان(های) (NLP):** فارسی * **مجوز:** Apache 2.0 * **مدل پایه:** `uclanlp/plbart-multi_task-php` * **نسخه جدید:** `Qwen/QwQ-32B-Preview` * **کتابخانه:** `flair` ### منابع مدل * **مخزن:** [لینک به مخزن مدل در Hugging Face] * **مقاله:** [لینک به مقاله مربوط به مدل در صورت وجود] * **دمو:** [لینک به دموی آنلاین مدل در صورت وجود] ## موارد استفاده ### استفاده مستقیم این مدل به صورت مستقیم برای موارد زیر قابل استفاده است: * تولید قطعه کد بر اساس توضیحات فارسی * بازنویسی کدها به منظور بهبود خوانایی و کارایی * اضافه کردن توضیحات و کامنت به کدهای موجود * تبدیل کدها بین زبان های مختلف (مانند PHP به JS) ### استفاده در پایین دست این مدل پس از آموزش بیشتر و با استفاده از تنظیم دقیق (Fine-tuning)، می تواند برای موارد زیر استفاده شود: * تکمیل خودکار کد * تشخیص خطاهای کد * توسعه ابزارهای برنامه نویسی ### موارد خارج از محدوده استفاده این مدل برای موارد زیر طراحی نشده است و ممکن است عملکرد درستی نداشته باشد: * تحلیل کدهای پیچیده و با معماری خاص * تولید کد برای زبان های برنامه نویسی غیر از موارد ذکر شده * استفاده در برنامه های حساس به امنیت ## تعصب، ریسک ها و محدودیت ها این مدل ممکن است تعصبات موجود در داده های آموزشی را منعکس کند و در برخی موارد نتایج نادرستی ارائه دهد. محدودیت های فنی مدل شامل موارد زیر است: * احتمال عدم درک صحیح ساختارهای پیچیده کد * ممکن است در برخی موارد کدهای بهینه تولید نکند. * وابستگی به داده‌های آموزشی برای تولید و بازنویسی کد ### توصیه ها کاربران باید از ریسک ها، تعصبات و محدودیت های فنی مدل آگاه باشند و نتایج را با دقت بررسی کنند. برای بهبود عملکرد مدل، پیشنهاد می شود از داده های آموزشی متنوع و با کیفیت استفاده شود. ## نحوه شروع کار با مدل برای شروع کار با مدل، از قطعه کد زیر استفاده کنید: ```python from transformers import AutoModelForSeq2SeqLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("path/to/your/model") model = AutoModelForSeq2SeqLM.from_pretrained("path/to/your/model") inputs = tokenizer("your code here", return_tensors="pt") outputs = model.generate(**inputs) result = tokenizer.decode(outputs[0], skip_special_tokens=True) print(result)