Sentence embeddings for finetuned on Moroccan Darija.

This is a sentence-transformers model finetuned from BounharAbdelaziz/XLM-RoBERTa-Morocco on the triplet, negation_triplet, pair_score and english_non_english datasets. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("atlasia/XLM-RoBERTa-Morocco-bs-32-lr-2e-05-ep-2-wp-0.05-gacc-1-gnm-1.0-v0.3")
# Run inference
sentences = [
    'تلاتة د الكلاب فالتلج.',
    'تلاتة د الكلاب برا.',
    'ما كاين حتى كلب برا.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Triplet

  • Datasets: triplet-evaluator-dev and negation-triplet-evaluator-dev
  • Evaluated with TripletEvaluator
Metric triplet-evaluator-dev negation-triplet-evaluator-dev
cosine_accuracy 0.78 0.992

Semantic Similarity

Metric pair-score-evaluator-dev atlasia_sent_embd_bench-evaluator-dev
pearson_cosine 0.4389 0.5642
spearman_cosine 0.4764 0.5333

Translation

Metric Value
src2trg_accuracy 1.0
trg2src_accuracy 1.0
mean_accuracy 1.0

Training Details

Training Datasets

triplet

  • Dataset: triplet at c16b85f
  • Size: 73,178 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 7 tokens
    • mean: 24.25 tokens
    • max: 106 tokens
    • min: 17 tokens
    • mean: 215.8 tokens
    • max: 512 tokens
    • min: 16 tokens
    • mean: 213.93 tokens
    • max: 512 tokens
  • Samples:
    anchor positive negative
    تومي لي، اللي كان متزوج من قبل من باميلا أندرسون، كان الطبال اللي نجح فالفرقة ديال المعادن الثقيلة فالثمانينات؟ باميلا أندرسون كيسوق القوانين فصناعة النقل البري الخاصة. أندرسون تزوج من تومي لي، عازف الطبلة ديال موتلي كرو، فـ19 فبراير 1995، بعد ما عرفوه تقريبا 96 ساعة، ولا 4 أيام. تزوجو فالبلاج، و أندرسون لابس بيكيني. أم أندرسون ما عرفتش، وعلمات بالزواج من مجلة "الناس". خلال هاد الوقت، كانت معروفة مهنيا باسم باميلا أندرسون لي. عندهم جوج ولاد مع بعضهم: براندون توماس (ولدت فـ5 يونيو 1996) و ديلان جاغر (ولدت فـ29 دجنبر 1997). خلال زواجهم المضطرب، تم اعتقال لي بتهمة الاعتداء الزوجي بعد الاعتداء على أندرسون. حكم عليه بستة ولاد تومي لي عمرو سنين، وأول طبلة ديالو ملي كان مراهق. لي عندو خت صغيرة، أثينا لي (ناية باس)، اللي كانت تاني الطبلة فالفرقة ديالو الوحيدة كرونك وكان متزوج بجيمس كوتاك، الطبالة للفرقة ديال الروك سكوريبز. كمراهق، لي سمع ل ليد زيبلين، فان هالن، شياب تريك، كيس، أي سي/دي سي وسويت. التأثيرات الرئيسية ديالو ديال الطبلة كانت جون بونهام، تومي ألدريدج، أليكس فان هالن وتيري بوزيو. الفرقة الناجحة الأولى ديالو "سويت 19" لعبات "Sunset Streep" فلوس أنجلوس خلال أواخر السبعينات. تقريبا، تلاقى مع صاحب الفرقة المستقبلية، نيكي سيكس.
    شنو هي الانتفاضة الإنجليزية اللي انتهت بموت واحد من القادة ديالها وات تايلر فـ يونيو 1381؟ وات تايلر وات والتر "وات" تايلر (مات ف15 يونيو 1381) كان قائد ثورة الفلاحة فـ1381 فـ إنجلترا. مشى مجموعة ديال الثوار من كانتربري للعاصمة باش يعارضو تأسيس ضريبة الاستطلاع ويطالبو بإصلاحات اقتصادية واجتماعية. رغم أن التمرد القصير تمتع بالنجاح المبكر، تايلر قتل على يد الضباط الموالين للملك ريتشارد الثاني خلال المفاوضات فـسميثفيلد، لندن. ما كاين حتى شي حاجة معروفة بالحياة المبكرة ديال وات تايلر. ولد بالاسم الأول والتر، لقبو الأصلي ما كانش معروف. كيعتقد بلي سميتو "تايلر" كيجي من الخدمة ديالو كتيلر على السطح. وات تايلر تنشر حتى 1813. الرواية الأولى لي فيها Wat Tiler هي "The Bundman ديال السيدة أونيل: قصة ديال أيام وات تايلر" (1833). هو البطل في رواية بيرس إيغان اليونغر "Wat Tyler، ولا التمرد ديال 1381" (1841)، وهي نص متطرف بزاف تنشر فعالي المرحلة الثانية ديال حركة تشارتيست لي دافعات على الحكومة الجمهورية في إنجلترا. رواية إيغان كانت من بعد مختصرة ومسرقة ونشرت كـ "The Life and Adventers of Wat Taler: The Good and the Brave" (1851). وات تايلر هي البطلة في الرواية المتسلسلة المرعبة "Wat
    تأسست من طرف الرئيس الأمريكي ليندون ب جونسون، 'لجنة الرئيس المعنية باغتيال الرئيس كينيدي' كانت معروفة بشكل غير رسمي بأي اسم؟ لجنة وارن لجنة وارن لجنة الرئيس المعنية باغتيال الرئيس كينيدي، المعروفة بشكل غير رسمي باسم لجنة وارن، أسسها الرئيس ليندون ب. جونسون حتى 29 نوفمبر 1963 للتحقيق في اغتيال الرئيس الأمريكي جون ف. كينيدي اللي وقع في 22 نوفمبر 1963. الكونغرس الأمريكي أصدر قرار مشترك لمجلس الشيوخ 137 كيأذن للجنة الرئيس المعينة بتقديم تقرير على اغتيال الرئيس جون ف. كينيدي، وفرض الحضور وشهادة الشهود وتقديم الأدلة. التقرير النهائي ديالو من 888 صفحة قدم للرئيس جونسون في 24 سبتمبر 1964 وعلن على الناس تلاتة تنصيب ليندون ب. جونسون الأول ديال ليندون ب. جونسون التنصيب الأول ديال ليندون ب. جونسون كرئيس 36 ديال الولايات المتحدة نهار الجمعة، 22 نوفمبر 1963، على متن القوات الجوية وان فيلد، بعد اغتيال الرئيس جون ف. كينيدي قبل هاد النهار. التنصيب كان بداية الولاية الأولى (مدة جزئية) ديال ليندون ب. جونسون كرئيس. هادي كانت تامن تنصيب غير مخطط وغير عادي تم منين تأسس الرئاسة في 1789. ف 12:30 مساء بتوقيت سنترال ستاندرال تايم في 22 نوفمبر، كينيدي تعرض لإطلاق النار في دالاس وهو راكب مع الرئيس
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

negation_triplet

  • Dataset: negation_triplet at c16b85f
  • Size: 10,000 training samples
  • Columns: anchor, entailment, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor entailment negative
    type string string string
    details
    • min: 7 tokens
    • mean: 22.79 tokens
    • max: 90 tokens
    • min: 4 tokens
    • mean: 12.2 tokens
    • max: 53 tokens
    • min: 5 tokens
    • mean: 13.41 tokens
    • max: 53 tokens
  • Samples:
    anchor entailment negative
    جوج ناس كيحضرو اللحم على گريل فجنب الزنقة وواحد فيهم لابس ماسك والآخر حاني راسو للتحت. جوج رجال كيطيبو برا. جوج رجال ما كيطيبوش برا.
    الناس كيمشيو فالمدينة فالزنقة، والبيسكليتات واقفين على ليسر ديال الصورة. الناس كيدوزو حدا البيسكليتات لي واقفين. الناس ما كيمشيوش حدا البيسكليتات لي واقفين.
    واحد الولد مراهق كيتمرن بالسيف فالصالة مع الفريق ديالو. واحد الولد شاد سيف. الولد ماشي شاد سيف.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

pair_score

  • Dataset: pair_score at c16b85f
  • Size: 200,000 training samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 4 tokens
    • mean: 26.68 tokens
    • max: 115 tokens
    • min: 4 tokens
    • mean: 15.19 tokens
    • max: 41 tokens
    • min: 0.0
    • mean: 0.51
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    واحد الولد صغير وواحد البنت صغيرة كيتمتعو بركوب، فالطوموبيل. واحد الولد صغير وواحد البنت صغيرة واقفين فالطوموبيل على جنب الطريق 0.0
    واحد الولد صغير فالصحرا گالس على حمار مقلوب. الولد الصغير كيتسنى باش يجيوه من الصحرا. 0.5
    تفكر فيه السيد كارتر. السيد كارتر ما كانش فبالو نهائيا. 0.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

english_non_english

  • Dataset: english_non_english at c16b85f
  • Size: 354,112 training samples
  • Columns: english and non_english
  • Approximate statistics based on the first 1000 samples:
    english non_english
    type string string
    details
    • min: 3 tokens
    • mean: 120.77 tokens
    • max: 512 tokens
    • min: 3 tokens
    • mean: 133.74 tokens
    • max: 512 tokens
  • Samples:
    english non_english
    Keeping records and writing reports are important tasks in a language school, as they provide valuable information about the students' progress and can help you to plan future lessons. Here are some tips that might help you to keep organized:

    1. Use digital tools: You can use digital tools like spreadsheets, note-taking apps, or dedicated software to keep records. This will make it easier to store, access, and share the information you need.
    2. Set up a system: Determine what information you need to record and create a system for doing so. For example, you could create a template for each lesson that includes the date, the topics covered, and any notes on the students' progress.
    3. Be consistent: Make sure to record information after each lesson and keep the records up to date. This will help you to remember what you covered in previous lessons and to track the students' progress over time.
    4. Keep it simple: Don't try to record too much information, as this can be overwhelming and ti...
    الاحتفاظ بالسجلات وكتابة التقارير مهمين بزاف فمدرسة اللغة، حيت كيعطيو معلومات مفيدة على تقدم الطلبة وكيقدرو يعاونوك باش تخطط للدروس المقبلة. هاكي شي نصائح اللي ممكن يعاونوك تبقى منظم:

    1. استعمل الأدوات الرقمية: تقدر تستعمل أدوات رقمية بحال spreadsheets، تطبيقات تدوين الملاحظات، ولا برامج مخصصة باش تحتفظ بالسجلات. هادشي غادي يسهل عليك تخزين وولوج ومشاركة المعلومات اللي محتاجها.
    2. دير نظام: حدد المعلومات اللي محتاج تسجلها ودير نظام باش تدير هادشي. مثلا، تقدر تصاوب نموذج لكل درس اللي كيتضمن التاريخ، المواضيع اللي تغطات، وأي ملاحظات على تقدم الطلبة.
    3. كون متناسق: تأكد باش تسجل المعلومات بعد كل درس وخلي السجلات محدثة. هادشي غادي يعاونك تتفكر شنو غطيتي فالدروس السابقة وتتبع تقدم الطلبة مع الوقت.
    4. خليه بسيط: ماتحاولش تسجل بزاف ديال المعلومات، حيت هادشي يقدر يكون مرهق وكياخد الوقت. ركز على التفاصيل الأكثر أهمية وخلي السجلات موجزة وساهلة للقراية.
    5. استعمل التقارير باش تتبع التقدم: استعمل التقارير باش تلخص تقدم الطلبة وتعطي الفيدباك. التقارير تقدر تستعمل باش تحدد المجالات فين الطلبة محتاجي...
    Identify the parts of speech for the words in bold.
    The town hosted a popular festival.
    حدد أقسام الكلام للكلمات اللي بالخط الغليظ.
    المدينة دارت مهرجان مشهور.
    Answer the following question.
    A company has 500 employees, each paid $12 per hour, working 10 hours a day, five days a week, 4 weeks a month. In August, the amount of work increased, and the company hired 200 more people. How much money does the company pay in total per month after the new hires?
    Step-by-step reasoning process: The total pay per employee in a day is 12 * 10 = $120. An employee works for 5 * 4 = 20 days in a month. The total amount of money paid to each employee monthly is 20 * 120 = $2400. When the number of employees increased to 500 + 200 = 700 after the new hires in August. The company pays a total of 700 * 2400 = $1680000 per month to its employees.
    The answer is 1680000.

    Answer the following question.
    Yesterday, David and William were invited to a party. David broke 2 glasses, while his friend William broke 4 times the number of glasses David broke. How many glasses were broken?
    Step-by-step reasoning process: William broke 4 * 2 = 8 glasses. So, David and Willi...
    جاوب على السؤال التالي.
    واحد الشركة عندها 500 موظف، كل واحد كيتخلص 12 دولار فالساعة، كيخدمو 10 ساعات فالنهار، خمس أيام فالسيمانة، 4 سيمانات فالشهر. فشهر غشت، زاد الخدمة وزادت الشركة 200 موظف جديد. شحال كتخلص الشركة فالمجموع كل شهر من بعد ما زادت الموظفين الجداد؟
    طريقة التفكير خطوة بخطوة: الخلاص ديال كل موظف فالنهار هو 12 * 10 = 120 دولار. الموظف كيخدم 5 * 4 = 20 يوم فالشهر. المبلغ الإجمالي اللي كيتخلص كل موظف شهريا هو 20 * 120 = 2400 دولار. ملي زاد عدد الموظفين ل 500 + 200 = 700 من بعد التوظيف الجديد فغشت. الشركة كتخلص فالمجموع 700 * 2400 = 1680000 دولار كل شهر للموظفين ديالها.
    الجواب هو 1680000.

    جاوب على السؤال التالي.
    البارح، داود ووليام تعيطو لواحد الحفلة. داود كسر 2 ديال الكيسان، بينما صاحبو وليام كسر 4 مرات العدد ديال الكيسان اللي كسر داود. شحال من كاس تكسر فالمجموع؟
    طريقة التفكير خطوة بخطوة: وليام كسر 4 * 2 = 8 كيسان. إذن، داود ووليام كسرو 8 + 2 = 10 كيسان.
    الجواب هو 10.

    جاوب على السؤال التالي.
    فواحد الحانوت الجديد، كاين 3 مرات بزاف ديال الحلوى ديال العنب على قد الحلوى ديال الك...
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Evaluation Datasets

triplet

  • Dataset: triplet at c16b85f
  • Size: 73,178 evaluation samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 7 tokens
    • mean: 22.88 tokens
    • max: 70 tokens
    • min: 110 tokens
    • mean: 220.64 tokens
    • max: 512 tokens
    • min: 50 tokens
    • mean: 214.82 tokens
    • max: 512 tokens
  • Samples:
    anchor positive negative
    فين كانت معركة بالاكلافا (بما فيها تهمة اللواء الخفيف)؟ تهمة اللواء الخفيف من البطالة الطويلة المدى. تهمة اللواء الخفيف تهمة سلاح الفرسان الخفيف البريطاني بقيادة اللورد كارديغان ضد القوات الروسية خلال معركة بالاكلافا في 25 أكتوبر 1854 في حرب القرم. القائد البريطاني اللورد راغلان كان باغي يصيفط اللواء الخفيف باش يمنع الروس من إزالة الأسلحة المأسورة من المواقع التركية المتجاوزة، وهي مهمة كان الفرسان الخفيف مناسبين ليها مزيان. ولكن، كان هناك سوء تواصل في سلسلة القيادة، واللواء الخفيف تم إرسالو لهجوم أمامي ضد بطارية مدفعية مختلفة، واحد جاهز مزيان تهمة اللواء الخفيف (1968 فيلم) قضية Lansers 17، خطوط بيضة مزدوجة. فواحد المشهد واحد من الجنود ديال 17 كيتم تصويرو بشكل صحيح. تصوير الفيلم لمعركة بالاكلافا كيبين الهجوم الروسي الأولي على القوات المسلحة وبطبيعة الحال تهمة اللواء الخفيف، ولكن إيلايد موقف هايلاندرز 93 ("Thin Red Line") وشحن اللواء الثقيل. حسب المدير طوني ريتشاردسون، تم تصوير مشهد اللواء الثقيل ولكن تم قطعو من بعد على حساب الستوديو. بنفس الطريقة تبين أن فاني دوبرلي تم إغواءها من طرف اللورد كارديغان؛ رغم أنها كانت فاللورد Cargan؛
    "من تبنى اللقب "Montbatten" ف 1947؟" عائلة جبل باتن كاريزبروك و ميلفورد هافن، وكذلك إيرلز مونتباتن ديال بورما. الأمير فيليب ديال اليونان والدنمارك، صاحب الملكة إليزابيث الثانية، تبنا عائلة جبل باتن من عائلة موه ف 1947، رغم أنه عضو فدار شليسفيغ هولستين-سوندربورغ-غلوكسبورغ بالنسب الأبوي. السيدة لويز مونتباتن ولات ملكة كونسورت ديال السويد، بعد ما تزوجات غوستاف السادس أدولف ديال السويد. عائلة مونتباتن هي فرع من الدار الألمانية ديال باتنبرغ. عائلة باتنبرغ كانت فرع منظم ديال دار هيس-دارمستادت، حاكمة الدوشي الكبير ديال هيس فألمانيا. العضو الأول عائلة مونتباتن فالمجلس لي صدرات فـ 1960، لي ما تطبقش بشكل مستمر. رغم أن الأمر كيطبق بالتحديد اسم العائلة "Montbatten-Windsor" على الأحفاد الذكور ديال إليزابيث اللي ما عندهمش أساليب و ألقاب ملكية، "Montbatten-Windsor" تم استخدامو رسميا من طرف بعض الأحفاد ديالها اللي "do" عندهم ستيلات ملكية. اللقب كان أول استخدام رسمي من طرف الأميرة آن فـ 1973، فالسجل ديال العرس باش يتزوجو مارك فيليبس. الأمير ويليام وزوجته كاترين استخدمو سميتي "Monseur و Mداما Muntbaten-Windsor" فـ تقديم دعوى قضائية فرنسية ضد المجلة الفرنسية "Clouser". Montbatten-Windsor كيختلف على الاسم الرسمي ديال العائلة الملكية البريطانية ولا
    شنو هو الواد الكبير اللي كيدخل لخليج غينيا؟ خليج غينيا كيعطي وصف شامل: سمية "غينيا" كانت كتطبق حتى على الساحل الجنوبي ديال غرب إفريقيا، شمال خليج غينيا، اللي ولات كتسمى "غينيا الكبرى"، والساحل الغربي ديال جنوب إفريقيا، فالشرق، اللي ولات كتسمى "غينيا السفلى". سمية "غينيا" مازال كتربط مع أسماء ثلاثة بلدان فإفريقيا: غينيا وغينيا بيساو وغينيا الاستوائية، وكذلك غينيا الجديدة فملانيسيا. النهر الرئيسي اللي كيهز المياه ديالو فالغولف هو نهر النيجر. كاينين تعريفات مختلفة للحدود الجغرافية ديال خليج غينيا؛ المنظمة الهيدروغرافية الدولية خليج غينيا كيعرف المدى الجنوبي الغربي ديال خليج غينيا على أنه "خط من كاب لوبيز ()، في الغابون، في الشمال الغربي حتى إلى إيهليو غاغو كوتينهو (إيلهيو داس رولاس) ()؛ ومن بعد خط من إيهليو غاغو كوتينهو في الشمال الغربي حتى كيب بالماس ()، في ليبيريا. خليج غينيا فيه عدد من الجزر، أكبرها في سلسلة جنوب غربية وشمال شرقية، كتشكل جزء من خط الكاميرون ديال البراكين. أنوبون، اللي كيتسمى تاني باغالو ولا بيغالو، هي جزيرة جزء من غينيا الاستوائية. جزيرة بوبواسي هي جزيرة قبالة الساحل الغربي ديال إفريقيا في خليج غينيا
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

negation_triplet

  • Dataset: negation_triplet at c16b85f
  • Size: 10,000 evaluation samples
  • Columns: anchor, entailment, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor entailment negative
    type string string string
    details
    • min: 9 tokens
    • mean: 22.22 tokens
    • max: 84 tokens
    • min: 5 tokens
    • mean: 12.62 tokens
    • max: 33 tokens
    • min: 6 tokens
    • mean: 14.06 tokens
    • max: 35 tokens
  • Samples:
    anchor entailment negative
    جوج رجال، واحد واقف والآخر گالس فالأرض كيحاولو يضاربو ثور والغبرة ديال الحركة كتطير. جوج كاوبوي كيحاولو يضربو ثور. جوج كاوبوي ما كيحاولوش يضربو ثور.
    وحدة المرا لابسة الكحل كتبان بحال السيلويت قدام سما مغيمة. وحدة المرا لابسة الكحل واقفة قدام خلفية غيمة ومظلمة. المرا اللي لابسة الكحل ما كتوقفش قدام خلفية غيمة ومظلمة.
    دري لابس قميجة زرقة كيلعب فالملعب. دري كيلعب ف الملعب لابس قميجة زرقة دري ما كيلعبش ف الملعب لابس قميجة كحلة
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

pair_score

  • Dataset: pair_score at c16b85f
  • Size: 200,000 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 8 tokens
    • mean: 26.93 tokens
    • max: 133 tokens
    • min: 6 tokens
    • mean: 15.01 tokens
    • max: 42 tokens
    • min: 0.0
    • mean: 0.54
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    همسات لراسها، بحال إلا نسات بلي كنت معاك: 'هاد الكلمات القليلة، وكلشي تبدل.' ومن بعد قالت ليا: 'ما تثيقش فشي راجل، دوركاس، ما يستاهلوش!' مشيت بسرعة، وجبت ليها كاس ديال أتاي قوي ومزيان، وشكراتني، وقالت ليا غادي تحسن ملي تشربو. هي هضرات، ولكن كانت لراسها ماشي ليا. 1.0
    آه آه وزيد ما عجبنيش هاد الاتفاق مع ستاد الكاوبويز فين باش تلقى بلاصة مزيانة خاصك تشري تيكي ديال الموسم كنظن خاص تكون شي بيعات مزيانة لأي واحد غير باغي يمشي لشي ماتش واحد 0.5
    واحد الگيتاريست كيعزف قدام الناس على آلة حمرا محاط بالزملاء ديالو فالفرقة تحت ضو بيض كيجري. راجل كيسوق طوموبيل. 0.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

english_non_english

  • Dataset: english_non_english at c16b85f
  • Size: 354,112 evaluation samples
  • Columns: english and non_english
  • Approximate statistics based on the first 1000 samples:
    english non_english
    type string string
    details
    • min: 5 tokens
    • mean: 126.42 tokens
    • max: 512 tokens
    • min: 5 tokens
    • mean: 138.9 tokens
    • max: 512 tokens
  • Samples:
    english non_english
    Let's do it gradually: A person use an expressway in american city to get around quickly.... So the answer is american city. خلينا نديروها بالتدريج: الواحد كيستعمل الطريق السريع فالمدينة الأمريكية باش يتنقل بسرعة.... إذن الجواب هو مدينة أمريكية.
    you are to to develop vaccination strategies to specifically boost antiviral CD8+ T cell responses in people previously infected with SARS-CoV-2. What would you try? what has been tried before and could be improved? انت خاصك تطور استراتيجيات ديال التلقيح باش تزيد من ردود فعل الخلايا التائية CD8+ المضادة للفيروسات عند الناس اللي سبق ليهم تصابو ب SARS-CoV-2. شنو غادي تجرب؟ شنو هوما الحوايج اللي تجربو من قبل و ممكن يتحسنو؟
    ## Mark Down


    Title: The Benefits of Meditation


    Introduction: Meditation has been practiced for thousands of years and has gained popularity in recent years as a tool for reducing stress and improving overall well-being. There are many benefits to meditation, including physical, mental, and emotional benefits.


    Body:


    - Physical benefits: Meditation has been shown to reduce blood pressure, lower the risk of heart disease, and improve sleep quality.


    - Mental benefits: Regular meditation can help reduce symptoms of anxiety and depression, improve focus and attention, and increase feelings of happiness and well-being.


    - Emotional benefits: Meditation can help individuals develop a greater sense of self-awareness, cultivate empathy and compassion, and improve relationships with others.


    Conclusion: Incorporating regular meditation into your daily routine can have numerous benefits for your physical, mental, and emotional health. Whether you are new to ...
    ## Mark Down


    العنوان: فوايد الميديتاسيون


    المقدمة: الميديتاسيون كانت كتمارس هادي آلاف السنين و ولات مشهورة فهاد السنين الأخيرة كوسيلة باش نقصو من الستريس و نحسنو الصحة بشكل عام. كاينين بزاف د الفوايد للميديتاسيون، بما فيهم الفوايد الجسدية و العقلية و العاطفية.


    الموضوع:


    - الفوايد الجسدية: الميديتاسيون بينات بلي كتنقص الضغط د الدم، كتقلل من خطر أمراض القلب، و كتحسن جودة النعاس.


    - الفوايد العقلية: الميديتاسيون المنتظمة كتقدر تساعد فتنقيص أعراض القلق و الاكتئاب، كتحسن التركيز و الانتباه، و كتزيد من الشعور بالسعادة و الراحة.


    - الفوايد العاطفية: الميديتاسيون كتقدر تساعد الناس باش يطورو وعي أكبر بالذات، يزرعو التعاطف و الشفقة، و يحسنو العلاقات مع الآخرين.


    الخاتمة: إدخال الميديتاسيون المنتظمة فالروتين اليومي ديالك يمكن يكون عندو بزاف د الفوايد على الصحة الجسدية و العقلية و العاطفية ديالك. سواء كنتي جديد فالميديتاسيون ولا كنتي كتمارسها هادي سنين، تاخد الوقت كل نهار باش تهدي عقلك و تركز على التنفس ديالك يقدر يساعدك تحسن الصحة ديالك بشكل عام.


    **سؤال مطر...
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            1024,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

atlasia_sent_embd_bench

  • Dataset: atlasia_sent_embd_bench at 1a54511
  • Size: 725 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 725 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 4 tokens
    • mean: 12.5 tokens
    • max: 47 tokens
    • min: 4 tokens
    • mean: 10.58 tokens
    • max: 38 tokens
    • min: 0.01
    • mean: 0.69
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    فين كاين سوق الخميس؟ فين هو سوق الخميس؟ 0.95
    بغيت نمشي لمراكش. غادي نمشي لمراكش. 0.84
    كليت طاجين باللحم. كليت طاجين باللحم والبرقوق. 0.85
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • learning_rate: 2e-05
  • num_train_epochs: 2
  • warmup_ratio: 0.05
  • bf16: True
  • fp16_full_eval: True
  • load_best_model_at_end: True
  • push_to_hub: True
  • gradient_checkpointing: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 2
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.05
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: True
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: True
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: True
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss triplet loss negation triplet loss pair score loss english non english loss atlasia sent embd bench loss triplet-evaluator-dev_cosine_accuracy negation-triplet-evaluator-dev_cosine_accuracy pair-score-evaluator-dev_spearman_cosine english_non_english-evaluator-dev_mean_accuracy atlasia_sent_embd_bench-evaluator-dev_spearman_cosine
0 0 - - - - - - 0.564 0.648 0.1633 0.47 0.4241
0.0001 1 20.7898 - - - - - - - - - -
0.0029 40 13.8291 - - - - - - - - - -
0.0057 80 12.0506 - - - - - - - - - -
0.0072 100 - 15.9802 17.5988 5.7300 6.8926 6.1317 0.604 0.664 0.2337 0.958 0.4836
0.0086 120 8.2719 - - - - - - - - - -
0.0115 160 8.6835 - - - - - - - - - -
0.0143 200 4.4188 12.9774 15.2087 11.9926 0.7624 10.3184 0.648 0.624 0.2238 0.962 0.3362
0.0172 240 1.9528 - - - - - - - - - -
0.0201 280 3.4093 - - - - - - - - - -
0.0215 300 - 12.6186 13.3399 11.6102 0.2793 9.1191 0.66 0.744 0.3154 0.972 0.4034
0.0229 320 2.9161 - - - - - - - - - -
0.0258 360 1.9909 - - - - - - - - - -
0.0287 400 2.251 11.3492 10.1450 11.0585 0.1603 10.6033 0.676 0.86 0.3578 0.982 0.4692
0.0315 440 1.5238 - - - - - - - - - -
0.0344 480 1.7463 - - - - - - - - - -
0.0358 500 - 10.8403 9.7186 11.6433 0.1120 9.7173 0.656 0.896 0.3383 0.986 0.5097
0.0373 520 2.1243 - - - - - - - - - -
0.0401 560 1.9366 - - - - - - - - - -
0.0430 600 1.7935 10.3315 9.7060 12.2821 0.1072 10.5687 0.68 0.912 0.3254 0.984 0.5628
0.0459 640 3.1008 - - - - - - - - - -
0.0488 680 2.9062 - - - - - - - - - -
0.0502 700 - 9.0548 6.9036 12.0095 0.0959 11.1048 0.684 0.952 0.3213 0.994 0.5480
0.0516 720 2.3841 - - - - - - - - - -
0.0545 760 2.1618 - - - - - - - - - -
0.0574 800 1.777 8.7925 7.2098 12.6594 0.0431 10.8745 0.684 0.952 0.3291 0.994 0.5628
0.0602 840 1.6965 - - - - - - - - - -
0.0631 880 1.7673 - - - - - - - - - -
0.0645 900 - 9.1624 7.4047 13.0299 0.0317 11.5404 0.696 0.924 0.3279 0.996 0.5410
0.0660 920 1.9746 - - - - - - - - - -
0.0688 960 1.872 - - - - - - - - - -
0.0717 1000 1.1131 8.5672 6.6340 13.7128 0.0295 11.1533 0.668 0.948 0.3337 0.998 0.5592
0.0746 1040 1.3198 - - - - - - - - - -
0.0774 1080 1.8419 - - - - - - - - - -
0.0789 1100 - 8.4130 6.3864 13.2154 0.0153 10.6451 0.712 0.948 0.3335 0.994 0.5262
0.0803 1120 1.6762 - - - - - - - - - -
0.0832 1160 3.9883 - - - - - - - - - -
0.0860 1200 1.5664 8.8184 6.0816 12.2234 0.0073 10.7131 0.696 0.96 0.3616 0.996 0.5635
0.0889 1240 1.3161 - - - - - - - - - -
0.0918 1280 1.9032 - - - - - - - - - -
0.0932 1300 - 8.6660 6.4334 12.7970 0.0070 10.6310 0.676 0.936 0.3333 0.996 0.5475
0.0946 1320 2.7411 - - - - - - - - - -
0.0975 1360 1.871 - - - - - - - - - -
0.1004 1400 1.2319 8.7075 6.4615 12.7755 0.0120 11.2216 0.676 0.972 0.3308 0.996 0.5581
0.1032 1440 2.0227 - - - - - - - - - -
0.1061 1480 1.3245 - - - - - - - - - -
0.1075 1500 - 8.6030 6.3256 12.8106 0.0036 11.7344 0.664 0.972 0.3220 0.996 0.5407
0.1090 1520 1.8996 - - - - - - - - - -
0.1118 1560 1.6891 - - - - - - - - - -
0.1147 1600 2.4349 8.4423 6.2785 12.4685 0.0082 10.9247 0.732 0.956 0.3683 1.0 0.5491
0.1176 1640 1.1656 - - - - - - - - - -
0.1204 1680 2.2668 - - - - - - - - - -
0.1219 1700 - 8.1542 5.9050 12.5193 0.0079 10.8660 0.696 0.96 0.3572 0.996 0.5297
0.1233 1720 1.7078 - - - - - - - - - -
0.1262 1760 1.3832 - - - - - - - - - -
0.1291 1800 2.0103 8.1080 6.7303 13.1564 0.0099 10.7117 0.692 0.944 0.3413 0.994 0.5583
0.1319 1840 1.3041 - - - - - - - - - -
0.1348 1880 2.1932 - - - - - - - - - -
0.1362 1900 - 8.2117 5.7046 11.8495 0.0100 10.0298 0.672 0.976 0.3580 0.996 0.5606
0.1377 1920 1.5654 - - - - - - - - - -
0.1405 1960 1.1946 - - - - - - - - - -
0.1434 2000 2.3082 8.3297 6.0079 12.7735 0.0183 10.4638 0.704 0.968 0.3436 0.998 0.5548
0.1463 2040 2.09 - - - - - - - - - -
0.1491 2080 1.6925 - - - - - - - - - -
0.1506 2100 - 8.0986 5.5329 12.5757 0.0128 10.7977 0.708 0.98 0.3741 0.998 0.5240
0.1520 2120 1.2113 - - - - - - - - - -
0.1549 2160 2.4063 - - - - - - - - - -
0.1577 2200 1.8412 8.0907 5.7989 12.3948 0.0143 11.0554 0.708 0.968 0.3503 0.996 0.4793
0.1606 2240 0.9562 - - - - - - - - - -
0.1635 2280 1.2135 - - - - - - - - - -
0.1649 2300 - 8.1588 5.6143 12.8071 0.0088 11.4443 0.756 0.972 0.3658 0.994 0.4572
0.1663 2320 1.3508 - - - - - - - - - -
0.1692 2360 2.6067 - - - - - - - - - -
0.1721 2400 1.607 8.0031 5.5401 11.9341 0.0066 10.7575 0.704 0.96 0.3609 0.994 0.5035
0.1749 2440 1.7494 - - - - - - - - - -
0.1778 2480 2.3028 - - - - - - - - - -
0.1792 2500 - 8.2183 5.1267 12.2310 0.0061 11.0667 0.732 0.968 0.3716 1.0 0.5406
0.1807 2520 0.9761 - - - - - - - - - -
0.1835 2560 1.6957 - - - - - - - - - -
0.1864 2600 1.939 7.8891 5.4450 10.9680 0.0046 10.1469 0.704 0.968 0.3846 1.0 0.5186
0.1893 2640 0.7324 - - - - - - - - - -
0.1921 2680 0.7285 - - - - - - - - - -
0.1936 2700 - 8.4068 5.7998 11.9042 0.0087 11.1683 0.688 0.968 0.3896 0.996 0.5351
0.1950 2720 1.3841 - - - - - - - - - -
0.1979 2760 1.4663 - - - - - - - - - -
0.2007 2800 2.277 8.2173 5.3939 11.2543 0.0105 9.7467 0.736 0.968 0.3875 0.998 0.5594
0.2036 2840 1.3036 - - - - - - - - - -
0.2065 2880 1.0889 - - - - - - - - - -
0.2079 2900 - 7.8243 5.0073 11.6117 0.0096 10.3934 0.684 0.98 0.3739 1.0 0.5747
0.2093 2920 1.5144 - - - - - - - - - -
0.2122 2960 0.9268 - - - - - - - - - -
0.2151 3000 0.6436 8.2545 5.5408 12.6523 0.0097 10.9801 0.732 0.964 0.3777 0.998 0.5900
0.2180 3040 0.986 - - - - - - - - - -
0.2208 3080 1.4206 - - - - - - - - - -
0.2223 3100 - 7.7891 5.4954 11.9534 0.0048 10.5924 0.724 0.956 0.3958 0.996 0.5651
0.2237 3120 1.3055 - - - - - - - - - -
0.2266 3160 0.8373 - - - - - - - - - -
0.2294 3200 1.7713 7.7817 5.1338 11.4539 0.0022 9.9880 0.732 0.98 0.3910 0.996 0.5585
0.2323 3240 1.6581 - - - - - - - - - -
0.2352 3280 0.9275 - - - - - - - - - -
0.2366 3300 - 7.6317 5.1765 12.9028 0.0036 11.1760 0.72 0.968 0.3447 0.996 0.5861
0.2380 3320 1.4374 - - - - - - - - - -
0.2409 3360 1.2501 - - - - - - - - - -
0.2438 3400 1.0991 7.5208 4.8859 12.1917 0.0059 10.6890 0.716 0.984 0.3671 0.996 0.5864
0.2466 3440 2.4537 - - - - - - - - - -
0.2495 3480 1.4602 - - - - - - - - - -
0.2509 3500 - 7.2417 4.7882 11.9865 0.0087 11.0058 0.708 0.976 0.3913 0.994 0.5399
0.2524 3520 2.0012 - - - - - - - - - -
0.2552 3560 2.2597 - - - - - - - - - -
0.2581 3600 1.3845 7.4410 5.0462 12.4737 0.0048 11.1136 0.672 0.984 0.3716 0.996 0.5621
0.2610 3640 1.1866 - - - - - - - - - -
0.2638 3680 0.5763 - - - - - - - - - -
0.2653 3700 - 7.2206 5.0987 10.9750 0.0097 10.2265 0.712 0.972 0.3834 0.996 0.5710
0.2667 3720 2.125 - - - - - - - - - -
0.2696 3760 1.67 - - - - - - - - - -
0.2724 3800 1.2908 7.5228 4.9362 12.5822 0.0067 10.9719 0.7 0.964 0.3727 0.998 0.5614
0.2753 3840 1.88 - - - - - - - - - -
0.2782 3880 1.4682 - - - - - - - - - -
0.2796 3900 - 7.2548 4.6918 11.8272 0.0046 10.4728 0.728 0.972 0.3715 0.998 0.5478
0.2810 3920 1.8583 - - - - - - - - - -
0.2839 3960 1.3598 - - - - - - - - - -
0.2868 4000 1.1581 7.3561 4.9731 12.2870 0.0056 10.7923 0.716 0.972 0.3819 0.998 0.5249
0.2896 4040 1.8351 - - - - - - - - - -
0.2925 4080 1.3343 - - - - - - - - - -
0.2939 4100 - 7.2526 5.6199 11.0538 0.0031 9.4971 0.704 0.964 0.3370 0.998 0.5121
0.2954 4120 2.1229 - - - - - - - - - -
0.2983 4160 1.3904 - - - - - - - - - -
0.3011 4200 1.7179 7.1628 4.5311 11.6182 0.0035 10.6399 0.72 0.972 0.3668 0.996 0.5280
0.3040 4240 1.003 - - - - - - - - - -
0.3069 4280 0.9882 - - - - - - - - - -
0.3083 4300 - 7.5928 4.6059 11.7204 0.0014 10.0369 0.708 0.972 0.3854 0.998 0.5660
0.3097 4320 1.7391 - - - - - - - - - -
0.3126 4360 1.1579 - - - - - - - - - -
0.3155 4400 1.1445 7.4280 4.7461 11.8579 0.0025 10.0929 0.736 0.972 0.3712 0.998 0.5530
0.3183 4440 1.0667 - - - - - - - - - -
0.3212 4480 1.1104 - - - - - - - - - -
0.3226 4500 - 7.2477 4.9498 12.8806 0.0028 11.0197 0.712 0.976 0.3903 0.996 0.5542
0.3241 4520 1.4303 - - - - - - - - - -
0.3269 4560 1.7657 - - - - - - - - - -
0.3298 4600 1.7817 7.5529 4.8863 11.6733 0.0027 9.7232 0.728 0.956 0.3964 1.0 0.5629
0.3327 4640 0.9519 - - - - - - - - - -
0.3355 4680 1.9133 - - - - - - - - - -
0.3370 4700 - 7.2176 4.6705 12.4371 0.0029 10.2033 0.736 0.964 0.3614 1.0 0.5509
0.3384 4720 1.5458 - - - - - - - - - -
0.3413 4760 1.5202 - - - - - - - - - -
0.3441 4800 1.6085 7.1973 5.0053 12.7330 0.0024 10.8953 0.736 0.96 0.3460 1.0 0.5479
0.3470 4840 1.0509 - - - - - - - - - -
0.3499 4880 1.2967 - - - - - - - - - -
0.3513 4900 - 7.4965 5.1641 12.4469 0.0013 10.4724 0.732 0.968 0.3782 1.0 0.5718
0.3527 4920 1.1756 - - - - - - - - - -
0.3556 4960 1.2754 - - - - - - - - - -
0.3585 5000 1.5038 6.9066 5.1286 11.6643 0.0016 10.7261 0.76 0.964 0.3935 1.0 0.5330
0.3613 5040 1.136 - - - - - - - - - -
0.3642 5080 1.0346 - - - - - - - - - -
0.3656 5100 - 7.0410 5.1120 11.2867 0.0014 9.7869 0.736 0.952 0.3605 1.0 0.5564
0.3671 5120 2.4533 - - - - - - - - - -
0.3699 5160 0.8128 - - - - - - - - - -
0.3728 5200 1.3668 6.9540 4.6899 11.8382 0.0047 10.1588 0.748 0.968 0.3864 0.998 0.5737
0.3757 5240 1.1741 - - - - - - - - - -
0.3785 5280 0.9096 - - - - - - - - - -
0.3800 5300 - 6.9362 4.7096 12.2308 0.0012 10.1210 0.732 0.964 0.3471 0.998 0.5455
0.3814 5320 1.3496 - - - - - - - - - -
0.3843 5360 1.8206 - - - - - - - - - -
0.3872 5400 0.8897 6.9397 4.6409 12.5332 0.0011 10.3112 0.728 0.96 0.3415 1.0 0.5741
0.3900 5440 1.2417 - - - - - - - - - -
0.3929 5480 1.1417 - - - - - - - - - -
0.3943 5500 - 6.8141 4.6094 12.4809 0.0012 11.1206 0.744 0.968 0.3513 1.0 0.5687
0.3958 5520 1.5186 - - - - - - - - - -
0.3986 5560 0.9691 - - - - - - - - - -
0.4015 5600 0.6196 7.0456 4.5676 12.6345 0.0010 10.9925 0.728 0.956 0.3529 1.0 0.5637
0.4044 5640 1.265 - - - - - - - - - -
0.4072 5680 1.8459 - - - - - - - - - -
0.4087 5700 - 6.7038 4.5286 10.8693 0.0022 10.0613 0.732 0.968 0.3528 0.998 0.5645
0.4101 5720 0.9422 - - - - - - - - - -
0.4130 5760 1.3758 - - - - - - - - - -
0.4158 5800 1.5028 6.5366 4.6363 12.0648 0.0017 10.4447 0.72 0.972 0.3554 1.0 0.5635
0.4187 5840 0.9472 - - - - - - - - - -
0.4216 5880 1.1561 - - - - - - - - - -
0.4230 5900 - 6.5560 4.3797 10.7109 0.0028 10.0742 0.736 0.972 0.3698 0.996 0.5203
0.4244 5920 1.6747 - - - - - - - - - -
0.4273 5960 2.0334 - - - - - - - - - -
0.4302 6000 1.7362 6.5425 4.4267 10.8121 0.0016 10.0960 0.732 0.964 0.3693 1.0 0.5329
0.4330 6040 1.2816 - - - - - - - - - -
0.4359 6080 2.6439 - - - - - - - - - -
0.4373 6100 - 6.7837 4.5366 11.8511 0.0010 10.8793 0.712 0.976 0.3891 1.0 0.5393
0.4388 6120 1.5408 - - - - - - - - - -
0.4416 6160 1.0131 - - - - - - - - - -
0.4445 6200 1.1245 6.5771 4.4521 11.7971 0.0010 11.1683 0.728 0.964 0.3786 0.996 0.5255
0.4474 6240 1.2367 - - - - - - - - - -
0.4502 6280 1.3186 - - - - - - - - - -
0.4517 6300 - 6.7550 4.5379 10.7046 0.0010 10.6264 0.716 0.972 0.3521 0.998 0.5019
0.4531 6320 1.9037 - - - - - - - - - -
0.4560 6360 1.5134 - - - - - - - - - -
0.4588 6400 1.5218 6.7402 4.7264 11.1922 0.0024 10.7522 0.716 0.964 0.3406 0.998 0.5219
0.4617 6440 2.7299 - - - - - - - - - -
0.4646 6480 1.7502 - - - - - - - - - -
0.4660 6500 - 6.7538 4.5705 12.0456 0.0011 11.0479 0.712 0.964 0.3502 0.998 0.5292
0.4675 6520 0.9343 - - - - - - - - - -
0.4703 6560 1.7427 - - - - - - - - - -
0.4732 6600 1.1898 6.5995 4.3591 12.4093 0.0008 11.0889 0.728 0.972 0.3550 0.998 0.5326
0.4761 6640 1.8446 - - - - - - - - - -
0.4789 6680 1.2943 - - - - - - - - - -
0.4804 6700 - 6.6907 4.4214 11.8190 0.0007 10.7149 0.744 0.964 0.3596 0.996 0.5420
0.4818 6720 0.916 - - - - - - - - - -
0.4847 6760 1.7272 - - - - - - - - - -
0.4875 6800 1.3182 6.3992 4.4179 11.2482 0.0008 10.4548 0.736 0.972 0.3752 0.996 0.5362
0.4904 6840 2.2818 - - - - - - - - - -
0.4933 6880 1.8768 - - - - - - - - - -
0.4947 6900 - 6.6494 4.0630 11.9504 0.0006 10.9395 0.74 0.976 0.3891 0.996 0.5134
0.4961 6920 1.2331 - - - - - - - - - -
0.4990 6960 1.7095 - - - - - - - - - -
0.5019 7000 1.8704 6.6849 4.2151 12.2422 0.0007 10.7112 0.732 0.972 0.3946 0.996 0.5434
0.5047 7040 1.7622 - - - - - - - - - -
0.5076 7080 1.1152 - - - - - - - - - -
0.5090 7100 - 6.6822 4.4659 11.8588 0.0005 11.0155 0.752 0.972 0.3923 0.996 0.5636
0.5105 7120 0.9181 - - - - - - - - - -
0.5133 7160 0.8015 - - - - - - - - - -
0.5162 7200 1.2261 6.7314 4.0227 12.4610 0.0007 11.3860 0.752 0.968 0.3817 0.998 0.5276
0.5191 7240 1.3224 - - - - - - - - - -
0.5219 7280 0.2843 - - - - - - - - - -
0.5234 7300 - 6.5223 4.2811 13.1852 0.0008 11.7837 0.756 0.964 0.3711 0.998 0.5229
0.5248 7320 0.9787 - - - - - - - - - -
0.5277 7360 1.7264 - - - - - - - - - -
0.5305 7400 1.7293 6.2091 4.1177 12.2788 0.0008 11.3532 0.76 0.98 0.3744 0.998 0.5177
0.5334 7440 1.7273 - - - - - - - - - -
0.5363 7480 1.929 - - - - - - - - - -
0.5377 7500 - 6.5921 4.2546 11.3044 0.0008 10.9002 0.76 0.972 0.3861 0.998 0.5283
0.5391 7520 1.9937 - - - - - - - - - -
0.5420 7560 1.5006 - - - - - - - - - -
0.5449 7600 1.2495 6.2727 4.0959 11.2069 0.0016 10.3901 0.784 0.972 0.3967 0.996 0.5501
0.5477 7640 0.8769 - - - - - - - - - -
0.5506 7680 1.4532 - - - - - - - - - -
0.5521 7700 - 6.3584 4.2057 11.0973 0.0012 9.9885 0.784 0.976 0.4120 0.996 0.5467
0.5535 7720 1.6974 - - - - - - - - - -
0.5564 7760 1.891 - - - - - - - - - -
0.5592 7800 1.3024 6.4898 4.1362 10.5508 0.0010 9.7298 0.748 0.976 0.4328 0.998 0.5508
0.5621 7840 1.8113 - - - - - - - - - -
0.5650 7880 1.3665 - - - - - - - - - -
0.5664 7900 - 6.6027 3.6564 12.0996 0.0009 10.5732 0.776 0.976 0.4166 0.996 0.5589
0.5678 7920 0.8154 - - - - - - - - - -
0.5707 7960 1.2966 - - - - - - - - - -
0.5736 8000 2.4097 6.4179 3.8396 10.8334 0.0009 10.0253 0.768 0.976 0.4150 0.996 0.5414
0.5764 8040 1.053 - - - - - - - - - -
0.5793 8080 1.4199 - - - - - - - - - -
0.5807 8100 - 6.4693 4.0042 10.8404 0.0006 10.1338 0.748 0.976 0.3986 1.0 0.5420
0.5822 8120 1.4552 - - - - - - - - - -
0.5850 8160 0.8327 - - - - - - - - - -
0.5879 8200 0.8153 6.5123 4.1603 12.4232 0.0007 11.0311 0.776 0.976 0.3882 0.998 0.5627
0.5908 8240 0.7355 - - - - - - - - - -
0.5936 8280 1.7191 - - - - - - - - - -
0.5951 8300 - 6.1302 4.0568 10.5638 0.0006 9.8139 0.768 0.968 0.4035 0.998 0.5196
0.5965 8320 1.7251 - - - - - - - - - -
0.5994 8360 1.3628 - - - - - - - - - -
0.6022 8400 1.9564 5.9889 3.8336 10.3463 0.0009 9.8357 0.772 0.972 0.4068 0.998 0.5197
0.6051 8440 2.2683 - - - - - - - - - -
0.6080 8480 1.2672 - - - - - - - - - -
0.6094 8500 - 6.0990 3.6277 10.6677 0.0014 10.0781 0.752 0.984 0.4017 0.998 0.5415
0.6108 8520 2.509 - - - - - - - - - -
0.6137 8560 0.7238 - - - - - - - - - -
0.6166 8600 1.1841 6.0976 3.5406 11.7760 0.0019 10.0413 0.772 0.984 0.4047 1.0 0.5495
0.6194 8640 1.319 - - - - - - - - - -
0.6223 8680 0.5822 - - - - - - - - - -
0.6237 8700 - 6.2598 3.6493 12.7187 0.0015 10.5676 0.768 0.976 0.3891 1.0 0.5547
0.6252 8720 0.2454 - - - - - - - - - -
0.6280 8760 0.7652 - - - - - - - - - -
0.6309 8800 0.522 6.1881 3.6039 12.9540 0.0008 10.8089 0.764 0.98 0.4033 1.0 0.5508
0.6338 8840 1.3908 - - - - - - - - - -
0.6367 8880 1.0618 - - - - - - - - - -
0.6381 8900 - 6.2006 3.6730 12.1786 0.0010 10.5342 0.772 0.98 0.3880 0.998 0.5400
0.6395 8920 1.0811 - - - - - - - - - -
0.6424 8960 2.0014 - - - - - - - - - -
0.6453 9000 1.1059 6.1382 3.7986 10.6857 0.0009 10.0816 0.76 0.968 0.4016 1.0 0.5075
0.6481 9040 1.4814 - - - - - - - - - -
0.6510 9080 1.1283 - - - - - - - - - -
0.6524 9100 - 6.4002 3.9062 11.6736 0.0009 10.5602 0.772 0.976 0.3963 1.0 0.5358
0.6539 9120 1.0562 - - - - - - - - - -
0.6567 9160 1.2649 - - - - - - - - - -
0.6596 9200 0.787 6.7253 3.8807 11.8141 0.0012 10.1064 0.756 0.976 0.4066 1.0 0.5546
0.6625 9240 1.275 - - - - - - - - - -
0.6653 9280 1.8612 - - - - - - - - - -
0.6668 9300 - 6.2420 4.0216 11.0363 0.0007 10.2078 0.744 0.98 0.4147 1.0 0.5502
0.6682 9320 1.2219 - - - - - - - - - -
0.6711 9360 0.876 - - - - - - - - - -
0.6739 9400 1.3233 6.0505 3.7857 11.1107 0.0012 10.0202 0.752 0.976 0.4108 1.0 0.5455
0.6768 9440 1.0371 - - - - - - - - - -
0.6797 9480 1.3703 - - - - - - - - - -
0.6811 9500 - 6.3954 3.9390 11.4223 0.0007 10.1586 0.752 0.98 0.4100 1.0 0.5563
0.6825 9520 0.8008 - - - - - - - - - -
0.6854 9560 1.081 - - - - - - - - - -
0.6883 9600 1.5573 6.3192 3.9188 11.4663 0.0009 10.5690 0.78 0.976 0.3971 1.0 0.5651
0.6911 9640 0.808 - - - - - - - - - -
0.6940 9680 1.8158 - - - - - - - - - -
0.6954 9700 - 6.3914 3.9305 10.8488 0.0007 10.0460 0.752 0.972 0.4115 1.0 0.5505
0.6969 9720 1.6614 - - - - - - - - - -
0.6997 9760 1.5922 - - - - - - - - - -
0.7026 9800 0.8229 6.2232 3.7725 11.2493 0.0009 9.7830 0.772 0.98 0.4226 1.0 0.5369
0.7055 9840 1.725 - - - - - - - - - -
0.7083 9880 1.1973 - - - - - - - - - -
0.7098 9900 - 6.3900 3.8784 10.5829 0.0016 9.7697 0.732 0.98 0.4189 1.0 0.5670
0.7112 9920 1.566 - - - - - - - - - -
0.7141 9960 1.2521 - - - - - - - - - -
0.7169 10000 1.13 6.2512 3.7059 10.9412 0.0006 10.1190 0.756 0.984 0.4371 1.0 0.5661
0.7198 10040 0.8363 - - - - - - - - - -
0.7227 10080 1.0455 - - - - - - - - - -
0.7241 10100 - 6.2160 3.7830 10.7265 0.0006 10.4585 0.768 0.976 0.4427 1.0 0.5670
0.7256 10120 0.9964 - - - - - - - - - -
0.7284 10160 1.3909 - - - - - - - - - -
0.7313 10200 1.2283 6.3630 3.4513 11.1347 0.0005 10.2285 0.752 0.976 0.4299 1.0 0.5654
0.7342 10240 1.2223 - - - - - - - - - -
0.7370 10280 1.408 - - - - - - - - - -
0.7385 10300 - 6.0578 3.7268 10.8216 0.0006 9.9088 0.764 0.98 0.4186 1.0 0.5491
0.7399 10320 1.7902 - - - - - - - - - -
0.7428 10360 1.2006 - - - - - - - - - -
0.7456 10400 1.2394 6.2955 3.5018 11.6111 0.0005 10.3243 0.752 0.98 0.4170 1.0 0.5606
0.7485 10440 1.0918 - - - - - - - - - -
0.7514 10480 1.4982 - - - - - - - - - -
0.7528 10500 - 6.4392 3.8168 11.3928 0.0005 10.2592 0.748 0.98 0.4015 1.0 0.5679
0.7542 10520 0.9543 - - - - - - - - - -
0.7571 10560 0.9359 - - - - - - - - - -
0.7600 10600 1.8181 6.0493 3.9072 11.0352 0.0006 10.2737 0.756 0.984 0.4039 1.0 0.5378
0.7628 10640 1.5871 - - - - - - - - - -
0.7657 10680 1.5654 - - - - - - - - - -
0.7671 10700 - 6.3007 3.9220 11.1951 0.0007 11.3436 0.756 0.984 0.4070 1.0 0.5344
0.7686 10720 1.6363 - - - - - - - - - -
0.7714 10760 1.2784 - - - - - - - - - -
0.7743 10800 1.5035 6.5094 3.9617 11.0709 0.0007 11.0967 0.724 0.98 0.4000 1.0 0.5336
0.7772 10840 1.3103 - - - - - - - - - -
0.7800 10880 1.4588 - - - - - - - - - -
0.7815 10900 - 6.0106 3.7081 10.5693 0.0008 10.2833 0.764 0.988 0.4222 1.0 0.5271
0.7829 10920 1.2303 - - - - - - - - - -
0.7858 10960 0.6681 - - - - - - - - - -
0.7886 11000 1.8176 6.1773 3.5863 10.9262 0.0008 10.7784 0.78 0.988 0.4298 1.0 0.5359
0.7915 11040 1.3046 - - - - - - - - - -
0.7944 11080 0.9429 - - - - - - - - - -
0.7958 11100 - 6.4225 3.6288 11.4216 0.0007 11.4955 0.768 0.98 0.4105 1.0 0.5231
0.7972 11120 0.798 - - - - - - - - - -
0.8001 11160 2.2048 - - - - - - - - - -
0.8030 11200 1.4788 6.3066 3.7467 10.8139 0.0007 10.8217 0.764 0.98 0.4077 1.0 0.4975
0.8059 11240 0.8423 - - - - - - - - - -
0.8087 11280 0.7108 - - - - - - - - - -
0.8102 11300 - 6.4678 3.8032 10.3120 0.0008 10.1706 0.756 0.98 0.4072 1.0 0.5026
0.8116 11320 1.5538 - - - - - - - - - -
0.8145 11360 1.4113 - - - - - - - - - -
0.8173 11400 1.0452 6.5408 3.8534 11.2143 0.0007 10.7155 0.764 0.968 0.4113 1.0 0.5504
0.8202 11440 0.6871 - - - - - - - - - -
0.8231 11480 0.653 - - - - - - - - - -
0.8245 11500 - 6.7419 3.6424 11.3963 0.0005 11.0084 0.74 0.976 0.3981 1.0 0.5155
0.8259 11520 1.4146 - - - - - - - - - -
0.8288 11560 0.7473 - - - - - - - - - -
0.8317 11600 1.5669 6.5756 3.8764 10.8613 0.0005 10.7323 0.736 0.972 0.4320 1.0 0.5233
0.8345 11640 1.06 - - - - - - - - - -
0.8374 11680 1.5311 - - - - - - - - - -
0.8388 11700 - 6.4970 3.8377 10.5434 0.0014 10.3649 0.756 0.972 0.4367 1.0 0.5030
0.8403 11720 1.3625 - - - - - - - - - -
0.8431 11760 1.2308 - - - - - - - - - -
0.8460 11800 2.0865 6.6577 4.0879 9.4050 0.0017 9.7841 0.76 0.976 0.4226 1.0 0.4860
0.8489 11840 1.3184 - - - - - - - - - -
0.8517 11880 1.4221 - - - - - - - - - -
0.8532 11900 - 6.4939 3.8234 11.2671 0.0011 11.1041 0.756 0.98 0.4023 1.0 0.5103
0.8546 11920 0.6583 - - - - - - - - - -
0.8575 11960 1.6647 - - - - - - - - - -
0.8603 12000 1.9021 6.2322 3.8148 10.1657 0.0030 10.2423 0.768 0.98 0.4383 1.0 0.5082
0.8632 12040 1.7969 - - - - - - - - - -
0.8661 12080 1.8255 - - - - - - - - - -
0.8675 12100 - 6.1067 3.6899 10.7964 0.0010 10.6694 0.78 0.976 0.4342 1.0 0.5120
0.8689 12120 1.2988 - - - - - - - - - -
0.8718 12160 1.6769 - - - - - - - - - -
0.8747 12200 1.1868 6.0118 3.6103 10.8146 0.0007 10.8553 0.772 0.976 0.4488 1.0 0.5002
0.8775 12240 1.3553 - - - - - - - - - -
0.8804 12280 1.3146 - - - - - - - - - -
0.8818 12300 - 6.1390 3.7946 10.6429 0.0014 10.4786 0.764 0.976 0.4407 1.0 0.5347
0.8833 12320 0.999 - - - - - - - - - -
0.8861 12360 2.0385 - - - - - - - - - -
0.8890 12400 1.6564 6.0732 4.1114 9.3236 0.0024 9.2063 0.764 0.976 0.4393 1.0 0.4950
0.8919 12440 0.5764 - - - - - - - - - -
0.8948 12480 1.4582 - - - - - - - - - -
0.8962 12500 - 6.1120 3.6577 10.1519 0.0007 10.4384 0.772 0.976 0.4288 1.0 0.5320
0.8976 12520 0.819 - - - - - - - - - -
0.9005 12560 1.2052 - - - - - - - - - -
0.9034 12600 1.2735 6.1029 3.5525 10.3496 0.0007 10.6890 0.776 0.984 0.4298 1.0 0.5393
0.9062 12640 1.6801 - - - - - - - - - -
0.9091 12680 1.0065 - - - - - - - - - -
0.9105 12700 - 6.0153 3.5557 10.4457 0.0005 10.7393 0.772 0.976 0.4190 1.0 0.5262
0.9120 12720 1.5408 - - - - - - - - - -
0.9148 12760 1.0985 - - - - - - - - - -
0.9177 12800 1.1046 6.3065 3.5051 11.0890 0.0006 10.6363 0.752 0.98 0.4093 1.0 0.5170
0.9206 12840 0.7615 - - - - - - - - - -
0.9234 12880 1.4499 - - - - - - - - - -
0.9249 12900 - 5.9817 3.5350 10.4932 0.0009 10.2648 0.752 0.984 0.4147 1.0 0.5068
0.9263 12920 1.3273 - - - - - - - - - -
0.9292 12960 1.1244 - - - - - - - - - -
0.9320 13000 1.4008 5.9754 3.8104 9.8068 0.0007 9.6367 0.76 0.98 0.4234 1.0 0.5136
0.9349 13040 1.2215 - - - - - - - - - -
0.9378 13080 1.577 - - - - - - - - - -
0.9392 13100 - 6.1745 3.6730 11.0192 0.0006 10.8128 0.76 0.972 0.4190 1.0 0.5391
0.9406 13120 1.6259 - - - - - - - - - -
0.9435 13160 1.5201 - - - - - - - - - -
0.9464 13200 0.6801 6.0912 3.7139 10.5244 0.0006 10.2860 0.768 0.976 0.4289 1.0 0.5568
0.9492 13240 1.0517 - - - - - - - - - -
0.9521 13280 0.657 - - - - - - - - - -
0.9535 13300 - 5.9594 3.4983 11.0636 0.0007 10.9858 0.772 0.98 0.4430 1.0 0.5434
0.9550 13320 1.529 - - - - - - - - - -
0.9578 13360 1.6408 - - - - - - - - - -
0.9607 13400 1.3665 5.9254 3.6592 10.8697 0.0008 10.6201 0.788 0.98 0.4548 1.0 0.5331
0.9636 13440 1.3197 - - - - - - - - - -
0.9664 13480 1.5559 - - - - - - - - - -
0.9679 13500 - 5.9661 3.7174 10.9429 0.0008 10.7202 0.788 0.976 0.4301 1.0 0.5243
0.9693 13520 1.3653 - - - - - - - - - -
0.9722 13560 1.0426 - - - - - - - - - -
0.9751 13600 1.6035 6.0041 3.5814 10.3515 0.0017 10.4063 0.788 0.976 0.4287 1.0 0.5016
0.9779 13640 1.6476 - - - - - - - - - -
0.9808 13680 1.4682 - - - - - - - - - -
0.9822 13700 - 5.9061 3.7296 10.7064 0.0013 10.2052 0.788 0.972 0.3989 1.0 0.5024
0.9837 13720 1.692 - - - - - - - - - -
0.9865 13760 1.7031 - - - - - - - - - -
0.9894 13800 1.6189 6.1821 3.5744 10.9367 0.0012 10.5203 0.768 0.972 0.4035 1.0 0.5245
0.9923 13840 1.5896 - - - - - - - - - -
0.9951 13880 0.9934 - - - - - - - - - -
0.9966 13900 - 5.9381 3.6365 10.8481 0.0006 10.5712 0.772 0.968 0.4127 1.0 0.5260
0.9980 13920 1.4941 - - - - - - - - - -
1.0009 13960 0.6735 - - - - - - - - - -
1.0037 14000 1.1701 6.4353 3.4669 11.0914 0.0003 10.6590 0.764 0.968 0.4216 1.0 0.5253
1.0066 14040 1.3415 - - - - - - - - - -
1.0095 14080 0.5413 - - - - - - - - - -
1.0109 14100 - 6.1943 3.4953 11.4029 0.0004 10.8050 0.764 0.964 0.4254 1.0 0.5264
1.0123 14120 1.4411 - - - - - - - - - -
1.0152 14160 0.8222 - - - - - - - - - -
1.0181 14200 0.8594 6.2765 3.6301 10.7259 0.0005 10.4801 0.764 0.972 0.4280 1.0 0.5123
1.0209 14240 0.9786 - - - - - - - - - -
1.0238 14280 1.1008 - - - - - - - - - -
1.0252 14300 - 6.1731 3.3505 10.3287 0.0008 10.2179 0.772 0.972 0.4283 1.0 0.5295
1.0267 14320 1.3555 - - - - - - - - - -
1.0295 14360 0.5375 - - - - - - - - - -
1.0324 14400 0.8492 6.0635 3.3401 11.0756 0.0007 10.7022 0.76 0.972 0.4261 1.0 0.5325
1.0353 14440 0.7528 - - - - - - - - - -
1.0381 14480 0.8458 - - - - - - - - - -
1.0396 14500 - 6.2361 3.4359 11.7342 0.0004 10.7304 0.768 0.968 0.4115 0.998 0.5730
1.0410 14520 1.3296 - - - - - - - - - -
1.0439 14560 1.2177 - - - - - - - - - -
1.0467 14600 1.2509 6.2043 3.2426 11.4233 0.0004 10.3228 0.752 0.976 0.4063 0.998 0.5545
1.0496 14640 1.6253 - - - - - - - - - -
1.0525 14680 1.0002 - - - - - - - - - -
1.0539 14700 - 6.0892 3.4202 11.8953 0.0003 10.7860 0.764 0.976 0.4127 1.0 0.5724
1.0553 14720 1.0981 - - - - - - - - - -
1.0582 14760 1.1786 - - - - - - - - - -
1.0611 14800 0.818 6.2068 3.4978 11.7752 0.0004 10.8176 0.764 0.98 0.4116 1.0 0.5707
1.0640 14840 0.783 - - - - - - - - - -
1.0668 14880 0.9746 - - - - - - - - - -
1.0683 14900 - 6.3037 3.6681 11.2307 0.0007 10.5628 0.76 0.968 0.4105 1.0 0.5598
1.0697 14920 0.9892 - - - - - - - - - -
1.0726 14960 0.5575 - - - - - - - - - -
1.0754 15000 1.0864 6.1162 3.6152 11.5282 0.0009 10.6489 0.768 0.968 0.4102 1.0 0.5625
1.0783 15040 0.6301 - - - - - - - - - -
1.0812 15080 1.3709 - - - - - - - - - -
1.0826 15100 - 6.2022 3.3786 11.5193 0.0006 10.9007 0.76 0.98 0.4107 1.0 0.5595
1.0840 15120 2.143 - - - - - - - - - -
1.0869 15160 0.6445 - - - - - - - - - -
1.0898 15200 1.0133 6.0120 3.8011 9.7737 0.0011 9.8479 0.764 0.98 0.4274 1.0 0.5335
1.0926 15240 1.0335 - - - - - - - - - -
1.0955 15280 1.6948 - - - - - - - - - -
1.0969 15300 - 5.9778 3.4490 9.9395 0.0010 9.9163 0.772 0.98 0.4263 1.0 0.5304
1.0984 15320 0.7676 - - - - - - - - - -
1.1012 15360 0.9369 - - - - - - - - - -
1.1041 15400 0.8754 5.9601 3.5159 9.7798 0.0006 10.0150 0.768 0.992 0.4329 1.0 0.5270
1.1070 15440 0.7704 - - - - - - - - - -
1.1098 15480 0.9894 - - - - - - - - - -
1.1113 15500 - 6.1849 3.4097 11.1522 0.0005 11.1830 0.772 0.988 0.4262 1.0 0.5367
1.1127 15520 0.8469 - - - - - - - - - -
1.1156 15560 1.0993 - - - - - - - - - -
1.1184 15600 0.9633 6.0609 3.5953 10.8009 0.0006 10.9086 0.772 0.984 0.4331 1.0 0.5451
1.1213 15640 1.2875 - - - - - - - - - -
1.1242 15680 1.0363 - - - - - - - - - -
1.1256 15700 - 5.7686 3.5443 10.4223 0.0007 10.4886 0.772 0.98 0.4217 1.0 0.5153
1.1270 15720 0.4937 - - - - - - - - - -
1.1299 15760 1.1189 - - - - - - - - - -
1.1328 15800 1.2602 6.1040 3.7166 11.3956 0.0004 11.2940 0.784 0.98 0.4247 1.0 0.5253
1.1356 15840 0.793 - - - - - - - - - -
1.1385 15880 0.6153 - - - - - - - - - -
1.1399 15900 - 6.0912 3.4362 10.9679 0.0003 10.9023 0.78 0.976 0.4367 1.0 0.5463
1.1414 15920 0.898 - - - - - - - - - -
1.1443 15960 1.3282 - - - - - - - - - -
1.1471 16000 1.1259 6.0880 3.5189 10.4564 0.0004 10.6086 0.784 0.972 0.4417 1.0 0.5374
1.1500 16040 0.8868 - - - - - - - - - -
1.1529 16080 0.7495 - - - - - - - - - -
1.1543 16100 - 6.1165 3.3006 10.9223 0.0004 10.8935 0.772 0.98 0.4294 1.0 0.5465
1.1557 16120 1.5839 - - - - - - - - - -
1.1586 16160 0.8949 - - - - - - - - - -
1.1615 16200 0.4818 5.8820 3.3969 10.4288 0.0004 10.4517 0.784 0.976 0.4453 1.0 0.5381
1.1643 16240 0.7182 - - - - - - - - - -
1.1672 16280 0.9437 - - - - - - - - - -
1.1686 16300 - 6.0283 3.3916 11.0597 0.0005 10.9738 0.784 0.976 0.4521 1.0 0.5474
1.1701 16320 1.4796 - - - - - - - - - -
1.1729 16360 0.7441 - - - - - - - - - -
1.1758 16400 0.866 5.9636 3.526 11.446 0.0004 11.1687 0.804 0.976 0.4538 1.0 0.5473
1.1787 16440 1.1569 - - - - - - - - - -
1.1815 16480 0.7126 - - - - - - - - - -
1.1830 16500 - 5.8817 3.4200 11.0480 0.0003 10.8819 0.788 0.98 0.4367 1.0 0.5311
1.1844 16520 1.1406 - - - - - - - - - -
1.1873 16560 0.9611 - - - - - - - - - -
1.1901 16600 0.3031 5.6742 3.3375 11.0534 0.0005 10.9393 0.784 0.984 0.4375 1.0 0.5152
1.1930 16640 0.4367 - - - - - - - - - -
1.1959 16680 0.8354 - - - - - - - - - -
1.1973 16700 - 6.0318 3.3412 10.6380 0.0004 10.7561 0.792 0.98 0.4445 1.0 0.5271
1.1987 16720 1.0305 - - - - - - - - - -
1.2016 16760 1.1759 - - - - - - - - - -
1.2045 16800 1.0735 5.8259 3.3085 10.1577 0.0004 10.1683 0.792 0.98 0.4370 1.0 0.5298
1.2073 16840 0.6762 - - - - - - - - - -
1.2102 16880 0.6478 - - - - - - - - - -
1.2116 16900 - 5.7789 3.3138 11.2071 0.0004 11.3353 0.784 0.98 0.4380 1.0 0.5357
1.2131 16920 0.5509 - - - - - - - - - -
1.2159 16960 0.1875 - - - - - - - - - -
1.2188 17000 0.7202 5.8164 3.2536 11.3767 0.0003 11.5049 0.784 0.972 0.4410 1.0 0.5437
1.2217 17040 0.8869 - - - - - - - - - -
1.2245 17080 0.7003 - - - - - - - - - -
1.2260 17100 - 5.7573 3.2675 11.0401 0.0003 11.1741 0.784 0.972 0.4478 1.0 0.5504
1.2274 17120 0.3666 - - - - - - - - - -
1.2303 17160 1.3352 - - - - - - - - - -
1.2332 17200 0.4684 5.6879 3.2923 10.9823 0.0003 10.9449 0.78 0.98 0.4454 1.0 0.5480
1.2360 17240 0.5983 - - - - - - - - - -
1.2389 17280 0.5632 - - - - - - - - - -
1.2403 17300 - 5.7566 3.2448 11.2330 0.0003 11.2470 0.78 0.972 0.4313 1.0 0.5471
1.2418 17320 0.7914 - - - - - - - - - -
1.2446 17360 0.6431 - - - - - - - - - -
1.2475 17400 1.1066 5.8292 3.3007 11.9207 0.0005 11.9906 0.788 0.968 0.4306 1.0 0.5590
1.2504 17440 0.6084 - - - - - - - - - -
1.2532 17480 1.2649 - - - - - - - - - -
1.2547 17500 - 5.9872 3.2044 11.4216 0.0005 11.7565 0.796 0.972 0.4531 1.0 0.5505
1.2561 17520 1.2656 - - - - - - - - - -
1.2590 17560 0.6741 - - - - - - - - - -
1.2618 17600 0.7233 6.0426 3.3169 11.2171 0.0004 11.4288 0.776 0.972 0.4408 1.0 0.5336
1.2647 17640 0.7292 - - - - - - - - - -
1.2676 17680 0.9246 - - - - - - - - - -
1.2690 17700 - 5.9377 3.2436 11.0535 0.0004 11.0352 0.772 0.964 0.4419 1.0 0.5165
1.2704 17720 0.7405 - - - - - - - - - -
1.2733 17760 0.9764 - - - - - - - - - -
1.2762 17800 0.8515 5.7649 3.2807 11.1696 0.0006 11.2005 0.788 0.972 0.4412 1.0 0.5501
1.2790 17840 0.8064 - - - - - - - - - -
1.2819 17880 1.0318 - - - - - - - - - -
1.2833 17900 - 5.7835 3.3138 10.2253 0.0008 10.5886 0.804 0.972 0.4524 1.0 0.5433
1.2848 17920 1.0983 - - - - - - - - - -
1.2876 17960 0.898 - - - - - - - - - -
1.2905 18000 0.7292 6.0037 3.6360 11.0576 0.0006 11.3522 0.78 0.976 0.4396 1.0 0.5411
1.2934 18040 1.2048 - - - - - - - - - -
1.2962 18080 0.9823 - - - - - - - - - -
1.2977 18100 - 5.8759 3.5979 10.0588 0.0006 10.3066 0.784 0.968 0.4377 1.0 0.5314
1.2991 18120 0.5921 - - - - - - - - - -
1.3020 18160 1.0532 - - - - - - - - - -
1.3048 18200 0.3172 6.0792 3.5393 10.8949 0.0005 10.9762 0.792 0.976 0.4407 1.0 0.5461
1.3077 18240 0.4293 - - - - - - - - - -
1.3106 18280 1.081 - - - - - - - - - -
1.3120 18300 - 6.0843 3.3253 10.5314 0.0007 10.6406 0.784 0.976 0.4439 1.0 0.5443
1.3134 18320 0.62 - - - - - - - - - -
1.3163 18360 0.7956 - - - - - - - - - -
1.3192 18400 0.4171 6.1574 3.4035 10.9681 0.0007 10.8399 0.792 0.98 0.4449 1.0 0.5641
1.3221 18440 0.5263 - - - - - - - - - -
1.3249 18480 0.9403 - - - - - - - - - -
1.3264 18500 - 5.9392 3.4468 11.0720 0.0008 10.9560 0.784 0.976 0.4549 1.0 0.5628
1.3278 18520 0.92 - - - - - - - - - -
1.3307 18560 0.759 - - - - - - - - - -
1.3335 18600 1.2753 5.9051 3.3819 10.7180 0.0005 10.5795 0.78 0.972 0.4542 1.0 0.5649
1.3364 18640 0.4659 - - - - - - - - - -
1.3393 18680 0.9096 - - - - - - - - - -
1.3407 18700 - 5.9897 3.3758 10.7580 0.0004 10.6663 0.768 0.976 0.4501 1.0 0.5555
1.3421 18720 0.9986 - - - - - - - - - -
1.3450 18760 0.9068 - - - - - - - - - -
1.3479 18800 0.4823 6.0033 3.4771 10.9573 0.0005 10.8311 0.796 0.968 0.4436 1.0 0.5601
1.3507 18840 0.7237 - - - - - - - - - -
1.3536 18880 0.5422 - - - - - - - - - -
1.3550 18900 - 5.9763 3.6116 9.7714 0.0005 10.1430 0.78 0.972 0.4583 1.0 0.5394
1.3565 18920 0.9239 - - - - - - - - - -
1.3593 18960 0.9785 - - - - - - - - - -
1.3622 19000 0.3901 6.1554 3.4446 10.4315 0.0005 10.4623 0.776 0.972 0.4601 1.0 0.5477
1.3651 19040 0.9784 - - - - - - - - - -
1.3679 19080 1.0004 - - - - - - - - - -
1.3694 19100 - 6.0656 3.2900 10.2077 0.0007 10.3271 0.796 0.972 0.4587 1.0 0.5462
1.3708 19120 0.626 - - - - - - - - - -
1.3737 19160 0.7323 - - - - - - - - - -
1.3765 19200 0.4445 6.0877 3.2934 10.7601 0.0009 10.9225 0.78 0.972 0.4685 1.0 0.5518
1.3794 19240 0.7448 - - - - - - - - - -
1.3823 19280 0.8053 - - - - - - - - - -
1.3837 19300 - 6.0295 3.3022 10.5335 0.0006 10.7074 0.776 0.972 0.4626 1.0 0.5464
1.3851 19320 0.7031 - - - - - - - - - -
1.3880 19360 1.0556 - - - - - - - - - -
1.3909 19400 0.3217 5.9775 3.2873 10.5561 0.0004 10.7243 0.768 0.972 0.4527 1.0 0.5506
1.3937 19440 0.6705 - - - - - - - - - -
1.3966 19480 0.78 - - - - - - - - - -
1.3980 19500 - 6.0645 3.2182 11.2536 0.0005 11.1626 0.776 0.968 0.4506 1.0 0.5475
1.3995 19520 0.3959 - - - - - - - - - -
1.4024 19560 0.5687 - - - - - - - - - -
1.4052 19600 0.8192 6.0756 3.2598 11.0416 0.0005 10.8876 0.768 0.972 0.4613 1.0 0.5536
1.4081 19640 0.9642 - - - - - - - - - -
1.4110 19680 0.5014 - - - - - - - - - -
1.4124 19700 - 6.0775 3.2551 10.7694 0.0005 10.6733 0.768 0.976 0.4466 1.0 0.5521
1.4138 19720 0.495 - - - - - - - - - -
1.4167 19760 0.9221 - - - - - - - - - -
1.4196 19800 0.5843 5.9911 3.0849 11.0886 0.0004 11.0913 0.772 0.968 0.4555 1.0 0.5591
1.4224 19840 0.9749 - - - - - - - - - -
1.4253 19880 0.8805 - - - - - - - - - -
1.4267 19900 - 5.9521 3.2240 10.0239 0.0005 10.2935 0.772 0.968 0.4459 1.0 0.5438
1.4282 19920 1.0083 - - - - - - - - - -
1.4310 19960 1.0015 - - - - - - - - - -
1.4339 20000 1.0272 6.0537 3.2560 10.3327 0.0004 10.6029 0.76 0.972 0.4493 1.0 0.5402
1.4368 20040 1.1715 - - - - - - - - - -
1.4396 20080 0.6956 - - - - - - - - - -
1.4411 20100 - 5.9883 3.4152 10.9814 0.0005 11.1304 0.776 0.964 0.4604 1.0 0.5472
1.4425 20120 0.7741 - - - - - - - - - -
1.4454 20160 0.496 - - - - - - - - - -
1.4482 20200 0.9008 5.8765 3.2477 10.4899 0.0004 10.7038 0.756 0.968 0.4645 1.0 0.5457
1.4511 20240 0.8311 - - - - - - - - - -
1.4540 20280 1.1644 - - - - - - - - - -
1.4554 20300 - 5.9929 3.2742 10.4088 0.0003 10.6599 0.776 0.98 0.4554 1.0 0.5418
1.4568 20320 0.8517 - - - - - - - - - -
1.4597 20360 1.2764 - - - - - - - - - -
1.4626 20400 1.2108 5.9392 3.3039 10.1676 0.0004 10.7144 0.776 0.976 0.4538 1.0 0.5381
1.4654 20440 1.1271 - - - - - - - - - -
1.4683 20480 0.8756 - - - - - - - - - -
1.4697 20500 - 6.0111 3.1962 10.4988 0.0004 10.9031 0.768 0.98 0.4454 1.0 0.5504
1.4712 20520 0.913 - - - - - - - - - -
1.4740 20560 0.6022 - - - - - - - - - -
1.4769 20600 0.9477 5.9998 3.1037 10.2395 0.0004 10.7429 0.756 0.98 0.4426 1.0 0.5464
1.4798 20640 0.7969 - - - - - - - - - -
1.4826 20680 0.7072 - - - - - - - - - -
1.4841 20700 - 5.9116 3.3063 10.4505 0.0003 10.7617 0.776 0.976 0.4520 1.0 0.5435
1.4855 20720 1.0643 - - - - - - - - - -
1.4884 20760 1.0282 - - - - - - - - - -
1.4913 20800 0.947 5.8197 3.3254 9.8285 0.0003 10.2255 0.788 0.972 0.4525 1.0 0.5346
1.4941 20840 1.1953 - - - - - - - - - -
1.4970 20880 0.7188 - - - - - - - - - -
1.4984 20900 - 5.9146 3.3362 11.0057 0.0004 11.0589 0.772 0.968 0.4424 1.0 0.5545
1.4999 20920 0.7097 - - - - - - - - - -
1.5027 20960 1.3975 - - - - - - - - - -
1.5056 21000 0.8657 5.8702 3.2819 10.4582 0.0004 10.7777 0.792 0.972 0.4412 1.0 0.5487
1.5085 21040 0.5618 - - - - - - - - - -
1.5113 21080 0.7454 - - - - - - - - - -
1.5128 21100 - 5.9731 3.3644 10.7691 0.0004 11.0105 0.792 0.972 0.4391 1.0 0.5553
1.5142 21120 0.5567 - - - - - - - - - -
1.5171 21160 0.5014 - - - - - - - - - -
1.5199 21200 0.6932 5.9899 3.2437 10.9021 0.0004 11.2602 0.776 0.976 0.4510 1.0 0.5534
1.5228 21240 0.2903 - - - - - - - - - -
1.5257 21280 0.4668 - - - - - - - - - -
1.5271 21300 - 5.9541 3.1441 10.4986 0.0005 11.0182 0.776 0.972 0.4541 1.0 0.5420
1.5285 21320 1.0579 - - - - - - - - - -
1.5314 21360 1.2402 - - - - - - - - - -
1.5343 21400 1.0772 5.9735 3.1699 10.5449 0.0005 11.0245 0.776 0.976 0.4575 1.0 0.5440
1.5371 21440 1.0139 - - - - - - - - - -
1.5400 21480 1.1956 - - - - - - - - - -
1.5414 21500 - 5.8488 3.1403 10.2549 0.0005 10.6338 0.78 0.972 0.4549 1.0 0.5413
1.5429 21520 1.02 - - - - - - - - - -
1.5457 21560 0.513 - - - - - - - - - -
1.5486 21600 0.7119 5.8142 3.1011 10.2517 0.0005 10.6897 0.772 0.976 0.4461 1.0 0.5364
1.5515 21640 0.7852 - - - - - - - - - -
1.5543 21680 1.2249 - - - - - - - - - -
1.5558 21700 - 5.7910 3.1653 9.9181 0.0005 10.2742 0.78 0.98 0.4437 1.0 0.5381
1.5572 21720 0.9331 - - - - - - - - - -
1.5601 21760 0.6961 - - - - - - - - - -
1.5629 21800 0.9743 5.9118 2.9649 10.1821 0.0004 10.5300 0.772 0.98 0.4507 1.0 0.5448
1.5658 21840 0.4714 - - - - - - - - - -
1.5687 21880 0.8277 - - - - - - - - - -
1.5701 21900 - 5.8867 3.0510 10.6056 0.0005 10.9108 0.776 0.984 0.4449 1.0 0.5459
1.5716 21920 0.5635 - - - - - - - - - -
1.5744 21960 0.9917 - - - - - - - - - -
1.5773 22000 0.9861 5.9605 3.1164 10.0947 0.0004 10.4506 0.768 0.976 0.4581 1.0 0.5382
1.5802 22040 0.5408 - - - - - - - - - -
1.5830 22080 1.0179 - - - - - - - - - -
1.5845 22100 - 5.8809 3.1842 9.7128 0.0004 10.1077 0.772 0.98 0.4589 1.0 0.5324
1.5859 22120 0.2571 - - - - - - - - - -
1.5888 22160 0.5001 - - - - - - - - - -
1.5916 22200 0.4042 6.0276 3.2196 10.3380 0.0004 10.5913 0.768 0.976 0.4590 1.0 0.5435
1.5945 22240 1.1973 - - - - - - - - - -
1.5974 22280 0.7853 - - - - - - - - - -
1.5988 22300 - 5.9285 3.1661 9.8794 0.0004 10.1896 0.772 0.98 0.4542 1.0 0.5423
1.6002 22320 1.0261 - - - - - - - - - -
1.6031 22360 1.1879 - - - - - - - - - -
1.6060 22400 1.0068 5.8246 3.1093 9.7214 0.0003 10.0860 0.788 0.976 0.4548 1.0 0.5326
1.6088 22440 0.8886 - - - - - - - - - -
1.6117 22480 1.2478 - - - - - - - - - -
1.6131 22500 - 5.8758 3.0718 10.0964 0.0004 10.3751 0.788 0.968 0.4488 1.0 0.5400
1.6146 22520 0.4827 - - - - - - - - - -
1.6174 22560 0.5315 - - - - - - - - - -
1.6203 22600 0.4423 5.9294 3.0128 10.2962 0.0004 10.5069 0.776 0.972 0.4470 1.0 0.5409
1.6232 22640 0.3553 - - - - - - - - - -
1.6260 22680 0.3238 - - - - - - - - - -
1.6275 22700 - 5.9739 3.0365 10.5690 0.0004 10.7208 0.776 0.968 0.4445 1.0 0.5485
1.6289 22720 0.1533 - - - - - - - - - -
1.6318 22760 0.2964 - - - - - - - - - -
1.6346 22800 0.7423 5.9819 3.0748 10.6916 0.0003 10.7703 0.788 0.972 0.4470 1.0 0.5430
1.6375 22840 0.7456 - - - - - - - - - -
1.6404 22880 0.6545 - - - - - - - - - -
1.6418 22900 - 5.8125 3.0592 10.6499 0.0003 10.7208 0.776 0.98 0.4477 1.0 0.5465
1.6432 22920 1.0338 - - - - - - - - - -
1.6461 22960 1.0181 - - - - - - - - - -
1.6490 23000 0.69 5.8569 3.0881 10.2993 0.0003 10.5802 0.768 0.98 0.4526 1.0 0.5433
1.6518 23040 0.4812 - - - - - - - - - -
1.6547 23080 0.9672 - - - - - - - - - -
1.6562 23100 - 5.8322 3.1317 10.2760 0.0003 10.5242 0.764 0.98 0.4587 1.0 0.5476
1.6576 23120 0.4617 - - - - - - - - - -
1.6605 23160 0.671 - - - - - - - - - -
1.6633 23200 0.8419 5.8139 3.1564 10.3019 0.0003 10.3869 0.76 0.98 0.4623 1.0 0.5536
1.6662 23240 0.8408 - - - - - - - - - -
1.6691 23280 0.5924 - - - - - - - - - -
1.6705 23300 - 5.8121 3.1685 10.5073 0.0003 10.5664 0.772 0.984 0.4557 1.0 0.5589
1.6719 23320 0.4701 - - - - - - - - - -
1.6748 23360 0.7308 - - - - - - - - - -
1.6777 23400 0.6402 5.7057 3.1921 10.4153 0.0003 10.4719 0.784 0.984 0.4584 1.0 0.5558
1.6805 23440 0.6357 - - - - - - - - - -
1.6834 23480 0.5094 - - - - - - - - - -
1.6848 23500 - 5.7727 3.2063 10.5314 0.0003 10.5817 0.768 0.984 0.4618 1.0 0.5558
1.6863 23520 0.9192 - - - - - - - - - -
1.6891 23560 0.5226 - - - - - - - - - -
1.6920 23600 0.7059 5.8537 3.1359 10.5121 0.0003 10.5163 0.768 0.984 0.4610 1.0 0.5581
1.6949 23640 0.9678 - - - - - - - - - -
1.6977 23680 1.3125 - - - - - - - - - -
1.6992 23700 - 5.7771 3.1868 10.5992 0.0003 10.5975 0.776 0.976 0.4629 1.0 0.5542
1.7006 23720 0.638 - - - - - - - - - -
1.7035 23760 0.5809 - - - - - - - - - -
1.7063 23800 0.8036 5.7688 3.1529 10.4475 0.0003 10.4654 0.78 0.98 0.4604 1.0 0.5451
1.7092 23840 0.8185 - - - - - - - - - -
1.7121 23880 0.8383 - - - - - - - - - -
1.7135 23900 - 5.8029 3.1232 10.3051 0.0004 10.3879 0.776 0.976 0.4570 1.0 0.5429
1.7149 23920 0.6448 - - - - - - - - - -
1.7178 23960 0.5379 - - - - - - - - - -
1.7207 24000 0.3225 5.7206 3.1534 10.6125 0.0003 10.6981 0.776 0.976 0.4594 1.0 0.5499
1.7235 24040 0.784 - - - - - - - - - -
1.7264 24080 0.57 - - - - - - - - - -
1.7278 24100 - 5.7277 3.0763 10.1469 0.0003 10.4435 0.776 0.984 0.4627 1.0 0.5381
1.7293 24120 0.9156 - - - - - - - - - -
1.7321 24160 0.4202 - - - - - - - - - -
1.7350 24200 0.9681 5.6481 3.1208 10.0788 0.0003 10.3961 0.788 0.98 0.4643 1.0 0.5383
1.7379 24240 0.9155 - - - - - - - - - -
1.7408 24280 0.7918 - - - - - - - - - -
1.7422 24300 - 5.6792 3.0386 10.0217 0.0003 10.3838 0.8 0.984 0.4618 1.0 0.5372
1.7436 24320 0.8733 - - - - - - - - - -
1.7465 24360 0.8365 - - - - - - - - - -
1.7494 24400 0.6518 5.6460 2.9964 10.1590 0.0003 10.5312 0.788 0.984 0.4642 1.0 0.5374
1.7522 24440 0.8351 - - - - - - - - - -
1.7551 24480 0.471 - - - - - - - - - -
1.7565 24500 - 5.7090 3.0500 10.4093 0.0003 10.7293 0.784 0.984 0.4658 1.0 0.5406
1.7580 24520 0.4213 - - - - - - - - - -
1.7608 24560 1.5103 - - - - - - - - - -
1.7637 24600 0.7551 5.6900 3.0475 10.0234 0.0003 10.4179 0.764 0.988 0.4608 1.0 0.5310
1.7666 24640 1.3586 - - - - - - - - - -
1.7694 24680 0.6762 - - - - - - - - - -
1.7709 24700 - 5.7130 3.0483 10.0135 0.0003 10.3687 0.768 0.988 0.4577 1.0 0.5376
1.7723 24720 0.8057 - - - - - - - - - -
1.7752 24760 0.8595 - - - - - - - - - -
1.7780 24800 0.6458 5.7108 3.0559 10.1751 0.0003 10.5286 0.768 0.988 0.4616 1.0 0.5428
1.7809 24840 1.1499 - - - - - - - - - -
1.7838 24880 0.4557 - - - - - - - - - -
1.7852 24900 - 5.6880 3.0359 10.2293 0.0003 10.5385 0.78 0.988 0.4649 1.0 0.5420
1.7866 24920 0.5165 - - - - - - - - - -
1.7895 24960 1.3013 - - - - - - - - - -
1.7924 25000 0.4093 5.6897 3.0357 10.3722 0.0003 10.7133 0.772 0.988 0.4705 1.0 0.5421
1.7952 25040 0.4714 - - - - - - - - - -
1.7981 25080 0.5975 - - - - - - - - - -
1.7995 25100 - 5.6866 3.0407 10.5010 0.0003 10.8285 0.772 0.988 0.4713 1.0 0.5421
1.8010 25120 1.3904 - - - - - - - - - -
1.8038 25160 0.7923 - - - - - - - - - -
1.8067 25200 0.6641 5.6382 3.0598 10.1920 0.0003 10.6480 0.78 0.988 0.4706 1.0 0.5324
1.8096 25240 0.4661 - - - - - - - - - -
1.8124 25280 0.9337 - - - - - - - - - -
1.8139 25300 - 5.6361 3.0775 10.0605 0.0003 10.5628 0.788 0.988 0.4728 1.0 0.5287
1.8153 25320 0.6882 - - - - - - - - - -
1.8182 25360 0.6064 - - - - - - - - - -
1.8210 25400 0.3382 5.6499 3.0265 10.1391 0.0003 10.6283 0.788 0.984 0.4702 1.0 0.5307
1.8239 25440 0.5191 - - - - - - - - - -
1.8268 25480 0.8298 - - - - - - - - - -
1.8282 25500 - 5.6347 3.0064 10.0500 0.0003 10.5386 0.772 0.988 0.4735 1.0 0.5298
1.8297 25520 0.8301 - - - - - - - - - -
1.8325 25560 0.8707 - - - - - - - - - -
1.8354 25600 0.7729 5.6992 3.0087 10.1535 0.0003 10.6004 0.78 0.988 0.4745 1.0 0.5300
1.8383 25640 0.9547 - - - - - - - - - -
1.8411 25680 0.5701 - - - - - - - - - -
1.8426 25700 - 5.6935 3.0149 10.1550 0.0003 10.5619 0.784 0.988 0.4740 1.0 0.5324
1.8440 25720 1.4352 - - - - - - - - - -
1.8469 25760 0.8668 - - - - - - - - - -
1.8497 25800 0.9621 5.6714 3.1038 10.0578 0.0003 10.4117 0.788 0.988 0.4759 1.0 0.5306
1.8526 25840 0.563 - - - - - - - - - -
1.8555 25880 0.6726 - - - - - - - - - -
1.8569 25900 - 5.6409 3.1288 10.1726 0.0003 10.5073 0.78 0.988 0.4723 1.0 0.5309
1.8583 25920 1.094 - - - - - - - - - -
1.8612 25960 1.1256 - - - - - - - - - -
1.8641 26000 1.0417 5.6838 3.1533 10.0762 0.0003 10.4498 0.784 0.988 0.4745 1.0 0.5288
1.8669 26040 0.9272 - - - - - - - - - -
1.8698 26080 0.7245 - - - - - - - - - -
1.8712 26100 - 5.7145 3.1585 10.1436 0.0003 10.5135 0.784 0.988 0.4745 1.0 0.5325
1.8727 26120 1.0524 - - - - - - - - - -
1.8755 26160 0.6455 - - - - - - - - - -
1.8784 26200 0.7447 5.7021 3.1600 10.2166 0.0004 10.5962 0.784 0.988 0.4738 1.0 0.5318
1.8813 26240 0.7884 - - - - - - - - - -
1.8841 26280 0.5738 - - - - - - - - - -
1.8856 26300 - 5.7169 3.1273 10.1430 0.0003 10.5293 0.776 0.988 0.4733 1.0 0.5303
1.8870 26320 1.2983 - - - - - - - - - -
1.8899 26360 1.1237 - - - - - - - - - -
1.8927 26400 0.4008 5.7092 3.1613 9.8359 0.0003 10.3368 0.784 0.988 0.4752 1.0 0.5280
1.8956 26440 0.8387 - - - - - - - - - -
1.8985 26480 0.6985 - - - - - - - - - -
1.8999 26500 - 5.7205 3.1791 9.8387 0.0003 10.3431 0.788 0.988 0.4767 1.0 0.5270
1.9013 26520 0.4603 - - - - - - - - - -
1.9042 26560 0.5179 - - - - - - - - - -
1.9071 26600 1.0781 5.7542 3.1408 9.9101 0.0004 10.4244 0.78 0.992 0.4772 1.0 0.5298
1.9100 26640 0.5247 - - - - - - - - - -
1.9128 26680 0.7301 - - - - - - - - - -
1.9143 26700 - 5.7733 3.1161 10.0979 0.0004 10.5385 0.78 0.988 0.4757 1.0 0.5319
1.9157 26720 0.7027 - - - - - - - - - -
1.9186 26760 0.7147 - - - - - - - - - -
1.9214 26800 0.4311 5.7595 3.1117 10.1126 0.0004 10.5361 0.78 0.988 0.4755 1.0 0.5315
1.9243 26840 0.694 - - - - - - - - - -
1.9272 26880 0.7712 - - - - - - - - - -
1.9286 26900 - 5.7621 3.1211 10.0529 0.0004 10.4668 0.78 0.992 0.4763 1.0 0.5298
1.9300 26920 1.0605 - - - - - - - - - -
1.9329 26960 0.847 - - - - - - - - - -
1.9358 27000 0.5856 5.7613 3.1389 9.9436 0.0004 10.3821 0.78 0.988 0.4769 1.0 0.5297
1.9386 27040 0.9825 - - - - - - - - - -
1.9415 27080 1.2621 - - - - - - - - - -
1.9429 27100 - 5.7951 3.1702 9.9647 0.0003 10.4170 0.776 0.988 0.4765 1.0 0.5322
1.9444 27120 0.5645 - - - - - - - - - -
1.9472 27160 0.4824 - - - - - - - - - -
1.9501 27200 0.4497 5.7912 3.1606 10.0267 0.0003 10.4697 0.776 0.992 0.4775 1.0 0.5345
1.9530 27240 0.4206 - - - - - - - - - -
1.9558 27280 0.7712 - - - - - - - - - -
1.9573 27300 - 5.7907 3.1468 10.0890 0.0003 10.5233 0.776 0.992 0.4763 1.0 0.5351
1.9587 27320 0.9345 - - - - - - - - - -
1.9616 27360 0.9642 - - - - - - - - - -
1.9644 27400 0.5719 5.7935 3.1494 10.1050 0.0003 10.5300 0.776 0.988 0.4769 1.0 0.5346
1.9673 27440 1.0776 - - - - - - - - - -
1.9702 27480 0.9909 - - - - - - - - - -
1.9716 27500 - 5.7821 3.1495 10.0823 0.0003 10.5118 0.776 0.992 0.4768 1.0 0.5336
1.9730 27520 0.7063 - - - - - - - - - -
1.9759 27560 0.7792 - - - - - - - - - -
1.9788 27600 0.9998 5.7827 3.1465 10.0953 0.0003 10.5130 0.776 0.992 0.4766 1.0 0.5338
1.9816 27640 1.0684 - - - - - - - - - -
1.9845 27680 1.1197 - - - - - - - - - -
1.9859 27700 - 5.7738 3.1531 10.0685 0.0003 10.4963 0.776 0.992 0.4767 1.0 0.5336
1.9874 27720 0.8034 - - - - - - - - - -
1.9902 27760 1.0785 - - - - - - - - - -
1.9931 27800 0.8622 5.7757 3.1446 10.0600 0.0003 10.4913 0.78 0.992 0.4764 1.0 0.5333
1.9960 27840 0.383 - - - - - - - - - -
1.9989 27880 0.8445 - - - - - - - - - -
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.12.3
  • Sentence Transformers: 3.3.1
  • Transformers: 4.49.0
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.1.1
  • Datasets: 2.21.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
91
Safetensors
Model size
560M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for BounharAbdelaziz/Morocco-Darija-Sentence-Embedding-v0.2

Finetuned
(1)
this model

Collection including BounharAbdelaziz/Morocco-Darija-Sentence-Embedding-v0.2

Evaluation results

  • Cosine Accuracy on triplet evaluator dev
    self-reported
    0.780
  • Cosine Accuracy on negation triplet evaluator dev
    self-reported
    0.992
  • Pearson Cosine on pair score evaluator dev
    self-reported
    0.439
  • Spearman Cosine on pair score evaluator dev
    self-reported
    0.476
  • Src2Trg Accuracy on english non english evaluator dev
    self-reported
    1.000
  • Trg2Src Accuracy on english non english evaluator dev
    self-reported
    1.000
  • Mean Accuracy on english non english evaluator dev
    self-reported
    1.000
  • Pearson Cosine on atlasia sent embd bench evaluator dev
    self-reported
    0.564
  • Spearman Cosine on atlasia sent embd bench evaluator dev
    self-reported
    0.533