Sentence embeddings for finetuned on Moroccan Darija.

This is a sentence-transformers model finetuned from BounharAbdelaziz/ModernBERT-Morocco on the triplet, negation_triplet, pair_score and english_non_english datasets. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: ModernBertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("atlasia/ModernBERT-Morocco-bs-32-lr-2e-05-ep-2-wp-0.05-gacc-1-gnm-1.0-v0.3")
# Run inference
sentences = [
    'تلاتة د الكلاب فالتلج.',
    'تلاتة د الكلاب برا.',
    'ما كاين حتى كلب برا.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Evaluation

Metrics

Triplet

  • Datasets: triplet-evaluator-dev and negation-triplet-evaluator-dev
  • Evaluated with TripletEvaluator
Metric triplet-evaluator-dev negation-triplet-evaluator-dev
cosine_accuracy 0.62 0.936

Semantic Similarity

Metric pair-score-evaluator-dev atlasia_sent_embd_bench-evaluator-dev
pearson_cosine 0.1791 0.3141
spearman_cosine 0.1836 0.3418

Translation

Metric Value
src2trg_accuracy 0.864
trg2src_accuracy 0.848
mean_accuracy 0.856

Training Details

Training Datasets

triplet

  • Dataset: triplet at c16b85f
  • Size: 73,178 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 7 tokens
    • mean: 18.42 tokens
    • max: 80 tokens
    • min: 15 tokens
    • mean: 165.21 tokens
    • max: 473 tokens
    • min: 14 tokens
    • mean: 164.48 tokens
    • max: 477 tokens
  • Samples:
    anchor positive negative
    تومي لي، اللي كان متزوج من قبل من باميلا أندرسون، كان الطبال اللي نجح فالفرقة ديال المعادن الثقيلة فالثمانينات؟ باميلا أندرسون كيسوق القوانين فصناعة النقل البري الخاصة. أندرسون تزوج من تومي لي، عازف الطبلة ديال موتلي كرو، فـ19 فبراير 1995، بعد ما عرفوه تقريبا 96 ساعة، ولا 4 أيام. تزوجو فالبلاج، و أندرسون لابس بيكيني. أم أندرسون ما عرفتش، وعلمات بالزواج من مجلة "الناس". خلال هاد الوقت، كانت معروفة مهنيا باسم باميلا أندرسون لي. عندهم جوج ولاد مع بعضهم: براندون توماس (ولدت فـ5 يونيو 1996) و ديلان جاغر (ولدت فـ29 دجنبر 1997). خلال زواجهم المضطرب، تم اعتقال لي بتهمة الاعتداء الزوجي بعد الاعتداء على أندرسون. حكم عليه بستة ولاد تومي لي عمرو سنين، وأول طبلة ديالو ملي كان مراهق. لي عندو خت صغيرة، أثينا لي (ناية باس)، اللي كانت تاني الطبلة فالفرقة ديالو الوحيدة كرونك وكان متزوج بجيمس كوتاك، الطبالة للفرقة ديال الروك سكوريبز. كمراهق، لي سمع ل ليد زيبلين، فان هالن، شياب تريك، كيس، أي سي/دي سي وسويت. التأثيرات الرئيسية ديالو ديال الطبلة كانت جون بونهام، تومي ألدريدج، أليكس فان هالن وتيري بوزيو. الفرقة الناجحة الأولى ديالو "سويت 19" لعبات "Sunset Streep" فلوس أنجلوس خلال أواخر السبعينات. تقريبا، تلاقى مع صاحب الفرقة المستقبلية، نيكي سيكس.
    شنو هي الانتفاضة الإنجليزية اللي انتهت بموت واحد من القادة ديالها وات تايلر فـ يونيو 1381؟ وات تايلر وات والتر "وات" تايلر (مات ف15 يونيو 1381) كان قائد ثورة الفلاحة فـ1381 فـ إنجلترا. مشى مجموعة ديال الثوار من كانتربري للعاصمة باش يعارضو تأسيس ضريبة الاستطلاع ويطالبو بإصلاحات اقتصادية واجتماعية. رغم أن التمرد القصير تمتع بالنجاح المبكر، تايلر قتل على يد الضباط الموالين للملك ريتشارد الثاني خلال المفاوضات فـسميثفيلد، لندن. ما كاين حتى شي حاجة معروفة بالحياة المبكرة ديال وات تايلر. ولد بالاسم الأول والتر، لقبو الأصلي ما كانش معروف. كيعتقد بلي سميتو "تايلر" كيجي من الخدمة ديالو كتيلر على السطح. وات تايلر تنشر حتى 1813. الرواية الأولى لي فيها Wat Tiler هي "The Bundman ديال السيدة أونيل: قصة ديال أيام وات تايلر" (1833). هو البطل في رواية بيرس إيغان اليونغر "Wat Tyler، ولا التمرد ديال 1381" (1841)، وهي نص متطرف بزاف تنشر فعالي المرحلة الثانية ديال حركة تشارتيست لي دافعات على الحكومة الجمهورية في إنجلترا. رواية إيغان كانت من بعد مختصرة ومسرقة ونشرت كـ "The Life and Adventers of Wat Taler: The Good and the Brave" (1851). وات تايلر هي البطلة في الرواية المتسلسلة المرعبة "Wat
    تأسست من طرف الرئيس الأمريكي ليندون ب جونسون، 'لجنة الرئيس المعنية باغتيال الرئيس كينيدي' كانت معروفة بشكل غير رسمي بأي اسم؟ لجنة وارن لجنة وارن لجنة الرئيس المعنية باغتيال الرئيس كينيدي، المعروفة بشكل غير رسمي باسم لجنة وارن، أسسها الرئيس ليندون ب. جونسون حتى 29 نوفمبر 1963 للتحقيق في اغتيال الرئيس الأمريكي جون ف. كينيدي اللي وقع في 22 نوفمبر 1963. الكونغرس الأمريكي أصدر قرار مشترك لمجلس الشيوخ 137 كيأذن للجنة الرئيس المعينة بتقديم تقرير على اغتيال الرئيس جون ف. كينيدي، وفرض الحضور وشهادة الشهود وتقديم الأدلة. التقرير النهائي ديالو من 888 صفحة قدم للرئيس جونسون في 24 سبتمبر 1964 وعلن على الناس تلاتة تنصيب ليندون ب. جونسون الأول ديال ليندون ب. جونسون التنصيب الأول ديال ليندون ب. جونسون كرئيس 36 ديال الولايات المتحدة نهار الجمعة، 22 نوفمبر 1963، على متن القوات الجوية وان فيلد، بعد اغتيال الرئيس جون ف. كينيدي قبل هاد النهار. التنصيب كان بداية الولاية الأولى (مدة جزئية) ديال ليندون ب. جونسون كرئيس. هادي كانت تامن تنصيب غير مخطط وغير عادي تم منين تأسس الرئاسة في 1789. ف 12:30 مساء بتوقيت سنترال ستاندرال تايم في 22 نوفمبر، كينيدي تعرض لإطلاق النار في دالاس وهو راكب مع الرئيس
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

negation_triplet

  • Dataset: negation_triplet at c16b85f
  • Size: 10,000 training samples
  • Columns: anchor, entailment, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor entailment negative
    type string string string
    details
    • min: 4 tokens
    • mean: 13.84 tokens
    • max: 57 tokens
    • min: 4 tokens
    • mean: 7.95 tokens
    • max: 28 tokens
    • min: 4 tokens
    • mean: 9.08 tokens
    • max: 30 tokens
  • Samples:
    anchor entailment negative
    جوج ناس كيحضرو اللحم على گريل فجنب الزنقة وواحد فيهم لابس ماسك والآخر حاني راسو للتحت. جوج رجال كيطيبو برا. جوج رجال ما كيطيبوش برا.
    الناس كيمشيو فالمدينة فالزنقة، والبيسكليتات واقفين على ليسر ديال الصورة. الناس كيدوزو حدا البيسكليتات لي واقفين. الناس ما كيمشيوش حدا البيسكليتات لي واقفين.
    واحد الولد مراهق كيتمرن بالسيف فالصالة مع الفريق ديالو. واحد الولد شاد سيف. الولد ماشي شاد سيف.
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

pair_score

  • Dataset: pair_score at c16b85f
  • Size: 200,000 training samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 4 tokens
    • mean: 17.42 tokens
    • max: 85 tokens
    • min: 4 tokens
    • mean: 10.27 tokens
    • max: 33 tokens
    • min: 0.0
    • mean: 0.51
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    واحد الولد صغير وواحد البنت صغيرة كيتمتعو بركوب، فالطوموبيل. واحد الولد صغير وواحد البنت صغيرة واقفين فالطوموبيل على جنب الطريق 0.0
    واحد الولد صغير فالصحرا گالس على حمار مقلوب. الولد الصغير كيتسنى باش يجيوه من الصحرا. 0.5
    تفكر فيه السيد كارتر. السيد كارتر ما كانش فبالو نهائيا. 0.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

english_non_english

  • Dataset: english_non_english at c16b85f
  • Size: 354,112 training samples
  • Columns: english and non_english
  • Approximate statistics based on the first 1000 samples:
    english non_english
    type string string
    details
    • min: 3 tokens
    • mean: 205.11 tokens
    • max: 2679 tokens
    • min: 3 tokens
    • mean: 109.57 tokens
    • max: 2049 tokens
  • Samples:
    english non_english
    Keeping records and writing reports are important tasks in a language school, as they provide valuable information about the students' progress and can help you to plan future lessons. Here are some tips that might help you to keep organized:

    1. Use digital tools: You can use digital tools like spreadsheets, note-taking apps, or dedicated software to keep records. This will make it easier to store, access, and share the information you need.
    2. Set up a system: Determine what information you need to record and create a system for doing so. For example, you could create a template for each lesson that includes the date, the topics covered, and any notes on the students' progress.
    3. Be consistent: Make sure to record information after each lesson and keep the records up to date. This will help you to remember what you covered in previous lessons and to track the students' progress over time.
    4. Keep it simple: Don't try to record too much information, as this can be overwhelming and ti...
    الاحتفاظ بالسجلات وكتابة التقارير مهمين بزاف فمدرسة اللغة، حيت كيعطيو معلومات مفيدة على تقدم الطلبة وكيقدرو يعاونوك باش تخطط للدروس المقبلة. هاكي شي نصائح اللي ممكن يعاونوك تبقى منظم:

    1. استعمل الأدوات الرقمية: تقدر تستعمل أدوات رقمية بحال spreadsheets، تطبيقات تدوين الملاحظات، ولا برامج مخصصة باش تحتفظ بالسجلات. هادشي غادي يسهل عليك تخزين وولوج ومشاركة المعلومات اللي محتاجها.
    2. دير نظام: حدد المعلومات اللي محتاج تسجلها ودير نظام باش تدير هادشي. مثلا، تقدر تصاوب نموذج لكل درس اللي كيتضمن التاريخ، المواضيع اللي تغطات، وأي ملاحظات على تقدم الطلبة.
    3. كون متناسق: تأكد باش تسجل المعلومات بعد كل درس وخلي السجلات محدثة. هادشي غادي يعاونك تتفكر شنو غطيتي فالدروس السابقة وتتبع تقدم الطلبة مع الوقت.
    4. خليه بسيط: ماتحاولش تسجل بزاف ديال المعلومات، حيت هادشي يقدر يكون مرهق وكياخد الوقت. ركز على التفاصيل الأكثر أهمية وخلي السجلات موجزة وساهلة للقراية.
    5. استعمل التقارير باش تتبع التقدم: استعمل التقارير باش تلخص تقدم الطلبة وتعطي الفيدباك. التقارير تقدر تستعمل باش تحدد المجالات فين الطلبة محتاجي...
    Identify the parts of speech for the words in bold.
    The town hosted a popular festival.
    حدد أقسام الكلام للكلمات اللي بالخط الغليظ.
    المدينة دارت مهرجان مشهور.
    Answer the following question.
    A company has 500 employees, each paid $12 per hour, working 10 hours a day, five days a week, 4 weeks a month. In August, the amount of work increased, and the company hired 200 more people. How much money does the company pay in total per month after the new hires?
    Step-by-step reasoning process: The total pay per employee in a day is 12 * 10 = $120. An employee works for 5 * 4 = 20 days in a month. The total amount of money paid to each employee monthly is 20 * 120 = $2400. When the number of employees increased to 500 + 200 = 700 after the new hires in August. The company pays a total of 700 * 2400 = $1680000 per month to its employees.
    The answer is 1680000.

    Answer the following question.
    Yesterday, David and William were invited to a party. David broke 2 glasses, while his friend William broke 4 times the number of glasses David broke. How many glasses were broken?
    Step-by-step reasoning process: William broke 4 * 2 = 8 glasses. So, David and Willi...
    جاوب على السؤال التالي.
    واحد الشركة عندها 500 موظف، كل واحد كيتخلص 12 دولار فالساعة، كيخدمو 10 ساعات فالنهار، خمس أيام فالسيمانة، 4 سيمانات فالشهر. فشهر غشت، زاد الخدمة وزادت الشركة 200 موظف جديد. شحال كتخلص الشركة فالمجموع كل شهر من بعد ما زادت الموظفين الجداد؟
    طريقة التفكير خطوة بخطوة: الخلاص ديال كل موظف فالنهار هو 12 * 10 = 120 دولار. الموظف كيخدم 5 * 4 = 20 يوم فالشهر. المبلغ الإجمالي اللي كيتخلص كل موظف شهريا هو 20 * 120 = 2400 دولار. ملي زاد عدد الموظفين ل 500 + 200 = 700 من بعد التوظيف الجديد فغشت. الشركة كتخلص فالمجموع 700 * 2400 = 1680000 دولار كل شهر للموظفين ديالها.
    الجواب هو 1680000.

    جاوب على السؤال التالي.
    البارح، داود ووليام تعيطو لواحد الحفلة. داود كسر 2 ديال الكيسان، بينما صاحبو وليام كسر 4 مرات العدد ديال الكيسان اللي كسر داود. شحال من كاس تكسر فالمجموع؟
    طريقة التفكير خطوة بخطوة: وليام كسر 4 * 2 = 8 كيسان. إذن، داود ووليام كسرو 8 + 2 = 10 كيسان.
    الجواب هو 10.

    جاوب على السؤال التالي.
    فواحد الحانوت الجديد، كاين 3 مرات بزاف ديال الحلوى ديال العنب على قد الحلوى ديال الك...
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

Evaluation Datasets

triplet

  • Dataset: triplet at c16b85f
  • Size: 73,178 evaluation samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 7 tokens
    • mean: 17.78 tokens
    • max: 54 tokens
    • min: 79 tokens
    • mean: 169.55 tokens
    • max: 453 tokens
    • min: 38 tokens
    • mean: 167.7 tokens
    • max: 441 tokens
  • Samples:
    anchor positive negative
    فين كانت معركة بالاكلافا (بما فيها تهمة اللواء الخفيف)؟ تهمة اللواء الخفيف من البطالة الطويلة المدى. تهمة اللواء الخفيف تهمة سلاح الفرسان الخفيف البريطاني بقيادة اللورد كارديغان ضد القوات الروسية خلال معركة بالاكلافا في 25 أكتوبر 1854 في حرب القرم. القائد البريطاني اللورد راغلان كان باغي يصيفط اللواء الخفيف باش يمنع الروس من إزالة الأسلحة المأسورة من المواقع التركية المتجاوزة، وهي مهمة كان الفرسان الخفيف مناسبين ليها مزيان. ولكن، كان هناك سوء تواصل في سلسلة القيادة، واللواء الخفيف تم إرسالو لهجوم أمامي ضد بطارية مدفعية مختلفة، واحد جاهز مزيان تهمة اللواء الخفيف (1968 فيلم) قضية Lansers 17، خطوط بيضة مزدوجة. فواحد المشهد واحد من الجنود ديال 17 كيتم تصويرو بشكل صحيح. تصوير الفيلم لمعركة بالاكلافا كيبين الهجوم الروسي الأولي على القوات المسلحة وبطبيعة الحال تهمة اللواء الخفيف، ولكن إيلايد موقف هايلاندرز 93 ("Thin Red Line") وشحن اللواء الثقيل. حسب المدير طوني ريتشاردسون، تم تصوير مشهد اللواء الثقيل ولكن تم قطعو من بعد على حساب الستوديو. بنفس الطريقة تبين أن فاني دوبرلي تم إغواءها من طرف اللورد كارديغان؛ رغم أنها كانت فاللورد Cargan؛
    "من تبنى اللقب "Montbatten" ف 1947؟" عائلة جبل باتن كاريزبروك و ميلفورد هافن، وكذلك إيرلز مونتباتن ديال بورما. الأمير فيليب ديال اليونان والدنمارك، صاحب الملكة إليزابيث الثانية، تبنا عائلة جبل باتن من عائلة موه ف 1947، رغم أنه عضو فدار شليسفيغ هولستين-سوندربورغ-غلوكسبورغ بالنسب الأبوي. السيدة لويز مونتباتن ولات ملكة كونسورت ديال السويد، بعد ما تزوجات غوستاف السادس أدولف ديال السويد. عائلة مونتباتن هي فرع من الدار الألمانية ديال باتنبرغ. عائلة باتنبرغ كانت فرع منظم ديال دار هيس-دارمستادت، حاكمة الدوشي الكبير ديال هيس فألمانيا. العضو الأول عائلة مونتباتن فالمجلس لي صدرات فـ 1960، لي ما تطبقش بشكل مستمر. رغم أن الأمر كيطبق بالتحديد اسم العائلة "Montbatten-Windsor" على الأحفاد الذكور ديال إليزابيث اللي ما عندهمش أساليب و ألقاب ملكية، "Montbatten-Windsor" تم استخدامو رسميا من طرف بعض الأحفاد ديالها اللي "do" عندهم ستيلات ملكية. اللقب كان أول استخدام رسمي من طرف الأميرة آن فـ 1973، فالسجل ديال العرس باش يتزوجو مارك فيليبس. الأمير ويليام وزوجته كاترين استخدمو سميتي "Monseur و Mداما Muntbaten-Windsor" فـ تقديم دعوى قضائية فرنسية ضد المجلة الفرنسية "Clouser". Montbatten-Windsor كيختلف على الاسم الرسمي ديال العائلة الملكية البريطانية ولا
    شنو هو الواد الكبير اللي كيدخل لخليج غينيا؟ خليج غينيا كيعطي وصف شامل: سمية "غينيا" كانت كتطبق حتى على الساحل الجنوبي ديال غرب إفريقيا، شمال خليج غينيا، اللي ولات كتسمى "غينيا الكبرى"، والساحل الغربي ديال جنوب إفريقيا، فالشرق، اللي ولات كتسمى "غينيا السفلى". سمية "غينيا" مازال كتربط مع أسماء ثلاثة بلدان فإفريقيا: غينيا وغينيا بيساو وغينيا الاستوائية، وكذلك غينيا الجديدة فملانيسيا. النهر الرئيسي اللي كيهز المياه ديالو فالغولف هو نهر النيجر. كاينين تعريفات مختلفة للحدود الجغرافية ديال خليج غينيا؛ المنظمة الهيدروغرافية الدولية خليج غينيا كيعرف المدى الجنوبي الغربي ديال خليج غينيا على أنه "خط من كاب لوبيز ()، في الغابون، في الشمال الغربي حتى إلى إيهليو غاغو كوتينهو (إيلهيو داس رولاس) ()؛ ومن بعد خط من إيهليو غاغو كوتينهو في الشمال الغربي حتى كيب بالماس ()، في ليبيريا. خليج غينيا فيه عدد من الجزر، أكبرها في سلسلة جنوب غربية وشمال شرقية، كتشكل جزء من خط الكاميرون ديال البراكين. أنوبون، اللي كيتسمى تاني باغالو ولا بيغالو، هي جزيرة جزء من غينيا الاستوائية. جزيرة بوبواسي هي جزيرة قبالة الساحل الغربي ديال إفريقيا في خليج غينيا
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

negation_triplet

  • Dataset: negation_triplet at c16b85f
  • Size: 10,000 evaluation samples
  • Columns: anchor, entailment, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor entailment negative
    type string string string
    details
    • min: 6 tokens
    • mean: 13.48 tokens
    • max: 47 tokens
    • min: 4 tokens
    • mean: 8.15 tokens
    • max: 19 tokens
    • min: 5 tokens
    • mean: 9.45 tokens
    • max: 20 tokens
  • Samples:
    anchor entailment negative
    جوج رجال، واحد واقف والآخر گالس فالأرض كيحاولو يضاربو ثور والغبرة ديال الحركة كتطير. جوج كاوبوي كيحاولو يضربو ثور. جوج كاوبوي ما كيحاولوش يضربو ثور.
    وحدة المرا لابسة الكحل كتبان بحال السيلويت قدام سما مغيمة. وحدة المرا لابسة الكحل واقفة قدام خلفية غيمة ومظلمة. المرا اللي لابسة الكحل ما كتوقفش قدام خلفية غيمة ومظلمة.
    دري لابس قميجة زرقة كيلعب فالملعب. دري كيلعب ف الملعب لابس قميجة زرقة دري ما كيلعبش ف الملعب لابس قميجة كحلة
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

pair_score

  • Dataset: pair_score at c16b85f
  • Size: 200,000 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 1000 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 5 tokens
    • mean: 17.37 tokens
    • max: 82 tokens
    • min: 4 tokens
    • mean: 10.06 tokens
    • max: 27 tokens
    • min: 0.0
    • mean: 0.54
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    همسات لراسها، بحال إلا نسات بلي كنت معاك: 'هاد الكلمات القليلة، وكلشي تبدل.' ومن بعد قالت ليا: 'ما تثيقش فشي راجل، دوركاس، ما يستاهلوش!' مشيت بسرعة، وجبت ليها كاس ديال أتاي قوي ومزيان، وشكراتني، وقالت ليا غادي تحسن ملي تشربو. هي هضرات، ولكن كانت لراسها ماشي ليا. 1.0
    آه آه وزيد ما عجبنيش هاد الاتفاق مع ستاد الكاوبويز فين باش تلقى بلاصة مزيانة خاصك تشري تيكي ديال الموسم كنظن خاص تكون شي بيعات مزيانة لأي واحد غير باغي يمشي لشي ماتش واحد 0.5
    واحد الگيتاريست كيعزف قدام الناس على آلة حمرا محاط بالزملاء ديالو فالفرقة تحت ضو بيض كيجري. راجل كيسوق طوموبيل. 0.0
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

english_non_english

  • Dataset: english_non_english at c16b85f
  • Size: 354,112 evaluation samples
  • Columns: english and non_english
  • Approximate statistics based on the first 1000 samples:
    english non_english
    type string string
    details
    • min: 6 tokens
    • mean: 213.48 tokens
    • max: 1532 tokens
    • min: 4 tokens
    • mean: 112.17 tokens
    • max: 820 tokens
  • Samples:
    english non_english
    Let's do it gradually: A person use an expressway in american city to get around quickly.... So the answer is american city. خلينا نديروها بالتدريج: الواحد كيستعمل الطريق السريع فالمدينة الأمريكية باش يتنقل بسرعة.... إذن الجواب هو مدينة أمريكية.
    you are to to develop vaccination strategies to specifically boost antiviral CD8+ T cell responses in people previously infected with SARS-CoV-2. What would you try? what has been tried before and could be improved? انت خاصك تطور استراتيجيات ديال التلقيح باش تزيد من ردود فعل الخلايا التائية CD8+ المضادة للفيروسات عند الناس اللي سبق ليهم تصابو ب SARS-CoV-2. شنو غادي تجرب؟ شنو هوما الحوايج اللي تجربو من قبل و ممكن يتحسنو؟
    ## Mark Down


    Title: The Benefits of Meditation


    Introduction: Meditation has been practiced for thousands of years and has gained popularity in recent years as a tool for reducing stress and improving overall well-being. There are many benefits to meditation, including physical, mental, and emotional benefits.


    Body:


    - Physical benefits: Meditation has been shown to reduce blood pressure, lower the risk of heart disease, and improve sleep quality.


    - Mental benefits: Regular meditation can help reduce symptoms of anxiety and depression, improve focus and attention, and increase feelings of happiness and well-being.


    - Emotional benefits: Meditation can help individuals develop a greater sense of self-awareness, cultivate empathy and compassion, and improve relationships with others.


    Conclusion: Incorporating regular meditation into your daily routine can have numerous benefits for your physical, mental, and emotional health. Whether you are new to ...
    ## Mark Down


    العنوان: فوايد الميديتاسيون


    المقدمة: الميديتاسيون كانت كتمارس هادي آلاف السنين و ولات مشهورة فهاد السنين الأخيرة كوسيلة باش نقصو من الستريس و نحسنو الصحة بشكل عام. كاينين بزاف د الفوايد للميديتاسيون، بما فيهم الفوايد الجسدية و العقلية و العاطفية.


    الموضوع:


    - الفوايد الجسدية: الميديتاسيون بينات بلي كتنقص الضغط د الدم، كتقلل من خطر أمراض القلب، و كتحسن جودة النعاس.


    - الفوايد العقلية: الميديتاسيون المنتظمة كتقدر تساعد فتنقيص أعراض القلق و الاكتئاب، كتحسن التركيز و الانتباه، و كتزيد من الشعور بالسعادة و الراحة.


    - الفوايد العاطفية: الميديتاسيون كتقدر تساعد الناس باش يطورو وعي أكبر بالذات، يزرعو التعاطف و الشفقة، و يحسنو العلاقات مع الآخرين.


    الخاتمة: إدخال الميديتاسيون المنتظمة فالروتين اليومي ديالك يمكن يكون عندو بزاف د الفوايد على الصحة الجسدية و العقلية و العاطفية ديالك. سواء كنتي جديد فالميديتاسيون ولا كنتي كتمارسها هادي سنين، تاخد الوقت كل نهار باش تهدي عقلك و تركز على التنفس ديالك يقدر يساعدك تحسن الصحة ديالك بشكل عام.


    **سؤال مطر...
  • Loss: MatryoshkaLoss with these parameters:
    {
        "loss": "MultipleNegativesRankingLoss",
        "matryoshka_dims": [
            768,
            512,
            256,
            128,
            64,
            32
        ],
        "matryoshka_weights": [
            1,
            1,
            1,
            1,
            1,
            1
        ],
        "n_dims_per_step": -1
    }
    

atlasia_sent_embd_bench

  • Dataset: atlasia_sent_embd_bench at 1a54511
  • Size: 725 evaluation samples
  • Columns: sentence1, sentence2, and score
  • Approximate statistics based on the first 725 samples:
    sentence1 sentence2 score
    type string string float
    details
    • min: 3 tokens
    • mean: 8.57 tokens
    • max: 31 tokens
    • min: 4 tokens
    • mean: 7.47 tokens
    • max: 29 tokens
    • min: 0.01
    • mean: 0.69
    • max: 1.0
  • Samples:
    sentence1 sentence2 score
    فين كاين سوق الخميس؟ فين هو سوق الخميس؟ 0.95
    بغيت نمشي لمراكش. غادي نمشي لمراكش. 0.84
    كليت طاجين باللحم. كليت طاجين باللحم والبرقوق. 0.85
  • Loss: CoSENTLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "pairwise_cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • eval_strategy: steps
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • learning_rate: 2e-05
  • num_train_epochs: 2
  • warmup_ratio: 0.05
  • bf16: True
  • fp16_full_eval: True
  • load_best_model_at_end: True
  • push_to_hub: True
  • gradient_checkpointing: True
  • batch_sampler: no_duplicates

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: steps
  • prediction_loss_only: True
  • per_device_train_batch_size: 32
  • per_device_eval_batch_size: 32
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 2
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.05
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: True
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: True
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: True
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: True
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • gradient_checkpointing: True
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: no_duplicates
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss triplet loss negation triplet loss pair score loss english non english loss atlasia sent embd bench loss triplet-evaluator-dev_cosine_accuracy negation-triplet-evaluator-dev_cosine_accuracy pair-score-evaluator-dev_spearman_cosine english_non_english-evaluator-dev_mean_accuracy atlasia_sent_embd_bench-evaluator-dev_spearman_cosine
0 0 - - - - - - 0.58 0.596 0.1231 0.046 0.3638
0.0001 1 24.0008 - - - - - - - - - -
0.0029 40 23.6123 - - - - - - - - - -
0.0057 80 24.1444 - - - - - - - - - -
0.0072 100 - 24.0411 23.3118 5.7627 24.2748 6.1372 0.58 0.596 0.1229 0.046 0.3639
0.0086 120 23.9095 - - - - - - - - - -
0.0115 160 23.9874 - - - - - - - - - -
0.0143 200 23.2491 24.0434 23.3056 5.7621 23.4735 6.1370 0.58 0.596 0.1231 0.046 0.3640
0.0172 240 23.0336 - - - - - - - - - -
0.0201 280 21.2711 - - - - - - - - - -
0.0215 300 - 24.0766 23.3080 5.7594 21.1451 6.1363 0.588 0.596 0.1293 0.054 0.3641
0.0229 320 21.8141 - - - - - - - - - -
0.0258 360 20.7028 - - - - - - - - - -
0.0287 400 20.8467 24.0679 23.3095 5.7579 19.7994 6.1358 0.6 0.58 0.1378 0.062 0.3649
0.0315 440 20.1807 - - - - - - - - - -
0.0344 480 19.6462 - - - - - - - - - -
0.0358 500 - 24.0245 23.2310 5.7579 18.2603 6.1360 0.576 0.572 0.1470 0.072 0.3680
0.0373 520 18.9556 - - - - - - - - - -
0.0401 560 18.5358 - - - - - - - - - -
0.0430 600 17.5419 24.3950 23.0972 5.7597 16.8350 6.1368 0.556 0.592 0.1542 0.086 0.3707
0.0459 640 18.4377 - - - - - - - - - -
0.0488 680 18.8411 - - - - - - - - - -
0.0502 700 - 26.0031 22.9139 5.7619 15.6420 6.1378 0.556 0.624 0.1640 0.096 0.3721
0.0516 720 18.3006 - - - - - - - - - -
0.0545 760 18.107 - - - - - - - - - -
0.0574 800 17.7188 30.0962 22.8788 5.7789 14.2227 6.1386 0.536 0.628 0.1710 0.1020 0.3740
0.0602 840 17.0773 - - - - - - - - - -
0.0631 880 16.2963 - - - - - - - - - -
0.0645 900 - 32.5086 22.7957 5.8418 12.7386 6.1400 0.536 0.64 0.1659 0.122 0.3768
0.0660 920 16.8012 - - - - - - - - - -
0.0688 960 14.521 - - - - - - - - - -
0.0717 1000 14.1059 33.2561 22.5908 6.3840 10.3361 6.1430 0.512 0.688 0.1513 0.188 0.3883
0.0746 1040 11.8814 - - - - - - - - - -
0.0774 1080 13.7417 - - - - - - - - - -
0.0789 1100 - 34.5801 22.5480 7.7842 8.5797 6.1654 0.512 0.668 0.1336 0.252 0.3965
0.0803 1120 12.1975 - - - - - - - - - -
0.0832 1160 17.315 - - - - - - - - - -
0.0860 1200 10.6259 27.3445 22.2770 7.5792 7.6620 6.1833 0.548 0.676 0.1278 0.2820 0.3867
0.0889 1240 9.187 - - - - - - - - - -
0.0918 1280 10.6216 - - - - - - - - - -
0.0932 1300 - 26.3942 22.3409 8.0331 6.2955 6.2325 0.572 0.66 0.1152 0.334 0.3739
0.0946 1320 10.5584 - - - - - - - - - -
0.0975 1360 9.3734 - - - - - - - - - -
0.1004 1400 8.3897 25.1519 21.9150 8.5898 5.2801 6.3334 0.584 0.688 0.1018 0.396 0.3602
0.1032 1440 8.7967 - - - - - - - - - -
0.1061 1480 6.5911 - - - - - - - - - -
0.1075 1500 - 24.4380 21.4719 8.8323 4.3733 6.3912 0.596 0.668 0.0954 0.45 0.3674
0.1090 1520 8.6217 - - - - - - - - - -
0.1118 1560 8.0863 - - - - - - - - - -
0.1147 1600 8.3947 23.3104 21.2285 9.0937 3.8465 6.4538 0.604 0.688 0.0848 0.496 0.3572
0.1176 1640 5.9013 - - - - - - - - - -
0.1204 1680 8.104 - - - - - - - - - -
0.1219 1700 - 23.1698 20.9096 9.3689 3.2660 6.5039 0.628 0.704 0.0818 0.53 0.3750
0.1233 1720 6.4736 - - - - - - - - - -
0.1262 1760 6.2481 - - - - - - - - - -
0.1291 1800 7.9563 22.6255 21.0979 9.9204 3.0481 6.6546 0.608 0.704 0.0881 0.54 0.3863
0.1319 1840 6.6687 - - - - - - - - - -
0.1348 1880 7.744 - - - - - - - - - -
0.1362 1900 - 22.3931 20.6548 10.0787 2.6822 6.6353 0.616 0.724 0.0881 0.5700 0.4098
0.1377 1920 5.7659 - - - - - - - - - -
0.1405 1960 5.6461 - - - - - - - - - -
0.1434 2000 7.9609 22.4172 20.3500 10.1912 2.4435 6.6616 0.616 0.736 0.1015 0.59 0.4238
0.1463 2040 6.8796 - - - - - - - - - -
0.1491 2080 6.3197 - - - - - - - - - -
0.1506 2100 - 22.0980 19.6101 10.1481 2.3326 6.7277 0.616 0.748 0.1151 0.61 0.4500
0.1520 2120 6.0768 - - - - - - - - - -
0.1549 2160 7.5174 - - - - - - - - - -
0.1577 2200 6.7366 22.0223 19.6913 9.9520 2.1570 6.6283 0.596 0.752 0.1106 0.626 0.4483
0.1606 2240 3.9746 - - - - - - - - - -
0.1635 2280 5.0627 - - - - - - - - - -
0.1649 2300 - 22.1253 20.0852 10.2598 2.0444 6.6254 0.612 0.748 0.1127 0.636 0.4406
0.1663 2320 5.3349 - - - - - - - - - -
0.1692 2360 8.3372 - - - - - - - - - -
0.1721 2400 6.3997 21.8018 19.3519 10.2338 1.9127 6.6412 0.608 0.76 0.1150 0.658 0.4477
0.1749 2440 6.4958 - - - - - - - - - -
0.1778 2480 8.1594 - - - - - - - - - -
0.1792 2500 - 21.5931 19.0134 10.5906 1.8574 6.7645 0.588 0.78 0.1235 0.644 0.4429
0.1807 2520 4.6053 - - - - - - - - - -
0.1835 2560 5.5957 - - - - - - - - - -
0.1864 2600 6.0669 21.6052 19.2588 10.2741 1.7963 6.6303 0.592 0.772 0.1191 0.662 0.4429
0.1893 2640 3.7676 - - - - - - - - - -
0.1921 2680 4.0252 - - - - - - - - - -
0.1936 2700 - 21.6683 19.2553 10.6304 1.6412 6.6831 0.584 0.772 0.1239 0.668 0.4467
0.1950 2720 4.9041 - - - - - - - - - -
0.1979 2760 5.0353 - - - - - - - - - -
0.2007 2800 7.0275 21.6386 18.7482 10.4583 1.6193 6.6951 0.58 0.772 0.1342 0.672 0.4475
0.2036 2840 4.9006 - - - - - - - - - -
0.2065 2880 4.0563 - - - - - - - - - -
0.2079 2900 - 21.3882 18.6045 10.6244 1.5321 6.7151 0.588 0.776 0.1332 0.69 0.4392
0.2093 2920 5.2464 - - - - - - - - - -
0.2122 2960 4.2726 - - - - - - - - - -
0.2151 3000 3.4222 21.3909 18.8691 10.7936 1.4366 6.7481 0.592 0.768 0.1382 0.706 0.4475
0.2180 3040 4.8827 - - - - - - - - - -
0.2208 3080 4.7396 - - - - - - - - - -
0.2223 3100 - 21.3411 18.9689 10.7122 1.3884 6.6883 0.604 0.756 0.1349 0.716 0.4415
0.2237 3120 4.9842 - - - - - - - - - -
0.2266 3160 2.812 - - - - - - - - - -
0.2294 3200 6.2823 21.2725 18.3534 11.1141 1.3747 6.7899 0.584 0.788 0.1407 0.706 0.4458
0.2323 3240 5.6823 - - - - - - - - - -
0.2352 3280 3.4669 - - - - - - - - - -
0.2366 3300 - 21.1549 18.5559 11.1301 1.3157 6.7938 0.584 0.788 0.1440 0.716 0.4415
0.2380 3320 4.8758 - - - - - - - - - -
0.2409 3360 4.9208 - - - - - - - - - -
0.2438 3400 4.545 21.1056 18.6022 11.4047 1.2628 6.8850 0.596 0.78 0.1472 0.724 0.4483
0.2466 3440 8.2222 - - - - - - - - - -
0.2495 3480 5.8527 - - - - - - - - - -
0.2509 3500 - 20.9630 18.0849 11.1735 1.2566 6.7715 0.596 0.792 0.1479 0.744 0.4458
0.2524 3520 6.6741 - - - - - - - - - -
0.2552 3560 7.6261 - - - - - - - - - -
0.2581 3600 5.1187 20.8838 18.0262 11.3299 1.2551 6.8690 0.608 0.788 0.1446 0.742 0.4449
0.2610 3640 4.0565 - - - - - - - - - -
0.2638 3680 2.9582 - - - - - - - - - -
0.2653 3700 - 20.7069 18.0803 11.2856 1.2582 6.9149 0.6 0.784 0.1572 0.752 0.4448
0.2667 3720 6.2967 - - - - - - - - - -
0.2696 3760 5.9435 - - - - - - - - - -
0.2724 3800 4.8956 20.6398 18.1582 11.2588 1.1564 6.9141 0.596 0.78 0.1499 0.754 0.4488
0.2753 3840 5.5712 - - - - - - - - - -
0.2782 3880 5.1667 - - - - - - - - - -
0.2796 3900 - 20.5402 18.0154 10.9369 1.0998 6.8249 0.588 0.796 0.1498 0.758 0.4421
0.2810 3920 5.1355 - - - - - - - - - -
0.2839 3960 4.5667 - - - - - - - - - -
0.2868 4000 4.8355 20.5878 17.8504 11.1056 1.0618 6.8784 0.596 0.788 0.1557 0.778 0.4448
0.2896 4040 6.158 - - - - - - - - - -
0.2925 4080 5.7536 - - - - - - - - - -
0.2939 4100 - 20.4701 17.6603 11.1559 1.0577 6.9060 0.588 0.812 0.1583 0.764 0.4342
0.2954 4120 5.105 - - - - - - - - - -
0.2983 4160 4.5552 - - - - - - - - - -
0.3011 4200 6.2485 20.3678 17.6702 11.6199 0.9866 6.9883 0.632 0.832 0.1552 0.768 0.4287
0.3040 4240 4.1069 - - - - - - - - - -
0.3069 4280 3.9257 - - - - - - - - - -
0.3083 4300 - 20.3968 17.7660 11.5399 0.9362 6.9013 0.604 0.816 0.1515 0.76 0.4336
0.3097 4320 5.087 - - - - - - - - - -
0.3126 4360 4.7523 - - - - - - - - - -
0.3155 4400 3.4823 20.2991 17.8141 11.3226 0.9531 6.9256 0.604 0.812 0.1611 0.766 0.4340
0.3183 4440 4.6435 - - - - - - - - - -
0.3212 4480 4.5024 - - - - - - - - - -
0.3226 4500 - 20.2463 17.4901 11.3958 0.9323 6.9671 0.604 0.836 0.1597 0.774 0.4362
0.3241 4520 5.3725 - - - - - - - - - -
0.3269 4560 5.9973 - - - - - - - - - -
0.3298 4600 5.5398 20.0455 17.1514 11.2358 0.9218 6.9606 0.604 0.832 0.1553 0.774 0.4340
0.3327 4640 3.9025 - - - - - - - - - -
0.3355 4680 6.5456 - - - - - - - - - -
0.3370 4700 - 20.1037 17.1838 11.3149 0.8959 6.9626 0.6 0.84 0.1626 0.776 0.4306
0.3384 4720 5.121 - - - - - - - - - -
0.3413 4760 4.8158 - - - - - - - - - -
0.3441 4800 5.9981 19.8418 17.3138 11.2738 0.8534 6.9728 0.612 0.84 0.1555 0.78 0.4198
0.3470 4840 4.0787 - - - - - - - - - -
0.3499 4880 4.6755 - - - - - - - - - -
0.3513 4900 - 19.8218 17.2695 11.5528 0.8953 7.0705 0.62 0.828 0.1548 0.78 0.4128
0.3527 4920 4.3376 - - - - - - - - - -
0.3556 4960 3.6539 - - - - - - - - - -
0.3585 5000 4.4867 19.7093 17.4553 11.2499 0.8489 7.0920 0.62 0.828 0.1634 0.8 0.4158
0.3613 5040 4.4594 - - - - - - - - - -
0.3642 5080 4.5615 - - - - - - - - - -
0.3656 5100 - 19.7533 17.6076 11.4410 0.8253 7.0716 0.624 0.824 0.1582 0.78 0.4346
0.3671 5120 6.5834 - - - - - - - - - -
0.3699 5160 3.4538 - - - - - - - - - -
0.3728 5200 4.7751 19.6000 17.5252 11.4480 0.7894 7.1493 0.616 0.832 0.1615 0.78 0.4319
0.3757 5240 4.2811 - - - - - - - - - -
0.3785 5280 3.3059 - - - - - - - - - -
0.3800 5300 - 19.6036 17.2417 11.3712 0.8151 6.9980 0.608 0.836 0.1609 0.784 0.4318
0.3814 5320 4.44 - - - - - - - - - -
0.3843 5360 5.3385 - - - - - - - - - -
0.3872 5400 2.6478 19.4770 17.3144 11.8289 0.8329 7.1320 0.608 0.82 0.1539 0.794 0.4312
0.3900 5440 4.1213 - - - - - - - - - -
0.3929 5480 4.1211 - - - - - - - - - -
0.3943 5500 - 19.5516 17.4972 11.7936 0.7455 7.0577 0.588 0.828 0.1526 0.776 0.4375
0.3958 5520 5.7463 - - - - - - - - - -
0.3986 5560 3.2875 - - - - - - - - - -
0.4015 5600 2.898 19.4099 17.6290 12.1360 0.7864 7.1521 0.612 0.824 0.1487 0.776 0.4283
0.4044 5640 3.8721 - - - - - - - - - -
0.4072 5680 6.1206 - - - - - - - - - -
0.4087 5700 - 19.3698 17.4245 11.5794 0.7640 7.0929 0.596 0.832 0.1449 0.786 0.4304
0.4101 5720 2.9455 - - - - - - - - - -
0.4130 5760 4.6906 - - - - - - - - - -
0.4158 5800 4.938 19.3217 17.2690 11.5960 0.7416 7.1055 0.612 0.848 0.1503 0.788 0.4223
0.4187 5840 3.0995 - - - - - - - - - -
0.4216 5880 4.3687 - - - - - - - - - -
0.4230 5900 - 19.3495 16.9145 11.4747 0.7218 7.0581 0.592 0.872 0.1503 0.8 0.4336
0.4244 5920 4.4346 - - - - - - - - - -
0.4273 5960 6.0216 - - - - - - - - - -
0.4302 6000 5.221 19.1228 16.8339 11.2583 0.7091 7.0571 0.612 0.868 0.1511 0.798 0.4365
0.4330 6040 4.2304 - - - - - - - - - -
0.4359 6080 8.5972 - - - - - - - - - -
0.4373 6100 - 19.0189 16.0919 11.4306 0.7313 7.1188 0.608 0.88 0.1610 0.802 0.4377
0.4388 6120 5.1903 - - - - - - - - - -
0.4416 6160 4.3222 - - - - - - - - - -
0.4445 6200 4.0032 18.9883 16.1960 11.5699 0.7181 7.1150 0.612 0.88 0.1606 0.794 0.4426
0.4474 6240 4.1089 - - - - - - - - - -
0.4502 6280 4.436 - - - - - - - - - -
0.4517 6300 - 18.8865 16.0059 11.5062 0.7460 7.1433 0.584 0.888 0.1635 0.804 0.4335
0.4531 6320 6.4638 - - - - - - - - - -
0.4560 6360 4.1244 - - - - - - - - - -
0.4588 6400 5.1311 18.9935 16.2344 11.5061 0.7016 7.0983 0.576 0.876 0.1703 0.8 0.4388
0.4617 6440 8.1754 - - - - - - - - - -
0.4646 6480 6.1262 - - - - - - - - - -
0.4660 6500 - 18.9183 15.8539 11.4306 0.6894 7.0897 0.576 0.896 0.1667 0.798 0.4343
0.4675 6520 3.5941 - - - - - - - - - -
0.4703 6560 4.904 - - - - - - - - - -
0.4732 6600 4.0731 18.7787 15.9487 11.8344 0.7051 7.1671 0.58 0.892 0.1721 0.8 0.4231
0.4761 6640 5.3085 - - - - - - - - - -
0.4789 6680 3.8964 - - - - - - - - - -
0.4804 6700 - 18.6753 16.0289 11.8128 0.6453 7.2585 0.588 0.896 0.1696 0.81 0.4177
0.4818 6720 3.5074 - - - - - - - - - -
0.4847 6760 4.8512 - - - - - - - - - -
0.4875 6800 4.1586 18.6688 16.1595 11.6051 0.7004 7.1846 0.592 0.892 0.1648 0.806 0.4155
0.4904 6840 6.4607 - - - - - - - - - -
0.4933 6880 6.6781 - - - - - - - - - -
0.4947 6900 - 18.5670 15.8770 11.4007 0.6984 7.2377 0.6 0.896 0.1707 0.806 0.4027
0.4961 6920 5.0449 - - - - - - - - - -
0.4990 6960 5.9613 - - - - - - - - - -
0.5019 7000 5.9471 18.3672 15.5655 11.5013 0.6902 7.2023 0.604 0.904 0.1688 0.812 0.4111
0.5047 7040 5.303 - - - - - - - - - -
0.5076 7080 4.2258 - - - - - - - - - -
0.5090 7100 - 18.3474 15.6566 11.4802 0.6775 7.1707 0.6 0.9 0.1661 0.81 0.4145
0.5105 7120 3.0857 - - - - - - - - - -
0.5133 7160 2.9795 - - - - - - - - - -
0.5162 7200 4.1034 18.3082 15.5650 11.6086 0.6529 7.1640 0.6 0.912 0.1661 0.802 0.4176
0.5191 7240 4.8692 - - - - - - - - - -
0.5219 7280 1.8155 - - - - - - - - - -
0.5234 7300 - 18.3267 15.5797 11.9556 0.7162 7.2818 0.596 0.912 0.1756 0.804 0.4143
0.5248 7320 3.5281 - - - - - - - - - -
0.5277 7360 4.7538 - - - - - - - - - -
0.5305 7400 5.2804 18.3117 15.5036 11.6546 0.6788 7.2420 0.596 0.904 0.1688 0.804 0.4205
0.5334 7440 5.5416 - - - - - - - - - -
0.5363 7480 6.4728 - - - - - - - - - -
0.5377 7500 - 18.2299 15.2784 11.3251 0.7098 7.2095 0.604 0.908 0.1682 0.808 0.4164
0.5391 7520 6.4906 - - - - - - - - - -
0.5420 7560 4.3865 - - - - - - - - - -
0.5449 7600 3.5888 18.1571 15.3031 11.4094 0.6705 7.2530 0.584 0.904 0.1728 0.812 0.3936
0.5477 7640 3.4854 - - - - - - - - - -
0.5506 7680 4.631 - - - - - - - - - -
0.5521 7700 - 18.1305 15.3646 11.4614 0.6610 7.1620 0.58 0.9 0.1744 0.812 0.4034
0.5535 7720 5.7046 - - - - - - - - - -
0.5564 7760 4.5767 - - - - - - - - - -
0.5592 7800 4.2655 18.1380 15.3128 11.4681 0.6340 7.1505 0.592 0.9 0.1732 0.818 0.4055
0.5621 7840 5.3595 - - - - - - - - - -
0.5650 7880 5.0274 - - - - - - - - - -
0.5664 7900 - 18.0398 15.0497 11.5964 0.6410 7.2442 0.608 0.908 0.1702 0.8140 0.3974
0.5678 7920 3.0269 - - - - - - - - - -
0.5707 7960 5.3477 - - - - - - - - - -
0.5736 8000 6.8067 18.0319 15.1732 11.4197 0.6798 7.2029 0.584 0.9 0.1633 0.816 0.3955
0.5764 8040 3.4313 - - - - - - - - - -
0.5793 8080 4.8478 - - - - - - - - - -
0.5807 8100 - 17.9901 15.2174 11.3889 0.6373 7.2445 0.612 0.904 0.1705 0.816 0.3866
0.5822 8120 4.4444 - - - - - - - - - -
0.5850 8160 2.9405 - - - - - - - - - -
0.5879 8200 3.4605 17.9747 15.2883 11.2655 0.6169 7.2302 0.616 0.904 0.1671 0.8160 0.3938
0.5908 8240 3.1234 - - - - - - - - - -
0.5936 8280 5.0907 - - - - - - - - - -
0.5951 8300 - 17.9264 15.4539 11.2300 0.6162 7.2557 0.592 0.884 0.1701 0.81 0.3909
0.5965 8320 5.3915 - - - - - - - - - -
0.5994 8360 3.7829 - - - - - - - - - -
0.6022 8400 5.8383 17.8936 15.2340 11.3742 0.6178 7.2931 0.604 0.884 0.1697 0.81 0.3945
0.6051 8440 6.5055 - - - - - - - - - -
0.6080 8480 4.5212 - - - - - - - - - -
0.6094 8500 - 17.7750 15.0913 11.1472 0.6294 7.2664 0.608 0.904 0.1734 0.8140 0.4024
0.6108 8520 7.0084 - - - - - - - - - -
0.6137 8560 2.9109 - - - - - - - - - -
0.6166 8600 4.0844 17.7336 15.0886 11.2580 0.6127 7.3124 0.612 0.9 0.1700 0.824 0.3970
0.6194 8640 4.7779 - - - - - - - - - -
0.6223 8680 2.5447 - - - - - - - - - -
0.6237 8700 - 17.8298 15.3475 11.4464 0.6116 7.2822 0.608 0.9 0.1618 0.8160 0.3976
0.6252 8720 1.7228 - - - - - - - - - -
0.6280 8760 2.6915 - - - - - - - - - -
0.6309 8800 2.4541 17.7913 15.1882 11.4838 0.5935 7.3327 0.596 0.9 0.1710 0.816 0.3895
0.6338 8840 4.6406 - - - - - - - - - -
0.6367 8880 4.1324 - - - - - - - - - -
0.6381 8900 - 17.7778 15.2944 11.5100 0.5533 7.3134 0.584 0.904 0.1771 0.8140 0.4011
0.6395 8920 3.6214 - - - - - - - - - -
0.6424 8960 6.4146 - - - - - - - - - -
0.6453 9000 4.1682 17.6044 14.9968 11.2393 0.5586 7.3369 0.608 0.908 0.1707 0.8180 0.3926
0.6481 9040 4.0395 - - - - - - - - - -
0.6510 9080 3.8159 - - - - - - - - - -
0.6524 9100 - 17.5546 15.0769 11.3858 0.5695 7.3174 0.592 0.9 0.1691 0.826 0.3843
0.6539 9120 3.9546 - - - - - - - - - -
0.6567 9160 2.8838 - - - - - - - - - -
0.6596 9200 2.9108 17.5230 15.0559 11.3652 0.5412 7.3436 0.604 0.908 0.1715 0.828 0.3898
0.6625 9240 3.2796 - - - - - - - - - -
0.6653 9280 5.7302 - - - - - - - - - -
0.6668 9300 - 17.5036 15.1635 11.2457 0.5237 7.3078 0.604 0.916 0.1739 0.828 0.3892
0.6682 9320 4.6127 - - - - - - - - - -
0.6711 9360 3.3409 - - - - - - - - - -
0.6739 9400 4.0224 17.4809 15.1290 11.4674 0.5040 7.4054 0.588 0.912 0.1715 0.8180 0.3931
0.6768 9440 3.0774 - - - - - - - - - -
0.6797 9480 4.4755 - - - - - - - - - -
0.6811 9500 - 17.4274 14.9426 11.3928 0.5134 7.4476 0.596 0.908 0.1623 0.8180 0.3895
0.6825 9520 2.9576 - - - - - - - - - -
0.6854 9560 4.0092 - - - - - - - - - -
0.6883 9600 4.8977 17.3880 15.1324 11.5756 0.5337 7.4903 0.612 0.908 0.1610 0.82 0.3880
0.6911 9640 2.8726 - - - - - - - - - -
0.6940 9680 5.205 - - - - - - - - - -
0.6954 9700 - 17.3590 14.9686 11.5208 0.5312 7.5279 0.608 0.904 0.1643 0.8220 0.3834
0.6969 9720 4.9804 - - - - - - - - - -
0.6997 9760 4.8705 - - - - - - - - - -
0.7026 9800 2.7018 17.4426 14.8503 11.6406 0.5260 7.5041 0.592 0.912 0.1695 0.8220 0.3749
0.7055 9840 4.4432 - - - - - - - - - -
0.7083 9880 3.803 - - - - - - - - - -
0.7098 9900 - 17.4023 14.8906 11.1661 0.5185 7.4544 0.592 0.916 0.1719 0.8180 0.3750
0.7112 9920 4.4226 - - - - - - - - - -
0.7141 9960 5.0946 - - - - - - - - - -
0.7169 10000 3.5939 17.3147 14.7012 11.4630 0.5274 7.4656 0.604 0.904 0.1692 0.8220 0.3888
0.7198 10040 2.9814 - - - - - - - - - -
0.7227 10080 3.1906 - - - - - - - - - -
0.7241 10100 - 17.2714 14.6576 11.5662 0.4970 7.4787 0.596 0.908 0.1668 0.824 0.3834
0.7256 10120 2.7234 - - - - - - - - - -
0.7284 10160 4.2759 - - - - - - - - - -
0.7313 10200 4.7237 17.2657 14.4545 11.4209 0.5404 7.5183 0.624 0.912 0.1698 0.82 0.3785
0.7342 10240 3.9707 - - - - - - - - - -
0.7370 10280 5.1888 - - - - - - - - - -
0.7385 10300 - 17.1421 14.4566 11.3069 0.5052 7.4267 0.636 0.92 0.1589 0.83 0.3818
0.7399 10320 4.7182 - - - - - - - - - -
0.7428 10360 4.0566 - - - - - - - - - -
0.7456 10400 4.4993 17.0997 14.4201 11.3897 0.5248 7.4688 0.628 0.92 0.1638 0.822 0.3841
0.7485 10440 3.1973 - - - - - - - - - -
0.7514 10480 4.3377 - - - - - - - - - -
0.7528 10500 - 17.0197 14.4116 11.5990 0.5498 7.4519 0.628 0.92 0.1621 0.82 0.3809
0.7542 10520 4.1945 - - - - - - - - - -
0.7571 10560 3.3363 - - - - - - - - - -
0.7600 10600 5.3047 17.0242 14.5453 11.4216 0.5047 7.4455 0.632 0.92 0.1670 0.822 0.3758
0.7628 10640 3.7468 - - - - - - - - - -
0.7657 10680 4.9162 - - - - - - - - - -
0.7671 10700 - 16.9755 14.6104 11.6522 0.5337 7.5139 0.608 0.912 0.1632 0.828 0.3819
0.7686 10720 4.9425 - - - - - - - - - -
0.7714 10760 4.5193 - - - - - - - - - -
0.7743 10800 4.8818 16.9551 14.6066 11.5897 0.5192 7.4702 0.624 0.92 0.1618 0.828 0.3762
0.7772 10840 4.0655 - - - - - - - - - -
0.7800 10880 4.6679 - - - - - - - - - -
0.7815 10900 - 16.9988 14.8144 11.4962 0.4969 7.4668 0.624 0.916 0.1592 0.832 0.3775
0.7829 10920 3.4869 - - - - - - - - - -
0.7858 10960 2.7838 - - - - - - - - - -
0.7886 11000 5.6981 16.9251 14.7037 11.4353 0.4880 7.4539 0.632 0.908 0.1638 0.818 0.3731
0.7915 11040 4.0246 - - - - - - - - - -
0.7944 11080 3.626 - - - - - - - - - -
0.7958 11100 - 16.8906 14.7330 11.6436 0.4965 7.4482 0.616 0.912 0.1713 0.824 0.3830
0.7972 11120 2.8722 - - - - - - - - - -
0.8001 11160 7.064 - - - - - - - - - -
0.8030 11200 4.0635 16.8823 14.8239 11.2901 0.4753 7.3983 0.604 0.916 0.1721 0.828 0.3828
0.8059 11240 2.7917 - - - - - - - - - -
0.8087 11280 2.4063 - - - - - - - - - -
0.8102 11300 - 16.9347 14.9072 11.3920 0.4882 7.4867 0.596 0.916 0.1672 0.834 0.3783
0.8116 11320 4.2167 - - - - - - - - - -
0.8145 11360 4.325 - - - - - - - - - -
0.8173 11400 3.5725 16.9696 14.8198 11.7618 0.5045 7.6134 0.608 0.92 0.1663 0.8220 0.3738
0.8202 11440 2.1355 - - - - - - - - - -
0.8231 11480 2.7398 - - - - - - - - - -
0.8245 11500 - 16.9854 14.8315 11.8989 0.5038 7.6239 0.588 0.908 0.1664 0.836 0.3760
0.8259 11520 3.6309 - - - - - - - - - -
0.8288 11560 2.7896 - - - - - - - - - -
0.8317 11600 4.8006 16.8978 14.8673 11.5710 0.4483 7.5052 0.604 0.912 0.1693 0.832 0.3767
0.8345 11640 3.6965 - - - - - - - - - -
0.8374 11680 5.754 - - - - - - - - - -
0.8388 11700 - 16.7251 14.6065 11.8299 0.5088 7.7205 0.616 0.92 0.1680 0.83 0.3624
0.8403 11720 3.8844 - - - - - - - - - -
0.8431 11760 3.6442 - - - - - - - - - -
0.8460 11800 5.001 16.6186 14.6186 11.5554 0.5036 7.6759 0.608 0.908 0.1624 0.832 0.3521
0.8489 11840 3.994 - - - - - - - - - -
0.8517 11880 4.8334 - - - - - - - - - -
0.8532 11900 - 16.5604 14.6130 11.7212 0.5057 7.6497 0.604 0.916 0.1716 0.834 0.3636
0.8546 11920 2.6459 - - - - - - - - - -
0.8575 11960 4.5046 - - - - - - - - - -
0.8603 12000 5.0047 16.5534 14.4212 11.1315 0.4540 7.5042 0.612 0.932 0.1681 0.832 0.3736
0.8632 12040 5.3735 - - - - - - - - - -
0.8661 12080 5.7725 - - - - - - - - - -
0.8675 12100 - 16.5731 14.4182 11.2966 0.4784 7.5132 0.608 0.916 0.1674 0.834 0.3671
0.8689 12120 4.4155 - - - - - - - - - -
0.8718 12160 4.749 - - - - - - - - - -
0.8747 12200 3.9827 16.4799 14.4894 11.5517 0.4757 7.6143 0.604 0.924 0.1650 0.84 0.3623
0.8775 12240 4.1292 - - - - - - - - - -
0.8804 12280 3.4593 - - - - - - - - - -
0.8818 12300 - 16.5310 14.6207 11.8672 0.4577 7.6808 0.6 0.904 0.1648 0.836 0.3703
0.8833 12320 3.4801 - - - - - - - - - -
0.8861 12360 5.0192 - - - - - - - - - -
0.8890 12400 4.0331 16.5006 14.8257 11.2633 0.4589 7.5492 0.6 0.916 0.1652 0.832 0.3661
0.8919 12440 2.3118 - - - - - - - - - -
0.8948 12480 4.8327 - - - - - - - - - -
0.8962 12500 - 16.5131 14.7596 11.3735 0.4353 7.6142 0.6 0.916 0.1685 0.834 0.3641
0.8976 12520 2.55 - - - - - - - - - -
0.9005 12560 3.4727 - - - - - - - - - -
0.9034 12600 4.7661 16.5423 14.8296 11.6588 0.4431 7.8221 0.612 0.912 0.1642 0.83 0.3538
0.9062 12640 5.1071 - - - - - - - - - -
0.9091 12680 3.6787 - - - - - - - - - -
0.9105 12700 - 16.4171 14.7461 11.4662 0.4471 7.7758 0.604 0.896 0.1601 0.836 0.3616
0.9120 12720 5.2094 - - - - - - - - - -
0.9148 12760 4.1343 - - - - - - - - - -
0.9177 12800 3.891 16.4731 14.5120 11.5799 0.4331 7.8059 0.604 0.904 0.1599 0.836 0.3641
0.9206 12840 2.845 - - - - - - - - - -
0.9234 12880 4.4341 - - - - - - - - - -
0.9249 12900 - 16.3736 14.6365 11.2898 0.4208 7.6107 0.6 0.896 0.1625 0.84 0.3622
0.9263 12920 4.5073 - - - - - - - - - -
0.9292 12960 3.4759 - - - - - - - - - -
0.9320 13000 3.8219 16.3407 14.4756 11.3311 0.4363 7.7423 0.612 0.916 0.1647 0.84 0.3638
0.9349 13040 3.5207 - - - - - - - - - -
0.9378 13080 5.1129 - - - - - - - - - -
0.9392 13100 - 16.3300 14.5426 11.4487 0.4442 7.6675 0.596 0.908 0.1601 0.84 0.3713
0.9406 13120 5.0046 - - - - - - - - - -
0.9435 13160 5.0563 - - - - - - - - - -
0.9464 13200 2.7415 16.3498 14.5736 11.5872 0.4409 7.6741 0.572 0.912 0.1613 0.842 0.3686
0.9492 13240 3.6726 - - - - - - - - - -
0.9521 13280 2.3703 - - - - - - - - - -
0.9535 13300 - 16.3810 14.5093 11.5030 0.4077 7.6148 0.596 0.912 0.1609 0.836 0.3705
0.9550 13320 5.2028 - - - - - - - - - -
0.9578 13360 4.7405 - - - - - - - - - -
0.9607 13400 5.0132 16.2688 14.3324 11.6131 0.4203 7.7353 0.6 0.916 0.1597 0.842 0.3622
0.9636 13440 4.4158 - - - - - - - - - -
0.9664 13480 3.8275 - - - - - - - - - -
0.9679 13500 - 16.2633 14.3655 11.4907 0.3782 7.7337 0.6 0.908 0.1594 0.844 0.3677
0.9693 13520 3.7384 - - - - - - - - - -
0.9722 13560 3.6607 - - - - - - - - - -
0.9751 13600 4.3941 16.1707 14.2959 11.5882 0.4005 7.7898 0.604 0.908 0.1634 0.832 0.3676
0.9779 13640 5.1386 - - - - - - - - - -
0.9808 13680 4.5675 - - - - - - - - - -
0.9822 13700 - 16.1774 14.3749 11.6533 0.3967 7.8179 0.592 0.92 0.1613 0.834 0.3572
0.9837 13720 4.8892 - - - - - - - - - -
0.9865 13760 4.6501 - - - - - - - - - -
0.9894 13800 4.8331 16.1012 14.2806 11.4840 0.3887 7.7812 0.6 0.92 0.1603 0.836 0.3582
0.9923 13840 5.0559 - - - - - - - - - -
0.9951 13880 3.7793 - - - - - - - - - -
0.9966 13900 - 16.1002 14.3529 11.5535 0.4117 7.7769 0.624 0.916 0.1584 0.838 0.3566
0.9980 13920 4.3728 - - - - - - - - - -
1.0009 13960 2.986 - - - - - - - - - -
1.0037 14000 3.5693 16.1111 14.2388 11.4148 0.4054 7.7376 0.608 0.916 0.1614 0.842 0.3564
1.0066 14040 4.6654 - - - - - - - - - -
1.0095 14080 2.1908 - - - - - - - - - -
1.0109 14100 - 16.0610 14.3662 11.4650 0.4128 7.7313 0.616 0.916 0.1583 0.84 0.3690
1.0123 14120 4.9493 - - - - - - - - - -
1.0152 14160 3.3235 - - - - - - - - - -
1.0181 14200 2.3214 16.0917 14.3985 11.7186 0.4051 7.8567 0.604 0.916 0.1622 0.836 0.3618
1.0209 14240 3.2663 - - - - - - - - - -
1.0238 14280 3.3896 - - - - - - - - - -
1.0252 14300 - 16.1370 14.3216 11.8046 0.3951 7.8115 0.596 0.912 0.1683 0.832 0.3743
1.0267 14320 3.9958 - - - - - - - - - -
1.0295 14360 2.258 - - - - - - - - - -
1.0324 14400 3.0915 16.0761 14.3301 11.5165 0.3927 7.7619 0.604 0.912 0.1715 0.84 0.3766
1.0353 14440 3.164 - - - - - - - - - -
1.0381 14480 2.3643 - - - - - - - - - -
1.0396 14500 - 16.0963 14.3759 11.6717 0.3801 7.7133 0.604 0.916 0.1677 0.836 0.3744
1.0410 14520 3.1821 - - - - - - - - - -
1.0439 14560 3.4798 - - - - - - - - - -
1.0467 14600 4.417 16.0397 14.0617 11.6759 0.3789 7.8492 0.608 0.92 0.1688 0.836 0.3736
1.0496 14640 5.7266 - - - - - - - - - -
1.0525 14680 3.9098 - - - - - - - - - -
1.0539 14700 - 16.1006 14.0251 11.7555 0.3816 7.8904 0.604 0.924 0.1702 0.838 0.3718
1.0553 14720 4.7448 - - - - - - - - - -
1.0582 14760 4.2914 - - - - - - - - - -
1.0611 14800 2.9399 16.0208 14.0119 11.8027 0.3732 7.9645 0.62 0.932 0.1662 0.84 0.3685
1.0640 14840 2.8894 - - - - - - - - - -
1.0668 14880 3.8846 - - - - - - - - - -
1.0683 14900 - 16.0312 14.0173 11.6739 0.3686 7.8144 0.616 0.92 0.1683 0.834 0.3692
1.0697 14920 3.2289 - - - - - - - - - -
1.0726 14960 2.5864 - - - - - - - - - -
1.0754 15000 4.0584 15.9731 14.1571 11.4911 0.3664 7.7704 0.624 0.916 0.1680 0.84 0.3670
1.0783 15040 3.0181 - - - - - - - - - -
1.0812 15080 4.9053 - - - - - - - - - -
1.0826 15100 - 15.9529 14.1601 11.3767 0.3691 7.7505 0.624 0.916 0.1741 0.84 0.3658
1.0840 15120 6.7626 - - - - - - - - - -
1.0869 15160 2.7361 - - - - - - - - - -
1.0898 15200 3.1202 15.9693 14.2088 11.3551 0.3767 7.7630 0.604 0.916 0.1693 0.838 0.3584
1.0926 15240 3.5648 - - - - - - - - - -
1.0955 15280 5.4198 - - - - - - - - - -
1.0969 15300 - 15.9023 14.0750 11.3254 0.3690 7.8724 0.62 0.912 0.1672 0.838 0.3528
1.0984 15320 2.3261 - - - - - - - - - -
1.1012 15360 4.0827 - - - - - - - - - -
1.1041 15400 3.1488 15.9545 14.0565 11.4317 0.3834 7.8593 0.604 0.92 0.1674 0.834 0.3540
1.1070 15440 3.5284 - - - - - - - - - -
1.1098 15480 4.6034 - - - - - - - - - -
1.1113 15500 - 15.9706 13.9584 11.7362 0.3897 7.9187 0.6 0.92 0.1644 0.844 0.3602
1.1127 15520 3.4234 - - - - - - - - - -
1.1156 15560 3.4052 - - - - - - - - - -
1.1184 15600 3.6705 15.9383 14.0043 11.4606 0.3880 7.7824 0.604 0.92 0.1634 0.848 0.3612
1.1213 15640 3.7369 - - - - - - - - - -
1.1242 15680 3.8899 - - - - - - - - - -
1.1256 15700 - 16.0077 14.1143 11.7872 0.3496 7.8464 0.604 0.916 0.1681 0.848 0.3634
1.1270 15720 1.9403 - - - - - - - - - -
1.1299 15760 5.0747 - - - - - - - - - -
1.1328 15800 4.7738 15.9754 13.9368 11.6845 0.3803 7.8880 0.616 0.916 0.1684 0.84 0.3580
1.1356 15840 3.1264 - - - - - - - - - -
1.1385 15880 2.2736 - - - - - - - - - -
1.1399 15900 - 16.0509 13.8271 11.8027 0.3675 7.9896 0.608 0.932 0.1721 0.842 0.3560
1.1414 15920 4.0521 - - - - - - - - - -
1.1443 15960 4.7227 - - - - - - - - - -
1.1471 16000 3.5371 15.9093 13.7978 11.5584 0.3630 7.8648 0.604 0.924 0.1683 0.844 0.3577
1.1500 16040 3.9202 - - - - - - - - - -
1.1529 16080 2.9019 - - - - - - - - - -
1.1543 16100 - 15.8903 13.7575 11.5718 0.3466 7.8566 0.616 0.924 0.1719 0.836 0.3623
1.1557 16120 5.5121 - - - - - - - - - -
1.1586 16160 3.4537 - - - - - - - - - -
1.1615 16200 1.9837 15.9572 13.7785 11.6847 0.3457 7.8777 0.6 0.932 0.1692 0.838 0.3611
1.1643 16240 2.7021 - - - - - - - - - -
1.1672 16280 3.3995 - - - - - - - - - -
1.1686 16300 - 15.8963 13.6797 11.6656 0.3911 7.9947 0.612 0.932 0.1670 0.844 0.3512
1.1701 16320 5.791 - - - - - - - - - -
1.1729 16360 3.3119 - - - - - - - - - -
1.1758 16400 4.2943 15.7721 13.6490 11.7164 0.3800 8.0587 0.6 0.928 0.1752 0.85 0.3446
1.1787 16440 4.8994 - - - - - - - - - -
1.1815 16480 3.2427 - - - - - - - - - -
1.1830 16500 - 15.7552 13.6230 11.6606 0.3633 8.0992 0.612 0.928 0.1745 0.844 0.3445
1.1844 16520 3.1632 - - - - - - - - - -
1.1873 16560 3.8405 - - - - - - - - - -
1.1901 16600 1.6937 15.7749 13.7128 11.6585 0.3337 7.9745 0.616 0.928 0.1771 0.842 0.3568
1.1930 16640 2.478 - - - - - - - - - -
1.1959 16680 3.204 - - - - - - - - - -
1.1973 16700 - 15.8563 13.8099 11.6180 0.3515 7.9203 0.612 0.928 0.1816 0.836 0.3618
1.1987 16720 3.5978 - - - - - - - - - -
1.2016 16760 4.1266 - - - - - - - - - -
1.2045 16800 3.2525 15.8108 13.7686 11.2742 0.3497 7.8184 0.608 0.932 0.1787 0.842 0.3571
1.2073 16840 2.8669 - - - - - - - - - -
1.2102 16880 2.6891 - - - - - - - - - -
1.2116 16900 - 15.8532 13.7767 11.5406 0.3516 7.9280 0.608 0.932 0.1762 0.848 0.3657
1.2131 16920 2.534 - - - - - - - - - -
1.2159 16960 1.36 - - - - - - - - - -
1.2188 17000 3.332 15.8776 13.8813 11.7774 0.3466 7.9657 0.596 0.928 0.1796 0.84 0.3673
1.2217 17040 2.7868 - - - - - - - - - -
1.2245 17080 3.1252 - - - - - - - - - -
1.2260 17100 - 15.8150 13.8897 11.6342 0.3477 7.9681 0.612 0.936 0.1776 0.84 0.3633
1.2274 17120 1.1667 - - - - - - - - - -
1.2303 17160 5.4266 - - - - - - - - - -
1.2332 17200 2.4716 15.8043 13.7246 11.8497 0.3549 8.0515 0.612 0.924 0.1755 0.84 0.3686
1.2360 17240 2.473 - - - - - - - - - -
1.2389 17280 2.545 - - - - - - - - - -
1.2403 17300 - 15.8066 13.7668 11.8277 0.3419 8.0465 0.62 0.928 0.1779 0.844 0.3655
1.2418 17320 4.1155 - - - - - - - - - -
1.2446 17360 3.1927 - - - - - - - - - -
1.2475 17400 5.5641 15.7426 13.5775 11.8152 0.3442 8.0276 0.62 0.924 0.1717 0.844 0.3579
1.2504 17440 3.5042 - - - - - - - - - -
1.2532 17480 5.0925 - - - - - - - - - -
1.2547 17500 - 15.6184 13.5090 11.6832 0.3407 8.1209 0.632 0.928 0.1775 0.838 0.3515
1.2561 17520 4.5073 - - - - - - - - - -
1.2590 17560 2.7656 - - - - - - - - - -
1.2618 17600 2.8061 15.6239 13.5651 11.7732 0.3404 8.1301 0.62 0.932 0.1767 0.838 0.3534
1.2647 17640 2.8484 - - - - - - - - - -
1.2676 17680 3.3715 - - - - - - - - - -
1.2690 17700 - 15.6924 13.6800 11.9468 0.3324 8.1526 0.624 0.928 0.1756 0.848 0.3585
1.2704 17720 3.719 - - - - - - - - - -
1.2733 17760 3.7556 - - - - - - - - - -
1.2762 17800 3.5031 15.7921 13.5803 11.7884 0.3284 8.1410 0.628 0.924 0.1813 0.844 0.3560
1.2790 17840 3.569 - - - - - - - - - -
1.2819 17880 2.8155 - - - - - - - - - -
1.2833 17900 - 15.7586 13.6126 11.8897 0.3517 8.1853 0.616 0.924 0.1780 0.844 0.3542
1.2848 17920 4.2919 - - - - - - - - - -
1.2876 17960 3.9272 - - - - - - - - - -
1.2905 18000 3.6454 15.7540 13.5697 11.8346 0.3392 8.1693 0.616 0.924 0.1778 0.848 0.3575
1.2934 18040 4.2104 - - - - - - - - - -
1.2962 18080 3.416 - - - - - - - - - -
1.2977 18100 - 15.6426 13.4682 11.7015 0.3234 8.1194 0.636 0.936 0.1765 0.842 0.3515
1.2991 18120 2.7646 - - - - - - - - - -
1.3020 18160 5.0874 - - - - - - - - - -
1.3048 18200 2.028 15.7123 13.4847 11.9004 0.3255 8.1604 0.632 0.936 0.1799 0.846 0.3544
1.3077 18240 2.1961 - - - - - - - - - -
1.3106 18280 3.8514 - - - - - - - - - -
1.3120 18300 - 15.6351 13.5686 11.7282 0.3254 8.1651 0.624 0.932 0.1766 0.85 0.3494
1.3134 18320 3.1057 - - - - - - - - - -
1.3163 18360 3.3747 - - - - - - - - - -
1.3192 18400 2.419 15.7066 13.6374 11.8141 0.3486 8.0581 0.62 0.936 0.1795 0.852 0.3527
1.3221 18440 2.9488 - - - - - - - - - -
1.3249 18480 4.1966 - - - - - - - - - -
1.3264 18500 - 15.6241 13.4911 11.8510 0.3230 8.1468 0.62 0.94 0.1793 0.842 0.3505
1.3278 18520 4.0419 - - - - - - - - - -
1.3307 18560 3.3739 - - - - - - - - - -
1.3335 18600 5.0412 15.6683 13.5844 11.9432 0.3126 8.1691 0.636 0.936 0.1831 0.848 0.3519
1.3364 18640 2.8333 - - - - - - - - - -
1.3393 18680 3.6538 - - - - - - - - - -
1.3407 18700 - 15.6586 13.4650 11.9008 0.3315 8.1404 0.632 0.932 0.1775 0.854 0.3588
1.3421 18720 3.933 - - - - - - - - - -
1.3450 18760 4.2926 - - - - - - - - - -
1.3479 18800 2.8387 15.5881 13.5097 11.8072 0.3207 8.0534 0.632 0.936 0.1795 0.85 0.3576
1.3507 18840 3.0759 - - - - - - - - - -
1.3536 18880 2.3818 - - - - - - - - - -
1.3550 18900 - 15.6212 13.6097 12.0233 0.3287 8.2621 0.628 0.932 0.1798 0.854 0.3533
1.3565 18920 3.2847 - - - - - - - - - -
1.3593 18960 3.6912 - - - - - - - - - -
1.3622 19000 2.683 15.5996 13.6412 12.0162 0.3100 8.2247 0.636 0.928 0.1776 0.856 0.3606
1.3651 19040 4.4642 - - - - - - - - - -
1.3679 19080 3.8005 - - - - - - - - - -
1.3694 19100 - 15.5957 13.6191 12.1203 0.3218 8.2929 0.628 0.92 0.1760 0.854 0.3552
1.3708 19120 3.1487 - - - - - - - - - -
1.3737 19160 3.0871 - - - - - - - - - -
1.3765 19200 2.4135 15.5376 13.5941 12.0366 0.3220 8.3172 0.636 0.928 0.1802 0.852 0.3526
1.3794 19240 3.0482 - - - - - - - - - -
1.3823 19280 3.1662 - - - - - - - - - -
1.3837 19300 - 15.5224 13.7105 12.0255 0.3209 8.28 0.64 0.928 0.1769 0.854 0.3529
1.3851 19320 2.8783 - - - - - - - - - -
1.3880 19360 3.3335 - - - - - - - - - -
1.3909 19400 1.9902 15.5861 13.6693 11.9780 0.3135 8.2223 0.636 0.928 0.1762 0.858 0.3540
1.3937 19440 3.1931 - - - - - - - - - -
1.3966 19480 4.3639 - - - - - - - - - -
1.3980 19500 - 15.5462 13.7670 12.3000 0.3281 8.3016 0.62 0.924 0.1745 0.854 0.3558
1.3995 19520 1.966 - - - - - - - - - -
1.4024 19560 2.6312 - - - - - - - - - -
1.4052 19600 3.4622 15.5204 13.7751 12.1675 0.3235 8.2116 0.624 0.928 0.1760 0.854 0.3572
1.4081 19640 3.3941 - - - - - - - - - -
1.4110 19680 2.7327 - - - - - - - - - -
1.4124 19700 - 15.4733 13.7362 12.0520 0.3338 8.2851 0.64 0.932 0.1746 0.854 0.3471
1.4138 19720 2.2401 - - - - - - - - - -
1.4167 19760 4.3409 - - - - - - - - - -
1.4196 19800 2.5105 15.5619 13.6628 12.1141 0.3228 8.3506 0.632 0.936 0.1778 0.854 0.3498
1.4224 19840 3.284 - - - - - - - - - -
1.4253 19880 3.7039 - - - - - - - - - -
1.4267 19900 - 15.5574 13.6321 12.0620 0.3298 8.3922 0.632 0.932 0.1785 0.852 0.3489
1.4282 19920 4.0674 - - - - - - - - - -
1.4310 19960 3.444 - - - - - - - - - -
1.4339 20000 5.0849 15.4646 13.6029 11.9322 0.3082 8.3065 0.636 0.932 0.1776 0.854 0.3554
1.4368 20040 5.5596 - - - - - - - - - -
1.4396 20080 3.3191 - - - - - - - - - -
1.4411 20100 - 15.4196 13.3893 11.9087 0.3303 8.3901 0.632 0.928 0.1822 0.858 0.3545
1.4425 20120 3.7368 - - - - - - - - - -
1.4454 20160 2.4641 - - - - - - - - - -
1.4482 20200 3.3793 15.3666 13.3403 12.0009 0.3261 8.4313 0.62 0.928 0.1831 0.846 0.3539
1.4511 20240 3.9488 - - - - - - - - - -
1.4540 20280 5.0068 - - - - - - - - - -
1.4554 20300 - 15.3534 13.3939 11.9984 0.3291 8.4698 0.632 0.928 0.1800 0.846 0.3495
1.4568 20320 2.3431 - - - - - - - - - -
1.4597 20360 4.9521 - - - - - - - - - -
1.4626 20400 5.3164 15.4050 13.3086 11.9903 0.3163 8.4053 0.628 0.928 0.1770 0.852 0.3445
1.4654 20440 5.1668 - - - - - - - - - -
1.4683 20480 3.4223 - - - - - - - - - -
1.4697 20500 - 15.3348 13.2291 12.0885 0.3062 8.3856 0.616 0.932 0.1796 0.846 0.3494
1.4712 20520 3.4593 - - - - - - - - - -
1.4740 20560 2.3262 - - - - - - - - - -
1.4769 20600 3.9161 15.3914 13.2555 12.2420 0.3128 8.4197 0.612 0.936 0.1824 0.848 0.3547
1.4798 20640 2.8053 - - - - - - - - - -
1.4826 20680 3.313 - - - - - - - - - -
1.4841 20700 - 15.3288 13.3541 12.1614 0.3070 8.4050 0.608 0.936 0.1796 0.848 0.3544
1.4855 20720 3.3806 - - - - - - - - - -
1.4884 20760 4.2094 - - - - - - - - - -
1.4913 20800 3.4481 15.2985 13.4021 12.0432 0.3058 8.3873 0.612 0.936 0.1783 0.854 0.3483
1.4941 20840 5.7791 - - - - - - - - - -
1.4970 20880 4.1814 - - - - - - - - - -
1.4984 20900 - 15.2689 13.2810 12.0894 0.3084 8.4373 0.6 0.94 0.1827 0.854 0.3489
1.4999 20920 3.9973 - - - - - - - - - -
1.5027 20960 5.2829 - - - - - - - - - -
1.5056 21000 3.4965 15.2615 13.2843 11.8487 0.3009 8.3163 0.612 0.94 0.1809 0.858 0.3504
1.5085 21040 2.8343 - - - - - - - - - -
1.5113 21080 2.9229 - - - - - - - - - -
1.5128 21100 - 15.3231 13.3661 11.9178 0.2947 8.2877 0.62 0.936 0.1806 0.852 0.3524
1.5142 21120 2.987 - - - - - - - - - -
1.5171 21160 2.3643 - - - - - - - - - -
1.5199 21200 3.8376 15.3823 13.3930 12.0239 0.2954 8.3208 0.616 0.94 0.1811 0.854 0.3538
1.5228 21240 1.93 - - - - - - - - - -
1.5257 21280 2.3991 - - - - - - - - - -
1.5271 21300 - 15.4121 13.4722 12.0793 0.3131 8.3620 0.616 0.94 0.1820 0.858 0.3561
1.5285 21320 3.7524 - - - - - - - - - -
1.5314 21360 4.6708 - - - - - - - - - -
1.5343 21400 5.3824 15.3558 13.3229 12.0701 0.3012 8.3903 0.616 0.936 0.1819 0.852 0.3590
1.5371 21440 4.1136 - - - - - - - - - -
1.5400 21480 4.936 - - - - - - - - - -
1.5414 21500 - 15.3300 13.2526 12.0149 0.3043 8.3838 0.608 0.936 0.1813 0.85 0.3561
1.5429 21520 3.7487 - - - - - - - - - -
1.5457 21560 2.1308 - - - - - - - - - -
1.5486 21600 3.8421 15.3505 13.3459 12.0719 0.3017 8.3757 0.612 0.936 0.1802 0.848 0.3483
1.5515 21640 3.2756 - - - - - - - - - -
1.5543 21680 4.8149 - - - - - - - - - -
1.5558 21700 - 15.3311 13.3811 12.0471 0.3160 8.3704 0.632 0.94 0.1815 0.85 0.3487
1.5572 21720 3.5562 - - - - - - - - - -
1.5601 21760 3.5749 - - - - - - - - - -
1.5629 21800 4.0489 15.3322 13.3139 12.0703 0.3188 8.3453 0.628 0.944 0.1809 0.854 0.3515
1.5658 21840 2.8854 - - - - - - - - - -
1.5687 21880 3.8506 - - - - - - - - - -
1.5701 21900 - 15.2926 13.3127 12.1250 0.3167 8.3991 0.62 0.932 0.1808 0.85 0.3488
1.5716 21920 4.1358 - - - - - - - - - -
1.5744 21960 4.0832 - - - - - - - - - -
1.5773 22000 4.2939 15.2645 13.3953 12.0224 0.3303 8.4038 0.62 0.936 0.1807 0.854 0.3479
1.5802 22040 2.8977 - - - - - - - - - -
1.5830 22080 3.436 - - - - - - - - - -
1.5845 22100 - 15.2648 13.3274 11.9738 0.3074 8.4026 0.624 0.936 0.1815 0.852 0.3469
1.5859 22120 2.0172 - - - - - - - - - -
1.5888 22160 3.0846 - - - - - - - - - -
1.5916 22200 2.7365 15.2797 13.4175 12.0175 0.3036 8.3787 0.628 0.936 0.1818 0.852 0.3504
1.5945 22240 4.3708 - - - - - - - - - -
1.5974 22280 3.7742 - - - - - - - - - -
1.5988 22300 - 15.2071 13.4245 11.9011 0.3051 8.3913 0.628 0.936 0.1838 0.852 0.3473
1.6002 22320 3.6443 - - - - - - - - - -
1.6031 22360 4.59 - - - - - - - - - -
1.6060 22400 4.6965 15.1470 13.2920 11.7933 0.3095 8.3857 0.62 0.944 0.1826 0.852 0.3452
1.6088 22440 4.5826 - - - - - - - - - -
1.6117 22480 5.1426 - - - - - - - - - -
1.6131 22500 - 15.1593 13.2705 11.8528 0.3274 8.4160 0.624 0.932 0.1824 0.854 0.3464
1.6146 22520 2.5257 - - - - - - - - - -
1.6174 22560 3.239 - - - - - - - - - -
1.6203 22600 2.7703 15.1556 13.3171 11.8843 0.3211 8.4307 0.608 0.936 0.1836 0.852 0.3448
1.6232 22640 1.8762 - - - - - - - - - -
1.6260 22680 2.3188 - - - - - - - - - -
1.6275 22700 - 15.2006 13.3935 12.0886 0.3125 8.4872 0.612 0.936 0.1824 0.858 0.3488
1.6289 22720 1.3526 - - - - - - - - - -
1.6318 22760 2.3604 - - - - - - - - - -
1.6346 22800 3.6524 15.1823 13.3934 11.9369 0.3030 8.4357 0.608 0.936 0.1780 0.848 0.3501
1.6375 22840 3.6482 - - - - - - - - - -
1.6404 22880 3.1099 - - - - - - - - - -
1.6418 22900 - 15.2227 13.3844 11.9740 0.2984 8.4133 0.62 0.928 0.1788 0.85 0.3554
1.6432 22920 4.1393 - - - - - - - - - -
1.6461 22960 4.4964 - - - - - - - - - -
1.6490 23000 2.8688 15.2037 13.3606 11.8267 0.2918 8.3621 0.62 0.932 0.1819 0.848 0.3518
1.6518 23040 2.8813 - - - - - - - - - -
1.6547 23080 3.5375 - - - - - - - - - -
1.6562 23100 - 15.2007 13.3417 11.8189 0.3072 8.3525 0.628 0.924 0.1795 0.856 0.3495
1.6576 23120 1.9968 - - - - - - - - - -
1.6605 23160 2.2705 - - - - - - - - - -
1.6633 23200 3.4111 15.1857 13.3542 11.8083 0.3050 8.4102 0.62 0.924 0.1797 0.86 0.3483
1.6662 23240 4.6184 - - - - - - - - - -
1.6691 23280 3.0199 - - - - - - - - - -
1.6705 23300 - 15.1410 13.3286 11.9031 0.3078 8.4251 0.608 0.928 0.1811 0.856 0.3508
1.6719 23320 3.2364 - - - - - - - - - -
1.6748 23360 2.7294 - - - - - - - - - -
1.6777 23400 2.9172 15.1541 13.3310 11.9259 0.3049 8.4464 0.616 0.936 0.1803 0.856 0.3520
1.6805 23440 2.9839 - - - - - - - - - -
1.6834 23480 2.6149 - - - - - - - - - -
1.6848 23500 - 15.1320 13.3793 11.9408 0.3043 8.4535 0.624 0.936 0.1784 0.856 0.3490
1.6863 23520 4.3119 - - - - - - - - - -
1.6891 23560 2.9512 - - - - - - - - - -
1.6920 23600 2.9404 15.1347 13.4123 12.0496 0.3217 8.5266 0.612 0.932 0.1757 0.86 0.3484
1.6949 23640 3.9708 - - - - - - - - - -
1.6977 23680 4.8511 - - - - - - - - - -
1.6992 23700 - 15.1047 13.3144 11.9474 0.3118 8.5137 0.624 0.936 0.1766 0.86 0.3449
1.7006 23720 3.7358 - - - - - - - - - -
1.7035 23760 2.6021 - - - - - - - - - -
1.7063 23800 2.4915 15.1745 13.3845 11.8629 0.2994 8.4633 0.616 0.932 0.1791 0.86 0.3429
1.7092 23840 2.9971 - - - - - - - - - -
1.7121 23880 3.5966 - - - - - - - - - -
1.7135 23900 - 15.1149 13.3633 11.7865 0.3026 8.4721 0.62 0.936 0.1780 0.856 0.3418
1.7149 23920 4.1375 - - - - - - - - - -
1.7178 23960 3.0026 - - - - - - - - - -
1.7207 24000 1.9789 15.1357 13.3273 11.8970 0.2956 8.4901 0.616 0.936 0.1803 0.852 0.3459
1.7235 24040 3.3947 - - - - - - - - - -
1.7264 24080 1.9033 - - - - - - - - - -
1.7278 24100 - 15.1441 13.2727 11.9525 0.2998 8.5592 0.616 0.932 0.1774 0.85 0.3447
1.7293 24120 3.9818 - - - - - - - - - -
1.7321 24160 2.7672 - - - - - - - - - -
1.7350 24200 4.1207 15.1139 13.2685 11.9772 0.2914 8.5229 0.612 0.936 0.1782 0.854 0.3449
1.7379 24240 4.9085 - - - - - - - - - -
1.7408 24280 2.6816 - - - - - - - - - -
1.7422 24300 - 15.0950 13.2691 11.9316 0.2891 8.5058 0.628 0.932 0.1783 0.85 0.3451
1.7436 24320 4.0798 - - - - - - - - - -
1.7465 24360 4.0497 - - - - - - - - - -
1.7494 24400 2.1754 15.0667 13.2432 11.9302 0.3014 8.5148 0.62 0.932 0.1785 0.85 0.3447
1.7522 24440 4.0132 - - - - - - - - - -
1.7551 24480 3.0907 - - - - - - - - - -
1.7565 24500 - 15.0619 13.2334 11.9689 0.3083 8.5210 0.616 0.94 0.1797 0.852 0.3448
1.7580 24520 2.5441 - - - - - - - - - -
1.7608 24560 5.1271 - - - - - - - - - -
1.7637 24600 2.7406 15.0430 13.2702 11.8725 0.2989 8.5014 0.624 0.932 0.1797 0.854 0.3438
1.7666 24640 5.8816 - - - - - - - - - -
1.7694 24680 2.5911 - - - - - - - - - -
1.7709 24700 - 15.0159 13.2945 11.9576 0.3038 8.5272 0.62 0.94 0.1791 0.852 0.3432
1.7723 24720 4.2906 - - - - - - - - - -
1.7752 24760 4.0333 - - - - - - - - - -
1.7780 24800 3.3856 15.0063 13.2549 12.0062 0.3044 8.5731 0.616 0.94 0.1788 0.854 0.3416
1.7809 24840 4.2069 - - - - - - - - - -
1.7838 24880 2.1323 - - - - - - - - - -
1.7852 24900 - 15.0545 13.2757 12.0952 0.3053 8.6138 0.608 0.936 0.1764 0.854 0.3432
1.7866 24920 3.1652 - - - - - - - - - -
1.7895 24960 4.8477 - - - - - - - - - -
1.7924 25000 2.2977 15.0273 13.2787 11.9697 0.3063 8.5467 0.612 0.94 0.1784 0.85 0.3413
1.7952 25040 3.0581 - - - - - - - - - -
1.7981 25080 2.8514 - - - - - - - - - -
1.7995 25100 - 15.0087 13.3152 12.0277 0.3083 8.5477 0.62 0.94 0.1783 0.854 0.3436
1.8010 25120 5.7934 - - - - - - - - - -
1.8038 25160 3.0842 - - - - - - - - - -
1.8067 25200 3.0617 15.0183 13.3207 11.9881 0.3133 8.5432 0.616 0.94 0.1795 0.856 0.3424
1.8096 25240 2.0712 - - - - - - - - - -
1.8124 25280 3.3235 - - - - - - - - - -
1.8139 25300 - 15.0349 13.3503 11.9034 0.3105 8.5187 0.616 0.94 0.1789 0.854 0.3401
1.8153 25320 3.2905 - - - - - - - - - -
1.8182 25360 2.6923 - - - - - - - - - -
1.8210 25400 1.7186 15.0600 13.3730 12.0310 0.3088 8.5543 0.616 0.94 0.1798 0.854 0.3416
1.8239 25440 2.5564 - - - - - - - - - -
1.8268 25480 2.4477 - - - - - - - - - -
1.8282 25500 - 15.0476 13.3874 11.9905 0.3022 8.5080 0.608 0.94 0.1816 0.856 0.3425
1.8297 25520 3.4169 - - - - - - - - - -
1.8325 25560 3.8292 - - - - - - - - - -
1.8354 25600 3.8279 15.0453 13.4088 12.0147 0.3000 8.5168 0.616 0.94 0.1820 0.856 0.3417
1.8383 25640 4.6707 - - - - - - - - - -
1.8411 25680 2.1675 - - - - - - - - - -
1.8426 25700 - 15.0309 13.3752 12.0423 0.3053 8.5523 0.616 0.936 0.1814 0.854 0.3390
1.8440 25720 4.5841 - - - - - - - - - -
1.8469 25760 3.3613 - - - - - - - - - -
1.8497 25800 4.1081 14.9965 13.3753 11.9708 0.3084 8.5311 0.612 0.94 0.1830 0.856 0.3384
1.8526 25840 3.0986 - - - - - - - - - -
1.8555 25880 2.9227 - - - - - - - - - -
1.8569 25900 - 14.9908 13.3658 12.0080 0.3095 8.5427 0.612 0.936 0.1814 0.856 0.3401
1.8583 25920 4.4448 - - - - - - - - - -
1.8612 25960 3.6674 - - - - - - - - - -
1.8641 26000 4.9483 14.9985 13.3521 11.9814 0.3047 8.5311 0.616 0.936 0.1821 0.854 0.3407
1.8669 26040 4.3641 - - - - - - - - - -
1.8698 26080 3.9226 - - - - - - - - - -
1.8712 26100 - 14.9824 13.3694 11.9995 0.2993 8.5219 0.62 0.936 0.1831 0.854 0.3401
1.8727 26120 4.5376 - - - - - - - - - -
1.8755 26160 3.4237 - - - - - - - - - -
1.8784 26200 3.0344 14.9909 13.3874 12.0149 0.2965 8.5308 0.616 0.932 0.1841 0.854 0.3407
1.8813 26240 3.1202 - - - - - - - - - -
1.8841 26280 2.5293 - - - - - - - - - -
1.8856 26300 - 14.9926 13.3823 12.0366 0.2983 8.5487 0.612 0.936 0.1845 0.854 0.3396
1.8870 26320 4.7531 - - - - - - - - - -
1.8899 26360 3.5603 - - - - - - - - - -
1.8927 26400 2.1377 14.9806 13.4098 11.9909 0.3030 8.5420 0.612 0.936 0.1818 0.854 0.3399
1.8956 26440 3.7725 - - - - - - - - - -
1.8985 26480 3.105 - - - - - - - - - -
1.8999 26500 - 14.9854 13.4043 11.9975 0.2973 8.5506 0.616 0.936 0.1828 0.854 0.3397
1.9013 26520 2.4285 - - - - - - - - - -
1.9042 26560 3.4402 - - - - - - - - - -
1.9071 26600 4.7733 14.9937 13.3980 12.0096 0.2952 8.5559 0.612 0.936 0.1828 0.856 0.3398
1.9100 26640 3.4083 - - - - - - - - - -
1.9128 26680 4.1142 - - - - - - - - - -
1.9143 26700 - 14.9793 13.3861 11.9758 0.2978 8.5600 0.612 0.936 0.1820 0.852 0.3387
1.9157 26720 4.2289 - - - - - - - - - -
1.9186 26760 2.7633 - - - - - - - - - -
1.9214 26800 2.7214 14.9795 13.3840 11.9803 0.2961 8.5680 0.612 0.936 0.1832 0.856 0.3403
1.9243 26840 3.5159 - - - - - - - - - -
1.9272 26880 3.3401 - - - - - - - - - -
1.9286 26900 - 14.9808 13.3877 11.9437 0.2944 8.5506 0.616 0.936 0.1825 0.856 0.3401
1.9300 26920 4.585 - - - - - - - - - -
1.9329 26960 2.7602 - - - - - - - - - -
1.9358 27000 2.5877 14.9695 13.3743 11.9269 0.2982 8.5549 0.616 0.936 0.1824 0.856 0.3404
1.9386 27040 5.0835 - - - - - - - - - -
1.9415 27080 4.8611 - - - - - - - - - -
1.9429 27100 - 14.9839 13.3750 11.9335 0.2964 8.5520 0.62 0.936 0.1832 0.856 0.3409
1.9444 27120 3.4512 - - - - - - - - - -
1.9472 27160 2.9668 - - - - - - - - - -
1.9501 27200 2.5432 14.9821 13.3693 11.9502 0.2998 8.5536 0.62 0.936 0.1819 0.854 0.3403
1.9530 27240 2.7358 - - - - - - - - - -
1.9558 27280 4.1555 - - - - - - - - - -
1.9573 27300 - 14.9803 13.3633 11.9487 0.2979 8.5481 0.616 0.936 0.1822 0.856 0.3407
1.9587 27320 3.7878 - - - - - - - - - -
1.9616 27360 5.121 - - - - - - - - - -
1.9644 27400 2.6481 14.9846 13.3643 11.9686 0.2971 8.5560 0.62 0.936 0.1841 0.856 0.3411
1.9673 27440 3.9487 - - - - - - - - - -
1.9702 27480 3.7581 - - - - - - - - - -
1.9716 27500 - 14.9793 13.3748 11.9784 0.2986 8.5578 0.62 0.936 0.1822 0.854 0.3415
1.9730 27520 3.1995 - - - - - - - - - -
1.9759 27560 3.1341 - - - - - - - - - -
1.9788 27600 4.9244 14.9829 13.3767 11.9772 0.2981 8.5603 0.616 0.936 0.1833 0.852 0.3414
1.9816 27640 4.0769 - - - - - - - - - -
1.9845 27680 4.5696 - - - - - - - - - -
1.9859 27700 - 14.9782 13.3699 11.9776 0.2958 8.5608 0.62 0.936 0.1831 0.852 0.3419
1.9874 27720 3.9871 - - - - - - - - - -
1.9902 27760 3.9347 - - - - - - - - - -
1.9931 27800 4.7811 14.9754 13.3700 11.9857 0.2972 8.5635 0.62 0.936 0.1836 0.856 0.3418
1.9960 27840 2.4547 - - - - - - - - - -
1.9989 27880 3.9766 - - - - - - - - - -
  • The bold row denotes the saved checkpoint.

Framework Versions

  • Python: 3.12.3
  • Sentence Transformers: 3.3.1
  • Transformers: 4.49.0
  • PyTorch: 2.6.0+cu124
  • Accelerate: 1.1.1
  • Datasets: 2.21.0
  • Tokenizers: 0.21.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MatryoshkaLoss

@misc{kusupati2024matryoshka,
    title={Matryoshka Representation Learning},
    author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
    year={2024},
    eprint={2205.13147},
    archivePrefix={arXiv},
    primaryClass={cs.LG}
}

CoSENTLoss

@online{kexuefm-8847,
    title={CoSENT: A more efficient sentence vector scheme than Sentence-BERT},
    author={Su Jianlin},
    year={2022},
    month={Jan},
    url={https://kexue.fm/archives/8847},
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
3
Safetensors
Model size
159M params
Tensor type
F32
·
Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.

Model tree for BounharAbdelaziz/ModernBERT-Morocco-Sentence-Embeddings-v0.2-bs-32-lr-2e-05-ep-2-wp-0.05-gacc-1-gnm-1.0-v0.3

Finetuned
(2)
this model

Collection including BounharAbdelaziz/ModernBERT-Morocco-Sentence-Embeddings-v0.2-bs-32-lr-2e-05-ep-2-wp-0.05-gacc-1-gnm-1.0-v0.3

Evaluation results

  • Cosine Accuracy on triplet evaluator dev
    self-reported
    0.620
  • Cosine Accuracy on negation triplet evaluator dev
    self-reported
    0.936
  • Pearson Cosine on pair score evaluator dev
    self-reported
    0.179
  • Spearman Cosine on pair score evaluator dev
    self-reported
    0.184
  • Src2Trg Accuracy on english non english evaluator dev
    self-reported
    0.864
  • Trg2Src Accuracy on english non english evaluator dev
    self-reported
    0.848
  • Mean Accuracy on english non english evaluator dev
    self-reported
    0.856
  • Pearson Cosine on atlasia sent embd bench evaluator dev
    self-reported
    0.314
  • Spearman Cosine on atlasia sent embd bench evaluator dev
    self-reported
    0.342