en
sequencelengths 2
2
| ms
sequencelengths 2
2
|
---|---|
[
"We tune model weights using minimum error rate training on the WMT 2008 test data.",
"We perform the Mert training to tune the optimal feature weights on the development set."
] | [
"Kami menala berat model menggunakan latihan kadar ralat minimum pada data ujian WMT 2008.",
"Kami melaksanakan latihan Mert untuk menyesuaikan berat ciri optimum pada set pembangunan."
] |
[
"Bleu is smoothed to be more appropriate for Sentencelevel evaluation, and the Bigram versions of BLEU and Hwcm are reported because they have higher Correlations than when longer N-Grams are included.",
"Bleu is smoothed, and it considers only matching up to Bigrams because this has higher Correlations with human judgments than when Higher-Ordered N-Grams are included."
] | [
"Bleu dilicinkan untuk menjadi lebih sesuai untuk penilaian Sentencelevel, dan versi Bigram BLEU dan Hwcm dilaporkan kerana mereka mempunyai Korelasi yang lebih tinggi daripada ketika N-Gram yang lebih lama dimasukkan.",
"Bleu dilicinkan, dan ia menganggap hanya sepadan dengan Bigrams kerana ini mempunyai kaitan yang lebih tinggi dengan penghakiman manusia daripada ketika N-Grams BerOrdered Tinggi dimasukkan."
] |
[
"Blacoe and Lapata compare different arithmetic functions across multiple representations on a range of Compositionality benchmarks.",
"Blacoe and Lapata compare count and predict representations as input to composition functions."
] | [
"Blacoe dan Lapata membandingkan fungsi aritmetik yang berbeza merentasi pelbagai perwakilan pada pelbagai penanda aras Komposisi.",
"Blacoe dan Lapata membandingkan kiraan dan ramalkan perwakilan sebagai input kepada fungsi komposisi."
] |
[
"In section 3, we describe the three resources we use in our experiments and how we model them.",
"In section 3, we describe the three resources we use in our experiments."
] | [
"Dalam seksyen 3, kami menerangkan tiga sumber yang kami gunakan dalam eksperimen kami dan bagaimana kami memodelkannya.",
"Dalam seksyen 3, kami menerangkan tiga sumber yang kami gunakan dalam eksperimen kami."
] |
[
"Word sense induction (Wsi) is the task of automatically inducing the different senses of a given word, generally in the form of an Unsupervised learning task with senses represented as clusters of token instances.",
"Word sense induction (Wsi) is the task of automatically identifying the senses of words in texts, without the need for Handcrafted resources or manually Annotated data."
] | [
"Induksi deria perkataan (Wsi) adalah tugas untuk mendorong deria yang berbeza dari perkataan yang diberikan secara automatik, umumnya dalam bentuk tugas pembelajaran yang tidak diawasi dengan deria yang diwakili sebagai kelompok kejadian token.",
"Induksi deria perkataan (Wsi) adalah tugas untuk mengenal pasti deria perkataan secara automatik dalam teks, tanpa memerlukan sumber buatan tangan atau data yang diberianotasi secara manual."
] |
[
"Inversion Transduction grammar is a synchronous grammar for synchronous Parsing of source and target language sentences.",
"Inversion Transduction grammar is a formalism for synchronous Parsing of bilingual sentence pairs."
] | [
"Tatabahasa Transduksi ialah tatabahasa serenjang untuk tatabahasa serenjang Penghuraian ayat bahasa sumber dan sasaran.",
"Tatabahasa Transduksi Penyimpangan ialah formalisme bagi penguraian pasangan ayat dwibahasa yang bersinergi."
] |
[
"We trained a specific language model using Srilm from each of these Corpora in order to estimate N-Gram Log-Probabilities.",
"We then created Trigram language models from a variety of sources using the Srilm Toolkit, and measured their perplexity on this data."
] | [
"Kami melatih model bahasa tertentu menggunakan Srilm dari setiap Corpora ini untuk menganggarkan N-Gram Log-Probabilities.",
"Kami kemudian mencipta model bahasa Trigram dari pelbagai sumber menggunakan Srilm Toolkit, dan mengukur kebingungan mereka pada data ini."
] |
[
"We evaluate translations with BLEU and meteor.",
"We evaluate global translation quality with BLEU and meteor."
] | [
"Kami menilai terjemahan dengan BLEU dan meteor.",
"Kami menilai kualiti terjemahan global dengan BLEU dan meteor."
] |
[
"Gram language model with modified Kneser-Ney smoothing is trained with the Srilm Toolkit on the Epps, Ted, Newscommentary, and the Gigaword Corpora.",
"A 4-Gram language model is trained on the Xinhua portion of the Gigaword corpus with the Srilm Toolkit."
] | [
"Model bahasa gram dengan smoothing Kneser-Ney yang diubahsuai dilatih dengan Srilm Toolkit pada Epps, Ted, Newscommentary, dan Gigaword Corpora.",
"Model bahasa 4-Gram dilatih di bahagian Xinhua korpus Gigaword dengan Srilm Toolkit."
] |
[
"In future work, we will try to collect and Annotate data for Microblogs in other languages to test the robustness of our method.",
"In future work, we will try to collect and Annotate data for Microblogs in other languages."
] | [
"Dalam kerja masa depan, kami akan cuba mengumpul dan Annotate data untuk Microblogs dalam bahasa lain untuk menguji kekukuhan kaedah kami.",
"Dalam kerja masa depan, kami akan cuba mengumpul dan Annotate data untuk Microblogs dalam bahasa lain."
] |
[
"We trained a 4-Gram language model with Kneser-Ney smoothing and Unigram Caching using the Sri-Lm Toolkit.",
"For all data sets, we trained a 5-Gram language model using the Sri language modeling Toolkit."
] | [
"Kami melatih model bahasa 4-Gram dengan smoothing Kneser-Ney dan Unigram Caching menggunakan Sri-Lm Toolkit.",
"Untuk semua set data, kami melatih model bahasa 5-Gram menggunakan Toolkit pemodelan bahasa Sri."
] |
[
"However, to the best of our knowledge, there is no systematic attempt in the literature to build such a resource.",
"However, to the best of our knowledge, there is no attempt in the literature to build a resource."
] | [
"Walau bagaimanapun, untuk pengetahuan kami yang terbaik, tidak ada percubaan sistematik dalam kesusasteraan untuk membina sumber sedemikian.",
"Walau bagaimanapun, untuk pengetahuan terbaik kami, tidak ada percubaan dalam kesusasteraan untuk membina sumber."
] |
[
"Glove is an Unsupervised algorithm that Constructs Embeddings from large Corpora.",
"Glove is an Unsupervised learning algorithm for word Embeddings."
] | [
"Glove adalah algoritma yang tidak diawasi yang membina Embeddings dari Corpora yang besar.",
"Sarung tangan adalah algoritma pembelajaran yang tidak diawasi untuk perkataan Embeddings."
] |
[
"And our experimental results on the ace data set shows the model is effective for Coreference resolution.",
"Evaluation on the ace data set shows that the Ilp based Entity-Mention model is effective for the Coreference resolution task."
] | [
"Dan hasil eksperimen kami pada set data AES menunjukkan model berkesan untuk resolusi Coreference.",
"Penilaian pada set data ace menunjukkan bahawa model Entity-Mention berasaskan Ilp berkesan untuk tugas resolusi Coreference."
] |
[
"In this setting, Reuse may be mixed with text derived from other sources.",
"In this case, it may be preferable to look for Near-Duplicate documents."
] | [
"Dalam tetapan ini, Reuse boleh dicampur dengan teks yang berasal dari sumber lain.",
"Dalam kes ini, lebih baik mencari dokumen Dekat Pendua."
] |
[
"Sagae and Lavie proposed a constituent Reparsing method for multiple Parsers combination.",
"Sagae and Lavie apply a notion of Reparsing to a two stage Parser combination Chartbased approach."
] | [
"Sagae dan Lavie mencadangkan kaedah Reparsing konstituen untuk kombinasi Parsers berganda.",
"Sagae dan Lavie menggunakan tanggapan Reparsing kepada pendekatan gabungan Parser dua peringkat Chartbased."
] |
[
"Later Li and Roth used more semantic information sources including named entities, Wordnet senses, Class-Specific related words, and Distributional similarity based categories in question classification task.",
"In Li and Roth, they used Wordnet for English and built a set of Class-Specific words as semantic features and achieved the high precision."
] | [
"Kemudian Li dan Roth menggunakan lebih banyak sumber maklumat semantik termasuk entiti bernama, deria Wordnet, kata-kata berkaitan Kelas-Specific, dan kategori berasaskan persamaan Distribution dalam tugas pengelasan soalan.",
"Dalam Li dan Roth, mereka menggunakan Wordnet untuk bahasa Inggeris dan membina satu set perkataan Kelas-Spesifik sebagai ciri semantik dan mencapai ketepatan yang tinggi."
] |
[
"Such data allows us to train a neural Encoder-Decoder model with extra inputs to specify the target syntax.",
"Given such parallel data, we can easily train an Encoder-Decoder model that takes a sentence and target syntactic template."
] | [
"Data sedemikian membolehkan kita melatih model Encoder-Decoder saraf dengan input tambahan untuk menentukan sintaks sasaran.",
"Memandangkan data selari seperti itu, kita boleh melatih model Encoder-Decoder dengan mudah yang mengambil templat sintaksis dan sasaran."
] |
[
"We then created Trigram language models from a variety of sources using the Srilm Toolkit, and measured their perplexity on this data.",
"We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit."
] | [
"Kami kemudian mencipta model bahasa Trigram dari pelbagai sumber menggunakan Srilm Toolkit, dan mengukur kebingungan mereka pada data ini.",
"Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit."
] |
[
"For the semantic language model, we used the Srilm package and trained a Tri-Gram language model with the default Goodturing smoothing.",
"On the remaining Tweets, we trained a 10-Gram word length model, and a 5-Gram language model, using Srilm with Kneyser-Ney smoothing."
] | [
"Untuk model bahasa semantik, kami menggunakan pakej Srilm dan melatih model bahasa Tri-Gram dengan smoothing Goodturing lalai.",
"Pada Tweet yang tinggal, kami melatih model panjang perkataan 10-Gram, dan model bahasa 5-Gram, menggunakan Srilm dengan smoothing Kneyser-Ney."
] |
[
"This approach yielded a precision between 71% and 82% on the news headline Dataset.",
"Evaluated on a news headline Dataset, our model yielded higher accuracy."
] | [
"Pendekatan ini menghasilkan ketepatan antara 71% dan 82% pada tajuk berita Dataset.",
"Dinilai pada tajuk berita Dataset, model kami menghasilkan ketepatan yang lebih tinggi."
] |
[
"Here too, we used the Weka implementation of the Na茂Ve Bayes model and the Svmlight implementation of the SVM.",
"For our classifiers, we used the Weka implementation of Na茂Ve Bayes and the Svmlight implementation of the SVM."
] | [
"Di sini juga, kami menggunakan pelaksanaan Weka model NaVe Bayes dan pelaksanaan Svmlight SVM.",
"Untuk pengelas kami, kami menggunakan pelaksanaan Weka NaVe Bayes dan pelaksanaan Svmlight SVM."
] |
[
"Experimental results show that our system can achieve 0.85 precision at 0.89 recall, excluding exact matches.",
"Experiments show that the models can achieve 0 . 85 precision at a level of 0 . 89 recall, and even higher precision."
] | [
"Hasil eksperimen menunjukkan bahawa sistem kami dapat mencapai ketepatan 0.85 pada penarikan balik 0.89, tidak termasuk padanan yang tepat.",
"Eksperimen menunjukkan bahawa model boleh mencapai ketepatan 0.85 pada tahap 0.89 ingat, dan ketepatan yang lebih tinggi."
] |
[
"We obtained a vocabulary of 183,400 unique words after eliminating words which occur only once, stemming by a Partof-Speech Tagger, and stop word removal.",
"We obtained a vocabulary of 320,935 unique words after eliminating words which occur only once, stemming by a Part-Ofspeech Tagger, and stop word removal."
] | [
"Kami memperoleh perbendaharaan kata 183,400 perkataan unik selepas menghapuskan perkataan yang berlaku hanya sekali, berpunca dari Tagger Partof-Speech, dan menghentikan penyingkiran perkataan.",
"Kami memperoleh perbendaharaan kata 320,935 perkataan unik selepas menghapuskan perkataan yang berlaku hanya sekali, berpunca dari Tagger Part-Ofspeech, dan menghentikan penyingkiran perkataan."
] |
[
"We evaluated the translation quality using the Bleu-4 metric.",
"We evaluated the system using BLEU score on the test set."
] | [
"Kami menilai kualiti terjemahan menggunakan metrik Bleu-4.",
"Kami menilai sistem menggunakan skor BLEU pada set ujian."
] |
[
"For the translation from German into English, German compound words were split using the Frequency-Based method described in.",
"In order to reduce the source vocabulary size translation, the German text was Preprocessed by splitting German compound words with the Frequencybased method described in."
] | [
"Untuk terjemahan dari bahasa Jerman ke bahasa Inggeris, perkataan kompaun Jerman dibahagikan menggunakan kaedah Berasaskan Frekuensi yang diterangkan dalam.",
"Untuk mengurangkan terjemahan saiz perbendaharaan kata sumber, teks Jerman telah diproses dengan membahagikan perkataan kompaun Jerman dengan kaedah berasaskan Frekuensi yang diterangkan dalam."
] |
[
"A sentiment lexicon is a list of sentiment expressions, which are used to indicate sentiment polarity (E.G ., positive or negative).",
"A sentiment lexicon is a list of words and phrases, such as “ excellent ”, “ awful ” and “ not bad ”, each of them is assigned with a positive or negative score reflecting its sentiment polarity and strength (Cite-P-18-3-8)."
] | [
"Leksikon sentimen adalah senarai ungkapan sentimen, yang digunakan untuk menunjukkan polariti sentimen (E.G., positif atau negatif).",
"Leksikon sentimen adalah senarai perkataan dan frasa, seperti sangat baik, mengerikan dan tidak buruk, masing-masing diberikan skor positif atau negatif yang mencerminkan polariti dan kekuatan sentimennya (Cite-P-18-3-8)."
] |
[
"A Trigram language model with modified Kneser-Ney discounting and interpolation was used as produced by the Srilm Toolkit.",
"A 4-Gram language model was trained on the target side of the parallel data using the Srilm Toolkit from Stolcke."
] | [
"Model bahasa Trigram dengan diskaun Kneser-Ney yang diubahsuai dan interpolasi digunakan seperti yang dihasilkan oleh Srilm Toolkit.",
"Model bahasa 4-Gram dilatih pada sisi sasaran data selari menggunakan Srilm Toolkit dari Stolcke."
] |
[
"We train the model through stochastic gradient descent with the Adadelta update rule.",
"Training is done using stochastic gradient descent over Mini-Batches with the Adadelta update rule."
] | [
"Kami melatih model melalui keturunan kecerunan stokastik dengan peraturan kemas kini Adadelta.",
"Latihan dilakukan menggunakan keturunan kecerunan stokastik berbanding Mini-Batches dengan peraturan kemas kini Adadelta."
] |
[
"For representing words, we used 100 dimensional Pre-Trained glove Embeddings.",
"In this task, we use the 300-Dimensional 840B glove word Embeddings."
] | [
"Untuk mewakili perkataan, kami menggunakan 100 dimensi Embedding sarung tangan Pra-Trained.",
"Dalam tugas ini, kami menggunakan perkataan sarung tangan 300-Dimensional 840B Embeddings."
] |
[
"We use the Word2Vec Skip-Gram model to train our word Embeddings.",
"We used the Google news Pretrained Word2Vec word Embeddings for our model."
] | [
"Kami menggunakan model Skip-Gram Word2Vec untuk melatih Embedding perkataan kami.",
"Kami menggunakan perkataan Embedding Word2Vec Pretrained Google untuk model kami."
] |
[
"Semantic Parsing is the problem of translating human language into computer language, and therefore is at the heart of natural language understanding.",
"Semantic Parsing is the problem of deriving a structured meaning representation from a natural language utterance."
] | [
"Penghuraian Semantik adalah masalah menterjemahkan bahasa manusia ke dalam bahasa komputer, dan oleh itu adalah di tengah-tengah pemahaman bahasa semula jadi.",
"Penghuraian Semantik adalah masalah memperoleh perwakilan makna berstruktur dari ucapan bahasa semula jadi."
] |
[
"We use glove vectors with 100 dimensions trained on Wikipedia and Gigaword as word Embeddings, which we do not optimize during training.",
"With regard to inputs, we use 50-D glove word Embeddings Pretrianed on Wikipedia and Gigaword and 5-D postion Embedding."
] | [
"Kami menggunakan vektor sarung tangan dengan 100 dimensi yang dilatih di Wikipedia dan Gigaword sebagai Embedding perkataan, yang kami tidak mengoptimumkan semasa latihan.",
"Berkenaan dengan input, kami menggunakan perkataan sarung tangan 50-D yang Diperbuat di Wikipedia dan Gigaword dan 5-D postion Embedding."
] |
[
"The method is a Naive-Bayes Classifier which learns from noisy data.",
"This method does not use any parallel Corpora for learning."
] | [
"Kaedah ini adalah Klasifikasi Naive-Bayes yang belajar dari data bising.",
"Kaedah ini tidak menggunakan sebarang Corpora selari untuk pembelajaran."
] |
[
"We also used Word2Vec to generate dense word vectors for all word types in our learning corpus.",
"We trained word vectors with the two architectures included in the Word2Vec software."
] | [
"Kami juga menggunakan Word2Vec untuk menghasilkan vektor perkataan yang padat untuk semua jenis perkataan dalam korpus pembelajaran kami.",
"Kami melatih vektor perkataan dengan dua seni bina yang termasuk dalam perisian Word2Vec."
] |
[
"The first component of our model is a modified Reimplementation of the pronoun prediction network introduced by Hardmeier et al.",
"The first is a Reimplementation of the pronoun prediction neural network proposed by Hardmeier et al."
] | [
"Komponen pertama model kami ialah Penyimpanan Semula yang diubahsuai dari rangkaian ramalan kata ganti yang diperkenalkan oleh Hardmeier et al.",
"Yang pertama ialah Penyimpanan semula rangkaian neural ramalan kata ganti yang dicadangkan oleh Hardmeier et al."
] |
[
"We formulate the inference procedures in training as integer linear programming (Ilp) problems and implement the relaxation to the “ at least one ” Heuristic via a soft constraint in this formulation.",
"We formulate the inference procedures in the training algorithm as integer linear programming (Ilp) problems, (II) we introduce a Soft-Constraint in the Ilp objective to model Noisy-Or in training."
] | [
"Kami merumuskan prosedur kesimpulan dalam latihan sebagai masalah pengaturcaraan linear integer (Ilp) dan melaksanakan kelonggaran kepada sekurang-kurangnya satu Heuristik melalui kekangan lembut dalam formulasi ini.",
"Kami merumuskan prosedur kesimpulan dalam algoritma latihan sebagai masalah pengaturcaraan linear integer (Ilp), (II) kami memperkenalkan Kekangan Lembut dalam objektif Ilp untuk model Noisy-Or dalam latihan."
] |
[
"Our system participated in Semeval-2013 task 2: sentiment analysis in Twitter (Cite-P-12-3-1).",
"System that participated in Semeval-2013 task 2: sentiment analysis in Twitter."
] | [
"Sistem kami mengambil bahagian dalam tugas Semeval-2013 2: analisis sentimen di Twitter (Cite-P-12-3-1).",
"Sistem yang mengambil bahagian dalam tugas Semeval-2013 2: analisis sentimen di Twitter."
] |
[
"More details about SVM and Krr can be found in.",
"Details about SVM and Krr can be found in."
] | [
"Maklumat lanjut mengenai SVM dan Krr boleh didapati di.",
"Maklumat mengenai SVM dan Krr boleh didapati di."
] |
[
"The OC makes use of the Stanford Parser to derive grammatical structures for each sentence, which then form a more accurate basis for the later pattern search.",
"To gain a more accurate basis for the pattern search, the OC uses the Stanford Parser to derive grammatical structures for each sentence."
] | [
"OC menggunakan Stanford Parser untuk memperoleh struktur tatabahasa untuk setiap ayat, yang kemudiannya membentuk asas yang lebih tepat untuk carian corak kemudian.",
"Untuk mendapatkan asas yang lebih tepat untuk carian corak, OC menggunakan Stanford Parser untuk memperoleh struktur tatabahasa untuk setiap ayat."
] |
[
"The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.",
"The Mert was used to tune the feature weights on the development set and the translation performance was evaluated on the test set with the tuned weights."
] | [
"Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.",
"Mert digunakan untuk menala berat ciri pada set pembangunan dan prestasi terjemahan dinilai pada set ujian dengan berat yang ditala."
] |
[
"Using a large set of Color¨Cname pairs obtained from a color design forum, we evaluate our model on a ¡°Color Turing Test¡± and find that, given a name, the colors predicted by our model are preferred by Annotators to color names created by humans.",
"Color ¨C name pairs obtained from an Online color design forum, we evaluate our model on a ¡° color Turing test ¡± and find that, given a name, the colors predicted by our model are preferred by Annotators to color names created by humans."
] | [
"Menggunakan set besar pasangan Color Cname yang diperoleh dari forum reka bentuk warna, kami menilai model kami pada Ujian Warna Turing dan mendapati bahawa, diberi nama, warna yang diramalkan oleh model kami lebih disukai oleh Annotator untuk nama warna yang dicipta oleh manusia.",
"Warna C pasangan nama yang diperolehi dari forum reka bentuk warna dalam talian, kami menilai model kami pada ujian warna dan mendapati bahawa, diberi nama, warna yang diramalkan oleh model kami lebih disukai oleh Annotator untuk nama warna yang dicipta oleh manusia."
] |
[
"For input representation, we used glove word Embeddings.",
"For this reason, we used glove vectors to extract the vector representation of words."
] | [
"Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings.",
"Atas sebab ini, kami menggunakan vektor sarung tangan untuk mengekstrak perwakilan vektor perkataan."
] |
[
"In section 4, we develop a correct, complete and terminating extension of Earley's algorithm for the Patr-Ii formalism using the restriction notion.",
"We presented a complete, correct, terminating extension of Earley' s algorithm that uses restriction."
] | [
"Dalam seksyen 4, kami membangunkan lanjutan algoritma Earley yang betul, lengkap dan berakhir untuk formalisme Patr-Ii menggunakan tanggapan sekatan.",
"Kami membentangkan lanjutan algoritma Earley yang lengkap, betul dan berakhir yang menggunakan sekatan."
] |
[
"The semantic roles in the examples are labeled in the style of Propbank, a Broad-Coverage Human-Annotated corpus of semantic roles and their syntactic Realizations.",
"The semantic roles in the example are labeled in the style of Propbank, a Broad-Coverage Human-Annotated corpus of semantic roles and their syntactic Realizations."
] | [
"Peranan semantik dalam contoh dilabelkan dalam gaya Propbank, korpus Broad-Coverage Human-Annotated peranan semantik dan Realisasi sintaksis mereka.",
"Peranan semantik dalam contoh dilabelkan dalam gaya Propbank, korpus Broad-Coverage Human-Annotated peranan semantik dan Realisasi sintaksis mereka."
] |
[
"For data preparation and processing we use Scikit-Learn.",
"We use the Skll and Scikit-Learn Toolkits."
] | [
"Untuk penyediaan dan pemprosesan data, kami menggunakan Scikit-Learn.",
"Kami menggunakan Skll dan Scikit-Learn Toolkits."
] |
[
"We used the Wall Street Journal articles article boundary.",
"Our SD is the Penn Treebank of Wall Street Journal text."
] | [
"Kami menggunakan sempadan artikel Wall Street Journal.",
"SD kami adalah Penn Treebank teks Wall Street Journal."
] |
[
"Sentiment classification is the task of labeling a review document according to the polarity of its prevailing opinion (favorable or unfavorable).",
"Sentiment classification is the task of identifying the sentiment polarity of a given text."
] | [
"Klasifikasi sentimen adalah tugas melabelkan dokumen semakan mengikut polariti pendapatnya yang lazim (baik atau tidak baik).",
"Klasifikasi sentimen adalah tugas mengenal pasti polariti sentimen teks tertentu."
] |
[
"Meanwhile, Li et al present a topic model incorporating reviewer and item information for sentiment analysis.",
"Also, Li et al incorporate textual topic and Userword factors with supervised topic modeling."
] | [
"Sementara itu, Li et al menyajikan model topik yang menggabungkan reviewer dan informasi item untuk analisis sentimen.",
"Juga, Li et al menggabungkan topik teks dan faktor Userword dengan pemodelan topik yang diawasi."
] |
[
"After standard Preprocessing of the data, we train a 3-Gram language model using Kenlm.",
"For language modeling, we use Kenlm to train 6-Gram Character-Level language models on Opensubs f Iltered and Huawei M Onot R."
] | [
"Selepas pemprosesan data standard, kami melatih model bahasa 3-Gram menggunakan Kenlm.",
"Untuk pemodelan bahasa, kami menggunakan Kenlm untuk melatih model bahasa 6-Gram Character-Level pada Opensubs f Iltered dan Huawei M Onot R."
] |
[
"We use the Stanford dependency Parser to extract nouns and their grammatical roles.",
"As for EJ translation, we use the Stanford Parser to obtain English abstraction trees."
] | [
"Kami menggunakan Stanford dependency Parser untuk mengekstrak kata nama dan peranan tatabahasa mereka.",
"Bagi terjemahan EJ, kami menggunakan Stanford Parser untuk mendapatkan pokok abstraksi bahasa Inggeris."
] |
[
"We briefly review the path ranking algorithm, described in more detail by Lao and Cohen.",
"Then we review the path ranking algorithm introduced by Lao and Cohen."
] | [
"Kami mengkaji secara ringkas algoritma ranking laluan, yang dijelaskan dengan lebih terperinci oleh Lao dan Cohen.",
"Kemudian kita mengkaji algoritma ranking laluan yang diperkenalkan oleh Lao dan Cohen."
] |
[
"An event schema is a structured representation of an event, it defines a set of atomic Predicates or facts and a set of role slots that correspond to the typical entities that participate in the event.",
"Event schema is a high-level representation of a bunch of similar events."
] | [
"Skema peristiwa adalah perwakilan berstruktur peristiwa, ia mentakrifkan satu set Predicates atom atau fakta dan satu set slot peranan yang sepadan dengan entiti biasa yang mengambil bahagian dalam acara tersebut.",
"Skema peristiwa adalah perwakilan peringkat tinggi sekumpulan peristiwa yang serupa."
] |
[
"Both systems are Phrase-Based Smt models, trained using the Moses Toolkit.",
"Our baseline is a Phrase-Based mt system trained using the Moses Toolkit."
] | [
"Kedua-dua sistem ini adalah model Smt Berasaskan Frasa, dilatih menggunakan Musa Toolkit.",
"Asas kami adalah sistem mt berasaskan frasa yang dilatih menggunakan Musa Toolkit."
] |
[
"The second is a method for factoring Computationally costly null heads out from Bottom-Up mg Parsing; this has the additional benefit of rendering the formalism fully compatible for the first time with highly efficient Markovian Supertaggers.",
"Which has the dual effect of factoring Computationally costly null heads out from Parsing (but not from the resulting Parse trees) and rendering MGS fully compatible for the first time with existing Supertagging techniques."
] | [
"Yang kedua adalah kaedah untuk memfaktorkan kepala null yang mahal dari Bottom-Up mg Parsing; ini mempunyai faedah tambahan untuk menjadikan formalisme serasi sepenuhnya untuk pertama kalinya dengan Markovian Supertaggers yang sangat cekap.",
"Yang mempunyai kesan ganda pemfaktoran kepala null komputasi mahal keluar dari Parsing (tetapi bukan dari pokok Parse yang dihasilkan) dan menjadikan MGS serasi sepenuhnya untuk pertama kalinya dengan teknik Supertagging yang ada."
] |
[
"Statistical significance of system differences in terms of F1 was assessed by an approximate randomization test.",
"We assessed the statistical significance of F-Measure improvements over baseline, using the approximate randomness test."
] | [
"Kepentingan statistik perbezaan sistem dari segi F1 dinilai oleh ujian rawak anggaran.",
"Kami menilai kepentingan statistik penambahbaikan F-Measure di atas garis dasar, menggunakan ujian rawak anggaran."
] |
[
"Fasttext is a simple and effective method for classifying texts based on N-Gram Embeddings.",
"Fasttext is a library for efficient text classification and representation learning."
] | [
"Fasttext adalah kaedah yang mudah dan berkesan untuk mengklasifikasikan teks berdasarkan Embedding N-Gram.",
"Fasttext adalah perpustakaan untuk pengelasan teks yang cekap dan pembelajaran perwakilan."
] |
[
"To the best of our knowledge this is the first attempt to incorporate world knowledge from a knowledge base for learning models.",
"This is the first attempt at Infusing general world knowledge for task specific training of deep learning."
] | [
"Untuk pengetahuan terbaik kami, ini adalah percubaan pertama untuk menggabungkan pengetahuan dunia dari asas pengetahuan untuk model pembelajaran.",
"Ini adalah percubaan pertama untuk memasukkan pengetahuan dunia umum untuk latihan khusus tugas pembelajaran mendalam."
] |
[
"Latent feature vectors have been recently successfully exploited for a wide range of Nlp tasks.",
"When used as the underlying input representation, word vectors have been shown to boost the performance in Nlp tasks."
] | [
"Vektor ciri laten baru-baru ini berjaya dieksploitasi untuk pelbagai tugas Nlp.",
"Apabila digunakan sebagai perwakilan input asas, vektor perkataan telah ditunjukkan untuk meningkatkan prestasi dalam tugas Nlp."
] |
[
"Later, their work was extended to take into account the syntactic relation between words and Grammars.",
"Later, their work was extended to take into account syntactic structure and Grammars."
] | [
"Kemudian, kerja mereka dilanjutkan untuk mengambil kira hubungan sintaktik antara perkataan dan Grammar.",
"Kemudian, kerja mereka dilanjutkan untuk mengambil kira struktur sintaksis dan Grammar."
] |
[
"Some researchers have found that Transliteration is quite useful in proper name translation.",
"Some researchers have applied the rule of Transliteration to automatically translate proper names."
] | [
"Sesetengah penyelidik mendapati bahawa Transliterasi agak berguna dalam terjemahan nama yang betul.",
"Sesetengah penyelidik telah menggunakan peraturan Transliterasi untuk menterjemahkan nama yang betul secara automatik."
] |
[
"For instance, machine translation systems can benefit from training on sentences extracted from parallel or comparable documents retrieved from the web.",
"In addition, machine translation systems can be improved by training on sentences extracted from parallel or comparable documents mined from the web."
] | [
"Sebagai contoh, sistem terjemahan mesin boleh mendapat manfaat daripada latihan pada ayat yang diekstrak dari dokumen selari atau setanding yang diambil dari web.",
"Di samping itu, sistem terjemahan mesin boleh diperbaiki dengan latihan pada ayat yang diekstrak dari dokumen selari atau setanding yang dilombong dari web."
] |
[
"Coreference resolution is a well known clustering task in natural language processing.",
"Coreference resolution is the problem of identifying which noun phrases (NPS, or mentions) refer to the same Real-World entity in a text or dialogue."
] | [
"Resolusi spatial adalah tugas clustering yang terkenal dalam pemprosesan bahasa semula jadi.",
"Resolusi spatial adalah masalah mengenal pasti frasa kata nama (NPS, atau sebutan) yang merujuk kepada entiti Dunia Nyata yang sama dalam teks atau dialog."
] |
[
"Within this Subpart of our ensemble model, we used a SVM model from the Scikit-Learn library.",
"We implemented the Algorithms in python using the stochastic gradient descent method for Nmf from the Scikit-Learn package."
] | [
"Dalam Subpart model ensemble kami, kami menggunakan model SVM dari perpustakaan Scikit-Learn.",
"Kami melaksanakan Algoritma dalam python menggunakan kaedah keturunan kecerunan stokastik untuk Nmf dari pakej Scikit-Learn."
] |
[
"Traditionally, a language model is a probabilistic model which assigns a probability value to a sentence or a sequence of words.",
"A language model is a probability distribution that captures the statistical Regularities of natural language use."
] | [
"Secara tradisinya, model bahasa adalah model probabilistik yang memberikan nilai kebarangkalian kepada ayat atau urutan perkataan.",
"Model bahasa adalah pengedaran kebarangkalian yang menangkap statistik Keteraturan penggunaan bahasa semula jadi."
] |
[
"Similarity is a fundamental concept in theories of knowledge and behavior.",
"Similarity is a kind of Association implying the presence of characteristics in common."
] | [
"Kesamaan adalah konsep asas dalam teori pengetahuan dan tingkah laku.",
"Kesamaan adalah sejenis Persatuan yang menyiratkan kehadiran ciri-ciri yang sama."
] |
[
"Sentiment analysis is a research area in the field of natural language processing.",
"Sentiment analysis is a Much-Researched area that deals with identification of positive, negative and neutral opinions in text."
] | [
"Analisis kepekaan adalah bidang penyelidikan dalam bidang pemprosesan bahasa semula jadi.",
"Analisis sentimen adalah kawasan yang banyak dikaji yang berkaitan dengan pengenalan pendapat positif, negatif dan neutral dalam teks."
] |
[
"We used Moses with the default configuration for Phrase-Based translation.",
"In the translation tasks, we used the Moses Phrase-Based Smt systems."
] | [
"Kami menggunakan Musa dengan konfigurasi lalai untuk terjemahan Berasaskan Frasa.",
"Dalam tugas terjemahan, kami menggunakan sistem Smt Berasaskan Frasa Musa."
] |
[
"We use a random forest Classifier, as implemented in Scikit-Learn.",
"For training the model, we use the linear kernel SVM implemented in the Scikit-Learn Toolkit."
] | [
"Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn.",
"Untuk melatih model, kami menggunakan SVM kernel linear yang dilaksanakan dalam Scikit-Learn Toolkit."
] |
[
"In this paper, we look at Dur se Dekha jokes, a restricted domain of humorous three liner poetry in Hindi.",
"In this paper, we took a focused form of humorous Tercets in Hindi-Dur se Dekha, and performed an analysis of its structure and humour."
] | [
"Dalam makalah ini, kita melihat jenaka Dur se Dekha, domain terhad tiga puisi pelapik lucu dalam bahasa Hindi.",
"Dalam makalah ini, kami mengambil bentuk Tercets lucu yang tertumpu dalam Hindi-Dur se Dekha, dan melakukan analisis struktur dan humornya."
] |
[
"The Ud scheme is built on the Google universal Part-Of-Speech Tagset, the Interset Interlingua of Morphosyntactic features, and Stanford Dependencies.",
"The Annotation scheme is based on an evolution of Stanford Dependencies and Google universal Part-Of-Speech tags."
] | [
"Skim Ud dibina di Google universal Part-Of-Speech Tagset, Interset Interlingua ciri Morphosyntactic, dan Stanford Dependencies.",
"Skim Annotasi adalah berdasarkan evolusi Stanford Dependencies dan tag Google universal Part-Of-Speech."
] |
[
"The present paper is a contribution towards this goal: it presents the results of a large-scale evaluation of Window-Based Dsms on a wide variety of semantic tasks.",
"The present paper is a report of these investigations, their results and conclusions drawn therefrom."
] | [
"Kertas masa kini adalah sumbangan ke arah matlamat ini: ia membentangkan hasil penilaian berskala besar Dsm Berasaskan Tetingkap pada pelbagai tugas semantik.",
"Kertas kerja ini adalah laporan penyiasatan ini, hasil dan kesimpulan mereka yang diambil daripadanya."
] |
[
"The same data was used for tuning the systems with Mert.",
"The Smt weighting parameters were tuned by Mert using the development data."
] | [
"Data yang sama digunakan untuk menala sistem dengan Mert.",
"Parameter pemberat Smt ditala oleh Mert menggunakan data pembangunan."
] |
[
"The automobile and software reviews 2 are taken from Blitzer et al.",
"The automobile, kitchen and software reviews are taken from Blitzer et al."
] | [
"Ulasan automobil dan perisian 2 diambil dari Blitzer et al.",
"Ulasan kereta, dapur dan perisian diambil dari Blitzer et al."
] |
[
"Openccg uses a hybrid Symbolic-Statistical chart Realizer which takes logical forms as input and produces sentences by using Ccg Combinators to combine signs.",
"Openccg uses a hybrid Symbolic-Statistical chart Realizer which takes logical forms as input and produces sentences by using Ccg Com- Binators to combine signs."
] | [
"Openccg menggunakan carta Simbolik-Statistik hibrid Penyata yang mengambil bentuk logik sebagai input dan menghasilkan ayat dengan menggunakan Ccg Combinators untuk menggabungkan tanda.",
"Openccg menggunakan carta Simbolik-Statistik hibrid Penyata yang mengambil bentuk logik sebagai input dan menghasilkan ayat dengan menggunakan Ccg Com- Binators untuk menggabungkan tanda."
] |
[
"Empirically, mixing heterogeneous models tends to make the final relational similarity measure more robust.",
"Despite its simplicity, our directional similarity approach provides a robust model for relational similarity."
] | [
"Secara empirikal, mencampurkan model heterogen cenderung menjadikan ukuran persamaan hubungan akhir lebih mantap.",
"Walaupun kesederhanaannya, pendekatan persamaan arah kami menyediakan model yang mantap untuk persamaan hubungan."
] |
[
"The basic idea of the neural network LM is to project the word indices onto a continuous space and to use a probability Estimator operating on this space.",
"The basic idea of this approach is to project the word indices onto a continuous space and to use a probability Estimator operating on this space."
] | [
"Idea asas rangkaian saraf LM adalah untuk memproyeksikan indeks perkataan ke ruang yang berterusan dan menggunakan anggaran kebarangkalian yang beroperasi di ruang ini.",
"Idea asas pendekatan ini adalah untuk memproyeksikan indeks perkataan ke ruang yang berterusan dan menggunakan anggaran kebarangkalian yang beroperasi di ruang ini."
] |
[
"Word-Based LMS were trained using the Kenlm package.",
"Five-Gram language models are trained using Kenlm."
] | [
"LMS berasaskan perkataan dilatih menggunakan pakej Kenlm.",
"Model bahasa lima Gram dilatih menggunakan Kenlm."
] |
[
"We used Svm-Light-Tk, which enables the use of the partial tree kernel.",
"We use Svm-Light-Tk to train our Reranking models , 9 which enables the use of tree kernels in Svm-Light."
] | [
"Kami menggunakan Svm-Light-Tk, yang membolehkan penggunaan kernel pokok separa.",
"Kami menggunakan Svm-Light-Tk untuk melatih model Reranking kami, 9 yang membolehkan penggunaan kernel pokok dalam Svm-Light."
] |
[
"One of the main stumbling blocks for spoken dialogue systems is the lack of reliability of automatic speech Recognizers.",
"One of the main stumbling blocks for spoken natural language understanding systems is the lack of reliability of automatic speech Recognizers."
] | [
"Salah satu halangan utama untuk sistem dialog lisan adalah kekurangan kebolehpercayaan Pengiktirafan pertuturan automatik.",
"Salah satu halangan utama untuk sistem pemahaman bahasa semula jadi yang digunakan adalah kekurangan kebolehpercayaan Pengiktirafan pertuturan automatik."
] |
[
"Sentiment analysis is a fundamental problem aiming to give a machine the ability to understand the emotions and opinions expressed in a written text.",
"Sentiment analysis is the task of automatically identifying the Valence or polarity of a piece of text."
] | [
"Analisis sentimen adalah masalah asas yang bertujuan untuk memberi mesin keupayaan untuk memahami emosi dan pendapat yang dinyatakan dalam teks bertulis.",
"Analisis kepekaan adalah tugas untuk mengenal pasti Ketinggian atau polariti sekeping teks secara automatik."
] |
[
"We choose modified Kneser Ney as the smoothing algorithm when learning the Ngram model.",
"The language model is a large interpolated 5-Gram LM with modified Kneser-Ney smoothing."
] | [
"Kami memilih Kneser Ney yang diubahsuai sebagai algoritma melicinkan apabila mempelajari model Ngram.",
"Model bahasa adalah LM 5-Gram interpolated besar dengan smoothing Kneser-Ney yang diubahsuai."
] |
[
"The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm.",
"All the feature weights and the weight for each probability factor are tuned on the development set with Minimum-Error-Rate training."
] | [
"Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum.",
"Semua berat ciri dan berat untuk setiap faktor kebarangkalian ditala pada set pembangunan dengan latihan Minimum-Ralat."
] |
[
"We use Stanford Log-Linear Partof-Speech Tagger to produce Pos tags for the English side.",
"We use the Stanford Nlp Pos Tagger to generate the tagged text."
] | [
"Kami menggunakan Stanford Log-Linear Partof-Speech Tagger untuk menghasilkan tag Pos untuk bahagian Inggeris.",
"Kami menggunakan Stanford Nlp Pos Tagger untuk menghasilkan teks yang ditandai."
] |
[
"Most methods fall into three types: Unordered models, sequence models, and Convolutional neural networks models.",
"Neural models can be categorized into two classes: recursive models and Convolutional neural networks (CNN) models."
] | [
"Kebanyakan kaedah tergolong dalam tiga jenis: model tidak tertib, model urutan, dan model rangkaian neural konvolutional.",
"Model saraf boleh dikategorikan kepada dua kelas: model rekursif dan model rangkaian saraf konvolutional (CNN)."
] |
[
"Hence we use the expectation maximization algorithm for parameter learning.",
"Thus, optimizing this objective remains straightforward with the Expectation-Maximization algorithm."
] | [
"Oleh itu, kita menggunakan algoritma pemaksimalan jangkaan untuk pembelajaran parameter.",
"Oleh itu, mengoptimumkan objektif ini tetap mudah dengan algoritma Jangkaan-Maximization."
] |
[
"By taking a structured prediction approach, we provide a Large-Margin method that directly Optimizes a convex relaxation of the desired performance measure.",
"As training examples, we formulate the learning problem as a structured prediction problem and derive a Maximum-Margin algorithm."
] | [
"Dengan mengambil pendekatan ramalan berstruktur, kami menyediakan kaedah Large-Margin yang secara langsung Mengoptimumkan kelonggaran cembung ukuran prestasi yang dikehendaki.",
"Sebagai contoh latihan, kami merumuskan masalah pembelajaran sebagai masalah ramalan berstruktur dan memperoleh algoritma Maximum-Margin."
] |
[
"We further add skip connections between the Lstm layers to the Softmax layers, since they are proved effective for training neural networks.",
"We solve this problem by adding shortcut connections between different layers inspired by residual networks."
] | [
"Kami menambah sambungan skip antara lapisan Lstm ke lapisan Softmax, kerana ia terbukti berkesan untuk melatih rangkaian saraf.",
"Kami menyelesaikan masalah ini dengan menambahkan sambungan pintasan antara lapisan yang berbeza yang diilhamkan oleh rangkaian sisa."
] |
[
"Throughout this work, we use Mstperl, an implementation of the Mstparser of McDonald et al, with first-order features and Non-Projective Parsing.",
"Throughout this work, we use Mstperl, an Unlabelled first-order Non-Projective Single-Best implementation of the Mstparser of McDonald et al, trained using 3 Iterations of Mira."
] | [
"Sepanjang kerja ini, kami menggunakan Mstperl, pelaksanaan Mstparser McDonald et al, dengan ciri-ciri pesanan pertama dan Penghuraian Bukan Projektif.",
"Sepanjang kerja ini, kami menggunakan Mstperl, pelaksanaan Single-Best Non-Projective pertama yang tidak berlabel dari Mstparser McDonald et al, dilatih menggunakan 3 Iterations of Mira."
] |
[
"We used the Weka implementation of Na茂Ve Bayes for this baseline Nb system.",
"We used the Weka implementation of SVM with 10-fold Cross-Validation to estimate the accuracy of the Classifier."
] | [
"Kami menggunakan pelaksanaan Weka NaVe Bayes untuk sistem Nb asas ini.",
"Kami menggunakan pelaksanaan Weka SVM dengan 10 kali ganda Cross-Validation untuk menganggarkan ketepatan Pengelas."
] |
[
"In this work, we propose s em a Xis, a lightweight framework to characterize Domain-Specific word Semantics beyond sentiment.",
"Here, we propose s em a Xis, a simple yet powerful framework to characterize word Semantics."
] | [
"Dalam karya ini, kami mencadangkan s em a Xis, kerangka ringan untuk mencirikan perkataan Domain-Specific Semantik di luar sentimen.",
"Di sini, kami mencadangkan s em a Xis, rangka kerja yang mudah tetapi kuat untuk mencirikan perkataan Semantik."
] |
[
"Abstract meaning representation is a semantic formalism which represents sentence meaning in a form of a rooted directed Acyclic graph.",
"Abstract meaning representation is a Sembanking language that captures whole sentence meanings in a rooted, directed, labeled, and Acyclic graph structure."
] | [
"Perwakilan makna abstrak adalah formalisme semantik yang mewakili makna ayat dalam bentuk grafik Acyclic yang diarahkan.",
"Perwakilan makna abstrak adalah bahasa Sembanking yang menangkap makna keseluruhan ayat dalam struktur grafik yang berakar, diarahkan, dilabel, dan Acyclic."
] |
[
"We evaluate our approach on large-scale Microblog data SETS by using Real-World event list for each community.",
"Given in advance, we are interested in utilizing the emotion information in Microblog messages for Real-World event detection."
] | [
"Kami menilai pendekatan kami pada data Microblog berskala besar SETS dengan menggunakan senarai acara Real-World untuk setiap komuniti.",
"Diberi terlebih dahulu, kami berminat untuk menggunakan maklumat emosi dalam mesej Microblog untuk pengesanan peristiwa Dunia Nyata."
] |
[
"A 5-Gram LM was trained using the Srilm Toolkit 5, exploiting improved modified Kneser-Ney smoothing, and Quantizing both probabilities and Back-Off weights.",
"A 5-Gram LM was trained using the Srilm Toolkit 12, exploiting improved modified Kneser-Ney smoothing, and Quantizing both probabilities and Back-Off weights."
] | [
"A 5-Gram LM telah dilatih menggunakan Srilm Toolkit 5, mengeksploitasi smoothing Kneser-Ney yang diubahsuai dengan lebih baik, dan Kuantitizing kedua-dua kebarangkalian dan berat Back-Off.",
"A 5-Gram LM telah dilatih menggunakan Srilm Toolkit 12, mengeksploitasi smoothing Kneser-Ney yang diubahsuai dengan lebih baik, dan Kuantitizing kedua-dua kebarangkalian dan berat Back-Off."
] |
[
"Topic models, such as Plsa and Lda, have shown great success in discovering latent topics in text collections.",
"Topic models such as latent Dirichlet allocation have emerged as a powerful tool to analyze document collections in an Unsupervised fashion."
] | [
"Model topik, seperti Plsa dan Lda, telah menunjukkan kejayaan besar dalam menemui topik laten dalam koleksi teks.",
"Model topik seperti peruntukan Dirichlet laten telah muncul sebagai alat yang kuat untuk menganalisis koleksi dokumen dengan cara yang tidak diawasi."
] |
[
"These ciphers use a substitution table as the secret key.",
"Key ciphers also use a secret substitution function."
] | [
"Sipher ini menggunakan jadual penggantian sebagai kunci rahsia.",
"Key ciphers juga menggunakan fungsi penggantian rahsia."
] |
[
"Sentiment analysis is the computational analysis of people ’ s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-11-3-3).",
"Sentiment analysis is a research area where does a computational analysis of people ’ s feelings or beliefs expressed in texts such as emotions, opinions, attitudes, appraisals, etc . (Cite-P-12-1-3)."
] | [
"Analisis sentimen adalah analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-11-3-3).",
"Analisis sentimen adalah bidang penyelidikan di mana analisis pengiraan perasaan atau kepercayaan orang yang dinyatakan dalam teks seperti emosi, pendapat, sikap, penilaian, dan lain-lain (Cite-P-12-1-3)."
] |
[
"Coreference resolution is the task of determining whether two or more noun phrases refer to the same entity in a text.",
"Coreference resolution is the problem of identifying which mentions (I.E ., noun phrases) refer to which Real-World entities."
] | [
"Resolusi spatial adalah tugas menentukan sama ada dua atau lebih frasa kata nama merujuk kepada entiti yang sama dalam teks.",
"Resolusi spatial adalah masalah mengenal pasti sebutan mana (I.E., frasa kata nama) merujuk kepada entiti Dunia Nyata mana."
] |
[
"We show that agents in the Dec-Pomdp reach Implicature-Rich interpretations simply as a byproduct of the way they reason about each other to maximize joint utility.",
"In the Multi-Agent Decentralizedpomdp reach Implicature-Rich interpretations simply as a by-product of the way they reason about each other to maximize joint utility."
] | [
"Kami menunjukkan bahawa ejen dalam Dec-Pomdp mencapai tafsiran Implicature-Rich semata-mata sebagai hasil sampingan cara mereka beralasan antara satu sama lain untuk memaksimumkan utiliti bersama.",
"Dalam Multi-Agen Decentralizedpomdp mencapai tafsiran Implicature-Rich semata-mata sebagai hasil sampingan cara mereka berfikir tentang satu sama lain untuk memaksimumkan utiliti bersama."
] |
[
"Sennrich et al proposed a method using synthetic parallel texts, in which target Monolingual Corpora are translated back into the source language.",
"Sennrich et al also created synthetic parallel data by translating target-language Monolingual text into the source language."
] | [
"Sennrich et al mencadangkan kaedah menggunakan teks selari sintetik, di mana sasaran Monolingual Corpora diterjemahkan kembali ke dalam bahasa sumber.",
"Sennrich et al juga mencipta data selari sintetik dengan menterjemahkan teks Monolingual bahasa sasaran ke dalam bahasa sumber."
] |