File size: 72,342 Bytes
3523144 578a94b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890 891 892 893 894 895 896 897 898 899 900 901 902 903 904 905 906 907 908 909 910 911 912 913 914 915 916 917 918 919 920 921 922 923 924 925 926 927 928 929 930 931 932 933 934 935 936 937 938 939 940 941 942 943 944 945 946 947 948 949 950 951 952 953 954 955 956 957 958 959 960 961 962 963 964 965 966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985 986 987 988 989 990 991 992 993 994 995 996 997 998 999 1000 1001 1002 1003 1004 1005 1006 1007 1008 1009 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 1038 1039 1040 1041 1042 1043 1044 1045 1046 1047 1048 1049 1050 1051 1052 1053 1054 1055 1056 1057 1058 1059 1060 1061 1062 1063 1064 1065 1066 1067 1068 1069 1070 1071 1072 1073 1074 1075 1076 1077 1078 1079 1080 1081 1082 1083 1084 1085 1086 1087 1088 1089 1090 1091 1092 1093 1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 1107 1108 1109 1110 1111 1112 1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126 1127 1128 1129 1130 1131 1132 1133 1134 1135 1136 1137 1138 1139 1140 1141 1142 1143 1144 1145 1146 1147 1148 1149 1150 1151 1152 1153 1154 1155 1156 1157 1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171 1172 1173 1174 1175 1176 1177 1178 1179 1180 1181 1182 1183 1184 1185 1186 1187 1188 1189 1190 1191 1192 1193 1194 1195 1196 1197 1198 1199 1200 1201 1202 1203 1204 1205 1206 1207 1208 1209 1210 1211 1212 1213 1214 1215 1216 1217 1218 1219 1220 1221 1222 1223 1224 1225 1226 1227 1228 1229 1230 1231 1232 1233 1234 1235 1236 1237 1238 1239 1240 1241 1242 1243 1244 1245 1246 1247 1248 1249 1250 1251 1252 1253 1254 1255 1256 1257 1258 1259 1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270 1271 1272 1273 1274 1275 1276 1277 1278 1279 1280 1281 1282 1283 1284 1285 1286 1287 1288 1289 1290 1291 1292 1293 1294 1295 1296 1297 1298 1299 1300 1301 1302 1303 1304 1305 1306 1307 1308 1309 1310 1311 1312 1313 1314 1315 1316 1317 1318 1319 1320 1321 1322 1323 1324 1325 1326 1327 1328 1329 1330 1331 1332 1333 1334 1335 1336 1337 1338 1339 1340 1341 1342 1343 1344 1345 1346 1347 1348 1349 1350 1351 1352 1353 1354 1355 1356 1357 1358 1359 1360 1361 1362 1363 1364 1365 1366 1367 1368 1369 1370 1371 1372 1373 1374 1375 1376 1377 1378 1379 1380 1381 1382 1383 1384 1385 1386 1387 1388 1389 |
---
license: other
license_name: cc-by-4.0
license_link: https://creativecommons.org/licenses/by/4.0/deed.en
---
Proposte per la creazione di dataset per l’addestramento e il finetuning
di LLM
Versione 0.1 **Bozza** – Matteo Rinaldi – 3 Marzo 2024 – [CC
BY](https://creativecommons.org/licenses/by/4.0/deed.en)
# <span id="anchor"></span>Premessa
Quello che segue è un breve documento dove ho raccolto delle idee in
merito alla creazione di dataset per l’addestramento e il finetuning di
Large Language Models. Va considerato esclusivamente come bozza e
accenno a potenziali progetti da discutere ed eventualmente realizzare.
Tutta la parte introduttiva si può saltare e andare direttamente
all’elenco schematico delle proposte
Non è stato riguardato più di tanto, non tutti i punti sono stati
chiariti a sufficenza, e soprattutto ho ancora molte altre idee di cui
vorrei discutere.
Questo documento non è in uno stato che lo rende adatto a nessun tipo di
pubblicazione o divulgazione: è fondamentalmente un abbozzo, scritto in
un giorno solo, spesso in linguaggio colloquiale e dove sono state solo
appuntate idee; lo condivido solo a causa dei rapidi mutamenti delle
situazioni che potrebbero renderlo un pochino utile anche in questo
stato scheletrico e perché ho promesso da un paio di settimane di
scrivere un documento del genere ad alcuni membri della community
Discord di Mii-LLM. Andando ad approfondire ogni punto e scrivendolo in
un linguaggio accademico probabilmente il numero delle pagine andrebbe a
triplicarsi.
Vorrei rilasciarlo innanzitutto con grande umiltà: riconosco come non vi
siano “grandi idee” al suo interno ma solo una schematizzazione di
alcuni temi ricorrenti per quanto riguarda i dati per l’addestramento
dei modelli. L’idea è che possa fungere da riferimento per altre idee e
proposte; vuole essere un documento *collaborativo*, sarebbe bello
lavorarci a più mani per arrivare a qualcosa di ancora più utile. Non
sono neanche sicuro al momento della sua effettiva utilità, ripeto, lo
rilascio con umiltà sperando che qualcuno lo apprezzi e lo trovi utile.
Spero non sembri pretenzioso, non credo di avere in mano nessuna
“ricetta segreta” per la risoluzione di un compito così complesso né
penso di voler insegnare niente a nessuno.
Lascio pertanto aperta un’istanza Etherpad:
<https://pad.disroot.org/p/Proposte_per_LLM> dove poter scrivere
qualsiasi commento, critica, aggiunta. Firmatevi. E si può pensare a una
piattaforma collaborativa migliore.
Consiglio anche la lettura del manifesto *LLMentor* che ho scritto quasi
un anno fa come proposta di un progetto di crowdsourcing di dataset di
instruction fine tuning rivolto a docenti universitari. Il link è qui:
<https://github.com/manalog97/LLMentor>
Manca inoltre la risposta alla domanda principale: *perché* vogliamo
sviluppare un LLM? Quali fini ci stiamo proponendo?
# <span id="anchor-1"></span>Una prolissa introduzione sull’importanza di modelli multiculturali e di qualità… si può saltare
I due cardini fondamentali di questi dataset sono la qualità e l’essere
multilingua. Per quanto riguarda il secondo punto, ciò significa
sviluppare dataset in lingue diverse dall’inglese, nello specifico in
italiano ma potenzialmente queste linee guida potrebbero applicarsi a
progetti analoghi da svolgersi in luoghi diversi, in modo da giungere a
una raccolta di dataset utili per l’addestramento di un vero modello
multilingua, requisito che i modelli attuali non soddisfano se non
parzialmente. \[Vedi:\]
La situazione attuale, che vede una prevalenza eccessiva dell’inglese
nei dati di addestramento, è particolarmente dannosa e critica negli
aspetti non solo dell’accessibilità del modello a utenti che non parlano
in inglese o che preferiscono utilizzare la loro lingua per interagire
con le risorse basate sui LLM, ma anche per quanto riguarda questioni
meno dibattute e che *non* sono risolvibili limitandosi a meccanismi
basati sulla *traduzione*. L’appiattimento dei modelli sull’inglese
significa anche un appiattimento dei modelli sulla cultura
angloamericana, con il rischio di andare a far perdere d’importanza la
pluralità di visioni del mondo a vantaggio di una visione anglocentrica
assolutamente parziale e incapace di rispecchiare l’umanità nel suo
complesso. La lingua non è un mero mezzo di codifica di informazioni, ma
ha la capacità di dare forma al discorso e ritagliare i concetti in
tanti modi quante sono le lingue esistenti (non ci si limita a parlare
la lingua ma si è* *anche *parlati* da questa). Anche andando oltre le
questioni di differenze linguistiche e semantiche, la lingua si fa anche
portatrice di un certo contesto culturale, ed è nocivo che i modelli
vengano allenati a considerare il resto del mondo in rapporto al mondo
angloamericano; tale nocività non si ferma all’aspetto tecnico di
corretto funzionamento dei modelli e usabilità da parte della
popolazione globale, ma si estende fino a diventare un potenziale
problema sociale ed etico non appena tali modelli nelle loro varie e
ancora non ben definite declinazioni entreranno nella vita quotidiana e
pubblica della popolazione. Ai fini di tale bozza, possiamo lasciare
l’approfondimento dell’argomento a lavori successivi e proseguire con
l’altro aspetto, quello relativo alla qualità.
Tralasciando per ora discussioni sull’importanza del migliorare la
qualità dei modelli per vari fini (sociali, accademici, di utilità
contingente…), possiamo spostarci direttamente* in medias res*
constatando in primo luogo la pressocchè totale assenza di dataset per
il finetuning in italiano e in secondo luogo le criticità esistenti
negli attuali dataset di finetuning pensati per l’inglese.
I dataset italiani per il finetuning al momento reperibili e disponibili
con licenze aperte sono per il momento mere traduzione di dataset
inglesi; tale approccio, sebbene possa funzionare per effettuare qualche
sperimentazione, non è adatto per lo sviluppo di modelli che siano
autenticamente multilingua. Dal punto di vista lessicale e sintattico,
*le traduzioni potrebbero conservare uno stile troppo aderente a quello
della lingua inglese*, specialmente in considerazione del fatto che tali
traduzioni vengono svolte non da traduttori professionisti ma in modo
automatico. Il risultato potrebbe essere quello di un modello che, a una
analisi più approfondita, non comunica effettivamente in italiano ma al
contrario continuerebbe a parlare in inglese tradotto in italiano. *Dal
punto di vista semantico e dei contenuti, tradurre, peraltro
automaticamente, non contribuisce minimamente a mitigare quell’effetto
di accentramento sulla cultura angloamericana di cui accennavamo in
introduzione*. **Avere un modello che parla un italiano un po’
inglesizzato e che continua a riferirsi a situazioni, luoghi, fatti e
persone tipiche degli Stati Uniti *****non***** è un modello
multilinguistico e multiculturare.**
Si rende pertanto necessario raccogliere grandi quantità di dati nelle
lingue in cui si desidera che il modello possa operare.
Preferiribilmente, la parte maggiore di questi dati dovrebbe riferirsi
anche alla cultura del luogo in cui tale lingua è parlata: un libro
scritto originalmente in italiano è da considerarsi un dato avente un
valore maggiore di un libro scritto in inglese e tradotto in italiano.
In questo documento non andrò a soffermarmi troppo sul dataset di
pre-training, un dataset grande e che, per forza di cose, non può essere
nella sua interezza considerabile “di qualità”. Si rende tuttavia
necessario sviluppare anche dataset più piccoli di svariati ordini di
grandezza che però si distinguano per la loro “qualità”. Uno tra i vari
esempi di ricerche a supporto dell’aspetto qualità VS quantità è:
\[phi-2, textbook are all you need\]
\[Da continuare, bozza\!\!\!\]
# <span id="anchor-2"></span>Dataset piccoli, specifici, curati
Quelle che seguono sono idee per la creazione di dataset piccoli,
specifici, curati e che quindi sono più adatti a fasi di finetuning
piuttosto che di addestramento; ciò non toglie che, nel caso in cui
durante lo sviluppo di un certo modello non si ritenga valido usarli per
il fine-tuning, potrebbero tornare utilissimi come risorse per il
pretraining.
Criteri per la qualità \[bozza\]:
Tematiche
Attendibilità degli autori
Difficoltà di ragionamento =\> Fondamentale perché è da qui che il
modello farà astrazione sui dati facendo emergere le capacità più
interessanti.
## <span id="anchor-3"></span>Dataset 1: Coppie domande/risposta \[Instruction Fine-Tuning\]
### <span id="anchor-4"></span>Accademiche
È il dataset *classico* per il finetuning delle LLM in particolar modo
quando finalizzato allo sviluppo di un *assistente* come ChatGPT o
Gemini. Senza stare a specificare ora *perché* serve un tale tipo di
dataset, vorrei presentare alcune possibili idee e linee guida.
Le coppie D/R sono necessarie per fornire al modello l’astrazione
necessaria per rispondere quando viene interrogato; per questo motivo,
ritengo importante porre una certa dose di cura nel compilare tali dati.
Sarebbe bene puntare a risposte che non siano semplificatorie e che
affrontino anche temi molto complessi scendendo nei dettagli.
Possibilità di realizzazione:
- Coinvolgere studenti; [*tramite piattaforme, anche elementari, di
crowdsourcing di cui discuteremo in
seguito*](#5.L’Ipotetica%20piattaforma%20di%20crowdsourcing|outline),
studenti volontari potrebbero caricare documenti contenenti coppie
di domande e risposte basate sui loro appunti universitari o sulle
loro conoscenze. Non si avrebbe la stessa garanzia di accuratezza
come se quel materiale provenisse da docenti universitari (vedi
progetto originale
[*LLMentor*](https://github.com/manalog97/LLMentor)) ma comunque è
da aspettarsi un materiale nel complesso più che valido, sicuramente
superiore agli attuali dataset per il finetuning inglesi, composti
per la maggioranza di contenuti generati automaticamente da altri
LLM
- Non tutte le coppie D/R sono uguali, per prima cosa concentriamoci
sulle coppie D/R su argomenti specifici, ad esempio accademici. In
questo caso, l’ideale sarebbe privilegiare argomenti che non
lasciano troppo spazio a opinioni personali e si riferiscono a
questioni più o meno assodate, per quanto un certo grado di dissenso
potrebbe comunque risultare altamente utile (vedi: prospettivismo in
AI). Nelle linee guida da fornire ai collaboratori sarebbe da
reiterare più volte l’idea che *vengono privilegiati argomenti
complessi*, anche molto specifici e, idealmente, che coinvolgono una
certa dose di ragionamento e che l’eventuale ragionamento necessario
sia spiegato per punti. Questo perché argomentazioni generali
probabilmente saranno già ampiamente presenti nei dati di
addestramento (es Wikipedia); sarebbe interessante mostrare al
modello come affrontare domande complesse e rispondere a queste
domande in modo approfondito e ragionato.
Questo testo può essere saltato
Modelli come ChatGPT 3 tendono spesso a una spiegazione di tipo
enciclopedico, generalista, caratterizzata da una spesso inutilmente
prolissa ripetizione di un contesto iniziale che va ad occupare gran
parte della risposta per poi confinare la risposta effettiva alla
domanda dell’utente in molto meno spazio. Gli argomenti vengono ogni
volta “introdotti” spesso con lunghi giri di parole, in una forma che
sembra imitare quella delle introduzioni di Wikipedia, anche quando
l’utente chiede risposte dirette e specifiche. Sarebbe interessante
pertanto sviluppare domande e risposte su più livelli, da una parte
domande generali con risposte, giustamente, fornite di una introduzione,
ma anche domande più specifiche e che, comprensibilmente, se vengono
poste presuppongono che l’utente che le stia ponendo abbia un certo
livello di conoscenza pregressa e desideri andare a fondo dell’argomento
piuttosto che restarne in superficie. ChatGPT tende spesso a risposte
nello stile “ELI5”, espressione nata su Reddit che significa “Spiegamelo
come se stessi parlando con un bambino di cinque anni”. Ora, questo può
andar bene per fare scalpore nel pubblico e può aver senso che un
modello che aveva un po’ il ruolo di aprire la stagione dell’IA
generativa al grande pubblico fosse impostato con questo stile, ma penso
che adesso si possa chiedere di più a questi modelli e cercare di
privilegiare la profondità alla semplicità. È vero che potrebbe darsi il
caso che a porre una domanda complessa sia un utente poco ferrato nella
materia che arrivi alla domanda quasi per caso, ma ciò non toglie che in
questo caso l’utente stesso potrebbe chiedere una spiegazione più in
generale al modello e inoltre non credo si debba dare priorità alle
preferenze di utenti che cercano interazioni semplici e superficiali a
scapito di utenze più interessate a tematiche complesse e di
approfondimento. Il dataset di D/R dovrebbe, implicitamente, inferire il
livello dell’interlocutore dalla domanda posta e rispondere di
conseguenza. Conoscere l’utente è il modo migliore per soddisfarlo.
### <span id="anchor-5"></span>Generali
Riuscire ad ottenere questo dataset di D/R è più difficile rispetto a
quello basato su argomenti accademici perché, al contrario di
quest’ultimo, non segue dei “binari” stabiliti ma al contrario può
toccare non solo qualsiasi argomento ma anche qualsiasi uso del
linguaggio.
Generare storie, rispondere a domande di senso comune, rispondere a
curiosità, impersonare stili di scrittura… sono solo alcuni dei
possibili task. È il dataset più difficile tra quelli presentati:
- Si può spaziare su una infinita varietà di task, è difficile anche
solo tirare giù una lista di idee e temi (invito a farlo su
Etherpad\!); Si può prendere come spunto ad esempio l’ottimo (e
piccolo) dataset “Norobots”
(<https://huggingface.co/datasets/HuggingFaceH4/no_robots>). Si
notano tematiche assolutamente varie:
- Hobby (ricette di cucina, consigli per il fai da te...)
- Aneddoti / cultura pop
- Domande generali
- Generazione di:
- Storie
- Poesie
- Descrizioni per post social
- E-mail
- Slogan pubblicitari
- Intrattenimento
- Impersonare chatbot con stili di risposta e caratteristiche
particolari
- Task di NLU
- Riassunti
- Modifica e riscrittura del testo seguendo certe
caratteristiche, come variazioni nei sentimenti, nello stile
- Spiegazione di termini ed espressioni
- Le risposte sono molto più arbitrarie rispetto al dataset D/R
accademico, potrebbero con facilità contenere:
- Opinioni personali degli annotatori
- Bias di vario tipo
- Considerazioni etiche
- Qualità discutibile (è un po’ ridicolo da punto di vista
letterario pensare che chiedere a un annotatore di “scrivere una
poesia su X e Y” sia un modo per ottenere un esempio di una
bella poesia)
Al momento i dataset di instruction finetuning generali di questo tipo
sono estremamente problematici da usare in un modello multiculturale:
sfogliando uno qualsiasi di questi dataset si nota una quantità
eccessiva di riferimenti agli Stati Uniti.
È molto complicato sviluppare un dataset di questo tipo senza un
significativo investimento economico per assumere degli annotatori
professionisti. Fino a dove ci si potrebbe spingere con il
crowdsourcing? Che tipologie di volontari cercare? Come verificare la
qualità dei dati?
Nonostante queste difficoltà, si potrebbe provare ad individuare dei
sotto-task che siano più semplici e soprattutto meno problematici. La
generazione di contenuto creativo come poesie e racconti è sicuramente
difficile, tuttavia altri task potrebbero essere somministrati anche
sottoforma di “gioco” a dei collaboratori volontari. Ad esempio
riassumere brevi testi, cambiarne lo stile da formale a informale,
risposte semplici e brevi a qualche domanda generale…
Idee?
## <span id="anchor-6"></span>Dataset 2: Comprensione del testo
Questo sarebbe un bellissimo dataset, per la cui realizzazione si
potrebbe chiedere il favore principalmente a studenti di discipline
umanistiche.
Sempre rimanendo in tema comprensione del testo, credo che vi possano
essere dei compiti che generalmente non vengono fatti svolgere agli
esseri umani ma che potrebbero comunque risultare particolarmente utili
per i LLM:
- Elencare tutti gli “enti” presenti in un testo, le loro relazioni e
i loro aggettivi; un compito più di tipo NLP classico, che potrebbe
essere molto utile con testi complessi;
- Le LLM hanno notoriamente difficoltà quanto i contenuti sono
*referenziali* ovvero quando avrebbero bisogno dell’apporto di
informazioni multimodali per essere compresi. Si potrebbe pensare
quindi a compiti di spiegazione delle situazioni:
I testi di alcuni cantautori classici italiani (penso a De Andrè,
Guccini, Battiato, Vecchioni, De Gregori…) sarebbero estremamente adatti
a questo tipo di task. In particolare De Andrè fa un utilizzo molto
avanzato della lingua e i suoi testi sono spesso di non univoca
interpretazione, ricchi di immagini visive ecc… la questione da capire è
il copyright. Fair use? Diritto di citazione?
Questi un paio di esempi fatti al volo, con “L’Ultimo Spettacolo” di
Vecchioni e “Il Ritorno di Giuseppe” di De Andrè. A mio avviso ChatGPT
3.5 si è comportato malissimo con questo tipo di compito. Non sono
esempi esaustivi di quello che ho in mente e che spero di aver fatto
capire nei punti precedenti, comunque è un punto di partenza:
<https://chat.openai.com/share/6c65122e-5f3b-4417-ab54-7eb4e3f78436>
<https://chat.openai.com/share/d159037b-d50e-41dc-a1f5-42d423fa3352>
Tra l’altro sarebbe anche da affrontare la questione contenuti
sessuali/violenti eccetera. Quando si interpreta un’opera artistica, è
assurdo fare censura su questo tipo di tematiche… \[punto da
approfondire\]
Vedi in appendice: [Task linguistici (ispirati da vecchi siti di
materiale didattico trovati
online):](#1.1.Task%20linguistici%20\(ispirati%20da%20vecchi%20siti%20di%20materiale%20didattico%20trovati%20online\):|outline)
In definitiva, i compiti di comprensione del testo sarebbero una risorsa
fondamentale da inserire nei dataset considerata la loro grande
rilevanza nei compiti di Natural Language Understanding. Si può pensare
di andare oltre i tipici esercizi di comprensione del testo (per quanto
fondamentali) e pensare a esercizi mirati per le LLM che vadano a
lavorare laddove si notano più mancanze. Ci si deve soffermare anche su
aspetti particolarmente banali della comprensione, banali per un essere
umano ma che potrebbero mettere in luce comportamenti più da “pappagallo
stocastico” dei LLM piuttosto che da un modello capace di comprendere.
Idee a proposito?
## <span id="anchor-7"></span>Dataset 3: Ragionamento e Chain of Thought
Rafforzare le abilità di ragionamento è un altro compito fondamentale
nell’addestramento di LLM utili e di qualità. “Ragionamento” è un altro
termine complesso e ambiguo. Si rimanda ad altro tempo e luogo per una
discussione su cosa si intenda per ragionamento, tuttavia, provo ad
elencare alcune bozze di idee.
### <span id="anchor-8"></span>Enigmistica
Il materiale pensato per l’enigmistica può essere a mio avviso
estremamente utile per l’addestramento di modelli nella speranza di
osservare abilità emergenti relative al ragionamento:
- Enigmi gialli/polizieschi: questo tipo di enigmi racchiudono diverse
caratteristiche particolari che possono tornare utili:
- Richiedono una comprensione avanzata del testo, ovvero 1)
attenzione a tutti i dettagli che possono servire a risolvere il
caso, anche dettagli piccoli che possono sfuggire a una lettura
non accurata; 2) Creazione di un “modello situazionale del
mondo” accurato e corrispondente a quanto si vuole esprimere
nel testo; 3) Abilità di tenere nella memoria a breve termine
una rappresentazione schematica di tutti gli indizi
potenzialmente ricavabili dal testo sia le cose ovvie che le
nascoste; 4) capacità di filtrare il contenuto non necessario;
5) applicazione di un metodo logico-deduttivo per risolvere
caso; 6) applicazione del pensiero laterale per risolvere il
caso
- Si possono scrivere o (meglio) recuperare già fatti, sperando in
licenze permissive. L’importante è che vi sia il testo ma anche
la soluzione, possibilmente ben argomentata (Chain of Thoughts)
- Cruciverba: meravigliosi esempi di definizioni complesse e ambigue
delle parole italiane;
- Indovinelli
- Eccetera eccetera. Praticamente ogni materiale enigmistico potrebbe
risultare utile. Inutile dire che un dump della *Settimana
Enigmistica* sarebbe una risorsa fantastica, ma impossibile per
chiare ragioni di copyright. In teoria tutti i numeri dal 1932 al
1954 sono ormai di pubblico dominio, ma come recuperarli e
digitalizzarli? Comunque, online si trova del materiale e anche qui
si potrebbe generare oppure scrivere a enigmisti (come Giorgio
Dendi, noto per gli enigmi che stimolano il **pensiero lateriale**)
sperando che abbiano voglia di donare del vecchio materiale
### <span id="anchor-9"></span>Ragionamento filosofico
Fonte dal grandissimo potenziale.
Paragrafo da approfondire moltissimo, intanto, appunti (bozza\!\!\!) :
- Logica: dataset di fallacie, dataset di ragionamenti \[studenti di
filosofia?\]
- Argomentazioni filosofiche, classiche e non. Esposizione, commento,
critica, controargomentazioni…
- Estrazione dell’argomentazione da un testo
- Dialoghi, discorsi… Questa potrebbe essere una risorsa fondamentale
per le questioni legate all’etica: proporre un’argomentazione,
confutarla, controargomentarla eccetera eccetra
- Sia materiale di recupera ma sarebbe stupendo stendere testi, anche
brevi, che però siano ottimi dal punto di vista dell’argomentazione
filosofica
### <span id="anchor-10"></span>Ragionamento scientifico
(bozza\!\!\!) Problemi scientifici di qualsiasi tipo che necessitano di
un metodo di risoluzione logico rigoroso. Inutile fare esempi, se ne
possono fare a centinaia e tutti molto banali. Praticamente tutte gli
argomenti scientifici (matematica, logica, chimica…) offrono infinite
possibilità in questo campo. Sarebbe da capire come recuperarne una
grande quantità. Altrettanto interessante quando questo tipo di
ragionamento può estendersi a situazioni che non siano legate alle
scienze due o ingegneristiche ad esempio problemi di vita quotidiana,
È interessante adottare metodi di ragionamento chiari ed espliciti:
individuare le premesse, mostrare le possibili alternative errate,
indicare proposte su come risolvere il problema ed eventualmente
falsificarle. Sfruttare Chain of Thought.
### <span id="anchor-11"></span>Ragionamento “in generale”
(bozza\!\!\!)
### <span id="anchor-12"></span>Dataset 4: Orientamento spaziale e altri task (piccolo)
Un dataset piccolo, molto più piccolo rispetto agli altri proposti, da
fare a mano lavorando per poco tempo anche in un piccolo gruppo. È un
dataset un po’ atipico che però può avere fondamenti scientifici validi,
riassumo superficialmente in poche righe, il tutto si potrebbe
argomentare decisamente meglio ma è giusto per dare un’idea:
**Tolman** negli anni “40 propone il concetto di *mappa cognitiva* per
spiegare perché i topi fossero in grado di orientarsi in labirinti
utilizzati in laboratorio e in particolare perché fossero in grado di
*trovare scorciatoie* per raggiungere gli obiettivi; l’idea è che i
mammiferi formino nel cervello una mappa dello spazio in cui si trovano
che gli consente di trovare percorsi vantaggiosi. Negli anni “80 i
coniugi **Moser** scoprono il sistema di orientamento
ippocampale-entorinale: *place cells* nell’ippocampo e in seguito *grid
cells *e altri neuroni specifici come *head cells* e altri ancora; molto
in breve, esistono neuroni che 1) si “accendono” quando ci si trova in
un determinato luogo (place cells) 2) complementari a questi c’è un
sistema di mappatura esagonale dello spazio (*grid cells*) che può
riprogrammarsi a seconda del compito e che fornisce metriche univoche di
distanza e direzione. **Bellmund et al, 2019**: studi relativi alla
possibilità che questo modello di mappe cognitive evidenziato nel
sistema ippocampale-entorinale sia in funzione anche nel pensiero
astratto: **mappe contettuali** analoghe a quelle spaziali. L’idea è che
“orientarsi” nei concetti sfrutti gli stessi meccanismi neuronali
utilizzati per orientarsi nello spazio: le nozioni di distanza
concettuale, iperonimia e iponimia, generalizzazione, clustering di
argomenti simili eccetera (tutte tematiche fondamentali per il NLU e che
potrebbero portare a fruttuose innovazioni *architetturali* dei modelli
oltre il Transformer vanilla) sono in questo paper collegate ai
meccanismi di orientamento spaziale. Anche il fatto che le metafore
concettuale si riferiscono spesso a dinamiche spaziali è a supporto di
questa tesi.
**Whittington, Behrens, **2022: RELATING TRANSFORMERS TO MODELS AND
NEURAL REPRESENTATIONS OF THE HIPPOCAMPAL FORMATION
Many deep neural network architectures loosely based on brain networks
have recently been shown to replicate neural firing patterns observed in
the brain. One of the most exciting and promising novel architectures,
the Transformer neural network, was developed without the brain in mind.
In this work, we show that transformers, when equipped with recurrent
position encodings, replicate the precisely tuned spatial
representations of the hippocampal formation; most notably place and
grid cells. Furthermore, we show that this result is no surprise since
it is closely related to current hippocampal models from neuroscience.
We additionally show the transformer version offers dramatic performance
gains over the neuroscience version. This work continues to bind
computations of artificial and brain networks, offers a novel
understanding of the hippocampal-cortical interaction, and suggests how
wider cortical areas may perform complex tasks beyond current
neuroscience models such as language comprehension.
Yamada et al, 2023: “Evaluating Spatial Understanding of Large Language
Models”
Mi scuso per la natura estremamente abbozzata di questo paragrafo, che
vorrei approfondire accuratamente e ritengo estremamente interessate.
Serve tuttavia a giustificare il tipo di task che vorrei proporre ovvero
**orientamento, con identificazione di percorsi ottimali, in ambienti
spaziali descritti in linguaggio naturale**.
Si possono prendere mappe di città, descriverle a diversi livelli di
granularità (zone con singole strade, intera città con quartieri e punti
cardinali) e: ad esempio: 1) Descrivere percorsi ottimi 2) Giungere a
conclusioni del tipo “se vado verso est *allora* mi trovo davanti a X” e
task di questo tipo.
Oltre a città, si può pensare anche a problemi di orientamento in luoghi
generici, come case, ambienti ristretti come ciò che si può vedere da
una finestra, luoghi immaginari (magari fare un disegno su carta per
evitare errori) eccetera. È un task divertente su cui si può usare molta
fantasia, l’unico requisito è rimanere coerenti e possibilmente scrivere
task difficili.
Task di questo tipo potrebbero essere interessanti sia per
l’addestramento che per il benchmark perché presuppongono abilità
complesse di generalizzazione e astrazione; potrebbero anche servire a
guidare eventuali innovazioni architetturali specialmente nel caso in
cui l’ipotesi esposta brevemente sopra del collegamento tra mappe
concettuali, analogie tra il sistema neuronale di orientamento spaziale
e concettuale e utilizzabilità di questi concetti da parte di modelli
ANN fosse rafforzata.
### <span id="anchor-13"></span>Dataset 5: Brevi testi estremamente curati
Coinvolgere i docenti universitari in un lavoro tipo LLMentor?
[*https://github.com/manalog97/LLMentor*](https://github.com/manalog97/LLMentor)
Vedi anche: [*L’ipotetica piattaforma di
crowdsourcing*](#4.L’Ipotetica%20piattaforma%20di%20crowdsourcing|outline)
in particolare “Donazione di tesi e appunti”
### <span id="anchor-14"></span>Dataset 5...∞: Idee?
# <span id="anchor-15"></span>I dataset “grandi” di pretraining – Lo scraping
### <span id="anchor-16"></span>I “grandi classici”
Inutile ora dilungarsi troppo: Wikipedia, Wikisource, Wikitionary
eccetera eccetera. Da prendere così come sono. Ovviamente non sono
perfetti, possiamo stare a trovare infinite criticità ma credo siano un
punto di partenza perfetto.
### <span id="anchor-17"></span>Libri di pubblico dominio
Inutile stare ad argomentare ora perché sono importanti. **Liber Liber**
è una fantastica risorsa con circa 4500 libri di pubblico dominio pronti
per essere inseriti nel dataset. Il lavoro è praticamente completato: un
annetto fa, più per esercizio personale che altro, avevo rifatto il sito
di liber liber passando dal loro sistema basato su campi di testo a un
più efficiente DB relazionale. Il lavoro non è più andato avanti perché
non c’è stato un grande interesse da parte della comunità di Liber
Liber; in compenso, avendo già questo DB con tutti i libri di Liber
Liber fino a Maggio 2023 circa, è stato semplice scaricare tutti i Link.
Ringrazio Ruggero per la deduplicazione. Il dataset è già su HF ma
purtroppo per uno stupido errore circa 1000 libri sono mancanti.
Risolverò la cosa il prima possibile, è molto facile recuperare gli
altri.
Vanno recuperati anche da altre risorse\! Project Gutenberg in Italiano
è un punto di partenza ma poi, andando a cercare nei cataloghi delle
biblioteche online, si possono trovare tante altre risorse\! Il problema
più grave è quello relativo a scansioni e OCR.
### <span id="anchor-18"></span>Usenet e forum
Effettuare lo scraping di fora online è una pratica ampiamente
utilizzata nella creazione di dataset per l’addestramento di modelli
linguistici. Nei dataset in inglese attualmente esistenti, si nota come
Reddit, Quora e StackExchange (piattaforme “moderne”) siano spesso fonti
di testo ampiamente presenti nei dati di addestramento.
I fora \[approfondimenti su cosa sono, storia eccetera rimandati a
eventuali documenti successivi\] sono una risorsa interessante da
includere in un dataset di pretraining. Ci sono degli aspetti
problematici come la non verificabilità delle informazioni presenti al
loro interno, la possibile presenza di linguaggio tossico e litigi,
spesso offensivi (*flame*) tra utenti; nel caso di Usenet c’è anche un
certo quantitativo di spam, fortunatamente facilmente identificabile, e
la presenza di un linguaggio in certi casi per nulla moderato.
Nonostante questi problemi, tuttavia sono anche tanti i punti a sostegno
dell’inclusione di questo materiale nei dataset: i fora sono spesso una
miniera di informazioni, dettagliate, precise, fornite negli anni da
gruppi di utenti particolarmente appassionati ed esperti su specifici
argomenti. È possibile trovare al loro interno informazioni non
ottenibili altrimenti, frutto spesso di pratica e di esperienze
personali. Le informazioni sono organizzate in *discussioni*, quindi
seguendo un modello dialogico, il che è importante nell’addestramento di
modelli linguistici specie nell’ottica di sviluppare assistenti
virtuali. Ci sono fora riguardanti specifici argomenti e, in particolare
quando tale argomento è molto delineato, si possono trovare discussioni
tecniche di altissimo livello e, spesso, corrette anche perché
sottoposte al vaglio di numerosi altri utenti che eventualmente possono
dibattere e commentare. Questo dibattito e commento è certamente
istruttivo per i modelli nel riuscire ad esporre i concetti
argomentandoli e sottoponendoli a critiche. La discussione sui vantaggi
dei forum per l’addestramento può andare avanti, ma intato,
ricapitoliamo il lavoro fatto e da fare in merito:
#### <span id="anchor-19"></span>Usenet
Scriverò una bella introduzione su Usenet, per ora, basta ricordare che
si tratta di una piattaforma distribuita (non centralizzata) facente
parte della primissima generazione di Internet, essendo stata sviluppata
negli anni Settanta, ben prima della nascita del web. Per quanto
riguarda l’Italia, siamo riusciti a raccogliere contenuti dal 1994, anno
di nascita della gerarchia “\*.it”. L’archivio più grande di discussioni
Usenet è presente sulla piattaforma “Google Groups” di Google,
piattaforma tra l’altro che proprio il 22 Febbraio di quest’anno ha
cessato di raccogliere nuovi contenuti.
Un lavoro molto dispendioso in termini di tempo e di risorse
computazionali per effettuare lo scraping delle gerarchie “\*.it” e
“\*.italia” dalle pagine di Google Groups è stato effettuato dal
sottoscritto a Febbraio 2024. Lo scraping è stato effettuato con degli
script Python basati sulla libreria Selenium [che verranno resi
disponibili su GitHub](https://github.com/manalog97/GGetter). Il
risultato è un archivio di circa 75GB contenente XXX discussioni divise
in XXX newsgroup tematici. [In appendice la gerarchia dei newsgroup
scaricati.](#7.3.Statistiche%20temporanee%20scraping%20di%20Usenet:|outline)
Seguiranno a breve delle statistiche sul materiale scaricato come:
quantità di conversazioni, quantità di messaggi, quantità di messaggi
per newsgroup, quantità di messaggi per anno, quantità di messaggi per
newsgroup e anno e così via.
Come si evince osservando la gerarchia, le tematiche trattate sono
svariate e abbracciano un arco diacronico particolarmente lungo (circa
trent’anni). I newsgroup hanno conosciuto un calo di popolarità dopo il
2012 circa a causa del diffondersi dei social network (centralizzati e
proprietari) ma comunque è presente un significativo numero di messaggi
anche relativi all’ultimo decennio.
Attualmente per ogni newsgroup esiste un file JSON contentente tutti i
dati necessari all’organizzazione dei messaggi nel newsgroup:
{title, original\_url, newsgroup, messages: \[author, day, month, year,
hours, minute, am/pm, text\]}
Prima del caricamento su Hugging Face, che avverrà in settimana, i dati
saranno riorganizzati in file JSONL aventi come struttura:
{title, author, id, progressive\_number, endflag, timestamp, newsgroup,
original\_url, text}
Dove progressive\_number rappresenta l’andamento della discussione (a
partire da “0” per il primo messaggio) e il dato booleano endflag vale 1
se si è arrivati all’ultimo messaggio della discussione. Il timestamp
sarà in formato ISO-8601-1
Si tratta di una struttura dati altamente inefficiente e ridondante
(campi come title, original\_url, newsgroup saranno ripetuti milioni di
volte) ma al momento è l’unica soluzione pensata per rendere il dataset
facilmente fruibile su HuggingFace. La struttura più adatta al dataset
sarebbe sicuramente quella di un DB relazionale:
Conversazioni (id,titolo,newsgroup,url)
Messaggi(id,id\_conversazione,autore,dataeora,testo)
ma al momento questa strada non sembra essere percorribile sulla
piattaforma HuggingFace.
La compressione con buoni algoritmi come LZMA2 o Bzip2 consentono
tuttavia di ovviare a questa ridondanza in termini di occupazione di
spazio su disco.
Il dataset di Usenet è già completo, al momento conservato su un hard
disk esterno e in settimana sarà caricato su HuggingFace e Archive.org.
Potrebbe risultare il dataset in Italiano per task di NLP più grande tra
quelli liberamente disponibili.
Ringrazio *Ruggero* per il costruttivo confronto durante questo progetto
e per avere scaricato gli ultimi due *giga* di materiale quando le mie
risorse computazionali non erano più sufficienti, oltre che per aver
evidenziato il problema dell’usare il JSON originale come dataset di
HuggingFace.
#### <span id="anchor-20"></span>Forum
Ho scritto uno script Python, basato su Beautiful Soup, adatto a
scaricare per intero qualsiasi forum. Occorre solo individuare dei campi
specifici con un browser internet (div con contenuto, div con titolo,
tag che individuano autore e data, meccanismo di paginazione, logica
dell’URL, numero massimo di discussioni), inserirli nello script ed
eseguirlo.
Ho fatto partire ieri lo scraping di alcuni piccoli forum:
matematicamente (matematica), analogica (fotografia) e electroyou
(elettronica) per testare lo script e sembra funzionare tutto
correttamente. Sto compilando una lista di forum che potrebbe valer la
pena scaricare, indicativamente si riusciranno a ottenere in questo modo
altri 30GB circa di materiale testuale. A differenza di Usenet, qui
potrebbero sorgere questioni legate al copyright pertanto *sarebbe bene
sentire al più presto un esperto di diritto.*
### <span id="anchor-21"></span>Riviste accademiche delle Università italiane
Punto da approfondire; comunque: ho scoperto che quasi tutte le
università italiane hanno portali di questo tipo:
<https://ojs.unito.it/>
<https://rosa.uniroma1.it/>
<http://www.serena.unina.it/>
eccetera eccetera.
Sono riviste di altissima qualità, su tematiche accademiche specifiche e
complesse che sarebbero una risorsa magnifica per i dataset di
pretraining. Una risorsa così tanto di qualità è probabilmente assente
anche in rinomati dataset americati. *Bisogna capire la questione
copyright: sono tendenzialmente in open access e licenza CC-BY-SA-ND*.
Possiamo inserirle nei dataset?
## <span id="anchor-22"></span>Concorsi pubblici
Sito scoperto per caso proprio oggi mentre scrivevo questo documento:
<https://www.concorsipubblici.com/quiz/categorie/comprensione-di-testi-1731>
Una miniera di risorse perfette per creare dataset di instruction
finetuning. Numerosi esempi di comprensione del testo. Che ne pensate?
Comincio volentieri a riflettere su come effettuare uno scraping
sensato.
## <span id="anchor-23"></span>Materiale legale di pubblico dominio
Sentenze, atti di processo, codici...
### <span id="anchor-24"></span>Altro materiale online (senza esagerare… inutile pensare di rifare a mano Common Crawl)
…………….Possiamo scrivere una grande lista
# <span id="anchor-25"></span>L’Ipotetica piattaforma di crowdsourcing
\[BOZZA\!\!\!\]
Punto importante, ma anche questo verrà lasciato qui solo abbozzato.
Però:
1. [LLMentor](https://github.com/manalog97/LLMentor): possibile
piattaforma indirizzata a persone del mondo accademico
2. Espandere LLMentor con accesso a studenti universitari che
potrebbero:
1. “Donare” la loro tesi
2. “Donare” i loro appunti
3. Scrivere coppie domande e risposte
4. Valutare le prestazioni dei modelli esistenti
5. Discutere tra di loro
3. Una sottosezione di LLMentor potrebbe essere aperta al pubblico
generale con vari task simil-Amazon Mechanical Turk/LabelStudio come
1. Proporre domande generaliste
2. Effettuare valutazioni
Punto da approfondire molto\!
Comunque, è naturale che un progetto di crowdsourcing opensource
rispetto a un progetto con annotatori pagati fornirà risultati di
qualche ordine di grandezza inferiore. È inoltre ancora più difficile a
causa del fatto che, al fine di privilegiare la qualità, si stia anche
facendo una selezione sugli ipotetici volontari (universitari,
dottorandi, docenti…) Tuttavia, credo che possa valere la pena provare a
patto di non investire troppe risorse nella piattaforma (La base di
LLMentor è quasi pronta, codice semplice scritto a mano ma funzionante)
dal momento che:
1. C’è un grande interesse del pubblico generale per questa tecnologia;
2. Si potrebbe contribuire anche con una quantità molto piccola di
tempo, come pochi minuti per caricare materiale come tesi e appunti
o poche ore per scrivere qualche decina di domande e risposte;
3. Si potrebbero fornire considerazioni etiche che possano far capire a
un pubblico di studenti sensibili quanto sarebbe utile contribuire
allo sviluppo di modelli aperti, di qualità e multiculturali
Da brevi discussioni informali fatte nell’ambiente universitario, sembra
che ci siano studenti che parteciperebbero volentieri a un progetto
simile. Sono molti gli esempi di progetti senza fini di lucro nel web
che poi portano a risultati considerevoli, come Wikipedia o la
piattaforma di calcolo distribuito “Boinc”. Motivare i volontari,
ringraziarli e magari farli divertire con idee stimolanti e *gamificare*
il tutto con punti e classifiche potrebbe portare a una discreta
adozione. Si potrebbero inoltre incollare volantini ben fatti nelle
varie Università italiane e magari sperare nella collaborazione delle
Università stesse.
# <span id="anchor-26"></span>Sintetico o naturale?
\[BOZZA\!\!\!\]
Scriverò qualcosa sulla questione dataset sintetico e naturale, per ora,
appunti:
- Ovviamente avere una grande mole di dati in naturale è estremamente
complesso;
- I dati naturali sono però ancora al momento insostituibili.
Esagerare con i sintetici può portare alla “Mucca Pazza”. Con i
sintetici continueremmo inoltre ad avere il problema
dell’appiattimento sulla cultura angloamericana (forse Mistral
migliora le cose?);
- Si potrebbe però provare ad estendere i dati con metodologie
sintetiche, basate però sulla riproduzione dei “nostri” piccoli
dataset di finetuning curati, in modo da avere un maggior controllo
sulla qualità rispetto che lasciare i modelli “a ruota libera”
# <span id="anchor-27"></span>Problemi aperti
- Copyright\!
- Molto altro...
# <span id="anchor-28"></span>Appendici:
## <span id="anchor-29"></span>Un “appoggio” di link con materiale didattico
Scrivendo questa bozza, mi sono imbattuto in alcuni siti con materiale
didattico per le scuole che potrebbe essere utile tenere in
considerazione. In gran parte si tratta di siti molto vecchi e quindi i
problemi di copyright potrebbero essere più gestibili.
Questi link non sono *assolutamente* esaustivi, sono stati trovati oggi
in pochi minuti; invito a cercare più materiale.
- <https://digilander.libero.it/italianonelbiennio/>
- <https://digilander.libero.it/uraniaceleste/>
- <http://www.lineadidattica.altervista.org/materiali_didattici.html>
- <https://rossanaweb.altervista.org/blog/area-studenti/esercizi-online/esercizi-online-di-italiano/>
- <https://www.profgiuseppebettati.it/>
- <http://www.apprendendo.altervista.org/italiano.html>
- <https://italianoperstranieri.altervista.org/>
- <https://www.profwaltergalli.it/per-i-docenti/mediatori-didattici-sottosezioni-da-1-a-7/1-siti-didattici-per-tutte-le-discipline/>
- <http://www.apprendendo.altervista.org/didattica%20online.html>
- <https://library.weschool.com/> **(\!\!\!)**
- <https://italianoinlinea.com/cruciverba-per-imparare-litaliano/>
- <https://digilander.libero.it/sussidi.didattici/>
- <http://www.bibliolab.it/lessico/lessico_index.htm>
- <https://www.guamodiscuola.it/2014/01/testo-argomentativo-materiali-didattici.html>
- <http://www.storiadellaletteratura.it/> **(\!\!\!)**
- <https://www.dropbox.com/s/tcy2j8nma5hmr1j/LAVORO%20SUL%20TESTO%20-%20Percorso%20didattico%20su%20Pinocchio.pdf?e=1&dl=0>
- <https://www.fabrizioaltieri.it/wordpress/tutti-i-miei-libri-per-ragazzi/battello-a-vapore/serie-azzurra/comprensione-del-testo-scuola-primaria/6-brani-con-verifica-sulla-comprensione-del-testo/>
Appoggio di link enigmistica:
- <https://cruciverba.io/soluzioni-recenti>
- <https://www.nostrofiglio.it/famiglia/indovinelli-difficili-per-adulti>
- <https://www.enigmatopia.it/category/giochi-a-enigmi-online/la-strada-per-enigmatopia/>
- <https://yesnogame.net/it>
- <https://utenti.quipo.it/base5/penslate/latmate.htm> **(\!)**
- <https://utenti.quipo.it/base5/penslate/latclass.htm>
## <span id="anchor-30"></span>Task linguistici (ispirati da vecchi siti di materiale didattico trovati online):
<table>
<tbody>
<tr class="odd">
<td>Tipologia</td>
<td>Attività</td>
<td>Obiettivi</td>
<td>Proposte operative</td>
</tr>
<tr class="even">
<td><strong>Cancellazione</strong> </td>
<td>Riconoscere le parole incluse arbitrariamente in un testo</td>
<td>Sviluppare la riflessione sul lessico, in base al criterio della pertinenza del singolo elemento linguistico, rispetto all’insieme.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P1.html#eutropio"><strong>P1</strong></a></td>
</tr>
<tr class="odd">
<td><strong>Cloze</strong> </td>
<td><p>Inserire in un testo le parole mancanti, fornite in sequenza casuale.</p>
<p> </p></td>
<td>Promuovere la competenza testuale e la capacità inferenziale, mediante il preventivo riconoscimento della categoria grammaticale da inserire.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P2.html#seneca"><strong>P2</strong></a></td>
</tr>
<tr class="even">
<td><strong>Decontaminazione</strong> </td>
<td>Distinguere gli elementi testuali che appartengono a due differenti testi.</td>
<td>Rafforzare la competenza testuale, sulla base del riconoscimento dei fattori di coerenza e coesione.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P3.html#aurelio"><strong>P3</strong></a></td>
</tr>
<tr class="odd">
<td><strong>Esplicitazione</strong> </td>
<td>Collegare ogni pronome, presente nel testo, al proprio referente.</td>
<td>Promuovere il riconoscimento dei fattori che determinano la coesione testuale.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P4.html#igino"><strong>P4</strong></a></td>
</tr>
<tr class="even">
<td>Griglia</td>
<td>Individuare l’intersezione delle variabili (riconducibili a un testo dato) rappresentate sugli assi di una matrice.</td>
<td><p>Potenziare la comprensione del livello denotativo e connotativo.</p>
<p> </p></td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P5.html#Favole"><strong>P5</strong></a></td>
</tr>
<tr class="odd">
<td>Incastro</td>
<td>Ricostruire l’esatta sequenza delle parole di un testo, presentate in ordine casuale.</td>
<td>Sviluppare la competenza morfo-sintattica.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P6.html#isidoro"><strong>P6</strong></a></td>
</tr>
<tr class="even">
<td>Riassunto</td>
<td>Ridurre un testo ai nuclei informativi essenziali, da riprodurre secondo una formulazione personale.</td>
<td>Incentivare la capacità di riconoscere la gerarchia delle informazioni essenziali, mettendo in atto la globalità dei processi cognitivo-linguistici.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P7.html#P7%20Aviano"><strong>P7</strong></a></td>
</tr>
<tr class="odd">
<td>Ricostruzione</td>
<td>Riprodurre la corretta sequenza dei paragrafi di un testo, proposti in ordine casuale.</td>
<td>Potenziare le strategie del processo di comprensione, mediante il riconoscimento dei fattori che determinano la coerenza testuale.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P8.html#manilio"><strong>P8</strong></a></td>
</tr>
<tr class="even">
<td>Scelta multipla</td>
<td>Individuare la risposta corretta, selezionandola tra le varie opzioni date.</td>
<td>Guidare il percorso di comprensione</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P9.html#plinio"><strong>P9</strong></a></td>
</tr>
<tr class="odd">
<td><strong>Suddivisione</strong> </td>
<td>Dividere un testo in sequenze e assegnare una titolazione pertinente.</td>
<td>Potenziare le abilità di lettura e comprensione.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P10.html#cesare"><strong>P10</strong></a></td>
</tr>
</tbody>
</table>
I giochi linguistici
Proponiamo una serie di possibili esercizi, tutti sul medesimo testo di
riferimento, che è il seguente:
Un topolino correva avanti e indietro sopra il corpo di un leone
addormentato. Quello si svegliò e afferratolo stava per mangiarselo. Ma
il topolino lo scongiurò di lasciarlo libero, dicendogli che se lo
avesse salvato gli avrebbe ricambiato il favore; il leone sorrise e lo
lasciò andare. Non molto tempo dopo il leone fu catturato da alcuni
cacciatori che lo legarono con una corda ad un albero. Il topolino, che
aveva sentito i suoi lamenti, rosicchiò la corda e lo liberò,
dicendogli: “Un giorno tu sorridesti di me, pensando che io non fossi in
grado di ricambiare il favore. D’ora innanzi, invece, sarai convinto che
esiste la gratitudine anche presso i topi”.
## <span id="anchor-31"></span>Statistiche *temporanee* **scraping di Usenet:**
Mancano ancora dei newsgroup da sistemare, ma sono già stati scaricati
tutti. La gerarchia \*italia (discussioni locali) non è al momento
presente in statistica. La colonna a destra indica il numero di
conversazioni NON quello dei singoli messaggi (maggiore), che sarà
presente in una statistica successiva. Alcuni gruppi purtroppo sono
andati perduti perché censurati da Google Groups, forse a causa di
troppo spam.
***Totale singole conversazioni: 13.098.235***
***Totale singoli messaggi: ****da calcolare***
| | |
| ------------------------------------------ | ------ |
| it.politica | 813646 |
| it.sport.calcio.milan | 442317 |
| it.economia.borsa | 363459 |
| it.discussioni.auto | 209997 |
| it.sport.calcio.roma | 181430 |
| it.sport.calcio | 166006 |
| it.comp.hardware | 163391 |
| it.sport.calcio.napoli | 160256 |
| it.media.tv | 157839 |
| it.media.tv | 157839 |
| it.arti.fotografia.digitale | 155799 |
| it.comp.macintosh | 155526 |
| it.comp.aiuto | 152643 |
| it.hobby.motociclismo | 146326 |
| it.politica.internazionale | 144392 |
| it.hobby.fai-da-te | 138488 |
| it.hobby.satellite-tv.digitale | 137842 |
| it.comp.os.linux.iniziare | 133170 |
| it.tlc.cellulari | 127660 |
| it.hobby.viaggi | 123933 |
| it.comp.lang.visual-basic | 116373 |
| it.arti.cinema | 115803 |
| it.arti.fotografia | 114277 |
| it.politica.pds | 111191 |
| it.arti.musica.strumenti.chitarra | 111186 |
| it.comp.console.playstation | 110042 |
| it.sport.calcio.inter-f | 109206 |
| it.tlc.telefonia.adsl | 104615 |
| it.sport.calcio.juventu | 99951 |
| it.discussioni.commercialisti | 97636 |
| it.hobby.umorismo | 93120 |
| it.sport.calcio.inter | 90076 |
| it.sesso.discussioni | 89924 |
| it.media.video.produzione | 87382 |
| it.media.video.produzione | 87382 |
| it.hobby.home-cinema | 86245 |
| it.politica.polo | 85440 |
| it.hobby.cucina | 83914 |
| it.discussioni.litigi | 83910 |
| it.diritto | 83162 |
| it.comp.appl.access | 81615 |
| it.lavoro.informatica | 80338 |
| it.comp.giochi.action | 79174 |
| it.comp.hardware.cd | 78026 |
| it.sport.calcio.torino | 75571 |
| it.hobby.totoscommesse | 73750 |
| it.comp.hardware.palmari | 72702 |
| it.hobby.acquari | 70399 |
| it.hobby.radioamatori | 69671 |
| it.arti.musica.rock | 66746 |
| it.discussioni.misteri | 65335 |
| it.discussioni.animali.cani | 64745 |
| it.discussioni.consumatori.tutela | 63063 |
| it.comp.os.win.xp | 61986 |
| it.comp.hardware.overclock | 61654 |
| it.arti.musica.classica | 60054 |
| it.comp.hardware.motherboard | 59410 |
| it.cultura.filosofia | 59056 |
| it.sport.formula1 | 58454 |
| it.sport.calcio.fiorentina | 57847 |
| it.cultura.religioni | 56980 |
| it.arti.cartoni | 55926 |
| it.arti.cartoni | 55926 |
| it.cultura.single | 55807 |
| it.hobby.motociclismo.scooter | 55368 |
| it.arti.musica.metal | 54985 |
| it.istruzione.scuola | 54978 |
| it.lavoro.professioni.webmaster | 51924 |
| it.hobby.lotto | 51225 |
| it.comp.giochi.annunci | 50366 |
| it.comp.os.win.win2000 | 49655 |
| it.sport.calcio.genoa | 49590 |
| it.sport.ciclismo | 48954 |
| it.sport.basket | 48588 |
| it.comp.java | 48529 |
| it.hobby.satellite-tv | 48464 |
| it.scienza.matematica | 48441 |
| it.comp.grafica | 48046 |
| it.comp.grafica | 48046 |
| it.aiuto | 47043 |
| it.fan.startrek | 46051 |
| it.comp.reti.locali | 45922 |
| it.cultura.libri | 45065 |
| it.lavoro.offerte | 44256 |
| it.hobby.scacchi | 42853 |
| it.arti.fumetti | 42337 |
| it.arti.poesia | 42264 |
| it.comp.giochi.sportivi.hattrick | 40515 |
| it.hobby.hi-fi | 39229 |
| it.comp.hardware.cpu | 38584 |
| it.arti.musica | 38508 |
| it.discussioni.geometri | 38245 |
| it.discussioni.folli | 37954 |
| it.comp.www.php | 37754 |
| it.comp.os.linux.sys | 36822 |
| it.fan.culo | 36741 |
| it.arti.musica.rock.progressive | 35932 |
| it.fan.studio-vit | 35841 |
| it.hobby.elettronica.riparazioni | 34833 |
| it.sesso.racconti | 34601 |
| it.comp.giochi.simulatori.volo | 34370 |
| it.hobby.modellismo | 34289 |
| it.comp.lang.javascript | 34100 |
| it.comp.hardware.modem | 34100 |
| it.politica.ulivo | 33218 |
| it.discussioni.varie | 33189 |
| it.discussioni.leggende.metropolitane | 32435 |
| it.lavoro.consulenti | 32354 |
| it.lavoro.consulenti | 32354 |
| it.sport.motociclismo | 32179 |
| it.discussioni.ufo | 32115 |
| it.hobby.scuba | 32080 |
| it.sport.calcio.sampdoria | 32062 |
| it.sport.calcio.estero | 31568 |
| it.diritto.condominio | 31507 |
| it.hobby.hi-fi.car | 31383 |
| it.lavoro.mlm | 31104 |
| it.comp.retrocomputing | 30864 |
| it.comp.os.win.win9x | 30332 |
| it.sport.windsurf | 30327 |
| it.comp.giochi.rpg | 30293 |
| it.salute | 29591 |
| it.hobby.pescare | 29380 |
| it.fan.musica.queen | 29297 |
| it.hobby.cicloturismo | 29165 |
| it.comp.musica | 27983 |
| it.cultura.linguistica.italiano | 27052 |
| it.hobby.armi | 26886 |
| it.sport.montagna | 26538 |
| it.cultura.storia | 26527 |
| it.scienza.astronomia | 26502 |
| it.discussioni.ingegneria | 26406 |
| it.comp.os.linux.software | 26333 |
| it.cultura.cattolica | 26304 |
| it.comp.lang.delphi | 26233 |
| it.comp.software.emulatori | 25796 |
| it.arti.musica.strumenti.tastiere | 25368 |
| it.hobby.giardinaggio | 25263 |
| it.hobby.nautica | 24857 |
| it.fan.musica.u2 | 24640 |
| it.comp.grafica.photoshop | 24140 |
| it.arti.musica.jazz | 24069 |
| it.tlc.telefonia | 23882 |
| it.comp.hardware.storage | 23755 |
| it.scienza.medicina | 23685 |
| it.annunci.usato | 23266 |
| it.comp.lang.c++ | 23133 |
| it.economia.investire | 22883 |
| it.sport.arti-marziali | 22422 |
| it.economia | 22318 |
| it.fan.tv | 22296 |
| it.comp.giochi.sportivi | 21990 |
| it.arti.fotografia.segnalazioni | 21763 |
| it.arti.ballo.lat-americano | 21752 |
| it.comp.os.win.software | 21732 |
| it.hobby.elettronica.digitale | 21477 |
| it.tlc.gestori.fastweb | 20801 |
| it.tlc.cellulari.motorola | 20757 |
| it.arti.architettura | 20718 |
| it.discussioni.auto.ford | 20655 |
| it.sport.americani | 20447 |
| it.comp.software.cad | 20264 |
| it.cultura.religioni.cristiani | 20107 |
| it.sport.tennis | 19571 |
| it.sport.tenni | 19565 |
| it.sociale.obiezione | 19478 |
| it.sociale.obiezione | 19478 |
| it.comp.musica.mp3 | 19370 |
| it.comp.giochi.simulatori | 19330 |
| it.cultura | 19310 |
| it.arti.fantasy | 18856 |
| it.discussioni.motori | 18653 |
| it.economia.borsa.estero | 18547 |
| it.scienza.fisica | 18486 |
| it.sport.formula1.moderato | 18463 |
| it.comp.hardware.schede-audio | 18444 |
| it.cultura.linguistica.inglese | 18266 |
| it.comp.programmare.win32 | 18116 |
| it.arti.musica.strumenti.basso | 17892 |
| it.diritto.assicurazioni | 17855 |
| it.tlc.gestori.vodafone | 17726 |
| it.cultura.fantascienza | 17673 |
| it.arti.hiphop | 17465 |
| it.fan.radio.deejay | 17463 |
| it.comp.sicurezza.windows | 17393 |
| it.fan.starwars | 17292 |
| it.fan.musica.lucio-battisti | 17218 |
| it.fan.musica.lucio-battisti | 17218 |
| it.cultura.horror | 17202 |
| it.comp.www | 17033 |
| it.comp.reti.wireless | 17004 |
| it.discussioni.ristoranti | 16865 |
| it.comp.software.newsreader | 16808 |
| it.hobby.enigmi | 16422 |
| it.tlc.gestori.wind | 16332 |
| it.sport.nuoto | 16326 |
| it.comp.sicurezza.varie | 16324 |
| it.sport.sci | 16167 |
| it.arti.musica.strumenti | 16076 |
| it.arti.cartoni.mercatino | 16052 |
| it.hobby.fantasport | 15991 |
| it.news.net-abuse | 15872 |
| it.news.net-abuse | 15872 |
| it.fan.musica.battiato | 15711 |
| it.discussioni.sessualita | 15706 |
| it.discussioni.sentimenti | 15683 |
| it.hobby.giochi.gdr.dnd | 15551 |
| it.fan.tv.friends | 15421 |
| it.cultura.storia.militare | 15157 |
| it.comp.reti.cisco | 15121 |
| it.sport | 14835 |
| it.tlc.telefonia.voip | 14752 |
| it.fan.tv.buffy | 14718 |
| it.sociale.scout | 14284 |
| it.comp.lang.c | 14053 |
| it.hobby.vino | 13967 |
| it.cultura.antagonista | 13739 |
| it.discussioni.ingegneria.civile | 13469 |
| it.fan.musica.baglioni | 13404 |
| it.cultura.militare | 13391 |
| it.hobby.satellite-tv.digitale.mod | 13190 |
| it.diritto.internet | 13136 |
| it.cultura.newage | 13085 |
| it.hobby.radio-cb | 12981 |
| it.istruzione.universita.ingegneria | 12943 |
| it.scienza.ambiente | 12917 |
| it.discussioni.psicologia | 12798 |
| it.news.gruppi | 12772 |
| it.tlc.gestori.tim | 12735 |
| it.comp.software.database | 12364 |
| it.comp.hardware.dvd | 12326 |
| it.economia.banche | 12283 |
| it.news.aiuto | 12280 |
| it.comp.reti.ip-admin | 12011 |
| it.comp.software.mailreader | 12001 |
| it.politica.destra | 11946 |
| it.comp.hardware.scsi | 11921 |
| it.scienza.chimica | 11799 |
| it.fan.scrittori.tolkien | 11513 |
| it.discussioni.droghe | 11442 |
| it.discussioni.giustizia | 11430 |
| it.discussioni.giustizia | 11430 |
| it.fan.stephen-king | 11412 |
| it.comp.os.win.nt | 11132 |
| it.comp.programmare | 10535 |
| it.sport.atletica | 10473 |
| it.fan.musica.ligabue | 10305 |
| it.hobby.home-cinema.titoli-dvd | 10099 |
| it.discussioni.auto.mod | 10083 |
| it.istruzione.universita | 9870 |
| it.istruzione.universita | 9870 |
| it.discussioni.energie-alternative | 9817 |
| it.hobby.audiovisivi | 9781 |
| it.cultura.ebraica | 9775 |
| it.scienza.biologia | 9612 |
| it.salute.alimentazione | 9202 |
| it.salute.alimentazione | 9202 |
| it.fan.musica | 9082 |
| it.tlc.gestori.telecom | 9012 |
| it.cultura.letteratura.italiana | 9006 |
| it.comp.appl.macromedia | 9002 |
| it.comp.os.linux.development | 8943 |
| it.lavoro.prevenzione | 8879 |
| it.scienza.astronomia.amatoriale | 8861 |
| it.arti.varie | 8842 |
| it.comp.software.shareware | 8501 |
| it.comp.os.amiga | 8491 |
| it.comp.giochi.avventure.testuali | 8469 |
| it.lavoro.richieste | 8465 |
| it.hobby.piante.cactus | 8273 |
| it.politica.cattolici | 8271 |
| it.discussioni.animali | 8223 |
| it.sociale.handicap | 8120 |
| it.cultura.religioni.bahai | 8108 |
| it.discussioni.sogni | 8066 |
| it.comp.software.divx | 8014 |
| it.hobby.radioascolto | 7920 |
| it.comp.software.tex | 7810 |
| it.comp.giochi.sviluppo | 7722 |
| it.fan.musica.rem | 7672 |
| it.associazioni.cri | 7652 |
| it.hobby.armi.moderato | 7427 |
| it.comp.os.dibattiti | 7380 |
| it.comp.os.win.windows7 | 7295 |
| it.politica.sinistra | 7282 |
| it.comp.giochi.rpg.ultimaonline | 7227 |
| it.discussioni.agricoltura | 7205 |
| it.comp.os.linux.debian | 7162 |
| it.hobby.vari | 7139 |
| it.comp.lang.perl | 7132 |
| it.comp.appl.notes-domino | 7058 |
| it.comp.appl.notes-domino | 7058 |
| it.faq | 7030 |
| it.hobby.aquiloni | 7006 |
| it.fan.tv.dawsons-creek | 6972 |
| it.sport.calcio.palermo | 6903 |
| it.comp.hardware.palmari.gps | 6823 |
| it.fan.musica.springsteen | 6627 |
| it.tlc.provider | 6558 |
| it.news.annunci | 6470 |
| it.cultura.cybersocieta | 6428 |
| it.discussioni.giallo | 6332 |
| it.fan.musica.carmen-consoli | 6238 |
| it.comp.software.emulatori.console-recenti | 6224 |
| it.discussioni.iso9000 | 6217 |
| it.sport.rally | 6146 |
| it.fan.tv.er | 6107 |
| it.comp.os.win.windows10 | 6106 |
| it.comp.os.win.windows10 | 6106 |
| it.industria.elettrotecnica.normative | 5998 |
| it.fan.musica.elio | 5922 |
| it.hobby.viaggi.inter-rail | 5905 |
| it.hobby.viaggi.inter-rail | 5905 |
| it.cultura.filosofia.moderato | 5871 |
| it.fan.musica.de-andre | 5714 |
| it.media.tv.fantascienza | 5622 |
| it.news.moderazione | 5462 |
| it.cultura.linguistica | 5389 |
| it.comp.software.browser | 5368 |
| it.sociale.adozione | 5354 |
| it.scienza.astronomia.seti | 5266 |
| it.cultura.linguistica.giapponese | 5208 |
| it.comp.lang.vo-clipper | 5179 |
| it.sociale.primosoccorso | 5155 |
| it.arti.musica.classica.mod | 5054 |
| it.arti.fumetti.manga | 5054 |
| it.comp.os.os2 | 5013 |
| it.cultura.cybersocieta.lamer | 4810 |
| it.cultura.cybersocieta.lamer | 4810 |
| it.arti.animazione | 4588 |
| it.comp.lang.pascal | 4449 |
| it.istruzione.scuola.informatica | 4366 |
| it.fan.marco-ditri | 4163 |
| it.comp.os.dos | 4156 |
| it.fan.tv.mai-dire-gol | 4137 |
| it.comp.os.win.vista | 4130 |
| it.arti.musica.polifonia | 4092 |
| it.hobby.creativi | 3972 |
| it.salute.aids | 3865 |
| it.cultura.classica | 3661 |
| it.lavoro.sindacato | 3562 |
| it.sport.rugby | 3561 |
| it.scienza.geologia | 3422 |
| it.hobby.volo.ultraleggero | 3338 |
| it.hobby.radioamatori.moderato | 3326 |
| it.news.gestione | 3205 |
| it.comp.sicurezza.pgp | 3155 |
| it.cultura.religioni.buddhismo | 3069 |
| it.comp.software.irc | 2875 |
| it.fan.radio | 2867 |
| it.comp.appl.eudora | 2865 |
| it.news.votazioni | 2859 |
| it.comp.os.linux.mandrake | 2759 |
| it.comp.os.linux.ubuntu | 2660 |
| it.tlc.gestori | 2606 |
| it.fan.nutella | 2581 |
| it.sociale.anorexbulimia | 2546 |
| it.scienza.informatica | 2484 |
| it.fan.tv.babylon5 | 2484 |
| it.discussioni.energia | 2403 |
| it.fan.japan.sailor-moon | 2315 |
| it.salute.cefalee | 2281 |
| it.lavoro.professioni.pubblicita | 2203 |
| it.comp.os.linux.annunci | 2072 |
| it.fan.japan.r-takahashi | 2000 |
| it.comp.os.unix | 1978 |
| it.arti.musica.strumenti.voce | 1974 |
| it.comp.sicurezza.crittografia | 1950 |
| it.fan.matrix | 1947 |
| it.comp.software.libero | 1935 |
| it.politica.internazionale.israele | 1922 |
| it.discussioni.astrologia | 1899 |
| it.hobby.motociclismo.viaggi | 1822 |
| it.sport.golf | 1700 |
| it.sport.golf | 1700 |
| it.comp.sicurezza.unix | 1668 |
| it.cultura.storia.moderato | 1560 |
| it.cultura.linguistica.francese | 1475 |
| it.comp.os.linux.redhat | 1438 |
| it.fan.asimov | 1343 |
| it.arti.musica.strumenti.chitarra.mod | 1180 |
| it.hobby.robotica | 923 |
| it.arti.cinema.recensioni | 890 |
| it.fan.musica.pearl-jam | 870 |
| it.comp.accessibilita | 804 |
| it.arti.musica.studio | 776 |
| it.sociale.globalizzazione | 707 |
| it.sport.calcio.moderato | 641 |
| it.hobby.volo | 638 |
| it.fan.tv.scrubs | 492 |
| it.comp.dotnet | 424 |
| it.comp.dotnet | 424 |
| it.comp.virtualizzazione | 390 |
| it.comp.software.editor | 267 |
| it.comp.lang | 252 |
| it.scienza.divulgazione | 240 |
| it.lavoro.professioni | 226 |
| it.comp.os.openbsd | 206 |
| it.politica.m5s | 152 |
| it.scienza.medicina.tumori | 123 |
| it.tlc.provider.disservizi | 0 |
| it.sport.volley | 0 |
**** |