File size: 72,342 Bytes
3523144
 
 
 
 
578a94b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
---
license: other
license_name: cc-by-4.0
license_link: https://creativecommons.org/licenses/by/4.0/deed.en
---
Proposte per la creazione di dataset per l’addestramento e il finetuning
di LLM

Versione 0.1 **Bozza** – Matteo Rinaldi – 3 Marzo 2024 – [CC
BY](https://creativecommons.org/licenses/by/4.0/deed.en)

# <span id="anchor"></span>Premessa

Quello che segue è un breve documento dove ho raccolto delle idee in
merito alla creazione di dataset per l’addestramento e il finetuning di
Large Language Models. Va considerato esclusivamente come bozza e
accenno a potenziali progetti da discutere ed eventualmente realizzare. 

Tutta la parte introduttiva si può saltare e andare direttamente
all’elenco schematico delle proposte

Non è stato riguardato più di tanto, non tutti i punti sono stati
chiariti a sufficenza, e soprattutto ho ancora molte altre idee di cui
vorrei discutere.

Questo documento non è in uno stato che lo rende adatto a nessun tipo di
pubblicazione o divulgazione: è fondamentalmente un abbozzo, scritto in
un giorno solo, spesso in linguaggio colloquiale e dove sono state solo
appuntate idee; lo condivido solo a causa dei rapidi mutamenti delle
situazioni che potrebbero renderlo un pochino utile anche in questo
stato scheletrico e perché ho promesso da un paio di settimane di
scrivere un documento del genere ad alcuni membri della community
Discord di Mii-LLM. Andando ad approfondire ogni punto e scrivendolo in
un linguaggio accademico probabilmente il numero delle pagine andrebbe a
triplicarsi.

Vorrei rilasciarlo innanzitutto con grande umiltà: riconosco come non vi
siano “grandi idee” al suo interno ma solo una schematizzazione di
alcuni temi ricorrenti per quanto riguarda i dati per l’addestramento
dei modelli. L’idea è che possa fungere da riferimento per altre idee e
proposte; vuole essere un documento *collaborativo*, sarebbe bello
lavorarci a più mani per arrivare a qualcosa di ancora più utile. Non
sono neanche sicuro al momento della sua effettiva utilità, ripeto, lo
rilascio con umiltà sperando che qualcuno lo apprezzi e lo trovi utile.
Spero non sembri pretenzioso, non credo di avere in mano nessuna
“ricetta segreta” per la risoluzione di un compito così complesso né
penso di voler insegnare niente a nessuno.

Lascio pertanto aperta un’istanza Etherpad:
<https://pad.disroot.org/p/Proposte_per_LLM> dove poter scrivere
qualsiasi commento, critica, aggiunta. Firmatevi. E si può pensare a una
piattaforma collaborativa migliore.

Consiglio anche la lettura del manifesto *LLMentor* che ho scritto quasi
un anno fa come proposta di un progetto di crowdsourcing di dataset di
instruction fine tuning rivolto a docenti universitari. Il link è qui:
<https://github.com/manalog97/LLMentor>

Manca inoltre la risposta alla domanda principale: *perché* vogliamo
sviluppare un LLM? Quali fini ci stiamo proponendo?

# <span id="anchor-1"></span>Una prolissa introduzione sull’importanza di modelli multiculturali e di qualità… si può saltare

I due cardini fondamentali di questi dataset sono la qualità e l’essere
multilingua. Per quanto riguarda il secondo punto, ciò significa
sviluppare dataset in lingue diverse dall’inglese, nello specifico in
italiano ma potenzialmente queste linee guida potrebbero applicarsi a
progetti analoghi da svolgersi in luoghi diversi, in modo da giungere a
una raccolta di dataset utili per l’addestramento di un vero modello
multilingua, requisito che i modelli attuali non soddisfano se non
parzialmente. \[Vedi:\]

La situazione attuale, che vede una prevalenza eccessiva dell’inglese
nei dati di addestramento, è particolarmente dannosa e critica negli
aspetti non solo dell’accessibilità del modello a utenti che non parlano
in inglese o che preferiscono utilizzare la loro lingua per interagire
con le risorse basate sui LLM, ma anche per quanto riguarda questioni
meno dibattute e che *non* sono risolvibili limitandosi a meccanismi
basati sulla *traduzione*. L’appiattimento dei modelli sull’inglese
significa anche un appiattimento dei modelli sulla cultura
angloamericana, con il rischio di andare a far perdere d’importanza la
pluralità di visioni del mondo a vantaggio di una visione anglocentrica
assolutamente parziale e incapace di rispecchiare l’umanità nel suo
complesso. La lingua non è un mero mezzo di codifica di informazioni, ma
ha la capacità di dare forma al discorso e ritagliare i concetti in
tanti modi quante sono le lingue esistenti (non ci si limita a parlare
la lingua ma si è* *anche *parlati* da questa). Anche andando oltre le
questioni di differenze linguistiche e semantiche, la lingua si fa anche
portatrice di un certo contesto culturale, ed è nocivo che i modelli
vengano allenati a considerare il resto del mondo in rapporto al mondo
angloamericano; tale nocività non si ferma all’aspetto tecnico di
corretto funzionamento dei modelli e usabilità da parte della
popolazione globale, ma si estende fino a diventare un potenziale
problema sociale ed etico non appena tali modelli nelle loro varie e
ancora non ben definite declinazioni entreranno nella vita quotidiana e
pubblica della popolazione. Ai fini di tale bozza, possiamo lasciare
l’approfondimento dell’argomento a lavori successivi e proseguire con
l’altro aspetto, quello relativo alla qualità.

Tralasciando per ora discussioni sull’importanza del migliorare la
qualità dei modelli per vari fini (sociali, accademici, di utilità
contingente…), possiamo spostarci direttamente* in medias res*
constatando in primo luogo la pressocchè totale assenza di dataset per
il finetuning in italiano e in secondo luogo le criticità esistenti
negli attuali dataset di finetuning pensati per l’inglese.

I dataset italiani per il finetuning al momento reperibili e disponibili
con licenze aperte sono per il momento mere traduzione di dataset
inglesi; tale approccio, sebbene possa funzionare per effettuare qualche
sperimentazione, non è adatto per lo sviluppo di modelli che siano
autenticamente multilingua. Dal punto di vista lessicale e sintattico,
*le traduzioni potrebbero conservare uno stile troppo aderente a quello
della lingua inglese*, specialmente in considerazione del fatto che tali
traduzioni vengono svolte non da traduttori professionisti ma in modo
automatico. Il risultato potrebbe essere quello di un modello che, a una
analisi più approfondita, non comunica effettivamente in italiano ma al
contrario continuerebbe a parlare in inglese tradotto in italiano. *Dal
punto di vista semantico e dei contenuti, tradurre, peraltro
automaticamente, non contribuisce minimamente a mitigare quell’effetto
di accentramento sulla cultura angloamericana di cui accennavamo in
introduzione*. **Avere un modello che parla un italiano un po’
inglesizzato e che continua a riferirsi a situazioni, luoghi, fatti e
persone tipiche degli Stati Uniti *****non***** è un modello
multilinguistico e multiculturare.**

Si rende pertanto necessario raccogliere grandi quantità di dati nelle
lingue in cui si desidera che il modello possa operare.
Preferiribilmente, la parte maggiore di questi dati dovrebbe riferirsi
anche alla cultura del luogo in cui tale lingua è parlata: un libro
scritto originalmente in italiano è da considerarsi un dato avente un
valore maggiore di un libro scritto in inglese e tradotto in italiano.

In questo documento non andrò a soffermarmi troppo sul dataset di
pre-training, un dataset grande e che, per forza di cose, non può essere
nella sua interezza considerabile “di qualità”. Si rende tuttavia
necessario sviluppare anche dataset più piccoli di svariati ordini di
grandezza che però si distinguano per la loro “qualità”. Uno tra i vari
esempi di ricerche a supporto dell’aspetto qualità VS quantità è:
\[phi-2, textbook are all you need\]

\[Da continuare, bozza\!\!\!\]

# <span id="anchor-2"></span>Dataset piccoli, specifici, curati

Quelle che seguono sono idee per la creazione di dataset piccoli,
specifici, curati e che quindi sono più adatti a fasi di finetuning
piuttosto che di addestramento; ciò non toglie che, nel caso in cui
durante lo sviluppo di un certo modello non si ritenga valido usarli per
il fine-tuning, potrebbero tornare utilissimi come risorse per il
pretraining. 

Criteri per la qualità \[bozza\]:

Tematiche

Attendibilità degli autori

Difficoltà di ragionamento =\> Fondamentale perché è da qui che il
modello farà astrazione sui dati facendo emergere le capacità più
interessanti.

## <span id="anchor-3"></span>Dataset 1: Coppie domande/risposta \[Instruction Fine-Tuning\]

### <span id="anchor-4"></span>Accademiche

È il dataset *classico* per il finetuning delle LLM in particolar modo
quando finalizzato allo sviluppo di un *assistente* come ChatGPT o
Gemini. Senza stare a specificare ora *perché* serve un tale tipo di
dataset, vorrei presentare alcune possibili idee e linee guida.

Le coppie D/R sono necessarie per fornire al modello l’astrazione
necessaria per rispondere quando viene interrogato; per questo motivo,
ritengo importante porre una certa dose di cura nel compilare tali dati.
Sarebbe bene puntare a risposte che non siano semplificatorie e che
affrontino anche temi molto complessi scendendo nei dettagli. 

Possibilità di realizzazione:

  - Coinvolgere studenti; [*tramite piattaforme, anche elementari, di
    crowdsourcing di cui discuteremo in
    seguito*](#5.L’Ipotetica%20piattaforma%20di%20crowdsourcing|outline),
    studenti volontari potrebbero caricare documenti contenenti coppie
    di domande e risposte basate sui loro appunti universitari o sulle
    loro conoscenze. Non si avrebbe la stessa garanzia di accuratezza
    come se quel materiale provenisse da docenti universitari (vedi
    progetto originale
    [*LLMentor*](https://github.com/manalog97/LLMentor)) ma comunque è
    da aspettarsi un materiale nel complesso più che valido, sicuramente
    superiore agli attuali dataset per il finetuning inglesi, composti
    per la maggioranza di contenuti generati automaticamente da altri
    LLM

  - Non tutte le coppie D/R sono uguali, per prima cosa concentriamoci
    sulle coppie D/R su argomenti specifici, ad esempio accademici. In
    questo caso, l’ideale sarebbe privilegiare argomenti che non
    lasciano troppo spazio a opinioni personali e si riferiscono a
    questioni più o meno assodate, per quanto un certo grado di dissenso
    potrebbe comunque risultare altamente utile (vedi: prospettivismo in
    AI). Nelle linee guida da fornire ai collaboratori sarebbe da
    reiterare più volte l’idea che *vengono privilegiati argomenti
    complessi*, anche molto specifici e, idealmente, che coinvolgono una
    certa dose di ragionamento e che l’eventuale ragionamento necessario
    sia spiegato per punti. Questo perché argomentazioni generali
    probabilmente saranno già ampiamente presenti nei dati di
    addestramento (es Wikipedia); sarebbe interessante mostrare al
    modello come affrontare domande complesse e rispondere a queste
    domande in modo approfondito e ragionato.

Questo testo può essere saltato

Modelli come ChatGPT 3 tendono spesso a una spiegazione di tipo
enciclopedico, generalista, caratterizzata da una spesso inutilmente
prolissa ripetizione di un contesto iniziale che va ad occupare gran
parte della risposta per poi confinare la risposta effettiva alla
domanda dell’utente in molto meno spazio. Gli argomenti vengono ogni
volta “introdotti” spesso con lunghi giri di parole, in una forma che
sembra imitare quella delle introduzioni di Wikipedia, anche quando
l’utente chiede risposte dirette e specifiche. Sarebbe interessante
pertanto sviluppare domande e risposte su più livelli, da una parte
domande generali con risposte, giustamente, fornite di una introduzione,
ma anche domande più specifiche e che, comprensibilmente, se vengono
poste presuppongono che l’utente che le stia ponendo abbia un certo
livello di conoscenza pregressa e desideri andare a fondo dell’argomento
piuttosto che restarne in superficie. ChatGPT tende spesso a risposte
nello stile “ELI5”, espressione nata su Reddit che significa “Spiegamelo
come se stessi parlando con un bambino di cinque anni”. Ora, questo può
andar bene per fare scalpore nel pubblico e può aver senso che un
modello che aveva un po’ il ruolo di aprire la stagione dell’IA
generativa al grande pubblico fosse impostato con questo stile, ma penso
che adesso si possa chiedere di più a questi modelli e cercare di
privilegiare la profondità alla semplicità. È vero che potrebbe darsi il
caso che a porre una domanda complessa sia un utente poco ferrato nella
materia che arrivi alla domanda quasi per caso, ma ciò non toglie che in
questo caso l’utente stesso potrebbe chiedere una spiegazione più in
generale al modello e inoltre non credo si debba dare priorità alle
preferenze di utenti che cercano interazioni semplici e superficiali a
scapito di utenze più interessate a tematiche complesse e di
approfondimento. Il dataset di D/R dovrebbe, implicitamente, inferire il
livello dell’interlocutore dalla domanda posta e rispondere di
conseguenza. Conoscere l’utente è il modo migliore per soddisfarlo.

### <span id="anchor-5"></span>Generali

Riuscire ad ottenere questo dataset di D/R è più difficile rispetto a
quello basato su argomenti accademici perché, al contrario di
quest’ultimo, non segue dei “binari” stabiliti ma al contrario può
toccare non solo qualsiasi argomento ma anche qualsiasi uso del
linguaggio. 

Generare storie, rispondere a domande di senso comune, rispondere a
curiosità, impersonare stili di scrittura… sono solo alcuni dei
possibili task. È il dataset più difficile tra quelli presentati:

  - Si può spaziare su una infinita varietà di task, è difficile anche
    solo tirare giù una lista di idee e temi (invito a farlo su
    Etherpad\!); Si può prendere come spunto ad esempio l’ottimo (e
    piccolo) dataset “Norobots”
    (<https://huggingface.co/datasets/HuggingFaceH4/no_robots>). Si
    notano tematiche assolutamente varie:
    
      - Hobby (ricette di cucina, consigli per il fai da te...)
    
      - Aneddoti / cultura pop
    
      - Domande generali
    
      - Generazione di:
        
          - Storie
          - Poesie
          - Descrizioni per post social
          - E-mail
          - Slogan pubblicitari
    
      - Intrattenimento
    
      - Impersonare chatbot con stili di risposta e caratteristiche
        particolari
    
      - Task di NLU
        
          - Riassunti
          - Modifica e riscrittura del testo seguendo certe
            caratteristiche, come variazioni nei sentimenti, nello stile
          - Spiegazione di termini ed espressioni

  - Le risposte sono molto più arbitrarie rispetto al dataset D/R
    accademico, potrebbero con facilità contenere:
    
      - Opinioni personali degli annotatori
      - Bias di vario tipo
      - Considerazioni etiche
      - Qualità discutibile (è un po’ ridicolo da punto di vista
        letterario pensare che chiedere a un annotatore di “scrivere una
        poesia su X e Y” sia un modo per ottenere un esempio di una
        bella poesia)

Al momento i dataset di instruction finetuning generali di questo tipo
sono estremamente problematici da usare in un modello multiculturale:
sfogliando uno qualsiasi di questi dataset si nota una quantità
eccessiva di riferimenti agli Stati Uniti.

È molto complicato sviluppare un dataset di questo tipo senza un
significativo investimento economico per assumere degli annotatori
professionisti. Fino a dove ci si potrebbe spingere con il
crowdsourcing? Che tipologie di volontari cercare? Come verificare la
qualità dei dati?

Nonostante queste difficoltà, si potrebbe provare ad individuare dei
sotto-task che siano più semplici e soprattutto meno problematici. La
generazione di contenuto creativo come poesie e racconti è sicuramente
difficile, tuttavia altri task potrebbero essere somministrati anche
sottoforma di “gioco” a dei collaboratori volontari. Ad esempio
riassumere brevi testi, cambiarne lo stile da formale a informale,
risposte semplici e brevi a qualche domanda generale…

Idee?

## <span id="anchor-6"></span>Dataset 2: Comprensione del testo

Questo sarebbe un bellissimo dataset, per la cui realizzazione si
potrebbe chiedere il favore principalmente a studenti di discipline
umanistiche. 

Sempre rimanendo in tema comprensione del testo, credo che vi possano
essere dei compiti che generalmente non vengono fatti svolgere agli
esseri umani ma che potrebbero comunque risultare particolarmente utili
per i LLM:

  - Elencare tutti gli “enti” presenti in un testo, le loro relazioni e
    i loro aggettivi; un compito più di tipo NLP classico, che potrebbe
    essere molto utile con testi complessi;

  - Le LLM hanno notoriamente difficoltà quanto i contenuti sono
    *referenziali* ovvero quando avrebbero bisogno dell’apporto di
    informazioni multimodali per essere compresi. Si potrebbe pensare
    quindi a compiti di spiegazione delle situazioni:

I testi di alcuni cantautori classici italiani (penso a De Andrè,
Guccini, Battiato, Vecchioni, De Gregori…) sarebbero estremamente adatti
a questo tipo di task. In particolare De Andrè fa un utilizzo molto
avanzato della lingua e i suoi testi sono spesso di non univoca
interpretazione, ricchi di immagini visive ecc… la questione da capire è
il copyright. Fair use? Diritto di citazione?

Questi un paio di esempi fatti al volo, con “L’Ultimo Spettacolo” di
Vecchioni e “Il Ritorno di Giuseppe” di De Andrè. A mio avviso ChatGPT
3.5 si è comportato malissimo con questo tipo di compito. Non sono
esempi esaustivi di quello che ho in mente e che spero di aver fatto
capire nei punti precedenti, comunque è un punto di partenza:

<https://chat.openai.com/share/6c65122e-5f3b-4417-ab54-7eb4e3f78436>

<https://chat.openai.com/share/d159037b-d50e-41dc-a1f5-42d423fa3352>

Tra l’altro sarebbe anche da affrontare la questione contenuti
sessuali/violenti eccetera. Quando si interpreta un’opera artistica, è
assurdo fare censura su questo tipo di tematiche… \[punto da
approfondire\]

  
Vedi in appendice: [Task linguistici (ispirati da vecchi siti di
materiale didattico trovati
online):](#1.1.Task%20linguistici%20\(ispirati%20da%20vecchi%20siti%20di%20materiale%20didattico%20trovati%20online\):|outline)

In definitiva, i compiti di comprensione del testo sarebbero una risorsa
fondamentale da inserire nei dataset considerata la loro grande
rilevanza nei compiti di Natural Language Understanding. Si può pensare
di andare oltre i tipici esercizi di comprensione del testo (per quanto
fondamentali) e pensare a esercizi mirati per le LLM che vadano a
lavorare laddove si notano più mancanze. Ci si deve soffermare anche su
aspetti particolarmente banali della comprensione, banali per un essere
umano ma che potrebbero mettere in luce comportamenti più da “pappagallo
stocastico” dei LLM piuttosto che da un modello capace di comprendere.
Idee a proposito?

## <span id="anchor-7"></span>Dataset 3: Ragionamento e Chain of Thought

Rafforzare le abilità di ragionamento è un altro compito fondamentale
nell’addestramento di LLM utili e di qualità. “Ragionamento” è un altro
termine complesso e ambiguo. Si rimanda ad altro tempo e luogo per una
discussione su cosa si intenda per ragionamento, tuttavia, provo ad
elencare alcune bozze di idee.

### <span id="anchor-8"></span>Enigmistica

Il materiale pensato per l’enigmistica può essere a mio avviso
estremamente utile per l’addestramento di modelli nella speranza di
osservare abilità emergenti relative al ragionamento:

  - Enigmi gialli/polizieschi: questo tipo di enigmi racchiudono diverse
    caratteristiche particolari che possono tornare utili:
    
      - Richiedono una comprensione avanzata del testo, ovvero 1)
        attenzione a tutti i dettagli che possono servire a risolvere il
        caso, anche dettagli piccoli che possono sfuggire a una lettura
        non accurata; 2) Creazione di un “modello situazionale del
        mondo” accurato e corrispondente a quanto si vuole esprimere
        nel testo; 3) Abilità di tenere nella memoria a breve termine
        una rappresentazione schematica di tutti gli indizi
        potenzialmente ricavabili dal testo sia le cose ovvie che le
        nascoste; 4) capacità di filtrare il contenuto non necessario;
        5) applicazione di un metodo logico-deduttivo per risolvere
        caso; 6) applicazione del pensiero laterale per risolvere il
        caso
      - Si possono scrivere o (meglio) recuperare già fatti, sperando in
        licenze permissive. L’importante è che vi sia il testo ma anche
        la soluzione, possibilmente ben argomentata (Chain of Thoughts)

  - Cruciverba: meravigliosi esempi di definizioni complesse e ambigue
    delle parole italiane;

  - Indovinelli

  - Eccetera eccetera. Praticamente ogni materiale enigmistico potrebbe
    risultare utile. Inutile dire che un dump della *Settimana
    Enigmistica* sarebbe una risorsa fantastica, ma impossibile per
    chiare ragioni di copyright. In teoria tutti i numeri dal 1932 al
    1954 sono ormai di pubblico dominio, ma come recuperarli e
    digitalizzarli? Comunque, online si trova del materiale e anche qui
    si potrebbe generare oppure scrivere a enigmisti (come Giorgio
    Dendi, noto per gli enigmi che stimolano il **pensiero lateriale**)
    sperando che abbiano voglia di donare del vecchio materiale

### <span id="anchor-9"></span>Ragionamento filosofico

Fonte dal grandissimo potenziale.

Paragrafo da approfondire moltissimo, intanto, appunti (bozza\!\!\!) :

  - Logica: dataset di fallacie, dataset di ragionamenti \[studenti di
    filosofia?\]
  - Argomentazioni filosofiche, classiche e non. Esposizione, commento,
    critica, controargomentazioni… 
  - Estrazione dell’argomentazione da un testo
  - Dialoghi, discorsi… Questa potrebbe essere una risorsa fondamentale
    per le questioni legate all’etica: proporre un’argomentazione,
    confutarla, controargomentarla eccetera eccetra
  - Sia materiale di recupera ma sarebbe stupendo stendere testi, anche
    brevi, che però siano ottimi dal punto di vista dell’argomentazione
    filosofica

### <span id="anchor-10"></span>Ragionamento scientifico

(bozza\!\!\!) Problemi scientifici di qualsiasi tipo che necessitano di
un metodo di risoluzione logico rigoroso. Inutile fare esempi, se ne
possono fare a centinaia e tutti molto banali. Praticamente tutte gli
argomenti scientifici (matematica, logica, chimica…) offrono infinite
possibilità in questo campo. Sarebbe da capire come recuperarne una
grande quantità. Altrettanto interessante quando questo tipo di
ragionamento può estendersi a situazioni che non siano legate alle
scienze due o ingegneristiche ad esempio problemi di vita quotidiana, 

È interessante adottare metodi di ragionamento chiari ed espliciti:
individuare le premesse, mostrare le possibili alternative errate,
indicare proposte su come risolvere il problema ed eventualmente
falsificarle. Sfruttare Chain of Thought. 

### <span id="anchor-11"></span>Ragionamento “in generale”

(bozza\!\!\!) 

### <span id="anchor-12"></span>Dataset 4: Orientamento spaziale e altri task (piccolo)

Un dataset piccolo, molto più piccolo rispetto agli altri proposti, da
fare a mano lavorando per poco tempo anche in un piccolo gruppo. È un
dataset un po’ atipico che però può avere fondamenti scientifici validi,
riassumo superficialmente in poche righe, il tutto si potrebbe
argomentare decisamente meglio ma è giusto per dare un’idea:

**Tolman** negli anni “40 propone il concetto di *mappa cognitiva* per
spiegare perché i topi fossero in grado di orientarsi in labirinti
utilizzati in laboratorio e in particolare perché fossero in grado di
*trovare scorciatoie* per raggiungere gli obiettivi; l’idea è che i
mammiferi formino nel cervello una mappa dello spazio in cui si trovano
che gli consente di trovare percorsi vantaggiosi. Negli anni “80 i
coniugi **Moser** scoprono il sistema di orientamento
ippocampale-entorinale: *place cells* nell’ippocampo e in seguito *grid
cells *e altri neuroni specifici come *head cells* e altri ancora; molto
in breve, esistono neuroni che 1) si “accendono” quando ci si trova in
un determinato luogo (place cells) 2) complementari a questi c’è un
sistema di mappatura esagonale dello spazio (*grid cells*) che può
riprogrammarsi a seconda del compito e che fornisce metriche univoche di
distanza e direzione. **Bellmund et al, 2019**: studi relativi alla
possibilità che questo modello di mappe cognitive evidenziato nel
sistema ippocampale-entorinale sia in funzione anche nel pensiero
astratto: **mappe contettuali** analoghe a quelle spaziali. L’idea è che
“orientarsi” nei concetti sfrutti gli stessi meccanismi neuronali
utilizzati per orientarsi nello spazio: le nozioni di distanza
concettuale, iperonimia e iponimia, generalizzazione, clustering di
argomenti simili eccetera (tutte tematiche fondamentali per il NLU e che
potrebbero portare a fruttuose innovazioni *architetturali* dei modelli
oltre il Transformer vanilla) sono in questo paper collegate ai
meccanismi di orientamento spaziale. Anche il fatto che le metafore
concettuale si riferiscono spesso a dinamiche spaziali è a supporto di
questa tesi.

**Whittington, Behrens, **2022: RELATING TRANSFORMERS TO MODELS AND
NEURAL REPRESENTATIONS OF THE HIPPOCAMPAL FORMATION

Many deep neural network architectures loosely based on brain networks
have recently been shown to replicate neural firing patterns observed in
the brain. One of the most exciting and promising novel architectures,
the Transformer neural network, was developed without the brain in mind.
In this work, we show that transformers, when equipped with recurrent
position encodings, replicate the precisely tuned spatial
representations of the hippocampal formation; most notably place and
grid cells. Furthermore, we show that this result is no surprise since
it is closely related to current hippocampal models from neuroscience.
We additionally show the transformer version offers dramatic performance
gains over the neuroscience version. This work continues to bind
computations of artificial and brain networks, offers a novel
understanding of the hippocampal-cortical interaction, and suggests how
wider cortical areas may perform complex tasks beyond current
neuroscience models such as language comprehension.

Yamada et al, 2023: “Evaluating Spatial Understanding of Large Language
Models”

Mi scuso per la natura estremamente abbozzata di questo paragrafo, che
vorrei approfondire accuratamente e ritengo estremamente interessate.
Serve tuttavia a giustificare il tipo di task che vorrei proporre ovvero
**orientamento, con identificazione di percorsi ottimali, in ambienti
spaziali descritti in linguaggio naturale**.

Si possono prendere mappe di città, descriverle a diversi livelli di
granularità (zone con singole strade, intera città con quartieri e punti
cardinali) e: ad esempio: 1) Descrivere percorsi ottimi 2) Giungere a
conclusioni del tipo “se vado verso est *allora* mi trovo davanti a X” e
task di questo tipo.

Oltre a città, si può pensare anche a problemi di orientamento in luoghi
generici, come case, ambienti ristretti come ciò che si può vedere da
una finestra, luoghi immaginari (magari fare un disegno su carta per
evitare errori) eccetera. È un task divertente su cui si può usare molta
fantasia, l’unico requisito è rimanere coerenti e possibilmente scrivere
task difficili.

Task di questo tipo potrebbero essere interessanti sia per
l’addestramento che per il benchmark perché presuppongono abilità
complesse di generalizzazione e astrazione; potrebbero anche servire a
guidare eventuali innovazioni architetturali specialmente nel caso in
cui l’ipotesi esposta brevemente sopra del collegamento tra mappe
concettuali, analogie tra il sistema neuronale di orientamento spaziale
e concettuale e utilizzabilità di questi concetti da parte di modelli
ANN fosse rafforzata.

### <span id="anchor-13"></span>Dataset 5: Brevi testi estremamente curati

Coinvolgere i docenti universitari in un lavoro tipo LLMentor?
[*https://github.com/manalog97/LLMentor*](https://github.com/manalog97/LLMentor)

Vedi anche: [*L’ipotetica piattaforma di
crowdsourcing*](#4.L’Ipotetica%20piattaforma%20di%20crowdsourcing|outline)
in particolare “Donazione di tesi e appunti”

### <span id="anchor-14"></span>Dataset 5...∞: Idee?

# <span id="anchor-15"></span>I dataset “grandi” di pretraining – Lo scraping

### <span id="anchor-16"></span>I “grandi classici”

Inutile ora dilungarsi troppo: Wikipedia, Wikisource, Wikitionary
eccetera eccetera. Da prendere così come sono. Ovviamente non sono
perfetti, possiamo stare a trovare infinite criticità ma credo siano un
punto di partenza perfetto.

### <span id="anchor-17"></span>Libri di pubblico dominio

Inutile stare ad argomentare ora perché sono importanti. **Liber Liber**
è una fantastica risorsa con circa 4500 libri di pubblico dominio pronti
per essere inseriti nel dataset. Il lavoro è praticamente completato: un
annetto fa, più per esercizio personale che altro, avevo rifatto il sito
di liber liber passando dal loro sistema basato su campi di testo a un
più efficiente DB relazionale. Il lavoro non è più andato avanti perché
non c’è stato un grande interesse da parte della comunità di Liber
Liber; in compenso, avendo già questo DB con tutti i libri di Liber
Liber fino a Maggio 2023 circa, è stato semplice scaricare tutti i Link.
Ringrazio Ruggero per la deduplicazione. Il dataset è già su HF ma
purtroppo per uno stupido errore circa 1000 libri sono mancanti.
Risolverò la cosa il prima possibile, è molto facile recuperare gli
altri.

Vanno recuperati anche da altre risorse\! Project Gutenberg in Italiano
è un punto di partenza ma poi, andando a cercare nei cataloghi delle
biblioteche online, si possono trovare tante altre risorse\! Il problema
più grave è quello relativo a scansioni e OCR.

### <span id="anchor-18"></span>Usenet e forum

Effettuare lo scraping di fora online è una pratica ampiamente
utilizzata nella creazione di dataset per l’addestramento di modelli
linguistici. Nei dataset in inglese attualmente esistenti, si nota come
Reddit, Quora e StackExchange (piattaforme “moderne”) siano spesso fonti
di testo ampiamente presenti nei dati di addestramento.

I fora \[approfondimenti su cosa sono, storia eccetera rimandati a
eventuali documenti successivi\] sono una risorsa interessante da
includere in un dataset di pretraining. Ci sono degli aspetti
problematici come la non verificabilità delle informazioni presenti al
loro interno, la possibile presenza di linguaggio tossico e litigi,
spesso offensivi (*flame*) tra utenti; nel caso di Usenet c’è anche un
certo quantitativo di spam, fortunatamente facilmente identificabile, e
la presenza di un linguaggio in certi casi per nulla moderato.
Nonostante questi problemi, tuttavia sono anche tanti i punti a sostegno
dell’inclusione di questo materiale nei dataset: i fora sono spesso una
miniera di informazioni, dettagliate, precise, fornite negli anni da
gruppi di utenti particolarmente appassionati ed esperti su specifici
argomenti. È possibile trovare al loro interno informazioni non
ottenibili altrimenti, frutto spesso di pratica e di esperienze
personali. Le informazioni sono organizzate in *discussioni*, quindi
seguendo un modello dialogico, il che è importante nell’addestramento di
modelli linguistici specie nell’ottica di sviluppare assistenti
virtuali. Ci sono fora riguardanti specifici argomenti e, in particolare
quando tale argomento è molto delineato, si possono trovare discussioni
tecniche di altissimo livello e, spesso, corrette anche perché
sottoposte al vaglio di numerosi altri utenti che eventualmente possono
dibattere e commentare. Questo dibattito e commento è certamente
istruttivo per i modelli nel riuscire ad esporre i concetti
argomentandoli e sottoponendoli a critiche. La discussione sui vantaggi
dei forum per l’addestramento può andare avanti, ma intato,
ricapitoliamo il lavoro fatto e da fare in merito:

#### <span id="anchor-19"></span>Usenet

Scriverò una bella introduzione su Usenet, per ora, basta ricordare che
si tratta di una piattaforma distribuita (non centralizzata) facente
parte della primissima generazione di Internet, essendo stata sviluppata
negli anni Settanta, ben prima della nascita del web. Per quanto
riguarda l’Italia, siamo riusciti a raccogliere contenuti dal 1994, anno
di nascita della gerarchia “\*.it”. L’archivio più grande di discussioni
Usenet è presente sulla piattaforma “Google Groups” di Google,
piattaforma tra l’altro che proprio il 22 Febbraio di quest’anno ha
cessato di raccogliere nuovi contenuti.

Un lavoro molto dispendioso in termini di tempo e di risorse
computazionali per effettuare lo scraping delle gerarchie “\*.it” e
“\*.italia” dalle pagine di Google Groups è stato effettuato dal
sottoscritto a Febbraio 2024. Lo scraping è stato effettuato con degli
script Python basati sulla libreria Selenium [che verranno resi
disponibili su GitHub](https://github.com/manalog97/GGetter). Il
risultato è un archivio di circa 75GB contenente XXX discussioni divise
in XXX newsgroup tematici. [In appendice la gerarchia dei newsgroup
scaricati.](#7.3.Statistiche%20temporanee%20scraping%20di%20Usenet:|outline)
Seguiranno a breve delle statistiche sul materiale scaricato come:
quantità di conversazioni, quantità di messaggi, quantità di messaggi
per newsgroup, quantità di messaggi per anno, quantità di messaggi per
newsgroup e anno e così via.

Come si evince osservando la gerarchia, le tematiche trattate sono
svariate e abbracciano un arco diacronico particolarmente lungo (circa
trent’anni). I newsgroup hanno conosciuto un calo di popolarità dopo il
2012 circa a causa del diffondersi dei social network (centralizzati e
proprietari) ma comunque è presente un significativo numero di messaggi
anche relativi all’ultimo decennio.

Attualmente per ogni newsgroup esiste un file JSON contentente tutti i
dati necessari all’organizzazione dei messaggi nel newsgroup:

{title, original\_url, newsgroup, messages: \[author, day, month, year,
hours, minute, am/pm, text\]}

Prima del caricamento su Hugging Face, che avverrà in settimana, i dati
saranno riorganizzati in file JSONL aventi come struttura:

{title, author, id, progressive\_number, endflag, timestamp, newsgroup,
original\_url, text}

Dove progressive\_number rappresenta l’andamento della discussione (a
partire da “0” per il primo messaggio) e il dato booleano endflag vale 1
se si è arrivati all’ultimo messaggio della discussione. Il timestamp
sarà in formato ISO-8601-1

Si tratta di una struttura dati altamente inefficiente e ridondante
(campi come title, original\_url, newsgroup saranno ripetuti milioni di
volte) ma al momento è l’unica soluzione pensata per rendere il dataset
facilmente fruibile su HuggingFace. La struttura più adatta al dataset
sarebbe sicuramente quella di un DB relazionale:

Conversazioni (id,titolo,newsgroup,url)

Messaggi(id,id\_conversazione,autore,dataeora,testo) 

ma al momento questa strada non sembra essere percorribile sulla
piattaforma HuggingFace.

La compressione con buoni algoritmi come LZMA2 o Bzip2 consentono
tuttavia di ovviare a questa ridondanza in termini di occupazione di
spazio su disco.

Il dataset di Usenet è già completo, al momento conservato su un hard
disk esterno e in settimana sarà caricato su HuggingFace e Archive.org.
Potrebbe risultare il dataset in Italiano per task di NLP più grande tra
quelli liberamente disponibili.

Ringrazio *Ruggero* per il costruttivo confronto durante questo progetto
e per avere scaricato gli ultimi due *giga* di materiale quando le mie
risorse computazionali non erano più sufficienti, oltre che per aver
evidenziato il problema dell’usare il JSON originale come dataset di
HuggingFace.

#### <span id="anchor-20"></span>Forum

Ho scritto uno script Python, basato su Beautiful Soup, adatto a
scaricare per intero qualsiasi forum. Occorre solo individuare dei campi
specifici con un browser internet (div con contenuto, div con titolo,
tag che individuano autore e data, meccanismo di paginazione, logica
dell’URL, numero massimo di discussioni), inserirli nello script ed
eseguirlo.

Ho fatto partire ieri lo scraping di alcuni piccoli forum:
matematicamente (matematica), analogica (fotografia) e electroyou
(elettronica) per testare lo script e sembra funzionare tutto
correttamente. Sto compilando una lista di forum che potrebbe valer la
pena scaricare, indicativamente si riusciranno a ottenere in questo modo
altri 30GB circa di materiale testuale. A differenza di Usenet, qui
potrebbero sorgere questioni legate al copyright pertanto *sarebbe bene
sentire al più presto un esperto di diritto.*

### <span id="anchor-21"></span>Riviste accademiche delle Università italiane

Punto da approfondire; comunque: ho scoperto che quasi tutte le
università italiane hanno portali di questo tipo: 

<https://ojs.unito.it/>

<https://rosa.uniroma1.it/>

<http://www.serena.unina.it/> 

eccetera eccetera.

Sono riviste di altissima qualità, su tematiche accademiche specifiche e
complesse che sarebbero una risorsa magnifica per i dataset di
pretraining. Una risorsa così tanto di qualità è probabilmente assente
anche in rinomati dataset americati. *Bisogna capire la questione
copyright: sono tendenzialmente in open access e licenza CC-BY-SA-ND*.
Possiamo inserirle nei dataset?

## <span id="anchor-22"></span>Concorsi pubblici

Sito scoperto per caso proprio oggi mentre scrivevo questo documento: 

<https://www.concorsipubblici.com/quiz/categorie/comprensione-di-testi-1731>

Una miniera di risorse perfette per creare dataset di instruction
finetuning. Numerosi esempi di comprensione del testo. Che ne pensate?
Comincio volentieri a riflettere su come effettuare uno scraping
sensato.

## <span id="anchor-23"></span>Materiale legale di pubblico dominio 

Sentenze, atti di processo, codici...

### <span id="anchor-24"></span>Altro materiale online (senza esagerare… inutile pensare di rifare a mano Common Crawl)

…………….Possiamo scrivere una grande lista

# <span id="anchor-25"></span>L’Ipotetica piattaforma di crowdsourcing

\[BOZZA\!\!\!\]

Punto importante, ma anche questo verrà lasciato qui solo abbozzato.
Però:

1.  [LLMentor](https://github.com/manalog97/LLMentor): possibile
    piattaforma indirizzata a persone del mondo accademico

2.  Espandere LLMentor con accesso a studenti universitari che
    potrebbero:
    
    1.  “Donare” la loro tesi
    2.  “Donare” i loro appunti
    3.  Scrivere coppie domande e risposte
    4.  Valutare le prestazioni dei modelli esistenti
    5.  Discutere tra di loro

3.  Una sottosezione di LLMentor potrebbe essere aperta al pubblico
    generale con vari task simil-Amazon Mechanical Turk/LabelStudio come
    
    1.  Proporre domande generaliste
    2.  Effettuare valutazioni

Punto da approfondire molto\! 

Comunque, è naturale che un progetto di crowdsourcing opensource
rispetto a un progetto con annotatori pagati fornirà risultati di
qualche ordine di grandezza inferiore. È inoltre ancora più difficile a
causa del fatto che, al fine di privilegiare la qualità, si stia anche
facendo una selezione sugli ipotetici volontari (universitari,
dottorandi, docenti…) Tuttavia, credo che possa valere la pena provare a
patto di non investire troppe risorse nella piattaforma (La base di
LLMentor è quasi pronta, codice semplice scritto a mano ma funzionante)
dal momento che:

1.  C’è un grande interesse del pubblico generale per questa tecnologia;
2.  Si potrebbe contribuire anche con una quantità molto piccola di
    tempo, come pochi minuti per caricare materiale come tesi e appunti
    o poche ore per scrivere qualche decina di domande e risposte;
3.  Si potrebbero fornire considerazioni etiche che possano far capire a
    un pubblico di studenti sensibili quanto sarebbe utile contribuire
    allo sviluppo di modelli aperti, di qualità e multiculturali

Da brevi discussioni informali fatte nell’ambiente universitario, sembra
che ci siano studenti che parteciperebbero volentieri a un progetto
simile. Sono molti gli esempi di progetti senza fini di lucro nel web
che poi portano a risultati considerevoli, come Wikipedia o la
piattaforma di calcolo distribuito “Boinc”. Motivare i volontari,
ringraziarli e magari farli divertire con idee stimolanti e *gamificare*
il tutto con punti e classifiche potrebbe portare a una discreta
adozione. Si potrebbero inoltre incollare volantini ben fatti nelle
varie Università italiane e magari sperare nella collaborazione delle
Università stesse.

# <span id="anchor-26"></span>Sintetico o naturale?

\[BOZZA\!\!\!\]

Scriverò qualcosa sulla questione dataset sintetico e naturale, per ora,
appunti:

  - Ovviamente avere una grande mole di dati in naturale è estremamente
    complesso;
  - I dati naturali sono però ancora al momento insostituibili.
    Esagerare con i sintetici può portare alla “Mucca Pazza”. Con i
    sintetici continueremmo inoltre ad avere il problema
    dell’appiattimento sulla cultura angloamericana (forse Mistral
    migliora le cose?);
  - Si potrebbe però provare ad estendere i dati con metodologie
    sintetiche, basate però sulla riproduzione dei “nostri” piccoli
    dataset di finetuning curati, in modo da avere un maggior controllo
    sulla qualità rispetto che lasciare i modelli “a ruota libera”

# <span id="anchor-27"></span>Problemi aperti

  - Copyright\!
  - Molto altro...

# <span id="anchor-28"></span>Appendici:

## <span id="anchor-29"></span>Un “appoggio” di link con materiale didattico

Scrivendo questa bozza, mi sono imbattuto in alcuni siti con materiale
didattico per le scuole che potrebbe essere utile tenere in
considerazione. In gran parte si tratta di siti molto vecchi e quindi i
problemi di copyright potrebbero essere più gestibili.

Questi link non sono *assolutamente* esaustivi, sono stati trovati oggi
in pochi minuti; invito a cercare più materiale.

  - <https://digilander.libero.it/italianonelbiennio/>
  - <https://digilander.libero.it/uraniaceleste/>
  - <http://www.lineadidattica.altervista.org/materiali_didattici.html>
  - <https://rossanaweb.altervista.org/blog/area-studenti/esercizi-online/esercizi-online-di-italiano/>
  - <https://www.profgiuseppebettati.it/>
  - <http://www.apprendendo.altervista.org/italiano.html>
  - <https://italianoperstranieri.altervista.org/>
  - <https://www.profwaltergalli.it/per-i-docenti/mediatori-didattici-sottosezioni-da-1-a-7/1-siti-didattici-per-tutte-le-discipline/>
  - <http://www.apprendendo.altervista.org/didattica%20online.html>
  - <https://library.weschool.com/> **(\!\!\!)**
  - <https://italianoinlinea.com/cruciverba-per-imparare-litaliano/>
  - <https://digilander.libero.it/sussidi.didattici/>
  - <http://www.bibliolab.it/lessico/lessico_index.htm>
  - <https://www.guamodiscuola.it/2014/01/testo-argomentativo-materiali-didattici.html>
  - <http://www.storiadellaletteratura.it/> **(\!\!\!)**
  - <https://www.dropbox.com/s/tcy2j8nma5hmr1j/LAVORO%20SUL%20TESTO%20-%20Percorso%20didattico%20su%20Pinocchio.pdf?e=1&dl=0>
  - <https://www.fabrizioaltieri.it/wordpress/tutti-i-miei-libri-per-ragazzi/battello-a-vapore/serie-azzurra/comprensione-del-testo-scuola-primaria/6-brani-con-verifica-sulla-comprensione-del-testo/>

Appoggio di link enigmistica:

  - <https://cruciverba.io/soluzioni-recenti>
  - <https://www.nostrofiglio.it/famiglia/indovinelli-difficili-per-adulti>
  - <https://www.enigmatopia.it/category/giochi-a-enigmi-online/la-strada-per-enigmatopia/>
  - <https://yesnogame.net/it>
  - <https://utenti.quipo.it/base5/penslate/latmate.htm> **(\!)**
  - <https://utenti.quipo.it/base5/penslate/latclass.htm>

## <span id="anchor-30"></span>Task linguistici (ispirati da vecchi siti di materiale didattico trovati online):

<table>
<tbody>
<tr class="odd">
<td>Tipologia</td>
<td>Attività</td>
<td>Obiettivi</td>
<td>Proposte operative</td>
</tr>
<tr class="even">
<td><strong>Cancellazione</strong> </td>
<td>Riconoscere le parole incluse arbitrariamente in un testo</td>
<td>Sviluppare la riflessione sul lessico, in base al criterio della pertinenza del singolo elemento linguistico, rispetto all’insieme.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P1.html#eutropio"><strong>P1</strong></a></td>
</tr>
<tr class="odd">
<td><strong>Cloze</strong> </td>
<td><p>Inserire in un testo le parole mancanti, fornite in sequenza casuale.</p>
<p> </p></td>
<td>Promuovere la competenza testuale e la capacità inferenziale, mediante il preventivo riconoscimento della categoria grammaticale da inserire.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P2.html#seneca"><strong>P2</strong></a></td>
</tr>
<tr class="even">
<td><strong>Decontaminazione</strong> </td>
<td>Distinguere gli elementi testuali che appartengono a due differenti testi.</td>
<td>Rafforzare la competenza testuale, sulla base del riconoscimento dei fattori di coerenza e coesione.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P3.html#aurelio"><strong>P3</strong></a></td>
</tr>
<tr class="odd">
<td><strong>Esplicitazione</strong> </td>
<td>Collegare ogni pronome, presente nel testo, al proprio referente.</td>
<td>Promuovere il riconoscimento dei fattori che determinano la coesione testuale.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P4.html#igino"><strong>P4</strong></a></td>
</tr>
<tr class="even">
<td>Griglia</td>
<td>Individuare l’intersezione delle variabili (riconducibili a un testo dato) rappresentate sugli assi di una matrice.</td>
<td><p>Potenziare la comprensione del livello denotativo e connotativo.</p>
<p> </p></td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P5.html#Favole"><strong>P5</strong></a></td>
</tr>
<tr class="odd">
<td>Incastro</td>
<td>Ricostruire l’esatta sequenza delle parole di un testo, presentate in ordine casuale.</td>
<td>Sviluppare la competenza morfo-sintattica.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P6.html#isidoro"><strong>P6</strong></a></td>
</tr>
<tr class="even">
<td>Riassunto</td>
<td>Ridurre un testo ai nuclei informativi essenziali, da riprodurre secondo una formulazione personale.</td>
<td>Incentivare la capacità di riconoscere la gerarchia delle informazioni essenziali, mettendo in atto la globalità dei processi cognitivo-linguistici.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P7.html#P7%20Aviano"><strong>P7</strong></a></td>
</tr>
<tr class="odd">
<td>Ricostruzione</td>
<td>Riprodurre la corretta sequenza dei paragrafi di un testo, proposti in ordine casuale.</td>
<td>Potenziare le strategie del processo di comprensione, mediante il riconoscimento dei fattori che determinano la coerenza testuale.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P8.html#manilio"><strong>P8</strong></a></td>
</tr>
<tr class="even">
<td>Scelta multipla</td>
<td>Individuare la risposta corretta, selezionandola tra le varie opzioni date.</td>
<td>Guidare il percorso di comprensione</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P9.html#plinio"><strong>P9</strong></a></td>
</tr>
<tr class="odd">
<td><strong>Suddivisione</strong> </td>
<td>Dividere un testo in sequenze e assegnare una titolazione pertinente.</td>
<td>Potenziare le abilità di lettura e comprensione.</td>
<td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P10.html#cesare"><strong>P10</strong></a></td>
</tr>
</tbody>
</table>

I giochi linguistici 

Proponiamo una serie di possibili esercizi, tutti sul medesimo testo di
riferimento, che è il seguente: 

Un topolino correva avanti e indietro sopra il corpo di un leone
addormentato. Quello si svegliò e afferratolo stava per mangiarselo. Ma
il topolino lo scongiurò di lasciarlo libero, dicendogli che se lo
avesse salvato gli avrebbe ricambiato il favore; il leone sorrise e lo
lasciò andare. Non molto tempo dopo il leone fu catturato da alcuni
cacciatori che lo legarono con una corda ad un albero. Il topolino, che
aveva sentito i suoi lamenti, rosicchiò la corda e lo liberò,
dicendogli: “Un giorno tu sorridesti di me, pensando che io non fossi in
grado di ricambiare il favore. D’ora innanzi, invece, sarai convinto che
esiste la gratitudine anche presso i topi”.  
  

## <span id="anchor-31"></span>Statistiche *temporanee* **scraping di Usenet:**

Mancano ancora dei newsgroup da sistemare, ma sono già stati scaricati
tutti. La gerarchia \*italia (discussioni locali) non è al momento
presente in statistica. La colonna a destra indica il numero di
conversazioni NON quello dei singoli messaggi (maggiore), che sarà
presente in una statistica successiva. Alcuni gruppi purtroppo sono
andati perduti perché censurati da Google Groups, forse a causa di
troppo spam. 

***Totale singole conversazioni: 13.098.235***

***Totale singoli messaggi: ****da calcolare***

|                                            |        |
| ------------------------------------------ | ------ |
| it.politica                                | 813646 |
| it.sport.calcio.milan                      | 442317 |
| it.economia.borsa                          | 363459 |
| it.discussioni.auto                        | 209997 |
| it.sport.calcio.roma                       | 181430 |
| it.sport.calcio                            | 166006 |
| it.comp.hardware                           | 163391 |
| it.sport.calcio.napoli                     | 160256 |
| it.media.tv                                | 157839 |
| it.media.tv                                | 157839 |
| it.arti.fotografia.digitale                | 155799 |
| it.comp.macintosh                          | 155526 |
| it.comp.aiuto                              | 152643 |
| it.hobby.motociclismo                      | 146326 |
| it.politica.internazionale                 | 144392 |
| it.hobby.fai-da-te                         | 138488 |
| it.hobby.satellite-tv.digitale             | 137842 |
| it.comp.os.linux.iniziare                  | 133170 |
| it.tlc.cellulari                           | 127660 |
| it.hobby.viaggi                            | 123933 |
| it.comp.lang.visual-basic                  | 116373 |
| it.arti.cinema                             | 115803 |
| it.arti.fotografia                         | 114277 |
| it.politica.pds                            | 111191 |
| it.arti.musica.strumenti.chitarra          | 111186 |
| it.comp.console.playstation                | 110042 |
| it.sport.calcio.inter-f                    | 109206 |
| it.tlc.telefonia.adsl                      | 104615 |
| it.sport.calcio.juventu                    | 99951  |
| it.discussioni.commercialisti              | 97636  |
| it.hobby.umorismo                          | 93120  |
| it.sport.calcio.inter                      | 90076  |
| it.sesso.discussioni                       | 89924  |
| it.media.video.produzione                  | 87382  |
| it.media.video.produzione                  | 87382  |
| it.hobby.home-cinema                       | 86245  |
| it.politica.polo                           | 85440  |
| it.hobby.cucina                            | 83914  |
| it.discussioni.litigi                      | 83910  |
| it.diritto                                 | 83162  |
| it.comp.appl.access                        | 81615  |
| it.lavoro.informatica                      | 80338  |
| it.comp.giochi.action                      | 79174  |
| it.comp.hardware.cd                        | 78026  |
| it.sport.calcio.torino                     | 75571  |
| it.hobby.totoscommesse                     | 73750  |
| it.comp.hardware.palmari                   | 72702  |
| it.hobby.acquari                           | 70399  |
| it.hobby.radioamatori                      | 69671  |
| it.arti.musica.rock                        | 66746  |
| it.discussioni.misteri                     | 65335  |
| it.discussioni.animali.cani                | 64745  |
| it.discussioni.consumatori.tutela          | 63063  |
| it.comp.os.win.xp                          | 61986  |
| it.comp.hardware.overclock                 | 61654  |
| it.arti.musica.classica                    | 60054  |
| it.comp.hardware.motherboard               | 59410  |
| it.cultura.filosofia                       | 59056  |
| it.sport.formula1                          | 58454  |
| it.sport.calcio.fiorentina                 | 57847  |
| it.cultura.religioni                       | 56980  |
| it.arti.cartoni                            | 55926  |
| it.arti.cartoni                            | 55926  |
| it.cultura.single                          | 55807  |
| it.hobby.motociclismo.scooter              | 55368  |
| it.arti.musica.metal                       | 54985  |
| it.istruzione.scuola                       | 54978  |
| it.lavoro.professioni.webmaster            | 51924  |
| it.hobby.lotto                             | 51225  |
| it.comp.giochi.annunci                     | 50366  |
| it.comp.os.win.win2000                     | 49655  |
| it.sport.calcio.genoa                      | 49590  |
| it.sport.ciclismo                          | 48954  |
| it.sport.basket                            | 48588  |
| it.comp.java                               | 48529  |
| it.hobby.satellite-tv                      | 48464  |
| it.scienza.matematica                      | 48441  |
| it.comp.grafica                            | 48046  |
| it.comp.grafica                            | 48046  |
| it.aiuto                                   | 47043  |
| it.fan.startrek                            | 46051  |
| it.comp.reti.locali                        | 45922  |
| it.cultura.libri                           | 45065  |
| it.lavoro.offerte                          | 44256  |
| it.hobby.scacchi                           | 42853  |
| it.arti.fumetti                            | 42337  |
| it.arti.poesia                             | 42264  |
| it.comp.giochi.sportivi.hattrick           | 40515  |
| it.hobby.hi-fi                             | 39229  |
| it.comp.hardware.cpu                       | 38584  |
| it.arti.musica                             | 38508  |
| it.discussioni.geometri                    | 38245  |
| it.discussioni.folli                       | 37954  |
| it.comp.www.php                            | 37754  |
| it.comp.os.linux.sys                       | 36822  |
| it.fan.culo                                | 36741  |
| it.arti.musica.rock.progressive            | 35932  |
| it.fan.studio-vit                          | 35841  |
| it.hobby.elettronica.riparazioni           | 34833  |
| it.sesso.racconti                          | 34601  |
| it.comp.giochi.simulatori.volo             | 34370  |
| it.hobby.modellismo                        | 34289  |
| it.comp.lang.javascript                    | 34100  |
| it.comp.hardware.modem                     | 34100  |
| it.politica.ulivo                          | 33218  |
| it.discussioni.varie                       | 33189  |
| it.discussioni.leggende.metropolitane      | 32435  |
| it.lavoro.consulenti                       | 32354  |
| it.lavoro.consulenti                       | 32354  |
| it.sport.motociclismo                      | 32179  |
| it.discussioni.ufo                         | 32115  |
| it.hobby.scuba                             | 32080  |
| it.sport.calcio.sampdoria                  | 32062  |
| it.sport.calcio.estero                     | 31568  |
| it.diritto.condominio                      | 31507  |
| it.hobby.hi-fi.car                         | 31383  |
| it.lavoro.mlm                              | 31104  |
| it.comp.retrocomputing                     | 30864  |
| it.comp.os.win.win9x                       | 30332  |
| it.sport.windsurf                          | 30327  |
| it.comp.giochi.rpg                         | 30293  |
| it.salute                                  | 29591  |
| it.hobby.pescare                           | 29380  |
| it.fan.musica.queen                        | 29297  |
| it.hobby.cicloturismo                      | 29165  |
| it.comp.musica                             | 27983  |
| it.cultura.linguistica.italiano            | 27052  |
| it.hobby.armi                              | 26886  |
| it.sport.montagna                          | 26538  |
| it.cultura.storia                          | 26527  |
| it.scienza.astronomia                      | 26502  |
| it.discussioni.ingegneria                  | 26406  |
| it.comp.os.linux.software                  | 26333  |
| it.cultura.cattolica                       | 26304  |
| it.comp.lang.delphi                        | 26233  |
| it.comp.software.emulatori                 | 25796  |
| it.arti.musica.strumenti.tastiere          | 25368  |
| it.hobby.giardinaggio                      | 25263  |
| it.hobby.nautica                           | 24857  |
| it.fan.musica.u2                           | 24640  |
| it.comp.grafica.photoshop                  | 24140  |
| it.arti.musica.jazz                        | 24069  |
| it.tlc.telefonia                           | 23882  |
| it.comp.hardware.storage                   | 23755  |
| it.scienza.medicina                        | 23685  |
| it.annunci.usato                           | 23266  |
| it.comp.lang.c++                           | 23133  |
| it.economia.investire                      | 22883  |
| it.sport.arti-marziali                     | 22422  |
| it.economia                                | 22318  |
| it.fan.tv                                  | 22296  |
| it.comp.giochi.sportivi                    | 21990  |
| it.arti.fotografia.segnalazioni            | 21763  |
| it.arti.ballo.lat-americano                | 21752  |
| it.comp.os.win.software                    | 21732  |
| it.hobby.elettronica.digitale              | 21477  |
| it.tlc.gestori.fastweb                     | 20801  |
| it.tlc.cellulari.motorola                  | 20757  |
| it.arti.architettura                       | 20718  |
| it.discussioni.auto.ford                   | 20655  |
| it.sport.americani                         | 20447  |
| it.comp.software.cad                       | 20264  |
| it.cultura.religioni.cristiani             | 20107  |
| it.sport.tennis                            | 19571  |
| it.sport.tenni                             | 19565  |
| it.sociale.obiezione                       | 19478  |
| it.sociale.obiezione                       | 19478  |
| it.comp.musica.mp3                         | 19370  |
| it.comp.giochi.simulatori                  | 19330  |
| it.cultura                                 | 19310  |
| it.arti.fantasy                            | 18856  |
| it.discussioni.motori                      | 18653  |
| it.economia.borsa.estero                   | 18547  |
| it.scienza.fisica                          | 18486  |
| it.sport.formula1.moderato                 | 18463  |
| it.comp.hardware.schede-audio              | 18444  |
| it.cultura.linguistica.inglese             | 18266  |
| it.comp.programmare.win32                  | 18116  |
| it.arti.musica.strumenti.basso             | 17892  |
| it.diritto.assicurazioni                   | 17855  |
| it.tlc.gestori.vodafone                    | 17726  |
| it.cultura.fantascienza                    | 17673  |
| it.arti.hiphop                             | 17465  |
| it.fan.radio.deejay                        | 17463  |
| it.comp.sicurezza.windows                  | 17393  |
| it.fan.starwars                            | 17292  |
| it.fan.musica.lucio-battisti               | 17218  |
| it.fan.musica.lucio-battisti               | 17218  |
| it.cultura.horror                          | 17202  |
| it.comp.www                                | 17033  |
| it.comp.reti.wireless                      | 17004  |
| it.discussioni.ristoranti                  | 16865  |
| it.comp.software.newsreader                | 16808  |
| it.hobby.enigmi                            | 16422  |
| it.tlc.gestori.wind                        | 16332  |
| it.sport.nuoto                             | 16326  |
| it.comp.sicurezza.varie                    | 16324  |
| it.sport.sci                               | 16167  |
| it.arti.musica.strumenti                   | 16076  |
| it.arti.cartoni.mercatino                  | 16052  |
| it.hobby.fantasport                        | 15991  |
| it.news.net-abuse                          | 15872  |
| it.news.net-abuse                          | 15872  |
| it.fan.musica.battiato                     | 15711  |
| it.discussioni.sessualita                  | 15706  |
| it.discussioni.sentimenti                  | 15683  |
| it.hobby.giochi.gdr.dnd                    | 15551  |
| it.fan.tv.friends                          | 15421  |
| it.cultura.storia.militare                 | 15157  |
| it.comp.reti.cisco                         | 15121  |
| it.sport                                   | 14835  |
| it.tlc.telefonia.voip                      | 14752  |
| it.fan.tv.buffy                            | 14718  |
| it.sociale.scout                           | 14284  |
| it.comp.lang.c                             | 14053  |
| it.hobby.vino                              | 13967  |
| it.cultura.antagonista                     | 13739  |
| it.discussioni.ingegneria.civile           | 13469  |
| it.fan.musica.baglioni                     | 13404  |
| it.cultura.militare                        | 13391  |
| it.hobby.satellite-tv.digitale.mod         | 13190  |
| it.diritto.internet                        | 13136  |
| it.cultura.newage                          | 13085  |
| it.hobby.radio-cb                          | 12981  |
| it.istruzione.universita.ingegneria        | 12943  |
| it.scienza.ambiente                        | 12917  |
| it.discussioni.psicologia                  | 12798  |
| it.news.gruppi                             | 12772  |
| it.tlc.gestori.tim                         | 12735  |
| it.comp.software.database                  | 12364  |
| it.comp.hardware.dvd                       | 12326  |
| it.economia.banche                         | 12283  |
| it.news.aiuto                              | 12280  |
| it.comp.reti.ip-admin                      | 12011  |
| it.comp.software.mailreader                | 12001  |
| it.politica.destra                         | 11946  |
| it.comp.hardware.scsi                      | 11921  |
| it.scienza.chimica                         | 11799  |
| it.fan.scrittori.tolkien                   | 11513  |
| it.discussioni.droghe                      | 11442  |
| it.discussioni.giustizia                   | 11430  |
| it.discussioni.giustizia                   | 11430  |
| it.fan.stephen-king                        | 11412  |
| it.comp.os.win.nt                          | 11132  |
| it.comp.programmare                        | 10535  |
| it.sport.atletica                          | 10473  |
| it.fan.musica.ligabue                      | 10305  |
| it.hobby.home-cinema.titoli-dvd            | 10099  |
| it.discussioni.auto.mod                    | 10083  |
| it.istruzione.universita                   | 9870   |
| it.istruzione.universita                   | 9870   |
| it.discussioni.energie-alternative         | 9817   |
| it.hobby.audiovisivi                       | 9781   |
| it.cultura.ebraica                         | 9775   |
| it.scienza.biologia                        | 9612   |
| it.salute.alimentazione                    | 9202   |
| it.salute.alimentazione                    | 9202   |
| it.fan.musica                              | 9082   |
| it.tlc.gestori.telecom                     | 9012   |
| it.cultura.letteratura.italiana            | 9006   |
| it.comp.appl.macromedia                    | 9002   |
| it.comp.os.linux.development               | 8943   |
| it.lavoro.prevenzione                      | 8879   |
| it.scienza.astronomia.amatoriale           | 8861   |
| it.arti.varie                              | 8842   |
| it.comp.software.shareware                 | 8501   |
| it.comp.os.amiga                           | 8491   |
| it.comp.giochi.avventure.testuali          | 8469   |
| it.lavoro.richieste                        | 8465   |
| it.hobby.piante.cactus                     | 8273   |
| it.politica.cattolici                      | 8271   |
| it.discussioni.animali                     | 8223   |
| it.sociale.handicap                        | 8120   |
| it.cultura.religioni.bahai                 | 8108   |
| it.discussioni.sogni                       | 8066   |
| it.comp.software.divx                      | 8014   |
| it.hobby.radioascolto                      | 7920   |
| it.comp.software.tex                       | 7810   |
| it.comp.giochi.sviluppo                    | 7722   |
| it.fan.musica.rem                          | 7672   |
| it.associazioni.cri                        | 7652   |
| it.hobby.armi.moderato                     | 7427   |
| it.comp.os.dibattiti                       | 7380   |
| it.comp.os.win.windows7                    | 7295   |
| it.politica.sinistra                       | 7282   |
| it.comp.giochi.rpg.ultimaonline            | 7227   |
| it.discussioni.agricoltura                 | 7205   |
| it.comp.os.linux.debian                    | 7162   |
| it.hobby.vari                              | 7139   |
| it.comp.lang.perl                          | 7132   |
| it.comp.appl.notes-domino                  | 7058   |
| it.comp.appl.notes-domino                  | 7058   |
| it.faq                                     | 7030   |
| it.hobby.aquiloni                          | 7006   |
| it.fan.tv.dawsons-creek                    | 6972   |
| it.sport.calcio.palermo                    | 6903   |
| it.comp.hardware.palmari.gps               | 6823   |
| it.fan.musica.springsteen                  | 6627   |
| it.tlc.provider                            | 6558   |
| it.news.annunci                            | 6470   |
| it.cultura.cybersocieta                    | 6428   |
| it.discussioni.giallo                      | 6332   |
| it.fan.musica.carmen-consoli               | 6238   |
| it.comp.software.emulatori.console-recenti | 6224   |
| it.discussioni.iso9000                     | 6217   |
| it.sport.rally                             | 6146   |
| it.fan.tv.er                               | 6107   |
| it.comp.os.win.windows10                   | 6106   |
| it.comp.os.win.windows10                   | 6106   |
| it.industria.elettrotecnica.normative      | 5998   |
| it.fan.musica.elio                         | 5922   |
| it.hobby.viaggi.inter-rail                 | 5905   |
| it.hobby.viaggi.inter-rail                 | 5905   |
| it.cultura.filosofia.moderato              | 5871   |
| it.fan.musica.de-andre                     | 5714   |
| it.media.tv.fantascienza                   | 5622   |
| it.news.moderazione                        | 5462   |
| it.cultura.linguistica                     | 5389   |
| it.comp.software.browser                   | 5368   |
| it.sociale.adozione                        | 5354   |
| it.scienza.astronomia.seti                 | 5266   |
| it.cultura.linguistica.giapponese          | 5208   |
| it.comp.lang.vo-clipper                    | 5179   |
| it.sociale.primosoccorso                   | 5155   |
| it.arti.musica.classica.mod                | 5054   |
| it.arti.fumetti.manga                      | 5054   |
| it.comp.os.os2                             | 5013   |
| it.cultura.cybersocieta.lamer              | 4810   |
| it.cultura.cybersocieta.lamer              | 4810   |
| it.arti.animazione                         | 4588   |
| it.comp.lang.pascal                        | 4449   |
| it.istruzione.scuola.informatica           | 4366   |
| it.fan.marco-ditri                         | 4163   |
| it.comp.os.dos                             | 4156   |
| it.fan.tv.mai-dire-gol                     | 4137   |
| it.comp.os.win.vista                       | 4130   |
| it.arti.musica.polifonia                   | 4092   |
| it.hobby.creativi                          | 3972   |
| it.salute.aids                             | 3865   |
| it.cultura.classica                        | 3661   |
| it.lavoro.sindacato                        | 3562   |
| it.sport.rugby                             | 3561   |
| it.scienza.geologia                        | 3422   |
| it.hobby.volo.ultraleggero                 | 3338   |
| it.hobby.radioamatori.moderato             | 3326   |
| it.news.gestione                           | 3205   |
| it.comp.sicurezza.pgp                      | 3155   |
| it.cultura.religioni.buddhismo             | 3069   |
| it.comp.software.irc                       | 2875   |
| it.fan.radio                               | 2867   |
| it.comp.appl.eudora                        | 2865   |
| it.news.votazioni                          | 2859   |
| it.comp.os.linux.mandrake                  | 2759   |
| it.comp.os.linux.ubuntu                    | 2660   |
| it.tlc.gestori                             | 2606   |
| it.fan.nutella                             | 2581   |
| it.sociale.anorexbulimia                   | 2546   |
| it.scienza.informatica                     | 2484   |
| it.fan.tv.babylon5                         | 2484   |
| it.discussioni.energia                     | 2403   |
| it.fan.japan.sailor-moon                   | 2315   |
| it.salute.cefalee                          | 2281   |
| it.lavoro.professioni.pubblicita           | 2203   |
| it.comp.os.linux.annunci                   | 2072   |
| it.fan.japan.r-takahashi                   | 2000   |
| it.comp.os.unix                            | 1978   |
| it.arti.musica.strumenti.voce              | 1974   |
| it.comp.sicurezza.crittografia             | 1950   |
| it.fan.matrix                              | 1947   |
| it.comp.software.libero                    | 1935   |
| it.politica.internazionale.israele         | 1922   |
| it.discussioni.astrologia                  | 1899   |
| it.hobby.motociclismo.viaggi               | 1822   |
| it.sport.golf                              | 1700   |
| it.sport.golf                              | 1700   |
| it.comp.sicurezza.unix                     | 1668   |
| it.cultura.storia.moderato                 | 1560   |
| it.cultura.linguistica.francese            | 1475   |
| it.comp.os.linux.redhat                    | 1438   |
| it.fan.asimov                              | 1343   |
| it.arti.musica.strumenti.chitarra.mod      | 1180   |
| it.hobby.robotica                          | 923    |
| it.arti.cinema.recensioni                  | 890    |
| it.fan.musica.pearl-jam                    | 870    |
| it.comp.accessibilita                      | 804    |
| it.arti.musica.studio                      | 776    |
| it.sociale.globalizzazione                 | 707    |
| it.sport.calcio.moderato                   | 641    |
| it.hobby.volo                              | 638    |
| it.fan.tv.scrubs                           | 492    |
| it.comp.dotnet                             | 424    |
| it.comp.dotnet                             | 424    |
| it.comp.virtualizzazione                   | 390    |
| it.comp.software.editor                    | 267    |
| it.comp.lang                               | 252    |
| it.scienza.divulgazione                    | 240    |
| it.lavoro.professioni                      | 226    |
| it.comp.os.openbsd                         | 206    |
| it.politica.m5s                            | 152    |
| it.scienza.medicina.tumori                 | 123    |
| it.tlc.provider.disservizi                 | 0      |
| it.sport.volley                            | 0      |

****