Matteo Rinaldi commited on
Commit
578a94b
·
verified ·
1 Parent(s): 3523144

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1384 -0
README.md CHANGED
@@ -3,3 +3,1387 @@ license: other
3
  license_name: cc-by-4.0
4
  license_link: https://creativecommons.org/licenses/by/4.0/deed.en
5
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  license_name: cc-by-4.0
4
  license_link: https://creativecommons.org/licenses/by/4.0/deed.en
5
  ---
6
+ Proposte per la creazione di dataset per l’addestramento e il finetuning
7
+ di LLM
8
+
9
+ Versione 0.1 **Bozza** – Matteo Rinaldi – 3 Marzo 2024 – [CC
10
+ BY](https://creativecommons.org/licenses/by/4.0/deed.en)
11
+
12
+ # <span id="anchor"></span>Premessa
13
+
14
+ Quello che segue è un breve documento dove ho raccolto delle idee in
15
+ merito alla creazione di dataset per l’addestramento e il finetuning di
16
+ Large Language Models. Va considerato esclusivamente come bozza e
17
+ accenno a potenziali progetti da discutere ed eventualmente realizzare.
18
+
19
+ Tutta la parte introduttiva si può saltare e andare direttamente
20
+ all’elenco schematico delle proposte
21
+
22
+ Non è stato riguardato più di tanto, non tutti i punti sono stati
23
+ chiariti a sufficenza, e soprattutto ho ancora molte altre idee di cui
24
+ vorrei discutere.
25
+
26
+ Questo documento non è in uno stato che lo rende adatto a nessun tipo di
27
+ pubblicazione o divulgazione: è fondamentalmente un abbozzo, scritto in
28
+ un giorno solo, spesso in linguaggio colloquiale e dove sono state solo
29
+ appuntate idee; lo condivido solo a causa dei rapidi mutamenti delle
30
+ situazioni che potrebbero renderlo un pochino utile anche in questo
31
+ stato scheletrico e perché ho promesso da un paio di settimane di
32
+ scrivere un documento del genere ad alcuni membri della community
33
+ Discord di Mii-LLM. Andando ad approfondire ogni punto e scrivendolo in
34
+ un linguaggio accademico probabilmente il numero delle pagine andrebbe a
35
+ triplicarsi.
36
+
37
+ Vorrei rilasciarlo innanzitutto con grande umiltà: riconosco come non vi
38
+ siano “grandi idee” al suo interno ma solo una schematizzazione di
39
+ alcuni temi ricorrenti per quanto riguarda i dati per l’addestramento
40
+ dei modelli. L’idea è che possa fungere da riferimento per altre idee e
41
+ proposte; vuole essere un documento *collaborativo*, sarebbe bello
42
+ lavorarci a più mani per arrivare a qualcosa di ancora più utile. Non
43
+ sono neanche sicuro al momento della sua effettiva utilità, ripeto, lo
44
+ rilascio con umiltà sperando che qualcuno lo apprezzi e lo trovi utile.
45
+ Spero non sembri pretenzioso, non credo di avere in mano nessuna
46
+ “ricetta segreta” per la risoluzione di un compito così complesso né
47
+ penso di voler insegnare niente a nessuno.
48
+
49
+ Lascio pertanto aperta un’istanza Etherpad:
50
+ <https://pad.disroot.org/p/Proposte_per_LLM> dove poter scrivere
51
+ qualsiasi commento, critica, aggiunta. Firmatevi. E si può pensare a una
52
+ piattaforma collaborativa migliore.
53
+
54
+ Consiglio anche la lettura del manifesto *LLMentor* che ho scritto quasi
55
+ un anno fa come proposta di un progetto di crowdsourcing di dataset di
56
+ instruction fine tuning rivolto a docenti universitari. Il link è qui:
57
+ <https://github.com/manalog97/LLMentor>
58
+
59
+ Manca inoltre la risposta alla domanda principale: *perché* vogliamo
60
+ sviluppare un LLM? Quali fini ci stiamo proponendo?
61
+
62
+ # <span id="anchor-1"></span>Una prolissa introduzione sull’importanza di modelli multiculturali e di qualità… si può saltare
63
+
64
+ I due cardini fondamentali di questi dataset sono la qualità e l’essere
65
+ multilingua. Per quanto riguarda il secondo punto, ciò significa
66
+ sviluppare dataset in lingue diverse dall’inglese, nello specifico in
67
+ italiano ma potenzialmente queste linee guida potrebbero applicarsi a
68
+ progetti analoghi da svolgersi in luoghi diversi, in modo da giungere a
69
+ una raccolta di dataset utili per l’addestramento di un vero modello
70
+ multilingua, requisito che i modelli attuali non soddisfano se non
71
+ parzialmente. \[Vedi:\]
72
+
73
+ La situazione attuale, che vede una prevalenza eccessiva dell’inglese
74
+ nei dati di addestramento, è particolarmente dannosa e critica negli
75
+ aspetti non solo dell’accessibilità del modello a utenti che non parlano
76
+ in inglese o che preferiscono utilizzare la loro lingua per interagire
77
+ con le risorse basate sui LLM, ma anche per quanto riguarda questioni
78
+ meno dibattute e che *non* sono risolvibili limitandosi a meccanismi
79
+ basati sulla *traduzione*. L’appiattimento dei modelli sull’inglese
80
+ significa anche un appiattimento dei modelli sulla cultura
81
+ angloamericana, con il rischio di andare a far perdere d’importanza la
82
+ pluralità di visioni del mondo a vantaggio di una visione anglocentrica
83
+ assolutamente parziale e incapace di rispecchiare l’umanità nel suo
84
+ complesso. La lingua non è un mero mezzo di codifica di informazioni, ma
85
+ ha la capacità di dare forma al discorso e ritagliare i concetti in
86
+ tanti modi quante sono le lingue esistenti (non ci si limita a parlare
87
+ la lingua ma si è* *anche *parlati* da questa). Anche andando oltre le
88
+ questioni di differenze linguistiche e semantiche, la lingua si fa anche
89
+ portatrice di un certo contesto culturale, ed è nocivo che i modelli
90
+ vengano allenati a considerare il resto del mondo in rapporto al mondo
91
+ angloamericano; tale nocività non si ferma all’aspetto tecnico di
92
+ corretto funzionamento dei modelli e usabilità da parte della
93
+ popolazione globale, ma si estende fino a diventare un potenziale
94
+ problema sociale ed etico non appena tali modelli nelle loro varie e
95
+ ancora non ben definite declinazioni entreranno nella vita quotidiana e
96
+ pubblica della popolazione. Ai fini di tale bozza, possiamo lasciare
97
+ l’approfondimento dell’argomento a lavori successivi e proseguire con
98
+ l’altro aspetto, quello relativo alla qualità.
99
+
100
+ Tralasciando per ora discussioni sull’importanza del migliorare la
101
+ qualità dei modelli per vari fini (sociali, accademici, di utilità
102
+ contingente…), possiamo spostarci direttamente* in medias res*
103
+ constatando in primo luogo la pressocchè totale assenza di dataset per
104
+ il finetuning in italiano e in secondo luogo le criticità esistenti
105
+ negli attuali dataset di finetuning pensati per l’inglese.
106
+
107
+ I dataset italiani per il finetuning al momento reperibili e disponibili
108
+ con licenze aperte sono per il momento mere traduzione di dataset
109
+ inglesi; tale approccio, sebbene possa funzionare per effettuare qualche
110
+ sperimentazione, non è adatto per lo sviluppo di modelli che siano
111
+ autenticamente multilingua. Dal punto di vista lessicale e sintattico,
112
+ *le traduzioni potrebbero conservare uno stile troppo aderente a quello
113
+ della lingua inglese*, specialmente in considerazione del fatto che tali
114
+ traduzioni vengono svolte non da traduttori professionisti ma in modo
115
+ automatico. Il risultato potrebbe essere quello di un modello che, a una
116
+ analisi più approfondita, non comunica effettivamente in italiano ma al
117
+ contrario continuerebbe a parlare in inglese tradotto in italiano. *Dal
118
+ punto di vista semantico e dei contenuti, tradurre, peraltro
119
+ automaticamente, non contribuisce minimamente a mitigare quell’effetto
120
+ di accentramento sulla cultura angloamericana di cui accennavamo in
121
+ introduzione*. **Avere un modello che parla un italiano un po’
122
+ inglesizzato e che continua a riferirsi a situazioni, luoghi, fatti e
123
+ persone tipiche degli Stati Uniti *****non***** è un modello
124
+ multilinguistico e multiculturare.**
125
+
126
+ Si rende pertanto necessario raccogliere grandi quantità di dati nelle
127
+ lingue in cui si desidera che il modello possa operare.
128
+ Preferiribilmente, la parte maggiore di questi dati dovrebbe riferirsi
129
+ anche alla cultura del luogo in cui tale lingua è parlata: un libro
130
+ scritto originalmente in italiano è da considerarsi un dato avente un
131
+ valore maggiore di un libro scritto in inglese e tradotto in italiano.
132
+
133
+ In questo documento non andrò a soffermarmi troppo sul dataset di
134
+ pre-training, un dataset grande e che, per forza di cose, non può essere
135
+ nella sua interezza considerabile “di qualità”. Si rende tuttavia
136
+ necessario sviluppare anche dataset più piccoli di svariati ordini di
137
+ grandezza che però si distinguano per la loro “qualità”. Uno tra i vari
138
+ esempi di ricerche a supporto dell’aspetto qualità VS quantità è:
139
+ \[phi-2, textbook are all you need\]
140
+
141
+ \[Da continuare, bozza\!\!\!\]
142
+
143
+ # <span id="anchor-2"></span>Dataset piccoli, specifici, curati
144
+
145
+ Quelle che seguono sono idee per la creazione di dataset piccoli,
146
+ specifici, curati e che quindi sono più adatti a fasi di finetuning
147
+ piuttosto che di addestramento; ciò non toglie che, nel caso in cui
148
+ durante lo sviluppo di un certo modello non si ritenga valido usarli per
149
+ il fine-tuning, potrebbero tornare utilissimi come risorse per il
150
+ pretraining.
151
+
152
+ Criteri per la qualità \[bozza\]:
153
+
154
+ Tematiche
155
+
156
+ Attendibilità degli autori
157
+
158
+ Difficoltà di ragionamento =\> Fondamentale perché è da qui che il
159
+ modello farà astrazione sui dati facendo emergere le capacità più
160
+ interessanti.
161
+
162
+ ## <span id="anchor-3"></span>Dataset 1: Coppie domande/risposta \[Instruction Fine-Tuning\]
163
+
164
+ ### <span id="anchor-4"></span>Accademiche
165
+
166
+ È il dataset *classico* per il finetuning delle LLM in particolar modo
167
+ quando finalizzato allo sviluppo di un *assistente* come ChatGPT o
168
+ Gemini. Senza stare a specificare ora *perché* serve un tale tipo di
169
+ dataset, vorrei presentare alcune possibili idee e linee guida.
170
+
171
+ Le coppie D/R sono necessarie per fornire al modello l’astrazione
172
+ necessaria per rispondere quando viene interrogato; per questo motivo,
173
+ ritengo importante porre una certa dose di cura nel compilare tali dati.
174
+ Sarebbe bene puntare a risposte che non siano semplificatorie e che
175
+ affrontino anche temi molto complessi scendendo nei dettagli.
176
+
177
+ Possibilità di realizzazione:
178
+
179
+ - Coinvolgere studenti; [*tramite piattaforme, anche elementari, di
180
+ crowdsourcing di cui discuteremo in
181
+ seguito*](#5.L’Ipotetica%20piattaforma%20di%20crowdsourcing|outline),
182
+ studenti volontari potrebbero caricare documenti contenenti coppie
183
+ di domande e risposte basate sui loro appunti universitari o sulle
184
+ loro conoscenze. Non si avrebbe la stessa garanzia di accuratezza
185
+ come se quel materiale provenisse da docenti universitari (vedi
186
+ progetto originale
187
+ [*LLMentor*](https://github.com/manalog97/LLMentor)) ma comunque è
188
+ da aspettarsi un materiale nel complesso più che valido, sicuramente
189
+ superiore agli attuali dataset per il finetuning inglesi, composti
190
+ per la maggioranza di contenuti generati automaticamente da altri
191
+ LLM
192
+
193
+ - Non tutte le coppie D/R sono uguali, per prima cosa concentriamoci
194
+ sulle coppie D/R su argomenti specifici, ad esempio accademici. In
195
+ questo caso, l’ideale sarebbe privilegiare argomenti che non
196
+ lasciano troppo spazio a opinioni personali e si riferiscono a
197
+ questioni più o meno assodate, per quanto un certo grado di dissenso
198
+ potrebbe comunque risultare altamente utile (vedi: prospettivismo in
199
+ AI). Nelle linee guida da fornire ai collaboratori sarebbe da
200
+ reiterare più volte l’idea che *vengono privilegiati argomenti
201
+ complessi*, anche molto specifici e, idealmente, che coinvolgono una
202
+ certa dose di ragionamento e che l’eventuale ragionamento necessario
203
+ sia spiegato per punti. Questo perché argomentazioni generali
204
+ probabilmente saranno già ampiamente presenti nei dati di
205
+ addestramento (es Wikipedia); sarebbe interessante mostrare al
206
+ modello come affrontare domande complesse e rispondere a queste
207
+ domande in modo approfondito e ragionato.
208
+
209
+ Questo testo può essere saltato
210
+
211
+ Modelli come ChatGPT 3 tendono spesso a una spiegazione di tipo
212
+ enciclopedico, generalista, caratterizzata da una spesso inutilmente
213
+ prolissa ripetizione di un contesto iniziale che va ad occupare gran
214
+ parte della risposta per poi confinare la risposta effettiva alla
215
+ domanda dell’utente in molto meno spazio. Gli argomenti vengono ogni
216
+ volta “introdotti” spesso con lunghi giri di parole, in una forma che
217
+ sembra imitare quella delle introduzioni di Wikipedia, anche quando
218
+ l’utente chiede risposte dirette e specifiche. Sarebbe interessante
219
+ pertanto sviluppare domande e risposte su più livelli, da una parte
220
+ domande generali con risposte, giustamente, fornite di una introduzione,
221
+ ma anche domande più specifiche e che, comprensibilmente, se vengono
222
+ poste presuppongono che l’utente che le stia ponendo abbia un certo
223
+ livello di conoscenza pregressa e desideri andare a fondo dell’argomento
224
+ piuttosto che restarne in superficie. ChatGPT tende spesso a risposte
225
+ nello stile “ELI5”, espressione nata su Reddit che significa “Spiegamelo
226
+ come se stessi parlando con un bambino di cinque anni”. Ora, questo può
227
+ andar bene per fare scalpore nel pubblico e può aver senso che un
228
+ modello che aveva un po’ il ruolo di aprire la stagione dell’IA
229
+ generativa al grande pubblico fosse impostato con questo stile, ma penso
230
+ che adesso si possa chiedere di più a questi modelli e cercare di
231
+ privilegiare la profondità alla semplicità. È vero che potrebbe darsi il
232
+ caso che a porre una domanda complessa sia un utente poco ferrato nella
233
+ materia che arrivi alla domanda quasi per caso, ma ciò non toglie che in
234
+ questo caso l’utente stesso potrebbe chiedere una spiegazione più in
235
+ generale al modello e inoltre non credo si debba dare priorità alle
236
+ preferenze di utenti che cercano interazioni semplici e superficiali a
237
+ scapito di utenze più interessate a tematiche complesse e di
238
+ approfondimento. Il dataset di D/R dovrebbe, implicitamente, inferire il
239
+ livello dell’interlocutore dalla domanda posta e rispondere di
240
+ conseguenza. Conoscere l’utente è il modo migliore per soddisfarlo.
241
+
242
+ ### <span id="anchor-5"></span>Generali
243
+
244
+ Riuscire ad ottenere questo dataset di D/R è più difficile rispetto a
245
+ quello basato su argomenti accademici perché, al contrario di
246
+ quest’ultimo, non segue dei “binari” stabiliti ma al contrario può
247
+ toccare non solo qualsiasi argomento ma anche qualsiasi uso del
248
+ linguaggio.
249
+
250
+ Generare storie, rispondere a domande di senso comune, rispondere a
251
+ curiosità, impersonare stili di scrittura… sono solo alcuni dei
252
+ possibili task. È il dataset più difficile tra quelli presentati:
253
+
254
+ - Si può spaziare su una infinita varietà di task, è difficile anche
255
+ solo tirare giù una lista di idee e temi (invito a farlo su
256
+ Etherpad\!); Si può prendere come spunto ad esempio l’ottimo (e
257
+ piccolo) dataset “Norobots”
258
+ (<https://huggingface.co/datasets/HuggingFaceH4/no_robots>). Si
259
+ notano tematiche assolutamente varie:
260
+
261
+ - Hobby (ricette di cucina, consigli per il fai da te...)
262
+
263
+ - Aneddoti / cultura pop
264
+
265
+ - Domande generali
266
+
267
+ - Generazione di:
268
+
269
+ - Storie
270
+ - Poesie
271
+ - Descrizioni per post social
272
+ - E-mail
273
+ - Slogan pubblicitari
274
+
275
+ - Intrattenimento
276
+
277
+ - Impersonare chatbot con stili di risposta e caratteristiche
278
+ particolari
279
+
280
+ - Task di NLU
281
+
282
+ - Riassunti
283
+ - Modifica e riscrittura del testo seguendo certe
284
+ caratteristiche, come variazioni nei sentimenti, nello stile
285
+ - Spiegazione di termini ed espressioni
286
+
287
+ - Le risposte sono molto più arbitrarie rispetto al dataset D/R
288
+ accademico, potrebbero con facilità contenere:
289
+
290
+ - Opinioni personali degli annotatori
291
+ - Bias di vario tipo
292
+ - Considerazioni etiche
293
+ - Qualità discutibile (è un po’ ridicolo da punto di vista
294
+ letterario pensare che chiedere a un annotatore di “scrivere una
295
+ poesia su X e Y” sia un modo per ottenere un esempio di una
296
+ bella poesia)
297
+
298
+ Al momento i dataset di instruction finetuning generali di questo tipo
299
+ sono estremamente problematici da usare in un modello multiculturale:
300
+ sfogliando uno qualsiasi di questi dataset si nota una quantità
301
+ eccessiva di riferimenti agli Stati Uniti.
302
+
303
+ È molto complicato sviluppare un dataset di questo tipo senza un
304
+ significativo investimento economico per assumere degli annotatori
305
+ professionisti. Fino a dove ci si potrebbe spingere con il
306
+ crowdsourcing? Che tipologie di volontari cercare? Come verificare la
307
+ qualità dei dati?
308
+
309
+ Nonostante queste difficoltà, si potrebbe provare ad individuare dei
310
+ sotto-task che siano più semplici e soprattutto meno problematici. La
311
+ generazione di contenuto creativo come poesie e racconti è sicuramente
312
+ difficile, tuttavia altri task potrebbero essere somministrati anche
313
+ sottoforma di “gioco” a dei collaboratori volontari. Ad esempio
314
+ riassumere brevi testi, cambiarne lo stile da formale a informale,
315
+ risposte semplici e brevi a qualche domanda generale…
316
+
317
+ Idee?
318
+
319
+ ## <span id="anchor-6"></span>Dataset 2: Comprensione del testo
320
+
321
+ Questo sarebbe un bellissimo dataset, per la cui realizzazione si
322
+ potrebbe chiedere il favore principalmente a studenti di discipline
323
+ umanistiche.
324
+
325
+ Sempre rimanendo in tema comprensione del testo, credo che vi possano
326
+ essere dei compiti che generalmente non vengono fatti svolgere agli
327
+ esseri umani ma che potrebbero comunque risultare particolarmente utili
328
+ per i LLM:
329
+
330
+ - Elencare tutti gli “enti” presenti in un testo, le loro relazioni e
331
+ i loro aggettivi; un compito più di tipo NLP classico, che potrebbe
332
+ essere molto utile con testi complessi;
333
+
334
+ - Le LLM hanno notoriamente difficoltà quanto i contenuti sono
335
+ *referenziali* ovvero quando avrebbero bisogno dell’apporto di
336
+ informazioni multimodali per essere compresi. Si potrebbe pensare
337
+ quindi a compiti di spiegazione delle situazioni:
338
+
339
+ I testi di alcuni cantautori classici italiani (penso a De Andrè,
340
+ Guccini, Battiato, Vecchioni, De Gregori…) sarebbero estremamente adatti
341
+ a questo tipo di task. In particolare De Andrè fa un utilizzo molto
342
+ avanzato della lingua e i suoi testi sono spesso di non univoca
343
+ interpretazione, ricchi di immagini visive ecc… la questione da capire è
344
+ il copyright. Fair use? Diritto di citazione?
345
+
346
+ Questi un paio di esempi fatti al volo, con “L’Ultimo Spettacolo” di
347
+ Vecchioni e “Il Ritorno di Giuseppe” di De Andrè. A mio avviso ChatGPT
348
+ 3.5 si è comportato malissimo con questo tipo di compito. Non sono
349
+ esempi esaustivi di quello che ho in mente e che spero di aver fatto
350
+ capire nei punti precedenti, comunque è un punto di partenza:
351
+
352
+ <https://chat.openai.com/share/6c65122e-5f3b-4417-ab54-7eb4e3f78436>
353
+
354
+ <https://chat.openai.com/share/d159037b-d50e-41dc-a1f5-42d423fa3352>
355
+
356
+ Tra l’altro sarebbe anche da affrontare la questione contenuti
357
+ sessuali/violenti eccetera. Quando si interpreta un’opera artistica, è
358
+ assurdo fare censura su questo tipo di tematiche… \[punto da
359
+ approfondire\]
360
+
361
+
362
+ Vedi in appendice: [Task linguistici (ispirati da vecchi siti di
363
+ materiale didattico trovati
364
+ online):](#1.1.Task%20linguistici%20\(ispirati%20da%20vecchi%20siti%20di%20materiale%20didattico%20trovati%20online\):|outline)
365
+
366
+ In definitiva, i compiti di comprensione del testo sarebbero una risorsa
367
+ fondamentale da inserire nei dataset considerata la loro grande
368
+ rilevanza nei compiti di Natural Language Understanding. Si può pensare
369
+ di andare oltre i tipici esercizi di comprensione del testo (per quanto
370
+ fondamentali) e pensare a esercizi mirati per le LLM che vadano a
371
+ lavorare laddove si notano più mancanze. Ci si deve soffermare anche su
372
+ aspetti particolarmente banali della comprensione, banali per un essere
373
+ umano ma che potrebbero mettere in luce comportamenti più da “pappagallo
374
+ stocastico” dei LLM piuttosto che da un modello capace di comprendere.
375
+ Idee a proposito?
376
+
377
+ ## <span id="anchor-7"></span>Dataset 3: Ragionamento e Chain of Thought
378
+
379
+ Rafforzare le abilità di ragionamento è un altro compito fondamentale
380
+ nell’addestramento di LLM utili e di qualità. “Ragionamento” è un altro
381
+ termine complesso e ambiguo. Si rimanda ad altro tempo e luogo per una
382
+ discussione su cosa si intenda per ragionamento, tuttavia, provo ad
383
+ elencare alcune bozze di idee.
384
+
385
+ ### <span id="anchor-8"></span>Enigmistica
386
+
387
+ Il materiale pensato per l’enigmistica può essere a mio avviso
388
+ estremamente utile per l’addestramento di modelli nella speranza di
389
+ osservare abilità emergenti relative al ragionamento:
390
+
391
+ - Enigmi gialli/polizieschi: questo tipo di enigmi racchiudono diverse
392
+ caratteristiche particolari che possono tornare utili:
393
+
394
+ - Richiedono una comprensione avanzata del testo, ovvero 1)
395
+ attenzione a tutti i dettagli che possono servire a risolvere il
396
+ caso, anche dettagli piccoli che possono sfuggire a una lettura
397
+ non accurata; 2) Creazione di un “modello situazionale del
398
+ mondo” accurato e corrispondente a quanto si vuole esprimere
399
+ nel testo; 3) Abilità di tenere nella memoria a breve termine
400
+ una rappresentazione schematica di tutti gli indizi
401
+ potenzialmente ricavabili dal testo sia le cose ovvie che le
402
+ nascoste; 4) capacità di filtrare il contenuto non necessario;
403
+ 5) applicazione di un metodo logico-deduttivo per risolvere
404
+ caso; 6) applicazione del pensiero laterale per risolvere il
405
+ caso
406
+ - Si possono scrivere o (meglio) recuperare già fatti, sperando in
407
+ licenze permissive. L’importante è che vi sia il testo ma anche
408
+ la soluzione, possibilmente ben argomentata (Chain of Thoughts)
409
+
410
+ - Cruciverba: meravigliosi esempi di definizioni complesse e ambigue
411
+ delle parole italiane;
412
+
413
+ - Indovinelli
414
+
415
+ - Eccetera eccetera. Praticamente ogni materiale enigmistico potrebbe
416
+ risultare utile. Inutile dire che un dump della *Settimana
417
+ Enigmistica* sarebbe una risorsa fantastica, ma impossibile per
418
+ chiare ragioni di copyright. In teoria tutti i numeri dal 1932 al
419
+ 1954 sono ormai di pubblico dominio, ma come recuperarli e
420
+ digitalizzarli? Comunque, online si trova del materiale e anche qui
421
+ si potrebbe generare oppure scrivere a enigmisti (come Giorgio
422
+ Dendi, noto per gli enigmi che stimolano il **pensiero lateriale**)
423
+ sperando che abbiano voglia di donare del vecchio materiale
424
+
425
+ ### <span id="anchor-9"></span>Ragionamento filosofico
426
+
427
+ Fonte dal grandissimo potenziale.
428
+
429
+ Paragrafo da approfondire moltissimo, intanto, appunti (bozza\!\!\!) :
430
+
431
+ - Logica: dataset di fallacie, dataset di ragionamenti \[studenti di
432
+ filosofia?\]
433
+ - Argomentazioni filosofiche, classiche e non. Esposizione, commento,
434
+ critica, controargomentazioni…
435
+ - Estrazione dell’argomentazione da un testo
436
+ - Dialoghi, discorsi… Questa potrebbe essere una risorsa fondamentale
437
+ per le questioni legate all’etica: proporre un’argomentazione,
438
+ confutarla, controargomentarla eccetera eccetra
439
+ - Sia materiale di recupera ma sarebbe stupendo stendere testi, anche
440
+ brevi, che però siano ottimi dal punto di vista dell’argomentazione
441
+ filosofica
442
+
443
+ ### <span id="anchor-10"></span>Ragionamento scientifico
444
+
445
+ (bozza\!\!\!) Problemi scientifici di qualsiasi tipo che necessitano di
446
+ un metodo di risoluzione logico rigoroso. Inutile fare esempi, se ne
447
+ possono fare a centinaia e tutti molto banali. Praticamente tutte gli
448
+ argomenti scientifici (matematica, logica, chimica…) offrono infinite
449
+ possibilità in questo campo. Sarebbe da capire come recuperarne una
450
+ grande quantità. Altrettanto interessante quando questo tipo di
451
+ ragionamento può estendersi a situazioni che non siano legate alle
452
+ scienze due o ingegneristiche ad esempio problemi di vita quotidiana,
453
+
454
+ È interessante adottare metodi di ragionamento chiari ed espliciti:
455
+ individuare le premesse, mostrare le possibili alternative errate,
456
+ indicare proposte su come risolvere il problema ed eventualmente
457
+ falsificarle. Sfruttare Chain of Thought.
458
+
459
+ ### <span id="anchor-11"></span>Ragionamento “in generale”
460
+
461
+ (bozza\!\!\!)
462
+
463
+ ### <span id="anchor-12"></span>Dataset 4: Orientamento spaziale e altri task (piccolo)
464
+
465
+ Un dataset piccolo, molto più piccolo rispetto agli altri proposti, da
466
+ fare a mano lavorando per poco tempo anche in un piccolo gruppo. È un
467
+ dataset un po’ atipico che però può avere fondamenti scientifici validi,
468
+ riassumo superficialmente in poche righe, il tutto si potrebbe
469
+ argomentare decisamente meglio ma è giusto per dare un’idea:
470
+
471
+ **Tolman** negli anni “40 propone il concetto di *mappa cognitiva* per
472
+ spiegare perché i topi fossero in grado di orientarsi in labirinti
473
+ utilizzati in laboratorio e in particolare perché fossero in grado di
474
+ *trovare scorciatoie* per raggiungere gli obiettivi; l’idea è che i
475
+ mammiferi formino nel cervello una mappa dello spazio in cui si trovano
476
+ che gli consente di trovare percorsi vantaggiosi. Negli anni “80 i
477
+ coniugi **Moser** scoprono il sistema di orientamento
478
+ ippocampale-entorinale: *place cells* nell’ippocampo e in seguito *grid
479
+ cells *e altri neuroni specifici come *head cells* e altri ancora; molto
480
+ in breve, esistono neuroni che 1) si “accendono” quando ci si trova in
481
+ un determinato luogo (place cells) 2) complementari a questi c’è un
482
+ sistema di mappatura esagonale dello spazio (*grid cells*) che può
483
+ riprogrammarsi a seconda del compito e che fornisce metriche univoche di
484
+ distanza e direzione. **Bellmund et al, 2019**: studi relativi alla
485
+ possibilità che questo modello di mappe cognitive evidenziato nel
486
+ sistema ippocampale-entorinale sia in funzione anche nel pensiero
487
+ astratto: **mappe contettuali** analoghe a quelle spaziali. L’idea è che
488
+ “orientarsi” nei concetti sfrutti gli stessi meccanismi neuronali
489
+ utilizzati per orientarsi nello spazio: le nozioni di distanza
490
+ concettuale, iperonimia e iponimia, generalizzazione, clustering di
491
+ argomenti simili eccetera (tutte tematiche fondamentali per il NLU e che
492
+ potrebbero portare a fruttuose innovazioni *architetturali* dei modelli
493
+ oltre il Transformer vanilla) sono in questo paper collegate ai
494
+ meccanismi di orientamento spaziale. Anche il fatto che le metafore
495
+ concettuale si riferiscono spesso a dinamiche spaziali è a supporto di
496
+ questa tesi.
497
+
498
+ **Whittington, Behrens, **2022: RELATING TRANSFORMERS TO MODELS AND
499
+ NEURAL REPRESENTATIONS OF THE HIPPOCAMPAL FORMATION
500
+
501
+ Many deep neural network architectures loosely based on brain networks
502
+ have recently been shown to replicate neural firing patterns observed in
503
+ the brain. One of the most exciting and promising novel architectures,
504
+ the Transformer neural network, was developed without the brain in mind.
505
+ In this work, we show that transformers, when equipped with recurrent
506
+ position encodings, replicate the precisely tuned spatial
507
+ representations of the hippocampal formation; most notably place and
508
+ grid cells. Furthermore, we show that this result is no surprise since
509
+ it is closely related to current hippocampal models from neuroscience.
510
+ We additionally show the transformer version offers dramatic performance
511
+ gains over the neuroscience version. This work continues to bind
512
+ computations of artificial and brain networks, offers a novel
513
+ understanding of the hippocampal-cortical interaction, and suggests how
514
+ wider cortical areas may perform complex tasks beyond current
515
+ neuroscience models such as language comprehension.
516
+
517
+ Yamada et al, 2023: “Evaluating Spatial Understanding of Large Language
518
+ Models”
519
+
520
+ Mi scuso per la natura estremamente abbozzata di questo paragrafo, che
521
+ vorrei approfondire accuratamente e ritengo estremamente interessate.
522
+ Serve tuttavia a giustificare il tipo di task che vorrei proporre ovvero
523
+ **orientamento, con identificazione di percorsi ottimali, in ambienti
524
+ spaziali descritti in linguaggio naturale**.
525
+
526
+ Si possono prendere mappe di città, descriverle a diversi livelli di
527
+ granularità (zone con singole strade, intera città con quartieri e punti
528
+ cardinali) e: ad esempio: 1) Descrivere percorsi ottimi 2) Giungere a
529
+ conclusioni del tipo “se vado verso est *allora* mi trovo davanti a X” e
530
+ task di questo tipo.
531
+
532
+ Oltre a città, si può pensare anche a problemi di orientamento in luoghi
533
+ generici, come case, ambienti ristretti come ciò che si può vedere da
534
+ una finestra, luoghi immaginari (magari fare un disegno su carta per
535
+ evitare errori) eccetera. È un task divertente su cui si può usare molta
536
+ fantasia, l’unico requisito è rimanere coerenti e possibilmente scrivere
537
+ task difficili.
538
+
539
+ Task di questo tipo potrebbero essere interessanti sia per
540
+ l’addestramento che per il benchmark perché presuppongono abilità
541
+ complesse di generalizzazione e astrazione; potrebbero anche servire a
542
+ guidare eventuali innovazioni architetturali specialmente nel caso in
543
+ cui l’ipotesi esposta brevemente sopra del collegamento tra mappe
544
+ concettuali, analogie tra il sistema neuronale di orientamento spaziale
545
+ e concettuale e utilizzabilità di questi concetti da parte di modelli
546
+ ANN fosse rafforzata.
547
+
548
+ ### <span id="anchor-13"></span>Dataset 5: Brevi testi estremamente curati
549
+
550
+ Coinvolgere i docenti universitari in un lavoro tipo LLMentor?
551
+ [*https://github.com/manalog97/LLMentor*](https://github.com/manalog97/LLMentor)
552
+
553
+ Vedi anche: [*L’ipotetica piattaforma di
554
+ crowdsourcing*](#4.L’Ipotetica%20piattaforma%20di%20crowdsourcing|outline)
555
+ in particolare “Donazione di tesi e appunti”
556
+
557
+ ### <span id="anchor-14"></span>Dataset 5...∞: Idee?
558
+
559
+ # <span id="anchor-15"></span>I dataset “grandi” di pretraining – Lo scraping
560
+
561
+ ### <span id="anchor-16"></span>I “grandi classici”
562
+
563
+ Inutile ora dilungarsi troppo: Wikipedia, Wikisource, Wikitionary
564
+ eccetera eccetera. Da prendere così come sono. Ovviamente non sono
565
+ perfetti, possiamo stare a trovare infinite criticità ma credo siano un
566
+ punto di partenza perfetto.
567
+
568
+ ### <span id="anchor-17"></span>Libri di pubblico dominio
569
+
570
+ Inutile stare ad argomentare ora perché sono importanti. **Liber Liber**
571
+ è una fantastica risorsa con circa 4500 libri di pubblico dominio pronti
572
+ per essere inseriti nel dataset. Il lavoro è praticamente completato: un
573
+ annetto fa, più per esercizio personale che altro, avevo rifatto il sito
574
+ di liber liber passando dal loro sistema basato su campi di testo a un
575
+ più efficiente DB relazionale. Il lavoro non è più andato avanti perché
576
+ non c’è stato un grande interesse da parte della comunità di Liber
577
+ Liber; in compenso, avendo già questo DB con tutti i libri di Liber
578
+ Liber fino a Maggio 2023 circa, è stato semplice scaricare tutti i Link.
579
+ Ringrazio Ruggero per la deduplicazione. Il dataset è già su HF ma
580
+ purtroppo per uno stupido errore circa 1000 libri sono mancanti.
581
+ Risolverò la cosa il prima possibile, è molto facile recuperare gli
582
+ altri.
583
+
584
+ Vanno recuperati anche da altre risorse\! Project Gutenberg in Italiano
585
+ è un punto di partenza ma poi, andando a cercare nei cataloghi delle
586
+ biblioteche online, si possono trovare tante altre risorse\! Il problema
587
+ più grave è quello relativo a scansioni e OCR.
588
+
589
+ ### <span id="anchor-18"></span>Usenet e forum
590
+
591
+ Effettuare lo scraping di fora online è una pratica ampiamente
592
+ utilizzata nella creazione di dataset per l’addestramento di modelli
593
+ linguistici. Nei dataset in inglese attualmente esistenti, si nota come
594
+ Reddit, Quora e StackExchange (piattaforme “moderne”) siano spesso fonti
595
+ di testo ampiamente presenti nei dati di addestramento.
596
+
597
+ I fora \[approfondimenti su cosa sono, storia eccetera rimandati a
598
+ eventuali documenti successivi\] sono una risorsa interessante da
599
+ includere in un dataset di pretraining. Ci sono degli aspetti
600
+ problematici come la non verificabilità delle informazioni presenti al
601
+ loro interno, la possibile presenza di linguaggio tossico e litigi,
602
+ spesso offensivi (*flame*) tra utenti; nel caso di Usenet c’è anche un
603
+ certo quantitativo di spam, fortunatamente facilmente identificabile, e
604
+ la presenza di un linguaggio in certi casi per nulla moderato.
605
+ Nonostante questi problemi, tuttavia sono anche tanti i punti a sostegno
606
+ dell’inclusione di questo materiale nei dataset: i fora sono spesso una
607
+ miniera di informazioni, dettagliate, precise, fornite negli anni da
608
+ gruppi di utenti particolarmente appassionati ed esperti su specifici
609
+ argomenti. È possibile trovare al loro interno informazioni non
610
+ ottenibili altrimenti, frutto spesso di pratica e di esperienze
611
+ personali. Le informazioni sono organizzate in *discussioni*, quindi
612
+ seguendo un modello dialogico, il che è importante nell’addestramento di
613
+ modelli linguistici specie nell’ottica di sviluppare assistenti
614
+ virtuali. Ci sono fora riguardanti specifici argomenti e, in particolare
615
+ quando tale argomento è molto delineato, si possono trovare discussioni
616
+ tecniche di altissimo livello e, spesso, corrette anche perché
617
+ sottoposte al vaglio di numerosi altri utenti che eventualmente possono
618
+ dibattere e commentare. Questo dibattito e commento è certamente
619
+ istruttivo per i modelli nel riuscire ad esporre i concetti
620
+ argomentandoli e sottoponendoli a critiche. La discussione sui vantaggi
621
+ dei forum per l’addestramento può andare avanti, ma intato,
622
+ ricapitoliamo il lavoro fatto e da fare in merito:
623
+
624
+ #### <span id="anchor-19"></span>Usenet
625
+
626
+ Scriverò una bella introduzione su Usenet, per ora, basta ricordare che
627
+ si tratta di una piattaforma distribuita (non centralizzata) facente
628
+ parte della primissima generazione di Internet, essendo stata sviluppata
629
+ negli anni Settanta, ben prima della nascita del web. Per quanto
630
+ riguarda l’Italia, siamo riusciti a raccogliere contenuti dal 1994, anno
631
+ di nascita della gerarchia “\*.it”. L’archivio più grande di discussioni
632
+ Usenet è presente sulla piattaforma “Google Groups” di Google,
633
+ piattaforma tra l’altro che proprio il 22 Febbraio di quest’anno ha
634
+ cessato di raccogliere nuovi contenuti.
635
+
636
+ Un lavoro molto dispendioso in termini di tempo e di risorse
637
+ computazionali per effettuare lo scraping delle gerarchie “\*.it” e
638
+ “\*.italia” dalle pagine di Google Groups è stato effettuato dal
639
+ sottoscritto a Febbraio 2024. Lo scraping è stato effettuato con degli
640
+ script Python basati sulla libreria Selenium [che verranno resi
641
+ disponibili su GitHub](https://github.com/manalog97/GGetter). Il
642
+ risultato è un archivio di circa 75GB contenente XXX discussioni divise
643
+ in XXX newsgroup tematici. [In appendice la gerarchia dei newsgroup
644
+ scaricati.](#7.3.Statistiche%20temporanee%20scraping%20di%20Usenet:|outline)
645
+ Seguiranno a breve delle statistiche sul materiale scaricato come:
646
+ quantità di conversazioni, quantità di messaggi, quantità di messaggi
647
+ per newsgroup, quantità di messaggi per anno, quantità di messaggi per
648
+ newsgroup e anno e così via.
649
+
650
+ Come si evince osservando la gerarchia, le tematiche trattate sono
651
+ svariate e abbracciano un arco diacronico particolarmente lungo (circa
652
+ trent’anni). I newsgroup hanno conosciuto un calo di popolarità dopo il
653
+ 2012 circa a causa del diffondersi dei social network (centralizzati e
654
+ proprietari) ma comunque è presente un significativo numero di messaggi
655
+ anche relativi all’ultimo decennio.
656
+
657
+ Attualmente per ogni newsgroup esiste un file JSON contentente tutti i
658
+ dati necessari all’organizzazione dei messaggi nel newsgroup:
659
+
660
+ {title, original\_url, newsgroup, messages: \[author, day, month, year,
661
+ hours, minute, am/pm, text\]}
662
+
663
+ Prima del caricamento su Hugging Face, che avverrà in settimana, i dati
664
+ saranno riorganizzati in file JSONL aventi come struttura:
665
+
666
+ {title, author, id, progressive\_number, endflag, timestamp, newsgroup,
667
+ original\_url, text}
668
+
669
+ Dove progressive\_number rappresenta l’andamento della discussione (a
670
+ partire da “0” per il primo messaggio) e il dato booleano endflag vale 1
671
+ se si è arrivati all’ultimo messaggio della discussione. Il timestamp
672
+ sarà in formato ISO-8601-1
673
+
674
+ Si tratta di una struttura dati altamente inefficiente e ridondante
675
+ (campi come title, original\_url, newsgroup saranno ripetuti milioni di
676
+ volte) ma al momento è l’unica soluzione pensata per rendere il dataset
677
+ facilmente fruibile su HuggingFace. La struttura più adatta al dataset
678
+ sarebbe sicuramente quella di un DB relazionale:
679
+
680
+ Conversazioni (id,titolo,newsgroup,url)
681
+
682
+ Messaggi(id,id\_conversazione,autore,dataeora,testo)
683
+
684
+ ma al momento questa strada non sembra essere percorribile sulla
685
+ piattaforma HuggingFace.
686
+
687
+ La compressione con buoni algoritmi come LZMA2 o Bzip2 consentono
688
+ tuttavia di ovviare a questa ridondanza in termini di occupazione di
689
+ spazio su disco.
690
+
691
+ Il dataset di Usenet è già completo, al momento conservato su un hard
692
+ disk esterno e in settimana sarà caricato su HuggingFace e Archive.org.
693
+ Potrebbe risultare il dataset in Italiano per task di NLP più grande tra
694
+ quelli liberamente disponibili.
695
+
696
+ Ringrazio *Ruggero* per il costruttivo confronto durante questo progetto
697
+ e per avere scaricato gli ultimi due *giga* di materiale quando le mie
698
+ risorse computazionali non erano più sufficienti, oltre che per aver
699
+ evidenziato il problema dell’usare il JSON originale come dataset di
700
+ HuggingFace.
701
+
702
+ #### <span id="anchor-20"></span>Forum
703
+
704
+ Ho scritto uno script Python, basato su Beautiful Soup, adatto a
705
+ scaricare per intero qualsiasi forum. Occorre solo individuare dei campi
706
+ specifici con un browser internet (div con contenuto, div con titolo,
707
+ tag che individuano autore e data, meccanismo di paginazione, logica
708
+ dell’URL, numero massimo di discussioni), inserirli nello script ed
709
+ eseguirlo.
710
+
711
+ Ho fatto partire ieri lo scraping di alcuni piccoli forum:
712
+ matematicamente (matematica), analogica (fotografia) e electroyou
713
+ (elettronica) per testare lo script e sembra funzionare tutto
714
+ correttamente. Sto compilando una lista di forum che potrebbe valer la
715
+ pena scaricare, indicativamente si riusciranno a ottenere in questo modo
716
+ altri 30GB circa di materiale testuale. A differenza di Usenet, qui
717
+ potrebbero sorgere questioni legate al copyright pertanto *sarebbe bene
718
+ sentire al più presto un esperto di diritto.*
719
+
720
+ ### <span id="anchor-21"></span>Riviste accademiche delle Università italiane
721
+
722
+ Punto da approfondire; comunque: ho scoperto che quasi tutte le
723
+ università italiane hanno portali di questo tipo:
724
+
725
+ <https://ojs.unito.it/>
726
+
727
+ <https://rosa.uniroma1.it/>
728
+
729
+ <http://www.serena.unina.it/>
730
+
731
+ eccetera eccetera.
732
+
733
+ Sono riviste di altissima qualità, su tematiche accademiche specifiche e
734
+ complesse che sarebbero una risorsa magnifica per i dataset di
735
+ pretraining. Una risorsa così tanto di qualità è probabilmente assente
736
+ anche in rinomati dataset americati. *Bisogna capire la questione
737
+ copyright: sono tendenzialmente in open access e licenza CC-BY-SA-ND*.
738
+ Possiamo inserirle nei dataset?
739
+
740
+ ## <span id="anchor-22"></span>Concorsi pubblici
741
+
742
+ Sito scoperto per caso proprio oggi mentre scrivevo questo documento:
743
+
744
+ <https://www.concorsipubblici.com/quiz/categorie/comprensione-di-testi-1731>
745
+
746
+ Una miniera di risorse perfette per creare dataset di instruction
747
+ finetuning. Numerosi esempi di comprensione del testo. Che ne pensate?
748
+ Comincio volentieri a riflettere su come effettuare uno scraping
749
+ sensato.
750
+
751
+ ## <span id="anchor-23"></span>Materiale legale di pubblico dominio
752
+
753
+ Sentenze, atti di processo, codici...
754
+
755
+ ### <span id="anchor-24"></span>Altro materiale online (senza esagerare… inutile pensare di rifare a mano Common Crawl)
756
+
757
+ …………….Possiamo scrivere una grande lista
758
+
759
+ # <span id="anchor-25"></span>L’Ipotetica piattaforma di crowdsourcing
760
+
761
+ \[BOZZA\!\!\!\]
762
+
763
+ Punto importante, ma anche questo verrà lasciato qui solo abbozzato.
764
+ Però:
765
+
766
+ 1. [LLMentor](https://github.com/manalog97/LLMentor): possibile
767
+ piattaforma indirizzata a persone del mondo accademico
768
+
769
+ 2. Espandere LLMentor con accesso a studenti universitari che
770
+ potrebbero:
771
+
772
+ 1. “Donare” la loro tesi
773
+ 2. “Donare” i loro appunti
774
+ 3. Scrivere coppie domande e risposte
775
+ 4. Valutare le prestazioni dei modelli esistenti
776
+ 5. Discutere tra di loro
777
+
778
+ 3. Una sottosezione di LLMentor potrebbe essere aperta al pubblico
779
+ generale con vari task simil-Amazon Mechanical Turk/LabelStudio come
780
+
781
+ 1. Proporre domande generaliste
782
+ 2. Effettuare valutazioni
783
+
784
+ Punto da approfondire molto\!
785
+
786
+ Comunque, è naturale che un progetto di crowdsourcing opensource
787
+ rispetto a un progetto con annotatori pagati fornirà risultati di
788
+ qualche ordine di grandezza inferiore. È inoltre ancora più difficile a
789
+ causa del fatto che, al fine di privilegiare la qualità, si stia anche
790
+ facendo una selezione sugli ipotetici volontari (universitari,
791
+ dottorandi, docenti…) Tuttavia, credo che possa valere la pena provare a
792
+ patto di non investire troppe risorse nella piattaforma (La base di
793
+ LLMentor è quasi pronta, codice semplice scritto a mano ma funzionante)
794
+ dal momento che:
795
+
796
+ 1. C’è un grande interesse del pubblico generale per questa tecnologia;
797
+ 2. Si potrebbe contribuire anche con una quantità molto piccola di
798
+ tempo, come pochi minuti per caricare materiale come tesi e appunti
799
+ o poche ore per scrivere qualche decina di domande e risposte;
800
+ 3. Si potrebbero fornire considerazioni etiche che possano far capire a
801
+ un pubblico di studenti sensibili quanto sarebbe utile contribuire
802
+ allo sviluppo di modelli aperti, di qualità e multiculturali
803
+
804
+ Da brevi discussioni informali fatte nell’ambiente universitario, sembra
805
+ che ci siano studenti che parteciperebbero volentieri a un progetto
806
+ simile. Sono molti gli esempi di progetti senza fini di lucro nel web
807
+ che poi portano a risultati considerevoli, come Wikipedia o la
808
+ piattaforma di calcolo distribuito “Boinc”. Motivare i volontari,
809
+ ringraziarli e magari farli divertire con idee stimolanti e *gamificare*
810
+ il tutto con punti e classifiche potrebbe portare a una discreta
811
+ adozione. Si potrebbero inoltre incollare volantini ben fatti nelle
812
+ varie Università italiane e magari sperare nella collaborazione delle
813
+ Università stesse.
814
+
815
+ # <span id="anchor-26"></span>Sintetico o naturale?
816
+
817
+ \[BOZZA\!\!\!\]
818
+
819
+ Scriverò qualcosa sulla questione dataset sintetico e naturale, per ora,
820
+ appunti:
821
+
822
+ - Ovviamente avere una grande mole di dati in naturale è estremamente
823
+ complesso;
824
+ - I dati naturali sono però ancora al momento insostituibili.
825
+ Esagerare con i sintetici può portare alla “Mucca Pazza”. Con i
826
+ sintetici continueremmo inoltre ad avere il problema
827
+ dell’appiattimento sulla cultura angloamericana (forse Mistral
828
+ migliora le cose?);
829
+ - Si potrebbe però provare ad estendere i dati con metodologie
830
+ sintetiche, basate però sulla riproduzione dei “nostri” piccoli
831
+ dataset di finetuning curati, in modo da avere un maggior controllo
832
+ sulla qualità rispetto che lasciare i modelli “a ruota libera”
833
+
834
+ # <span id="anchor-27"></span>Problemi aperti
835
+
836
+ - Copyright\!
837
+ - Molto altro...
838
+
839
+ # <span id="anchor-28"></span>Appendici:
840
+
841
+ ## <span id="anchor-29"></span>Un “appoggio” di link con materiale didattico
842
+
843
+ Scrivendo questa bozza, mi sono imbattuto in alcuni siti con materiale
844
+ didattico per le scuole che potrebbe essere utile tenere in
845
+ considerazione. In gran parte si tratta di siti molto vecchi e quindi i
846
+ problemi di copyright potrebbero essere più gestibili.
847
+
848
+ Questi link non sono *assolutamente* esaustivi, sono stati trovati oggi
849
+ in pochi minuti; invito a cercare più materiale.
850
+
851
+ - <https://digilander.libero.it/italianonelbiennio/>
852
+ - <https://digilander.libero.it/uraniaceleste/>
853
+ - <http://www.lineadidattica.altervista.org/materiali_didattici.html>
854
+ - <https://rossanaweb.altervista.org/blog/area-studenti/esercizi-online/esercizi-online-di-italiano/>
855
+ - <https://www.profgiuseppebettati.it/>
856
+ - <http://www.apprendendo.altervista.org/italiano.html>
857
+ - <https://italianoperstranieri.altervista.org/>
858
+ - <https://www.profwaltergalli.it/per-i-docenti/mediatori-didattici-sottosezioni-da-1-a-7/1-siti-didattici-per-tutte-le-discipline/>
859
+ - <http://www.apprendendo.altervista.org/didattica%20online.html>
860
+ - <https://library.weschool.com/> **(\!\!\!)**
861
+ - <https://italianoinlinea.com/cruciverba-per-imparare-litaliano/>
862
+ - <https://digilander.libero.it/sussidi.didattici/>
863
+ - <http://www.bibliolab.it/lessico/lessico_index.htm>
864
+ - <https://www.guamodiscuola.it/2014/01/testo-argomentativo-materiali-didattici.html>
865
+ - <http://www.storiadellaletteratura.it/> **(\!\!\!)**
866
+ - <https://www.dropbox.com/s/tcy2j8nma5hmr1j/LAVORO%20SUL%20TESTO%20-%20Percorso%20didattico%20su%20Pinocchio.pdf?e=1&dl=0>
867
+ - <https://www.fabrizioaltieri.it/wordpress/tutti-i-miei-libri-per-ragazzi/battello-a-vapore/serie-azzurra/comprensione-del-testo-scuola-primaria/6-brani-con-verifica-sulla-comprensione-del-testo/>
868
+
869
+ Appoggio di link enigmistica:
870
+
871
+ - <https://cruciverba.io/soluzioni-recenti>
872
+ - <https://www.nostrofiglio.it/famiglia/indovinelli-difficili-per-adulti>
873
+ - <https://www.enigmatopia.it/category/giochi-a-enigmi-online/la-strada-per-enigmatopia/>
874
+ - <https://yesnogame.net/it>
875
+ - <https://utenti.quipo.it/base5/penslate/latmate.htm> **(\!)**
876
+ - <https://utenti.quipo.it/base5/penslate/latclass.htm>
877
+
878
+ ## <span id="anchor-30"></span>Task linguistici (ispirati da vecchi siti di materiale didattico trovati online):
879
+
880
+ <table>
881
+ <tbody>
882
+ <tr class="odd">
883
+ <td>Tipologia</td>
884
+ <td>Attività</td>
885
+ <td>Obiettivi</td>
886
+ <td>Proposte operative</td>
887
+ </tr>
888
+ <tr class="even">
889
+ <td><strong>Cancellazione</strong> </td>
890
+ <td>Riconoscere le parole incluse arbitrariamente in un testo</td>
891
+ <td>Sviluppare la riflessione sul lessico, in base al criterio della pertinenza del singolo elemento linguistico, rispetto all’insieme.</td>
892
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P1.html#eutropio"><strong>P1</strong></a></td>
893
+ </tr>
894
+ <tr class="odd">
895
+ <td><strong>Cloze</strong> </td>
896
+ <td><p>Inserire in un testo le parole mancanti, fornite in sequenza casuale.</p>
897
+ <p> </p></td>
898
+ <td>Promuovere la competenza testuale e la capacità inferenziale, mediante il preventivo riconoscimento della categoria grammaticale da inserire.</td>
899
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P2.html#seneca"><strong>P2</strong></a></td>
900
+ </tr>
901
+ <tr class="even">
902
+ <td><strong>Decontaminazione</strong> </td>
903
+ <td>Distinguere gli elementi testuali che appartengono a due differenti testi.</td>
904
+ <td>Rafforzare la competenza testuale, sulla base del riconoscimento dei fattori di coerenza e coesione.</td>
905
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P3.html#aurelio"><strong>P3</strong></a></td>
906
+ </tr>
907
+ <tr class="odd">
908
+ <td><strong>Esplicitazione</strong> </td>
909
+ <td>Collegare ogni pronome, presente nel testo, al proprio referente.</td>
910
+ <td>Promuovere il riconoscimento dei fattori che determinano la coesione testuale.</td>
911
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P4.html#igino"><strong>P4</strong></a></td>
912
+ </tr>
913
+ <tr class="even">
914
+ <td>Griglia</td>
915
+ <td>Individuare l’intersezione delle variabili (riconducibili a un testo dato) rappresentate sugli assi di una matrice.</td>
916
+ <td><p>Potenziare la comprensione del livello denotativo e connotativo.</p>
917
+ <p> </p></td>
918
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P5.html#Favole"><strong>P5</strong></a></td>
919
+ </tr>
920
+ <tr class="odd">
921
+ <td>Incastro</td>
922
+ <td>Ricostruire l’esatta sequenza delle parole di un testo, presentate in ordine casuale.</td>
923
+ <td>Sviluppare la competenza morfo-sintattica.</td>
924
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P6.html#isidoro"><strong>P6</strong></a></td>
925
+ </tr>
926
+ <tr class="even">
927
+ <td>Riassunto</td>
928
+ <td>Ridurre un testo ai nuclei informativi essenziali, da riprodurre secondo una formulazione personale.</td>
929
+ <td>Incentivare la capacità di riconoscere la gerarchia delle informazioni essenziali, mettendo in atto la globalità dei processi cognitivo-linguistici.</td>
930
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P7.html#P7%20Aviano"><strong>P7</strong></a></td>
931
+ </tr>
932
+ <tr class="odd">
933
+ <td>Ricostruzione</td>
934
+ <td>Riprodurre la corretta sequenza dei paragrafi di un testo, proposti in ordine casuale.</td>
935
+ <td>Potenziare le strategie del processo di comprensione, mediante il riconoscimento dei fattori che determinano la coerenza testuale.</td>
936
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P8.html#manilio"><strong>P8</strong></a></td>
937
+ </tr>
938
+ <tr class="even">
939
+ <td>Scelta multipla</td>
940
+ <td>Individuare la risposta corretta, selezionandola tra le varie opzioni date.</td>
941
+ <td>Guidare il percorso di comprensione</td>
942
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P9.html#plinio"><strong>P9</strong></a></td>
943
+ </tr>
944
+ <tr class="odd">
945
+ <td><strong>Suddivisione</strong> </td>
946
+ <td>Dividere un testo in sequenze e assegnare una titolazione pertinente.</td>
947
+ <td>Potenziare le abilità di lettura e comprensione.</td>
948
+ <td><a href="https://digilander.libero.it/uraniaceleste/latino/ZANASI1/P10.html#cesare"><strong>P10</strong></a></td>
949
+ </tr>
950
+ </tbody>
951
+ </table>
952
+
953
+ I giochi linguistici
954
+
955
+ Proponiamo una serie di possibili esercizi, tutti sul medesimo testo di
956
+ riferimento, che è il seguente:
957
+
958
+ Un topolino correva avanti e indietro sopra il corpo di un leone
959
+ addormentato. Quello si svegliò e afferratolo stava per mangiarselo. Ma
960
+ il topolino lo scongiurò di lasciarlo libero, dicendogli che se lo
961
+ avesse salvato gli avrebbe ricambiato il favore; il leone sorrise e lo
962
+ lasciò andare. Non molto tempo dopo il leone fu catturato da alcuni
963
+ cacciatori che lo legarono con una corda ad un albero. Il topolino, che
964
+ aveva sentito i suoi lamenti, rosicchiò la corda e lo liberò,
965
+ dicendogli: “Un giorno tu sorridesti di me, pensando che io non fossi in
966
+ grado di ricambiare il favore. D’ora innanzi, invece, sarai convinto che
967
+ esiste la gratitudine anche presso i topi”.
968
+  
969
+
970
+ ## <span id="anchor-31"></span>Statistiche *temporanee* **scraping di Usenet:**
971
+
972
+ Mancano ancora dei newsgroup da sistemare, ma sono già stati scaricati
973
+ tutti. La gerarchia \*italia (discussioni locali) non è al momento
974
+ presente in statistica. La colonna a destra indica il numero di
975
+ conversazioni NON quello dei singoli messaggi (maggiore), che sarà
976
+ presente in una statistica successiva. Alcuni gruppi purtroppo sono
977
+ andati perduti perché censurati da Google Groups, forse a causa di
978
+ troppo spam.
979
+
980
+ ***Totale singole conversazioni: 13.098.235***
981
+
982
+ ***Totale singoli messaggi: ****da calcolare***
983
+
984
+ | | |
985
+ | ------------------------------------------ | ------ |
986
+ | it.politica | 813646 |
987
+ | it.sport.calcio.milan | 442317 |
988
+ | it.economia.borsa | 363459 |
989
+ | it.discussioni.auto | 209997 |
990
+ | it.sport.calcio.roma | 181430 |
991
+ | it.sport.calcio | 166006 |
992
+ | it.comp.hardware | 163391 |
993
+ | it.sport.calcio.napoli | 160256 |
994
+ | it.media.tv | 157839 |
995
+ | it.media.tv | 157839 |
996
+ | it.arti.fotografia.digitale | 155799 |
997
+ | it.comp.macintosh | 155526 |
998
+ | it.comp.aiuto | 152643 |
999
+ | it.hobby.motociclismo | 146326 |
1000
+ | it.politica.internazionale | 144392 |
1001
+ | it.hobby.fai-da-te | 138488 |
1002
+ | it.hobby.satellite-tv.digitale | 137842 |
1003
+ | it.comp.os.linux.iniziare | 133170 |
1004
+ | it.tlc.cellulari | 127660 |
1005
+ | it.hobby.viaggi | 123933 |
1006
+ | it.comp.lang.visual-basic | 116373 |
1007
+ | it.arti.cinema | 115803 |
1008
+ | it.arti.fotografia | 114277 |
1009
+ | it.politica.pds | 111191 |
1010
+ | it.arti.musica.strumenti.chitarra | 111186 |
1011
+ | it.comp.console.playstation | 110042 |
1012
+ | it.sport.calcio.inter-f | 109206 |
1013
+ | it.tlc.telefonia.adsl | 104615 |
1014
+ | it.sport.calcio.juventu | 99951 |
1015
+ | it.discussioni.commercialisti | 97636 |
1016
+ | it.hobby.umorismo | 93120 |
1017
+ | it.sport.calcio.inter | 90076 |
1018
+ | it.sesso.discussioni | 89924 |
1019
+ | it.media.video.produzione | 87382 |
1020
+ | it.media.video.produzione | 87382 |
1021
+ | it.hobby.home-cinema | 86245 |
1022
+ | it.politica.polo | 85440 |
1023
+ | it.hobby.cucina | 83914 |
1024
+ | it.discussioni.litigi | 83910 |
1025
+ | it.diritto | 83162 |
1026
+ | it.comp.appl.access | 81615 |
1027
+ | it.lavoro.informatica | 80338 |
1028
+ | it.comp.giochi.action | 79174 |
1029
+ | it.comp.hardware.cd | 78026 |
1030
+ | it.sport.calcio.torino | 75571 |
1031
+ | it.hobby.totoscommesse | 73750 |
1032
+ | it.comp.hardware.palmari | 72702 |
1033
+ | it.hobby.acquari | 70399 |
1034
+ | it.hobby.radioamatori | 69671 |
1035
+ | it.arti.musica.rock | 66746 |
1036
+ | it.discussioni.misteri | 65335 |
1037
+ | it.discussioni.animali.cani | 64745 |
1038
+ | it.discussioni.consumatori.tutela | 63063 |
1039
+ | it.comp.os.win.xp | 61986 |
1040
+ | it.comp.hardware.overclock | 61654 |
1041
+ | it.arti.musica.classica | 60054 |
1042
+ | it.comp.hardware.motherboard | 59410 |
1043
+ | it.cultura.filosofia | 59056 |
1044
+ | it.sport.formula1 | 58454 |
1045
+ | it.sport.calcio.fiorentina | 57847 |
1046
+ | it.cultura.religioni | 56980 |
1047
+ | it.arti.cartoni | 55926 |
1048
+ | it.arti.cartoni | 55926 |
1049
+ | it.cultura.single | 55807 |
1050
+ | it.hobby.motociclismo.scooter | 55368 |
1051
+ | it.arti.musica.metal | 54985 |
1052
+ | it.istruzione.scuola | 54978 |
1053
+ | it.lavoro.professioni.webmaster | 51924 |
1054
+ | it.hobby.lotto | 51225 |
1055
+ | it.comp.giochi.annunci | 50366 |
1056
+ | it.comp.os.win.win2000 | 49655 |
1057
+ | it.sport.calcio.genoa | 49590 |
1058
+ | it.sport.ciclismo | 48954 |
1059
+ | it.sport.basket | 48588 |
1060
+ | it.comp.java | 48529 |
1061
+ | it.hobby.satellite-tv | 48464 |
1062
+ | it.scienza.matematica | 48441 |
1063
+ | it.comp.grafica | 48046 |
1064
+ | it.comp.grafica | 48046 |
1065
+ | it.aiuto | 47043 |
1066
+ | it.fan.startrek | 46051 |
1067
+ | it.comp.reti.locali | 45922 |
1068
+ | it.cultura.libri | 45065 |
1069
+ | it.lavoro.offerte | 44256 |
1070
+ | it.hobby.scacchi | 42853 |
1071
+ | it.arti.fumetti | 42337 |
1072
+ | it.arti.poesia | 42264 |
1073
+ | it.comp.giochi.sportivi.hattrick | 40515 |
1074
+ | it.hobby.hi-fi | 39229 |
1075
+ | it.comp.hardware.cpu | 38584 |
1076
+ | it.arti.musica | 38508 |
1077
+ | it.discussioni.geometri | 38245 |
1078
+ | it.discussioni.folli | 37954 |
1079
+ | it.comp.www.php | 37754 |
1080
+ | it.comp.os.linux.sys | 36822 |
1081
+ | it.fan.culo | 36741 |
1082
+ | it.arti.musica.rock.progressive | 35932 |
1083
+ | it.fan.studio-vit | 35841 |
1084
+ | it.hobby.elettronica.riparazioni | 34833 |
1085
+ | it.sesso.racconti | 34601 |
1086
+ | it.comp.giochi.simulatori.volo | 34370 |
1087
+ | it.hobby.modellismo | 34289 |
1088
+ | it.comp.lang.javascript | 34100 |
1089
+ | it.comp.hardware.modem | 34100 |
1090
+ | it.politica.ulivo | 33218 |
1091
+ | it.discussioni.varie | 33189 |
1092
+ | it.discussioni.leggende.metropolitane | 32435 |
1093
+ | it.lavoro.consulenti | 32354 |
1094
+ | it.lavoro.consulenti | 32354 |
1095
+ | it.sport.motociclismo | 32179 |
1096
+ | it.discussioni.ufo | 32115 |
1097
+ | it.hobby.scuba | 32080 |
1098
+ | it.sport.calcio.sampdoria | 32062 |
1099
+ | it.sport.calcio.estero | 31568 |
1100
+ | it.diritto.condominio | 31507 |
1101
+ | it.hobby.hi-fi.car | 31383 |
1102
+ | it.lavoro.mlm | 31104 |
1103
+ | it.comp.retrocomputing | 30864 |
1104
+ | it.comp.os.win.win9x | 30332 |
1105
+ | it.sport.windsurf | 30327 |
1106
+ | it.comp.giochi.rpg | 30293 |
1107
+ | it.salute | 29591 |
1108
+ | it.hobby.pescare | 29380 |
1109
+ | it.fan.musica.queen | 29297 |
1110
+ | it.hobby.cicloturismo | 29165 |
1111
+ | it.comp.musica | 27983 |
1112
+ | it.cultura.linguistica.italiano | 27052 |
1113
+ | it.hobby.armi | 26886 |
1114
+ | it.sport.montagna | 26538 |
1115
+ | it.cultura.storia | 26527 |
1116
+ | it.scienza.astronomia | 26502 |
1117
+ | it.discussioni.ingegneria | 26406 |
1118
+ | it.comp.os.linux.software | 26333 |
1119
+ | it.cultura.cattolica | 26304 |
1120
+ | it.comp.lang.delphi | 26233 |
1121
+ | it.comp.software.emulatori | 25796 |
1122
+ | it.arti.musica.strumenti.tastiere | 25368 |
1123
+ | it.hobby.giardinaggio | 25263 |
1124
+ | it.hobby.nautica | 24857 |
1125
+ | it.fan.musica.u2 | 24640 |
1126
+ | it.comp.grafica.photoshop | 24140 |
1127
+ | it.arti.musica.jazz | 24069 |
1128
+ | it.tlc.telefonia | 23882 |
1129
+ | it.comp.hardware.storage | 23755 |
1130
+ | it.scienza.medicina | 23685 |
1131
+ | it.annunci.usato | 23266 |
1132
+ | it.comp.lang.c++ | 23133 |
1133
+ | it.economia.investire | 22883 |
1134
+ | it.sport.arti-marziali | 22422 |
1135
+ | it.economia | 22318 |
1136
+ | it.fan.tv | 22296 |
1137
+ | it.comp.giochi.sportivi | 21990 |
1138
+ | it.arti.fotografia.segnalazioni | 21763 |
1139
+ | it.arti.ballo.lat-americano | 21752 |
1140
+ | it.comp.os.win.software | 21732 |
1141
+ | it.hobby.elettronica.digitale | 21477 |
1142
+ | it.tlc.gestori.fastweb | 20801 |
1143
+ | it.tlc.cellulari.motorola | 20757 |
1144
+ | it.arti.architettura | 20718 |
1145
+ | it.discussioni.auto.ford | 20655 |
1146
+ | it.sport.americani | 20447 |
1147
+ | it.comp.software.cad | 20264 |
1148
+ | it.cultura.religioni.cristiani | 20107 |
1149
+ | it.sport.tennis | 19571 |
1150
+ | it.sport.tenni | 19565 |
1151
+ | it.sociale.obiezione | 19478 |
1152
+ | it.sociale.obiezione | 19478 |
1153
+ | it.comp.musica.mp3 | 19370 |
1154
+ | it.comp.giochi.simulatori | 19330 |
1155
+ | it.cultura | 19310 |
1156
+ | it.arti.fantasy | 18856 |
1157
+ | it.discussioni.motori | 18653 |
1158
+ | it.economia.borsa.estero | 18547 |
1159
+ | it.scienza.fisica | 18486 |
1160
+ | it.sport.formula1.moderato | 18463 |
1161
+ | it.comp.hardware.schede-audio | 18444 |
1162
+ | it.cultura.linguistica.inglese | 18266 |
1163
+ | it.comp.programmare.win32 | 18116 |
1164
+ | it.arti.musica.strumenti.basso | 17892 |
1165
+ | it.diritto.assicurazioni | 17855 |
1166
+ | it.tlc.gestori.vodafone | 17726 |
1167
+ | it.cultura.fantascienza | 17673 |
1168
+ | it.arti.hiphop | 17465 |
1169
+ | it.fan.radio.deejay | 17463 |
1170
+ | it.comp.sicurezza.windows | 17393 |
1171
+ | it.fan.starwars | 17292 |
1172
+ | it.fan.musica.lucio-battisti | 17218 |
1173
+ | it.fan.musica.lucio-battisti | 17218 |
1174
+ | it.cultura.horror | 17202 |
1175
+ | it.comp.www | 17033 |
1176
+ | it.comp.reti.wireless | 17004 |
1177
+ | it.discussioni.ristoranti | 16865 |
1178
+ | it.comp.software.newsreader | 16808 |
1179
+ | it.hobby.enigmi | 16422 |
1180
+ | it.tlc.gestori.wind | 16332 |
1181
+ | it.sport.nuoto | 16326 |
1182
+ | it.comp.sicurezza.varie | 16324 |
1183
+ | it.sport.sci | 16167 |
1184
+ | it.arti.musica.strumenti | 16076 |
1185
+ | it.arti.cartoni.mercatino | 16052 |
1186
+ | it.hobby.fantasport | 15991 |
1187
+ | it.news.net-abuse | 15872 |
1188
+ | it.news.net-abuse | 15872 |
1189
+ | it.fan.musica.battiato | 15711 |
1190
+ | it.discussioni.sessualita | 15706 |
1191
+ | it.discussioni.sentimenti | 15683 |
1192
+ | it.hobby.giochi.gdr.dnd | 15551 |
1193
+ | it.fan.tv.friends | 15421 |
1194
+ | it.cultura.storia.militare | 15157 |
1195
+ | it.comp.reti.cisco | 15121 |
1196
+ | it.sport | 14835 |
1197
+ | it.tlc.telefonia.voip | 14752 |
1198
+ | it.fan.tv.buffy | 14718 |
1199
+ | it.sociale.scout | 14284 |
1200
+ | it.comp.lang.c | 14053 |
1201
+ | it.hobby.vino | 13967 |
1202
+ | it.cultura.antagonista | 13739 |
1203
+ | it.discussioni.ingegneria.civile | 13469 |
1204
+ | it.fan.musica.baglioni | 13404 |
1205
+ | it.cultura.militare | 13391 |
1206
+ | it.hobby.satellite-tv.digitale.mod | 13190 |
1207
+ | it.diritto.internet | 13136 |
1208
+ | it.cultura.newage | 13085 |
1209
+ | it.hobby.radio-cb | 12981 |
1210
+ | it.istruzione.universita.ingegneria | 12943 |
1211
+ | it.scienza.ambiente | 12917 |
1212
+ | it.discussioni.psicologia | 12798 |
1213
+ | it.news.gruppi | 12772 |
1214
+ | it.tlc.gestori.tim | 12735 |
1215
+ | it.comp.software.database | 12364 |
1216
+ | it.comp.hardware.dvd | 12326 |
1217
+ | it.economia.banche | 12283 |
1218
+ | it.news.aiuto | 12280 |
1219
+ | it.comp.reti.ip-admin | 12011 |
1220
+ | it.comp.software.mailreader | 12001 |
1221
+ | it.politica.destra | 11946 |
1222
+ | it.comp.hardware.scsi | 11921 |
1223
+ | it.scienza.chimica | 11799 |
1224
+ | it.fan.scrittori.tolkien | 11513 |
1225
+ | it.discussioni.droghe | 11442 |
1226
+ | it.discussioni.giustizia | 11430 |
1227
+ | it.discussioni.giustizia | 11430 |
1228
+ | it.fan.stephen-king | 11412 |
1229
+ | it.comp.os.win.nt | 11132 |
1230
+ | it.comp.programmare | 10535 |
1231
+ | it.sport.atletica | 10473 |
1232
+ | it.fan.musica.ligabue | 10305 |
1233
+ | it.hobby.home-cinema.titoli-dvd | 10099 |
1234
+ | it.discussioni.auto.mod | 10083 |
1235
+ | it.istruzione.universita | 9870 |
1236
+ | it.istruzione.universita | 9870 |
1237
+ | it.discussioni.energie-alternative | 9817 |
1238
+ | it.hobby.audiovisivi | 9781 |
1239
+ | it.cultura.ebraica | 9775 |
1240
+ | it.scienza.biologia | 9612 |
1241
+ | it.salute.alimentazione | 9202 |
1242
+ | it.salute.alimentazione | 9202 |
1243
+ | it.fan.musica | 9082 |
1244
+ | it.tlc.gestori.telecom | 9012 |
1245
+ | it.cultura.letteratura.italiana | 9006 |
1246
+ | it.comp.appl.macromedia | 9002 |
1247
+ | it.comp.os.linux.development | 8943 |
1248
+ | it.lavoro.prevenzione | 8879 |
1249
+ | it.scienza.astronomia.amatoriale | 8861 |
1250
+ | it.arti.varie | 8842 |
1251
+ | it.comp.software.shareware | 8501 |
1252
+ | it.comp.os.amiga | 8491 |
1253
+ | it.comp.giochi.avventure.testuali | 8469 |
1254
+ | it.lavoro.richieste | 8465 |
1255
+ | it.hobby.piante.cactus | 8273 |
1256
+ | it.politica.cattolici | 8271 |
1257
+ | it.discussioni.animali | 8223 |
1258
+ | it.sociale.handicap | 8120 |
1259
+ | it.cultura.religioni.bahai | 8108 |
1260
+ | it.discussioni.sogni | 8066 |
1261
+ | it.comp.software.divx | 8014 |
1262
+ | it.hobby.radioascolto | 7920 |
1263
+ | it.comp.software.tex | 7810 |
1264
+ | it.comp.giochi.sviluppo | 7722 |
1265
+ | it.fan.musica.rem | 7672 |
1266
+ | it.associazioni.cri | 7652 |
1267
+ | it.hobby.armi.moderato | 7427 |
1268
+ | it.comp.os.dibattiti | 7380 |
1269
+ | it.comp.os.win.windows7 | 7295 |
1270
+ | it.politica.sinistra | 7282 |
1271
+ | it.comp.giochi.rpg.ultimaonline | 7227 |
1272
+ | it.discussioni.agricoltura | 7205 |
1273
+ | it.comp.os.linux.debian | 7162 |
1274
+ | it.hobby.vari | 7139 |
1275
+ | it.comp.lang.perl | 7132 |
1276
+ | it.comp.appl.notes-domino | 7058 |
1277
+ | it.comp.appl.notes-domino | 7058 |
1278
+ | it.faq | 7030 |
1279
+ | it.hobby.aquiloni | 7006 |
1280
+ | it.fan.tv.dawsons-creek | 6972 |
1281
+ | it.sport.calcio.palermo | 6903 |
1282
+ | it.comp.hardware.palmari.gps | 6823 |
1283
+ | it.fan.musica.springsteen | 6627 |
1284
+ | it.tlc.provider | 6558 |
1285
+ | it.news.annunci | 6470 |
1286
+ | it.cultura.cybersocieta | 6428 |
1287
+ | it.discussioni.giallo | 6332 |
1288
+ | it.fan.musica.carmen-consoli | 6238 |
1289
+ | it.comp.software.emulatori.console-recenti | 6224 |
1290
+ | it.discussioni.iso9000 | 6217 |
1291
+ | it.sport.rally | 6146 |
1292
+ | it.fan.tv.er | 6107 |
1293
+ | it.comp.os.win.windows10 | 6106 |
1294
+ | it.comp.os.win.windows10 | 6106 |
1295
+ | it.industria.elettrotecnica.normative | 5998 |
1296
+ | it.fan.musica.elio | 5922 |
1297
+ | it.hobby.viaggi.inter-rail | 5905 |
1298
+ | it.hobby.viaggi.inter-rail | 5905 |
1299
+ | it.cultura.filosofia.moderato | 5871 |
1300
+ | it.fan.musica.de-andre | 5714 |
1301
+ | it.media.tv.fantascienza | 5622 |
1302
+ | it.news.moderazione | 5462 |
1303
+ | it.cultura.linguistica | 5389 |
1304
+ | it.comp.software.browser | 5368 |
1305
+ | it.sociale.adozione | 5354 |
1306
+ | it.scienza.astronomia.seti | 5266 |
1307
+ | it.cultura.linguistica.giapponese | 5208 |
1308
+ | it.comp.lang.vo-clipper | 5179 |
1309
+ | it.sociale.primosoccorso | 5155 |
1310
+ | it.arti.musica.classica.mod | 5054 |
1311
+ | it.arti.fumetti.manga | 5054 |
1312
+ | it.comp.os.os2 | 5013 |
1313
+ | it.cultura.cybersocieta.lamer | 4810 |
1314
+ | it.cultura.cybersocieta.lamer | 4810 |
1315
+ | it.arti.animazione | 4588 |
1316
+ | it.comp.lang.pascal | 4449 |
1317
+ | it.istruzione.scuola.informatica | 4366 |
1318
+ | it.fan.marco-ditri | 4163 |
1319
+ | it.comp.os.dos | 4156 |
1320
+ | it.fan.tv.mai-dire-gol | 4137 |
1321
+ | it.comp.os.win.vista | 4130 |
1322
+ | it.arti.musica.polifonia | 4092 |
1323
+ | it.hobby.creativi | 3972 |
1324
+ | it.salute.aids | 3865 |
1325
+ | it.cultura.classica | 3661 |
1326
+ | it.lavoro.sindacato | 3562 |
1327
+ | it.sport.rugby | 3561 |
1328
+ | it.scienza.geologia | 3422 |
1329
+ | it.hobby.volo.ultraleggero | 3338 |
1330
+ | it.hobby.radioamatori.moderato | 3326 |
1331
+ | it.news.gestione | 3205 |
1332
+ | it.comp.sicurezza.pgp | 3155 |
1333
+ | it.cultura.religioni.buddhismo | 3069 |
1334
+ | it.comp.software.irc | 2875 |
1335
+ | it.fan.radio | 2867 |
1336
+ | it.comp.appl.eudora | 2865 |
1337
+ | it.news.votazioni | 2859 |
1338
+ | it.comp.os.linux.mandrake | 2759 |
1339
+ | it.comp.os.linux.ubuntu | 2660 |
1340
+ | it.tlc.gestori | 2606 |
1341
+ | it.fan.nutella | 2581 |
1342
+ | it.sociale.anorexbulimia | 2546 |
1343
+ | it.scienza.informatica | 2484 |
1344
+ | it.fan.tv.babylon5 | 2484 |
1345
+ | it.discussioni.energia | 2403 |
1346
+ | it.fan.japan.sailor-moon | 2315 |
1347
+ | it.salute.cefalee | 2281 |
1348
+ | it.lavoro.professioni.pubblicita | 2203 |
1349
+ | it.comp.os.linux.annunci | 2072 |
1350
+ | it.fan.japan.r-takahashi | 2000 |
1351
+ | it.comp.os.unix | 1978 |
1352
+ | it.arti.musica.strumenti.voce | 1974 |
1353
+ | it.comp.sicurezza.crittografia | 1950 |
1354
+ | it.fan.matrix | 1947 |
1355
+ | it.comp.software.libero | 1935 |
1356
+ | it.politica.internazionale.israele | 1922 |
1357
+ | it.discussioni.astrologia | 1899 |
1358
+ | it.hobby.motociclismo.viaggi | 1822 |
1359
+ | it.sport.golf | 1700 |
1360
+ | it.sport.golf | 1700 |
1361
+ | it.comp.sicurezza.unix | 1668 |
1362
+ | it.cultura.storia.moderato | 1560 |
1363
+ | it.cultura.linguistica.francese | 1475 |
1364
+ | it.comp.os.linux.redhat | 1438 |
1365
+ | it.fan.asimov | 1343 |
1366
+ | it.arti.musica.strumenti.chitarra.mod | 1180 |
1367
+ | it.hobby.robotica | 923 |
1368
+ | it.arti.cinema.recensioni | 890 |
1369
+ | it.fan.musica.pearl-jam | 870 |
1370
+ | it.comp.accessibilita | 804 |
1371
+ | it.arti.musica.studio | 776 |
1372
+ | it.sociale.globalizzazione | 707 |
1373
+ | it.sport.calcio.moderato | 641 |
1374
+ | it.hobby.volo | 638 |
1375
+ | it.fan.tv.scrubs | 492 |
1376
+ | it.comp.dotnet | 424 |
1377
+ | it.comp.dotnet | 424 |
1378
+ | it.comp.virtualizzazione | 390 |
1379
+ | it.comp.software.editor | 267 |
1380
+ | it.comp.lang | 252 |
1381
+ | it.scienza.divulgazione | 240 |
1382
+ | it.lavoro.professioni | 226 |
1383
+ | it.comp.os.openbsd | 206 |
1384
+ | it.politica.m5s | 152 |
1385
+ | it.scienza.medicina.tumori | 123 |
1386
+ | it.tlc.provider.disservizi | 0 |
1387
+ | it.sport.volley | 0 |
1388
+
1389
+ ****