English   Italiano

Costituzione del corpus

Il corpus è stato costituito in diversi passaggi:

  1. creazione di una seed list di combinazioni casuali di parole italiane frequenti,
    • tratte dal Vocabolario di base della lingua italiana (VdB) di Tullio De Mauro.
    • in totale, 50 000 coppie di parole
  2. reperimento degli indirizzi URL attraverso un motore di ricerca, pulizia della lista di URL
    • uso degli strumenti BootCaT con Yahoo!
    • attraverso Yahoo!, selezione delle pagine con le licenze creative commons richieste
    • rimozione delle pagine erroneamente classificate dal motore di ricerca come protette da licenza creative commons (in base a delle black list compilate manualmente)
  3. scaricamento del contenuto degli indirizzi URL e creazione di corpora puliti
    • per le pagine generali, utilizzando gli strumenti KrdWrd per reperire e pulire le pagine web
    • per le pagine di Wipkipedia, utilizzando il Wikipedia Extractor in combinazione con uno script che permette di separare i singoli documenti
    • rimozione dei file vuoti, troppo corti o troppo lunghi con script creati appositamente
  4. annotazione linguistica
  5. metadati
    • l'indirizzo URL sorgente è stato attribuito ad ogni documento del corpus
  6. indicizzazione per l'utilizzo di OpenCWB/CQP con gli strumenti di codifica cwb

Collection of the documents

I documenti presenti nel corpus PAISA sono stati selezionati utilizzando due criteri. Il primo, ispirato al progetto WaCky prevede che si identifichino le url dei documenti da scaricare effettuando ricerche per combinazioni casuali di parole su un motore di ricerca (nel nostro caso, Yahoo!. Per PAISA, le parole utilizzate sono state tratte dal Vocabolario di Base della Lingua Italiana, organizzate in una lista di 50.000 coppie. La ricerca è stata limitata a pagine in lingua italiana con licenza Creative Commons di tipo CC-Attribuzione, CC-Attribuzione-Condividi allo stesso modo, CC-Attribuzione-Non commerciale, o CC-Attribuzione-Non commerciale-Condividi allo stesso modo. Una volta ottenuta la lista di url, si è proceduto con l'eliminazione di pagine erroneamente riconducibili alle licenze CC, individuate sulla base di una black list di siti realizzata manualmente durante la realizzazione di precedenti e sperimentali versioni del corpus, nonché allo scaricamento e alla ripulitura dei documenti con il sistema KrdWrd.

Una seconda componente del corpus PAISA comprende documenti provenienti dalle versioni italiane di alcuni dei progetti web di Wikimedia Foundation ¬ Wikipedia, Wikinews, Wikisource, Wikibooks, Wikiversity, Wikivoyage. In questo caso, si sono utilizzati i dump ufficiali rilasciati da Wikimedia Foundation, estraendo il testo con il Wikipedia Extractor.

Una volta ottenuti tutti i materiali, si è effettuata una scrematura sull'intera collezione allo scopo di eliminare i documenti vuoti o con quantità di testo inferiori alle 150 parole.

Il corpus contiene in totale circa 380.000 documenti da circa 1.000 siti distinti per un totale di circa 250 milioni di parole. Circa 260.000 documenti provengono dal Wikipedia, circa 5.600 da altri progetti Wikimedia Foundation. Circa 9.300 documenti provengono da Indymedia, e si stima che circa 65.000 documenti provengano da blog.

I documenti sono delimitati nel corpus da un elemento XML "text" con attributi "id" (un valore numerico distinto assegnato a ciascun documento ) e "url", che riporta l'url da cui il documento è stato scaricato.

Per avere informazioni più dettagliate sul processo di costituzione del corpus consultare la sezione costituzione del corpus. Per maggiori informazioni sul contributo dei singoli partner, vedere la sezione partenariato.

L'accesso online al corpus avviene attraverso un'interfaccia dedicata. Inoltre, è possibile scaricare l'intero corpus in diverse versioni.


Formato dei dati

I dati distribuiti sono conformi alle seguenti caratteristiche:

Campo 1IDNumeratore dei token, riparte da 1 per ogni nuova frase
Campo 2FORMForma flessa (di un lemma) o simbolo di interpunzione
Campo 3LEMMALemma
Campo 4CPOSTAGIndicazione generica della parte del discorso
Campo 5POSTAGIndicazione specifica della parte del discorso
Campo 6FEATSCaratteristiche morfosintattiche
Campo 7HEADHEAD Testa del token, rappresentata da un numero identificativo o da uno zero ('0'), se assente
Campo 8DEPRELRelazione di dipendenza che lega il token alla propria testa, indicata quale 'ROOT' quando il valore del campo HEAD è zero (cfr. tagset delle dipendenze per informazioni più precise)
Campo 9non utilizzato
Campo 10non utilizzato

I tagset morfosintattici e delle dipendenze utilizzati sono stati sviluppati congiuntamente dall’Istituto di Linguistica Computazionale "Antonio Zampolli" (ILC-CNR) e dall’Università di Pisa all’interno del progetto TANL (Text Analytics and Natural Language processing). Sono inoltre stati utilizzati per l’annotazione delle dipendenze nel corpus ISST-TANL.

Di seguito si riporta un esempio di annotazione:

IDFORMLEMMACPOSTAGPOSTAGFEATSHEADDEPREL
1GliilRRDnum=p|gen=m2det
2statistatiSSnum=p|gen=m4subj
3membrimembroSSnum=p|gen=m2mod
4provvedonoprovvedereVVnum=p|per=3|mod=i|ten=p0ROOT
5affinchéaffinchéCCS_4mod
6ililRRDnum=s|gen=m7det
7gestoregestoreSSnum=s|gen=m9subj_pass
8siaessereVVAnum=s|per=3|mod=c|ten=p9aux
9obbligatoobbligareVVnum=s|mod=p|gen=m5sub
10aaEE_9arg
11trasmetteretrasmettereVVmod=f10prep
12all'aEEAnum=s|gen=n11comp_ind
13autoritàautoritàSSnum=n|gen=f12prep
14competentecompetenteAAnum=s|gen=n13mod
15unaunaRRInum=s|gen=f16det
16notificanotificaSSnum=s|gen=f11obj
17entroentroEE_11comp_temp
18iilRRDnum=p|gen=m20det
19seguentiseguenteAAnum=p|gen=n20mod
20terminitermineSSnum=p|gen=m17prep
21..FFS_4punc