
#
add
@Tests
Argomento:  lista-variabili 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --quiet (non mostra le stime del modello aumentato)
Esempi:     add 5 7 9
            add xx yy zz

Va invocato dopo un comando di stima. Aggiunge al modello precedente le
variabili nella lista-variabili e stima il nuovo modello. Se si aggiunge più
di una variabile, verranno mostrati la statistica F e il suo p-value per le
nuove variabili (solo per la procedura OLS). Un p-value inferiore a 0.05
indica che i coefficienti sono congiuntamente significativi al livello del 5
per cento.

Se viene usata l'opzione --quiet viene mostrato solo il risultato del test
per la significatività congiunta delle variabili aggiunte, altrimenti
vengono mostrate anche le stime per il modello aumentato. Nell'ultimo caso,
l'opzione --vcv mostra anche la matrice di covarianza dei coefficienti.

Accesso dal menù: Finestra del modello, /Test/ADD - Aggiungi variabili

#
addto
@Tests
Argomenti:  id-modello lista-variabili 
Opzione:    --quiet (non mostra le stime del modello aumentato)
Esempio:    addto 2 5 7 9

Funziona come il comando "add", con l'eccezione che occorre specificare il
modello precedente (usando il suo numero identificativo, che è mostrato
all'inizio dei risultati del modello) da prendere come base per l'aggiunta
delle variabili. L'esempio precedente aggiunge le variabili numero 5, 7 e 9
al modello 2.

Accesso dal menù: Finestra del modello, /Test/ADD - Aggiungi variabili

#
adf
@Tests
Argomenti:  ordine nome-variabile 
Opzioni:    --nc (test senza costante)
            --c (solo con la costante)
            --ct (con costante e trend)
            --ctt (con costante, trend e trend al quadrato)
            --verbose (mostra i risultati della regressione)
Esempi:     adf 0 y
            adf 2 y --nc --c --ct

Calcola le statistiche per un gruppo di test Dickey-Fuller sulla variabile
specificata, assumendo come ipotesi nulla che la variabile abbia una radice
unitaria.

Per impostazione predefinita, vengono mostrate tre varianti del test: una
basata su una regressione che contiene solo una costante, una che include la
costante e un trend lineare, una che usa la costante e un trend quadratico.
È possibile controllare le tre varianti specificando una o più opzioni.

In tutti i casi, la variabile dipendente è la differenza prima della
variabile specificata, y, e la variabile dipendente più importante è il
ritardo (di ordine uno) di y. Il modello è costruito in modo che il
coefficiente della variabile ritardata y è pari a 1 meno la radice. Ad
esempio, il modello con una costante può essere scritto come

  (1 - L)y(t) = b0 + (1-a)y(t-1) + e(t)

Se l'ordine di ritardi, k, è maggiore di 0, ai regressori di ognuna delle
regressioni calcolate per il test saranno aggiunti k ritardi della variabile
dipendente.

Se l'ordine di ritardi è preceduto da un segno meno, ad esempio -k, verrà
considerato come ordine massimo, e l'ordine da usare effettivamente sarà
ricavato applicando la seguente procedura di test "all'indietro":

1. Stima la regressione Dickey-Fuller con k ritardi della variabile
   dipendente.

2. Se questo ordine di ritardi è significativo, esegue il test con l'ordine
   di ritardo k. Altrimenti, prova il test con k = k - 1; se k = 0, esegue
   il test con ordine di ritardo 0, altrimenti va al punto 1.

Durante il punto 2 spiegato sopra, "significativo" significa che la
statistica t per l'ultimo ritardo abbia un p-value asintotico a due code per
la distribuzione normale pari a 0.10 o inferiore.

I p-value per questo test sono basati su MacKinnon (1996). Il codice
rilevante è incluso per gentile concessione dell'autore.

Accesso dal menù: /Variabile/Test Dickey-Fuller aumentato

#
append
@Dataset
Argomento:  file-dati 

Apre un file di dati e aggiunge il suo contenuto al dataset corrente, se i
nuovi dati sono compatibili. Il programma cerca di riconoscere il formato
del file di dati (interno, testo semplice, CSV, o BOX1).

Accesso dal menù: /File/Aggiungi dati

#
ar
@Estimation
Argomenti:  ritardi ; variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempio:    ar 1 3 4 ; y 0 x1 x2 x3

Calcola le stime parametriche usando la procedura iterativa generalizzata di
Cochrane-Orcutt (si veda il Capitolo 9.5 di Ramanathan). La procedura
termina quando le somme dei quadrati degli errori consecutivi non
differiscono per più dello 0.005 per cento, oppure dopo 20 iterazioni.

"ritardi" è una lista di ritardi nei residui, conclusa da un punto e
virgola. Nell'esempio precedente, il termine di errore è specificato come

  u(t) = rho(1)*u(t-1) + rho(3)+u(t-3) + rho(4)*u(t-4)

Accesso dal menù: /Modello/Serie storiche/AR - Stima autoregressiva

#
arch
@Tests
Argomenti:  ordine variabile-dipendente variabili-indipendenti 
Esempio:    arch 4 y 0 x1 x2 x3

Testa il modello per l'eteroschedasticità condizionale autoregressiva (ARCH:
Autoregressive Conditional Heteroskedasticity) dell'ordine specificato. Se
la statistica del test LM ha un p-value inferiore a 0.10, viene anche
effettuata la stima ARCH. Se la varianza prevista di qualche osservazione
nella regressione ausiliaria non risulta positiva, viene usato il
corrispondente residuo al quadrato. Viene quindi calcolata la stima con i
minimi quadrati ponderati sul modello originale.

Si veda anche "garch".

Accesso dal menù: Finestra del modello, /Test/ARCH

#
arma
@Estimation
Argomenti:  p q ; variabile-dipendente [ variabili-indipendenti ] 
Opzioni:    --native (usa il plugin interno (predefinito))
            --x-12-arima (usa X-12-ARIMA per la stima)
            --verbose (mostra i dettagli delle iterazioni)
            --vcv (mostra la matrice di covarianza)
Esempi:     arma 1 2 ; y
            arma 2 2 ; y 0 x1 x2 --verbose

Se non viene fornita una lista di variabili-indipendenti, stima un modello
autoregressivo a media mobile (ARMA: Autoregressive, Moving Average)
univariato. I valori interi p e q rappresentano rispettivamente gli ordini
AR e MA. Se vengono aggiunte delle variabili-indipendenti, il modello
diventa un ARMAX.

Il funzionamento predefinito utilizza la funzione ARMA "interna" di gretl;
nel caso di un modello ARMA univariato, è anche possibile usare X-12-ARIMA
(se è stato installato il pacchetto X-12-ARIMA per gretl).

Le opzioni mostrate in precedenza possono anche essere combinate, tenendo
conto che la matrice di covarianza non è disponibile se si usa X-12-ARIMA
per la stima.

L'algoritmo interno di gretl per ARMA è in gran parte dovuto a Riccardo
"Jack" Lucchetti: utilizza una procedura di massima verosimiglianza
condizionale, implementata attraverso la stima iterata con minimi quadrati
della regressione del prodotto esterno del gradiente (OPG). Si veda l'il
manuale di gretl per la logica della procedura. I coefficienti AR (e quelli
per gli eventuali regressori aggiuntivi) sono inizializzati usando una
auto-regressione OLS, mentre i coefficienti MA sono inizializzati a zero.

Il valore AIC mostrato nei modelli ARMA è calcolato secondo la definizione
usata in X-12-ARIMA, ossia

  AIC = -2L + 2k

dove L è la log-verosimiglianza e k è il numero totale di parametri stimati.
Il valore di "frequenza" mostrato insieme alle radici AR e MA è il valore di
lambda che risolve

  z = r * exp(i*2*pi*lambda)

dove z è la radice in questione e r è il suo modulo.

Accesso dal menù: /Variabile/Modello ARMA, /Modello/Serie Storiche/ARMAX
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
boxplot
@Graphs
Argomento:  lista-variabili 
Opzione:    --notches (mostra l'intervallo di confidenza al 90 per cento per la mediana)

Questo tipo di grafici (da Tukey e Chambers) mostra la distribuzione di una
variabile. La "scatola" centrale (box) racchiude il 50 per cento centrale
dei dati, ossia è delimitato dal primo e terzo quartile. I "baffi"
(whiskers) si estendono fino ai valori minimo e massimo. Una linea
trasversale sulla scatola indica la mediana.

Nel caso dei grafici a tacca ("notches"), una tacca indica i limiti
dell'intervallo di confidenza approssimato al 90 per cento per la mediana,
ottenuto col metodo bootstrap.

Dopo ogni variabile specificata nel comando boxplot, è possibile aggiungere
un'espressione booleana tra parentesi per limitare il campione per la
variabile in questione. Ocorre inserire uno spazio tra il nome o il numero
della variabile e l'espressione. Si supponga di avere dati sui salari di
uomini e donne e di avere una variabile dummy GENERE che vale 1 per gli
uomini e 0 per le donne. In questo caso, è possibile generare dei boxplot
comparativi usando la seguente "lista-variabili":

	salario (GENERE=1) salario (GENERE=0)

Alcuni dettagli del funzionamento dei boxplot di gretl possono essere
controllati attraverso un file testuale chiamato .boxplotrc. Per ulteriori
dettagli, si veda il manuale di gretl.

Accesso dal menù: /Dati/Grafico delle variabili/Boxplot

#
chow
@Tests
Argomento:  osservazione 
Esempi:     chow 25
            chow 1988:1

Va eseguito dopo una regressione OLS. Crea una variabile dummy che vale 1 a
partire dal punto di rottura specificato da osservazione fino alla fine del
campione, 0 altrove; inoltre crea dei termini di interazione tra questa
dummy e le variabili indipendenti originali, stima una regressione che
include questi termini e calcola una statistica F, prendendo la regressione
aumentata come non vincolata e la regressione originale come vincolata. La
statistica è appropriata per testare l'ipotesi nulla che non esista un break
strutturale in corrispondenza del punto di rottura specificato.

Accesso dal menù: Finestra del modello, /Test/CHOW

#
coeffsum
@Tests
Argomento:  lista-variabili 
Esempio:    coeffsum xt xt_1 xr_2

Deve essere usato dopo una regressione. Calcola la somma dei coefficienti
delle variabili nella lista-variabili e ne mostra l'errore standard e il
p-value per l'ipotesi nulla che la loro somma sia zero.

Si noti la differenza tra questo test e "omit", che assume come ipotesi
nulla l'uguaglianza a zero di tutti i coefficienti di un gruppo di variabili
indipendenti.

Accesso dal menù: Finestra del modello, /Test/Somma dei coefficienti

#
coint
@Tests
Argomenti:  ordine variabile-dipendente variabili-indipendenti 
Opzione:    --nc (non include la costante)
Esempio:    coint 4 y x1 x2

Il test di cointegrazione di Engle-Granger svolge dei test Dickey-Fuller
aumentati sull'ipotesi nulla che ognuna delle variabili elencate abbia una
radice unitaria, usando l'ordine di ritardi specificato. Viene stimata la
regressione di cointegrazione e viene eseguito un test ADF sui residui di
questa regressione, mostrando anche la statistica di Durbin-Watson per la
regressione di cointegrazione.

I pvalue per questo test si basano su MacKinnon (1996). Il codice relativo è
stato incluso per gentile concessione dell'autore.

La regressione di cointegrazione di solito contiene una costante; se si
vuole escluderla, basta usare l'opzione --nc.

Accesso dal menù: /Modello/Serie storiche/Test di cointegrazione/Engle-Granger

#
coint2
@Tests
Argomenti:  ordine variabile-dipendente variabili-indipendenti 
Opzione:    --verbose (mostra i dettagli delle regressioni ausiliarie)
Esempi:     coint2 2 y x
            coint2 4 y x1 x2 --verbose

Esegue il test traccia di Johansen per la cointegrazione tra le variabili
elencate per l'ordine specificato. I valori critici sono calcolati con
l'approssimazione gamma di J. Doornik's (Doornik, 1998). Per i dettagli su
questo test, si veda Hamilton, Time Series Analysis (1994), Cap. 20.

La tabella seguente fornisce un esempio di interpretazione dei risultati del
test nel caso di 3 variabili. H0 denota l'ipotesi nulla, H1 l'ipotesi
alternativa e c il numero delle relazioni di cointegrazione.

                 Rango    Test traccia       Test Lmax
                          H0     H1          H0     H1
                 ---------------------------------------
                  0      c = 0  c = 3       c = 0  c = 1
                  1      c = 1  c = 3       c = 1  c = 2
                  2      c = 2  c = 3       c = 2  c = 3
                 ---------------------------------------

Accesso dal menù: /Modello/Serie storiche/Test do cointegrazione/Johansen

#
corc
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempio:    corc 1 0 2 4 6 7

Calcola le stime dei parametri usando la procedura iterativa di
Cochrane-Orcutt (si veda il Capitolo 9.4 di Ramanathan). La procedura si
ferma quando le stime consecutive del coefficiente di autocorrelazione
differiscono per meno di 0.001, oppure dopo 20 iterazioni.

Accesso dal menù: /Modello/Serie storiche/Cochrane-Orcutt

#
corr
@Statistics
Argomento:  [ lista-variabili ] 
Esempio:    corr y x1 x2 x3

Mostra le coppie di coefficienti di correlazione per la variabili date nella
lista-variabili, o per tutte le variabili del dataset se non viene
specificata alcuna lista-variabili.

Accesso dal menù: /Dati/Matrice di correlazione
Accesso alternativo: Menù pop-up nella finestra principale (selezione multipla)

#
corrgm
@Statistics
Argomenti:  variable [ max-ritardo ] 
Esempio:    corrgm x 12

Mostra i valori della funzione di autocorrelazione per la variabile
specificata (dal nome o dal numero). Si veda Ramanathan, Capitolo 11.7. È
definita come rho(u(t), u(t-s)) dove ut è la t-esima osservazione della
variabile u e s è il numero dei ritardi.

Vengono mostrate anche le autocorrelazioni parziali, ossia al netto
dell'effetto dei ritardi intermedi. Il comando produce anche un grafico del
correlogramma e mostra la statistica Q di Box-Pierce per testare l'ipotesi
nulla che la serie sia "white noise" (priva di autocorrelazione). La
statistica si distribuisce asintoticamente come chi-quadro con gradi di
libertà pari al numero di ritardi specificati.

Se viene specificato un valore max-ritardo, la lunghezza del correlogramma
viene limitata al numero di ritardi specificato, altrimenti viene scelta
automaticamente.

Accesso dal menù: /Variabile/Correlogramma
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
criteria
@Utilities
Argomenti:  ess T k 
Esempio:    criteria 23.45 45 8

Calcola il criterio di informazione di Akaike (AIC) e il criterio di
informazione bayesiana di Schwarz (BIC), dati ess (somma dei quadrati degli
errori), il numero delle osservazioni (T) e quello dei coefficienti (k). T,
k e ess possono essere valori numerici o nomi di variabili definite in
precedenza.

#
critical
@Utilities
Argomenti:  distribuzione param1 [ param2 ] 
Esempi:     critical t 20
            critical X 5
            critical F 3 37

Se la distribuzione è t, X o F, mostra i valori critici per le distribuzioni
t di student, chi-quadro o F, per i valori di significatività usuali, con i
gradi di libertà specificati, dati da param1 per la t e la chi-quadro, o
param1 e param2 per la F. Se la distribuzione è d, mostra i valori superiore
e inferiore della statistica di Durbin-Watson al livello di significatività
del 5 per cento, per il dato numero di osservazioni param1, e per
l'intervallo da 1 a 5 variabili esplicative.

Accesso dal menù: /Utilità/Tavole statistiche

#
cusum
@Tests

Va eseguito dopo la stima di un modello OLS. Esegue il test CUSUM per la
stabilità dei parametri. Viene calcolata una serie di errori di previsione
(scalati) per il periodo successivo, attraverso una serie di regressioni: la
prima usa le prime k osservazioni e viene usata per generare la previsione
della variabile dipendente per l'osservazione k + 1; la seconda usa le prime
k + 1 osservazioni per generare una previsione per l'osservazione k + 2 e
così via (dove k è il numero dei parametri nel modello originale). Viene
mostrata, anche graficamente, la somma cumulata degli errori scalati di
previsione. L'ipotesi nulla della stabilità dei parametri è rifiutata al
livello di significatività del 5 per cento se la somma cumulata va al di
fuori delle bande di confidenza al 95 per cento.

Viene mostrata anche la statistica t di Harvey-Collier per testare l'ipotesi
nulla della stabilità dei parametri. Si veda il Capitolo 7 di Econometric
Analysis di Greene, per i dettagli.

Accesso dal menù: Finestra del modello, /Test/CUSUM

#
data
@Dataset
Argomento:  lista-variabili 

Legge le variabili nella lista-variabili da un database (gretl o RATS 4.0),
che deve essere stato precedentemente aperto con il comando "open". Inoltre,
prima di eseguire questo comando, va impostata una frequenza dei dati e un
intervallo del campione, usando i comandi "setobs" e "smpl". Ecco un esempio
completo:

	open macrodat.rat
	setobs 4 1959:1
	smpl ; 1999:4
	data GDP_JP GDP_UK

Questi comandi aprono un database chiamato macrodat.rat, impostano un
dataset trimestrale che inizia nel primo trimestre del 1959 e finisce nel
quarto trimestre del 1999 e infine importano le serie GDP_JP e GDP_UK.

Se le serie da leggere hanno frequenza maggiore di quella impostata nel
dataset, occorre specificare un metodo di compattamento, come mostrato di
seguito

	data (compact=average) LHUR PUNEW

I quattro metodi di compattamento disponibili sono "average" (usa la media
delle osservazioni ad alta frequenza), "last" (usa l'ultima osservazione),
"first" e "sum".

Accesso dal menù: /File/Consulta database

#
delete
@Dataset
Argomento:  [ lista-variabili ] 

Rimuove dal dataset le variabili elencate (specificate tramite il nome o il
numero). Usare con cautela: non viene chiesta conferma dell'operazione e le
variabili con numeri identificativi più alti vengono ri-numerate.

Se non viene specificata alcuna lista-variabili viene eliminata dal dataset
l'ultima variabile (quella col numero identificativo più alto).

Accesso dal menù: Pop-up nella finestra principale (selezione singola)

#
diff
@Transformations
Argomento:  lista-variabili 

Calcola la differenza prima di ogni variabile nella lista-variabili e la
salva in una nuova variabile il cui nome è prefissato con d_. Quindi "diff x
y" crea le nuove variabili d_x = x(t) - x(t-1) e d_y = y(t) - y(t-1).

Accesso dal menù: /Dati/Aggiungi variabili/Differenze

#
else
@Programming

Si veda "if".

#
end
@Programming

Termina un blocco di comandi di qualsiasi tipo. Ad esempio, "end system"
termina un "system" (sistema di equazioni).

#
endif
@Programming

Si veda "if".

#
endloop
@Programming

Indica la fine di un ciclo (loop) di comandi. Si veda "loop".

#
eqnprint
@Printing
Argomento:  [ -f nomefile ] 
Opzione:    --complete (crea un documento completo)

Va eseguito dopo la stima di un modello. Stampa il modello stimato sotto
forma di equazione LaTeX. Se viene specificato un nome di file usando
l'opzione -f, il risultato viene scritto in quel file, altrimenti viene
scritto in un file il cui nome ha la forma equation_N.tex, dove N è il
numero di modelli stimati finora nella sessione in corso. Si veda anche
"tabprint".

Usando l'opzione --complete, il file LaTeX è un documento completo, pronto
per essere processato; altrimenti il file va incluso in un documento.

Accesso dal menù: Finestra del modello, /LaTeX

#
equation
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Esempio:    equation y x1 x2 x3 const

Specifica un'equazione all'interno di un sistema di equzioni (si veda
"system"). La sintassi per specificare un'equazione in un sistema SUR è la
stessa usata ad esempio in "ols". Per un'equazione in un sistema con minimi
quadrati a tre stadi, invece è possibile usare una specificazione simile a
quella usata per OLS e indicare una lista di strumenti comuni usando
l'istruzione "instr" (si veda ancora "system"), oppure si può usare la
stessa sintassi di "tsls".

#
estimate
@Estimation
Argomenti:  nome_sistema stimatore 
Opzioni:    --iterate (itera fino alla convergenza)
            --no-df-corr (nessuna correzione per i gradi di libertà)
            --geomean (si veda oltre)
Esempi:     estimate "Klein Model 1" method=fiml
            estimate Sys1 method=sur
            estimate Sys1 method=sur --iterate

Esegue la stima di un sistema di equazioni, che deve essere stato definito
in precedenza usando il comando "system". Per prima cosa va indicato il nome
del sistema, racchiuso tra virgolette se contiene spazi, quindi il tipo di
stimatore, preceduto dalla stringa method=. Gli stimatori disponibili sono:
"ols", "tsls", "sur", "3sls", "fiml" o "liml".

Se al sistema in questione sono stati imposti dei vincoli (si veda il
comando "restrict"), la stima sarà soggetta a tali vincoli.

Se il metodo di stima è "sur" o "3sls" e viene usata l'opzione --iterate, lo
stimatore verrà iterato. Nel caso di SUR, se la procedura converge, i
risultati saranno stime di massima verosimiglianza. Invece l'iterazione
della procedura dei minimi quadrati a tre stadi non produce in genere
risultati di massima verosimiglianza a informazione completa. L'opzione
--iterate viene ignorata con gli altri metodi di stima.

Se vengono scelti gli stimatori "equazione per equazione" "ols" o "tsls" are
chosen, nel calcolo degli errori standard viene applicata in modo
predefinito una correzione per i gradi di libertà, che può essere
disabilitata usando l'opzione --no-df-corr. Questa opzione non ha effetti
nel caso vengano usati altri stimatori, che non prevedono correzioni per i
gradi di libertà.

La formula usata in modo predefinito per calcolare gli elementi della
matrice di covarianza tra equazioni è

  sigma(i,j) = u(i)' * u(j) / T

Se viene usata l'opzione --geomean, viene applicata una correzione per i
gradi di libertà secondo la formula

  sigma(i,j) = u(i)' * u(j) / sqrt((T - ki) * (T - kj))

dove i k indicano il numero di parametri indipendenti in ogni equazione.

#
fcast
@Prediction
Argomenti:  [ oss-iniziale oss-finale ] var-stima 
Esempi:     fcast 1997:1 2001:4 f1
            fcast fit2

Deve seguire un comando di stima. Calcola previsioni per l'intervallo
specificato (o per il più lungo intervallo possibile, se non viene
specificata alcuna oss-iniziale e oss-finale) e salva i valori nella
variabile var-stima, che può essere stampata e rappresentata graficamente o
con un diagramma ASCII. Le variabili indipendenti sono quelle del modello
originale, non è possibile introdurre altre variabili. Se viene specificato
un processo di errore autoregressivo (per "hilu", "corc" e "ar") la
previsione è condizionale per il periodo successivo e incorpora il processo
di errore.

Accesso dal menù: Finestra del modello, /Dati modello/Previsioni

#
fcasterr
@Prediction
Argomenti:  oss-iniziale oss-finale 
Opzione:    --plot (mostra il grafico)

Dopo aver stimato un modello OLS è possibile usare questo comando per
rappresentare i valori stimati su un intervallo di osservazioni specificato,
insieme agli errori standard stimati per queste previsioni e agli intervalli
di confidenza al 95 per cento.

Gli errori standard sono calcolati nel modo descritto da Wooldridge nel
capitolo 6 del suo Introductory Econometrics. Incorporano due fonti di
variabilità: la varianza associata al valore atteso della variabile
dipendente, condizionale ai valori dati delle variabili indipendenti, e la
varianza dei residui della regressione.

Accesso dal menù: Finestra del modello, /Dati modello/Previsioni con errori standard

#
fit
@Prediction

Una scorciatoia per "fcast", deve seguire un comando di stima. Genera valori
stimati per il campione corrente basati sull'ultima regressione e li salva
nella serie autofit. Nel caso di modelli di serie storiche, mostra anche un
grafico dei valori stimati e di quelli effettivi della variabile dipendente
rispetto al tempo.

#
freq
@Statistics
Argomento:  variabile 
Opzioni:    --quiet (non mostra l'istogramma)
            --gamma (test per la distribuzione gamma)

Se non vengono indicate opzioni, mostra la distribuzione di frequenza per la
variabile (indicata con il nome o il numero) e i risultati del test
chi-quadro di Doornik-Hansen per la normalità.

Se si usa l'opzione --quiet, l'istogramma non viene mostrato. Usando
l'opzione --gamma, al posto del test di normalità viene eseguito il test non
parametrico di Locke per l'ipotesi nulla che la variabile segua la
distribuzione gamma; si veda Locke (1976), Shapiro e Chen (2001).

In modalità interattiva viene mostrato anche un grafico della distribuzione.

Accesso dal menù: /Variabile/Distribuzione di frequenza

#
function
@Programming

Definisce una funzione. Questa voce deve ancora essere scritta.

#
garch
@Estimation
Argomenti:  p q ; variabile-dipendente [ variabili-indipendenti ] 
Opzioni:    --robust (errori standard robusti)
            --verbose (mostra i dettagli delle iterazioni)
            --vcv (mostra la matrice di covarianza)
            --arma-init (parametri di varianza iniziale da ARMA)
Esempi:     garch 1 1 ; y
            garch 1 1 ; y 0 x1 x2 --robust

Stima un modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) univariato, o, se sono specificate delle
variabili-indipendenti, includendo delle variabili esogene. I valori interi
p e q rappresentano gli ordini di ritardo nell'equazione della varianza
condizionale.

  h(t) = a(0) + somma(per i da 1 a q) a(i)*u(t-i) + somma( per j da 1 a p) b(j)*h(t-j)

L'algoritmo GARCH usato da gretl è in pratica quello di Fiorentini,
Calzolari e Panattoni (1996), usato per gentile concessione del Professor
Fiorentini.

Sono disponibili varie stime della matrice di covarianza dei coefficienti.
Il metodo predefinito è quello dell'Hessiana; se si indica l'opzione
--robust viene usata la matrice di covarianza QML (White). Altre possibilità
(ad es. la matrice di informazione, o lo stimatore di Bollerslev-Wooldridge)
possono essere specificate con il comando "set".

In modalità predefinita, le stime dei parametri di varianza sono
inizializzate usando la varianza dell'errore non condizionale, ottenuta
dalla stima OLS iniziale, per la costante, e piccoli valori positivi per i
coefficienti dei valori passati dell'errore al quadrato e per la varianza
dell'errore. L'opzione --arma-init fa in modo che i valori iniziali per
questi parametri siano ricavati da un modello ARMA iniziale, sfruttando la
relazione tra GARCH e ARMA mostrata nel capitolo 21 di Time Series Analysis
di Hamilton. In alcuni casi, questo metodo può aumentare le probabilità di
convergenza.

Accesso dal menù: /Modello/Serie storiche/GARCH

#
genr
@Dataset
Argomenti:  nuova-variabile = formula 

Crea nuove variabili, di solito per mezzo di trasformazioni di variabili
esistenti. Si veda anche "diff", "logs", "lags", "ldiff", "multiply" e
"square" per le scorciatoie.

Gli operatori aritmetici supportati sono, in ordine di precedenza: ^
(esponenziale); *, / e % (modulo o resto); + e -.

Gli operatori Booleani disponibili sono (ancora in ordine di precedenza): !
(negazione), & (AND logico), | (OR logico), >, <, =, >= (maggiore o uguale),
<= (minore o uguale) e != (disuguale). Gli operatori Booleani possono essere
usati per costuire variabili dummy: ad esempio (x > 10) produce 1 se x > 10,
0 altrimenti.

Le funzioni supportate appartengono ai gruppi seguenti:

  Funzioni matematiche standard: abs, cos, exp, int (parte intera), ln
  (logaritmo naturale: log è un sinonimo), sin, sqrt (radice quadrata).

  Funzioni statistiche: max (valore massimo in una serie), min (minimo),
  mean (media aritmetica), median, var (varianza) sd (deviazione standard),
  sst (somma dei quadrati delle deviazioni dalla media), sum, cov
  (covarianza), corr (coefficiente di correlazione), pvalue, sort, cum
  (somma cumulata), cnorm (funzione di ripartizione normale standard), dnorm
  (funzione di densità normale standard), resample (ricampiona una serie con
  rimpiazzo, utile per il bootstrap), hpfilt (filtro di Hodrick-Prescott:
  produce la componente di "ciclo" della serie), bkfilt (filtro passa-banda
  di Baxter-King).

  Funzioni per serie storiche: diff (differenza prima), ldiff
  (log-differenza, ossia la differenza prima dei logaritmi naturali). Per
  generare ritardi della variabile x, si può usare la sintassi "x(-N)", dove
  N rappresenta la lunghezza del ritardo desiderato; per generare anticipi
  si usi "x(+N)".

  Funzioni dataset: misszero (sostituisce con zero il codice delle
  osservazioni mancanti in una serie); zeromiss (l'operazione inversa di
  misszero); nobs (riporta il numero di osservazioni valide in una data
  serie); missing (per ogni osservazione, vale 1 se l'argomento ha un valore
  mancante, 0 altrimenti); ok (l'opposto di missing).

  Numeri pseudo-casuali: uniform, normal.

Tutte le funzioni viste sopra, con l'eccezione di cov, corr, pvalue, uniform
e normal hanno come unico argomento il nome di una variabile (attenzione:
non è possibile indicare le variabili con il loro numero identificativo in
una formula "genr") o un'espressione che si risolve in una variabie (ad es.
ln((x1+x2)/2)). cov e corr richiedono due argomenti e producono
rispettivamente il coefficiente di covarianza e di correlazione tra i due
argomenti. La funzione pvalue richiede gli stessi argomenti del comando
"pvalue", ma in questo caso occorre separare gli argomenti con delle
virgole. Questa funzione produce un p-value a una coda, che nel caso delle
distribuzioni normale e t è la "coda corta". Con la normale, ad esempio, sia
1.96 sia -1.96 daranno un risultato di circa 0.025.

uniform() e normal(), che non richiedono argomenti, producono delle serie
pseudo-casuali estratte dalle distribuzioni uniforme (0-1) e normale
standard (si veda anche il comando "set" con l'opzione seed). Le serie dalla
distribuzione uniforme sono generate usando il Mersenne Twister ; per le
serie dalla distribuzione normale, viene usato il metodo di Box e Muller
(1958), prendendo l'input dal Mersenne Twister.

Oltre agli operatori e alle funzioni mostrati, ci sono alcuni usi speciali
del comando "genr":

  "genr time" crea una variabile trend temporale (1,2,3,...) chiamata
  "time". "genr index" fa la stessa cosa, ma chiamando la variable index.

  "genr dummy" crea una serie di variabili dummy a seconda della periodicità
  dei dati. Ad esempio, nel caso di dati trimestrali (periodicità 4) il
  programma crea dummy_1, che vale 1 nel primo trimestre e 0 altrove,
  dummy_2 che vale 1 nel secondo trimestre e 0 altrove, e così via.

  "genr paneldum" crea una serie di variabili dummy da usare in un dataset
  di tipo panel -- si veda "panel".

  Alcune variabili interne che vengono generate durante il calcolo di una
  regressione possono essere recuperate usando "genr", nel modo seguente:

  $ess               somma dei quadrati degli errori
  $rsq               R-quadro
  $T                 numero delle osservazioni usate
  $df                gradi di libertà
  $trsq              TR-quadro (ampiezza del campione moltiplicata per 
                     R-quadro)
  $sigma             errore standard dei residui
  $aic               criterio di informazione di Akaike
  $bic               criterio di informazione bayesiana di Schwarz
  $lnl               log-verosimiglianza (dove è applicabile)
  $sigma             errore standard dei residui
  coeff(variabile)   coefficiente stimato per la variabile
  stderr(variabile)  errore standard stimato per la variabile
  rho(i)             coefficiente di autoregressione dei residui di ordine 
                     i-esimo
  vcv(x1,x2)         covarianza tra i coefficienti delle variabili x1 e x2 

Nota: nella versione a riga di comando del programma, i comandi "genr" che
estraggono dati relativi al modello si riferiscono sempre al modello stimato
per ultimo. Questo vale anche per la versione grafica del programma se si
usa "genr" nel "terminale di gretl" o si immette una formula usando
l'opzione "Definisci nuova variabile" nel menù Variabile della finestra
principale. Usando la versione grafica, però, è possibile anche estrarre i
dati da qualunque modello mostrato in una finestra (anche se non è il
modello più recente) usando il menù "Dati modello" nella finestra del
modello.

Le serie interne uhat e yhat contengono rispettivamente i residui e i valori
stimati dell'ultima regressione.

Sono disponibili tre variabili dataset "interne": $nobs, che contiene il
numero di osservazioni nell'intervallo del campione attuale (che non è
necessariamente uguale al valore di $T, il numero delle osservazioni usate
per stimare l'ultimo modello), $nvars, che contiene il numero di variabili
nel dataset (inclusa la costante), e $pd, che contiene la frequenza o la
periodicità dei dati (ad esempio 4 per dati trimestrali).

Due scalari speciali interni, $test e $pvalue, contengono rispettivamente il
valore e il p-value della statistica test che è stata generata dall'ultimo
comando di test eseguito esplicitamente (ad es. chow). Si veda il manuale di
gretl per i dettagli.

La variabile t serve da indice per le osservazioni. Ad esempio, genr dum =
(t=15) crea una variabile dummy che vale 1 per l'osservazione 15 e 0
altrove. La variabile obs è simile ma più flessibile: è possibile usarla per
isolare alcune osservazioni indicandole con una data o un nome. Ad esempio,
genr d = (obs>1986:4) o genr d = (obs="CA"). L'ultima forma richiede che
siano definite delle etichette, da usare tra virgolette doppie, per le
osservazioni.

È possibile estrarre dei valori scalari da una serie usando una formula genr
con la sintassi nome-variabile[osservazione]. Il valore di osservazione può
essere specificato con un numero o una data. Esempi: x[5], CPI[1996:01]. Per
i dati giornalieri occorre usare la forma AAAA/MM/GG, ad esempio
ibm[1970/01/23].

È possibile modificare una singola osservazione in una serie usando genr.
Per farlo, occorre aggiungere un numero di osservazione o una data valida
tra parentesi quadre al nome della variabile nel lato sinistro della
formula. Ad esempio: genr x[3] = 30 o genr x[1950:04] = 303.7.

La La tabella seguente mostra vari esempi di utilizzo di "genr", con alcune
note esplicative; ecco qualche esempio di utilizzo delle variabili dummy:

  Si supponga che x abbia valori 1, 2, o 3 e si desiderino tre variabili
  dummy, d1 = 1 se x = 1, e 0 altrove, d2 = 1 se x = 2 e così via. Per
  crearle, basta usare i comandi:

	    genr d1 = (x=1)
	    genr d2 = (x=2)
	    genr d3 = (x=3)

  Per creare z = max(x,y) usare

	    genr d = x>y
	    genr z = (x*d)+(y*(1-d))

  Formula               Commento
  -------               -------
  y = x1^3              x1 al cubo
  y = ln((x1+x2)/x3)    
  z = x>y               z(t) = 1 se x(t) > y(t), 0 altrove
  y = x(-2)             x ritardata di 2 periodi
  y = x(2)              x anticipata di 2 periodi
  y = diff(x)           y(t) = x(t) - x(t-1)
  y = ldiff(x)          y(t) = log x(t) - log x(t-1), il tasso di crescita 
                        istantaneo di x
  y = sort(x)           ordina x in senso crescente e la salva in y
  y = -sort(-x)         ordina x in senso decrescente
  y = int(x)            tronca x e salva il valore intero in y
  y = abs(x)            salva il valore assoluto di x
  y = sum(x)            somma i valori di x escludendo i valori mancanti -999
  y = cum(x)            cumulativa: y(t) = somma di x(s) per s da 1 a t 
  aa = $ess             imposta aa uguale alla somma dei quadrati degli errori 
                        dell'ultima regressione
  x = coeff(sqft)       estrae il coefficiente stimato per la variabile sqft 
                        nell'ultima regressione
  rho4 = rho(4)         estrae il coefficiente di autoregressione del quarto 
                        ordine dall'ultimo modello (presume un modello ar 
                        model)
  cvx1x2 = vcv(x1, x2)  estrae il coefficiente di covarianza stimato tra le 
                        variabili x1 e x2 dall'ultimo modello
  foo = uniform()       variabile pseudo-casuale uniforme nell'intervallo 0-1
  bar = 3 * normal()    variabile pseudo-casuale normale con mu = 0, sigma = 3
  samp = !missing(x)    vale 1 per le osservazioni dove il valore di x non è 
                        mancante.

Accesso dal menù: /Variabile/Definisci nuova variabile
Accesso alternativo: Menù pop-up nella finestra principale

#
gnuplot
@Graphs
Argomenti:  variabili-y variabile-x [ variabile-dummy ] 
Opzioni:    --with-lines (usa linee invece che punti)
            --with-impulses (usa linee verticali)
            --suppress-fitted (non mostra le stime minimi quadrati)
            --dummy (si veda sotto)
Esempi:     gnuplot y1 y2 x
            gnuplot x time --with-lines
            gnuplot wages educ gender --dummy

Senza l'opzione --dummy mostra un grafico delle variabili-y rispetto alla
variabile-x. Con --dummy, la variabile-y è rappresentata rispetto alla
variabile-x con i punti colorati diversamente a seconda del valore della
variabile-dummy (1 o 0).

La variabile time si comporta in modo speciale: se non esiste già, verrà
generata automaticamente.

In modalità interattiva il risultato è mostrato immediatamente. In modalità
"batch", viene scritto un file di comandi gnuplot, chiamato gpttmpN.plt, a
partire da N = 01; il grafico vero e proprio può essere generato usando il
programma gnuplot (su MS Windows: wgnuplot).

È disponibile un'ulteriore opzione per questo comando: dopo la
specificazione delle variabili e le eventuali opzioni, è possibile
aggiungere direttamente dei comandi gnuplot per modificare l'aspetto visivo
del grafico (ad esempio, impostando il titolo e o gli intervalli degli
assi). Questi comandi aggiuntivi vanno inclusi tra parentesi graffe e ogni
comando va separato con un punto e virgola; è possibile usare una barra
rovesciata (\) per continuare un gruppo di comandi gnuplot sulla riga
successiva. Ecco un esempio della sintassi:

{ set title 'Il mio titolo'; set yrange [0:1000]; }

Accesso dal menù: /Dati/Grafico delle variabili
Accesso alternativo: Menù pop-up nella finestra principale, pulsante grafico sulla barra degli strumenti

#
graph
@Graphs
Argomenti:  variabili-y variabile-x 
Opzione:    --tall (usa 40 righe)

Grafici ASCII. Le variabili-y (che possono essere definite per nome o
numero) sono rappresentate rispetto alla variabile-x usando simboli ASCII.
L'opzione --tall produce un grafico di 40 righe per 60 colonne, altrimenti
il grafico sarà di 20 righe per 60 colonne (per la visualizzazione a
schermo). Si veda anche "gnuplot".

#
hausman
@Tests

Questo test è disponibile solo dopo aver stimato un modello con il comando
"pooled" (si veda anche "panel" e "setobs"). Testa il semplice modello
"pooled" (con tutte le osservazioni considerate indistintamente) contro le
principali alternative: il modello a effetti fissi e quello a effetti
casuali.

Il modello a effetti fissi aggiunge una variabile dummy per tutte le unità
cross section tranne una, permettendo così all'intercetta della regressione
di variare per ogni unità. Viene poi eseguito un test F per la
significatività congiunta di queste dummy. Il modello a effetti casuali
scompone la varianza dei residui in due parti: una specifica all'unità cross
section e una specifica all'osservazione particolare (la stima può essere
eseguita solo se il numero delle unità cross section nel dataset è maggiore
del numero dei parametri da stimare). La statistica LM di Breusch-Pagan
testa l'ipotesi nulla (che il modello pooled OLS sia adeguato) contro
l'alternativa a effetti casuali.

Può accadere che il modello pooled OLS sia rifiutato nei confronti di
entrambe le alternative, a effetti fissi o casuali. A patto che gli errori
specifici di unità o di gruppo siano non correlati con le variabili
indipendenti, lo stimatore a effetti casuali è più efficiente dello
stimatore a effetti fissi; nel caso contrario lo stimatore a effetti casuali
non è consistente e deve essergli preferito lo stimatore a effetti fissi.
L'ipotesi nulla per il test di Hausman è che l'errore specifico di gruppo
non sia correlato con le variabili indipendenti (e quindi che il modello a
effetti casuali sia preferibile). Un basso p-value per questo test
suggerisce di rifiutare il modello a effetti casuali in favore del modello a
effetti fissi.

Accesso dal menù: Finestra del modello, /Test/HAUSMAN - Diagnosi panel

#
hccm
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Matrice di covarianza coerente con l'eteroschedasticità (HCCM:
Heteroskedasticity-Consistent Covariance Matrix); questo comando esegue una
regressione dove i coefficienti sono stimati con la procedura OLS standard,
ma gli errori standard delle stime dei coefficienti sono calcolati in modo
da essere robusti rispetto all'eteroschedasticità, ossia usando la procedura
"jackknife" di MacKinnon-White.

Accesso dal menù: /Modello/HCCM

#
help
@Utilities

Mostra un elenco dei comandi disponibili, "help" comando descrive il comando
(ad es. "help smpl"). Al posto di "help" si può usare "man" se si
preferisce.

Accesso dal menù: /Aiuto

#
hilu
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Calcola le stime dei parametri per il modello specificato usando la
procedura di ricerca di Hildreth-Lu (ottimizzata con la procedura CORC),
progettata per correggere l'effetto della correlazione seriale nel termine
di errore. Viene mostrato un grafico della somma dei quadrati degli errori
per il modello trasformato rispetto ai valori di rho da -0.99 a 0.99.

Accesso dal menù: /Modello/Serie storiche/Hildreth-Lu

#
hsk
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Stima una regressione OLS e ne salva i residui. I logaritmi dei quadrati di
questi residui diventano la variabile dipendente di una regressione
ausiliaria che ha come regressori le variabili indipendenti originali e i
loro quadrati. I valori stimati dalla regressione ausiliaria sono quindi
usati per costruire una serie di pesi, usati per ri-stimare il modello
originale con la procedura dei minimi quadrati ponderati. Viene riportato il
risultato finale.

La serie dei pesi è composta da 1/sqrt(exp(y*)), dove y* denota i valori
stimati dalla regressione ausiliaria.

Accesso dal menù: /Modello/WLS corretti per eteroschedasticità

#
hurst
@Statistics
Argomento:  nome-variabile 

Calcolate l'esponente di Hurst (una misura di persistenza, o di memoria
lunga) per una serie storica con almeno 128 osservazioni.

L'esponente di Hurst è discusso da Mandelbrot. In termini teorici è
l'esponente H nella relazione

  RS(x) = an^H

dove RS è l'"intervallo riscalato" della variabile x in un campione
dell'ampiezza n, mentre a è una costante. L'intervallo riscalato è
l'intervallo (valore massimo meno valore minimo) del valore cumulato, o
somma parziale, di x sul periodo del campione (dopo aver sottratto la media
campionaria), diviso per la deviazione standard campionaria.

Come punto di riferimento, se x è un rumore bianco (media zero, persistenza
zero) l'intervallo dei suoi valori cumulati (che forma una passeggiata
casuale), scalato per la deviazione standard, cresce come la radice quadrata
dell'ampiezza campionaria, ossia ha un esponente di Hurst atteso pari a 0.5.
Valori dell'esponente sensibilmente maggiori di 0.5 indicano persistenza
della serie, mentre valori minori di 0.5 indicano anti-persistenza
(autocorrelazione negativa). In teoria l'esponente deve essere compreso tra
0 e 1, ma in campioni finiti è possibile ottenere delle stime per
l'esponente maggiorni di 1.

In gretl, l'esponente è stimato usando il sotto-campionamento binario: si
inizia dall'intero intervallo dei dati, quindi si usano le due metà
dell'intervallo, poi i quattro quarti, e così via. Il valore RS è la media
presa sui vari campioni. L'esponente è quindi stimato come il coefficiente
di pendenza della regressione del logaritmo di RS sul logaritmo
dell'ampiezza del campione.

Accesso dal menù: /Variable/FIXME

#
if
@Programming

Controllo di flusso per l'esecuzione dei comandi. La sintassi è:

  if     condizione
         comandi1
  else   
         comandi2
  endif  

La condizione deve essere un'espressione Booleana, per la cui sintassi si
veda "genr". Il blocco "else" è opzionale; i blocchi if ... endif possono
essere nidificati.

#
import
@Dataset
Argomento:  nomefile 
Opzione:    --box1 (dati BOX1)

Importa dati da un file in formato valori separati da virgole (CSV:
comma-separated values), che può essere facilmente prodotto da un foglio
elettronico. Il file deve contenere i nomi delle variabili sulla prima riga
e una matrice rettangolare di dati nelle righe rimanenti. Le variabili
devono essere disposte "per osservazione" (una colonna per variabile, ogni
riga rappresenta un'osservazione). Si veda il il manuale di gretl per i
dettagli.

Con l'opzione --box1 viene letto un file in formato BOX1, che può essere
ottenuto usando il Servizio di Estrazione Dati del Bureau of the Census
degli USA.

Accesso dal menù: /File/Apri dati/importa

#
info
@Dataset

Mostra le informazioni aggiuntive contenute nel file di dati attuale.

Accesso dal menù: /Dati/Visualizza descrizione
Accesso alternativo: Finestre di esplorazione dei dati

#
label
@Dataset
Argomenti:  nome-variabile -d descrizione -n nome-grafici 
Esempio:    label x1 -d "Descrizione di x1" -n "Nome per i grafici"

Imposta l'etichetta descrittiva per la variabile indicata (usando l'opzione
-d seguita da una stringa tra virgolette doppie) e/o un "nome per i
grafici", usato per indicare la variabile nei grafici (usando l'opzione -n,
seguita da una stringa tra virgolette doppie).

Se non viene usata alcuna opzione, il comando mostra l'etichetta descrittiva
per la variabile specificata, se esiste.

Accesso dal menù: /Variabile/Modifica attributi
Accesso alternativo: Menù pop-up nella finestra principale

#
kpss
@Tests
Argomenti:  ordine nome-variabile 
Opzioni:    --trend (include un trend)
            --verbose (mostra i risultati della regressione)
Esempi:     kpss 8 y
            kpss 4 x1 --trend

Calcola il test KPSS (Kwiatkowski, Phillips, Schmidt e Shin, 1992) per la
stazionarietà di una variabile. L'ipotesi nulla è che la variabile in
questione sia stazionaria, attorno a un valore fisso o, se è stata usata
l'opzione --trend, attorno a un trend deterministico lineare.

L'argomento ordine determina la dimensione della finestra usata per il
livellamento di Bartlett. Se si usa l'opzione --verbose, vengono mostrati
anche i risultati della regressione ausiliaria, insieme alla varianza
stimata della componente random walk della variabile.

Accesso dal menù: /Variabile/Test KPSS

#
labels
@Dataset

Mostra le etichette informative per le variabili generate con il comando
"genr" e quelle aggiunte al dataset attraverso l'interfaccia grafica.

#
lad
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 

Calcola una regressione che minimizza la somma delle deviazioni assolute dei
valori stimati dai valori effettivi della variabile dipendente. Le stime dei
coefficienti sono derivate usando l'algoritmo del simplesso di
Barrodale-Roberts; viene mostrato un messaggio di avvertimento se la
soluzione non è unica. Gli errori standard sono derivati attraverso la
procedura bootstrap con 500 estrazioni.

Accesso dal menù: /Modello/LAD - Minime deviazioni assolute

#
lags
@Transformations
Argomento:  lista-variabili 

Crea delle nuove variabili come valori ritardati di ognuna delle variabili
nella lista-variabili. Il numero delle variabili create è pari alla
periodicità del dataset. Ad esempio, se la periodicità è 4 (trimestrale), il
comando "lags x y" crea x_1 = x(t-1), x_2 = x(t-2), x_3 = x(t-3) e x_4 =
x(t-4) e così via per y. Queste variabili devono essere indicate nei comandi
successivi con il loro nome preciso, che contiene il trattino basso.

Accesso dal menù: /Dati/Aggiungi variabili/Ritardi delle variabili selezionate

#
ldiff
@Transformations
Argomento:  lista-variabili 

Calcola la differenza prima del logaritmo naturale di ogni variabile della
lista-variabili e la salva in una nuova variabile con il prefisso ld_. Così,
"ldiff x y" crea le nuove variabili ld_x = ln[x(t)] - ln[x(t-1)] e ld_y =
ln[y(t)] - ln[y(t-1)].

Accesso dal menù: /Dati/Aggiungi variabili/Differenze logaritmiche

#
leverage
@Tests
Opzione:    --save (salva le variabili)

Deve seguire immediatamente un comando "ols". Calcola il "leverage" (h,
compreso tra 0 e 1) di ogni osservazione nel campione su cui è stato stimato
il precedente modello. Mostra il residuo (u) per ogni osservazione assieme
al leverage corrispondente e a una misura della sua influenza sulla stima:
u*h/(1-h). I "punti di leverage" per cui il valore di h supera 2k/n (dove k
è il numero dei parametri stimati e n è l'ampiezza del campione) sono
indicati con un asterisco. Per i dettagli sui concetti di leverage e
influenza, si veda Davidson e MacKinnon (1993, capitolo 2).

Vengono mostrati anche i valori DFFITS: questi sono "residui studentizzati"
(ossia i residui previsti, divisi per i propri errori standard) moltiplicati
per sqrt[h/(1 - h)]. Per una discussione dei residui studentizzati e dei
valori DFFITS si veda G. S. Maddala, Introduction to Econometrics, capitolo
12 e anche Belsley, Kuh e Welsch (1980). In breve, i "residui previsti" sono
la differenza tra il valore osservato e il valore stimato della variabile
dipendente all'osservazione t, ottenuti da una regressione in cui
quell'osservazione è stata omessa (oppure in cui è stata aggiunta una
variabile dummy che vale 1 solo per l'osservazione t); il residuo
studentizzato si ottiene dividendo il residuo previsto per il proprio errore
standard.

Se si usa l'opzione --save, il leverage, il valore di influenza e il valore
DFFITS vengono aggiunti al dataset in uso.

Accesso dal menù: Finestra del modello, /Test/LEVERAGE - Osservazioni influenti

#
lmtest
@Tests
Opzioni:    --logs (non-linearità, logaritmi)
            --autocorr (correlazione seriale)
            --squares (non-linearità, quadrati)
            --white (eteroschedasticità (test di White))

Deve seguire immediatamente un comando "ols". Esegue una combinazione dei
test seguenti: test dei moltiplicatori di Lagrange per la non-linearità
(logaritmi e quadrati), test di White per l'eteroschedasticità e test LMF
per la correlazione seriale di ordine pari alla periodicità (si veda Kiviet,
1986), mostrando anche i coefficienti delle corrispondenti regressioni
ausiliarie. Si veda Ramanathan, capitoli 7, 8 e 9 per i dettagli. Nel caso
del test di White, vengono usati solo i quadrati delle variabili
indipendenti, non i loro prodotti incrociati. Nel caso del test
sull'autocorrelazione, se il p-value della statistica LMF è minore di 0.05
(e il modello non è stato stimato con errori standard robusti), vengono
calcolati e mostrati errori standard robusti rispetto alla correlazione
seriale. Per i dettagli sul calcolo di questi errori standard, si veda
Wooldridge (2002, capitolo 12).

Accesso dal menù: Finestra del modello, /Test

#
logistic
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti [ ymax=valore ] 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempi:     logistic y const x
            logistic y const x ymax=50

Regressione logistica: esegue una regressione OLS usando la trasformazione
logistica sulla variabile dipendente:

  log(y/(ymax - y))

La variabile dipendente dev'essere strettamente positiva. Se è una frazione
decimale, compresa tra 0 e 1, il valore predefinito per y* (il massimo
asintotico della variabile dipendente) è 1. Se la variabile dipendente è una
percentuale, compresa tra 0 e 100, il valore predefinito di y* è 100. È
possibile indicare un valore diverso per il massimo, usando la sintassi
opzionale ymax=valore, che segue la lista dei regressori. Il valore fornito
deve essere maggiore di tutti i valori osservati della variabile dipendente.

I valori stimati e i residui della regressione sono trasformati
automaticamente usando

  y = ymax / (1 + exp(-x))

dove x rappresenta un valore stimato oppure un residuo della regressione
OLS, usando la variabile dipendente trasformata. I valori riportati sono
dunque confrontabili con la variabile dipendente originale.

Si noti che se la variabile dipendente è binaria, occorre usare il comando
"logit" invece di questo comando.

Accesso dal menù: /Modello/Logistico

#
logit
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Regressione binomiale logit. La variabile dipendente deve essere binaria. Le
stime di massima verosimiglianza dei coefficienti per le
variabili-indipendenti sono ottenute con il metodo EM
(Expectation-Maximization, si veda Ruud, 2000, capitolo 27). Visto che il
modello è nonlineare, le pendenze dipendono dai valori delle variabili
indipendenti: le pendenze riportate sono valutate nelle medie di queste
variabili. La statistica chi-quadro testa l'ipotesi nulla che tutti i
coefficienti tranne la costante siano pari a zero.

Per condurre un'analisi delle proporzioni (dove la variabile dipendente è la
proporzione dei casi che hanno una certa caratteristica in ogni
osservazione, invece che una variabile binaria che indica se la
caratteristica è presente o no), non bisogna usare il comando "logit", ma
occorre costruire la variabile logit (ad es. "genr lgt_p = log(p/(1 - p))")
e usare questa come variabile dipendente in una regressione OLS; si veda
Ramanathan, capitolo 12.

Accesso dal menù: /Modello/Logit

#
logs
@Transformations
Argomento:  lista-variabili 

Calcola il logaritmo naturale di ognuna delle variabili della
lista-variabili e lo salva in una nuova variabile col prefisso l_, ossia una
"elle" seguita da un trattino basso. "logs x y" crea le nuove variabili l_x
= ln(x) e l_y = ln(y).

Accesso dal menù: /Dati/Aggiungi variabili/Logaritmi delle variabili selezionate

#
loop
@Programming
Argomento:  controllo 
Opzioni:    --progressive (abilita modalità speciali di alcuni comandi)
            --verbose (mostra i dettagli dei comandi genr)
Esempi:     loop 1000
            loop 1000 --progressive
            loop while essdiff > .00001
            loop for i=1991..2000
            loop for (r=-.99; r<=.99; r+=.01)

Il parametro "controllo" deve assumere uno dei quattro valori mostrati negli
esempi: un numero di volte per cui ripetere i comandi all'interno del loop,
oppure "while" seguito da una condizione numerica, oppure "for" seguito da
un intervallo di valori per la variabile interna i che funge da indice, o
ancora "for" seguito da tre espressioni tra parentesi separate da punti e
virgola. Nell'ultima forma, l'espressione a sinistra inizializza una
variabile, quella centrale imposta la condizione perché l'iterazione
continui, e l'ultima espressione imposta un incremento o un decremento da
applicare all'inizio della seconda iterazione e di quelle successive (si
tratta di una forma ristretta dell'istruzione for nel linguaggio di
programmazione C).

Questo comando apre una modalità speciale, in cui il programma accetta
comandi da eseguire più volte. All'interno di un loop possono essere usati
solo alcuni tipi di comandi: "genr", "ols", "print", "printf" "pvalue",
"sim", "smpl", "store" e "summary", "if", "else" e "endif". Si esce dalla
modalità loop con l'istruzione "endloop": solo a questo punto i comandi
indicati vengono eseguiti.

Si veda il il manuale di gretl per ulteriori dettagli, esempi e per la
spiegazione dell'opzione --progressive (che è destinata ad essere usata
nelle simulazioni Monte Carlo).

#
mahal
@Statistics
Argomento:  lista-variabili 
Opzioni:    --save (salva le distanze nel dataset)
            --vcv (mostra la matrice di covarianza)

La distanza di Mahalanobis è la distanza tra due punti in uno spazio
k-dimensionale, scalata rispetto alla variazione statistica in ogni
dimensione dello spazio. Ad esempio, se p e q sono due osservazioni su un
insieme di k variabili con matrice di covarianza C, la distanza di
Mahalanobis tra le due osservazioni è data da

  sqrt((p - q)' * C-inversa * (p - q))

dove (p - q) è un vettore a k dimensioni. Se la matrice di covarianza è la
matrice identità, la distanza di Mahalanobis corrisponde alla distanza
Euclidea.

Lo spazio in cui vengono calcolate le distanze è definito dalle variabili
selezionate; per ogni osservazione nell'intervallo attuale viene calcolata
la distanza tra l'osservazione e il centroide delle variabili selezionate.
La distanza è la controparte multidimensionale di uno z-score standard e può
essere usata per giudicare se una certa osservazione "appartiene" a un
gruppo di altre osservazioni.

Se si usa l'opzione --vcv, vengono mostrate la matrice di covarianza e la
sua inversa. Se si usa l'opzione --save, le distanze vengono salvate nel
dataset con il nome mdist (o mdist1, mdist2 e così via, se esiste già una
variabile con quel nome).

Accesso dal menù: /Dati/Distanze di Mahalanobis

#
meantest
@Tests
Argomenti:  var1 var2 
Opzione:    --unequal-vars (assume varianze diverse)

Calcola la statistica t per l'ipotesi nulla che le medie della popolazione
siano uguali per le variabili var1 e var2, mostrando il suo p-value.
L'impostazione predefinita prevede di assumere che le varianze delle due
variabili siano uguali, mentre usando l'opzione --unequal-vars, si assume
che esse siano diverse. Questo è rilevante per la statistica test solo se le
due variabili contengono un diverso numero di osservazioni valide (non
mancanti).

Accesso dal menù: /Dati/Differenza delle medie

#
modeltab
@Utilities
Argomenti:  add  o show  o free 

Manipola la "tabella modelli" di gretl. Si veda il il manuale di gretl per i
dettagli. Le opzioni hanno i seguenti effetti: "add" aggiunge l'ultimo
modello stimato alla tabella modelli, se possibile; "show" mostra la tabella
modelli in una finestra; "free" pulisce la tabella.

Accesso dal menù: Finestra di sessione, Icona Tabella Modelli

#
mpols
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 

Calcola le stime OLS per il modello indicato usando aritmetica in virgola
mobile a precisione multipla. Questo comando è disponibile solo se gretl è
compilato con il supporto per la libreria Gnu Multiple Precision (GMP).

Si si vuole stimare un'interpolazione polinomiale usando l'aritmetica a
precisione multipla per generare le potenze volute della variabile
indipendente, si può usare la sintassi "mpols y 0 x ; 2 3 4". Si otterrà una
regressione di y su x, x quadro, x al cubo e x alla quarta potenza, ossia, i
numeri (interi positivi) a destra del punto e virgola specificano le potenze
di x da usare. Se si indica più di una variabile indipendente, l'ultima
variabile prima del punto e virgola è quella di cui verranno calcolate le
potenze.

Accesso dal menù: /Modello/MPOLS - Minimi quadrati in alta precisione

#
multiply
@Transformations
Argomenti:  x suffisso lista-variabili 
Esempi:     multiply invpop pc 3 4 5 6
            multiply 1000 big x1 x2 x3

Le variabili nella lista-variabili (indicate per nome o numero) sono
moltiplicate per x, che può essere un valore numerico o il nome di una
variabile già definita. I prodotti verranno chiamati con il suffisso
specificato (massimo 3 caratteri), troncando i nomi delle variabili
originali se ce n'è bisogno per motivi di spazio. Ad esempio, si supponga di
voler creare la versione procapite di una serie di variabili, usando la
variabile pop (popolazione). Lo si può fare con i comandi seguenti:

	genr invpop = 1/pop
	multiply invpop pc income

che creeranno incomepc come prodotto di income e invpop, e expendpc come
expend per invpop.

#
nls
@Estimation
Argomenti:  funzione derivate 
Opzione:    --vcv (mostra la matrice di covarianza)

Esegue una stima con minimi quadrati non-lineari (NLS: Nonlinear Least
Squares) usando una versione modificata dell'algoritmo di
Levenberg-Marquandt. Occorre fornire una specificazione di funzione e
dichiarare i parametri della funzione (usando il comando "genr") prima della
stima. Opzionalmente, è anche possibile specificare le espressioni per le
derivate della funzione rispetto a ognuno dei parametri; in caso contrario,
viene calcolata un'approssimazione numerica del Jacobiano.

È più semplice mostrare il funzionamento con un esempio. Quello che segue è
uno script completo per stimare la funzione di consumo non-lineare
presentata in Econometric Analysis di William Greene (capitolo 11 della
quarta edizione, o capitolo 9 della quinta). I numeri alla sinistra delle
righe sono dei punti di riferimento e non fanno parte dei comandi. Si noti
che l'opzione --vcv per mostrare la matrice di covarianza delle stime dei
parametri, si applica al comando finale end nls.

	1   open greene11_3.gdt
	2   ols C 0 Y
	3   genr alfa = coeff(0)
	4   genr beta = coeff(Y)
	5   genr gamma = 1.0
	6   nls C = alfa + beta * Y^gamma
	7   deriv alfa = 1
	8   deriv beta = Y^gamma
	9   deriv gamma = beta * Y^gamma * log(Y)
	10  end nls --vcv

Spesso è comodo inizializzare i parametri con riferimento a un modello
lineare collegato, come è mostrato nelle righe da 2 a 5. I parametri alfa,
beta e gamma possono essere impostati a qualunque valore iniziale (non
necessariamente sulla base di un modello stimato con OLS), ma la convergenza
della procedura NLS non è garantita per qualunque punto di partenza.

I veri comandi NLS occupano le righe da 6 a 10. Sulla riga 6 viene dato il
comando "nls": viene specificata una variabile dipendente, seguita dal segno
uguale, seguito da una specificazione di funzione. La sintassi per
l'espressione a destra è la stessa usata per il comando "genr". Le tre righe
successive specificano le derivate della funzione di regressione rispetto a
ognuno dei parametri. Ogni riga inizia con il comando "deriv", indica il
nome di un parametro, il segno di uguale e un'espressione che indica come
calcolare la derivata (anche qui la sintassi è la stessa di "genr"). Queste
righe "deriv" sono opzionali, ma si raccomanda di inserirle se possibile. La
riga 10, "end nls", completa il comando ed esegue la stima.

Per ulteriori dettagli sulla stima NLS si veda il manuale di gretl.

Accesso dal menù: /Modello/Minimi quadrati non lineari

#
noecho
@Obsolete

Comando obsoleto. Si veda "set".

#
nulldata
@Dataset
Argomento:  lunghezza_serie 
Esempio:    nulldata 500

Crea un dataset "vuoto", che contiene solo una costante e una variabile
indice, con periodicità 1 e il numero indicato di osservazioni. Ad esempio,
è possibile creare un dataset a scopo di simulazione usando alcuni comandi
"genr" (come "genr uniform()" e "genr normal()") per generare dati di prova.
Questo comando può essere usato insieme a "loop". Si veda anche l'opzione
"seed" del comando "set".

Accesso dal menù: /File/Crea dataset

#
ols
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --robust (errori standard robusti)
            --quiet (non mostra i risultati)
            --no-df-corr (sopprime la correzione per i gradi di libertà)
            --print-final (si veda sotto)
Esempi:     ols 1 0 2 4 6 7
            ols y 0 x1 x2 x3 --vcv
            ols y 0 x1 x2 x3 --quiet

Calcola le stime minimi quadrati ordinari (OLS: Ordinary Least Squares)
usando la variabile-dipendente e la lista di variabili-indipendenti, che
possono essere specificate per nome o numero. Il termine costante può essere
indicato usando il numero 0.

Oltre alle stime dei coefficienti e agli errori standard, il programma
mostra i p-value per le statistiche t (a due code) e F. Un p-value inferiore
a 0.01 indica significatività al livello dell'1 per cento ed è denotato con
***. ** indica invece la significatività tra l'1 e il 5 per cento, mentre *
indica un livello di significatività tra il 5 e il 10 per cento. Vengono
mostrate anche le statistiche di selezione del modello (il criterio di
informazione di Akaike, AIC, e il criterio di informazione bayesiana di
Schwarz, BIC). La formula usata per AIC è descritta in Akaike (1974), ossia
meno due volte la log-verosimiglianza massimizzata più il doppio del numero
di parametri stimati.

Usando l'opzione --no-df-corr la correzione per i gradi di libertà non viene
applicata nel calcolo della varianza stimata dell'errore (e quindi anche
dell'errore standard delle stime dei parametri).

L'opzione --print-final è utilizzabile solo nel contesto di un "loop".
L'effetto è quello di eseguire la regressione in modo silenzioso per tutte
le iterazioni del loop tranne l'ultima. Si veda il manuale di gretl per i
dettagli.

È possibile salvare alcune variabili interne generate durante la stima,
usando il comando "genr" subito dopo questo comando.

La formula usata per generare gli errori standard robusti (quando viene
usata l'opzione --robust) può essere modificata con il comando "set".

Accesso dal menù: /Modello/OLS - Minimi quadrati ordinari
Accesso alternativo: Pulsante Beta-hat sulla barra degli strumenti

#
omit
@Tests
Argomento:  lista-variabili 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --quiet (non mostra le stime per il modello ridotto)
Esempio:    omit 5 7 9

Questo comando deve seguire un comando di stima. Omette le variabili
indicate dal modello precedente e stima il nuovo modello. Se viene omessa
più di una variabile, viene mostrata la statistica F di Wald per le
variabili omesse, insieme al suo p-value (solo per la procedura OLS). Un
p-value inferiore a 0.05 indica che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Se viene usata l'opzione --quiet, i risultati mostrati comprendono solo il
test per la significatività congiunta delle variabili omesse, altrimenti
vengono mostrate anche le stime del modello ridotto. In quest'ultimo caso,
l'opzione --vcv mostra anche la matrice di covarianza dei coefficienti.

Accesso dal menù: Finestra del modello, /Test/OMIT - Ometti variabili

#
omitfrom
@Tests
Argomenti:  id-modello lista-variabili 
Opzione:    --quiet (non mostra le stime per il modello ridotto)
Esempio:    omitfrom 2 5 7 9

Funziona come "omit", tranne per il fatto che è possibile indicare un
modello precedentemente stimato, attraverso il suo numero identificativo
(che è mostrato all'inizio dei risultati del modello). L'esempio precedente
omette le variabili numero 5, 7 e 9 dal modello 2.

Accesso dal menù: Finestra del modello, /Test/OMIT - Ometti variabili

#
open
@Dataset
Argomento:  file-dati 

Apre un file di dati. Se è già stato aperto un file di dati, esso viene
sostituito da quello selezionato. Il programma cerca di determinare il
formato del file di dati (gretl, testo semplice, CSV o BOX1).

Questo comando può essere usato anche per aprire un database (gretl o RATS
4.0) per la lettura. In questo caso, dev'essere seguito dal comando "data"
per estrarre una particolare serie dal database.

Accesso dal menù: /File/Apri dati
Accesso alternativo: Trascinare un file di dati in gretl (MS Windows o Gnome)

#
outfile
@Printing
Argomenti:  file-output opzione 
Opzioni:    --append (aggiunge al file)
            --close (chiude il file)
            --write (sovrascrive il file)
Esempi:     outfile --write regress.txt
            outfile --close

Scrive i risultati sul file-output, fino a nuovo ordine. Usando l'opzione
--append, i risultati vengono aggiunti a un file esistente, mentre --write
apre un nuovo file (o ne sovrascrive uno esistente). Può essere aperto solo
un file alla volta.

L'opzione --close può essere usata per chiudere un file di output aperto in
precedenza, tornando a scrivere i risultati sul canale predefinito.

Nel primo degli esempi precedenti viene aperto il file regress.txt, mentre
nel secondo viene chiuso. Se prima del comando --close fosse eseguito un
comando "ols", i risultati della regressione verrebbero scritti su
regress.txt invece che sullo schermo.

#
panel
@Dataset
Opzioni:    --cross-section (pila di dati cross section)
            --time-series (pila di dati serie storiche)

Richiede che il dataset in uso sia interpretato come un panel (unione di
dati cross section e serie storiche). L'impostazione predefinita corrisponde
all'opzione --time-series e prevede di interpretare il dataset come una pila
di serie storiche (costituita da blocchi successivi di dati che contengono
serie storiche per ogni unità cross section). Usando l'opzione
--cross-section il dataset viene letto come una pila di dati cross-section
(blocchi successivi di dati contengono dati cross section per ognuno dei
periodi temporali). Si veda anche "setobs".

#
pca
@Statistics
Argomento:  lista-variabili 
Opzioni:    --save-all (salva tutte le componenti)
            --save (salva le componenti principali)

Analisi delle componenti principali. Mostra gli autovalori della matrice di
correlazione per le variabili nella lista-variabili, insieme alla
proporzione della varianza comune spiegata da ogni componente. Mostra anche
i corrispondenti autovettori (o "pesi della componente").

Usando l'opzione --save, le componenti con autovalori maggiori di 1.0
vengono salvati nel dataset come variabili, con i nomi PC1, PC2 e così via.
Queste variabili artificiali sono definite come la somma del peso della
componente moltiplicato per Xi standardizzato, dove Xi denota la i-esima
variabile nella lista-variabili.

Usando l'opzione --save-all, vengono salvate tutte le componenti, come
descritto sopra.

Accesso dal menù: Pop-up nella finestra principale (selezione multipla)

#
pergm
@Statistics
Argomento:  nome-variabile 
Opzione:    --bartlett (usa la finestra di Bartlett)

Calcola e mostra (graficamente se non si è in modalità batch) lo spettro
della variabile specificata. Senza l'opzione --bartlett, viene mostrato il
periodogramma nel campione, usando l'opzione, lo spettro viene stimato
usando una finestra di Bartlett per i ritardi di lunghezza 2*sqrt(T) (dove T
è l'ampiezza del campione); si veda il capitolo 18 di Econometric Analysis
di Greene. Se viene mostrato il periodogramma del campione, viene mostrato
anche il test t per l'integrazione frazionale della serie ("memoria lunga"):
l'ipotesi nulla è che l'ordine di integrazione sia zero.

Accesso dal menù: /Variabile/Spettro
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
poisson
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti [ ; offset ] 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --verbose (mostra i dettagli delle iterazioni)
Esempi:     poisson y 0 x1 x2
            poisson y 0 x1 x2 ; S

Stimates una regressione di Poisson, in cui la variabile dipendente
rappresenta le occorrenze di un qualche tipo di evento e può assumere solo
valori interi non negativi.

Se una variabile casuale discreta Y segue la distribuzione di Poisson,

  Pr(Y = y) = exp(-v) * v^y / y!

per y = 0, 1, 2,.... La media e la varianza della distribuzione sono
entrambe uguali a v. Nel modello di regressione di Poisson, il parametro v è
rappresentato da una funzione di una o più varabili indipendenti. La
versione più comune del modello (e l'unica supportata da gretl) ha

  v = exp(b0 + b1*x1 + b2*x2 + ...)

, ossia il logaritmo di v è una funzione lineare delle variabili
indipendenti.

Opzionalmente è possibile aggiungere una variabile "offset" alla
specificazione, ossia una variabile di scala, il cui logaritmo viene
aggiunto alla funzione di regressione lineare (con un coefficiente implicito
di 1.0). Ciò ha senso se si ipotizza che il numero di occorrenze dell'evento
in questione sia proporzionale a qualche fattore noto, a parità di altre
condizioni. Ad esempio, il numero di incidenti stradali può essere
ipotizzato proporzionale al volume del traffico, che potrebbe essere
specificato come una variabile di "offset" in un modello di Poisson per il
tasso di incidenti. La variabile di offset dev'essere strettamente positiva.

Accesso dal menù: /Modello/Poisson

#
plot
@Graphs
Argomento:  lista-variabili 
Opzione:    --one-scale (forza una scala sola)

Disegna i valori delle variabili indicate per l'intervallo di osservazioni
attuale, usando simboli ASCII. Ogni riga rappresenta un'osservazione e i
valori sono disegnati orizzontalmente. Il comportamento predefinito è di
scalare la variabili in modo appropriato. Si veda anche "gnuplot".

#
pooled
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzioni:    --unit-weights (stimatore feasible GLS)
            --iterate (itera fino alla soluzione di massima verosimiglianza)
            --vcv (mostra la matrice di covarianza)

In modalità predefinita, stima un modello con OLS (si veda "ols" per i
dettagli sulla sintassi) e lo marca come modello pooled o panel, rendendo
disponibile il comando "hausman".

Con l'opzione --unit-weights, viene usato lo stimatore feasible GLS, con i
pesi costruiti a partire dalle varianze specifiche degli errori per ogni
unità cross section. Questa modalità offre un guadagno di efficienza
rispetto alla stima OLS nel caso in cui la varianza differisca tra le
diverse unità.

Se viene usata anche l'opzione --iterate, lo stimatore GLS viene iterato: se
la procedura converge, verranno prodotte stime di massima verosimiglianza.

Accesso dal menù: /Modello/POOLED - Pooled OLS (panel)

#
print
@Printing
Argomenti:  lista-variabili  o stringa-letterale 
Opzioni:    --byobs (per osservazione)
            --ten (usa 10 cifre significative)
Esempi:     print x1 x2 --byobs
            print "Questa è una stringa"

Se viene indicata una lista-variabili, stampa i valori delle variabili
specificate, altrimenti stampa i valori di tutte le variabili nel dataset in
uso. Usando l'opzione --byobs i dati vengono stampati per osservazione,
altrimenti sono stampati per variabile. Usando l'opzione --ten i dati
vengono stampati per variabile con 10 cifre significative.

Se l'argomento di "print" è una stringa letterale (che deve iniziare con le
virgolette doppie "), la stringa viene stampata così come è stata indicata.
Si veda anche "printf".

Accesso dal menù: /Dati/Mostra valori

#
printf
@Printing
Argomenti:  formato argomenti 

Stampa valori scalari nel formato indicato da una stringa di formato (che
supporta un piccolo sottoinsieme del comando printf() del linguaggio di
programmazione C). I formati riconosciuti sono %g e %f, con i vari
modificatori disponibili in C. Esempi: la stringa %.10g stampa un valore con
10 cifre significative; %12.6f stampa un valore con 6 cifre decimali e una
larghezza di 12 caratteri.

La stringa di formato deve essere racchiusa tra virgolette doppie, i valori
da stampare devono seguire la stringa di formato, separati da virgole. I
valori possono avere due forme: i nomi di variabili nel dataset, oppure
espressioni valide per il comando "genr". L'esempio seguente stampa i valori
di due variabili e quello di un'espressione calcolata:

	ols 1 0 2 3
	genr b = coeff(2)
	genr se_b = stderr(2)
	printf "b = %.8g, standard error %.8g, t = %.4f\n", b, se_b, b/se_b

La lunghezza massima di una stringa di formato è di 127 caratteri. Vengono
riconosciute le sequenze di escape \n (newline), \t (tab), \v (tab
verticale) e \\ (barra inversa). Per stampare un segno di percentuale, si
usi %%.

#
probit
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Stima un modello probit, per variabili dipendenti binarie. Le stime di
massima verosimiglianza dei coefficienti delle variabili-indipendenti sono
ottenute con i minimi quadrati iterati (il metodo EM,
Expectation-Maximization). Poiché il modello è non-lineare, le pendenze
dipendono dai valori delle variabili indipendenti: le pendenze riportate
sono valutate nelle medie di queste variabili. La statistica chi-quadro
testa l'ipotesi nulla che tutti i coefficienti tranne la costante siano pari
a zero.

Il probit per l'analisi delle proporzioni non è ancora stato implementato in
gretl.

Accesso dal menù: /Modello/Probit

#
pvalue
@Utilities
Argomenti:  distribuzione [ parametri ] valore-x 
Esempi:     pvalue z zscore
            pvalue t 25 3.0
            pvalue X 3 5.6
            pvalue F 4 58 fval
            pvalue G xbar varx x

Calcola l'area alla destra del valore-x nella distribuzione indicata (z per
la Gaussiana, t per la t di Student, X per la chi-quadro, F per la F e G per
la gamma). Per le distribuzioni t e chi-quadro vanno indicati i gradi di
libertà; per la F sono richiesti i gradi di libertà al numeratore e al
denominatore; per la gamma sono richieste la media e la varianza.

Accesso dal menù: /Utilità/Calcola p-value

#
pwe
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)
Esempio:    pwe 1 0 2 4 6 7

Calcola le stime dei parametri usando la procedura Prais-Winsten,
un'implementazione GLS sviluppata per gestire l'autocorrelazione del primo
ordine nel termine di errore. La procedura viene iterata, così come in
"corc"; la differenza è che mentre Cochrane-Orcutt tralascia la prima
osservazione, Prais-Winsten ne fa uso. Per i dettagli, si veda per esempio
il capitolo 13 di Econometric Analysis (2000) di Greene.

Accesso dal menù: /Modello/Serie storiche/PWE - Prais-Winsten

#
quit
@Utilities

Esce dal programma, dando la possibilità di salvare i risultati della
sessione.

Accesso dal menù: /File/Esci

#
rename
@Dataset
Argomenti:  numero-var nuovo-nome 

Modifica il nome di una variabile con numero identificativo numero-var in
nuovo-nome. Il numero-var deve essere compreso tra 1 e il numero di
variabili nel dataset. Il nuovo nome deve essere lungo al massimo 8
caratteri, deve iniziare con una lettera e deve essere composto di sole
lettere, numeri e il carattere trattino basso.

Accesso dal menù: /Variabile/Modifica attributi
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

#
reset
@Tests

Va eseguito dopo la stima di un modello via OLS. Esegue il test RESET di
Ramsey per la specificazione del modello (non-linearità), aggiungendo alla
regressione il quadrato e il cubo dei valori stimati e calcolando la
statistica F per l'ipotesi nulla che i coefficienti dei due termini aggiunti
siano pari a zero.

Accesso dal menù: Finestra del modello, /Test/RESET - Ramsey

#
restrict
@Tests

Impone un insieme di vincoli lineari sull'ultimo modello stimato o su un
sistema di equazioni definito in precedenza. La sintassi del comando è
leggermente diversa in ognuno dei due casi.

In entrambi i casi, l'insieme di vincoli deve essere racchiuso tra i comandi
"restrict" e "end restrict". Nel caso della singola equazione, i vincoli
sono applicati implicitamente all'ultimo modello e vengono valutati appena
viene terminato il comando "restrict". Nel caso del sistema, il comando
iniziale "restrict" deve essere seguito immediatamente dal nome di un
sistema di equazioni definito in precedenza (si veda "system"). I vincoli
vengono valutati nella successiva stima del sistema effettuata con il
comando "estimate".

Ogni vincolo nell'insieme va indicato sotto forma di equazione con una
combinazione lineare dei parametri al primo membro e un valore numerico al
secondo. Nel caso della singola equazione, i parametri sono indicati con la
sintassi bN, dove N rappresenta la posizione nella lista dei regressori, a
partire da zero. Ad esempio, b1 indica il secondo parametro della
regressione. Nel caso del sistema, i parametri vengono indicati con la
sintassi b seguita da due numeri tra parentesi quadre. Il primo numero
rappresenta la posizione dell'equazione all'interno del sistema a partire da
1, mentre il secondo indica la posizione nella lista dei regressori, a
partire da zero. Ad esempio b[2,0] indica il primo parametro della seconda
equazione, mentre b[3,1] il secondo parametro della terza equazione.

I termini b nell'equazione che rappresenta un vincolo possono essere
prefissati da un moltiplicatore numerico, usando il segno * per indicare la
moltiplicazione, ad esempio 3.5*b4.

Ecco un esempio di un insieme di vincoli per un modello stimato in
precedenza:

	restrict
	 b1 = 0
	 b2 - b3 = 0
	 b4 + 2*b5 = 1
	end restrict

Ed ecco un esempio di un insieme di vincoli da applicare a un sistema (se il
nome del sistema non contiene spazi, è possibile tralasciare le virgolette).

	restrict "Sistema 1"
	 b[1,1] = 0
	 b[1,2] - b[2,2] = 0
	 b[3,4] + 2*b[3,5] = 1
	end restrict

Nel casdo dell'equazione singola, i vincoli sono valutati attraverso un test
F di Wald, usando la matrice di covarianza dei coefficienti del modello in
questione. Nel caso del sistema, vengono presentati i risultati completi
della stima del sistema soggetto ai vincoli; la statistica test dipende
dallo stimatore scelto (un test del rapporto di verosimiglianza nel caso di
un sistema stimato con un metodo di massima verosimiglianza, o altrimenti un
test F asintotico).

Accesso dal menù: Modello, /Test/Vincoli lineari

#
rhodiff
@Transformations
Argomenti:  lista-rho ; lista-variabili 
Esempi:     rhodiff .65 ; 2 3 4
            rhodiff r1 r2 ; x1 x2 x3

Crea delle versioni rho-differenziate delle variabili indicate (con numero o
con nome) nella lista-variabili e le aggiunge al dataset, usando il suffisso
# per le nuove variabili. Ad esempio, data la variabile v1 nella
lista-variabili e i valori r1 e r2 nella lista-rho, viene creata v1# = v1(t)
- r1*v1(t-1) - r2*v1(t-2). I valori nella lista-rho possono essere
specificati sotto forma di valori numerici o di nomi di variabili definite
in precedenza.

#
rmplot
@Graphs
Argomento:  nome-variabile 

Grafici Range-mean: questo comando crea un semplice grafico che aiuta a
capire se una serie storica y(t) ha varianza costante o no. L'intero
campione t=1,...,T viene diviso in piccoli sotto-campioni di dimensione
arbitraria k. Il primo sotto-campione è formato da y(1), ... ,y(k), il
secondo da y(k+1), ... , y(2k), e così via. Per ogni sotto-campione, vengono
calcolati la media e il campo di variazione (range: il valore massimo meno
quello minimo) e viene costruito un grafico con le medie sull'asse
orizzontale e i campi di variazione su quello verticale, in modo che ogni
sotto-campione sia rappresentato da un punto sul piano. Se la varianza della
serie è costante, ci si aspetta che il campo di variazione del
sotto-campione sia indipendente dalla media del sotto-campione; se i punti
si dispongono su una linea crescente, la varianza della serie cresce al
crescere della media, viceversa se i punti si dispongono su una linea
decrescente.

Oltre al grafico, gretl mostra anche le medie e i campi di variazione per
ogni sotto-campione, insieme al coefficiente di pendenza della regressione
OLS del campo di variazione sulla media e il p-value per l'ipotesi nulla che
la pendenza sia zero. Se il coefficiente di pendenza è significativo al
livello del 10 per cento, viene mostrata sul grafico la linea stimata della
regressione del campo di variazione sulla media.

Accesso dal menù: /Variabile/Grafico range-mean

#
run
@Programming
Argomento:  file-input 

Esegue i comandi nel file-input e restituisce il controllo al prompt
interattivo.

Accesso dal menù: Icona Esegui nella finestra comandi

#
runs
@Tests
Argomento:  nome-variabile 

Esegue il test non parametrico "delle successioni" per la casualità della
variabile specificata. Ad esempio, per testare la casualità delle deviazioni
dalla mediana per una variabile chiamata x1, con una mediana diversa da
zero, eseguire i comandi seguenti:

	genr signx1 = x1 - median(x1)
	runs signx1

Accesso dal menù: /Variabile/Test delle successioni

#
scatters
@Graphs
Argomenti:  variabile-y ; lista-variabili-x  o lista-variabili-y ; variabile-x 
Esempi:     scatters 1 ; 2 3 4 5
            scatters 1 2 3 4 5 6 ; 7

Produce grafici a dispersione della variabile-y rispetto ad ognuna delle
variabili nella lista-variabili-x, oppure di tutte le variabili nella
lista-variabili-y rispetto alla variabile-x. Il primo esempio visto sopra
assegna la variabile 1 all'asse y e produce quattro grafici, il primo con la
variabile 2 sull'asse x, il secondo con la variabile 3 sull'asse x, e così
via. Il secondo esempio rappresenta ognuna delle variabili da 1 a 6 rispetto
alla variabile 7 sull'asse x. Questi gruppi di grafici sono utili
nell'analisi esplorativa dei dati. È possibile creare fino a sei grafici
alla volta, eventuali variabili in sovrappiù saranno ignorate.

Accesso dal menù: /Dati/Grafici multipli a dispersione

#
seed
@Obsolete

Comando obsoleto. Si veda "set".

#
set
@Programming
Argomenti:  variabile valore 

Imposta i valori di vari parametri del programma. Il valore impostato rimane
in vigore per la durata della sessione di gretl, a meno di non essere
modificato da un ulteriore esecuzione del comando "set". I parametri che
possono essere impostati in questo modo sono elencati di seguito. Si noti
che le impostazioni di hac_lag e hc_version sono usate quando viene data
l'opzione --robust al comando "ols".

  echo         Valori: off o on (valore predefinito). Sopprime o ripristina 
               l'indicazione dei comandi eseguiti nell'output dei risultati.
  qr           Valori: on o off (valore predefinito). Usa la decomposizione QR 
               invece di quella di Cholesky nel calcolo delle stime OLS.
  seed         valore: un intero senza segno. Imposta il seme per il 
               generatore di numeri pseudo-casuali. Di solito il seme viene 
               impostato a partire dall'ora di sistema, ma se si intende 
               generare sequenze ripetibili di numeri casuali occorre 
               impostare il seme manualmente. 
  hac_lag      Valori: nw1 (valore predefinito) o nw2, o un intero. Imposta il 
               massimo valore di ritardo, p, usato nel calcolo degli errori 
               standard HAC (Heteroskedasticity and Autocorrelation 
               Consistent) con l'approccio Newey-West, per le serie storiche. 
               nw1 e nw2 rappresentano due varianti di calcolo automatico 
               basate sulla dimensione del campione, T: per nw1, p = 0.75 * 
               T^(1/3), e per nw2, p = 4 * (T/100)^(2/9). 
  hc_version   Valori: 0 (valore predefinito), 1, 2 o 3. Imposta la variante 
               da usare nel calcolo degli errori standard HAC 
               (Heteroskedasticity and Autocorrelation Consistent) con dati di 
               tipo cross section. Le opzioni corrispondono alle HC0, HC1, HC2 
               e HC3 discusse da Davidson e MacKinnon nel capitolo 5 di 
               Econometric Theory and Methods. HC0 produce quelli che di 
               solito vengono chiamati "errori standard di White".
  force_hc     Valori: off (predefinito) o on. Lo stimatore HAC viene usato in 
               modo predefinito con dati serie storiche e quando si usa 
               l'opzione --robust di "ols". Impostando invece force_hc a "on", 
               si forza l'uso della matrice di covarianza coerente con 
               l'eteroschedasticità (che non tiene conto 
               dell'autocorrelazione). 
  garch_vcv    Valori: unset, hessian, im (matrice di informazione) , op 
               (matrice dei prodotti esterni), qml (stimatore QML), bw 
               (Bollerslev-Wooldridge). Specifica la variante da usare per 
               stimare la matrice di covarianza dei coefficienti nei modelli 
               GARCH. Se si usa unset (valore predefinito), viene usata 
               l'Hessiana, a meno di usare l'opzione "robust" col comando 
               garch, nel qual caso viene usato QML.
  hp_lambda    Valori: auto (valore predefinito), o un valore numerico. 
               Imposta il parametro di livellamento per il filtro di 
               Hodrick-Prescott (si veda la funzione hpfilt sotto il comando 
               "genr"). Il valore predefinito è 100 volte il quadrato della 
               periodicità, ossia 100 per i dati annuali, 1600 per i dati 
               trimestrali e così via.
  bkbp_limits  Valori: due interi, il secondo maggiore del primo (i valori 
               predefiniti sono 8 e 32). Imposta i limiti di frequenza per il 
               filtro passa-banda di Baxter-King (si veda la funzione bkfilt 
               nel comando "genr"). 
  bkbp_k       Valori: un intero (il valore predefinito è 8). Imposta l'ordine 
               di approssimazione per il filtro passa-banda di Baxter-King. 

#
setobs
@Dataset
Argomenti:  periodicità oss-iniziale 
Opzioni:    --cross-section (interpreta come cross section)
            --time-series (interpreta come serie storiche)
            --stacked-cross-section (interpreta come panel)
            --stacked-time-series (interpreta come panel)
Esempi:     setobs 4 1990:1 --time-series
            setobs 12 1978:03
            setobs 1 1 --cross-section
            setobs 20 1:1 --stacked-time-series

Forza il programma a interpretare il dataset in uso secondo la struttura
specificata.

La periodicità, che deve essere un valore intero, nel caso delle serie
storiche rappresenta la frequenza delle osservazioni (1 = annuale; 4 =
trimestrale; 12 = mensile; 52 = settimanale; 5, 6, o 7 = giornaliera; 24 =
oraria). Nel caso di dati panel, la periodicità è il numero di righe per
ogni blocco di dati, ossia il numero di unità cross section se i dati sono
organizzati come pila di dati cross section, o il numero di periodi se i
dati sono organizzati come pila di serie storiche. Nel caso di semplici dati
cross section, la periodicità dev'essere impostata a 1.

L'osservazione iniziale rappresenta la data iniziale nel caso delle serie
storiche. Gli anni possono essere indicati con due o quattro cifre, mentre i
sotto-periodi (ad esempio i trimestri o i mesi) devono essere separati dagli
anni con un carattere "due punti". Nel caso di dati panel, l'osservazione
iniziale va indicata come 1:1, mentre nel caso di dati cross section come 1.
L'osservazione iniziale per i dati giornalieri o settimanali va indicata
nella forma AA/MM/GG o AAAA/MM/GG (oppure semplicemente 1 per i dati non
datati).

Se non viene usata nessuna opzione per indicare esplicitamente la struttura
dei dati, il programma cercherà di riconoscerla automaticamente a partire
dalle informazioni indicate.

Accesso dal menù: Campione/Struttura dataset

#
setmiss
@Dataset
Argomenti:  valore [ lista-variabili ] 
Esempi:     setmiss -1
            setmiss 100 x2

Imposta il programma in modo da interpretare un dato valore numerico (il
primo parametro indicato al comando) come codice per i "valori mancanti" nei
dati importati. Se questo valore è l'unico parametro fornito, come nel primo
degli esempi precedenti, l'interpretazione verrà applicata a tutte le serie
del dataset. Se "valore" è seguito da una lista di variabili, indicate per
nome o numero, l'interpretazione è limitata solo alle variabili specificate.
Così, nel secondo esempio, il valore 100 è interpretato come codice per
"mancante", ma solo per la variabile x2.

Accesso dal menù: /Campione/Imposta codice valori mancanti

#
shell
@Utilities
Argomento:  comando-shell 
Esempi:     ! ls -al
            ! notepad

Un "!" all'inizio di una riga di comando è interpretato come passaggio
all'interprete di comandi (shell) usato dall'utente nel sistema operativo.
In questo modo è possibile eseguire comandi shell arbitrari dall'interno di
gretl.

#
sim
@Dataset
Argomenti:  [ oss-iniziale oss-finale ] variabile a0 a1 a2 ... 
Esempi:     sim 1979.2 1983.1 y 0 0.9
            sim 15 25 y 10 0.8 x

Simula valori per la variabile nell'intervallo del campione in uso, o per
l'intervallo che va da oss-iniziale a oss-finale, se vengono dati questi
parametri opzionali. La variabile y deve essere stata definita in precedenza
con valori iniziali appropriati. La formula usata è

  y(t) = a0(t) + a1(t)*y(t-1) + a2(t)*y(t-2) + ...

I termini ai(t) possono essere costanti numeriche o nomi di variabili
definite in precedenza e possono essere preceduti dal segno meno.

L'uso di questo comando è sconsigliato. Si consiglia di usare "genr".

#
smpl
@Dataset
Forme alternative: smpl oss-iniziale oss-finale
                  smpl +i -j
                  smpl variabile-dummy --dummy
                  smpl condizione --restrict
                  smpl --no-missing [ lista-variabili ]
                  smpl n --random
                  smpl full
Esempi:     smpl 3 10
            smpl 1960:2 1982:4
            smpl +1 -1
            smpl x > 3000 --restrict
            smpl y > 3000 --restrict --replace
            smpl 100 --random

Reimposta l'intervallo del campione. Il nuovo intervallo può essere definito
in vari modi. Nel primo modo (corrispondente ai primi due esempi precedenti)
oss-iniziale e oss-finale devono essere coerenti con la periodicità dei
dati. Una delle due può essere sostituita da un punto e virgola per lasciare
intatto il valore attuale. Nel secondo modo, gli interi i e j (che possono
essere positivi o negativi e vanno indicati con il segno) sono presi come
spostamenti relativi ai punti iniziale e finale del campione in uso. Nel
terzo modo, variabile-dummy deve essere una variabile indicatrice che assume
solo valori 0 o 1 e il campione verrà ristretto alle osservazioni per cui la
variabile dummy vale 1. Il quarto modo, che usa --restrict, limita il
campione alle osservazioni che soddisfano la condizione Booleana specificata
secondo la sintassi del comando "genr".

Con la forma --no-missing, se viene specificata una lista-variabili, vengono
selezionate le osservazioni per cui tutte le variabili nella lista-variabili
hanno valori validi in corrispondenza dell'osservazione; altrimenti, se non
viene indicata alcuna lista-variabili, vengono selezionate le osservazioni
per cui tutte le variabili hanno valori validi (non mancanti).

Con la forma --random, viene estratto casualmente dal dataset il numero
indicato di osservazioni. Per essere in grado di replicare questa selezione,
occorre per prima cosa impostare il seme del generatore di numeri casuali
(si veda il comando "set").

La forma finale, smpl full, ripristina l'intervallo completo del campione.

Si noti che i vincoli sul campione di solito sono cumulativi: il valore di
riferimento di ogni comando smpl è il campione attuale. Se si vuole che il
comando funzioni sostituendo i vincoli esistenti, così che ogni vincolo si
aggiunga a quelli già impostati, occorre usare l'opzione --replace alla fine
del comando.

La variabile interna obs può essere usata con la forma --restrict di smpl
per escludere particolari osservazioni dal campione. Ad esempio,

	smpl obs!=4 --restrict

scarterà la quarta osservazione. Se le osservazioni sono identificate da
etichette,

        smpl obs!="USA" --restrict

scarterà l'osservazione a cui è associata l'etichetta "USA".

Per le forme --dummy, --restrict e --no-missing di smpl, occore tenere
presente che tutte le informazioni "strutturali" contenute nel file dei dati
(a proposito della struttura di serie storiche o di panel dei dati) vengono
perse. È possibile reimpostare la struttura originale con il comando
"setobs".

Si veda il il manuale di gretl per ulteriori dettagli.

Accesso dal menù: /Campione

#
spearman
@Statistics
Argomenti:  x y 
Opzione:    --verbose (mostra i dati ordinati)

Mostra il coefficiente di correlazione di rango di Spearman per le variabili
x e y. Le variabili non devono essere state ordinate manualmente in
precedenza, se ne occupa la funzione.

L'ordinamento automatico è dal massimo al minimo (ossia il valore massimo
nei dati assume il rango 1). Se occorre invertire l'ordinamento, creare una
variabile che è il negativo della variabile originale, ad esempio:

	genr altx = -x
	spearman altx y

Accesso dal menù: /Modello/SPEARMAN - Correlazione di rango

#
square
@Transformations
Argomento:  lista-variabili 
Opzione:    --cross (genera anche i prodotti incrociati, oltre ai quadrati)

Genera nuove variabili che sono i quadrati delle variabili nella
lista-variabili (con anche i prodotti incrociati, se si usa l'opzione
--cross). Ad esempio, "square x y" genera sq_x = x al quadrato, sq_y = y al
quadrato e (opzionalmente) x_y = x per y. Se una particolare variabile è una
dummy, non ne viene fatto il quadrato, visto che si otterrebbe la stessa
variabile.

Accesso dal menù: /Dati/Aggiungi variabili/Quadrati delle variabili selezionate

#
store
@Dataset
Argomenti:  file-dati [ lista-variabili ] 
Opzioni:    --csv (usa il formato CSV)
            --gnu-octave (usa il formato GNU Octave)
            --gnu-R (usa il formato GNU R)
            --traditional (usa il formato tradizionale ESL)
            --gzipped (comprime con gzip)
            --dat (usa il formato ASCII di PcGive)

Salva l'intero dataset, o un sottoinsieme delle variabili se è stata
indicata una lista-variabili, nel file indicato con file-dati.

L'impostazione predefinita è di salvare i dati nel formato "interno" di
gretl, ma le opzioni del comando permettono di usare formati alternativi. I
dati CSV (Comma-Separated Values, dati separati da virgole) possono essere
letti dai programmi di foglio elettronico e possono essere modificati con un
editor di testi. I formati Octave, R e PcGive sono destinati ad essere usati
con i rispettivi programmi. La compressione con gzip può essere utile per
grandi dataset. Si veda il il manuale di gretl per i dettagli sui vari
formati.

Si noti che le variabili scalari non saranno salvate automaticamente: per
salvarle occorre includerle esplicitamente nella lista-variabili.

Accesso dal menù: /File/Salva dati; /File/Esporta dati

#
summary
@Statistics
Argomento:  [ lista-variabili ] 

Mostra le statistiche descrittive per le variabili nella lista-variabili, o
per tutte le variabili nel dataset, se non si indica una lista-variabili.
L'output comprende media, deviazione standard, coefficiente di variazione (=
deviazione standard / media), mediana, minimo, massimo, coefficiente di
asimmetria, curtosi.

Accesso dal menù: /Dati/Statistiche descrittive
Accesso alternativo: Menù pop-up nella finestra principale

#
system
@Estimation
Forme alternative: system method=stimatore
                  system name=nome_sistema
Argomenti:  tipo salva-variabili 
Esempi:     system name="Klein Model 1"
            system method=sur
            system method=sur save=resids
            system method=3sls save=resids,fitted

Inizia un sistema di equazioni. Esistono due versioni del comando, a seconda
che si voglia salvare il sistema per poterlo stimare in più modi diversi,
oppure stimare il sistema una volta sola.

Per salvare il sistema occorre dargli un nome, come nel primo esempio
proposto (se il nome contiene spazi, occorre racchiuderlo tra virgolette).
In questo caso, è possibile stimare il sistema con il comando "estimate".
Una volta che il sistema è stato salvato, è possibile imporre dei vincoli su
di esso (compresi vincoli incrociati tra equazioni) usando il comando
"restrict".

In alternativa, è possibile indicare uno stimatore per il sistema usando
method= seguito da una stringa che identifica uno degli stimatori
supportati: "ols" (ordinary least squares - minimi quadrati ordinari),
"tsls" (two-stage least squares - minimi quadrati a due stadi), "sur"
(seemingly unrelated regressions - regressioni apparentemente non
collegate), "3sls" (three-stage least squares - minimi quadrati a tre
stadi), "fiml" (full information maximum likelihood - massima
verosimiglianza con informazione completa) o "liml" (limited information
maximum likelihood - massima verosimiglianza con informazione limitata). In
questo caso, il sistema viene stimato appena completata la sua definizione.

Un sistema di equazioni termina con la riga "end system". All'interno del
sistema possono essere definiti i quattro tipi di istruzioni seguenti.

  "equation": specifca un'equazione del sistema. Occorre indicarne almeno
  due.

  "instr": per i sistemi da stimare con i minimi quadrati a tre stadi,
  indica la lista degli strumenti (indicati dal nome o dal numero della
  variabile). In alternativa, è possibile fornire questa informazione nella
  riga "equation" usando la stessa sintassi accettata dal comando "tsls".

  "endog": per i sistemi di equazioni simultanee, indica la lista delle
  variabili endogene. È indicato principalmente per la stima FIML, ma può
  essere usato anche nella stima minimi quadrati a tre stadi al posto
  dell'istruzione "instr": in questo modo tutte le variabili non
  identificate come endogene verranno usate come strumenti.

  "identity": per la stima FIML, un'identità che collega due o più variabili
  del sistema. Questo tipo di istruzione è ignorata se viene usato uno
  stimatore diverso da FIML.

Nel campo opzionale "save=" del comando è possibile specificare se salvare i
residui ("resids") e/o i valori stimati ("fitted").

Per esempi completi di specificazione e stima di un sistema di equazioni, si
vedano gli script klein.inp e greene14_2.inp forniti con la distribuzione di
gretl.

#
tabprint
@Printing
Argomento:  [ -f nomefile ] 
Opzione:    --complete (crea un documento completo)

Va eseguito dopo la stima di un modello. Stampa il modello stimato sotto
forma di tabella LaTeX. Se viene specificato un nome di file dopo l'opzione
-f, l'output viene scritto nel file, altrimenti viene scritto in un file col
nome model_N.tex, dove N è il numero dei modelli stimati finora nella
sessione in corso. Si veda anche "eqnprint".

Usando l'opzione --complete, il file LaTeX è un documento completo, pronto
per essere processato; altrimenti il file va incluso in un documento.

Accesso dal menù: Finestra del modello, /LaTeX

#
testuhat
@Tests

Deve seguire un comando di stima. Mostra la distribuzione di frequenza dei
residui del modello, insieme a un test chi-quadro per la normalità, basato
sulla procedura suggerita da Doornik e Hansen (1984).

Accesso dal menù: Finestra del modello, /Test/Normalità dei residui

#
tobit
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --verbose (mostra i dettagli delle iterazioni)

Stima un modello Tobit. Il modello può essere appropriato quando la
variabile dipendente è "troncata". Ad esempio, vengono osservati valori
positivi o nulli della spesa dei consumatori per beni durevoli, ma non
valori negativi; tuttavia le decisioni di spesa possono essere pensate come
derivanti da una propensione al consumo, sottostante e non osservata, che
può anche essere negativa in alcuni casi. Per i dettagli si veda il capitolo
20 di Econometric Analysis di Greene.

Accesso dal menù: /Modello/Tobit

#
tsls
@Estimation
Argomenti:  variabile-dipendente variabili-indipendenti ; strumenti 
Opzioni:    --vcv (mostra la matrice di covarianza)
            --robust (errori standard robusti)
Esempio:    tsls y1 0 y2 y3 x1 x2 ; 0 x1 x2 x3 x4 x5 x6

Calcola le stime minimi quadrati a due stadi (TSLS o IV), date la
variabile-dipendente e la lista di variabili-indipendenti (incluse le
variabili esogene) nell'equazione strutturale per cui sono richieste le
stime TSLS; strumenti è la lista completa delle variabili esogene e
predeterminate in tutte le equazioni. Se la lista degli strumenti non è
lunga almeno quanto quella delle variabili-indipendenti, il modello non è
identificato.

Nell'esempio precedente, le y sono le variabili endogene e le x sono le
variabili esogene e predeterminate.

Accesso dal menù: /Modello/TSLS - Minimi quadrati a due stadi

#
var
@Estimation
Argomenti:  ordine lista-variabili ; lista-deterministica 
Opzioni:    --robust (errori standard robusti)
            --impulse-responses (mostra impulso-risposta)
            --quiet (non mostra i risultati)
Esempio:    var 4 x1 x2 x3 ; const time

Imposta e stima (usando OLS) un'autoregressione vettoriale (VAR). Il primo
argomento specifica l'ordine di ritardo, quindi segue l'impostazione della
prima equazione. Non occorre includere i ritardi tra gli elementi della
lista-variabili: verranno aggiunti automaticamente. Il punto e virgola
separa le variabili stocastiche, per cui verrà incluso un numero di ritardi
pari a ordine, dai termini deterministici presenti nella
lista-deterministica, come la costante, un trend temporale o variabili
dummy.

gretl è in grado di riconoscere le più comuni variabili deterministiche
(costante, trend temporale, variabili dummy con valori 0 o 1), quindi queste
non devono necessariamente essere elencate dopo il punto e virgola.
Variabili deterministiche più complesse (ad es. un trend temporale
moltiplicato per una variabile dummy) devono invece essere indicate
esplicitamente.

Viene calcolata una regressione separata per ognuna delle variabili nella
lista-variabili. Il risultato di ogni equazione include i test F per i
vincoli di uguaglianza a zero su tutti i ritardi delle variabili, un test F
per la significatività del ritardo massimo e, se è stata usata l'opzione
--impulse-responses, la scomposizione della varianza della previsione e le
funzioni di impulso-risposta.

Le decomposizioni della varianza della previsione e le funzioni di
impulso-risposta sono basate sulla decomposizione di Cholesky della matrice
di covarianza contemporanea, e in questo contesto l'ordine in cui vengono
date le variabili stocastiche conta. La prima variabile nella lista viene
considerata come la "più esogena" all'interno del periodo.

L'opzione --quiet disabilita la visualizzazione dei risultati; può essere
utile se usata in uno script che salva il VAR per esaminarlo in seguito.

Accesso dal menù: /Modello/Serie storiche/VAR - Autoregressione vettoriale

#
varlist
@Dataset

Mostra un elenco delle variabili disponibili. "list" e "ls" sono sinonimi.

#
vartest
@Tests
Argomenti:  var1 var2 

Calcola la statistica F per l'ipotesi nulla che le varianze della
popolazione per le variabili var1 e var2 siano uguali e mostra il p-value.

Accesso dal menù: /Dati/Differenza delle varianze

#
vif
@Tests

Deve seguire la stima di un modello che includa almeno due variabili
indipendenti. Calcola e mostra i fattori di inflazione della varianza
(Variance Inflation Factors - VIF) per i regressori. Il VIF per il
regressore j è definito come

  1/(1 - Rj^2)

dove Rj è il coefficiente di correlazione multipla tra il regressore j e gli
altri regressori. Il fattore ha un valore minimo di 1.0 quando la variabile
in questione è ortogonale alle altre variabili indipendenti. Neter,
Wasserman e Kutner (1990) suggeriscono di usare il VIF maggiore come test
diagnostico per la collinearità; un valore superiore a 10 è in genere
considerato indice di un grado di collinearità problematico.

Accesso dal menù: Finestra del modello, /Test/collinearità

#
wls
@Estimation
Argomenti:  variabile-pesi variabile-dipendente variabili-indipendenti 
Opzione:    --vcv (mostra la matrice di covarianza)

Calcola stime con minimi quadrati ponderati, prendendo i pesi da
variabile-pesi. In pratica viene calcolata una regressione OLS di
variabile-pesi * variabile-dipendente rispetto a variabile-pesi *
variabili-indipendenti. Se la variabile-pesi è una variabile dummy, la
procedura equivale a eliminare tutte le osservazioni per cui variabile-pesi
vale zero.

Accesso dal menù: /Modello/WLS - Minimi quadrati ponderati

