APAT
IRSA-CNR
Istituto di Ricerca sulle Acque
Agenzia per la protezione
Consiglio Nazionale delle Ricerche
dell’ambiente e per i servizi tecnici
Metodi analitici per le acque
Volume Primo
Sezione 1000 - Parte generale
Sezione 2000 - Parametri chimico-fisici
Sezione 3000 - Metalli
APAT
Manuali e Linee Guida 29/2003
Informazioni legali
L’Agenzia per la protezione dell’ambiente e per i servizi tecnici (APAT) o le persone che agiscono
per suo conto non sono responsabili dell’uso che può essere fatto delle informazioni contenute
in questo manuale.
APAT - Agenzia per la protezione dell’ambiente e per i servizi tecnici
Via Vitaliano Brancati, 48 - 00144 Roma
www.apat.it
CNR-IRSA - Consiglio Nazionale delle Ricerche - Istituto di Ricerca sulle Acque
Via Reno, 1 - 00195 Roma
www.irsa.rm.cnr.it
© APAT, Rapporti 29/2003
ISBN 88-448-0083-7
Riproduzione autorizzata citando la fonte
Elaborazione grafica
APAT
Grafica di copertina: Franco Iozzoli
Foto: Paolo Orlandi
Coordinamento tipografico
APAT
Impaginazione e stampa
I.G.E.R. srl - Viale C.T. Odescalchi, 67/A - 00147 Roma
Stampato su carta TCF
Finito di stampare febbraio 2004
AUTORI
Il manuale “Metodi Analitici per le Acque” è pubblicato nella serie editoriale “Manuali e Linee
Guida” dell’Agenzia per la Protezione dell’Ambiente e per i Servizi Tecnici (APAT).
L’opera si articola in tre volumi, suddivisi in sezioni (da 1000 a 9040). Fatta eccezione per
la parte generale (sezioni 1000-1040), ogni sezione contiene uno o più metodi, costituiti da
capitoli, paragrafi e sottoparagrafi.
I metodi analitici riportati nel manuale sono stati elaborati da una Commissione istituita nel
1996 dall’Istituto di Ricerca sulle Acque del Consiglio Nazionale delle Ricerche (IRSA-CNR),
per l’aggiornamento e l’ampliamento dei metodi riportati nel Quaderno 100 “Metodi analitici
per le acque”, pubblicato dall’IRSA-CNR ed edito dal Poligrafico dello Stato nel 1994.
Un Gruppo di Lavoro, coordinato dall’APAT, e formato dal Servizio di Metrologia Ambientale
dell’APAT, dall’Istituto di Ricerca sulle Acque del Consiglio Nazionale delle Ricerche (IRSACNR),
dalle Agenzie Regionali per la Protezione dell’Ambiente (ARPA) e dalle Agenzie Provinciali
per la Protezione dell’Ambiente (APPA), con il contributo del Centro Tematico Nazionale
“Acque interne e marino costiere” (CTN/AIM), ha provveduto ad una revisione critica e
ad una integrazione dei metodi analitici prodotti dalla Commissione istituita dall’IRSA-CNR.
I metodi analitici riportati nel presente manuale possono essere riprodotti ed utilizzati purché
ne sia citata la fonte.
L’edizione finale è a cura di:
Maria Belli, Damiano Centioli, Paolo de Zorzi, Umberto Sansone
(Agenzia per la protezione dell’ambiente e per i servizi tecnici - APAT)
Silvio Capri, Romano Pagnotta, Maurizio Pettine
(Consiglio Nazionale delle Ricerche - Istituto di Ricerca sulle Acque - CNR-IRSA)
I N D I C E
Indice
VOLUME 1
PRESENTAZIONE
PREMESSA
1000 -PARTE GENERALE
1010 -Strutture, attrezzature e reattivi di laboratorio 5
1020 -Lineamenti di tecniche analitiche 25
1030 -Metodi di campionamento 75
1040 -Qualità del dato analitico 87
2000 PARAMETRI FISICI, CHIMICI E CHIMICO-FISICI
2010 -Acidità e alcalinità (Acidità: titrimetrico;
Alcalinità: potenziometrico e titrimetrico) 115
2020 -Colore (qualitativo; spettrofotometrico; metodo al platino-cobalto) 123
2030 -Conducibilità 131
2040 -Durezza (per calcolo; complessometrico con EDTA) 137
2050 -Odore 141
2060 -pH 145
2070 -Salinità 153
2080 -Sapore 157
2090 -Solidi (totali disciolti; totali sospesi; sedimentabili; fissi e volatili a 600°C) 161
2100 -Temperatura 171
2110 -Torbidità 177
2120 -Trasparenza 183
3000 -METALLI E SPECIE METALLICHE
3010 -Trattamento preliminare dei campioni per l’analisi dei metalli mediante
mineralizzazione acida
3020 -Determinazione di elementi chimici mediante spettroscopia
di emissione con sorgente al plasma (ICP-OES) 197
3030 -Determinazione di cationi (sodio, ammonio, potassio, magnesio, calcio)
mediante cromatografia ionica 215
3040 -Metodi di preconcentrazione per la determinazione di metalli in tracce 225
3050 -Alluminio (F-AAS; ETA-AAS; spettrofotometrico con eriocromocianina R) 237
3060 -Antimonio (ETA-AAS; HG-AAS) 251
3070 -Argento (ETA-AAS; APDC+ETA-AAS) 263
3080 -Arsenico (HG-AAS; spettrofotometrico con dietilditiocarbammato di argento) 271
3090 -Bario (F-AAS; ETA-AAS) 283
3100 -Berillio (ETA-AAS) 291
3110 -Boro (spettrofotometrico con curcumina; spettrofotometrico con carminio) 297
3120 -Cadmio (F-AAS; ETA-AAS) 303
3130 -Calcio (F-AAS) 311
3140 -Cobalto (ETA-AAS) 315
INDICE
3150 -Cromo (Cromo totale: F-AAS; ETA-AAS; Cromo VI: APDC+ETA-AAS; Cromo III:
ETA-AAS dopo eliminazione di Cromo VI; Cromo totale: coprecipitazione con
Fe (OH)3+ETA-AAS; Cromo VI: spettrofotometrico con difenilcarbazide) 321
3160 -Ferro (F-AAS; ETA-AAS) 345
3170 -Litio (F-AAS) 355
3180 -Magnesio (F-AAS) 359
3190 -Manganese (F-AAS; ETA-AAS) 363
3200 -Mercurio (ossidazione con KMnO4+CV-AAS; ossidazione con HNO3
mediante microonde +CV-AAS; ossidazione con HNO3
mediante microonde +CV-AAS e amalgama su oro) 373
3210 -Molibdeno (ETA-AAS) 391
3220 -Nichel (F-AAS; ETA-AAS) 397
3230 -Piombo (F-AAS; ETA-AAS; spettrofotometrico con ditizone) 405
3240 -Potassio (F-AAS) 419
3250 -Rame (F-AAS; ETA-AAS; spettrofotometrico con ossalildiidrazide) 423
3260 -Selenio (HG-AAS; spettrofotometrico con o-fenilendiammina) 435
3270 -Sodio (F-AAS) 445
3280 -Stagno (F-AAS; ETA-AAS; spettrofotometrico con violetto di catechina) 449
3290 -Tallio (ETA-AAS; APDC+ETA-AAS) 461
3300 -Tellurio (ETA-AAS) 471
3310 -Vanadio (ETA-AAS; coprecipitazione con Fe(OH)3+ETA-AAS) 477
3320 -Zinco (F-AAS) 487
VOLUME 2
4000 -COSTITUENTI INORGANICI NON METALLICI
4010 -Anidride carbonica
4020 -Anioni (fluoruro, cloruro, nitrito, bromuro, nitrato, fosfato e solfato)
in cromatografia ionica 499
4030 -Azoto ammoniacale (spettrofotometrico all’indofenolo;
spettrofotometrico con reattivo di Nessler; potenziometrico;
spettrofotometrico o titrimetrico, previa distillazione) 509
4040 -Azoto nitrico (spettrofotometrico mediante salicilato di sodio;
spettrofotometrico con NEDA) 525
4050 -Azoto nitroso 533
4060 -Azoto totale e fosforo totale 537
4070 -Cianuro 541
4080 -Cloro attivo libero 547
4090 -Cloruro (titolazione argentometrica, mercurimetrica e potenziometrica) 553
4100 -Fluoruro (spettrofotometrico; potenziometrico) 565
4110 -Fosforo (ortofosfato; fosforo totale) 575
4120 -Ossigeno disciolto (titolazione iodometrica; titolazione potenziometrica) 583
4130 -Silice 595
4140 -Solfato (gravimetrico; torbidimetrico) 599
4150 -Solfito (titolazione iodometrica; metodo cromatografico) 605
4160 -Solfuro 613
5000 -COSTITUENTI ORGANICI
5010 -Aldeidi (composti carbonilici) (spettrofotometrico con MBTH;
derivatizzazione + SPE+HPLC-UV; derivatizzazione + LLE+GC-ECD) 621
5020 -Ammine alifatiche (GC-AFD) 635
5030 -Azoto organico 641
5040 -Carbonio organico disciolto 645
INDICE
5050 -Diserbanti ureici (LLE o SPE+HPLC-UV) 653
5060 -Prodotti fitosanitari (antiparassitari, pesticidi)
(LLE o SPE+GC-NPD o HPLC-UV o GC-MS) 661
5070 -Fenoli (spettrofotometrico con 4-amminoantipirina previa estrazione;
spettrofotometrico diretto con 4-amminoantipirina; LLE o SPE+HPLC-UV) 679
5080 -Idrocarburi policiclici aromatici (LLE o SPE+GC-MS; LLE o SPE+HPLC-UV
o HPLC-fluorescenza) 697
5090 -Pesticidi clorurati (LLE+GC-ECD) 707
5100 -Pesticidi fosforati (LLE+GC-FPD) 723
5110 -Policlorobifenili e policloroterfenili (LLE+GC-MS o GC-ECD) 743
5120 -Richiesta biochimica di ossigeno (BOD5) 767
5130 -Richiesta chimica di ossigeno (COD) 781
5140 -Solventi organici aromatici (spazio di testa statico +GC-FID;
spazio di testa dinamico+GC-FID) 789
5150 -Solventi clorurati (spazio di testa statico+GC-ECD;
spazio di testa dinamico+GC-ECD) 799
5160 -Sostanze oleose (grassi e oli animali e vegetali; idrocarburi totali)
(gravimetrico; IR) 811
5170 -Tensioattivi anionici (MBAS) 827
5180 -Tensioattivi non ionici (BIAS) 833
VOLUME 3
6000 -METODI MICROBIOLOGICI - PARTE GENERALE
6010 -Modalità di campionamento 845
6020 -Lineamenti di tecniche analitiche 849
6030 -Generalità sui terreni di coltura per batteriologia 853
6040 -Attrezzature di base per le analisi microbiologiche delle acque 855
7000 -METODI PER LA DETERMINAZIONE DI MICROORGANISMI INDICATORI DI
INQUINAMENTO E DI PATOGENI
7010 -Coliformi totali 865
7020 -Coliformi fecali 875
7030 -Escherichia coli 883
7040 -Streptococchi fecali ed enterococchi 895
7050 -Conteggio delle colonie su agar a 36°C e 22°C 909
7060 -Spore di clostridi solfito riduttori 913
7070 -Aeromonas spp 921
7080 -Salmonella spp 927
7090 -Vibrio spp 935
7100 -Uova di elminti 941
7110 -Batteriofagi 945
7120 -Enterovirus 959
7130 -Oocisti di Cryptosporidium e cisti di Giardia
8000 -METODI ECOTOSSICOLOGICI
8010 -Metodi di valutazione della tossicità con pesci 985
8020 -Metodi di valutazione della tossicità con Daphnia 993
8030 -Metodo di valutazione della tossicità acuta con batteri bioluminescenti 1003
8040 -Metodo di valutazione della tossicità acuta con Ceriodaphnia dubia 1013
8050 -Metodo di valutazione della tossicità acuta con Mysidopsis bahia 1027
8060 -Metodo di valutazione della tossicità acuta con Artemia sp. 1043
INDICE
8070 -Metodo di valutazione della tossicità acuta con Cyprinodon variegatus 1051
8080 -Metodo di valutazione della tossicità acuta
con trota iridea (Oncorhynchus mykiss) 1065
8090 -Metodo di valutazione della tossicità cronica (7 giorni)
con Mysidopsis bahia 1075
8100 -Metodo di valutazione della tossicità cronica (7 giorni)
con Ceriodaphnia dubia 1085
8110 -Metodo di valutazione della tossicità cronica (7 giorni)
con Cyprinodon variegatus 1091
8120 -Saggio di tossicità prolungato (14-28 giorni) con trota
iridea (Oncorhynchus mykiss) (metodo preliminare) 1099
8130 -Analisi statistica dei risultati di saggi cronici 1109
9000 -INDICATORI BIOLOGICI
9010 -Indice biotico esteso (I.B.E.) 1115
9020 Determinazione della clorofilla: metodo spettrofotometrico 1137
9030 Determinazione dell’adenosintrifosfato (ATP) 1143
9040 Conta diretta dell’abbondanza microbica (DAPI) 1149
PRESENTAZIONE
Presentazione
Questa nuova edizione del manuale “Metodi Analitici per le Acque” rappresenta il coronamento
di un’attività avviata nel 1996 con l’obiettivo di assicurare, in analogia con quanto accade
in altri paesi ad elevata sensibilità ambientale, una revisione periodica delle metodologie
analitiche per la caratterizzazione fisica, chimica, biologica e microbiologica delle acque.
Riprendendo una formula già collaudata con successo in passato, l’attività di armonizzazione
dei metodi è stata coordinata da una Commissione istituita nel 1996 dall’Istituto di Ricerca
sulle Acque del Consiglio Nazionale delle Ricerche (IRSA-CNR), composta da rappresentanti
istituzionali di soggetti pubblici (Università, Istituto Superiore di Sanità, ENEA, Conferenza
Stato-Regioni, Ministero per le Politiche Agricole, Ministero dell’Ambiente e della Tutela
del Territorio, UICI, CISBA), nonché da esperti rappresentanti di settori industriali (ENEL,
Confindustria), interessati alle problematiche relative al controllo e alla salvaguardia dei corpi
idrici.
La Commissione ha individuato otto aree di intervento (Campionamento, Qualità del dato
analitico, Cromatografia ionica, Metalli, Microinquinanti organici, Metodi microbiologici,
Metodi tossicologici e Metodi biologici) e ha dato vita ai relativi gruppi di lavoro, potenziati
attraverso il concorso di laboratori appartenenti ad enti diversi da quelli inseriti nella Commissione,
con il compito di validare le procedure analitiche in esame.
L’emanazione del Decreto Legislativo 152/99, intervenuta nella fase terminale delle attività
dei suddetti gruppi di lavoro, ha modificato sostanzialmente il quadro normativo di riferimento,
non solo per quanto concerne le responsabilità istituzionali, con il trasferimento all’Agenzia
per la Protezione dell’Ambiente e per i Servizi Tecnici (APAT) dei compiti di aggiornamento
delle metodologie di campionamento ed analisi delle matrici ambientali, ma anche
in merito agli indici da prendere in considerazione nell’ambito delle attività previste dal decreto
in questione (controllo dei limiti di emissione degli scarichi idrici e monitoraggio e classificazione
delle acque). In questo quadro l’IRSA ha messo a disposizione il proprio contributo
di esperienza e cultura maturati nel settore e, nell’ambito di una convenzione stipulata
con APAT, ha reso ufficialmente operativa una collaborazione che, a partire dalla pubblicazione
di questo manuale, vedrà anche in futuro entrambe le istituzioni impegnate in affinamenti
ed integrazioni dei metodi analitici e nell’avvio di attività atte a coprire quelle esigenze
del decreto legislativo non ancora soddisfatte con la pubblicazione di questo manuale.
Nell’ambito della convenzione APAT-IRSA è stato istituito un gruppo di lavoro coordinato dal-
l’APAT e formato da rappresentanti del Servizio di Metrologia Ambientale dell’APAT, dell’IRSA-
CNR, delle ARPA e delle APPA, che con il contributo del Centro Tematico Nazionale “Acque
interne e marino costiere” (CTN-AIM), ha provveduto ad una revisione critica e ad una
integrazione dei metodi analitici per le acque prodotti dalla Commissione IRSA-CNR.
Questo nuova edizione del manuale, “Metodi Analitici per le Acque”, che viene pubblicata
nella serie editoriale “Manuali e Linee Guida” dell’APAT, non è un documento esaustivo per
l’applicazione del Decreto Legislativo 152/99. Il manuale riserva tuttavia, rispetto al passato,
un più ampio spazio ai metodi biologici e alle procedure per la valutazione della tossicità
acuta e cronica attraverso vari organismi test, venendo parzialmente incontro alle problematiche
poste dall’applicazione del decreto legislativo nel settore del controllo analitico.
PRESENTAZIONE
Le principali novità di questa edizione si possono così riassumere:
• l’arricchimento della sezione concernente l’elaborazione e presentazione dei
risultati con l’introduzione del concetto di qualità delle misure attraverso la descrizione
dei relativi strumenti (carte di controllo, materiali di riferimento, studi
interlaboratorio);
• l’inserimento di protocolli analitici basati sull’impiego di tecniche strumentali
non riportate nella precedente edizione (spettroscopia di emissione in sorgente
plasma, cromatografia ionica, gas cromatografia-spettrometria di massa,
cromatografia liquida ad alta prestazione);
• potenziamento degli strumenti di indagine microbiologica delle acque attraverso
la definizione dei protocolli per l’analisi di microorganismi non considerati
nel manuale precedente;
• l’ampliamento della sezione relativa ai parametri tossicologici, con la presentazione
di saggi di tipo acuto e di tipo cronico su diversi organismi test (batteri,
crostacei, pesci);
• la descrizione della procedura per la valutazione dell’Indice Biotico Esteso,
strumento indispensabile nelle azioni di monitoraggio della qualità delle acque
correnti, come previsto dal Decreto Legislativo 152/99.
Un sentito ringraziamento va a tutti coloro che hanno partecipato gratuitamente, con entusiasmo,
alle attività della Commissione IRSA e dei gruppi di lavoro, e a quanti hanno permesso
di apportare correttivi alle procedure analitiche già codificate.
Un particolare ringraziamento va inoltre al Gruppo di Lavoro APAT-IRSA-ARPA-APPACTN/
AIM per l’impegno e la disponibilità offerta nella revisione critica dei metodi analitici.
Il notevole lavoro ha reso possibile la predisposizione di questa nuova edizione del manuale.
Ing. Giorgio Cesari Prof. Roberto Passino
Direttore Generale dell’APAT Direttore dell’IRSA-CNR
PREMESSA
Premessa
Il controllo ambientale per essere reso efficace necessita di un insieme di azioni mirate a garantire
la disponibilità di un quadro aggiornato dello stato di qualità dell’ambiente e della sua
evoluzione; ciò al fine di creare una base conoscitiva necessaria per le politiche ambientali e
per una corretta informazione al pubblico. Il controllo ambientale è generalmente effettuato
da diverse istituzioni presenti sul territorio, che possono utilizzare metodiche, protocolli di raccolta
e misura di campioni ambientali tra loro diversificati.
Per garantire un quadro dello stato dell’ambiente accurato ed affidabile e poter raggiungere
una confrontabilità a livello nazionale ed internazionale dei dati ottenuti con metodiche e protocolli
tra loro diversi è evidente la necessità di una strategia comune per la definizione di
procedure armonizzate di campionamento e di misura.
L’istituzione del sistema agenziale per la protezione dell’ambiente e l’attribuzione all’Agenzia
per la Protezione dell’Ambiente e per i Servizi Tecnici (APAT) della funzione di indirizzo e
coordinamento tecnico nei confronti delle Agenzie regionali e delle province autonome, ha
contribuito a rafforzare la sensibilità nazionale per l’armonizzazione delle metodiche utilizzate
a livello territoriale per le attività di monitoraggio e di controllo ambientale (campionamento,
analisi, trasmissione ed elaborazione dei dati).
Il decreto legislativo n° 152 dell’11 maggio 1999 sulla tutela delle acque, che recepisce le direttive
europee 91/271/CEE e 91/676/CEE attribuisce all’APAT il compito di revisione ed aggiornamento
delle metodologie di campionamento e di analisi e la messa a punto di metodi
per la classificazione ed il monitoraggio dei corpi idrici. In questo contesto l’APAT ha ratificato
una convenzione con l’Istituto di Ricerca sulle Acque del Consiglio Nazionale delle Ricerche
(IRSA-CNR) che prevedeva, tra l’altro, la pubblicazione congiunta di una raccolta di metodi
analitici per le acque. Nell’ambito della convenzione è stato istituito un gruppo di lavoro formato
da rappresentanti del Servizio di Metrologia Ambientale dell’APAT, dell’IRSA, delle ARPA
e delle APPA, che con il contributo del Centro Tematico Nazionale “Acque interne e marino
costiere” (CTN/AIM), ha provveduto ad una revisione critica dei metodi analitici per le acque
prodotti precedentemente da una Commissione istituita nel 1996 dall’Istituto di Ricerca sulle
Acque del Consiglio Nazionale delle Ricerche (IRSA-CNR), per l’aggiornamento e l’ampliamento
dei metodi riportati nel Quaderno 100 “Metodi analitici per le acque”, pubblicato dal-
l’IRSA-CNR e edito dal Poligrafico dello Stato nel 1994.
La Commissione istituita dall’IRSA-CNR nel 1996 era composta da docenti universitari di chimica
analitica o discipline attinenti alle problematiche ambientali, da rappresentanti degli ex
Laboratori di Igiene e Profilassi o ex Presidi Multizonali di Prevenzione, ora confluiti nelle
Agenzie Regionali di Protezione Ambientale, da rappresentanti di enti di ricerca ed istituzioni
pubbliche e private (Centro Italiano Studi di Biologia Ambientale, Confindustria, ENEA,
ENEL, Istituto Superiore di Sanità, Laboratorio Centrale di Idrobiologia del Ministero delle Risorse
Agricole, Alimentari e Forestali, Ministero dell’Ambiente e della Tutela del Territorio) e
da ricercatori dell’Istituto di Ricerca sulle Acque del Consiglio Nazionale delle Ricerche.
La Commissione ha operato nel periodo 1996-1999, con la creazione di gruppi di lavoro, a
cui hanno partecipato laboratori selezionati sulla base delle specifiche competenze maturate
per gli ambiti tematici di seguito elencati:
• campionamento;
• qualità del dato;
• cromatografia ionica;
• metalli e composti organometallici;
• microinquinanti organici;
PREMESSA
• metodi microbiologici;
• metodi tossicologici;
• metodi biologici.
I gruppi di lavoro della Commissione IRSA-CNR riflettevano la necessità di adeguare al progresso
tecnico-scientifico e alle novità in campo normativo le metodologie in uso, prevedendo
sia l’impiego di tecniche strumentali avanzate per i parametri tradizionali, sia lo sviluppo
di metodi per gli indici di nuova generazione.
Mentre per i primi tre ambiti tematici l’obiettivo era più circoscritto, già definito in partenza,
vale a dire, la revisione delle sezioni 1030 “Campionamento” e 1040 “Elaborazione dei risultati”
presenti nel Quaderno IRSA N° 100 e l’introduzione di due protocolli analitici, uno riguardante
la determinazione di anioni (cloruro, nitrato, solfato, bromuro, fluoruro, fosfato e
nitrito), l’altro di cationi (sodio, ammonio, potassio, magnesio e calcio) mediante cromatografia
ionica, per i restanti temi è stato necessario individuare gli indici di interesse prioritario
sui quali condurre la sperimentazione.
In particolare, per quanto concerne i metalli, l’attenzione si è concentrata su quei metalli per
i quali non era previsto alcun protocollo analitico nel Quaderno 100 (argento, antimonio, cobalto,
molibdeno e vanadio). Sono stati introdotti inoltre, metodi in assorbimento atomico con
atomizzazione elettrotermica per gli altri metalli e un metodo multi-elementare per la determinazione
di specie metalliche mediante spettroscopia di emissione con sorgente al plasma.
Tra i microinquinanti organici sono stati presi in considerazione le aldeidi, i fenoli, gli idrocarburi
policiclici aromatici e i diserbanti ureici, pervenendo alla validazione di metodi analitici
basati sull’impiego dell’estrazione in fase solida ed analisi in cromatografia liquida ad
alta prestazione (HPLC) e/o gascromatografia. Per i composti organici volatili, è stata definita
la determinazione in gascromatografia mediante spazio di testa statico o dinamico. Viene
inoltre presentato un metodo multi-residuo per l’analisi di prodotti fitosanitari nelle acque in
grado di determinare più di 100 principi attivi.
Per quanto riguarda la caratterizzazione microbiologica delle acque, oltre alla revisione delle
procedure per la determinazione degli indici tradizionali, sono stati redatti metodi analitici
per la determinazione dei seguenti microorganismi: Aeromonas spp., Salmonella spp., Vi-
brio spp., uova di elminti, enterovirus, oocisti di Cryptosporidium e cisti di Giardia.
La sezione dei metodi tossicologici risulta notevolmente ampliata con la descrizione di saggi
di tipo acuto e di tipo cronico su diversi organismi test (batteri, crostacei, pesci). Questi
saggi, essendo stati definiti per rispondere all’ex D.Lgs. 133/92 relativo agli scarichi industriali
di sostanze pericolose, non rispondono pienamente ai requisiti imposti dal D.Lgs.
152/99, ma possono essere considerati un punto di partenza per l’avvio di attività finalizzate
allo sviluppo di metodi per saggi ecotossicologici così come previsti dal decreto attualmente
in vigore.
Sono state inoltre messe a punto le metodologie per la determinazione dell’indice biotico esteso
(I.B.E.), della clorofilla, dell’ATP e della conta diretta dell’abbondanza microbica (DAPI).
I diversi gruppi di lavoro della Commissione IRSA-CNR hanno operato in diverse fasi:
1. ricognizione bibliografica per accertare l’esistenza di procedure
armonizzate
a livello nazionale e/o internazionale per la determinazione dell’analita di
interesse;
2. definizione del protocollo analitico;
3. validazione attraverso test interlaboratorio su materiali certificati o soluzioni
preparate in laboratorio e distribuite ai laboratori partecipanti.
Al fine di aumentare la significatività dei dati di ripetibilità, riproducibilità e accuratezza forniti
dai test interlaboratoriali, almeno 10 laboratori hanno partecipato ai test. In taluni casi si
è fatto ricorso a laboratori cooptati per l’occasione, esterni al gruppo di lavoro e scelti tra
quelli che già svolgevano a livello di routine determinazioni analitiche riguardanti il parametro
scelto.
Nel 2000 è stato istituito un gruppo di lavoro coordinato dall’APAT e formato dal Servizio di
Metrologia Ambientale dell’APAT, dall’Istituto di Ricerca sulle Acque del Consiglio Nazionale
PREMESSA
delle Ricerche (IRSA-CNR), dalle Agenzie Regionali per la Protezione dell’Ambiente (ARPA) e
dalle Agenzie Provinciali per la Protezione dell’Ambiente (APPA) e dal Centro Tematico Nazionale
“Acque interne e marino costiere” (CTN/AIM), che ha avuto il compito di effettuare
una revisione critica ed una integrazione dei metodi analitici prodotti dalla Commissione istituita
dall’IRSA-CNR. In questo quadro l’Agenzia Regionale per la Protezione dell’Ambiente
della Regione Toscana (ARPAT), quale leader del CTN/AIM, ha provveduto a trasmettere i metodi
analitici elaborati dalla Commissione IRSA-CNR ai direttori tecnici delle Agenzie Regionali
e Provinciali per l’Ambiente, all’ICRAM e ai Dipartimenti Provinciali dell’ARPA Toscana.
La stesura del testo finale del manuale “Metodi Analitici per le Acque” è stata curata dallo
stesso gruppo di lavoro istituito nel 2000 che ha provveduto da un lato a integrare i metodi
con modifiche talora sostanziali delle procedure adottate e ad uniformare il linguaggio utilizzato,
e dall’altro a inserire i commenti, le osservazioni e le proposte di revisione raccolte dal
CTN/AIM.
Di seguito sono riportati i componenti della Commissione IRSA-CNR e dei gruppi di lavoro
istituiti per la revisione, l’aggiornamento e l’ampliamento dei metodi riportati nel Quaderno
100 “Metodi analitici per le acque”, pubblicato dall’IRSA-CNR ed edito dal Poligrafico dello
Stato nel 1994.
Maria BELLI (coordinatore) APAT Roma
Sabrina BARBIZZI APAT Roma
Carlo BRUSCOLI ARPA Toscana Pistoia
Silvio CAPRI IRSA-CNR Roma
Susanna CAVALIERI ARPA Toscana Firenze
Damiano CENTIOLI APAT Roma
Daniela CONTI APAT Roma
Antonio DALMIGLIO ARPA Lombardia Milano
Paolo de ZORZI APAT Roma
Alessandro FRANCHI ARPA Toscana Firenze
Chiara GALAS APAT Roma
Vittoria GIACOMELLI ARPA Toscana Firenze
Carolina LONIGRO APAT Roma
Michele LORENZIN APPA Trento Trento
Laura MANCINI Istituto Superiore di Sanità Roma
Maria Giovanna MARCHI ARPA Toscana Arezzo
Marco MAZZONI ARPA Toscana Firenze
Romano PAGNOTTA IRSA-CNR Roma
Maurizio PETTINE IRSA-CNR Roma
Umberto SANSONE APAT Roma
Alfonso SBALCHIERO APAT Roma
Maria Grazia SCIALOJA ARPA Emilia Romagna Modena
Elio SESIA ARPA Piemonte Asti
Luisa STELLATO APAT Roma
Luigi VIGANÒ IRSA-CNR Brugherio (Milano)
Gruppo di lavoro per la revisione critica ed integrazione dei metodi analitici
prodotti dalla Commissione istituita dall’IRSA-CNR
PREMESSA
Presidente: Roberto PASSINO IRSA-CNR Roma
Coordinatore: Romano PAGNOTTA IRSA-CNR Roma
Segretario: Silvio CAPRI IRSA-CNR Roma
Componenti:
Maurizio BETTINELLI ENEL Produzione* Piacenza
Luigi CAMPANELLA Università degli Studi “La Sapienza” Roma
Marina CAMUSSO IRSA-CNR Brugherio (Milano)
Paolo CESCON Università “Ca’ Foscari” Venezia
Roger FUOCO Università degli Studi Pisa
Giorgio GILLI Università degli Studi Torino
Alfredo GORNI ENI Ambiente Ferrara
Alfredo LIBERATORI IRSA-CNR Roma
Letizia LUBRANO Ministero dell’Ambiente e della Tutela del Territorio Roma (dal 21/10/1998)
Roberto MORABITO ENEA Roma
Luigi OLORI Istituto Superiore di Sanità Roma (fino 23/9/1997)
Massimo OTTAVIANI Istituto Superiore di Sanità Roma (dal 23/9/1997)
Renato PERDICARO Ministero per le Politiche Agricole Roma
Maurizio PETTINE IRSA-CNR Roma
Mauro SANNA ARPA Lazio Roma
Roberto SPAGGIARI ARPA Emilia Romagna Reggio Emilia
Giorgio SUBINI Ministero dell’Ambiente e della Tutela del Territorio Roma (fino 21/10/1998)
Giovanni TIRAVANTI IRSA-CNR Bari
Pier Giorgio ZAMBONIN Università degli Studi Bari
* = Laboratorio di Igiene Ambientale e Tossicologia Industriale – Fondazione Salvatore Maugeri - Pavia
Commissione per la revisione, l’aggiornamento e la messa a punto di metodi analitici per le acque
Coordinatore: Paolo CESCON Università “Ca Foscari” Venezia
Componenti:
Roberto BERTONI Istituto Italiano di Idrobiologia Pallanza (Verbania)
Paolo CARNIEL ARPA Friuli-Venezia Giulia Pordenone
Roberto MESSORI ARPA Emilia Romagna Reggio Emilia
Roberto MORABITO ENEA Roma
Herbert MUNTAU Centro Comune di Ricerca CE Ispra (Varese)
Mauro SANNA ARPA Lazio Roma
Letizia LUBRANO Ministero dell’Ambiente e della Tutela del Territorio Roma (dal 21/10/1998)
Giorgio SUBINI Ministero dell’Ambiente e della Tutela del Territorio Roma (fino 21/10/1998)
Gianni TARTARI IRSA-CNR Brugherio (Milano)
Gruppo di lavoro - Campionamento
Coordinatore: Roberto MORABITO ENEA Roma
Componenti:
Maurizio BETTINELLI ENEL Produzione* Piacenza
Claudia BRUNORI ENEA Roma
Luigi CAMPANELLA Università La Sapienza Roma
Sergio CAROLI Istituto Superiore di Sanità Roma
Paolo CESCON Università “Ca Foscari” Venezia
Salvatore CHIAVARINI ENEA Roma
Roger FUOCO Università degli Studi Pisa
Roberto MESSORI ARPA Emilia Romagna Reggio Emilia
Rosario MOSELLO Istituto Italiano di Idrobiologia Pallanza (Verbania)
Herbert MUNTAU Centro Comune di Ricerca CE Ispra (Varese)
Stefano POLESELLO IRSA-CNR Brugherio (Milano)
Oreste SENOFONTE Istituto Superiore di Sanità Roma
Gianni TARTARI IRSA-CNR Brugherio (Milano)
Pier Giorgio ZAMBONIN Università degli Studi Bari
* = Laboratorio di Igiene Ambientale e Tossicologia Industriale – Fondazione Salvatore Maugeri - Pavia
Gruppo di lavoro - Qualità del dato analitico
PREMESSA
Coordinatore: Marina CAMUSSO IRSA-CNR Brugherio (Milano)
Componenti:
Marco ACHILLI ENEL Segrate (Milano)
Emilia AIMO ARPA Veneto Venezia
Maurizio BETTINELLI ENEL Produzione* Piacenza
Adriano BORTOLUSSI ARPA Friuli-Venezia Giulia Pordenone
Camilla BRAGUGLIA IRSA-CNR Roma
Alberto CARNIEL ARPA Friuli-Venezia Giulia Pordenone
Ruggiero CIANNARELLA IRSA-CNR Bari
Raffaele CIRILLO ARPA Friuli-Venezia Giulia Pordenone
Maria Cristina CRISTOFORI ENI Ambiente Ferrara
Maria Letizia DAVI’ ARPA Emilia Romagna Ferrara
Fabio DECET ARPA Veneto Belluno
Elena DELL’ANDREA ARPA Veneto Venezia
Annalisa FORESE ARPA Veneto Padova
Dario MARANI IRSA-CNR Roma
Giuseppe MARTINI ARPA Veneto Venezia
Cristina PASQUALETTO ARPA Veneto Venezia
Domenico PETRUZZELLI Università degli Studi Taranto
Stefano POLESELLO IRSA-CNR Brugherio (Milano)
Sandro SPEZIA ENEL Produzione* Piacenza
Gabriele TARTARI Istituto Italiano di Idrobiologia Pallanza (Verbania)
Sandro TORCINI ENEA Roma
* = Laboratorio di Igiene Ambientale e Tossicologia Industriale – Fondazione Salvatore Maugeri - Pavia
Gruppo di lavoro - Cromotografia ionica
Coordinatore: Luigi CAMPANELLA Università degli Studi “La Sapienza” Roma
Componenti:
Claudio BALDAN ARPA Veneto Padova
Marina CAMUSSO IRSA-CNR Brugherio (Milano)
Silvio CAPRI IRSA-CNR Roma
Roberta FALCIANI Centro Sviluppo Materiali S.p.A. Roma
Fedele MANNA Università La Sapienza Roma
Walter MARTINOTTI ENEL Milano
Roberto MASCELLANI ACOSEA Ferrara
Domenico MASTROIANNI IRSA-CNR Roma
Roberto MESSORI ARPA Emilia Romagna Reggio Emilia
Giacomo MUCCIOLI ENICHEM Ravenna
Renato PERDICARO Ministero per le Politiche Agricole Roma
Fabio PETRINI ARPA Toscana Firenze
Domenico PETRUZZELLI Università degli Studi Taranto
Maurizio PETTINE IRSA-CNR Roma
Marcello SOLARI AUSIMONT Bollate (Milano)
Sandro SPEZIA ENEL Produzione* Piacenza
Sandro TORCINI ENEA Roma
* = Laboratorio di Igiene Ambientale e Tossicologia Industriale – Fondazione Salvatore Maugeri - Pavia
Gruppo di lavoro - Metalli e composti organometallici
Coordinatore: Pier Giorgio ZAMBONIN Università degli Studi Bari
Componenti:
Rocco ARENA Ente Autonomo Acquedotto Pugliese Bari
Giuseppe BAGNUOLO IRSA-CNR Bari
Sabina BERTERO ARPA Piemonte Grugliasco (Torino)
Maurizio BETTINELLI ENEL Produzione* Piacenza
Edoardo BORGI Azienda Acque Metropolitane Torino S.p.A Torino
Silvio CAPRI IRSA-CNR Roma
Salvatore CHIAVARINI ENEA Roma
Ruggiero CIANNARELLA IRSA-CNR Bari
Carlo CREMISINI ENEA Roma
Gruppo di lavoro - Microinquinanti organici
segue
PREMESSA
segue
Coordinatore: Roberto MARCHETTI Università degli Studi Milano
Sottogruppo “Metodi con batteri”
Componenti:
Ettore BIELLI ARPA Piemonte Novara
Gabriella CALDINI ARPA Toscana Firenze
Adelmo CORSINI ARPA Toscana Pistoia
Silvio GAITER ARPA Liguria Genova
Enrico GARROU ARPA Piemonte Grugliasco (Torino)
Piero GIANSANTI ARPA Piemonte Grugliasco (Torino)
Licia GUZZELLA IRSA-CNR Brugherio (Milano)
Teresa MAGNANI ARPA Lombardia Mantova
Pierluigi RAMPA ARPA Piemonte Torino
Giancarlo SBRILLI ARPA Toscana Piombino (Livorno)
Roberto SPAGGIARI ARPA Emilia Romagna Reggio Emilia
Sottogruppo “Metodi con crostacei”
Componenti:
Miriam AMODEI ARPA Lombardia Milano
Eros BACCI Università degli Studi Siena
Renato BAUDO Istituto Italiano Idrobiologia Pallanza (Verbania)
Melania BUFFAGNI AGIP San Donato Milanese (MI)
Nidia DE MARCO ARPA Friuli-Venezia Giulia Pordenone
Maria FERRARO AGIP San Donato Milanese (MI)
Silvia MARCHINI Istituto Superiore di Sanità Roma
Gruppo di lavoro - Metodi tossicologici
Maria Cristina CRISTOFORI ENI Ambiente Ferrara
Maria Letizia DAVÌ ARPA Emilia Romagna Ferrara
Antonio DI CORCIA Università degli Studi “La Sapienza” Roma
Marina FIORITO ARPA Piemonte Grugliasco (Torino)
Roger FUOCO Università degli Studi Pisa
Licia GUZZELLA IRSA-CNR Brugherio (Milano)
Franco GNUDI Acquedotto CADF Codigoro (Ferrara)
Giuseppe LAERA IRSA-CNR Bari
Antonio LOPEZ IRSA-CNR Bari
Luigi LORETI IRSA-CNR Roma
Attilio LUCCHI ENEL Produzione Piacenza
Giuseppe MASCOLO IRSA-CNR Bari
Gerardo MELCHIONNA ARPA Piemonte Grugliasco (Torino)
Francesco PALMISANO Università degli Studi Bari
Gabriella PASSARINO ARPA Piemonte Grugliasco (Torino)
Maria RADESCHI ARPA Piemonte Grugliasco (Torino)
Angelo ROLLO ENI Ambiente Ferrara
Paola ROSINA ARPA Piemonte Grugliasco (Torino)
Elisabetta RUSSO ARPA Emilia Romagna Piacenza
Giovanni TIRAVANTI IRSA-CNR Bari
Davide ZERBINATI ENI Ambiente Ferrara
* = Laboratorio di Igiene Ambientale e Tossicologia Industriale – Fondazione Salvatore Maugeri - Pavia
Gruppo di lavoro - Microinquinanti organici
Coordinatore: Lucia BONADONNA Istituto Superiore di Sanità Roma
Componenti:
Rossella BRIANCESCO Istituto Superiore di Sanità Roma
Maurizio DIVIZIA Università degli Studi di Tor Vergata Roma
Domenica DONIA Università degli Studi di Tor Vergata Roma
Augusto PANÀ Università degli Studi di Tor Vergata Roma
Gruppo di lavoro - Metodi microbiologici
segue
PREMESSA
segue
Coordinatore: Roberto MARCHETTI Università degli Studi Milano
Componenti:
Franco BAMBACIGNO Ministero dell’Ambiente e della Tutela del Territorio Roma
Anna BARRA CARACCIOLO IRSA-CNR Roma
Maurizio BATTEGAZZORE ARPA Piemonte Cuneo
Ettore BIELLI ARPA Piemonte Novara
Andrea BUFFAGNI IRSA-CNR Brugherio (Milano)
Giuseppe FORNARA ARPA Piemonte Novara
Pier Francesco GHETTI Università “Ca’ Foscari” Venezia
Sergio MALCEVSCHI Università degli Studi Pavia
Romano PAGNOTTA IRSA-CNR Roma
Alberto PUDDU IRSA-CNR Roma
Bruno ROSSARO Università degli Studi Milano
Roberto SPAGGIARI ARPA Emilia Romagna Reggio Emilia
Annamaria ZOPPINI IRSA-CNR Roma
Gruppo di lavoro - Metodi biologici
Maria Angela PASINI ARPA Lombardia Pavia
Pierluigi RAMPA ARPA Piemonte Torino
Giancarlo SBRILLI ARPA Toscana Piombino (Livorno)
Luigi VIGANÒ IRSA-CNR Brugherio (Milano)
Sottogruppo “Metodi con Artemia sp.”
Componenti:
Mario BUCCI ARPA Toscana Piombino (Livorno)
Melania BUFFAGNI AGIP San Donato Milanese (MI)
Silvio GAITER ARPA Liguria Genova
Licia GUZZELLA IRSA-CNR Brugherio (Milano)
Luciana MIGLIORE Università degli Studi di Tor Vergata Roma
Sottogruppo “Metodi con pesci”
Componenti:
Attilio ARILLO Università degli Studi Genova
Rossella AZZONI ARPA Lombardia Milano
Eros BACCI Università degli Studi Siena
Loredana BONALBERTI ARPA Emilia Romagna Ferrara
Mario BUCCI ARPA Toscana Piombino (Livorno)
Anna Maria CICERO ICRAM Roma
Luigi VIGANÒ IRSA-CNR Brugherio (Milano)
Gruppo di lavoro - Metodi tossicologici
P A R T E G E N E R A L E
1000 - PARTE GENERALE
P A R T E G E N E R A L E
In questa parte si forniscono informazioni preliminari all’applicazione dei metodi riportati nel
manuale. In particolare vengono descritte le strutture, attrezzature e reattivi di laboratorio ritenuti
indispensabili per la buona pratica di laboratorio; apparecchiature più sofisticate impiegate
in tecniche avanzate quali la gascromatografia, la cromatografia liquida, il plasma,
la spettrometria di massa vengono descritte nella Sezione 1020 “Lineamenti di tecniche analitiche”.
La Sezione 1030 fornisce alcuni cenni sulle modalità di campionamento e conservazione
del campione, mentre la Sezione 1040 “Qualità del dato analitico” riporta le nozioni
basilari riguardanti la valutazione dell’incertezza di misura e la trattazione statistica dei dati
sperimentali.
P A R T E G E N E R A L E
1010. Strutture, attrezzature e reattivi
di laboratorio
1. Principali servizi del laboratorio di analisi
1.1 Aria compressa
L’aria compressa da impiegare in laboratorio deve essere di elevata qualità e quindi è necessario
prendere tutte le precauzioni possibili per mantenerne elevato il grado di purezza,
soprattutto nei riguardi delle impurezze più comuni (acqua, grasso, polvere).
Nel caso in cui siano richieste pressioni inferiori a 50 psi (3,5 atm) un compressore del tipo
rotativo, che non richiede alcuna aggiunta di olio, è senz’altro il più conveniente, in quanto
si evitano le noiose operazioni di eliminazione delle tracce di olio che generalmente passano
nel flusso di aria. Nel caso di pressioni più elevate è opportuno impiegare compressori grandi,
orizzontali, raffreddati ad acqua.
La compressione, riscaldando l’aria, fa sì che questa trattenga una certa quantità di acqua
per cui è necessaria un’operazione di post-raffreddamento per eliminare l’acqua trattenuta.
Inoltre, al fine di impedire il passaggio dell’acqua trattenuta nel circuito di utilizzo, possono
essere impiegati filtri assorbenti o setacci molecolari. In qualche caso può essere opportuno
creare, all’interno di ogni singolo laboratorio, un sistema a filtri di purificazione dell’aria
compressa prima del suo impiego diretto nelle operazioni di analisi. I materiali con cui si realizzano
i circuiti sono, generalmente, acciaio e rame.
1.2 Alimentazione elettrica
Un moderno laboratorio deve disporre di un adeguato sistema elettrico, che comprenda alimentazioni
a 220 e 380 volt con capacità adeguate al lavoro che si deve compiere. Vanno
inoltre considerate necessità particolari, correlate alla utilizzazione di speciali sistemi indicatori,
di strumentazione ad «alta corrente», di illuminazione «eccezionale» e di alimentazioni
«specifiche».
Per comprendere questi particolari aspetti basti pensare alla necessità di disporre di condizioni
di luminosità favorevoli per compiere correttamente alcune delle operazioni fondamentali
tipiche del laboratorio chimico, quali la valutazione di un viraggio e la lettura
su una scala graduata; ed ancora alla delicata e complicata natura di alcuni componenti
di apparecchiature routinarie (cromatografi, spettrofotometri, spettrografi) che non possono
prescindere, per il loro corretto funzionamento, dalla necessità di disporre di un’alimentazione
altamente stabilizzata, non sempre predisposta all’interno dei suddetti apparecchi.
In tal caso, al fine di evitare che nei singoli componenti si producano variazioni di resistenza,
temperatura, corrente, rendimento, è opportuno inserire nel circuito di alimentazione
uno stabilizzatore di tensione che può essere, a seconda delle esigenze, del tipo commerciale
a trasformatore o di qualità migliore o più raffinata. Per il funzionamento di fornelli
riscaldanti, muffole, forni, bagni ad acqua e stufe è opportuno impiegare tensione a
220 volt.
Assolutamente indispensabile ai fini della sicurezza è che tutta la strumentazione, alimentata
elettricamente, sia «accuratamente» messa a terra e sia conforme alle norme C.E.I., come pure
lo devono essere le prese di corrente.
Infine, è consigliabile disporre di un gruppo di continuità al fine di assicurare una erogazione
continua di corrente anche in caso di interruzioni sulla rete.
PARTE GENERALE
1.3 Cappe di aspirazione
Di massima le cappe impiegate per manipolazioni di sostanze chimiche devono essere installate
lontano da porte, finestre, zone di passaggio, sorgenti d’aria in genere, che potrebbero
interferire con i sistemi di ventilazione-estrazione delle cappe stesse e provocare la fuoriuscita
di inquinanti, con conseguente contaminazione ambientale e possibilità di inalazioneda parte degli operatori. È opportuno rilevare al riguardo che il passaggio di una persona
davanti ad una cappa aperta (velocità di passaggio di 2 km/h) provoca una corrente trasversale,
verso l’esterno della cappa e quindi verso l’ambiente, di circa 0,55 m/s, valore questo
dello stesso ordine di grandezza del limite comunemente accettato di velocità frontale di
imbocco aria a cappa completamente aperta (0,4 m/s).
Nel caso di lavorazioni pericolose devono essere evitate le cappe “centrali”, e quindi tale tipo
di cappa è generalmente sconsigliato.
Le cappe devono essere dotate nella zona superiore di una parte cedevole e la loro struttura
deve essere preferibilmente di materiale incombustibile o ignifugo (classe 0 o 1 di reazione
al fuoco). I vetri devono essere del tipo “di sicurezza” e le guide in cui scorre il frontale delle
cappe devono essere dotate di schermi in basso, in modo da limitare “l’effetto ghigliottina” in
caso di caduta del frontale stesso.
Nelle cappe l’aspirazione (velocità frontale dell’aria di circa 30 m3/min, che può arrivare a
40-50 m3/min nel caso di sostanze pericolose) deve essere distribuita sia in alto che in basso.
Per ammine aromatiche e sostanze cancerogene devono essere previste cappe separate
ad uso esclusivo, adeguatamente contrassegnate.
Nel seguito sono riportate le caratteristiche dei più comuni tipi di cappe attualmente in commercio.
1.3.1 Cappe standard
In questo tipo di cappe il volume e la velocità dell’aria aspirata varia a seconda del grado di
apertura del pannello frontale. Queste cappe, pur presentando ottime caratteristiche dal punto
di vista della sicurezza, possono creare notevoli difficoltà dal punto di vista del bilancio termico
dell’aria ambiente. Per questo motivo è necessario dotare il laboratorio di prese d’aria
supplementari al fine di assicurare un’adeguata ventilazione.
1.3.2 Cappe a portata costante
In queste cappe la presenza di un “by-pass”, comandato dalla posizione del pannello frontale
(aperto-chiuso), consente, in qualsiasi condizione operativa, l’espulsione di un volume costante
di aria. Tale configurazione permette un dimensionamento ottimale dei filetti fluidi evitando
l’instaurazione di regimi turbolenti del flusso e semplifica inoltre i problemi di bilanciamento
termico dell’ambiente.
La diffusa abitudine di convogliare scarichi di cappe mediante condotte orizzontali fino a raggiungere
la più vicina finestra è decisamente sconsigliabile. Ai fini di una migliore diluizione
atmosferica, è opportuno che la massa d’aria allo scarico sia animata di velocità verticale di
qualche metro al secondo.
Nella manipolazione di sostanze tossiche, cancerogene, ecc. è indispensabile procedere ad una
filtrazione dell’aria prima dello scarico (dimensione delle particelle del materiale filtrante: 0,3 µm)
mediante l’impiego di filtri a carbone attivo, di filtri assoluti e di sistemi di intrappolamento specifico,
posti immediatamente a valle dell’estrattore.
Nel caso di apparecchi da laboratorio di dimensioni tali da non poter essere contenuti nelle
normali cappe si fa ricorso a box aspiranti per i quali valgono le considerazioni fatte in precedenza.
1.4 Ambiente per bombole
Tutte le bombole dei gas che servono in un laboratorio chimico di analisi devono essere poste
in un ambiente esterno costruito secondo le norme contenute nel D.M. n. 24 del 24.11.84.
Il materiale con il quale si deve realizzare il sistema di erogazione è generalmente acciaio.
6
PARTE GENERALE
2. Acqua distillata e/o deionizzata
L’acqua distillata o deionizzata è impiegata per le diluizioni, per preparare le soluzioni dei
reattivi, per il risciacquo della vetreria.
La purezza dell’acqua può essere definita da indici diversi in relazione al metodo impiegato;
il più comune fa riferimento alla resistenza specifica che, per un’acqua di adeguata purezza,
non deve essere inferiore a 500.000 ohms. Sulla base di tale parametro è stata anche definita
tentativamente una scala di purezza (Tab. 1).
Estremamente pura 0,055 <0,0001
Ultrapura 0,1 0,01-0,02
Molto pura 1 0,2-0,5
Pura 10 2-5
Qualità dell’acqua Conduttività massima
(µµS/cm)
Contenuto elettroliti
(mg/L)
Tabella 1: Classificazione dell’acqua in base al grado di purezza
Altro criterio di valutazione della purezza di un’acqua, relativo alla presenza di sostanze organiche,
è quello che si basa sulla durata della colorazione del permanganato di potassio
(Tab. 2).
Grado di purezza
t*
(minuti)
Conducibilità
(µµS/cm)
Materiale disciolto
(mg/L)
Tabella 2: Classificazione dell’acqua in base alla durata (t*) della colorazione del KMnO4
I 60 0,06 0,01
II 60 1,0 0,1
III 10 1,0 1,0
IV 10 5,0 2,0
L’acqua distillata ordinaria normalmente non è pura; essa contiene gas disciolti, sostanze organiche
volatili distillate con l’acqua e sostanze non volatili trascinate dal vapore sotto forma
di “spray” durante la distillazione. La concentrazione di tutte queste impurezze è generalmente
molto bassa, tanto che l’acqua distillata viene impiegata per molte analisi senza ulteriore
purificazione.
Lo stato di purezza dell’acqua può anche essere compromesso da contaminanti provenienti
dai distillatori, dalle tubazioni, dai rubinetti e dai contenitori, che, se di materiale non idoneo,
possono cedere contaminanti diversi a seconda della loro natura.
Come si è detto sopra un elemento che può determinare in misura notevole il grado di purezza
dell’acqua distillata è il materiale del quale è costituito il distillatore, che, generalmente,
può essere o metallico o di vetro. Si ricorre di solito al metallo per distillare grossi quantitativi
di acqua ed al vetro quando si desidera ottenere acqua distillata di più elevato grado
di purezza. Nel caso di distillatori metallici (rame, ottone, bronzo) l’acqua prodotta può contenere
fino a 9 µg/L di Zn, 26 µg/L di Pb e 11 µg/L di Cu; valori molto più bassi si ottengono
nel caso di distillatori di vetro (rispettivamente <1 µg/L, <2 µg/L e <5 µg/L).
Tutti i distillatori richiedono periodici interventi di pulizia, la cui frequenza è da correlare direttamente
alla durezza dell’acqua di alimentazione. Nei casi di acqua molto dura può risultare
vantaggioso addolcire l’acqua, prima di introdurla nel distillatore, mediante resina scambiatrice
cationica che può poi essere rigenerata. Può anche essere utile, prima della distillazione,
un passaggio dell’acqua di alimentazione su carbone per eliminare il materiale organico
presente. Il passaggio del distillato su colonne a letto misto può essere necessario nel caso
in cui si desideri acqua a basso contenuto ionico. In commercio sono disponibili sistemi di
purificazione aggiuntivi già pronti da adattare all’uscita del contenitore dell’acqua distillata. In
questi sistemi, basati sull’impiego di resina scambiatrice di ioni, le colonne vanno periodicamente
sostituite e rigenerate in laboratorio o inviate alla casa costruttrice per la rigenerazione.
PARTE GENERALE
Tali sistemi sono anche dotati, sia in entrata che in uscita, di conduttimetri incorporati che forniscono
indicazioni circa il fattore di guadagno in purezza dell’acqua distillata.
Per quanto concerne le tubazioni i materiali più idonei per la loro realizzazione sono stagno,
ottone stagnato, acciaio inossidabile, plastica e vetro. Lo stagno è il migliore ma è anche assai
costoso, per cui un accettabile compromesso è rappresentato da materiale plastico o da
vetro con guarnizioni in teflon.
Quando non è disponibile un sistema di distribuzione automatico a circuito, il trasporto del-
l’acqua distillata deve essere effettuato in contenitori di vetro o di polietilene, in genere del
volume di 20 litri. Il contenitore di vetro deve essere del tipo esente da borosilicato, per prevenire
il rilascio di materiale solubile; i contenitori di polietilene presentano lo svantaggio di
rilasciare nel tempo i plastificanti organici incorporati, il che può creare problemi nel caso di
analisi di sostanze organiche a livello di tracce. Se si dispone di un sistema di distribuzione
è opportuno che la parte immersa nel contenitore sia costituita da vetro (meglio che da gomma)
e la parte esterna, ai fini di una maggiore flessibilità, da gomma o meglio da resina vinilica.
È opportuno in ogni caso prevedere sistemi protettivi antipolvere.
L’acqua distillata comune è generalmente idonea alla maggior parte delle analisi; in alcuni
casi però è necessario ricorrere ad una bi- o tri-distillazione eventualmente in presenza di
permanganato alcalino per ridurre al minimo la presenza di materiale organico.
Nel caso di determinazioni di sostanze organiche a livello di tracce, mediante metodi di distribuzione
fra fasi (in particolare estrazione con solventi e cromatografia), è opportuno preestrarre
l’acqua con il solvente che verrà impiegato per l’analisi. Esigenze particolari possono
richiedere acqua “assolutamente” esente da ammoniaca, da anidride carbonica o da ioni in
genere. Per la rimozione di tali impurezze, nel primo caso si dibatte l’acqua con uno scambiatore
cationico forte, nel secondo si ricorre all’ebollizione per 15 minuti o allo spostamento
mediante vigorosa aerazione con una corrente di gas inerte (azoto in genere), nel terzo si
passa l’acqua su scambiatore a letto misto (acido forte + base forte) che consente di arrivare
a concentrazioni ioniche massime di 0,1 µg/L (conduttività 0,06 µS/cm).
3. Strumentazione
Il continuo rinnovamento legato allo sviluppo dell’elettronica e dell’informatica porta alla produzione
di apparecchiature sempre meno ingombranti, più versatili ed automatiche. Di fatto
si può senz’altro affermare che la qualità media della strumentazione nei laboratori analitici
è in continuo progresso: molto più lenta è l’evoluzione nel tipo di apparecchiature ritenute indispensabili.
I principali strumenti di base dei laboratori di analisi delle acque possono essere individuati
in: bilancia, potenziometro (pHmetro), elettrodi iono-selettivi, conduttimetro, stufa, muffola,
analizzatore per il carbonio, spettrofotometro (visibile, UV, IR) e assorbimento atomico, cromatografo
(cromatografo liquido, gascromatografo, cromatografo ionico). Come si vede soltanto
alcuni di questi strumenti sono realmente legati allo sviluppo più recente della strumentazione
analitica.
3.1 Bilancia
La bilancia, considerato lo strumento più impiegato in laboratorio, richiede la massima protezione
e cura per garantire l’attendibilità dei dati sperimentali. I tipi di bilancia disponibili
sul mercato sono veramente numerosi e capaci di soddisfare le più disparate esigenze. La bilancia
analitica più comune è quella del tipo a singolo piatto con portata massima da 80 a
200 g e risoluzione fra 0,01 e 1 mg. Il funzionamento è meccanizzato al massimo su tutte le
operazioni della pesata (caricamento dei pesi, lettura, azzeramento).
Il principale vantaggio rispetto al modello a due piatti è rappresentato dalla maggiore velocità
operativa e da una più elevata accuratezza. Anche nei modelli più moderni la bilancia
resta però uno strumento assai delicato rispetto all’influenza che su di esso possono esercitare
vibrazioni, variazioni di temperatura ed umidità, cattiva manutenzione. È pertanto necessario
ricorrere ad accorgimenti capaci di limitare i danni di queste possibili influenze.
8
PARTE GENERALE
È quindi opportuno che la bilancia si trovi in un locale diverso da quello del laboratorio, nel
quale non vi siano gradienti di temperatura; deve essere collocata su di un tavolo antivibrante,
regolando la perfetta planimetria del piano di pesata mediante l’impiego di una livella
a bolla e quando non è utilizzata deve essere bloccata in posizione di riposo. Periodicamente
le bilance vanno tarate con masse campione nei diversi intervalli di masse certificate
da centri SIT. Durante l’impiego vanno prese tutte le precauzioni affinchè le sostanze utilizzate
non provochino danni all’interno o al piatto della bilancia, che deve essere sempre mantenuta
pulita. È infine opportuno ricorrere, dopo il collaudo, a periodiche visite di controllo
da parte di specialisti che possano garantire sul buon funzionamento della bilancia, che in
ogni caso dipende anche dal sempre attento e meticoloso rispetto delle istruzioni di impiego.
3.2 pHmetro
Gli elementi essenziali di un pHmetro sono una sorgente di tensione, un sistema di amplificazione
ed un quadrante di lettura, analogico o digitale. I primi modelli commerciali risalgono agli
anni ‘40, ma da allora, grazie all’elettronica (circuiti a stato solido e transistor al posto delle valvole)
sono stati realizzati notevoli progressi costruttivi soprattutto per quanto si riferisce alla stabilità,
alla rapidità di riscaldamento, all’accuratezza, alla possibilità di leggere su scale espanse
(nella routine + 0,1 unità pH sembrano però sufficienti), al controllo della temperatura, alla
regolazione della pendenza al valore corretto (nel caso di presenza di potenziali di asimmetria
dell’elettrodo a vetro), alla compattezza dello strumento, ecc. Altri «optionals» proposti riguardano
le scale di lettura per elettrodi iono-selettivi, le uscite per registratori, le interfacce per computer.
Nell’analisi di routine gli elettrodi impiegati sono quelli a vetro (indicatore di pH) e quello a calomelano
(riferimento). Gli elettrodi a vetro commerciali di uso generale non possono essere utilizzati
in soluzioni il cui pH sia superiore a 11 (errore alcalino) nè in soluzioni fortemente acide.
Esistono comunque in commercio elettrodi che non risentono dell’errore alcalino e possono quindi
essere utilizzati fino a pH 14. Quando si esegue una misura si deve far precedere la misura
stessa da un adeguato tempo di ambientamento degli elettrodi nella soluzione in esame; gli elettrodi,
dopo l’impiego, devono essere ben lavati con acqua distillata e conservati in acqua distillata
(quello a vetro, in particolare, non deve mai essere lasciato a secco).
Nelle misure in ambiente non tamponato particolare attenzione va posta nell’agitazione della
soluzione; inoltre nell’effettuare la misura si deve tener conto della maggiore lentezza di risposta
rispetto a misure condotte in ambiente tamponato. Le stesse considerazioni valgono quando
si passa da un tipo di ambiente ad un altro o dopo le operazioni di taratura. Quest’ultima operazione
si esegue immergendo i due elettrodi in una soluzione tampone a pH noto, regolando
il valore letto al valore del pH tampone, fissando il compensatore di temperatura, di cui dispone
il pHmetro, al valore della temperatura della soluzione in esame. Il pH della soluzione di riferimento
deve essere entro ±2 unità rispetto al pH da misurare. Al fine di una maggiore accuratezza
è opportuno che la taratura avvenga con almeno due soluzioni di riferimento (Tab. 3) i
cui valori di pH definiscano un intervallo all’interno del quale cade il valore del pH incognito.
T(°C) Tetraossalato
di potassio (0,05 M)
Soluzione satura a
25°C di tartrato
acido di potassio
Ftalato acido
di potassio
(0,05 M)
Fosfato monopotassico
(0,025 M)
Fosfato disodico
(0,05 M)
Sodio
tetraborato
(0,01 M)
Tabella 3: Valori di pH di soluzioni di riferimento
0 1,67 — 4,01 6,98 9,46
10 1,67 — 4,00 6,92 9,33
15 1,67 — 4,00 6,90 9,27
20 1,68 — 4,00 6,88 9,22
25 1,68 3,56 4,01 6,86 9,18
30 1,69 3,55 4,01 6,85 9,14
PARTE GENERALE
Tale procedura consente anche di individuare elettrodi difettosi: dopo la misura nella prima
soluzione di riferimento si ottengono per la seconda valori molto diversi da quello effettivo
(un elettrodo di vetro rotto fornisce spesso lo stesso valore di pH in entrambe le soluzioni di
riferimento). Una risposta errata dell’elettrodo può anche essere determinata dal fatto che il
livello della soluzione di cloruro di potassio al suo interno è troppo basso o dalla presenza
di sostanze grasse o precipitati che ne ricoprono la superficie; si deve allora ricorrere ad un
rabbocco della soluzione o ad una operazione di pulizia.
Nel caso in cui la misura venga condotta in una soluzione la cui temperatura sia diversa da
quella della soluzione tampone con cui si è effettuata la taratura, bisogna tener conto che il
potenziale del sistema elettrodico varia di 0,20 mV per unità di pH e per grado; una regola
approssimata suggerisce 0,05 unità di pH per ogni 5 gradi in più di temperatura.
In Tab. 4 sono indicate le caratteristiche di un pH-metro.
Intervallo di pH 0-14 pH (±1400 mV)
Minima divisione sulla scala 0,1 pH (10 mV) 0,005 pH (0,5 mV)
Accuratezza 0,05 pH (±5 mV) 0,002 pH (±2% del valore letto)
Riproducibilità 0,02 pH (±2 mV) 0,002 pH (±0,2 mV)
Compensazione per la temperatura 0-100°C (man. o autom.) -
Impedenza di ingresso >1014 >1013
Alimentazione 115/220 V, 50-60 Hz -
Tabella 4: Caratteristiche di un comune pHmetro commerciale
Funzioni e caratteristiche Scala normale Scala espansa
3.3 Elettrodi iono-selettivi
Negli ultimi anni sono comparsi in commercio numerosi elettrodi a membrana in cui il potenziale
di membrana è selettivo verso un determinato ione o più ioni. Detti elettrodi, ormai
disponibili per cationi ed anioni, misurano l’attività dello ione libero mentre le specie
a cui lo ione è legato, soprattutto quelle non ionizzate, non vengono apprezzate. A questo
gruppo di elettrodi appartengono anche gli elettrodi a diffusione gassosa che consentono
la determinazione di gas o di specie trasformabili in gas (direttamente o mediante
reazione chimica).
Gli elettrodi iono-selettivi per la rapidità di impiego, la possibilità di effettuare determinazioni
“in situ”, la versatilità, spesso anche in relazione a problemi di interferenza, hanno assunto
un crescente interesse. Sono attualmente disponibili elettrodi per la determinazione del fluoruro,
dell’ossigeno disciolto, del solfuro, dell’ammoniaca e del cloruro.
Le determinazioni mediante elettrodi iono-selettivi si possono effettuare tramite rette di taratura
ottenute:
-facendo due letture, una a zero ed una ad una concentrazione vicina a quella
del campione (si determina la pendenza);
-facendo tre letture una a zero e le altre due a due valori di concentrazione che
limitano un intervallo all’interno del quale cade la concentrazione da determinare
(si determina la eventuale curvatura dell’attesa retta di taratura e la pendenza);
-facendo più letture, una a zero e le altre in corrispondenza di concentrazioni
variabili secondo decadi 1, 10, 100, 1000, ecc. (si determina la retta o la curva
di taratura), oppure adottando il metodo delle aggiunte.
PARTE GENERALE
Operando in tampone di forza ionica, in modo da poter considerare costante il coefficiente
di attività, si ha:
dove Cx è la concentrazione incognita.
Ponendo:
l’espressione di sopra diventa:
Noti i volumi di partenza (V) e dell’aggiunta (v), misurando E si ricava Q. Partendo dall’espressione
C/C= Q, poichè è anche noto C, si ricava la concentrazione incognita C.
nxnx
Quest’ultimo metodo ha il vantaggio di poter prescindere da possibili interferenze e dall’effetto
matrice; non è comunque possibile dare una regola definitiva valida per tutti gli elettrodi.
Quando un elettrodo selettivo comincia a funzionare male le cause più comuni sono il grado
di secchezza ed il non completo riempimento con la soluzione interna: in tutti e due i casi si
deve intervenire secondo quanto suggerito nelle istruzioni.
3.4 Conduttimetro
Le soluzioni elettrolitiche conducono la corrente elettrica per effetto del movimento degli ioni
sotto l’azione del campo elettrico. Per una forza elettromotrice applicata costante, la corrente
che passa è inversamente proporzionale alla resistenza. L’inverso della resistenza viene
chiamato conduttanza e si misura in siemens, ma, per acque naturali, tenuto conto dei bassi
valori rilevati, si preferisce ricorrere ai microsiemens.
Il passaggio della corrente elettrica attraverso una soluzione di elettrolita provoca delle alterazioni
all’interno della soluzione stessa; così, per prevenire la polarizzazione, è opportuno
lavorare con corrente alternata o con corrente pulsata. Originariamente i conduttimetri utilizzavano
correnti alternate di bassa intensità nel campo delle onde radio; successivamente il
segnale sonoro è stato sostituito da un tubo a raggi catodici, il ben noto “occhio magico”, e
con sistemi di resistenze variabili è stato possibile ampliare l’intervallo di misura consentito
dallo strumento tanto che oggi è possibile determinare conduttanze fra 0,1 e 250.000 µS.
La cella di misura è costituita da due elettrodi metallici platinati rigidamente supportati e paralleli;
alternativamente alcune celle sono caratterizzate da elettrodi circolari di carbone annegato
in una plastica epossidica. In ogni caso gli elettrodi sono protetti da un tubo di vetro
o di plastica forniti di accesso all’interno.
Particolare attenzione va posta all’isolamento dei tubi che portano la tensione agli elettrodi.
Periodicamente è opportuno controllare che la platinatura degli elettrodi sia integra, che sugli
elettrodi non si siano formati depositi di varia natura che ne modifichino la superficie, che
essi non siano distorti o piegati con alterazioni delle condizioni di rigido parallelismo.
Tenuto conto dell’influenza della temperatura sulla conducibilità, le misure debbono essere
eseguite termostatando la soluzione in esame alla temperatura di 25°C (comunemente assunta
come temperatura di riferimento); alternativamente si può ricorrere a metodi di compensazione
matematici o elettronici. Il metodo della termostatazione è comunque da preferi11
PARTE GENERALE
re. Alcuni inconvenienti che si possono produrre durante le misure conduttometriche sono
spesso imputabili alla non perfetta pulizia della cella.
La caratteristica elettrochimica della cella di misura è il “fattore di cella” (fattore di proporzionalità
tra conduttività e conduttanza) espresso come rapporto fra la superficie elettrodica
e la distanza fra i due elettrodi. Tale valore è una costante della cella che bisogna
conoscere per fornire i risultati di resistenza o conducibilità di una qualsiasi soluzione. Il
fattore di cella viene determinato misurando la conducibilità di soluzioni a conducibilità nota;
poichè esso può subire variazioni è opportuno che tale determinazione sia ripetuta periodicamente
(Tab. 5).
Soluzione Normalità Preparazioni Temperatura (°C) Conduttività (µµS/cm)
Tabella 5: Conduttività elettrica di soluzioni di riferimento di cloruro di potassio
A 0,1 7,4365 g KCl/L 0 7138
(a 20°C) 18 11167
25 12856
B 0,01 0,7436 g KCl/L 0 773,6
(a 20°C) 18 1220,5
25 1408,8
C 0,001 diluire 100 mL di 25 146,93
B a 1 L (a 20°C)
Per gli strumenti che leggono in S, il “fattore di cella” si calcola come segue:
dove:
K1 = conduttività (µS/cm) della soluzione di KCl alla temperatura di misura;
K2 = conduttività (µS/cm) della soluzione di KCl alla stessa temperatura dell’acqua distillata
impiegata per preparare la soluzione di riferimento;
K= conduttanza (µS).
x
3.5 Spettrofotometro
Poichè un gran numero delle determinazioni quantitative che si effettuano per l’analisi delle
acque sono basate su metodi colorimetrici, lo spettrofotometro è una delle apparecchiature
più comuni in un laboratorio di analisi delle acque.
È questo uno strumento assai versatile, in grado di rispondere ad esigenze di natura diversa
e per il quale il numero di modelli disponibili è in continua crescente espansione.
Lo spettrofotometro misura, in funzione della lunghezza d’onda, la quantità di luce o di energia
raggiante trasmessa attraverso una soluzione; esso differisce da un fotometro a filtri in
quanto utilizza luce rigorosamente monocromatica la cui lunghezza d’onda varia senza interruzione
di continuità. I fotometri a filtro sono assai meno sensibili e versatili e vengono generalmente
impiegati nel caso di analisi “routinarie” di un solo tipo di analita.
Le parti essenziali di uno spettrofotometro sono: la sorgente di energia raggiante (che varia
a seconda del campo di lunghezza d’onda prescelto), il monocromatore (prisma o reticolo),
le celle che contengono il campione e la soluzione di riferimento (bianco), il rivelatore. Lo
schema dell’apparecchio è riportato in Fig. 1.
Soprattutto il secondo e l’ultimo elemento variano da modello a modello: in particolare il monocromatore
può essere un prisma di vetro o di quarzo oppure un reticolo con differenti caratteristiche;
il rivelatore è un fototubo con varie possibilità di impiego ed in qualche caso con
l’agevolazione di intercambiabilità.
12
PARTE GENERALE
Figura 1: Schema di uno spettrofotometro. a = sorgente; b = prisma riflettente; c = fenditura; d = cella; e = fototubo
(rivelatore).
A seconda del campo di lunghezza d’onda per il quale vengono predisposti, gli spettrofotometri
sono attualmente classificati:
-spettrofotometri per il visibile, che impiegano una sorgente di luce costituita in
genere da una lampada a filamento di tungsteno;
-spettrofotometri per l’ultravioletto che impiegano una sorgente di luce costituita
da una lampada ad idrogeno o a deuterio, che emette radiazioni nella zona
200-400 nm ed un monocromatore generalmente a prisma di quarzo. Nel caso
di un monocromatore a reticolo questo, per poter essere impiegato nell’ultravioletto,
deve essere opportunamente preparato;
-spettrofotometri per l’infrarosso che richiedono alcune modifiche legate sia al materiale
ottico (che non può essere nè quarzo nè vetro i quali assorbono in questa
regione dello spettro), che al sistema di rivelazione, in quanto le fotocelle non rispondono.
In questi ultimi per eliminare la necessità che l’energia emessa dalla
sorgente debba passare attraverso quarzo, vetro o lenti di altro materiale si ricorre
a sistemi di specchi parabolici capaci di concentrare l’energia IR diffusa.
Si rendono inoltre necessari accurati sistemi protettivi dell’ambiente in quanto il
vapore acqueo e quindi l’umidità deteriorano il sistema ottico; si debbono inoltre
evitare bande spurie di assorbimento IR. La sorgente può essere costituita o
da un filamento incandescente di Nerst (miscela di ossidi di terre rare) o da un
Globar (bacchetta di carburo di silicio sinterizzato). Ciascuna delle due soluzioni
ha caratteristiche che ne raccomandano l’adozione, ma il Globar è più
impiegato per la maggiore stabilità e robustezza, inoltre è più efficiente a lunghezze
d’onda superiori a 15 mm. Il sistema di rivelazione è costituito da una
termocoppia, un transistor o una cella a fotoconducibilità.
Per quanto concerne le celle di misura, queste debbono essere assolutamente pulite e se ne
deve verificare l’assoluta equivalenza del valore della densità ottica a varie lunghezze d’onda.
Le celle possono essere da 1,0 - 1,1 - 1,6 - 2,0 - 3,0 - 4,0 - 5,0 - 10 - 20 cm e debbono
essere trasparenti nella regione delle lunghezze d’onda in cui si effettuano le misure.
Nel visibile possono essere utilizzate celle di vetro, quarzo o silice fusa; questi due ultimi materiali
debbono essere impiegati per misure nella regione dell’ultravioletto. Nell’infrarosso il
vetro e la silice fusa trasmettono poco; si impiegano quindi celle con finestre di cloruro di sodio
(che vengono utilizzate nell’intera regione 2,5-15,4 mm); per lunghezze d’onda più alte
(10-20 mm) si può usare bromuro di potassio.
È importante ricordare che il sale di rocca (NaCl) si scioglie in acqua e che quindi con tali tipi
di celle si possono usare solo solventi non acquosi, i quali devono essere privi di tracce di
umidità.
In tutti i casi il solvente utilizzato per la preparazione del campione non deve assorbire ap
PARTE GENERALE
prezzabilmente nella regione in cui si effettuano le misure. Per misure nel visibile non vi sono
problemi poiché oltre all’acqua vi sono numerosi solventi incolori. L’acqua può essere utilizzata
come solvente anche nell’ultravioletto; tra i solventi organici ve ne sono parecchi che possono
essere impiegati. Nel caso di misure nell’infrarosso è più difficile trovare un solvente che
sia completamente trasparente; tetracloruro di carbonio e solfuro di carbonio coprono la regione
2,5-15 mm. L’affidabilità dei risultati è strettamente legata ad un corretto impiego del-
l’apparecchio. Particolare attenzione va posta all’allineamento della lunghezza d’onda in
mancanza del quale, se il valore della lunghezza d’onda di analisi è strettamente definito, si
registrano considerevoli perdite di sensibilità. Per misure nel visibile tale allineamento può essere
verificato con il doppio picco di una soluzione diluita di pergamanato che deve cadere
a 526 e 546 nm o, nel caso di mezzo disperdente di peggiore qualità (reticolo invece del prisma),
come una banda sola slargata compresa tra 535 e 550 nm.
Per misure nell’UV e nell’IR sono disponibili gli spettri di numerose sostanze organiche con le
quali è pertanto possibile, impiegandole come riferimento, verificare l’allineamento suddetto.
In particolare nell’IR controlli accurati possono eseguirsi operando con stirene o altre plastiche
trasparenti. Sebbene molti apparecchi siano stabilizzati è opportuno adottare dispositivi
di trasformazione e stabilizzazione della tensione di rete soprattutto nel caso di apparecchi
all’interno di grosse strutture industriali dove si abbiano forti assorbimenti di corrente elettrica.
L’instabilità dell’alimentazione si trasforma in gravi incertezze di azzeramento.
3.6 Assorbimento atomico
3.6.1 Assorbimento atomico in fiamma
Lo stadio più difficile nei processi di assorbimento atomico è certamente rappresentato dalla
conversione del metallo dallo stato ionico o molecolare allo stato atomico. Ciò viene realizzato
nel bruciatore. Esistono sostanzialmente due differenti tipi di bruciatore: il bruciatore a
consumo totale ed il bruciatore a flusso laminare o con camera di premiscelazione. Nel primo
il gas combustibile ed il gas ossidante (di supporto) vengono mescolati e bruciati in corrispondenza
della punta del bruciatore. Il campione è aspirato nella fiamma per “effetto Venturi”
dal gas di supporto. Nel secondo tipo il gas combustibile e quello di supporto vengono
mescolati in una camera prima di entrare nella testa del bruciatore. Anche in questo caso il
campione viene aspirato per “effetto Venturi” attraverso un capillare usando per l’aspirazione
il gas di supporto. Generalmente tutti i tipi di bruciatore consentono degli aggiustamenti
rotazionali e verticali per scegliere l’area di assorbimento più sensibile della fiamma in relazione
all’elemento in esame. L’aggiustamento verticale è probabilmente quello che conta di
più nel passaggio da un elemento ad un altro.
Il sistema di atomizzazione con fiamma (aria-acetilene, aria-protossido d’azoto con i quali si
raggiungono temperature, rispettivamente, di 2200°C e 2600°C, sufficienti per la formazione
di un vapore atomico) può essere vantaggiosamente sostituito da quello che impiega un fornetto
di grafite (3.6.2). Lo schema di un apparecchio per assorbimento atomico in fiamma è riportato
in Fig. 2.
3.6.2 Assorbimento atomico mediante atomizzazione elettrotermica
Per eseguire misure di assorbimento atomico allo scopo di determinare la concentrazione di
un elemento è necessario disporre di: una sorgente che emetta la radiazione di risonanza del-
l’elemento, un dispositivo per polverizzare e vaporizzare la soluzione, uno spettrofotometro
per isolare la radiazione di risonanza assorbita e per misurare l’intensità prima e dopo il passaggio
attraverso il vapore atomico.
La sorgente di emissione più comunemente impiegata è la lampada a catodo cavo, un’ampolla
di vetro, internamente speculare, all’interno della quale si provoca una scarica elettrica
in atmosfera di gas rarefatto (2-3 mm di Hg) mediante due elettrodi (un anodo costituito generalmente
da una bacchetta di tungsteno ed un catodo costituito da un cilindretto cavo del
metallo che interessa determinare) fra i quali si stabilisce una differenza di potenziale di qualche
centinaio di volts di corrente continua livellata. Lo spettro emesso dipende dal potenziale
14
PARTE GENERALE
Figura 2: Schema di spettrofotometro per assorbimento atomico. a = sorgente; b = raggio di riferimento; c = raggio
campione; d = specchio; e = fotomoltiplicatore; f = rivelatore; g = uscita per il registratore.
di eccitazione del gas raro (argon, elio) presente nell’ampolla. Per ogni elemento da determinare
è quindi necessaria una lampada diversa.
Alcuni strumenti realizzano il cambio attraverso torrette, comandate elettronicamente, che
ruotando permettono l’inserimento nel circuito ottico di una delle lampade (fino a sei) di cui
dispongono. Altri strumenti portano una lampada alla volta e richiedono quindi un rimpiazzo
manuale tutte le volte che è richiesta l’analisi di più elementi. In quest’ultimo caso il sistema
elettronico è ovviamente da preferirsi; altrimenti risulta poco conveniente. Per l’uso ottimale
dello strumento sono necessarie alcune precisazioni.
Dopo che la lampada, adatta per l’analisi, è stata inserita nel circuito ottico la corrente del
catodo cavo deve essere regolata al valore raccomandato dal costruttore dell’apparecchiatura
ed il sistema deve essere lasciato stabilizzare elettronicamente (riscaldamento) prima del-
l’uso: un tempo di circa 15 minuti è sufficiente a tale scopo. Durante tale periodo il monocromatore
può essere posizionato al valore di lunghezza d’onda corretta e può essere fissata
la lunghezza della fenditura. Per gli strumenti a torretta multilampada la corrente di riscaldamento
alimenta tutte le lampade; in caso di sostituzione della lampada di lavoro mediante
rotazione della torretta, il tempo di riscaldamento nella nuova posizione può essere notevolmente
ridotto. In uno strumento a lampada singola, l’instabilità rilevata durante il riscaldamento
può essere ridotta mediante l’uso di un sistema ottico a doppio raggio.
Oltre alle lampade per singoli elementi sono disponibili in commercio lampade multielementi
(fino a 6 elementi per lampada) che, montate su torretta comandata elettronicamente, estendono
ad oltre 30 il numero degli elementi determinabili. Le lampade multielementi sono più
economiche delle altre ma il risparmio può risultare fittizio in quanto durante l’uso tutti gli elementi
presenti sul catodo si deteriorano a causa della volatilità relativa, a prescindere dall’elemento
in analisi. Infatti i metalli più volatili volatilizzano più rapidamente degli altri e si depositano
sul catodo aumentando l’area superficiale di quel metallo a danno di quello degli
altri. Con l’uso prolungato si produce così una deriva di segnale, crescente per almeno un
metallo, decrescente per gli altri.
L’intensità delle singole luci in questo caso è maggiore che quella della luce dello stesso elemento
nel caso di emissione da lampada multielementi; ciò è dovuto al fatto che per questa
l’energia di scarico deve essere divisa fra tutti gli elementi.
Il fattore di perdita di intensità non è comunque elevato: esso varia fra 1/2 e 1/6 è può essere
del tutto compensato nel caso di lampade multielemento per le quali l’allineamento consente
più alti valori della corrente di lavoro che, peraltro, deve essere sempre mantenuta al di
sotto dei valori limite indicati dai produttori, se si vuole preservare la vita della lampada. La
messa a punto di una lampada ad alta intensità ha permesso di fare coincidere esigenze di
durata con esigenze di sensibilità. In condizioni normali si può senz’altro affermare che anche
una lampada a catodo cavo può lavorare per alcuni anni purchè vengano rispettati i limiti
di corrente e tensione operativi. L’indizio di una lampada deteriorata è rappresentato da
un aumento del rumore di fondo e/o da una perdita di sensibilità.
PARTE GENERALE
I principali vantaggi di questo secondo sistema di atomizzazione senza fiamma, rispetto al
precedente, sono:
-il limite di rivelabilità per la maggior parte degli elementi scende sino all’ordine
di grandezza dei µg/L o delle frazioni di µg/L, e cioè circa 1000 volte inferiore
rispetto alla fiamma;
-possibilità di analizzare campioni disponibili solo in piccoli volumi (con il fornetto
sono sufficienti pochi microlitri di campione).
Accanto a tali vantaggi la tecnica con fornetto presenta anche alcuni svantaggi:
-un più lungo tempo di analisi rispetto alla fiamma (2-3 minuti per ogni singola
determinazione contro 5-10 secondi per la fiamma);
- un maggiore errore sulle determinazioni: 8-10% contro 1’1-2% della fiamma.
- maggiori problemi di interferenze rispetto alla fiamma.
Le due tecniche risultano assolutamente complementari nell’analisi di metalli in matrici ambientali;
laddove le concentrazioni attese per l’elemento in esame rendono possibile l’applicazione
di entrambe le tecniche, è consigliabile l’utilizzo dell’assorbimento atomico in fiamma.
L’assorbimento atomico mediante atomizzazione elettrotermica, per la sua maggiore sensibilità,
può essere utilizzato nell’analisi diretta di metalli in tracce senza il ricorso ad onerose
procedure di preconcentrazione del campione, come richiesto dall’analisi in fiamma.
Per quanto concerne le strumentazioni disponibili, esistono strumenti a doppio raggio ed a
singolo raggio. Con strumenti a singolo raggio, il raggio luminoso della sorgente passa direttamente
al rilevatore attraverso la fiamma. Negli strumenti a doppio raggio invece l’emissione
della sorgente viene, mediante uno specchio, divisa in due parti di uguale intensità: di
queste il raggio di riferimento va direttamente al rivelatore; l’altro, il raggio campione, passa
attraverso la fiamma prima di essere confrontato con l’altro nel rilevatore, che nel caso di ineguaglianza,
produce un segnale in corrente alternata, proporzionale allo sbilanciamento fra
i due raggi, che viene amplificato e misurato.
Il vantaggio degli apparecchi a doppio raggio sta quindi nel fatto che ogni variazione della
sorgente (e quindi dell’alimentazione) risulta ai fini della misura di nessuna importanza; l’unico
inconveniente deriva dalla leggera perdita di energia raggiante per gli specchi accessori
contenuti e dalla complessità più elevata del sistema ottico.
Gli strumenti a singolo raggio per contro hanno il vantaggio di consentire l’impiego di lampade
a bassa intensità, di più piccole slitte porta campione e di essere caratterizzate da valori
più piccoli del guadagno; di conseguenza se correttamente disegnato uno strumento di
questo tipo può operare con un minore rumore di fondo, con miglior rapporto di intensità se-
gnale/rumore e quindi con maggiore precisione e sensibilità. Poichè i sistemi ottici semplici
conservano l’energia raggiante soprattutto alle lunghezze d’onda più basse, è in tale intervallo
che questo tipo di strumento è particolarmente vantaggioso (cioè per elementi con linea
di risonanza fino a 350-300 nm).
3.7 Analizzatore di carbonio
Un altro strumento di impiego comune e routinario, sempre più presente nei laboratori di analisi
delle acque, è l’analizzatore del carbonio organico in cui il carbonio viene determinato come
CO2 in un rivelatore a termoconducibilità dopo combustione a 900°C del campione in corrente
di ossigeno; i modelli più nuovi consentono una programmazione delle temperature di
combustione in modo da distinguere fra carbonio totale e carbonio inorganico (il carbonio organico
si ricava per differenza). In alcuni analizzatori il biossido di carbonio formatosi viene
ridotto a ossido di carbonio determinabile mediante spettrofotometria nell’infrarosso; in altri si
misura l’ossigeno consumato nella combustione: in questo caso però una certa incertezza deriva
dalla non definita stechiometria di trasformazione di N e S nella combustione; in altri ancora
il campione di acqua viene iniettato su un filo di palladio riscaldato, contenuto nella camera
di combustione; in questo caso l’ossigeno derivante dalla decomposizione catalitica del
16
PARTE GENERALE
l’acqua si combina con il carbonio producendo biossido di carbonio, che viene determinato.
Nonostante le diverse soluzioni tecnologiche proposte il primo modello è ancora il più impiegato;
per esso devono essere tuttavia adottate alcune precauzioni:
-tutto il carbonio presente nel campione come carbonato o bicarbonato deve essere
rimosso prima dell’analisi o in alternativa si deve di esso tener conto nei
calcoli;
-il materiale particellato nel campione non deve essere di dimensioni maggiori
a quelle del foro dell’iniettore: se c’è questo rischio è bene ricorrere ad una
preoperazione di omogeneizzazione per ridurre la dimensione delle particelle;
-lo strumento deve essere precondizionato con ripetute iniezioni di acqua distillata
per ottenere condizioni operative stabili;
-la temperature del forno ed il flusso di ossigeno devono essere mantenuti ai corretti
valori durante tutta l’esperienza;
-lo strumento deve subire periodiche operazioni di manutenzione soprattutto per
quanto riguarda la sostituzione del riempimento del tubo di combustione (tale
operazione risulta necessaria in presenza di perdita di sensibilità e di eccessiva
larghezza dei picchi), la pulizia e l’asciugatura del microfiltro (il segnale è
l’instabilità della linea di zero) e della cella per l’infrarosso (i segnali sono la
perdita di sensibilità e un eccessivo rumore di fondo) ed infine il ricarico con
azoto della cella di riferimento.
4. Reattivi: limiti di purezza e classificazione
La purezza dei reagenti chimici, richiesta nella chimica analitica, varia con il tipo di analisi.
I parametri da misurare, la sensibilità e la specificità del sistema rivelatore, sono fattori importanti
nel determinare il grado di purezza dei reattivi impiegati. Le indicazioni fornite sulle confezioni
dei vari prodotti devono essere accuratamente confrontate con le esigenze del metodo.
In commercio i prodotti chimici sono disponibili a diversi gradi di purezza. I prodotti tecnici
o commerciali sono i meno puri, quelli di notevole purezza o esenti da determinate sostanze
e che vengono impiegati per determinati tipi di analisi (reattivi per l’analisi cromatografica sia
in fase liquida che gassosa, per l’analisi spettrografica, per l’analisi in assorbimento atomico,
per la determinazione di pesticidi, radionuclidi, ecc.) sono messi in commercio dalle case
produttrici con sigle particolari (RP reattivi puri, RS reattivi speciali, RE reattivi di grado industriale,
ecc.) o con un certificato di garanzia. Alcune case produttrici pubblicano dei manuali
con la descrizione di saggi di purezza da eseguire per i diversi prodotti. Il grado FU (o
RPH) indica in Italia i prodotti chimici che soddisfano le esigenze della Farmacopea Ufficiale,
mentre in America essi vengono indicati come USP (United States Pharmacopoeia).
Per molte analisi, quando non viene diversamente indicato, il grado analitico dei reattivi (le
cui caratteristiche corrispondono a quelle stabilite dalle convenzioni internazionali, ed in particolare
fissate dalla Commissione Analitica della American Chemical Society) è sufficiente. In
ogni caso non devono mai impiegarsi reattivi di grado di purezza inferiore a quella richiesta.
Qualora solventi o reattivi contengano sostanze che interferiscono con una particolare determinazione
e non si riesca a reperire un prodotto idoneo, si può sottoporre il prodotto disponibile
ed inadeguato a pretrattamenti che lo privino degli interferenti indesiderati. Le procedure
per eliminare o minimizzare la presenza di dette impurezze, che producono interferenze
specifiche o fondi molto elevati, variano con il tipo di reattivo e con il metodo di determinazione
adottato. Le più comuni sono:
-il lavaggio dei reattivi inorganici con i solventi organici con i quali i reagenti
stessi vengono in contatto nell’analisi;
-il lavaggio degli adsorbenti cromatografici con i solventi opportuni e la loro
riattivazione termica (. a 60°C);
- la pre-estrazione dell’acqua distillata e delle soluzioni acquose dei reattivi con
i solventi organici impiegati in una particolare analisi;
PARTE GENERALE
-la ridistillazione dei solventi impiegati;
-la ricristallizazione dei reattivi e dei coloranti impiegati nelle determinazioni
colorimetriche e cromatografiche su strato sottile.
Anche in questo caso vengono fornite indicazioni specifiche per i vari tipi di analisi.
Nel caso dell’analisi inorganica generalmente da reattivi e solventi non derivano problemi di
interferenza, tuttavia in alcuni casi specifici sono richieste particolari proprietà: così, ad esempio,
il persolfato di potassio, impiegato per la determinazione di fosforo ed azoto, deve essere
spesso purificato da ammoniaca in esso contenuta, operazione che viene realizzata mediante
passaggio di aria attraverso una soluzione riscaldata del reattivo; il reattivo viene recuperato
per successiva ricristallizzazione.
Per l’analisi radiologica, è necessario disporre di reattivi di particolare purezza; in qualche
caso (per esempio il solfato di bario impiegato per la coprecipitazione del radio) è necessario
ricorrere a ripetute operazioni di ricristallizzazione per rimuovere fondi persistenti radioattivi
(il radio nell’esempio suddetto). In alcuni casi i solventi che non rispondono alle esigenze
di purezza possono essere distillati per accrescerne il grado di purezza. I gas generalmente
vengono invecchiati, per quasi 30 giorni, per ridurne il fondo radioattivo; se ciò non
si ottiene è necessario sostituirli con prodotti radiologicamente più puri.
Nel caso dell’analisi organica molti reattivi e solventi AR non soddisfano le esigenze di questo tipo
di determinazione. Impurezze, considerate insignificanti o in traccia per molti scopi analitici,
sono presenti, talvolta, in concentrazioni molto più elevate di quelle delle sostanze organiche da
determinare, cosicchè, anche in relazione alle operazioni di preconcentrazione che spesso vengono
eseguite, finiscono per costituire interferenze anche pesanti per i metodi di analisi organica.
È necessario, pertanto, ricorrere ad operazioni di purificazione mediante lavaggio dei reattivi
organici con tutti i solventi con i quali verranno a contatto durante l’analisi, lavaggio degli
adsorbenti cromatografici con i solventi impiegati per una specifica colonna o per uno specifico
procedimento cromatografico su strato sottile, pre-estrazione dell’acqua distillata con i
solventi impiegati nell’analisi, pre-estrazione delle soluzioni acquose dei reattivi con i solventi
impiegati nell’analisi, ridistillazione dei solventi in sistemi “tutti in vetro” impiegando un’efficiente
colonna di frazionamento, ricristallizzazione dei reattivi e dei coloranti impiegati nel-
l’analisi colorimetrica o cromatografica su strato sottile.
La qualità dei gas, richiesta per l’analisi organica, è sostanzialmente quella necessaria per la
gascromatografia, quindi dipenderà dal tipo di rivelatore impiegato. Generalmente i gas
compressi sono di grado secco prepurificato. A seconda della natura esistono differenti denominazioni
di gas compressi di soddisfacente prestazione. Sui gas di combustione in particolare,
ma sarebbe opportuno estendere l’accorgimento a tutti gli altri, è bene prima del loro
impiego procedere ad operazioni di filtrazione e di essiccamento su filtri e colonne appositamente
predisposti; gas sporchi di qualità inferiore al richiesto, sono particolarmente dannosi
ai fini della qualità analitica dei risultati in analisi organica. Infatti essi possono portare
ad una diminuzione della sensibilità del rivelatore e produrre un’instabile linea di zero o un
elevato rumore di fondo. Tali inconvenienti si possono verificare nel caso in cui si operi con
bombole troppo vuote: gli ultimi residui di gas contengono infatti spesso numerose impurezze.
Per ridurre questo pericolo, tutte le bombole devono essere svuotate soltanto fino ad un
certo limite non lasciando mai che la pressione cada sotto 100-200 psi (7-14 atm); è del tutto
inutile pensare di operare fino a pressioni più basse evitando il rischio di contaminazione
del rivelatore mediante l’ausilio di essiccatori a filtro.
Le bottiglie di vetro al borosilicato, con i tappi di vetro smerigliato, sono generalmente indicate
per la conservazione della maggior parte delle soluzioni e dei solventi. Contenitori in
plastica (polietilene, ad esempio) sono richiesti nel caso di soluzioni alcaline, a meno che non
si stiano eseguendo determinazioni di composti di natura organica, nel qual caso i contenitori
in plastica devono essere accuratamente evitati, come anche devono essere evitati quando
non mantengano un volume costante, assorbano componenti di interesse e producano interferenze.
È indispensabile che tutti i contenitori prima dell’uso siano accuratamente puliti e
conservati. I reattivi ed i solventi devono essere sempre conservati secondo le indicazioni del
produttore; nel caso di sensibilità alla luce la conservazione deve avvenire in bottiglie scure e
in luogo buio.
PARTE GENERALE
Di particolare importanza è la conservazione in bottiglie scure di materiale impiegato in analisi
radiologiche, dal momento che la fotoluminescenza produrrà un valore alto del fondo nel
caso si impieghino contatori rivelatori fotosensibili.
Alcuni reattivi richiedono di essere conservati in frigorifero. I materiali adsorbenti per gascromatografia
e cromatografia su strato sottile vengono conservati nei contenitori nei quali vengono forniti
all’atto dell’acquisto o secondo le specifiche indicazioni fornite nello specifico metodo di analisi.
Il carbone attivato, impiegato per preparare campioni per l’analisi organica, deve essere
conservato e trattato in area protetta dall’atmosfera e da altre possibili fonti di contaminazione.
I materiali utilizzati per la taratura degli strumenti sono materiali di riferimento certificati costituiti
da sostanze pure o miscele a composizione nota, a partire dalle quali vengono preparate
soluzioni di riferimento o di taratura (chiamate anche soluzioni standard) a contenuto
noto da utilizzare per le operazioni di taratura.
Le soluzioni di riferimento devono essere accuratamente registrate per tipo di composti, concentrazioni,
solvente, data, nome del ricercatore che le ha preparate.
I materiali di riferimento certificati devono essere:
-ottenuti da sorgenti affidabili;
-accompagnati da un certificato in cui sono riportati tra l’altro la composizione
del materiale, la riferibilità al Sistema internazionale delle unità di misura, il valore
certificato della proprietà d’interesse, l’espressione della incertezza dei valori
certificati.
Un ampio spettro di materiali di riferimento certificati sono disponibili da parte dell’Institute
for Reference Material and Measurement (Geel-Belgio) e di numerose case produttrici.
L’analista deve portare particolare attenzione alla stabilità dei materiali di riferimento, che non
devono essere mai impiegati oltre il tempo di scadenza suggerito dal produttore o dal metodo.
Alcuni materiali di riferimento possono subire variazioni di concentrazione a causa dell’assorbimento
di vapori d’acqua o di gas dall’aria. La concentrazione della soluzione di riferimento
può variare per evaporazione del solvente, soprattutto se trattasi di solvente organico volatile,
pertanto è necessario mantenere sempre chiuse le bottiglie aprendole soltanto per lo stretto
tempo d’uso. In altri casi si possono produrre variazioni di composizione per l’alterazione che
subiscono alcuni composti (per esempio la soluzione di salda d’amido, impiegata come indicatore
di iodimetria, deve essere preparata al momento dell’uso oppure preservata mediante
conservazione in frigorifero o per aggiunte di cloruro di zinco o altri opportuni conservanti).
La prima fase che l’analista deve intraprendere nel condurre un’analisi è quella della determinazione
del fondo o del bianco di ciascuno dei reattivi e solventi impiegati. Le condizioni
di determinazione del bianco devono essere esattamente le stesse di quelle adottate nell’analisi,
compreso soprattutto il sistema di rivelazione. Il metodo deve in ogni caso essere testato
con materiale di riferimento certificato, se disponibile in commercio.
Dopo avere determinato i “bianchi” di ciascun reattivo, l’analista deve provvedere alla determinazione
del bianco dell’intero metodo al fine di verificare se esistono interferenze sinergiche
con l’analisi. Il bianco del metodo è determinato seguendo il procedimento in ogni suo
stadio, soprattutto impiegando le quantità di ogni reattivo e solvente descritte nel metodo. Se
il bianco completo interferisce con la determinazione è necessario introdurre una fase volta
ad eliminare o ridurre l’interferenza ad un livello accettabile e, nel caso in cui ciò non possa
essere realizzato, bisognerà tener conto del valore del bianco al momento del calcolo della
concentrazione dello specifico costituente analizzato all’interno del campione.
5. Vetreria
La determinazione degli inquinanti in traccia, presenti nelle acque, richiede metodi capaci
della massima sensibilità. Questo è particolarmente vero nel caso di analisi di metalli, di sostanze
organiche come i pesticidi, di ammoniaca e del fosforo. Oltre a metodi sensibili esistono
numerosi altri accorgimenti da adottare, primo fra tutti quello della pulizia della vetreria
di laboratorio.
PARTE GENERALE
Ovviamente i sistemi analitici molto sensibili sono i più influenzati da eventuali errori che derivano
da una scelta o da un utilizzo improprio dell’apparecchiatura sperimentale, come anche
da effetti di contaminazione dovuti a non adeguate operazioni di pulizia. Lo scopo di
questo capitolo è quello di discutere i differenti tipi di vetreria disponibile, l’uso dei contenitori
a volume, le esigenze ed i metodi di pulizia.
5.1 Tipi di vetreria
I recipienti che possono essere usati in laboratorio, debbono soddisfare tre esigenze fondamentali:
la conservazione dei reattivi, la misura esatta di volumi di soluzioni e l’attuazione delle
reazioni. Il vetro è il materiale di più comune utilizzazione, tuttavia, per motivi particolari,
possono essere impiegati materiali come porcellana, nichel, ferro, alluminio, platino, acciaio
inossidabile e plastica.
Vi sono molti tipi di vetro da quelli più semplici a quelli che possiedono proprietà specifiche
come la resistenza allo “shock” termico, il basso contenuto di boro, ecc.. Esistono anche recipienti
di vetro “morbido” i quali possono essere utilizzati soltanto per esigenze specifiche e, in
particolare, sono da evitare per la conservazione dei reattivi. Il materiale da utilizzare in un
laboratorio analitico moderno è il vetro borosilicato altamente resistente, come quelli che vanno
sotto la denominazione di “Pyrex” e “Kimax”. Quando non è specificato diversamente,
questi tipi di vetro risultano soddisfacenti per tutte le determinazioni incluse in questi volumi.
Tra i vari materiali impiegati comunemente per differenti scopi possono essere ricordati i seguenti:
-Kimax o Pyrex: questo tipo di vetro al borosilicato è relativamente inerte e utilizzabile
per la quasi generalità degli scopi.
-Vycor: è un vetro di silice, adatto per sopportare temperature fino a 800°C. Può
anche essere immerso in ghiaccio senza scompensi.
-Corning: è 50 volte più resistente agli alcali della vetreria convenzionale ed è
particolarmente esente da boro.
-Ray-Sorb o Low-Actinic: è usato per la conservazione o manipolazione di sostanze
sensibili alla luce.
-Corex: è più resistente dei borosilicati convenzionali e più adatto a resistere allo
sfregamento.
L’impiego di recipienti di plastica, di contenitori e altre apparecchiature fatte di teflon, polietilene,
polipropilene e polistirene è cresciuto notevolmente negli ultimi anni. Alcuni di questi
materiali, come il teflon, sono piuttosto costosi; d’altra parte i rubinetti di teflon hanno rimpiazzato
quelli di vetro nelle burette e negli imbuti separatori dal momento che possono essere
evitate le operazioni di lubrificazione che sarebbero necessarie nei rubinetti di vetro.
Alcuni aspetti da considerare nella scelta del materiale sono i seguenti:
-come è stato già detto, il vetro al borosilicato è adatto per la generalità delle
determinazioni analitiche ad eccezione dei casi appositamente indicati. I tipi
speciali di vetro, riportati sopra, rientrano tra i casi non routinari;
-a meno che non sia indicato diversamente, bottiglie di borosilicato o polietilene
debbono essere usate per la conservazione dei reattivi e delle soluzioni di
riferimento;
-alcuni metalli possono depositarsi sulle pareti di vetro dei contenitori durante
un lungo periodo di conservazione in soluzione diluita. Tali soluzioni debbono
essere preparate al momento dell’uso;
-bottiglie di polietilene e/o teflon sono risultate soddisfacenti per la raccolta e il
trasporto di campioni d’acqua. Acidi minerali forti e solventi organici possono
attaccare il polietilene e debbono essere evitati;
-la vetreria in borosilicato non è completamente inerte, per tale motivo gli alcali,
le soluzioni di riferimento di silice, di boro e dei metalli alcalini devono essere
conservate in recipienti di plastica.
20
PARTE GENERALE
5.2 Vetreria volumetrica
La vetreria tarata accuratamente e adibita a misure di volume è denominata “vetreria volumetrica”
e include matracci, pipette e burette tarati. Altri tipi di vetreria come i cilindri e le pipette
graduate possono essere utilizzate quando la misura esatta non è necessaria.
La precisione e l’accuratezza della determinazione volumetrica dipendono dalla concentrazione
delle sostanze da determinare. In ogni caso vi sono certe sorgenti di errore da considerare.
In primo luogo le letture debbono essere effettuate correttamente operando nel modo seguente:
-il segno di taratura deve essere tangente al fondo del menisco del liquido;
-cambiamenti di temperatura possono provocare un cambiamento dell’effettiva
capacità del contenitore e quindi del volume di soluzione ivi contenuto, quindi
le soluzioni debbono essere misurate alla temperatura indicata sulla vetreria.
Le apparecchiature volumetriche possono essere di due tipi:
-apparecchiature tarate TC (“to contain”) come ad esempio matracci tarati;
-apparecchiature tarate TD (“to deliver”) come le burette e le pipette tarate.
I matracci tarati sono generalmente disponibili in dimensioni da 1-2000 mL di capacità.
Le pipette tarate sono destinate al rilascio di un volume prefissato; in genere sono utilizzate
quelle da 1 a 100 mL. Nell’operazione di rilascio della soluzione le pipette devono essere tenute
in posizione verticale, la punta deve essere posta in contatto con la parete del contenitore
per un secondo o due dopo che il flusso è stato interrotto. Il liquido rimanente non deve
essere assolutamente rimosso.
Le burette sono usate per il rilascio di un volume definito; le più comuni sono da 25-50 mL di
capacità, graduate in divisioni di un millilitro. Esistono anche microburette da 5-10 mL graduate
in divisione fino a 0,01 mL e burette automatiche da 10-100 mL con serbatoi della capacità
da 100 a 400 mL.
Le regole da seguire nell’impiego delle burette sono le seguenti:
-non utilizzare la buretta secca o appena pulita per l’uso, ma sciacquare due o
tre volte la medesima con piccoli volumi della soluzione con cui deve essere
riempita;
-non lasciare nella buretta soluzioni alcaline che possono attaccare il vetro;
-la velocità di uscita del flusso in una buretta da 50 mL non deve superare i 0,7
mL/sec, altrimenti si corre il rischio, lasciando indietro troppo liquido attaccato
alle pareti della buretta, di introdurre vistosi errori.
5.3 Lavaggio della vetreria
I sistemi di lavaggio hanno il duplice scopo di eliminare le sostanze estranee, che devono essere
rimosse, e di consentire l’effettuazione delle determinazioni in condizioni ottimali.
Per l’eliminazione delle sostanze solubili sono sufficienti lavaggi con acqua calda o fredda ed
il risciacquo finale con piccole porzioni di acqua distillata.
Altre sostanze, più difficili da rimuovere, possono essere eliminate usando detergenti alcalini
esenti da fosfati e solventi organici. In tutti i casi dopo l’uso è opportuno, in via preliminare,
sciacquare abbondantemente ogni recipiente con acqua di rubinetto, dal momento che il materiale
secco sulle pareti della vetreria è più difficile da asportare.
La vetreria tarata (in particolar modo le burette) deve essere lavata con una soluzione preparata
ponendo in 1 litro di acqua distillata 30 g di idrossido di sodio e 8 g di fosfato trisodico
(1-2 g di laurilsolfato di sodio, o di altro tensioattivo, in alcuni casi incrementa il potere
lavante).
La miscela cromica è un agente lavante molto energico; d’altra parte, proprio a causa della sua
21
PARTE GENERALE
aggressività, si consiglia di operare in laboratorio con estrema cautela. Tale miscela può essere
preparata aggiungendo lentamente e agitando, 1 L di acido solforico concentrato a 35 mL
di soluzione satura di dicromato di sodio. Questa miscela deve essere tenuta almeno 15 minuti
nel recipiente che deve essere lavato. Quest’ultimo, dopo che la miscela cromica è stata recuperata,
va sciacquato ripetutamente con acqua di rubinetto e alla fine con acqua distillata.
L’acido nitrico fumante agisce più rapidamente ma è d’impiego meno pratico. La miscela acido
solforico concentrato-acido nitrico fumante è ancora più efficiente, ma anche più pericolosa.
Persistenti strati di grasso possono essere eliminati trattando con acetone o con una soluzione
calda di idrossido di sodio (1 g/50 mL H2O); dopo aver sciacquato con acqua, si tratta
con acido cloridrico diluito, quindi nuovamente con acqua distillata. Allo stesso scopo può essere
utilizzata una soluzione alcoolica di idrossido di potassio.
Le celle di assorbimento usate in spettrofotometria devono essere pulite scrupolosamente. Possono
essere lavate con detergenti o con solventi organici per rimuovere residui organici. Possono
essere anche effettuati lavaggi con soluzioni diluite di acido nitrico; invece è sconsigliato
l’impiego del dicromato di potassio a causa del suo possibile adsorbimento sul vetro. Le
celle debbono essere quindi sciacquate con acqua distillata e poi con alcool.
Per certe determinazioni, ad esempio per metalli in tracce, la vetreria dovrebbe essere sciacquata
con una soluzione acido nitrico-acqua 1+1, risciacquata più volte con acqua di rubinetto
e quindi con acqua distillata.
La vetreria da usare per la determinazione di fosfati non deve essere lavata con detergenti
contenenti queste sostanze. Detta vetreria deve essere sciacquata con acqua di rubinetto e poi
con acqua distillata. Per la determinazione dell’ammoniaca e dell’azoto secondo Kjeldahl, la
vetreria deve essere sciacquata con acqua esente d’ammoniaca.
La vetreria da utilizzare nella determinazione di microinquinanti organici in tracce (come pesticidi
clorurati, PCB, PCT, pesticidi organofosforici, ecc.) deve essere priva di questi contaminanti.
Un lavaggio con miscela cromica per 15 minuti è indispensabile per distruggere questi
residui organici. Occorre quindi sciacquare abbondantemente con acqua di rubinetto e poi
con acqua distillata. Se la vetreria deve essere utilizzata immediatamente essa può essere
asciugata rapidamente usando alcool etilico seguito da acetone bidistillato (altrimenti può essere
asciugata in stufa). Appena asciutta, la vetreria deve essere coperta con un foglio di alluminio
sull’apertura per evitare l’ingresso di polvere.
Le bottiglie da utilizzare per la raccolta dei campioni e per l’analisi organica dovrebbero essere
lavate con miscela cromica, poi con acqua di rubinetto, quindi con acqua distillata e infine
alcune volte con un appropriato solvente.
Le capsule e i crogioli debbono essere lavati con detergenti, sciacquati con acqua di rubinetto,
con acqua distillata e infine con solvente.
5.4 Vetreria da scartare
Quando il rischio nel lavaggio della vetreria per il riuso diventa troppo grande, come nel caso
dell’uso di sostanze molto tossiche, può essere necessario gettare via la vetreria utilizzata.
Esistono in commercio vari tipi di vetreria da scartare (includendo in essa pipette per determinazioni
batteriologiche e sierologiche) costituita in genere di materiale di vetro morbido.
5.5 Vetreria specialistica
L’uso di recipienti e vetreria con giunti conici, sferici, ecc. offre notevoli vantaggi, come il risparmio
di tempo e soprattutto la minor rigidità del sistema (assemblaggio apparecchi). Per
questo particolare tipo di vetreria esiste la possibilità di classificazione e standardizzazione,
come indicato nel seguito.
5.5.1 Giunti conici standard
ST è il simbolo usato per indicare i giunti intercambiabili, i tappi e i rubinetti in accordo con le
prescrizioni degli Standards. Nel seguito sono indicati i differenti tipi di vetreria:
22
PARTE GENERALE
-per i giunti conici vengono indicati due numeri come S
T 24/30. 24 indica il diametro
(in mm) della parte finale larga del giunto e 30 la lunghezza assiale dello
stesso (anche in mm);
-per i tappi del rubinetto è indicato un solo numero come ad esempio S
T 2; che
indica il diametro (in mm) del buco (o dei buchi) attraverso il tappo;
-per la bottiglia viene indicato un solo numero, ad esempio S
T 19; che indica il
diametro (in mm) della sommità del collo della bottiglia;
-per i matracci viene indicato un solo numero, ad esempio S
T19; che indica il diametro
in (mm) dell’apertura della sommità del collo del matraccio.
5.5.2 Giunti sferici
SJ è la simbologia adottata per definire i giunti sferici in accordo con quanto previsto dal
National Bureau of Standards. La simbologia indica due numeri, come ad esempio SJ 12/2;
12 è il diametro (in mm) della sfera e 2 il diametro della base del buco (anch’esso in mm).
5.5.3 Prodotti standard
SP è il simbolo dei prodotti standard utilizzati per rubinetti con tappo in teflon. I prodotti standard
sono caratterizzati da un solo numero come ad esempio SP 2; che sta ad indicare un tappo
di teflon con un buco di circa 2 mm.
5.6 Vetreria sinterizzata
Per certe operazioni di laboratorio, come la filtrazione, può essere necessario utilizzare vetreria
sinterizzata (vedi, ad esempio, la determinazione dei solidi sospesi e dei solidi disciolti
totali). Esistono almeno sei differenti tipi di porosità, come riportato in Tab. 6.
Grado di porosità Simbolo Dimensione dei pori Operazioni principali
Tabella 6: Porosità della vetreria sinterizzata
Extra grossolano EC 170-220 Filtrazione grossolana
Dispersione di gas,
lavaggio, assorbimento
Grossolano C 40-60 Filtrazione grossolana
Dispersione di gas,
lavaggio, assorbimento
Medio M 10-15 Filtrazione ed estrazione
Fino F 4-5,5 Filtrazione ed estrazione
Veramente fino VF 2-2,5 Filtrazione batteriologica generale
Ultra fino UF 0,9-1,4 Filtrazione batteriologica generale
5.7 Lavaggio dei filtri
In molti casi i precipitati possono essere rimossi sciacquando semplicemente con acqua; altre
volte può essere necessario un trattamento particolare. La Tab. 7 fornisce indicazioni sulle modalità
di rimozione di alcune sostanze dai filtri.
PARTE GENERALE
Materiale Agente lavante
Tabella 7: Pulizia dei filtri
Albume Acido fluoridrico al 2% seguito da acido solforico con-
centrato. Sciacquare quindi con acqua fino a pH neutro
Ossidi di rame o di ferro Acido cloridrico caldo più clorato di potassio
Grassi Tetracloruro di carbonio
Solfuro di mercurio Acqua regia calda
Sostanze organiche Acido solforico concentrato caldo con qualche goccia di
nitrito di sodio
BIBLIOGRAFIA
UNICHIM (2002): “Guida alla scelta e all’uso dei materiali di riferimento”, Unichim (Milano).
PARTE GENERALE
1020. Lineamenti di tecniche analitiche
L’analisi chimica può essere definita come quell’insieme di operazioni volte a mettere in evidenza
gli elementi che costituiscono un composto o una miscela di composti. Generalmente
essa viene distinta in analisi qualitativa e analisi quantitativa: la prima ha il solo scopo di
identificare i componenti del campione da analizzare, la seconda si propone di determinare
le proporzioni in cui tali componenti sono presenti.
Perché un fenomeno chimico possa essere utilizzato quale reazione analitica, devono essere
soddisfatte tre condizioni: esso deve essere caratteristico (precipitazione, solubilizzazione,
comparsa o scomparsa di un colore, svolgimento di un gas), specifico – legato cioè alla capacità
di evidenziare una sola specie –, sensibile, cioè deve essere rilevabile anche per le
quantità di sostanza che debbono essere determinate. La prima e la terza condizione sono
più o meno spesso soddisfatte, la seconda invece, cioè la specificità, è relativamente rara.
Per rimediare a tale stato di cose si fa ricorso alle separazioni. Con tale operazione si intende
l’utilizzazione di reattivi generali, che permettono di isolare un certo numero di elementi,
comunemente detto “gruppo” prima di effettuare i saggi di identificazione.
Nel caso dell’analisi quantitativa è necessario conoscere anche con esattezza l’equazione stechiometrica
e la composizione dei prodotti ottenuti.
L’analisi quantitativa comprende diversi metodi che possono essere distinti in tre categorie: metodi
gravimetrici, metodi volumetrici, metodi chimico-fisici. Ad ogni metodo compete un particolare
intervallo ottimale di concentrazione dell’elemento o della sostanza da analizzare.
Pertanto la scelta di un metodo è anche funzione dell’ordine di grandezza della concentrazione
dell’analita da determinare.
Teoricamente è possibile ricondurre qualunque concentrazione nell’ordine di grandezza desiderato
mediante operazioni di concentrazione per evaporazione del solvente (il che in pratica
non si fa mai) o di diluizione (comunemente impiegata).
Nell’analisi gravimetrica la sostanza da analizzare viene precipitata quantitativamente con
un eccesso di reattivo di concentrazione sconosciuta o conosciuta soltanto approssimativamente
e dopo filtrazione e lavaggio il precipitato viene pesato.
Nell’analisi volumetrica la sostanza da analizzare viene trattata con un volume misurato di
reattivo avente una concentrazione perfettamente conosciuta e dal volume adoperato si calcola
la quantità della sostanza che si vuole determinare.
I metodi chimico-fisici di analisi quantitativa si basano sulla misura di certe grandezze fisiche
dal cui valore si può risalire alla concentrazione di quelle specie che sono caratterizzate da
tali grandezze.
1. Metodi gravimetrici
La base dell’analisi gravimetrica è la precipitazione. In tale operazione la sostanza da determinare
viene trasformata in un composto di solubilità cosi piccola da poter essere separato
per filtrazione in modo praticamente totale.
Nella estrema semplicità concettuale del metodo sta il suo principale vantaggio; conseguentemente
risulta assai facile valutare l’accuratezza e l’affidabilità dei risultati ottenuti.
Contrastano con tale vantaggio alcuni grossi svantaggi e precisamente la scarsa selettività, che
obbliga spesso a faticose separazioni prima di effettuare la determinazione gravimetrica, la
purezza del precipitato che non raggiunge quasi mai limiti elevati se non si opera in condizioni
sperimentali particolarmente controllate, la igroscopicità del precipitato, la non stechiometricità
del composto formatosi per un eccesso dell’anione o del catione nella massa precipitata.
PARTE GENERALE
Quest’ultimo inconveniente può essere superato con abbondanti lavaggi a patto però che ciò
non comporti parziali dissoluzioni.
A parte questi svantaggi le analisi gravimetriche richiedono una tecnica accurata e rifinita ed
una notevole abilità operativa, al fine di evitare, durante lo sviluppo dell’analisi, che si abbiano
perdite parziali del precipitato. Inoltre i lavaggi ripetuti, il recupero del precipitato, la pesata
ripetuta più volte appesantiscono il metodo rendendolo esasperatamente lungo e noioso.
Lo strumento base dell’analisi gravimetrica è la bilancia.
Alcuni avvertimenti debbono essere tenuti presenti nell’uso della bilancia:
-la bilancia ed i pesi non devono essere esposti a fumi acidi e quindi si eviti di
tenerli nel laboratorio;
-la bilancia deve essere tenuta in una custodia di vetro contenente un assorbente
dell’umidità, poggiata su un piano non soggetto a vibrazioni;
-le sostanze volatili devono essere pesate in recipienti accuratamente sigillati;
-lo stesso accorgimento vale per le sostanze aggressive e corrodenti e per quelle
igroscopiche;
-sulla bilancia non devono essere mai posti crogioli o altri recipienti ancora caldi;
-l’operazione di caricamento della bilancia con i pesi e con le sostanze da pesare
deve essere eseguita mantenendo bloccata la bilancia.
I metodi gravimetrici sono sempre meno utilizzati nei laboratori di analisi ed anche nel presente
manuale essi trovano scarsa applicazione, essendo ad essi preferiti i metodi volumetrici
e quelli chimico-fisici.
2. Metodi volumetrici
La volumetria si basa sull’impiego di soluzioni a titolo noto che vengono aggiunte, sotto forma
di piccole frazioni volumetriche successive e note, alla soluzione che contiene la specie
che si vuole dosare.
Il punto finale della titolazione, dal quale perciò è possibile, sulla base della conoscenza della
concentrazione della soluzione titolante, ricavare la concentrazione della soluzione titolata,
viene messo in evidenza dalla variazione di colore che subisce un indicatore aggiunto a
tale fine alla soluzione.
I principali metodi volumetrici sono:
-l’alcali-acidimetria;
-le titolazioni di ossido-riduzione;
-le titolazioni per precipitazione;
-le titolazioni complessonometriche.
L’alcali-acidimetria è basata sulla equazione di neutralizzazione
H+ + OH
..
H2O
Essa consente di dosare gli acidi, le basi ed i sali di acidi forti e basi deboli o di basi forti ed
acidi deboli.
Le titolazioni di ossidoriduzione si basano su una reazione del tipo
OX1 + Rid2
..
OX2 + Rid1
nella quale cioè la forma ridotta della coppia 2 agisce da riducente nei confronti della forma
ossidata della coppia 1 con formazione della forma ossidata della coppia 2 e della forma ridotta
della coppia 1.
I metodi per precipitazione e complessonometrici, infine, sono basati sulla formazione rispettivamente
di composti molto poco solubili e di complessi molto stabili, generalmente chelati.
PARTE GENERALE
La bontà dei risultati ottenuti applicando tali metodi dipende dal valore del prodotto di solubilità
del composto che si ottiene nella reazione e dalla precisione con cui si può determinare
la fine della reazione.
2.1 Recipienti di misura
I recipienti comunemente impiegati nell’analisi volumetrica sono:
a) Palloni tarati: sono palloni a collo lungo e sottile, con un segno sul collo; servono
a preparare soluzioni titolate e a portare a volume una quantità qualunque
di liquido.
b) Cilindri graduati: sono cilindri divisi in centimetri cubici che servono solo per
misure grossolane (Fig. 1).
c) Burette: sono tubi divisi in centimetri cubici e frazioni, chiusi inferiormente
con un rubinetto di vetro (Fig. 1).
Nei palloni e nelle pipette (vedi sotto) le marche sono segnate su tutta la circonferenza del
tubo, in modo che sia possibile fissare con esattezza la posizione del punto più basso del
menisco, nelle burette che pur sono lo strumento volumetrico più importante, i segni ordinariamente
sono limitati ad una parte del tubo.
Poichè con ciò la lettura diventa insicura o più difficile, si è cercato di ovviare agli errori di
parallasse od almeno di diminuirli con disposizioni speciali, come ad esempio la striscia colorata
sul fondo bianco proposta da Schellbach.
La commissione tedesca per gli apparecchi graduati dà i seguenti dati sulle tolleranze delle
burette (Tab. 1).
Tabella 1: Errori permessi nelle burette secondo la Commissione tedesca
Capacità (mL) 100 75 50 25 10 2
Errore (mL) 0,08 0,06 0,04 0,03 0,02 0,008
Pipette: si distinguono le pipette a volume e le pipette graduate. Le pipette a volume possono
avere un unico segno o un segno inferiore e uno superiore e servono a misurare un volume
determinato di liquido. Le pipette graduate sono tubi fatti a guisa di buretta, divisi in
centimetri cubici, tirati all’estremità inferiore in una punta sottile, come le pipette a volume.
La commissione tedesca indica per le pipette a volume le seguenti tolleranze (Tab. 2).
Tabella 2: Errori permessi, nelle pipette a volume, in relazione alla capacità (‰)
Capacità (mL) 100 50 25 20 10 2 1
Errore (mL) 0,07 0,05 0,025 0,025 0,02 0,006 0,006
corrispondente a 0,7 1 1,0 1,25 2 3 6
È chiaro che col metodo volumetrico si possono ottenere risultati esatti solo quando i recipienti
di misura sono tarati in modo esatto.
Quantunque oggi i recipienti di misura vengano per lo più costruiti con molta cura, tuttavia
ogni analista dovrebbe controllarne l’esattezza mediante apposite esperienze o meglio ancora
effettuare le tarature graduate.
Deve anche tenersi presente che in tutte le operazioni che prevedono l’utilizzazione di recipienti
tarati è di fondamentale importanza il controllo della temperatura di esperienza a causa
dei ben noti fenomeni di dilatazione termica.
PARTE GENERALE
Figura 1: Burette (a,b) e cilindri (c,d,e), un esempio di vetreria tarata. I rubinetti (r, r’) delle burette devono essere periodicamente
ingrassati; inoltre, nel caso di soluzioni di alcali concentrati, il comune rubinetto a smeriglio non può
essere adottato e deve essere sostituito da altri opportuni sistemi.
2.2 Soluzioni titolanti
Il titolo di tali soluzioni è comunemente espresso in normalità. Per soluzione normale si intende
una soluzione che contiene disciolto per ogni litro un grammo equivalente della sostanza in
questione. Poiché le soluzioni normali, per la maggior parte dei lavori analitici, sono troppo
concentrate, si adoperano spesso soluzioni 0,5 - 0,2 - 0,1 - 0,05 - 0,01 normali e, in alcuni
rari casi, 0,001 normali. Una soluzione 0,5 normale contiene mezzo grammo equivalente per
litro, una soluzione 0,2 normale contiene un quinto del grammo equivalente per litro, ecc..
Il peso equivalente, ossia la quantità in grammi di soluzione da sciogliere in un litro per ottenere
una soluzione normale, dipende, come è noto, oltre che dalla sostanza anche dalla particolare
reazione alla quale essa prende parte.
La preparazione delle soluzioni titolanti viene eseguita in due tempi. Dopo aver preparato una
soluzione a titolo approssimato (per pesata o per diluizione di una soluzione più concentrata)
è necessario determinare con esattezza tale titolo, se si vuole impiegare la soluzione quale
titolante in un’analisi volumetrica. Tale titolo può essere determinato ricorrendo a sostanze
28
PARTE GENERALE
madri o a soluzioni a titolo noto, avendo l’accorgimento di operare tale controllo in condizioni
sperimentali che siano il più possibile simili a quelle in cui si esegue il dosaggio.
Si rilevi quanto sia importante e necessario che il peso della sostanza madre o il volume e la
concentrazione della soluzione impiegata per il controllo siano determinati con rigorosa correttezza.
2.3 Reattivi chimici: limiti di purezza e classificazione
Nell’analisi chimica volumetrica basata, come si è detto, sul confronto fra i volumi e le concentrazioni
del titolante o del titolato, è necessario disporre di soluzioni a concentrazione nota
di opportuni reattivi chimici. Questi sono prodotti chimici ad alta purezza usati per scopo
analitico e, in genere, per tutti quei lavori chimici dove le impurezze devono essere assenti o
in concentrazioni note. Nel caso in cui non è conosciuta la concentrazione delle sostanze
estranee, è indispensabile determinarne il contenuto.
In commercio i prodotti chimici sono disponibili a diversi gradi di purezza. I prodotti tecnici
o commerciali sono i meno puri. Il grado FU indica in Italia i prodotti chimici che soddisfano
le esigenze della Farmacopea ufficiale; in America si indicano con USP (United States Pharmacopoeia).
I prodotti di notevole purezza usati nei laboratori sono messi in commercio dalle
case produttrici con sigle particolari (per esempio RP, reattivi puri) o con un certificato di
garanzia. Alcune case produttrici pubblicano dei manuali con la descrizione di saggi di purezza
da eseguire per i diversi prodotti. Vi sono poi gruppi speciali di reattivi estremamente
puri o esenti da determinate sostanze, che vengono usati per analisi particolari. Per molte
analisi, tuttavia, risulta sufficiente il cosiddetto grado di purezza analitico.
In alcuni casi può essere utile effettuare un controllo del livello di purezza dichiarato dal produttore
o ricorrere al lavaggio dei reattivi secondo le modalità indicate nella Sezione 1010
(Paragrafo 3).
Il contenitore dei reattivi chimici deve essere sempre accuratamente chiuso per evitare la contaminazione
con polvere o altri prodotti diversi. Il prelievo deve essere effettuato versando il
prodotto senza l’aiuto di cucchiai o spatole; per nessun motivo si deve rimettere del materiale
nel recipiente.
I reattivi chimici sono spesso classificati in base alla loro utilizzazione pratica; in considerazione
di ciò si possono avere reattivi di precipitazione, di ossidazione, di riduzione, ecc.. Si possono
distinguere anche in reattivi generali quando il loro uso permette di caratterizzare una intera
classe di composti, come gli acidi, le basi, i reattivi degli alcaloidi, dei grassi, ecc. e reattivi
speciali, intesi come quelli che reagiscono con un solo composto o con un numero limitato
di composti omologhi. Fra questi si annoverano quei reattivi organici o inorganici che formano,
mediante legami coordinati, dei complessi con ioni inorganici, detti chelati, intensamente
colorati e frequentemente insolubili in acqua, fatto che li rende molto utili nell’analisi chimica.
Poiché alcune delle determinazioni che si effettuano nell’analisi di un’acqua sono eseguite a
valori di concentrazioni molto basse, è indispensabile scegliere con cura, oltre ai reattivi, anche
l’acqua da impiegare nell’esecuzione dell’analisi. Per quanto riguarda quest’ultima, si sono
adottati parecchi criteri per definire la purezza di un’acqua; due fra i più accettati sono
riportati nella Sezione 1010 (Tab. 1-2).
Sostanzialmente è opportuno operare con acqua distillata e deionizzata (conducibilità=2
µS/cm) tenendo presente che anche la natura dell’apparecchio di distillazione (in vetro o in
metallo) può influenzare la composizione del distillato:
distillatore in vetro:
Zn<1 µg/L; B=1,2 µg/L; Fe=1 µg/L; Mn<1µg/L; Al<5 µg/L; Cu=5 µg/L; Ni<2 µg/L; Pb<2
µg/L
distillatore in metallo:
Zn<9 µg/L; B=13 µg/L; Fe=2 µg/L; Mn<1 µg/L; Al<5 µg/L; Cu=11 µg/L; Ni<2 µg/L;
Pb<26 µg/L
29
PARTE GENERALE
3. Metodi chimico-fisici
Le grandezze fisiche fondamentali che possono essere misurate direttamente sono in realtà
non molte. La maggior parte delle misure che l’analista effettua in laboratorio consiste nel rilevare
lo spostamento lineare od angolare di un certo indice su una scala. Così nell’impiego
della buretta si registra la posizione iniziale e finale del menisco; in quello della bilancia il
valore dei pesi tarati che dobbiamo aggiungere su uno dei due piatti per riportare a zero l’indice,
nelle misure elettriche si misura lo spostamento angolare dell’ago dello strumento impiegato
(amperometro, potenziometro, conduttimetro). Le apparecchiature più moderne, tuttavia,
impiegano sistemi di rilevazione digitale.
Molte altre grandezze, come l’intensità della luce o del suono, possono essere sfruttate soltanto
come indicatori di zero, nel senso che o il valore della grandezza o la differenza fra
questo valore ed un altro assunto come riferimento sono nulli quando si porta l’indice della
scala dell’apparecchio sul valore che spetta alla grandezza misurata.
Per risalire dal valore del segnale a quello della concentrazione, che è poi il dato richiesto
dall’analisi, si ricorre generalmente al metodo di comparazione nel senso che si confronta il
segnale fornito dallo strumento per il campione incognito con il segnale fornito nelle stesse
condizioni per un campione di riferimento.
La maggior parte dei metodi analitici strumentali è basato su solide teorie matematiche. Pur
tuttavia in qualche caso può accadere di applicare procedimenti strumentali del tutto empirici
non supportati da un’adeguata conoscenza teorica; in tal caso l’applicazione puramente
analitica è lecita, ma è sempre conveniente e consigliabile accompagnarla con un attento controllo
dei dati sperimentali e da uno studio approfondito del sistema sotto misura, al fine di
avere precise e chiare informazioni sulle grandezze che vengono misurate e sulle correlazioni
fra tali grandezze e la concentrazione.
Ricordato che la titolazione può essere definita come quella operazione analitica che consente
di determinare una concentrazione incognita sulla base della esatta misura dell’equivalente
quantità di un reattivo di riferimento, possiamo dire che i metodi chimico-fisici di analisi sono
correlabili a quelli titrimetrici sotto due aspetti: individuazione del punto finale della titolazione,
misura della quantità di reattivo aggiunta fino all’equivalenza.
Generalmente il volume di reattivo viene misurato mediante una buretta. L’unica eccezione è
rappresentata dall’analisi coulombometrica in cui il reattivo viene generato elettroliticamente e
la sua quantità è determinata mediante misure elettriche. Parecchie delle grandezze fisiche possono
essere sfruttate per determinazioni analitiche, con o senza una vera e propria titolazione.
Anche se non di tutte tratteremo in questo manuale, in quanto ci limiteremo a quelle di interesse
nell’analisi dell’acqua, riteniamo utile fornire un quadro completo di quelle per le quali
gli studi e le ricerche hanno consentito di mettere definitivamente a punto metodi che sulla
misura di tali grandezze trovano il loro fondamento e le loro basi:
a) Proprietà estensive:
-massa (o peso);
-volume (di un liquido o di un gas).
b) Proprietà meccaniche:
-peso specifico;
- tensione superficiale;
-viscosità;
-velocità del suono (in un gas).
c) Proprietà correlate all’interazione con l’energia radiante:
-assorbimento di energia radiante (raggi X, ultravioletto, visibile, infrarosso, microonde);
-torbidità;
PARTE GENERALE
-emissione di radiazione dietro eccitazione;
- effetto Raman;
-rotazione del piano della luce polarizzata;
-indice di rifrazione;
-dispersione;
-fluorescenza e fosforescenza;
-diffrazione di raggi X e di elettroni;
-risonanza magnetica nucleare ed elettronica.
d) Proprietà elettriche:
-potenziali di semicella;
- curve caratteristiche corrente-voltaggio;
-conducibilità elettrica;
-costante dielettrica;
-suscettibilità magnetica.
e) Proprietà termiche:
-temperature di transizione (punti di fusione, di ebollizione, di trasformazione
di fase, ecc.);
-calori di reazioni (combustione, neutralizzazione, ecc.);
- conducibilità termica (di un gas).
f) Proprietà nucleari:
-radioattività.
La situazione teoricamente ideale sarebbe rappresentata dalla disponibilità di tanti metodi chimico-
fisici, ciascuno dei quali specifico per un certo elemento, radicale o classe di composti.
In realtà, le cose, purtroppo, sono assai diverse e soltanto un numero assai esiguo di metodianalitici è caratterizzato da un elevato grado di specificità. È pertanto necessario quasi sempre
fare precedere la determinazione chimico-fisica da una separazione quantitativa, con lo
scopo o di isolare il costituente voluto o di rimuovere dal campione nel quale questo è contenuto
le eventuali sostanze interferenti. I metodi di separazione più comunemente impiegati sono
la precipitazione, la elettrodeposizione, la complessazione, la distillazione, l’estrazione con
solvente, la cromatografia di partizione, la cromatografia di adsorbimento, lo scambio ionico,
l’elettroforesi, la dialisi.
I criteri di scelta per la proposta di un metodo analitico per l’analisi di un’acqua dovrebbero
essere sostanzialmente i seguenti:
– Il metodo deve garantire l’affidabilità della determinazione degli indici considerati
con sufficiente precisione ed accuratezza in presenza di normali interferenze.
– Il metodo deve impiegare apparecchiature comunemente disponibili nei laboratori
di analisi e controllo dell’inquinamento idrico.
– Il metodo deve essere stato controllato attraverso “ring-test” interlaboratorio per
valutarne i limiti di precisione, accuratezza, sensibilità, limite di rivelabilità.
– Il metodo deve essere sufficientemente rapido da consentire analisi routinarie
ripetitive.
La proposta di metodo deve essere formulata in modo chiaro, descrivere dettagliatamente tutti
i passaggi operativi che il metodo richiede al fine di standardizzare al massimo tutta la procedura.
La stessa raccomandazione, in misura ancora più spinta, deve ovviamente valere per
il metodo ufficiale elaborato sulla base della proposta e delle osservazioni dei risultati scaturiti
dalla sua applicazione da parte di alcuni laboratori pilota.
PARTE GENERALE
Le apparecchiature comunemente necessarie in un’analisi di un’acqua sono la bilancia analitica,
il pHmetro, il conduttimetro, il turbidimetro, spettrometri di varia natura (UV, IR, visibile,
assorbimento atomico), analizzatore del carbonio totale, gascromatografo, sistemi gas-
massa, termostato. Essi devono essere mantenuti in efficienza e periodicamente controllati per
la bontà del funzionamento e, quindi, per l’affidabilità del risultato fornito.
L’attendibilità del risultato di un metodo analitico può anche dipendere dalla natura dei contenitori
impiegati perché in qualche caso questi possono reagire chimicamente con le soluzioni
con cui vengono in contatto, con il risultato di alterare la composizione della soluzione
e/o rilasciare in soluzione alcune delle specie in essi contenuti. In genere, comunque, il vetro
e il polietilene sono i materiali più comunemente impiegati. Per scopi specifici possono essere
utilizzati anche contenitori in porcellana, nichel, ferro, alluminio, platino, acciaio inossidabile,
materiale plastico di varia natura (teflon, polistirene). Per quanto riguarda il vetro, ne
esistono parecchi tipi e gradi, da quello più comune e più economico a quello ultraspecifico
caratterizzato da qualità specifiche elevate (come la resistenza meccanica, il basso tenore in
boro, la resistenza agli “shock termici”, la resistenza agli alcali). Le denominazioni dei vari
tipi di vetro e i criteri per la scelta del materiale dei contenitori sono riportati nella Sezione
1010 (Paragrafo 4).
3.1 Metodi fotometrici
Con il termine di analisi fotometrica si intende l’insieme dei metodi di analisi chimica basati
sulla misura della intensità luminosa di una radiazione (analisi spettrochimica, colorimetrica,
spettrofotometrica, turbidimetrica).
Le regioni spettrali di particolare interesse sono il vicino ultravioletto (3000-4000 A°), il visibile
(4000-7500 A°) e la regione dell’infrarosso compresa fra 1 e 25 µm.
L’assorbimento e l’emissione di radiazioni nel campo del visibile e dell’ultravioletto sono associati
a fenomeni di transizione a carico degli elettroni più esterni da un’orbita ad un’altra a diverso
contenuto energetico, quelli nell’infrarosso a variazioni di energia cinetica di rotazione e
di traslazione dei legami delle molecole. Le apparecchiature sperimentali impiegate nell’analisi
fotometrica sono costituite da una sorgente luminosa, da un sistema di lenti, da un mezzo disperdente
che consente di isolare l’intervallo di lunghezza d’onda desiderato, da un rivelatore.
Per la spettroscopia di emissione nell’ultravioletto e nel visibile le sorgenti luminose generalmente
impiegate sono la fiamma, l’arco e la scintilla. Per la spettrofotometria di assorbimento
nell’ultravioletto la sorgente più comune è la lampada a scarica in atmosfera di idrogeno,
nell’infrarosso i filamenti di Nernst e le bacchette al carburo di silicio (Globar), nel visibile la
lampada a filamento di tungsteno incandescente e quelle a vapori di mercurio.
Il materiale con cui sono costruiti sia le lenti che i prismi deve essere scelto in funzione della
regione spettrale nella quale si opera. Nell’ultravioletto è generalmente impiegato il quarzo,
nell’infrarosso il cloruro di sodio, il bromuro di potassio, il fluoruro di litio o la fluorite, nel visibile
più semplicemente il vetro.
Per ciò che riguarda i rivelatori anche se nel visibile si può impiegare direttamente l’occhio
umano, tuttavia quelli più impiegati nelle zone del visibile e dell’ultravioletto sono le lastre fotografiche
e le cellule fotoelettriche (fotovoltaiche, a fotoemissione, a gas a vuoto, a strato di
sbarramento, fotoconduttive). Nel caso si debbano rilevare radiazioni di bassa intensità si
può fare uso con profitto di un fotomoltiplicatore, dispositivo estremamente sensibile alla luce
e basato sul fenomeno dell’emissione secondaria.
Nell’infrarosso si sfrutta invece il contenuto termico della radiazione; su tale principio sono infatti
basati i rivelatori comunemente impiegati in tale campo di lunghezza d’onda, cioè i bolometri,
le termopile, i termistori, le celle di Golay.
Vengono descritte nel seguito alcune delle tecniche fotometriche di uso più comune.
3.2 Metodi spettrochimici
Con l’espressione analisi spettrochimica s’intende l’applicazione della spettroscopia di emissione
all’analisi chimica, cioè al riconoscimento ed alla determinazione quantitativa delle specie
chimiche.
32
PARTE GENERALE
Il metodo spettrochimico per emissione rivela generalmente soltanto la specie chimica degli
elementi, non del composto; esaminando cioè un composto, se ne mettono in evidenza soltanto
gli elementi chimici che lo costituiscono, come se si trattasse di un miscuglio. L’analisi
chimica invece attraverso reazioni particolari caratterizza la molecola del composto o gli ioni
in cui essa è dissociata.
La sensibilità di riconoscimento degli elementi è per quasi tutti molto più elevata per via spettroscopica
che per via chimica.
In linea generale quindi il metodo spettroscopico è molto superiore al metodo chimico nell’analisi
qualitativa per la ricerca di tracce di elementi e nell’analisi quantitativa per la determinazione
di piccole quantità di elementi.
3.2.1 Emissione
Effetto termico - Riscaldando una sostanza, solida o liquida, oltre i 500°C questa incomincia
ad emettere luce, prima rosso scura, poi man mano che la temperatura aumenta, rosso chiara,
arancione, gialla, ed infine bianca a 1300°C circa. Lo spettro è continuo. Con l’aumento
della temperatura compaiono uno dopo l’altro nello spettro i sette colori dell’iride nell’ordine
dal rosso al violetto. Aumentando ancora la temperatura oltre i 1300°C, varia il rapporto del
contenuto energetico delle varie zone, modificandosi a favore delle maggiori frequenze, che
corrispondono a livelli energetici superiori cioè a più alte temperature di eccitazione.
Se aumentando ancora la temperatura il solido od il liquido si trasformano in vapore, si ha
ancora emissione di luce, ma con spettro discontinuo, cioè a righe. Una variazione nella temperatura
del vapore emittente modifica a sua volta i rapporti d’intensità delle righe spettrali.
Urto elettronico - Provocando una scarica elettrica in un tubo a gas rarefatto (tubo di Geissler)
si ha emissione di luce senza considerevole innalzamento di temperatura. Lo spettro è
generalmente discontinuo e può estendersi, come nel caso dell’effetto termico, dall’infrarosso
all’ultravioletto. L’emissione è dovuta all’urto degli elettroni uscenti dal catodo contro gli atomi
o le molecole del gas.
Spettri atomici e molecolari - Nei vapori portati ad alta temperatura e nei gas rarefatti la materia
si trova sotto forma di atomi liberi: in queste condizioni si ottengono spettri a righe dei
singoli elementi chimici. Se le condizioni non sono tali da dissociare tutte le molecole, si ha
emissione anche da parte delle molecole, sotto forma di spettri di bande. Ciascun elemento
può emettere uno spettro più o meno ricco di righe a seconda della complessità della nube
elettronica che contorna il nucleo nel suo atomo. All’emissione partecipano soltanto gli elettroni
esterni al nucleo. L’eccitazione consiste nel portare uno o più dei suddetti elettroni su orbite
più esterne delle normali, o, in altri termini, nel promuovere l’atomo ad un superiore livello
energetico per effetto dell’apporto dell’energia di eccitazione (urto anelastico fra atomi
o urto elettronico). Da questo superiore livello energetico, instabile perchè non corrispondente
ad una struttura di equilibrio, l’atomo ritorna immediatamente al livello primitivo restituendo
la differenza di energia sotto forma di luce di una data frequenza. Per ogni determinato
salto elettronico si ha
E’ - E” = h.
dove E” è l’energia dell’atomo allo stato normale, . la frequenza della radiazione emessa, h la
costante di Planck. La varietà dei salti elettronici da un livello ad un altro è in relazione con la
complessità dell’atomo. Emettono più frequenze (e quindi più righe spettrali) anche atomi estremamente
semplici, ad esempio con un solo elettrone esterno, come l’idrogeno; ciò è dovuto al
fatto che i livelli instabili nei quali ciascun elettrone può essere promosso sono più di uno.
Energia di eccitazione -Ad ogni differente salto elettronico corrisponde un diverso valore del-
l’energia di eccitazione necessaria a provocarlo.
Il numero di frequenze emesse da un elemento aumenta quindi con l’aumentare dell’energia
di eccitazione, ed aumenta quindi la complessità del suo spettro.
33
PARTE GENERALE
Intensità delle righe di un elemento - La diversa intensità delle righe spettrali di un elemento è
in relazione con la frequenza relativa dei vari salti. Il salto che si verifica il maggior numero
di volte nell’unità di tempo corrisponderà alla riga più intensa. L’aumento dell’energia di eccitazione
modifica la ripartizione dei salti, quindi l’intensità relativa delle righe.
Ionizzazione - Se l’energia di eccitazione supera un certo valore limite si ha l’estrazione dalla
nube elettronica di uno o più elettroni. La nube stessa acquista quindi la struttura della nube
dell’elemento a numero atomico immediatamente inferiore se la perdita è di un solo elettrone,
inferiore di due posti se la perdita è di due elettroni, ecc.. In effetti però si raggiunge
soltanto una forte somiglianza, non la perfetta identità con lo spettro degli elementi a numero
atomico inferiore perché la maggior carica del nucleo tiene più fortemente legati gli elettroni
periferici. Allo spettro dell’atomo neutro si sovrappone quindi lo spettro dell’atomo ionizzato
dello stesso elemento, e lo spettro dell’elemento si fa più complesso. Lo spettro dell’atomo
neutro si dice primo, lo spettro dell’atomo che ha perduto un elettrone si dice spettro secondo
e così via, e si indicano con i numeri romani, I, II, III, ecc.. Con l’aumento dell’energia
di eccitazione compare dapprima lo spettro I, poi lo spettro II, poi lo spettro III e così via.
Mezzi di eccitazione
Fiamma acetilene-aria - Il semplice becco Bunsen si presta molto male per l’analisi spettro-
chimica. La fiamma produce infatti eccitazione esclusivamente per effetto termico, e, per la
sua temperatura non molto elevata (2000°C circa), è sorgente luminosa a modesta energia
di eccitazione; essa tuttavia può anche fornire righe dello spettro II.
Con la fiamma si ottengono spettri di tutti gli elementi tranne i gas nobili, gli alogeni e gli elementi
H, O, N, S, Se. La fiamma presenta una sensibilità di riconoscimento assai elevata.
Gli elementi che non danno spettro d’arco mostrano, in generale, righe sensibili soltanto nello
spettro dell’atomo ionizzato.
Arco continuo - Si accende in corrente continua di 3-12 ampere a 150-200 V, fra elettrodi
della sostanza da esaminare (conduttrice) o fra elettrodi-supporto di carbone con foro per la
sostanza in esame. Produce eccitazione per effetto termico e per urto elettronico, con forte
prevalenza del primo.
Arco intermittente - Si ottiene in corrente continua od alternata, con dispositivo di interruzione
meccanica od elettrica ad alta frequenza (Pfeilsticker); non dà luogo ad arroventamento
degli elettrodi, lo spettro è più semplice ed è costituito da righe più intense (righe di più bassa
eccitazione), non dà le bande del carbonio e non dà fondo continuo.
Scintilla condensata - Si ottiene con un circuito uguale o simile a quello di Fig. 2.
La scintilla produce eccitazione per effetto termico e per urto elettronico, con forte prevalenza
del secondo. E il mezzo di eccitazione più ionizzante. Il potere ionizzante aumenta con
l’aumento della capacità, diminuisce con l’aumento dell’induttanza.
Plasma -Il plasma è un particolare stato di aggregazione della materia in cui un sistema altamente
ionizzato composto da ioni, elettroni e particelle neutre ad alta energia è caratterizzato
dalla sua tendenza alla neutralità elettrica rispetto all’ambiente circostante. Il plasma viene
di solito prodotto applicando energia ad un comune gas rarefatto (gas plasmageno, generalmente
argon) sino ad ottenere la ionizzazione degli atomi. La ionizzazione può essere
ottenuta mediante l’azione di un forte campo elettrico generato direttamente oppure per mezzo
di induzione elettrica o magnetica.
3.2.2 Assorbimento molecolare
A differenza dei metodi per emissione, i metodi per assorbimento rivelano la struttura molecolare
delle sostanze e possono quindi venire applicati al riconoscimento ed alla determinazione
quantitativa dei composti i quali vengono in tal caso esaminati di regola in soluzione,
impiegando solventi praticamente privi di un proprio spettro di assorbimento.
34
PARTE GENERALE
Figura 2: Schema di circuito per scintilla condensata.
R = rete di distribuzione a corrente alternata; l = lampadina spia; r = reostato; C = serie di condensatori elettrosta-
tici; s = scaricatore di sicurezza; I = interruttore; A = amperometro; T = trasformatore elevatore; L = induttanza va-
riabile; E = elettrodi per la scintilla.
I metodi per assorbimento si basano sulla capacità di una soluzione (o di un mezzo trasparente
qualsiasi) di assorbire in funzione della frequenza della luce che la attraversa. Misurando
il valore dell’assorbimento per le diverse frequenze o lunghezze d’onda si ottiene
la curva di assorbimento (Fig. 3) che è caratteristica della sostanza e che può quindi servire
al suo riconoscimento, mentre il valore assoluto dell’assorbimento per una data frequenza
o lunghezza d’onda può servire per stabilire la concentrazione della sostanza nella
soluzione.
Figura 3: Esempio di spettro di assorbimento.
Lo spettro di assorbimento nel visibile - relativo cioè al colore di una sostanza - è una picco-
la parte dello spettro elettromagnetico; esso è significativamente diverso da zero quando l’e-
nergia di transizione elettronica, che accompagna l’assorbimento, è debole. Il colore osser-
vato è complementare di quello assorbito (Tab. 4).
PARTE GENERALE
violetto giallo-verde
blu giallo
verde-blu arancio
verde porpora
giallo-verde violetto
giallo blu
arancio verde-blu
rosso blu-verde
Tabella 4: Corrispondenza (complementarietà) tra colore osservato e colore assorbito
Colore osservato Colore assorbito
L’utilizzazione delle radiazioni assorbite nell’analisi chimica, che chiamasi colorimetria se riguarda
lo spettro visibile, è fondata su due leggi che risalgono rispettivamente al 1729 e al
1852 e mettono in relazione l’intensità della radiazione assorbita con lo spessore dello strato
e con la concentrazione. La prima, legge di Bouguer, abitualmente nota sotto il nome di
Lambert, riguarda le sostanze solide; siano Ii ed Ie rispettivamente le intensità della radiazione
incidente sulla sostanza e della stessa radiazione emergente, il rapporto Ie/Ii chiamasi
trasparenza ed il rapporto reciproco opacità; il logaritmo della opacità chiamasi
densità ottica o estinzione o assorbanza. La densità ottica è proporzionale allo spessore
dello strato attraversato, cioè:
La costante K, che è uguale a log (Ii/Ie), per s=1 cm, è detta “coefficiente di estinzione” o
“estinzione specifica” ed è un dato caratteristico della sostanza per una determinata lunghezza
di onda.
L’assorbimento di una soluzione varia con lo spessore (s) e con la concentrazione (c) secondo la:
nota come legge Lambert–Beer.
Per s=1 cm e c=1 si ha:
dove K anche in questo caso è detto “coefficiente di estinzione” o “estinzione specifica” della
sostanza disciolta.
Il “coefficiente di estinzione molare” è il valore di K quando s=1 cm e c è uguale ad una grammo-
molecola per litro.
La legge di Lambert-Beer è valida finché, con l’aumentare della concentrazione, aumenta proporzionalmente
il complesso od il gruppo funzionale a cui è dovuto l’assorbimento della reazione
considerata. Quando tale proporzionalità non è più rispettata, la legge non è più valida;
riportando in grafico l’assorbanza A in funzione della concentrazione C, per un determinato
cammino ottico costante, si verificherà una deviazione negativa (a) o positiva (b), (Fig. 4).
Le cause che determinano deviazioni dalla linearità sono diverse: fenomeni di dissociazione
ionica nei quali si ha un equilibrio delle specie adsorbenti che varia con la concentrazione,
o fenomeni di decomposizione, nei quali cambia la natura delle specie disciolte. Altri fattori
di disturbo sono gli elettroliti e la formazione di complessi con le molecole del solvente. Di qui
la necessità di stabilire caso per caso l’intervallo di concentrazione entro cui è valida la legge
di Lambert-Beer.
PARTE GENERALE
Figura 4: Validità della legge di Lambert-Beer.
L’analisi qualitativa mediante spettrofotometria di assorbimento si basa come si è detto sul
confronto fra la curva di assorbimento della sostanza in esame e le curve di assorbimento di
composti noti. In particolare devono coincidere le posizioni dei massimi e dei minimi e deve
essere uguale il rapporto fra i valori dell’assorbimento in corrispondenza del massimo e in
corrispondenza del minimo. Affinché tali curve siano confrontabili è necessario adoperare
sempre lo stesso solvente; questo infatti influisce sia sulla posizione che sulla intensità della
banda di assorbimento. La presenza di sostanze interferenti che modificano la curva di assorbimento
complica l’analisi qualitativa.
L’analisi quantitativa è diretta applicazione della legge Lambert-Beer ed è fondata sulla misura
dell’assorbimento ad una lunghezza d’onda e sulla conoscenza del coefficiente di estinzione
della sostanza disciolta a quella lunghezza d’onda. Per interpolazione si calcola la concentrazione
(x) di sostanza disciolta:
Prima di eseguire l’interpolazione è però necessario assicurarsi sperimentalmente che sia valida
la legge di Lambert-Beer determinando il valore di E1 cm di soluzioni a concentrazioni note
e comprese in un intervallo in cui cade presumibilmente la concentrazione incognita.
La misura dell’assorbimento si effettua generalmente alla lunghezza d’onda ove si ha il massimo
di assorbimento, operando quindi in condizioni di massima sensibilità. Talvolta, per evitare
interferenze da parte di altre sostanze assorbenti può essere necessario operare ad una
lunghezza d’onda diversa da quella corrispondente al massimo di assorbimento. In tal caso
si dovrà scegliere la regione dello spettro in cui la variazione dell’assorbanza in funzione della
lunghezza d’onda non sia molto grande.
Gli strumenti impiegati in questo tipo di analisi sono gli spettrofotometri che consentono la determinazione
dell’assorbimento della luce da parte di una soluzione. Lo schema di tali apparecchi
è riportato nella Sezione 1010 (Fig. 1).
3.2.3 Turbidimetria e nefelometria
La legge di Lambert-Beer che sta alla base di tutta la colorimetria, è una legge limite, ossia
una legge valida soltanto quando sono rispettate alcune condizioni sperimentali ben precise.
Una di queste condizioni stabilisce che la soluzione in esame sia perfettamente limpida, esente
cioè da torbidità, libera da colloidi o da particelle cristalline in sospensione.
Quando la soluzione non soddisfa tali esigenze la legge di Lambert-Beer non è più valida e
di conseguenza, per quanto detto sopra, il metodo colorimetrico non può essere usato perché
darebbe risultati assolutamente falsi: infatti in tali condizioni, oltre ad un fenomeno di assorbimento,
la luce subisce anche un fenomeno di diffusione da parte delle particelle in sospen
37
PARTE GENERALE
sione. La determinazione quantitativa può essere allora eseguita effettuando una misura turbidimetrica
o una misura nefelometrica.
I metodi turbidimetrici e nefelometrici di analisi quantitativa si basano sul seguente principio:
trattando una soluzione contenente una sostanza da determinare con un particolare reattivo
precipitante si ha un intorbidimento che è tanto maggiore quanto più elevata è la concentrazione
della sostanza in esame. Quando un fascio di luce va a colpire la sospensione o soluzione
colloidale in esame, la luce viene in parte trasmessa e in parte diffusa in tutte le direzioni.
Se l’intensità della radiazione diffusa é molto piccola, la quantità di sostanza viene determinata
facendo uso degli apparecchi usati per le determinazioni colorimetriche. L’intensità
della radiazione trasmessa dipenderà ovviamente dalla concentrazione del colloide oppure
dalla quantità di precipitato in sospensione.
Quando l’intensità della radiazione diffusa è molto elevata, cioè quando l’intensità della luce riflessa
dalle particelle in sospensione è maggiore dell’intensità della luce trasmessa dalla soluzione
stessa, si deve misurare la prima per evitare errori grossolani. La misura in questo caso viene
eseguita a 90° rispetto alla luce incidente. Gli apparecchi usati sono particolari colorimetri,
disposti in modo tale da misurare l’intensità delle radiazioni diffuse anziché di quelle trasmesse.
Per compiere analisi turbidimetriche e nefelometriche si deve tener conto di diversi fattori:
a) la dimensione dei granuli precipitati e la velocità di precipitazione, parametri
che influiscono direttamente sulle proprietà assorbenti e riflettenti delle particelle,
dipendono dalla concentrazione degli ioni precipitanti, di conseguenza
la concentrazione di questi ultimi deve rimanere costante;
b) si devono standardizzare al massimo le condizioni sperimentali e cioè modalità
di mescolamento e temperatura della soluzione;
c) a volte si rende necessaria la presenza in soluzione di colloidi protettori che
influiscono sulla finezza e stabilità del precipitato: nel caso si ricorra all’uso di
queste sostanze è chiaro come debbano essere costanti la loro natura chimica
e la loro concentrazione;
d) poiché per tale genere di analisi si ricorre a reazioni di precipitazione e queste
non sono istantanee, ma obbediscono a una certa cinetica, occorre conoscere
il tempo che intercorre tra mescolamento e massimo della torbidità e tenere
costante questo intervallo per ogni determinazione.
Come abbiamo visto la torbidità è funzione della concentrazione e della distribuzione delle
particelle; è funzione anche del percorso compiuto dalla luce nel campione. Di conseguenza,
poiché è molto difficile ogni volta riprodurre esattamente tutte le condizioni operative (cioè
preparare una sospensione stabile e uguale di precipitato), questo metodo non è molto preciso.
In genere si ottiene una precisione del ±5-10%: in casi particolari però è possibile ottenere
risultati migliori. Il campo di applicazione di queste tecniche è in compenso veramente
vasto poiché può essere esteso a tutti i casi in cui si ha formazione di precipitati e di soluzioni
colloidali.
3.2.4 Fluorimetria
La fluorimetria si basa sulla proprietà del campione, se esposto a una radiazione di una determinata
lunghezza d’onda, di assorbire energia e di riemetterla sotto forma di una radiazione
di lunghezza d’onda uguale o più lunga di quella incidente. Se tale riemissione avviene
in un periodo di circa 10-9 secondi il fenomeno si chiama fluorescenza, se invece viene dopo
circa 10-6 secondi allora si parla di fosforescenza.
Questa tecnica utilizza quindi la luce che viene emessa dalla sostanza in esame per determinare
la sua concentrazione. L’analisi deve essere eseguita in soluzioni molto diluite.
L’apparecchio usato è costituito, a grandi linee, da una lampada a raggi ultravioletti (a vapori
di mercurio o di xenon) che irradia la soluzione. L’osservazione avviene in direzione perpendicolare
ai raggi incidenti e la misura dell’intensità dei raggi emergenti viene fatta mediante
fotocellule. Durante l’analisi si devono tenere costanti la lunghezza d’onda della luce
incidente, il pH e la temperatura delle soluzioni.
38
PARTE GENERALE
Per risalire alla concentrazione della soluzione in esame si applica la seguente relazione:
dove:
It = intensità radiazione fluorescente;
Io = intensità radiazione incidente;
B = percentuale radiazione incidente che viene assorbita;
k = coefficiente di estinzione;
l = spessore della soluzione attraversata;
c = concentrazione della soluzione.
Per ottenere risultati il più possibile affidabili conviene operare con il metodo della curva di
taratura riportando le intensità della radiazione di fluorescenza in funzione della concentrazione
della sostanza emettente.
3.2.5 Assorbimento atomico
La spettrofotometria di assorbimento atomico consiste nella misura della concentrazione di un
elemento sulla base della capacità di questo di assorbire, allo stato atomico, luce di frequenza
caratteristica. Valgono le leggi della spettrofotometria di assorbimento: l’assorbimento è
cioé proporzionale alla concentrazione dell’elemento nel campione da analizzare.
La tecnica dell’assorbimento atomico sembra assai simile a quella della fotometria di emissione
alla fiamma, in realtà i due metodi sono sostanzialmente diversi.
Nella spettrofotometria di emissione alla fiamma, la soluzione viene inviata sotto forma di minuscole
goccioline all’interno di una fiamma; gli elementi presenti nella soluzione vengono
quindi trasformati dallo stato molecolare a quello atomico. Una piccola frazione di questi atomi
può assorbire energia dalla fiamma eccitandosi dallo stato fondamentale ad uno stato caratterizzato
da un maggiore contenuto energetico. Nel ritorno allo stato fondamentale si ha
emissione di radiazioni caratteristiche con intensità proporzionale alla concentrazione dell’elemento
nella fiamma. Questo procedimento può essere impiegato per la determinazione di
metalli facilmente eccitabili, come gli alcalini, ma risulta di scarsa efficacia per la determinazione
di elementi meno facilmente eccitabili. Inoltre oscillazioni nella temperatura della fiamma
e la presenza di interferenze di fondo sono causa della scarsa riproducibilità dei risultati.
Atomi presenti allo stato fondamentale sono in grado di assorbire radiazioni di lunghezza
d’onda specifica dell’elemento in questione (radiazioni di risonanza). Questo è l’assorbimento
atomico che, al contrario della spettrofotometria di fiamma, viene applicato con successo
nella determinazione di oltre sessanta elementi.
Le interferenze spettrali e di fiamma possono essere eliminate, quelle chimiche rimosse con
un opportuno pretrattamento del campione da analizzare. I vantaggi principali della tecnica
dell’assorbimento atomico sono l’elevata sensibilità (dovuta alla grande concentrazione
degli atomi assorbenti allo stato fondamentale), l’accuratezza (dal momento che l’effetto di
transizioni atomiche casuali e di variazione della temperatura della fiamma è di entità trascurabile),
la versatilità (poiché la determinazione non è condizionata dalla necessità di eccitare
gli atomi dallo stato elementare), l’alto grado di specificità, la semplicità e la rapidità
di operazione.
Lo schema di un apparecchio per assorbimento atomico è riportato nella Sezione 1010 (Fig. 2).
3.2.6 Spettrometria di emissione in sorgente al plasma
La spettrometria di emissione atomica in sorgente al plasma (ICP-AES) si sta sempre più
diffondendo nei laboratori di controllo ambientale, andando ad affiancare le tradizionali tecniche
di spettrofotometria di assorbimento atomico, in quanto presenta alcuni notevoli vantaggi:
-capacità di analisi multielementare;
39
PARTE GENERALE
- estesi intervalli di linearità;
- ottime sensibilità nell’analisi di alcuni elementi (Be, Sr, Ti, Zr);
- scarso peso delle interferenze di tipo chimico.
Sono invece possibili interferenze di tipo fisico e, in particolare, di tipo spettrale dato che l’elevata
temperatura che si raggiunge nella torcia a plasma rende possibile un maggior numero
di salti quantici.
Il plasma è un particolare stato di aggregazione della materia in cui un sistema altamente ionizzato
composto da ioni, elettroni e particelle neutre ad alta energia è caratterizzato dalla
sua tendenza alla neutralità elettrica rispetto all’ambiente circostante. Il plasma viene di solito
prodotto applicando energia ad un comune gas rarefatto (gas plasmageno, generalmente
argon) sino ad ottenere la ionizzazione degli atomi. La ionizzazione può essere ottenuta mediante
l’azione di un forte campo elettrico generato direttamente oppure per mezzo di induzione
elettrica o magnetica.
Sorgenti di plasma
Sono stati studiati diversi tipi di sorgente di plasma ed alcune di queste sono state prese in
considerazione come possibili sorgenti di eccitazione per la spettrometria atomica di emissione
(AES) e precisamente:
-plasma generato da corrente continua (DCP);
-plasma accoppiato capacitativamente con microonde (CMP);
-plasma accoppiato induttivamente con radiofrequenza (ICP);
-plasma indotto a microonde (MIP).
Negli spettrometri per uso analitico viene utilizzata principalmente la sorgente ICP mentre altre
sorgenti vengono usate per applicazioni particolari quali ad esempio la rivelazione in gas
cromatografia (sorgente MIP). Nei sistemi ICP, il campo magnetico variabile viene ottenuto applicando
una corrente ad elevata frequenza ad una bobina di induzione entro la quale fluisce
il gas ionizzato. Il campo elettrico viene generato dalla oscillazione periodica del flusso
di induzione magnetica ed è diretto lungo linee di forza circolari giacenti in un piano perpendicolare
alla direzione di flusso del campo magnetico. Come gas plasmageno viene utilizzato
generalmente argon. Il gas ionizzato fluisce attraverso un tubo di quarzo, o di altro
materiale refrattario trasparente ad un ampio spettro di radiazioni emesse, la cui estremità
superiore è inserita nella bobina connessa al generatore ad alta frequenza. Il processo di ionizzazione
viene innescato disperdendo nel gas di sostentamento degli elettroni liberi prodotti
per effetto termoelettrico da una piccola asta di grafite inserita nel campo elettrico o mediante
una scarica Tesla. Gli elettroni e gli ioni formati vengono quindi accelerati dal campo magnetico
indotto con conseguente riscaldamento per effetto Joule dovuto alla resistenza del gas
di supporto. Una volta innescata, la sorgente plasma si autosostiene assumendo la forma di
una fiamma luminosa emergente dalla parte superiore della bobina. La temperatura del plasma
si mantiene mediamente sui 6000°K e, localmente, può raggiungere anche i 10.000°K.
La regione utile per scopi analitici è però la “coda” tra i 5000 e i 6000°K; in questa zona è
immessa la soluzione del campione da analizzare nebulizzata in argon.
Lo spettrometro ICP-AES risulta costituito dalle seguenti parti principali:
-sistema di atomizzazione ed eccitazione;
-sistema dispersivo (monocromatore o policromatore);
-rivelatore (fotomoltiplicatore);
-sistema di controllo, acquisizione ed elaborazione dei dati.
Sistema di atomizzazione ed eccitazione
Il sistema di atomizzazione ed eccitazione ICP è costituito principalmente da un generatore di
radiofrequenza, un circuito adattatore d’impedenza, una bobina e torcia, una unità di intro
PARTE GENERALE
duzione e trasporto del campione alla torcia stessa. Il generatore di radiofrequenza fornisce la
corrente ad alta frequenza alla bobina e comprende un oscillatore a frequenza libera o fissa.
Nei generatori a frequenza libera la frequenza di oscillazione varia in funzione dell’impedenza
del plasma, mentre in quelli a frequenza fissa controllata a quarzo, la frequenza è mantenuta
costante da un cristallo piezoelettrico. Tutti i generatori a radiofrequenza vengono schermati
a norma di legge e periodicamente controllati. Il campo delle frequenze utilizzabili è compreso
tra 1,6 e 60 MHz. La maggior parte degli spettrometri commerciali a frequenza stabilizzata
opera sulla frequenza di 27,12 o di 40,7 MHz anche per ottemperare alle norme di
legge. La potenza in uscita può variare da 0,5 a 7 kW, anche se per la maggior parte degli
spettrometri commerciali è compresa tra 1-2 kW. Con i solventi organici è necessario adottare
valori di potenza più elevati rispetto a quelli delle soluzioni acquose mentre l’uso di gas poliatomici
(es. azoto), quale gas di supporto richiede potenze superiori rispetto a quelle richieste
dai gas nobili. Esistono diversi tipi di torce che si differenziano tra di loro per forma, dimensioni
e numero di camere coassiali. In genere, la torcia è costituita da uno o più tubi concentrici
(di solito tre) in materiale refrattario non conduttore (quarzo o allumina). Il gas plasmageno
fluisce nel condotto più esterno con portate che dipendono dalle dimensioni della torcia.
Il gas entra nel condotto tangenzialmente; in tal modo assume una traiettoria a spirale entro
la quale transita longitudinalmente il gas di trasporto del campione. Il gas che fluisce nel
condotto più esterno è anche chiamato gas di raffreddamento del plasma, mentre il gas più interno
viene chiamato gas di trasporto. L’unità di trasporto del campione alla torcia è generalmente
costituita, nel caso di campioni liquidi, da un nebulizzatore per la formazione dell’aerosol
e da una camera (analoga alla camera di premiscelazione degli atomizzatori in fiamma
impiegati nella spettrometria di assorbimento atomico) che trattiene le goccioline di maggiori
dimensioni prima che l’aerosol entri nella torcia. Il nebulizzatore può essere di tipo pneumatico
(con flussi concentrici o tangenziali), microconcentrico, ad ultrasuoni o di tipo Babington.
Quest’ultimo viene usato per le soluzioni viscose ad elevato contenuto di sali e per le sospensioni.
Tali nebulizzatori sono molto simili a quelli utilizzati per la spettroscopia di assorbimento
(AAS) ma differiscono da questi per quanto riguarda la portata del gas. Infatti mentre
nel caso della spettroscopia AAS, la portata è di circa 10 L·min-1 per l’ICP è mantenuta a circa
1 L·min-1. Di conseguenza il sistema di nebulizzazione dell’ICP richiede, rispetto al sistema
AAS, tempi più lunghi per la stabilizzazione, possiede una minore efficienza ed è più soggetto
a problemi di intasamento. La soluzione da analizzare viene introdotta nel nebulizzatore
mediante una pompa peristaltica. Per la determinazione di elementi volatili o che liberano idruri
volatili (As, Sb, Se e Te), si può utilizzare, analogamente a quanto avviene per la spettrometria
di assorbimento atomico, una speciale unità per la formazione ed il trasferimento del-
l’idruro.
Sistema ottico dispersivo
Tale sistema consente il trasferimento, la dispersione e la selezione delle radiazioni elettromagnetiche
emesse ed in genere comprende:
1) un sistema di lenti e/o specchi;
2) un monocromatore.
Tra la torcia ed il monocromatore viene generalmente posta una lente biconvessa la quale ha
la funzione di focalizzare l’immagine sulla fenditura d’ingresso del monocromatore. Quest’ultimo,
che costituisce il cuore del sistema di dispersione delle radiazioni emesse, è costituito
da: una fenditura di ingresso delle radiazioni emesse, un collimatore, un elemento disperdente
ed una fenditura di uscita che permette di selezionare le bande spettrali analitiche
della radiazione elettromagnetica emessa. Il sistema disperdente può anche essere costituito
da un policromatore capace di selezionare più di una banda spettrale alla volta per mezzo
di fenditure fisse opportunamente posizionate, in rapporto alla geometria dell’insieme, in modo
da intercettare e selezionare le lunghezze d’onda d’interesse. La larghezza e l’altezza della
fenditura possono essere variate con continuità o per passi discreti, in modo da stabilire la
larghezza della banda passante ed il fattore spettrale di trasmissione. Il collimatore produce
PARTE GENERALE
un fascio parallelo di radiazioni uscenti dalla fenditura d’ingresso. Con il monocromatore è
possibile selezionare una banda di lunghezze d’onda alla volta e, pertanto, l’esame dell’intero
spettro viene effettuato variando l’angolo dell’elemento disperdente rispetto alla radiazione
incidente; ciò è realizzato con un controllo motorizzato a passi oppure continuo (spettrometro
sequenziale). Con il policromatore è possibile esaminare più bande spettrali alla volta
e quindi analizzare più elementi contemporaneamente (spettrometro simultaneo). Molti
spettrometri sono muniti di entrambi i sistemi. Quando si opera nella banda spettrale al di sotto
della lunghezza d’onda a cui interferisce l’ossigeno atmosferico (circa 190 nm), occorre
collocare il sistema ottico sotto vuoto o in flusso di gas inerte (es. azoto). Generalmente sono
sufficienti 30 minuti per creare le condizioni di vuoto, necessarie all’effettuazione dell’analisi.
Indipendentemente dal tipo di spettrometro utilizzato, simultaneo o sequenziale, il sistema
ottico deve sempre essere caratterizzato da un elevato potere risolvente (0,01-0,02 nm) e da
una ridotta luce diffusa.
Rivelatore delle radiazioni
Come rilevatore viene solitamente impiegato un fotomoltiplicatore che converte le intensità
delle radiazioni elettromagnetiche emesse in segnale elettrico. Esso è costituito da una cellula
fotoelettrica e da un sistema di amplificazione racchiusi in un tubo di vetro in cui si è praticato
un vuoto molto spinto. La regione spettrale di lavoro del fotomoltiplicatore è determinata
dallo strato fotosensibile applicato sul catodo e dal materiale costitutivo della finestra della
fotocellula. I principali parametri di qualità del fotomoltiplicatore sono la sensibilità e la corrente
di buio. La sensibilità globale di un fotomoltiplicatore dipende da fattori quali il materiale
di cui è composto il catodo, la geometria, il numero di salti (dinodi), la tensione applicata
e la frequenza (energia) dei fotoni incidenti. In genere la sensibilità è molto elevata e tipicamente
può raggiungere i 100-200 ampere/lumen. Per corrente di buio si intende la corrente
che fluisce verso l’anodo in assenza di illuminazione del catodo. Questa è dovuta principalmente
all’emissione termoionica di elettroni e quindi dipende dalla temperatura e dal potenziale
di estrazione di elettroni dal fotocatodo. Nei moderni spettrometri di tipo simultaneo
vengono utilizzati rivelatori allo stato solido, che stanno rapidamente sostituendo i vecchi fotomoltiplicatori.
Questi rivelatori sono formati da numero notevole di “chip” fotosensibili di silicio
in grado ciascuno di coprire una zona spettrale dell’ampiezza di circa 0,4 nm.
Sistema di acquisizione ed elaborazione dati
Il sistema di acquisizione ed elaborazione dati è in genere costituito da un’unità gestita da
elaboratore il quale controlla anche i parametri dello spettrometro e in certe configurazioni
anche quelli della torcia, del generatore e dell’unità di introduzione. Il sistema provvede al-
l’acquisizione ed elaborazione dei valori misurati dal rivelatore e alla memorizzazione di tutti
i dati e delle variabili operative.
3.3 Metodi elettrochimici
3.3.1 Potenziometria
La potenziometria può essere definita come il metodo di misura della forza elettromotrice
fra due elettrodi di una cella galvanica. Per convenzione nella scala dei potenziali si assume
uguale a zero il potenziale dell’elettrodo normale ad idrogeno che consiste di una soluzione
ad attività idrogenionica unitaria, nella quale è immersa una laminetta di platino
ricoperta di nero di platino, cioè di metallo allo stato finemente suddiviso, caratterizzato
pertanto da un’elevata attività superficiale, su cui gorgoglia idrogeno gassoso alla pressione
di 1 atmosfera. Il potenziale di un elettrodo è perciò numericamente uguale alla differenza
di potenziale misurata ai capi della cella galvanica di analisi, soltanto nel caso in
cui l’altro elettrodo, elettricamente connesso al primo con una opportuna giunzione, sia
quello normale ad idrogeno.
Al fine di evitare variazioni della forza elettromotrice (f.e.m.) della cella è necessario effet
42
PARTE GENERALE
tuare la misura senza che vi sia erogazione sensibile di corrente. La misura della f.e.m. viene
quindi effettuata con il metodo in opposizione, cioè contrastando l’erogazione suddetta
con un sistema costituito da una batteria e da un partitore di tensione.
Gli strumenti impiegati per tale tipo di misura sono i potenziometri ed i pHmetri, che operano
con impedenze di ingresso di parecchie centinaia di megaohm, per cui consentono erogazioni
di corrente del tutto trascurabili da parte della cella di misura.
Le tecniche potenziometriche di interesse generale sono fondamentalmente di due tipi:
1) misura di f.e.m. di cella;
2) titolazioni potenziometriche.
Le misure di f.e.m. di cella vengono eseguite al fine di studiare le grandezze termodinamiche
delle reazioni chimiche (la variazione di energia libera di una reazione di carica o di scarica
di una pila è direttamente proporzionale alla f.e.m. di questa) e per determinare le attività
ioniche; infatti, il potenziale di un elettrodo varia linearmente con il logaritmo dell’attività delle
specie ioniche interessate alla reazione elettrodica, per cui dalla sua misura si può ricavare
il valore dell’attività (e quindi in prima approssimazione della concentrazione) degli ioni
rispetto ai quali l’elettrodo stesso è sensibile. Se due elettrodi dello stesso tipo, immersi in soluzioni
ad attività diverse a1>a2, sono combinati a formare una cella, la forza elettromotrice
di questa è data dall’espressione
Una cella di questo tipo viene detta pila a concentrazione e può essere impiegata per determinare
l’attività relativa di uno ione in due soluzioni.
L’esempio più importante di questo tipo di misura è la determinazione del pH di una soluzione
che, in effetti, è un’operazione di confronto del pH di una soluzione tampone di riferimento
con quello della soluzione in esame. Il potenziale di un elettrodo per la misura del pH varia
linearmente con il logaritmo dell’attività degli idrogenioni
ovverossia, per T=25°C e tenuto conto della definizione di pH (= - log aH+) e del passaggio
dai logaritmi naturali a quelli decimali:
In pratica la misura del pH si effettua con vari tipi di elettrodo, per tutti però valendo una relazione
del tipo di quella scritta fra il potenziale ed il pH.
Gli elettrodi più comunemente impiegati in laboratorio sono quello a vetro, quello a idrogeno,
quello a chinidrone e quello ad antimonio/ossido di antimonio. L’elettrodo a vetro, a causa del
valore assai elevato della sua resistenza elettrica, richiede l’impiego di un potenziometro (pHmetro).
Tale elettrodo presenta rispetto agli altri, il vantaggio di non risentire della presenza nella
soluzione da analizzare di sostanze ossidanti o riducenti e di fornire risultati precisi su un vasto
campo di pH, dimostrandosi inefficiente soltanto in soluzioni molto acide o molte alcaline.
Le titolazioni potenziometriche sono titolazioni nelle quali la forza elettromotrice di una cella
o il potenziale di un elettrodo vengono misurati man mano che alla soluzione da titolare viene
aggiunta la soluzione del titolante. Generalmente uno degli elettrodi della cella è un elettrodo
di riferimento, ad esempio un elettrodo a calomelano, collegato per mezzo di un ponte
salino alla cella di titolazione che contiene la soluzione da analizzare nella quale è immerso
l’elettrodo indicatore. Il potenziale di quest’ultimo varia secondo un’equazione del tipo
PARTE GENERALE
in funzione dell’attività a (concentrazione) dello ione che deve essere quantitativamente determinato
nella titolazione.
Gli elettrodi indicatori si distinguono fondamentalmente in quattro tipi:
1) Elettrodi indicatori di cationi cioé degli ioni metallici corrispondenti al metallo
di cui è costituito l’elettrodo stesso. Ad esempio nel caso di una laminetta
di Ag in soluzione di ioni Ag+ il potenziale dell’argento dipende dall’attività
(concentrazione) degli ioni Ag+ secondo l’equazione di Nernst:
2) Elettrodi indicatori di anioni capaci di formare col catione del metallo elettro-
dico un sale assai poco solubile. Nel caso di un elettrodo di argento immerso
in una soluzione contenente ioni Ag+ e Cl-si ha
ma essendo Kps = aAg+·aCl-si ha
3) Elettrodi indifferenti indicatori di sistemi redox, il cui potenziale risente delle
attività (concentrazioni) delle specie presenti in soluzione in quanto varia al
variare di esse, secondo un’equazione logaritmica del tipo di quella di Nernst.
Ad esempio, un elettrodo di Pt immerso in una soluzione contenente ioni
Fe3+ e Fe2+ assume il potenziale
ed ogni variazione dell’attività (concentrazione) di Fe3+ e Fe2+ provoca una variazione del potenziale
E dell’elettrodo.
4) Elettrodi a membrana: sono caratterizzati dal fatto di essere costituiti da una
membrana permeabile ad alcune specie ioniche. Questa permeabilità provoca
sulle due facce della membrana la formazione di una certa differenza di
potenziale che è funzione della concentrazione della specie a cui la membrana
è permeabile. Il caso più semplice degli elettrodi a membrana è quello del-
l’elettrodo a vetro costituito da una membrana di vetro speciale permeabile
solo agli ioni idrogeno.
Sono attualmente disponibili sul mercato diversi tipi fondamentali di elettrodi a membrana. Il
primo funziona per mezzo di una membrana costituita da uno scambiatore liquido di ioni, il
secondo è caratterizzato da una membrana solida omogenea costituita in genere da uno strato
di sale d’argento insolubile, nel terzo la membrana solida eterogenea è sostituita da gomma
al silicone o polietilene impregnata di un sale insolubile; nel quarto, detto a diffusione gassosa,
una membrana di opportuna porosità separa la soluzione in esame, nella quale si fa
sviluppare il gas (generalmente mediante acidificazione), da una di riferimento il cui pH varia
per effetto del gas che, passando attraverso la membrana, diffonde in essa. I più selettivi
sono indicati in Tab. 5.
PARTE GENERALE
vetro pH H+ 0-14 0-14 Na+
vetro sodio Na+ 0-6 7-10 Ag+, K+
vetro argento Ag+ 0-7 4-8 Na+, K+
vetro cationi Ag+, K+, NH4
+, 0-6 4-10
monovalenti Na+, Li+
porosa calcio Ca2+ 0-5 7-11 Ba2+, Sr2+, Ni2+,
Mg2+, Na+
AgCl cloruro Cl-0-4 0-14 S2-, I-, CN-
AgBr bromuro Br-0-5 0-14 Cl-, OH-
AgI ioduro I-0-7 0-14 S2-, CN-, Br-, Cl-
Ag2S solfuro S2-0-20 0-14 nessuna
cristallo fluoruro F-0-6 0-8 nessuna
porosa cationi bivalenti Pb2+, Ni2+, Fe2+, Ca2+, 1-5 5-11
Mg2+, Ba2+, Sr2+
porosa rame Cu2+ 1-5 4-12 K+, Na+
porosa perclorato ClO4
-1-4 …. I-, Br-, NO3
-, SO4
2-, Cl-
silicone ioduro I-1-7 …. OAc-, F-, HCO3
-
silicone solfato SO4
2-1-5 …. S2-,Cl-, SO3
2-, PO4
3-
silicone fosfato PO4
3-1-5 …. Cl-, SO4
2-, Co2+, S2-, Br-, I-
silicone nickel Ni2+ 1-5 …. S2-, Br-, I-
silicone cloruro Cl-1-5 …. S2-, I-
silicone bromuro Br-1-6
polietilene cloruro Cl-soluz. satura-5 0-14 S2-, Br-, I-, CN-
polietilene bromuro Br-soluz. satura-6 0-14 I-, CN-, S2-
polietilene ioduro I-soluz. satura-7 0-14 S2-
polietilene solfuro S2-
polietilene cianuro CN-2-5 0-14 S2-, Br-, I-
polietilene ioni rameici Cu2+ 0-8 0-14 Ag+, Mg2+, Fe3+,
Cu+,Sb3+, Cr3+
Tabella 5: Caratteristiche degli elettrodi a membrana più selettivi
Tipo di membrana Denominazione
elettrodo Ione determinabile p-ione pH Interferenze
Mentre gli elettrodi in commercio più comuni di quest’ultimo tipo sono quelli per la determinazione
di ammoniaca, di ossido di carbonio e ossido di azoto, dei primi tre tipi schematizzati
in Fig. 8 sono reperibili numerosi esempi.
Figura 8: Schemi di elettrodi indicatori. a = scambiatore liquido; b = membrana di vetro poroso; c = soluzione
AgNO3; d = membrana a cristalli in alogenuro; e = soluzione di alogenuro; f = membrana di gomma al silicone im-
pregnata con alogenuro.
Per avere a disposizione metodi sempre più rapidi e selettivi, o comunque alternativi, in varie
sedi di ricerca e di controllo, recentemente è stata presa in considerazione l’ipotesi di adotta
PARTE GENERALE
re, per la determinazione di alcuni indici, metodi basati sull’impiego di elettrodi iono-selettivi
a membrana.
Tale ipotesi ha spesso trovato difficoltà applicative sulla base della scarsa conoscenza delle
caratteristiche di impiego e di funzionamento di alcuni di questi elettrodi. In tal senso anche
le pubblicazioni scientifiche disponibili e lo stesso manuale fornito dalla ditta costruttrice in
qualche caso non sono sufficienti e comunque tali da non consentire una conoscenza tanto
approfondita dello strumento a disposizione da poterne valorizzare le potenzialità, in relazione
alla praticità, semplicità, rapidità di impiego, tenendone allo stesso tempo nel giusto
conto i limiti.
Con tale premessa si comprende come la proposta di un metodo ufficiale potenziometrico con
elettrodo a membrana richieda una definizione dettagliata delle operazioni di condizionamento,
impiego e conservazione dell’elettrodo nonché delle prove di attendibilità della sua risposta
che sole possono fare superare le difficoltà applicative suddette.
Tecniche di misura
La variazione del potenziale dell’elettrodo indicatore, e quindi della f.e.m. della cella, lontano
dal punto di equivalenza è minima, poiché l’aggiunta di una certa quantità di reattivo titolante
non produce variazioni apprezzabili di concentrazione. In vicinanza del punto di
equivalenza le concentrazioni sono esigue.
L’aggiunta di piccoli volumi percentuali di reattivo titolante produce forti variazioni percentuali
di concentrazione e quindi del potenziale, per cui al punto finale il salto della f.e.m. o
del potenziale diventa brusco (Fig. 9).
Figura 9: Curva di titolazione potenziometrica.
Teoricamente tale punto coincide con il punto di flesso della curva nel caso di curve di titolazione
simmetriche, rilevate con elettrodi indicatori reversibili e con rapporto stechiometrico di
reazione fra titolato e titolante pari ad 1. Se queste due condizioni non sono soddisfatte la curva
di titolazione è asimmetrica, per cui esiste una piccola differenza fra punto finale e punto
PARTE GENERALE
Figura 10: Curva di titolazione potenziometrica norma-
le (a), usando la derivata prima (b), o la derivata secon-
da (c).
Figura 11: Apparecchiatura per titolazione potenziome-
trica differenziale.
di flesso. Quanto più la titolazione è accurata
tanto più il punto finale coincide con il
punto di equivalenza.
Il punto di flesso può essere più agevolmente
individuato riportando in grafico la
derivata prima e la derivata seconda della
curva di titolazione (Fig. 10).
Tali curve derivate sono caratterizzate, come
si vede, dalla presenza di un massimo
(derivata prima) o di un punto di rapido
passaggio per l’asse delle ascisse (derivata
seconda) e sono più evidenti del punto di
flesso.
La curva derivata prima può anche essere
determinata direttamente per via sperimentale
mediante la semplice apparecchiatura
rappresentata in Fig. 11.
Come si vede la soluzione contenuta nel recipiente
di titolazione può venire aspirata
nel piccolo contagocce; successivamente si
fa un’ulteriore aggiunta di reattivo e si agita
la soluzione, che però non penetra all’interno
del contagocce che resta escluso
dall’operazione di omogeneizzazione della
concentrazione delle sostanze nei vari
punti della soluzione. Fra i due elettrodi indicatori
perfettamente uguali, uno dei quali
è immerso nella soluzione del recipiente e
l’altro nella soluzione contenuta nel contagocce,
essendo fra loro differenti le due soluzioni,
si stabilisce una f.e.m. che consente
la determinazione sperimentale, a ogni
aggiunta di titolante della grandezza
.E/.V che esprime il rapporto fra la differenza
dei valori del potenziale, che si rileva
fra i due elettrodi dopo una certa aggiunta,
e la differenza fra i volumi di reattivo
aggiunti alla soluzione del recipiente
ed a quella del contagocce. La soluzione
contenuta nel contagocce viene quindi
spurgata ed omogeneizzata con la restante
soluzione. Dopo tale omogeneizzazione
si aspira nuovamente un certo volume di
soluzione nel contagocce e si ricomincia laserie delle operazioni descritte. È così possibile
per ogni aggiunta determinare il valore
.E/.V e quindi costruire la curva derivata
della curva di titolazione. La tecnica
che è stata ora illustrata gode del vantaggio,
rispetto alla potenziometria diretta, di
non richiedere l’impiego di un elettrodo di
riferimento per effettuare la titolazione.
PARTE GENERALE
Esempi di titolazioni potenziometriche sono le titolazioni acido-base che impiegano quale
elettrodo indicatore un elettrodo sensibile allo ione idrogeno (vedi sopra), le titolazioni di ossidoriduzione
che vengono eseguite con un elettrodo indicatore inerte di platino e le titolazioni
di precipitazione e di complessazione. In teoria per quest’ultimo tipo di titolazioni ogni
metallo potrebbe fungere da indicatore dei propri ioni in soluzione; in pratica però soltanto
usando come elettrodo indicatore l’elettrodo ad argento o quello a mercurio, si possono ottenere
risultati soddisfacenti. Nella routine di laboratorio le titolazioni potenziometriche vengono
spesso condotte fino ad un potenziale di equivalenza precedentemente calcolato per il
punto finale della titolazione. Spesso le titolazioni potenziometriche vengono eseguite mediante
elettrodi bimetallici consistenti in una coppia di metalli differenti (ad esempio platino e
tungsteno); con tale sistema da un lato vengono evidenziati salti di potenziale particolarmente
elevati in corrispondenza del punto finale della titolazione e dall’altro si rende superfluo
l’impiego del ponte salino e dell’elettrodo di riferimento.
3.3.2 Conduttometria
Le titolazioni conduttometriche sono titolazioni per le quali il punto finale viene determinato
da una variazione della pendenza della curva di titolazione, ottenuta riportando la conducibilità
in funzione del volume di titolante aggiunto.
Il metodo si basa sul fatto che alla reazione di titolazione partecipano alcuni ioni in numero
e quantità tali da comportare, in corrispondenza dell’equivalenza, un cambiamento della
pendenza della variazione della conducibilità della soluzione al procedere della titolazione
stessa. Per esempio, nel caso si titoli un acido forte con una base forte prima di iniziare la titolazione
la conducibilità della soluzione è determinata dall’acido: poi, man mano che si aggiunge
la base e la titolazione procede, la conducibilità diminuisce, poiché in soluzione si forma
un sale (il cui anione è lo stesso dell’acido, ma il cui catione è senz’altro meno conduttore
dello ione idrogeno, essendo quest’ultimo più mobile) ed acqua, pressoché indissociata e,
quindi, poco conduttrice.
Lo schema della titolazione considerata può, nel suo evolversi, essere così riassunto:
H+ Cl-+ Na+ OH-. Na+ Cl-+ H2O
1) Conducibilità iniziale dovuta a [HC1]a = a = concentrazione iniziale dell’acido;
2) Conducibilità prima dell’equivalenza [HCl]x + [NaCl]y; (x+y) = a;
3) Conducibilità all’equivalenza . [NaCl]a;
4) Conducibilità dopo l’equivalenza . [NaCl]a + [OH]b + [Na+]b; b = NaOH ag
giunto dopo l’equivalenza.
Come si vede, dopo l’equivalenza la conducibilità torna a crescere per la presenza in soluzione
dello ione OH-molto mobile e, quindi, ottimo conduttore. Il diagramma di titolazione
avrà perciò, in questo caso, un andamento a V, il punto di inversione della pendenza rappresentando
il punto finale della titolazione.
Esistono però altre forme di diagramma di titolazione conduttometrica in funzione del tipo di
reazione considerata e, quindi, della qualità e del numero di ioni interessati, e della forza,
quali elettroliti, delle sostanze formate. E possibile, pertanto, avere anche diagrammi ad L e
ad L rovesciata, oppure con valori della derivata, cioé della pendenza, sempre dello stesso
segno, ma con un punto di discontinuità: in ogni caso il punto relativo ad una variazione brusca
della pendenza del diagramma di titolazione, rappresenta il punto finale della titolazione
stessa, che sarà tanto più corrispondente al punto di equivalenza quanto più accurata è la
titolazione.
Il sistema di misura è costituito da un ponte di Wheatstone alimentato in corrente alternata,
un braccio del quale è rappresentato dalla cella di titolazione nella quale sono immersi due
elettrodi di platino. Quando il ponte è bilanciato, sul quadrante dell’indicatore si legge il valore
della resistenza della soluzione fra i due elettrodi. E però possibile tarare il rivelatore direttamente
in valori di conducibilità, al fine di poter costruire, dai valori letti, il grafico di titolazione,
senza che sia necessario alcun calcolo.
48
PARTE GENERALE
Le titolazioni conduttometriche godono del vantaggio di richiedere apparecchiature semplici,
di poter essere effettuate anche in soluzioni intensamente colorate, alle quali è difficile l’applicazione
di parecchie tecniche analitiche strumentali, e di essere molto rapide. Infatti per la
costruzione del diagramma di titolazione, è sufficiente la determinazione sperimentale di pochi
punti iniziali e di pochi punti relativi ad un forte eccesso di titolante: il punto di equivalenza
viene rilevato mediante estrapolazione. Per contro esse hanno il grosso svantaggio di
non poter essere effettuate in presenza di elettroliti di supporto ad elevate concentrazioni, in
quanto, in tali condizioni, le variazioni di conducibilità risultano poco apprezzabili.
3.3.3 Polarografia
Il metodo polarografico per l’analisi di sostanze in soluzione consiste in un’elettrolisi, a potenziale
variabile, della soluzione da analizzare. Nel caso più generale, il catodo è un elettrodo
a goccia di mercurio, cioé un elettrodo la cui superficie si rinnova continuamente durante
il corso dell’analisi, mentre l’anodo può essere una larga superficie di mercurio oppure
un elettrodo a calomelano.
L’elettrodo a goccia di mercurio consiste di solito in un lungo tubo capillare di vetro (diametro
interno 0,05 mm), unito ad un serbatoio di mercurio per mezzo di un tubo flessibile. Dalla
punta del capillare, cade regolarmente una goccia di mercurio ogni 3-6 secondi. Il polarogramma
è una curva potenziale-corrente ed ha una caratteristica forma a gradini, come illustrato
in Fig. 12.
Figura 12: Esempio classico di polarogramma.
La corrente, inizialmente quasi nulla, cresce bruscamente, in corrispondenza di un determinato
potenziale ed arriva rapidamente ad un valore di saturazione che non varia più sensibilmente
per ulteriori aumenti del potenziale. Questo valore limite della corrente (id) si chiama
generalmente corrente limite di diffusione e, purché il processo di riduzione dipenda solo
dalla diffusione all’elettrodo e dalla specie riducibile, è proporzionale alla concentrazione
di questa nella soluzione in esame; su questo fatto si basa l’applicazione della polarografia
all’analisi quantitativa. Per garantire questa condizione si devono rendere nulle la corrente di
migrazione e la corrente di convezione (che insieme a quella di diffusione, sono le componenti
della corrente in una comune elettrolisi); ciò si realizza rispettivamente aggiungendo un
elettrolita di supporto a concentrazione molto maggiore (rapporto 100:1) di quella della specie
ione da dosare ed operando con la soluzione in quiete assoluta.
PARTE GENERALE
Molto spesso la corrente di diffusione non raggiunge il valore limite gradualmente, ma all’inizio
del “plateau” di corrente si osserva un picco acuto. Tale massimo dell’onda polarografica
impedisce una misura esatta dell’altezza dell’onda; di solito, per sopprimere questi massimi
si addizionano alla soluzione in esame piccole quantità di sostanze tensioattive.
L’ossigeno, sempre presente nelle soluzioni acquose, può reagire all’elettrodo a goccia di mercurio
e dare luogo a due riduzioni:
ad H2O2 a - 0,2 Volt;
ad H2O a - 1,0 Volt.
La riduzione dell’ossigeno al microelettrodo, può così originare due gradini, che interferiscono
con le onde polarografiche degli ioni ridotti nello stesso intervallo di potenziale. È pertanto
quasi sempre necessario, prima di effettuare l’analisi, desossigenare la soluzione, facendo
gorgogliare in essa una corrente di gas.
In relazione all’andamento di una curva polarografica, in precedenza descritto, devono farsi
due importanti osservazioni:
1) in corrispondenza dei valori di potenziale meno negativi di quello di innalzamento
della corrente, la corrente polarografica non è in realtà nulla: anche
in queste condizioni si ha un passaggio debole di corrente. Tale corrente è
detta residua e deve essere sottratta da quella limite per avere il valore corretto
di questa;
2) la corrente polarografica a causa della piccola superficie degli elettrodi a
goccia di mercurio, è sempre assai bassa, dell’ordine di µA.
Ciò è un fatto assai rilevante poiché, nel tempo generalmente richiesto per un’analisi polarografica,
la corrente passata, trasformata attraverso la legge di Faraday in variazione di concentrazione
della specie elettroattiva, dà per questa valori tanto bassi da poter ritenere costante
la concentrazione dello ione in studio che si vuole determinare, per cui è possibile, sulla
stessa aliquota di soluzione effettuare più prove nelle stesse condizioni della prima.
Analisi qualitativa
La polarografia viene applicata soprattutto all’analisi qualitativa delle soluzioni con tanti ioni
metallici di differente natura: in molti casi è possibile con una sola prova metterli tutti contemporaneamente
in evidenza.
Quando in soluzione sono presenti più specie ioniche da determinare, il polarogramma ottenuto
è una tipica curva a gradini in corrispondenza dei quali la corrente subisce un brusco
aumento per una piccola variazione di potenziale.
Ogni gradino (onda polarografica) corrisponde alla riduzione di una delle specie ioniche
presenti in soluzione; il potenziale del suo punto di mezzo è il potenziale di semionda E1/2
caratteristico di ogni specie ionica presente, che ne permette l’identificazione (Figg. 13 e 14).
Il valore E1/2 può essere determinato graficamente o anche calcolato per via matematica e può
variare, per una stessa sostanza, con la natura dell’elettrolita di supporto.
Esistono valori tabulati di E1/2 dei diversi cationi per diversi elettroliti di supporto, ma tuttavia nella
pratica è molto utile tracciare direttamente un polarogramma di soluzioni note e metterlo a
confronto con quello della soluzione incognita, ottenuto nelle stesse condizioni sperimentali.
L’importanza di una opportuna scelta dell’elettrolita di supporto è illustrata dal confronto dei
dati relativi al piombo e al cadmio. Questi due cationi hanno potenziali di semigradino uguali
in NaOH, ma sono assai ben separati in KCN o H3PO4 e meglio ancora in KCl (Tab. 6).
PARTE GENERALE
Figura 13: Esempio di polarogramma fornito da più specie elettroriducibili.
Figura 14: Determinazione del potenziale di semionda e dell’intensità della corrente di diffusione.
Cd2+ -0,60 -0,81 -0,78 -0,77 -1,18 t
Co2+ -1,20 t -1,29 t -1,46 t -1,20 t -1,13 t [a Co(I)]
Cr3+ ….. -1,43 t [a Cr(II)] ….. -1,02 t [a Cr(II)] –1,38 [a Cr(II)]
-1,71 t [a Cr(0)]
Cu2+ +0,04 [a Cu(I)] -0,24 [a Cu(I)] -0,41 t -0,09 NR§
-0,22 [a Cu(0)] -0,51 [a Cu(0)]
Fe2+ -1,3 t -1,49 t ….. ….. …..
Fe3+ ….. ….. -1,12 . [a Fe(II)] +0,06 [a Fe(II)]
-1,74 . [a Fe(0)]
Ni2+ -1,1 t -1,0 t ….. -1,18 -1,36
Pb2+ -1,40 ….. -0,76 -0,53 -0,72
Zn2+ -1,00 -1,35 t -1,53 -1,13 t NR§
t: riduzione irreversibile; …..: indica insufficiente solubilità, o informazioni non del tutto esaurienti; NR§: ione non
riducibile nell’ambito indicato; .: soluzione 3 M di KOH col 3% di mannitolo; a: prodotto della riduzione
Tabella 6: Valori di potenziale di semigradino per alcuni cationi in vari elettroliti di supporto (vs elettrodo a calome-
lano saturo, ECS)
catione
KCl (0,1 F)
NH3 (1 F)
NH4Cl (1 F)
NaOH (1 F) H3PO4 (7,3 F) KCN (1 F)
supporto
PARTE GENERALE
Analisi quantitativa
Le possibilità di analisi quantitativa della polarografia sono correlate alla dipendenza diretta
della corrente limite netta, corretta cioè per la corrente residua, dalla concentrazione della
specie elettroattiva. Se sono presenti in soluzione più specie elettroattive tale dipendenza è
espressa dalla equazione di Ilkovic:
Id = corrente limite di diffusione espressa in microampère;
n = numero degli elettroni che partecipano alla reazione elettrodica;
C = concentrazione della specie ionica ossidata o ridotta all’elettrodo a goccia di mercurio;
t = tempo di gocciolamento, espresso in secondi, tra una goccia e la successiva;
m = massa di mercurio che fluisce dal capillare espressa in mg/sec;
D = coefficiente di diffusione espresso in cm2/sec della specie da determinare alla cui riduzione
o ossidazione è dovuta la corrente Id.
Se sono presenti in soluzione più specie elettroattive, la corrente limite corrispondente ad ogni
gradino viene misurata sottraendo al totale il contributo dato dalle precedenti.
Per determinare la concentrazione di un certo ione a partire dalla misura della corrente limite
corretta esistono vari metodi, i più impiegati dei quali sono il metodo della retta di taratura
e il metodo delle aggiunte.
Il metodo della retta di taratura si basa sulla costruzione di una retta nel piano concentrazione
(ascisse) - corrente (ordinate): si preparano diverse soluzioni dello ione che si vuole determinare
aventi concentrazioni differenti e si determina la corrente media del gradino in regime
di saturazione (quando cioè essa non cresce più al crescere del potenziale, per lo meno entro
un certo intervallo) per le diverse soluzioni. Si riportano i due dati uno in funzione dell’altro e
si entra nella retta così ottenuta con il valore della corrente limite rilevata per la soluzione a
concentrazione incognita: il valore di quest’ultima viene ricavato sull’asse delle ascisse.
Il metodo delle aggiunte consiste nell’aggiungere ad un volume noto V della soluzione a concentrazione
incognita CX un volume noto v di una soluzione a concentrazione nota CN della
stessa specie e nel rapportare i valori della corrente limite rilevati ai valori delle rispettive concentrazioni
prima e dopo l’aggiunta (rispettivamente i’e i’’).
max max
3.3.4 Amperometria
Le titolazioni amperometriche sono titolazioni che si conducono in condizioni polarografiche,
cioè quando la corrente è controllata dalla diffusione. Tali condizioni si realizzano, come si è
visto, operando in quiete ed in presenza di un elettrolita di supporto la cui concentrazione sia
almeno 50-100 volte maggiore di quella della specie che deve essere titolata. Le titolazioni
amperometriche consistono nella misura della corrente limite di diffusione al variare nella soluzione
della concentrazione della specie che si vuole determinare quantitativamente. Esse si
basano sulla legge di Ilkovic che garantisce la proporzionalità diretta fra corrente polarografica
limite di una certa onda e concentrazione della specie al cui processo elettrodico (catodico
ed anodico) l’onda in questione viene attribuita. Durante una titolazione amperometrica
è ovviamente necessario che il potenziale dell’elettrodo di lavoro al quale, cioè, avviene
l’ossidazione o, come più spesso accade, la riduzione della specie da titolare, sia rigorosamente
costante: ciò affinché sia lecito attribuire ogni variazione della corrente limite soltanto
a variazioni della concentrazione del titolando, provocate da aggiunte del titolante.
In relazione al tipo di titolazione, che utilizza quale mezzo indicatore la corrente limite del-
l’elettrolisi polarografica, possono presentarsi diversi casi, cioè che:
52
PARTE GENERALE
-il titolando sia elettrochimicamente attivo – cioè dia luogo ad un processo di riduzione
o di ossidazione – nel campo di potenziale esplorato ed il titolante no;
-sia attivo il titolante, ma non il titolando;
-siano attivi entrambi.
Non possono essere risolte mediante la tecnica amperometrica quelle titolazioni in cui né il titolante
né il titolando siano elettrochimicamente attivi.
Ciascuno dei tre casi considerati può a sua volta, presentare due sottocasi, a seconda, cioè
che il prodotto della reazione di titolazione sia attivo o inattivo al potenziale a cui si conduce
l’esperienza. Nel primo di questi due sottocasi le cose si complicano alquanto e per giungere
a risultati di una certa attendibilità è necessario controllare rigorosamente le condizioni
sperimentali ed effettuare una saggia ed abile manipolazione dei dati ottenuti. Il secondo sottocaso,
invece, è quello che quasi sempre si cerca di realizzare nei problemi analitici, in
quanto di più agevole risoluzione.
Consideriamo ora i tre casi precedentemente esposti. Nel primo di essi, supponendo che la
specie da titolare presente in soluzione sia A e che la specie titolante sia B, per cui alla titolazione
corrisponde la reazione:
A + B . AB
si osserverà che man mano che si aggiunge B ad A, la corrente dovuta alla riduzione (od
all’ossidazione) di A diminuisce, raggiungendo un valore minimo oltre il quale le ulteriori
aggiunte di B non influenzano il valore della corrente. Tale valore di corrente in assenza di
altre specie diverse da A, B ed AB corrisponde – o, meglio, deve corrispondere – alla corrente
polarografica residua; ove ciò non accada, la scelta del reattivo B non è stata eseguita
in modo opportuno, in quanto tale reattivo non è in grado di abbassare, al di sotto del limite
minimo di rivelabilità del metodo impiegato, la concentrazione di A. Per chiarire meglio
questo concetto, osserviamo che A e B possono reagire insieme per formare o un composto
poco solubile che precipita, oppure un complesso stabile che sposta il potenziale di
scarica di A a valori tanto più negativi quanto più stabile è il complesso: nell’un caso e nel-
l’altro A, mediante la sua reazione con B, viene posto in una forma nella quale esso, al potenziale
a cui era elettrochimicamente attivo come ione semplice o solvatato, non è più in
grado di ridursi od ossidarsi. Ovviamente la scelta di B è di fondamentale importanza per
l’attendibilità della titolazione: B, cioè, deve essere tale che il prodotto AB sia caratterizzato
da un valore molto basso del Kps (prodotto di solubilità), se la reazione è una reazione di
precipitazione oppure da un valore molto elevato della costante di stabilità, se la reazione
stessa è una reazione di complessazione. La reazione può anche essere, meno comunemente,
una reazione di ossido-riduzione: in tal caso, estendendo ad essa i concetti finora
esposti, è necessario, affinchè sia garantita al massimo la quantitatività della determinazione,
che i potenziali di ossido-riduzione della coppia di cui fa parte A e della coppia di cui
fa parte B siano nettamente diversi.
Il grafico di titolazione, costruito riportando la corrente limite in funzione del volume di titolante
aggiunto, deve tenere conto anche dell’effetto di diluizione dovuto al fatto che per l’aggiunta
di un certo volume di B, la parte di A che non ha ancora reagito si trova diluita in un
volume maggiore di quello di partenza. Tale effetto può essere corretto riportando in ordinata
non la corrente che si misura, bensì il valore che si ottiene moltiplicando il dato sperimentale
per il rapporto fra il volume totale corrispondente all’aggiunta fatta ed il volume di partenza,
la differenza fra i due volumi essendo logicamente il volume di titolante fino a quel momento
impiegato. L’effetto della diluizione sarà tanto più sentito quanto più è diluita la concentrazione
del reattivo aggiunto. Al limite, se si usa un reattivo ad una concentrazione molto
più elevata di quella della specie da dosare, l’effetto di diluizione è quasi nullo; ma, così
operando, il punto finale della titolazione, cioè il volume di reattivo aggiunto fino all’equivalenza,
è rilevabile con scarsa precisione.
Il grafico di titolazione, corretto come detto sopra, risulterà, nel caso che stiamo considerando
(A elettrochimicamente attivo, B no), a forma di L, il punto di discontinuità rappresentando
il punto finale della titolazione.
PARTE GENERALE
Nel secondo caso (B elettrochimicamente attivo, A no) la curva di titolazione è ad L rovesciato:
infatti finchè reagisce con A, B non può rimanere come tale in soluzione e quindi reagisce
all’elettrodo di lavoro. Dopo il punto di equivalenza, invece, l’eccesso di B può ridursi (od ossidarsi)
al potenziale prescelto, per cui sarà possibile rilevare una corrente di intensità crescente
al crescere del volume di B aggiunto.
Nel terzo caso (A e B elettrochimicamente attivi), infine, l’andamento del grafico risulterà del
tipo del primo caso fino al punto di equivalenza, cioè fino a quando in soluzione prevale A
e del tipo del secondo caso dopo l’equivalenza, cioè quando in soluzione prevale B; ne risulterà
un diagramma a V, il punto di inversione della pendenza rappresentando il punto finale
della titolazione.
I tre casi sono illustrati dalla Fig. 15.
Figura 15: Grafico di titolazione della sostanza A con la sostanza B. I) A elettrochimicamente attivo, B no; II) B elettrochimicamente
attivo, A no; III) A e B elettrochimicamente attivi.
Poiché il punto finale della titolazione – che quanto più questa è accurata tanto più corrisponderà
al punto di equivalenza – viene individuato come si è visto attraverso una varia
PARTE GENERALE
zione di pendenza, nelle titolazioni con grafico a V, per le quali questa variazione è maggiore,
si hanno in genere risultati più attendibili che negli altri due casi.
Nelle titolazioni amperometriche i punti più rappresentativi al fine di individuare il punto di
equivalenza sono quelli lontani da esso, per i quali gli equilibri in soluzione vengono a stabilirsi
più rapidamente, essendo in eccesso una delle due specie interessate alla reazione di
titolazione, e consentono di prescindere parzialmente dalle rigide considerazioni di quantitatività
all’equivalenza, precedentemente fatte a proposito della scelta del reattivo B: è opportuno
perciò effettuare le misure in forte eccesso di titolando ed in forte eccesso di titolante.
3.4 Metodi cromatografici
La cromatografia è un metodo di separazione e di analisi di natura prettamente fisica caratterizzato
dal fatto che le sostanze vengono separate sulla base di un differente coefficiente di
distribuzione fra due fasi, immiscibili tra loro, delle quali una è fissa e l’altra mobile.
La cromatografia è quindi un particolare tipo di separazione mediante distribuzione tra due
fasi, analogo all’estrazione in controcorrente dove però entrambe le fasi sono mobili. A seconda
dello stato di aggregazione della fase fissa, si parlerà di cromatografia di adsorbimento
e cromatografia di partizione.
Nella prima la fase stazionaria è un solido, nella seconda un liquido; quindi, se si conduce
un’esperienza cromatografica ad elevata temperatura utilizzando una fase stazionaria liquida,
anche se questa a temperatura ambiente è solida, parleremo di cromatografia di partizione.
Sia la cromatografia di adsorbimento che quella di partizione possono a loro volta essere distinte
in due classi: cromatografia liquida, con fase mobile liquida, e cromatografia gassosa,
con fase mobile gassosa. Si può pertanto fare il seguente quadro riassuntivo (Tab. 7):
Fase mobile Tipo di cromatografia
Tabella 7: Quadro riassuntivo dei metodi cromatografici
PARTIZIONE L LL
(fase stazionaria liquida) G LG
ADSORBIMENTO L SL
(fase stazionaria solida) G SG
Esistono inoltre tecniche in cui il fenomeno cromatografico è accoppiato ad un altro di varia
natura: si parla allora di elettrocromatografia (fenomeno cromatografico accoppiato all’effetto
di un campo elettrico) oppure cromatografia per scambio ionico (la fase stazionaria oltre
che a funzionare da fase cromatografica, contiene dei gruppi suscettibili di scambio con gruppi
presenti nelle soluzioni da analizzare).
3.4.1 Cromatografia su carta
È un caso particolare della cromatografia liquido-liquido (LL) dove la fase mobile è un liquido,
generalmente un solvente organico o una miscela di solventi, mentre la fase fissa è costituita
da un altro liquido, acqua, adsorbito da un supporto inerte (carta per cromatografia sono
le Whatman e le Schleicher e Schull).
La cromatografia su carta può essere condotta secondo le tecniche ascendente o discendente,
che, a loro volta, possono essere mono o bidimensionali. In quella discendente il solvente
eluente cade dall’alto verso il basso mentre nell’altra sale dal basso. La differenza sostanziale
sta nel fatto che, delle tre forze che si compongono nel processo (effetto cromatografico, effetto
di flusso, effetto di gravità) nel caso della tecnica ascendente l’effetto di gravità si oppone
alla forza di flusso ed agevola l’effetto cromatografico, mentre nel caso della discendente
si verifica il contrario.
La cromatografia ascendente viene preferita nel caso di solventi molto mobili o quando, a
causa della presenza di specie assai simili, è necessario allungare sensibilmente i tempi di
esperienza.
55
PARTE GENERALE
Per la realizzazione pratica di una cromatografia monodimensionale discendente si utilizzano
strisce di carta alla cellulosa sulle quali viene praticato un segno orizzontale a 3-4 cm da
uno degli estremi. Al centro di tale segno si pone una quantità di soluzione contenente circa
100 mg di sostanza.
Si piega un estremo della striscia (Fig. 16) e lo si fa pescare in una vaschetta dalla quale per
capillarità e gravità percola il solvente, generalmente di natura organica, che eluisce le sostanze
sulla striscia trascinandole verso il basso tanto più facilmente quanto più facilmente le
solubilizza. Quindi, a seconda di come le sostanze da analizzare si distribuiscono tra la fase
acquosa e la fase organica, il cammino da esse percorso sulla striscia è più o meno lungo.
Figura 16: Apparecchiatura per cromatografia su carta discendente (a) e ascendente (b).
Si definisce Rf il rapporto tra il cammino percorso dal solvente e quello percorso dalla sostanza.
Tanto maggiore è tale valore tanto più la sostanza è solubile nella fase organica; al contrario,
tanto minore è l’Rf tanto più la sostanza è solubile nella fase acquosa. Per la scelta del solvente
da impiegare nella separazione di una sostanza si fa generalmente riferimento alla sua polarità.
Solventi molto polari interagiscono di solito con sostanze polari di analoga struttura molecolare,
mentre solventi poco polari o non polari interagiscono con composti poco polari o non
polari di struttura simile. In base a tali osservazioni, per la separazione dei costituenti una miscela,
la scelta dell’eluente viene fatta sulla base di una serie eluotropica in modo da ottenere
valori di Rf diversi da uno e da zero. Nel caso di ioni metallici, poiché, come è noto, essi sono
scarsamente solubili nelle fasi organiche al contrario delle loro forme complesse, a volte, per separare
tra loro due ioni, si sfrutta la diversa stabilità dei loro complessi con uno stesso ligando.
Nel caso della cromatografia bidimensionale, il processo cromatografico viene effettuato lungo
due direzioni, impiegando generalmente due solventi diversi. Tale tecnica viene generalmente
impiegata per miscele complesse in cui le varie sostanze non riescono ad essere convenientemente
separate per mezzo di un’unica miscela eluente. Il campione da analizzare viene
posto nell’angolo sinistro del foglio di carta (20x20 cm) e si esegue la separazione cromato-
grafica con un primo solvente. Quando il fronte del solvente sarà giunto a due centimetri dal
bordo superiore del foglio, lo si toglie dalla vaschetta cromatografica, lo si asciuga con aria
calda e lo si immerge in un’altra vaschetta cromatografica contenente un secondo solvente,
normalmente alla direzione precedente (Fig. 17).
Alcuni accorgimenti generali da adottare nel corso della cromatografia su carta sono:
-condurre l’esperienza in una campana previamente saturata con i vapori del
solvente organico che si vuole utilizzare;
-sciogliere la sostanza da analizzare in un opportuno solvente volatile, quindi,
posta la soluzione nel punto di applicazione prefissato, evaporare il solvente;
-interrompere l’eluizione prima che il solvente abbia raggiunto il limite superiore
della striscia di carta.
PARTE GENERALE
Figura 17: Esempio di cromatogramma bidimensionale.
Terminata la separazione, si estrae la carta e la si fa asciugare con aria calda o in stufa e la
si sviluppa, la si spruzza cioè con soluzioni di opportuni reattivi (rivelatori) che reagiscono
con le sostanze da analizzare. La fase di sviluppo è quella che ha dato il nome alla cromatografia
giacché si basa sulla formazione di macchie colorate dovute a prodotti di reazione
fra le sostanze in esame ed il rivelatore.
Il metodo cromatografico su carta può dare informazioni sia qualitative che quantitative; per
l’analisi qualitativa sono sufficienti le colorazioni sviluppatesi per azione degli appositi reattivi
ed i valori degli Rf; per l’analisi quantitativa invece si possono utilizzare due metodi. Il primo
consiste nel tagliare la zona della carta corrispondente alle varie macchie e nell’estrarre
dalla carta stessa, con un opportuno solvente, la sostanza che poi viene quantitativamente determinata
allo spettrofotometro con misure colorimetriche. Il secondo metodo consiste nell’analizzare
la striscia di carta con un microdensitometro misurando l’assorbimento della luce
da parte della carta. Alle zone colorate della macchia corrispondono dei massimi di assorbimento.
Questi massimi vengono rilevati sotto forma di picchi, la cui area può essere presa,
in prima approssimazione, come espressione della quantità di sostanza che ha dato luogo alla
macchia colorata letta.
3.4.2 Cromatografia su strato sottile
La cromatografia su strato sottile è un metodo microanalitico che si è notevolmente affermato,
perchè ha reso possibili separazioni non attuabili con la cromatografia su carta e
perchè ha trovato estese e numerosissime applicazioni, sia su scala analitica che preparativa.
Permette di estendere le tecniche della cromatografia su carta agli adsorbenti usati
nella cromatografia su colonna e può così assommare i principali vantaggi delle altre due
tecniche.
Il limite minimo di rivelabilità è notevolmente aumentato rispetto alla cromatografia su carta
e, nei casi più favorevoli, può raggiungere 10-9 grammi (ng). Il tempo di esecuzione è notevolmente
ridotto (da qualche ora a 20-40 minuti); la natura inorganica del supporto permette
l’uso di rivelatori più energici, non sempre applicabili su carta.
È una tecnica molto simile alla cromatografia su carta per quanto riguarda le modalità ope
57
PARTE GENERALE
rative (applicazione del campione, rivelazione, determinazione, ecc.); viene generalmente
condotta secondo il metodo ascendente mono e bidimensionale.
Per quanto concerne i principi che regolano il frazionamento, il processo cromatografico è di
ripartizione, se lo strato applicato sulla lastra è polvere di cellulosa, di adsorbimento se lo
strato è costituito da gel di silice o allumina.
Si possono comunque preparare lastre con scambiatori ionici o con polimeri porosi e in questi
casi il processo cromatografico sarà di scambio ionico o di gel permeazione.
3.4.3 Cromatografia su colonna
Per realizzare una cromatografia con quantità di sostanza maggiore di quella dosabile mediante
cromatografia su carta o su strato sottile, si applica la tecnica della cromatografia su
colonna.
Nella cromatografia su colonna il riempimento è effettuato con un solido, generalmente a granulometria
di 100-200 mesh, per evitare sia un flusso troppo lento sia effetti di diffusione e
di non equilibrio, mentre la fase mobile è un liquido più o meno polare. Il processo cromato-
grafico può essere di partizione, o di adsorbimento.
La maggior parte dei solidi comunemente impiegati si trova in commercio e, nel caso di adsorbenti,
questi, prima di essere posti nella colonna, vanno attivati in stufa in modo da eliminare
l’acqua adsorbita. Dopo l’attivazione riempire la colonna, che può essere di vetro o di
metallo ed il cui diametro varia a seconda del tipo di separazione da effettuare, supportando
la fase solida su un filtro appoggiato su un setto poroso o su un batuffolo di lana di vetro,
avendo cura di effettuare il riempimento in modo uniforme.
Il campione in esame va quindi posto sulla sommità della colonna il più uniformemente possibile,
usando soluzioni concentrate per evitare la stratificazione non uniforme della sostanza
in esame.
L’eluizione viene effettuata alimentando in continuo la colonna con la fase mobile, posta in un
serbatoio di vetro in modo tale che il solvente scenda per effetto di gravità.
Quando il riempimento della colonna è effettuato con un supporto tale che il processo cromatografico
sia di ripartizione (LL) (fase stazionaria costituita da un liquido adsorbito da un
supporto solido), generalmente il solvente più polare è quello adsorbito sul solido (fase stazionaria)
mentre l’eluizione viene condotta con il solvente meno polare (fase mobile). Nel caso
contrario (fase stazionaria meno polare della fase mobile) si realizza la tecnica cromato-
grafica detta cromatografia a fasi inverse.
L’eluizione può essere semplice, impiegando cioè lo stesso solvente fino alla completa separazione
dei costituenti la miscela, oppure a gradino, utilizzando in sequenza solventi diversi
appartenenti ad una serie eluotropica (solventi disposti secondo un ordine crescente di polarità
e quindi secondo la loro capacità di agire come eluenti nel frazionamento di una miscela),
scelti in ordine crescente di potere eluente, oppure ancora a gradiente, alimentando cioè
la colonna inizialmente con un solvente a basso potere eluente al quale in seguito viene aggiunto
un secondo solvente avente maggiore potere eluente e la cui composizione percentuale
cresce linearmente nel tempo. Con questa tecnica, impiegata per la separazione dei costituenti
di miscele complesse, si ottiene una buona separazione in tempi relativamente brevi.
Una volta ottenuta su colonna la separazione desiderata, interrotto il flusso, le sostanze separate
ed evidenziate con opportuni rivelatori, possono essere estratte con solventi, dopo
estrusione della colonna, oppure si può procedere col metodo dell’eluizione a zone raccogliendo,
con un collettore di frazioni, aliquote di ugual volume. In entrambi i casi l’esame del-
l’eluato può essere effettuato determinando mediante metodi colorimetrici o spettrofotometrici
la concentrazione delle sostanze nelle varie frazioni. La determinazione quantitativa del-
l’analita può anche essere eseguita in continuo, analizzando gli eluati all’uscita della colonna,
senza frazionarli, con l’impiego di metodi fisici o chimici.
Modificazioni alla tecnica sopra descritta (che costituisce la cromatografia liquida classica)
hanno portato allo sviluppo della moderna cromatografia liquida.
PARTE GENERALE
3.4.4 Cromatografia di permeazione su gel
Tecnica cromatografica assai efficace per la separazione di specie ad elevato peso molecolare,
dal punto di vista operativo ripete i metodi della cromatografia su colonna.
Viene effettuata utilizzando come fase stazionaria polimeri organici ad alto peso molecolare,
caratterizzati da un elevato numero di pori di larghe dimensioni. Le molecole presenti nel
campione da analizzare ed aventi dimensioni maggiori dei pori non possono entrarvi e quindi
vengono eluite con il volume morto della colonna, mentre quelle con dimensioni minori entrano
nei pori e vengono di conseguenza trattenute dalla colonna, dalla quale sono poi eluite
in funzione delle loro dimensioni.
La fase solida, costituita da polimeri reticolati, ha la caratteristica di rigonfiarsi a contatto col
solvente, assumendo un aspetto gelatinoso ed aumentando notevolmente di volume. Può essere
idrofila, ed in tal caso per l’eluizione si impiegano soluzioni acquose o solventi molto polari
(diossano, alcoli, ecc.) oppure idrofoba e quindi come fase mobile si utilizzano solventi
poco polari o apolari.
La gel permeazione, oltre che per il frazionamento di macromolecole, può essere utilizzata
per separare macromolecole da molecole semplici in soluzioni contenenti elettroliti, sostituendo
vantaggiosamente la dialisi (tempi molto più brevi).
3.4.5 Cromatografia a scambio ionico
Tecnica cromatografica impiegata per la separazione di specie ioniche o di sistemi che assumono
o modificano la loro carica in presenza di un opportuno reattivo.
La fase stazionaria è costituita dagli scambiatori ionici, composti macromolecolari con gruppi
ionici o facilmente ionizzabili (cariche fisse) le cui cariche sono bilanciate da controioni (cariche
mobili) (Fig. 18).
Figura 18: Schema di uno scambiatore ionico. R = —SO3H, —COOH negli scambiatori cationici; R = —NH2, —NR3OH
negli scambiatori anionici.
Le tecniche operative sono quelle della cromatografia su colonna, ma il principio su cui è basata
la separazione è di natura sia chimica che fisica.
Gli scambiatori ionici si dividono in scambiatori cationici o anionici, che a loro volta si suddividono
in scambiatori forti o deboli.
Scambiatori cationici
I radicali —SO2OH e —CH2SO2OH legati al nucleo conferiscono allo scambiatore proprietà
fortemente acide; oltre a questi radicali le resine fenol-formaldeidiche prodotte in passato
PARTE GENERALE
contengono ossidrili fenolici. Gli scambiatori del tipo meno recente sono quindi bifunzionali,
cioè hanno più di un tipo di gruppo ionizzabile; in soluzioni fortemente alcaline si ionizzeranno
sia i gruppi acidi fenolici che quelli solfonici.
Poichè tutti i gruppi ionizzabili legati alla resina contribuiscono alla sua attività, gli scambiatori
fenolici non sono utilizzabili in soluzioni aventi pH superiore a 8-8,5. In soluzioni più alcaline
si può avere un logorio che comporta una forte perdita di resina. Le più recenti resine
a scambio cationico a base polistirenica sono monofunzionali e possono essere usate in intervalli
notevolmente ampi di pH senza rischio di perdite.
Gli scambiatori debolmente acidi contengono il gruppo carbossilico —COOH; le loro proprietà
si avvicinano strettamente a quelle di un acido debole insolubile; essi possono essere
tamponati ed è possibile ottenere qualsiasi rapporto sale-acido libero, mediante trattamento
dello scambiatore con un grande eccesso di un’appropriata miscela tampone. Questa proprietà
rende possibile lo scambio ionico a pH controllato.
Gli scambiatori cationici sono generalmente usati in due forme, forma di acido libero o idrogenionica
e la forma di sale, spesso di sale sodico o ammonico; la forma idrogenionica trattiene
i cationi e lascia libera una equivalente quantità di ioni idrogeno nella soluzione, mentre
col sale sodico vengono trattenuti i cationi e viene lasciata libera una quantità equivalente
di ioni sodio.
I potenziali di scambio di cationi su uno scambiatore fortemente acido sono influenzati da numerosi
fattori, fra i quali i più importanti sono le dimensioni degli ioni, la valenza e la concentrazione.
In soluzioni diluite i potenziali di scambio aumentano con l’aumentare della valenza come è
illustrato dalla seguente serie di alcuni ioni metallici in soluzione 0,1 N dei loro cloruri, a
25°C salvo diverse indicazioni.
Th4+(NO3) > Fe3+ > Al3+ > Ba2+ > Tl+(SO4) = Pb2+ > Sr2+ > Ca2+ > Co2+ > Ni2+ = Cu2+ > Zn2+ = Mg2+
> UO22+(NO3) = Mn2+ > Ag+ > Cs+ > Be2+ (SO4)= Rb+ > Cd2+ > NH4+ = K+ > Na+ > H+ > Li+ > Hg2+
In soluzioni concentrate l’effetto della valenza è inverso; infatti la ritenzione degli ioni monovalenti
è favorita rispetto agli ioni polivalenti. Questo spiega perchè nel processo di addolcimento
dell’acqua, il calcio e il magnesio vengono eliminati in grande misura dall’acqua trattata
(che è una soluzione diluita), mentre sono facilmente asportati dallo scambiatore con una
soluzione concentrata di cloruro sodico usata come rigenerante.
In generale, perchè lo scambio ionico sia efficace, occorre che l’affinità dello ione per la resina
sia notevolmente più grande di quella dello ione che si trova già assorbito.
I potenziali di scambio di uno scambiatore debolmente acido seguono un ordine simile, però
mostrano una selettività maggiore per alcuni cationi bivalenti e un’affinità molto alta per gli
ioni idrogeno.
L’ordine per alcuni ioni comuni è il seguente:
H+ > Ca2+ > Mg2+ > Na+
Uno scambiatore carbossilico debolmente acido in soluzione avente pH inferiore a 5 esiste
quasi interamente sotto forma di acido libero e poiché il gruppo carbossilico è ionizzato
solo debolmente, la capacità di scambio effettiva per altri cationi è molto piccola.
Soltanto in soluzioni neutre o alcaline gli scambiatori debolmente acidi hanno una capacità
effettiva.
Questa differenza fra gli scambiatori cationici fortemente acidi e quelli debolmente acidi può
essere ulteriormente illustrata dalle seguenti equazioni dove R rappresenta la matrice.
A) Scambiatore
Resina fortemente acida
R.SO2
ONa+HCl
R.SO2OH+NaHCO3
..
..
OH+NaClR.SO2R.SO2
ONa+CO2+H2O
PARTE GENERALE
B) Scambiatore
Resina debolmente acida
R.COOH+NaClR.COONa+HCl
R.COOH+NaHCO3 R.COONa+CO2
La forma idrogenionica dello scambiatore cationico fortemente acido reagisce facilmente con
i sali di acidi sia forti che deboli; con il sale di un acido molto debole l’equilibrio è spostato
nettamente verso destra, poichè il numero dì idrogenioni liberati è piuttosto scarso.
Lo scambiatore debolmente acido, invece, reagisce con i sali di acidi forti solo parzialmente
poichè gli idrogenioni liberati spostano l’equilibrio nettamente verso sinistra. Entrambi i tipi
di scambiatori reagiscono con i sali di acidi deboli e possono essere neutralizzati con alcali
caustici.
..
..
+H2O
R.SO2OH+NaOH
..
R.SO2ONa+H2O
..
R.COOH+NaOHR.COONa+H2
Scambiatori anionici
Gli scambiatori anionici devono le loro proprietà al gruppo amminico e ai gruppi amminici
sostituiti nella struttura della resina. La forza basica della resina dipende in particolare dalla
natura del gruppo attivo ed anche dalla sua posizione. Per esempio un gruppo amminico legato
al nucleo conferisce carattere meno basico di un gruppo amminico legato ad una catena
laterale.
Gli scambiatori anionici, debolmente basici hanno gruppi amminici, e gruppi amminici mono
e bisostituiti, mentre il gruppo ammonico quaternario dà luogo a scambiatori fortemente
basici, con forza paragonabile a quella degli alcali caustici.
Come nel caso degli scambiatori cationici, i meno recenti tipi di scambiatori anionici, basati
su resine fenoliche, contenevano anche gruppi ossidrilici; gli ultimi progressi in questo campo
hanno portato a tipi di scambiatori anionici a base polistirenica aventi soltanto un tipo di
gruppo funzionale basico.
La scala dei potenziali di scambio anionico è meno nota di quello cationico. La valenza sembra
abbia la medesima influenza e gli scambiatori debolmente basici differiscono da quelli
fortemente basici per l’affinità molto alta per gli ioni ossidrile; gli scambiatori debolmente basici
possono essere usati soltanto in soluzioni neutre o acide, poichè in soluzione alcalina hanno
una capacità di scambio piccola o nulla.
La seguente serie delle affinità degli anioni più comuni è dovuta a Kunin e a Myers:
-
SO42-> CrO42-> citrati > tartrati > NO3 > As3O33-> PO43-> MoO42-> acetati > I-> Br-> Cl-> F-
In tutti i processi di scambio ionico la velocità di scambio è un parametro della massima importanza:
in genere è preferibile che essa sia alta. Numerosi fattori influenzano la velocità di
scambio: di questi i più importanti sono la natura della matrice dello scambiatore, le dimensioni
e la concentrazione degli ioni che devono essere scambiati.
Diminuendo le dimensioni delle particelle ed aumentando la porosità della resina si ottiene un
aumento della velocità di scambio e ciò fa pensare che essa dipenda da un processo di diffusione.
La porosità di uno scambiatore a base polistirenica dipende dal numero dei legami incrociati
esistenti nella struttura della resina; questo a sua volta dipende dalla quantità di divinilbenzene
usato nel processo di fabbricazione.
Comunque la selettività di uno scambiatore molto poroso è inferiore a quella di una resina
meno porosa con molti legami incrociati; quindi nel processo di fabbricazione di una resina
di utilità generale si cerca di giungere ad un compromesso fra le opposte esigenze di alta selettività
e alta velocità di scambio.
La Tab. 8 fornisce un quadro sintetico delle caratteristiche degli scambiatori.
O
PARTE GENERALE
Effetto dell’aumento
del valore del pH Nessun effetto Aumenta Nessun effetto Diminuisce
sulla capacità
Stabilità dei sali Stabile Idrolizzano Stabile Idrolizzano
per lavaggio per lavaggio
Conversione dei sali Richede un eccesso Prontamente Richiede un eccesso di Prontamente rigenerato
alla forma di acido di acido forte rigenerato NaOH con sodio carbonato
libero o di base libera o ammoniaca
Velocità di scambio Alta Bassa, a meno che Alta Bassa, a meno che
non sia ionizzato non sia ionizzato
Tabella 8: Caratteristiche degli scambiatori cationici e anionici
Gruppo funzionale Fortemente acidi
Acido solfonico
Debolmente acidi
Acido carbossilico
Fortemente basici
Ammonio quaternario
Debolmente basici
Gruppo amminico
Scambiatori anioniciScambiatori cationici
La cromatografia a scambio ionico viene generalmente eseguita su colonna riempita con
scambiatori scelti in relazione alle esigenze analitiche. L’eluizione è condotta con acidi, basi,
tamponi o solventi a seconda della natura delle sostanze che si vogliono separare. La resina,
una volta introdotto il campione, scambia i propri ioni con quelli della soluzione, ma questi
ultimi, per le proprietà di selettività sopra ricordate, vengono trattenuti in maniera diversa.
Quelli verso i quali lo scambiatore è più affine vengono scambiati nella parte alta della colonna,
per gli altri lo scambio avverrà via via più in basso. Introducendo successivamente l’eluente
gli ioni verranno eluiti con una velocità che è inversamente proporzionale all’affinità
dello scambiatore per lo ione scambiato, per cui gli ioni meno fissati, localizzati nelle zone
inferiori, saranno raccolti per primi. Le singole frazioni verranno in seguito sottoposte a conferme
analitiche.
I vari “step” attraverso cui si esplica il processo cromatografico possono essere quindi così
riassunti:
-equilibrazione dello scambiatore;
-trattenimento sullo scambiatore dell’anione o catione in esame con scambio del
controione;
-spiazzamento dello ione legato, durante la fase di eluizione con un opportuno
eluente;
-rigenerazione della colonna.
3.4.6 Gascromatografia
Tecnica cromatografica che permette la determinazione quantitativa e qualitativa di un gran
numero di sostanze, presenti anche in miscele complesse, purché possano essere portate allo
stato di vapore senza decomporsi o trasformate in specie volatili.
La fase mobile è costituita da un gas o da un vapore e la fase stazionaria da un liquido o un
solido.
La fase mobile gassosa è detta gas-trascinatore (oppure “carrier”); la colonna che contiene la
fase fissa è detta di partizione o di adsorbimento a seconda che contenga come fase stazionaria
un liquido o un solido. Nelle colonne di partizione la fase liquida stazionaria deve essere
supportata su un solido inerte. Le varie sostanze componenti una miscela analizzata in
gascromatografia vengono rilevate sotto forma di picchi sul diagramma (gascromatogramma)
tracciato dal registratore dell’apparecchio impiegato (Fig. 19).
62
PARTE GENERALE
Figura 19: Diagramma fornito da una miscela analizzata in gascromatografia.
In questo diagramma, poiché il rivelatore analizza proprio la fase mobile che esce dalla colonna,
in ordinate è riportata la concentrazione della sostanza in fase mobile e in ascisse il
tempo a partire dall’introduzione del campione. Ad ognuno dei picchi corrisponde una sostanza.
La caratteristica di ogni sostanza è la distanza OA, OB, OC ecc., cioè il tempo passato
dal momento in cui è stata immessa la miscela nella colonna (punto 0) al momento in cui
la sostanza fuoriesce alla massima concentrazione. Tale tempo è detto tempo di ritenzione
perchè rappresenta la ritenzione di ogni sostanza all’interno della colonna. Il tempo di ritenzione
può essere espresso anche sotto forma di volume di ritenzione Vr, il quale rappresenta
il volume di gas trascinatore che è fuoriuscito prima che esca la sostanza che si considera. Il
tempo e il volume di ritenzione sono correlati attraverso il flusso F
Vr = F·tr
Pertanto in ascisse del cromatogramma si può riportare a volte anche il volume di ritenzione,
a patto, però, che il flusso sia mantenuto costante per tutta la durata dell’analisi. I tempi e i volumi
di ritenzione così misurati vanno, però, corretti del tempo morto, che rappresenta il tempo
che un gas non trattenuto impiega per attraversare la colonna. Tale tempo morto varia con
la lunghezza, la natura e il riempimento della colonna per cui va determinato sperimentalmente
e poi sottratto da tutti i tempi di ritenzione: si aggiunge allora alla miscela da analizzare sempre
una sostanza gassosa (a volte si usa il gas di città), se ne registra il picco, se ne prende il
tempo o volume di ritenzione (00’) e si sposta lo zero da 0 a 0’; i nuovi valori dei tempi (o volumi)
di ritenzione vengono definiti come tempi (o volumi) di ritenzione corretti.
Il tempo (volume) di ritenzione è funzione della temperatura a cui è stata condotta l’esperienza,
del tipo di colonna utilizzata (di partizione o di adsorbimento), della natura della fase
di adsorbimento o di partizione usata, della lunghezza della colonna, del tipo di gas trascinatore
impiegato, del suo flusso. La diversa ripartizione delle varie sostanze fra la fase mobile
e quella fissa è quantitativamente rappresentata dai differenti valori del coefficiente di distribuzione
delle sostanze fra le due fasi:
in cui:
Cfs = concentrazione della sostanza nella fase stazionaria;
Cfm = concentrazione della sostanza nella fase mobile;
K è un numero puro nel caso della cromatografia di partizione, ha le dimensioni volume/massa
nel caso della cromatografia di adsorbimento; infatti la fase mobile (gas) si misura volumetricamente
e la fase fissa (solido) gravimetricamente.
PARTE GENERALE
Nel seguito vengono indicate le principali operazioni tecniche implicate nella gascromatografia,
mentre in Fig. 20 viene riportato uno schema classico di gascromatografo.
Prima dell’introduzione del campione si regola il flusso del gas di trasporto e la temperatura
della camera termostatica, che deve essere scelta in base al punto di ebollizione dei componenti
la miscela da analizzare. Normalmente una diminuzione della temperatura della colonna
cromatografica porta ad un miglioramento della separazione ma anche ad un corrispondente
prolungamento dei tempi di analisi.
Figura 20: Schema di un gascromatografo. 1. bombola con gas di trasporto; 2. regolatore di flusso; 3. iniettore; 4.
camera termostatica con colonna; 5. rivelatore; 6. flussimetro; 7. registratore.
Un buon compromesso è rappresentato dalla scelta di una temperatura intermedia ai valori
dei punti di ebollizione dei componenti la miscela. Nel caso in cui questa sia costituita da
composti aventi temperature di ebollizione molto diverse, si può procedere operando non più
in condizioni isoterme, ma a temperatura programmata, sottoponendo cioè la camera termostatica
contenente la colonna ad un regolare incremento della temperatura.
La velocità del gas di trasporto non è un fattore molto critico; tuttavia a velocità troppo basse
o troppo alte i picchi potrebbero tendere ad allargarsi o a restringersi eccessivamente sia per
un fenomeno di diffusione sia per un imperfetto raggiungimento dell’equilibrio.
Si introduce quindi il campione tramite l’iniettore che, poichè le sostanze da analizzare debbono
essere in fase gassosa, deve trovarsi ad una temperatura tale da consentire la vaporizzazione
del campione stesso. La miscela (in fase vapore) viene convogliata dalla fase mobile
nella colonna lungo la quale sono frazionati i vari costituenti. All’uscita dalla colonna il rivelatore
analizza la fase mobile e fornisce un segnale proporzionale alla quantità di ciascun
componente presente.
Il gas di trasporto, che costituisce la fase mobile, deve essere chimicamente inerte, di elevata
purezza e di bassa viscosità. Quello più comunemente impiegato è l’azoto, che può però essere
sostituito da idrogeno, elio, argon a seconda del tipo di rivelatore impiegato.
Per quanto concerne le colonne, queste possono essere suddivise in due categorie:
-colonne impaccate;
-colonne capillari.
Le prime hanno diametro interno di 2-5 mm e lunghezza variabile (1-10 m). Sono costituite da
un tubo di vetro, di acciaio inossidabile o di rame avvolto a spirale o piegato ad U e riempito
con la fase stazionaria sotto forma di granuli aventi dimensioni tali da permettere una distribuzione
uniforme ed una buona permeabilità.
Le seconde sono costituite da tubi di acciaio o di vetro del diametro di 0,2-0,5 mm, lunghezza
20-100 m, avvolti a spirale, le cui pareti sono ricoperte uniformemente dalla fase stazionaria.
Tali colonne, utilizzate per analisi di miscele complesse, consentono di operare in tempi relativamente
brevi e con pressione del gas di trasporto notevolmente bassa, inoltre hanno un ottimo
potere risolutivo.
I materiali adsorbenti più comunemente impiegati per il riempimento delle colonne sono:
PARTE GENERALE
-carboni attivi e carboni grafitati;
-allumina e gel di silice;
-setacci molecolari;
-polimeri porosi.
mentre quelli di supporto più comuni sono:
-farina fossile calcinata e purificata;
-palline di vetro;
-granuli di teflon.
La quantità di campione che deve essere introdotta nell’apparecchio va stabilita di volta in
volta con una prova preliminare a seconda della composizione qualitativa e quantitativa della
miscela da analizzare.
A titolo orientativo, operando con colonne impaccate, l’operatore si può attenere alle indicazioni
riportate in Tab. 9.
Campione da analizzare Numero dei componenti
Quantità di campione da
introdurre nell’apparecchio
Tabella 9: Quantità di campione orientativamente necessario a seconda del tipo di analisi da effettuare
Gas 3 - 4 1 - 2 cm3
10 - 12 1 - 5 cm3
Liquidi con punto di ebollizione fino a 110°C 5 0,02 - 0,03 cm3
10 0,03 - 0,04 cm3
15 0,04 - 0,05 cm3
Liquidi con punto di ebollizione fino a 180°C 5 0,04 - 0,05 cm3
10 0,04 - 0,05 cm3
15 0,06 - 0,07 cm3
Liquidi con punto di ebollizione oltre 180°C 5 0,05 - 0,07cm3
10 0,06 - 0,08 cm3
15 0,08 - 0,10 cm3
L’ampiezza dei picchi può essere variata introducendo una quantità maggiore o minore di
campione oppure intervenendo sul commutatore di sensibilità. Come norma generale, è sempre
bene introdurre la minima quantità di campione compatibilmente con la sensibilità o la
stabilità dell’apparecchio: un aumento eccessivo della quantità del campione porta sempre ad
un allargamento dei picchi e ad una conseguente minore risoluzione fra due picchi adiacenti,
nonchè ad una dissimmetria dei picchi stessi.
Per quanto riguarda i rivelatori la principale caratteristica da prendere in esame è la selettività.
I rivelatori possono essere divisi in:
a) rivelatori a ionizzazione;
b) rivelatori elettrochimici;
c) rivelatori spettroscopici;
d) rivelatori radiochimici;
e) rivelatori a conducibilità termica;
f) rivelatore a massa (ITD).
a) rivelatori a ionizzazione
I rivelatori e a ionizzazione maggiormente utilizzati sono i seguenti:
-rivelatori a ionizzazione di fiamma d’idrogeno (“Flame ionization detector”, FID);
-rivelatori a fotoionizzazione (“Photoionization detector”, PID);
-rivelatori a cattura d’elettroni (“Electrone capture detector”, ECD);
-rivelatori termoionici o a ionizzazione di fiamma all’alcali (“Thermoionic ionization
detector”, TID, o “Alkali flame ionization detector”, AFID).
PARTE GENERALE
b) rivelatori elettrochimici
I rivelatori elettrochimici possono a loro volta utilizzare i principi della coulometria (“Coulometric
detectors”), della conduttometria (“Electrolytic conductivity detectors”) e della potenziometria
(“Ion selective detectors”).
c) rivelatori spettroscopici
Utilizzano i principi della spettroscopia di emissione o della spettroscopia di assorbimento o
della spettrometria di massa.
d) rivelatori radiochimici
Tra questi occorre ricordare i rivelatori basati sulla misura degli isotopi nell’analisi per attivazione
neutronica.
e) rivelatori a conducibilità termica
Rivelatore non specifico, non distruttivo utile nell’analitica preparativa.
f) rivelatore a massa (ITD)
Basato sui principi della spettrometria di massa e in grado di identificare composti incogniti
e di confermare la presenza di composti sospettati.
Interpretazione del tracciato cromatografico
a) Analisi qualitativa
L’interpretazione del tracciato cromatografico viene effettuata paragonando la posizione di
ogni picco rispetto a quella di campioni contenenti soluzioni di riferimento analizzate nelle
stesse condizioni sperimentali.
La posizione di un picco nel cromatogramma può essere espressa in termine di volume di ritenzione.
Il volume di ritenzione è il volume di gas di trasporto fluito attraverso la colonna, in
quelle determinate condizioni, dal momento dell’introduzione del campione a quello della
massima risposta del registratore (apice del picco).
Poiché le misure vengono effettuate a flusso costante è uso comune esprimersi in termini di
“tempo di ritenzione”, secondo quanto detto sopra.
Nella determinazione del tempo di ritenzione, valori assoluti hanno significato soltanto quando
sono stati introdotti tutti i fattori di correzione dovuti alle diverse condizioni sperimentali.
Purtroppo in letteratura non vi sono ancora elenchi completi di composti con tempo di ritenzione
corretto, quindi le indicazioni dei diversi autori hanno tutte un significato molto relativo.
Normalmente però nei lavori di routine la sequenza dei picchi è sempre la stessa, per cui una
volta determinata la posizione di ogni componente rispetto ad un componente base, non è
poi necessario ripetere sempre le prove di identificazione.
b) Analisi quantitativa
La determinazione quantitativa viene effettuata misurando l’altezza dei picchi nel caso delle
colonne capillari, e l’altezza o l’area dei picchi nell’altro caso.
La misura dell’altezza è il metodo più semplice, ma non consente di avere dati perfettamente
riproducibili in quanto l’altezza dei picchi, oltre che per il valore della corrente del rivelatore
e la sensibilità del registratore, varia in funzione della temperatura, del flusso del gas di trasporto,
del materiale cromatografico, della lunghezza della colonna e della composizione
percentuale della miscela.
L’uso dell’altezza dei picchi come indicazione quantitativa è quindi vantaggiosa solo nei casi
in cui non si richiede una grande precisione nel dato.
La misura delle aree, quando non si dispone di un integratore, può essere effettuata tramite un
planimetro oppure più semplicemente approssimando il picco ad un triangolo e determinandone
l’area moltiplicando la sua altezza per la larghezza misurata a metà altezza (Fig. 21).
Poiché la misura deve essere effettuata con la massima precisione, si consiglia di usare un calibro
o, meglio ancora, una lente millimetrata.
PARTE GENERALE
Figura 21: Misura approssimata dell’area del picco. AB = ampiezza a mezza altezza.
Quando i picchi non sono competamente separati, l’area di ogni picco viene calcolata come
se il triangolo fosse completo, estrapolando a zero i due lati interrotti.
Una volta calcolata l’area dei picchi, la quantità di sostanza presente può essere determinata
o mediante taratura, o col metodo della normalizzazione interna o ancora con quello del
riferimento interno.
Nel primo caso si costruisce per ciascun componente la miscela un grafico, iniettando nella
colonna quantità esattamente misurate della sostanza in esame e riportando le aree in funzione
della concentrazione.
Nel secondo caso si sommano le aree di tutti i picchi e si rapporta a 100 l’area di ogni singolo
picco. Nel caso in cui la risposta del rivelatore non sia uguale per tutti i componenti la miscela,
bisogna moltiplicare le aree di ogni singolo componente per un proprio fattore di correzione.
Nel terzo caso, infine, si aggiunge al campione in esame una quantità esattamente nota di
un composto (riferimento interno) non presente nella miscela, scelto in modo tale che il suo
picco sia vicino ma ben separato da quello dei composti in esame, e se ne calcola l’area. Le
concentrazioni dei composti in esame vengono calcolate rapportando l’area del picco corrispondente
a quella del riferimento interno.
3.4.7 Cromatografia liquida ad alta prestazione o HPLC
Tecnica che permette di ottenere separazioni rapide di miscele complesse, con risoluzione paragonabile
o maggiore di quella della gascromatografia, anche con composti non volatili.
I principi teorici su cui si basa sono quelli della gascromatografia; la fase stazionaria può essere
costituita da un solido o da un liquido mentre la fase mobile (liquida) viene fatta fluire
sotto pressione (fino a 500 atmosfere) operando generalmente a gradiente di eluizione.
I riempimenti della colonna, di vetro o di acciaio inossidabile, con diametro interno da 2 a 6
mm e lunghezza variabile (10-25 cm) possono essere:
-materiali porosi con pori profondi ed elevata area superficiale; permettono di
operare con quantità relativamente grandi di sostanza;
-materiali porosi in superficie, formati da un nucleo inerte non poroso ricoperto
da un sottile film poroso. Presentano bassa area superficiale e permettono di
operare con piccole quantità di campione;
-fasi stazionarie chimicamente legate al supporto, ottenute o per diretta esterificazione
dei gruppi OH della silice con un alcool o per silanizzazione di questi
con dimetilsilano.
I rivelatori comunemente impiegati sono fotometrici nel visibile e nell’UV e a indice di rifrazione.
L’interpretazione del tracciato cromatografico sia qualitativa che quantitativa è analoga a
quella riportata per la gascromatografia.
67
PARTE GENERALE
3.4.8 Cromatografia ionica
Una tecnica analitica, sviluppatasi negli ultimi anni e che assume un’importanza rilevante nella
risoluzione di problemi relativi alla separazione e determinazione qualitativa e quantitativa
di ioni e acidi organici aventi un pK minore di 7, è la cromatografia ionica.
La strumentazione analitica è quella tipica della HPLC dove la colonna cromatografica è riempita
con resine scambiatrici cationiche o anioniche e la rivelazione è effettuata tramite un rivelatore
conduttometrico preceduto da una seconda colonna, avente la funzione di soppressore di
fondo.
Fino all’introduzione della “cromatografia ionica” da parte di Small et al. (1975) l’approccio
cromatografico strumentale per la determinazione di ioni inorganici non aveva dato risultati
soddisfacenti in quanto, molte specie ioniche, non contenendo gruppi cromofori o elettrofori,
non possono essere rivelate con i normali “detector” quali quelli spettrofotometrici, a fluorescenza
ed elettrochimici.
D’altra parte un’ulteriore limitazione nell’applicazione dello scambio ionico nelle moderne
tecniche di cromatografia liquida derivava dalla natura degli eluenti impiegati i quali, essendo
sostanzialmente costituiti da elettroliti forti, con la loro elevata conducibilità provocano un
segnale di fondo troppo elevato.
Nel cromatografo ionico invece, una seconda colonna a scambio ionico, posta in serie alla
colonna cromatografica e prima del rivelatore conduttometrico, funziona da soppressore del
segnale di fondo diminuendo la conducibilità dovuta all’eluente, in quanto, lo trasforma da
una specie ad elevata conducibilità in una a bassa conducibilità. Gli elementi impiegabili possono
essere carbonati, bicarbonati, borati, ftalati, ecc.
A titolo di esempio prendiamo in esame una determinazione di anioni; le reazioni che avvengono
nelle diverse fasi dell’analisi possono essere cosi schematizzate:
colonna di separazione
+-
+
-NR3 + HCO3 + NaAnione . NR3 Anione-+ NaHCO3
resina eluente specie ad elevata
conducibilità
colonna soppressore di fondo
-SO3-H+ + NaHCO3 . SO3-Na+ + H2CO3
resina eluente specie a bassa
conducibilità
inoltre
-SO3-H+ +
NaAnione . SO3-Na+ + H+Anioneproveniente
dalla specie ad elevata
colonna di conducibilità
separazione
NaHCO3, Na2CO3 o NaOH, utilizzati quali eluenti nell’analisi, vengono trasformati in
H2CO3 o H2O che, essendo poco dissociati, hanno bassa conducibilità; inoltre l’anione in
esame viene trasformato nel corrispondente acido eliminando così la necessità di avere
una serie di curve di taratura a seconda della combinazione catione-anione. Altro effetto
del soppressore è quello di consentire la separazione di specie per cromatografia di esclusione.
Fino ad ora il numero di cationi separati e determinati con tale tecnica è di circa trenta, mentre
assai maggiore è il numero degli anioni.
Per quanto riguarda l’analisi delle acque la tecnica sopra descritta è stata applicata sia all’analisi
di acque potabili che all’analisi di effluenti industriali. Ha inoltre trovato applicazioni
nel campo delle piogge acide.
68
PARTE GENERALE
Concludendo, i vantaggi rappresentati dalla cromatografia ionica possono essere così riassunti:
-elevata sensibilità; vengono infatti rivelati ioni presenti a livello di µg/L senza
preconcentrazione del campione;
-linearità nella risposta;
-influenza trascurabile della matrice e del pH;
-rapidità di esecuzione da cui il suo impiego in analisi di tipo routinario;
-controllo non più a carico della diffusione (lenta), quindi processo più rapido
all’interno dello scambiatore.
3.4.9 Elettrocromatografia
È una tecnica cromatografica in cui l’azione adsorbente della carta si combina con quella di
un campo elettrico, applicato a 90 gradi rispetto al flusso del solvente. La presenza del campo
elettrico esalta le differenze di migrazione degli ioni, che si localizzeranno in punti diversi
in relazione all’azione cromatografica esercitata dalla carta ed al campo elettrico applicato.
La rivelazione avviene con reattivi specifici, come nel caso della cromatografia su carta.
Le tecniche elettrocromatografiche sono di due tipi: discontinue e continue. Nel primo caso si
opera in genere su una striscia di carta, ai cui estremi è applicata la differenza di potenziale.
Gli elettrodi non si pongono sulla carta ma nella soluzione base contenuta nei compartimenti
anodico e catodico, elettricamente isolati l’uno dall’altro. Generalmente si applica agli
elettrodi una tensione continua stabilizzata e costante, che provoca una corrente costante o
variabile nel tempo a seconda delle condizioni sperimentali. La striscia è imbevuta con la soluzione
base, mentre la soluzione da esaminare è aggiunta al centro della striscia in piccolo
volume.
I metodi per condurre l’elettrocromatografia discontinua si distinguono poi in metodi a camera
umida ed in metodi con eliminazione dell’evaporazione, a seconda che la striscia venga
appesa libera a formare una V invertita o tesa libera in posizione orizzontale (Fig. 22)
oppure, rispettivamente, chiusa fra due supporti solidi (di vetro, plastica o cellophane) siliconati
o raffreddati, o immersa in un liquido di raffreddamento non polare, non miscibile con
la soluzione dell’elettrolita di supporto e buon conduttore del calore.
Figura 22: Apparecchiature per elettrocromatografia discontinua. A) punto di immissione del campione; a) sostegno.
La tecnica continua si esegue su un foglio di carta pressoché quadrato sul quale sono distesi
gli elettrodi. La soluzione da analizzare viene introdotta in continuo mediante un capilla
PARTE GENERALE
re, al centro del foglio in alto, mentre l’elettrolita di supporto fluisce continuamente dall’alto
per tutta la larghezza del foglio trascinando verso il basso il miscuglio da separare. L’estremità
inferiore della carta è tagliata secondo un profilo seghettato ed, in condizione ideale,
in corrispondenza di ogni dente è collocata una provetta per la raccolta del singolo componente
(Fig. 23).
Figura 23: Apparecchiatura per elettrocromatografia continua. a = serbatoio del campione; b = serbatoio dell’e-
luente; c = raccoglitori.
In effetti questo sistema può essere applicato anche all’analisi elettrocromatografica bidimensionale
discontinua: in questo caso però il campione non viene rifornito in continuo, ma “una
tantum” all’inizio dell’analisi (Fig. 24).
Figura 24: Apparecchiatura per analisi elettrocromatografica discontinua bidimensionale. a = serbatoio del cam-
pione; b = serbatoio dell’eluente; A = punto di immissione del campione.
3.5 Metodi per attivazione neutronica
L’attivazione neutronica è un metodo di analisi che si applica alla determinazione di elementi
presenti in minima quantità. Deve la sua diffusione allo sviluppo delle tecniche nucleari e
70
PARTE GENERALE
consiste nel rendere radioattivo un nuclide dell’elemento da dosare e nel rilevare poi la presenza
di questo attraverso la misura della quantità di radiazione emessa.
Nell’interno dei reattori nucleari le reazioni di fissione dell’uranio e del plutonio producono
un gran numero di neutroni. Questi a loro volta, dopo essere stati rallentati dagli urti contro
gli atomi del “moderatore” del reattore (i neutroni appena prodotti dalla scissione sono infatti
veloci e non adatti a produrre fissioni), urtano nuovi nuclei di uranio o plutonio producendo
nuove fissioni. Una piccola parte di questi neutroni può essere utilizzata in un reattore per
attivare un certo elemento. Per ottenere l’attivazione è sufficiente introdurre l’elemento nel moderatore,
che in molti reattori è costituito da grafite, in un punto attraversato da molti neutroni.
Allora alcuni di questi, invece di urtare e venire assorbiti da nuclei di uranio o plutonio,
verranno assorbiti dai nuclei dell’elemento da dosare. Saranno cioè sottratti al processo che
mantiene in funzione il reattore; entro certi limiti, ciò non arresta la reazione a catena che sta
alla base del funzionamento del reattore stesso.
Quando un neutrone urta un nucleo di X possiede una certa probabilità di venire assorbito.
Supponiamo che X abbia un nucleo costituito da n protoni e m neutroni e quindi di peso
(n+m); sottoposto a un flusso di neutroni può catturare un neutrone supplementare. La carica
del nucleo evidentemente non cambia, in quanto il neutrone non possiede carica e quindi non
ne apporta al nucleo. Tuttavia il neutrone possiede una unità di massa atomica e quindi il nuovo
nucleo possiede un peso superiore (m+n+1). Si è così prodotto un isotopo artificiale di X.
In queste condizioni però il nuovo nucleo è instabile, non riesce cioè a tenere bene legati a
sé tutti i neutroni. Perciò, uno dei neutroni (non necessariamente quello che si è aggiunto) si
trasforma in protone emettendo un elettrone. Questo processo cambia evidentemente la carica
del nucleo il quale, avendo ceduto un elettrone, non ha subito una perdita apprezzabile
della sua massa (l’elettrone possiede una massa trascurabile in confronto a quella del protone
e del neutrone), ma ha perso una unità di carica negativa e appare quindi carico di una
unità positiva in più.
Questa trasformazione non avviene immediatamente dopo che l’atomo di X ha assorbito il
neutrone; il nucleo di X instabile resta in vita per un certo tempo, gli isotopi prodotti nell’irraggiamento
si conservano per un certo tempo. Prima o poi, però, essi sono destinati a trasformarsi
tutti nell’elemento Y il cui nucleo ha carica (n+1) e massa (m+n+1). Conoscendo le
caratteristiche del reattore e il tempo di irraggiamento, possiamo sapere con sicurezza la percentuale
di atomi radioattivi prodotti. Per conoscere la concentrazione di X nel campione di
partenza, dobbiamo contare gli atomi radioattivi prodotti: ciò si realizza misurando l’emissione
di raggio che accompagna la trasformazione di X radioattivo in Y.
Perciò, appena estratto il campione dal reattore, lo si introduce nella camera di misura di uno
strumento, lo spettrometro per raggi gamma, che permette di registrare e contare il numero
di raggi emessi da tutti i nuclei di X che subiscono il processo di disintegrazione radioattiva
o, almeno, da una percentuale nota di essi. Nel giro di qualche ora si conosce il numero degli
atomi radioattivi contati, da questo quanti atomi di X radioattivo si sono formati nel campione
analizzato e quindi quanti atomi di X stabile si trovano nello stesso campione prima
dell’attivazione.
Vi sono, ovviamente, molte precauzioni da prendere per eseguire misure di questo tipo, ed è bene
conoscerne almeno una fondamentale: nel campione costituito da vari elementi è probabile
che, oltre ad X, anche numerosi altri elementi vengano attivati dal bombardamento di neutroni.
Le radiazioni che dovessero venire emesse da questi ultimi potrebbero disturbare il conteggio
di quelle che devono servire a rivelare la presenza e l’abbondanza di X. Per questo motivo si
procede generalmente ad una separazione preliminare dei costituenti il campione.
In conclusione, la misura della quantità di un elemento chimico ottenuto per attivazione procede
nel modo seguente:
-si trasforma una percentuale nota di nuclei stabili dell’elemento da cercare in
nuclei radioattivi;
-si conta una percentuale nota di raggi emessa dai nuclei radioattivi che vanno
disintegrandosi;
-da questi valori numerici si risale al numero di tutti gli atomi presenti nel campione
analizzato.
PARTE GENERALE
L’analisi per attivazione si può applicare a sostanze in forma solida, liquida o gassosa; un campione
di pochi milligrammi (o anche meno) è sufficiente per eseguire una misura precisa.
Il metodo è estremamente sensibile e per certi elementi permette di dosare tracce che nessun
metodo chimico è in grado di rilevare. La sensibilità dipende dal flusso di particelle usate per
l’attivazione, dalla loro energia, dalla sezione d’urto della reazione considerata, dall’abbondanza
isotopica del nuclide attivato, dal fattore di saturazione ottenuto nell’irraggiamento e
dal tipo di radioattività indotta.
L’impiego di queste tecniche comporta rischi e pericoli diversi da quelli comunemente considerati
in un laboratorio chimico: è pertanto necessario prendere opportune precauzioni sulla
base di osservazioni e considerazioni di esperti qualificati ed in ogni caso effettuare il controllo
sulle radiazioni che possono venire assorbite da ogni singolo ricercatore e tecnico addetto
all’analisi.
3.6 Spettrometria di massa
La spettrometria di massa consente di individuare molecole gassose cariche (ioni) in funzione
della loro massa. Tali ioni vengono prodotti per collisione fra le molecole del gas da analizzare
(se la sostanza è solida deve essere previamente vaporizzata) ed elettroni accelerati tanto
da produrre l’estrazione di uno o più elettroni dalle orbite più esterne degli atomi costituenti
le molecole suddette. Gli ioni prodotti vengono estratti per mezzo di un elettrodo accelerante
carico negativamente, mentre le residue molecole gassose non ionizzate vengono rimosse con
una pompa aspirante tenuta in funzione per tutta la durata dell’esperienza.
Gli ioni positivi sono convogliati in una camera a vuoto mediante l’applicazione di un potente
campo magnetico il quale conferisce ad essi traiettorie circolari, le cui curvature, per un
certo valore del campo magnetico e di campo elettrico applicati, sono funzione del rapporto
fra la massa dello ione e la carica dell’elettrone. Infatti, a seguito della loro accelerazione da
parte del campo elettrico, gli ioni acquistano un’energia pari al prodotto della carica dello ione
per la differenza di potenziale applicata V. Tale energia deve anche essere uguale all’energia
cinetica degli ioni stessi, per cui se la massa di uno ione è m e v è la sua velocità sarà:
da cui risulta
Accelerati dal campo elettrico e opportunamente selezionati a seconda dei valori della velocità,
gli ioni vengono sottoposti, come si è detto, ad un campo magnetico di intensità H che
li obbliga a percorrere traiettorie circolari di raggio r esercitando su di essi una forza costante
F = H·n·e·v.
Mentre gli ioni percorrono tale traiettoria la loro forza centrifuga
equilibra esattamente la forza magnetica alla quale sono sottoposti
da cui:
ed essendo
PARTE GENERALE
sarà:
cioè:
Queste due ultime equazioni consentono di rilevare come per valori dati di H e V il raggio
della traiettoria circolare dipenda soltanto dal rapporto fra la massa e la carica dello ione e
come quindi da una misura di r si possa determinare, nota la carica, anche la massa.
Viceversa, ed è quello che si fa nei comuni spettrografi di massa, si può, disponendo per come
è costruito l’apparecchio di un solo valore di r utile a portare gli ioni sul sistema di rivelazione,
focalizzare successivamente su tale sistema ioni caratterizzati da valori differenti del
rapporto massa/carica: ciò si realizza variando con continuità H oppure V. Il collettore è connesso
ad un apparato elettronico di misura che comanda a sua volta un registratore grafico.
Lo schema di uno spettrometro di massa è rappresentato in Fig. 25.
Tale apparecchio ha molti impieghi di cui il più comune è la determinazione delle masse atomiche.
Esso può anche servire per compiere analisi chimiche di prodotti organici. Infatti molecole
complesse che possiedono proprietà chimiche molto simili e che quindi possono essere
separate assai difficilmente per via chimica (ad esempio idrocarburi di peso molecolare molto
elevato) possono invece essere separati facilmente per mezzo di tale strumento. Altre applicazioni
dello spettrometro di massa sono la separazione e la determinazione delle masse
degli isotopi degli elementi, la ricerca di perdite in apparecchiature da vuoto, lo studio del
decorso di alcuni importanti processi chimici.
Figura 25: Schema di spettrometro di massa. A= Punto di immissione del campione; a = bombardamento di elettroni;
b = elettrodi acceleranti (potenziale negativo); B = uscita per il vuoto; c = magnete; d = fenditura; e = collettore di ioni.
P A R T E G E N E R A L E
1030. Metodi di campionamento
Il campionamento può definirsi come l’operazione di prelevamento della parte di una sostanza
di dimensione tale che la proprietà misurata nel campione prelevato rappresenti, entro
un limite accettabile noto, la stessa proprietà nella massa di origine. In altre parole, il fine
ultimo del campionamento ambientale è sempre quello di consentire la raccolta di porzioni
rappresentative della matrice che si vuole sottoporre ad analisi. Il campionamento costituisce
quindi la prima fase di ogni processo analitico che porterà a risultati la cui qualità è strettamente
correlata a quella del campione prelevato. Per tale motivo, il campionamento è una
fase estremamente complessa e delicata che condiziona i risultati di tutte le operazioni successive
e che di conseguenza incide in misura non trascurabile sull’incertezza totale del risultato
dell’analisi.
Gli studi disponibili mettono in evidenza che l’incertezza associata al campionamento può
contribuire anche per il 30-50% all’incertezza associata al risultato analitico finale ed è di
gran lunga più elevata rispetto all’incertezza associata alla fase analitica (circa il 5%).
Numerose fonti di incertezza possono influire sui risultati di analisi ambientali. La Tab. 1 riassume
in modo schematico le principali fasi di un’analisi ambientale, le possibili fonti di incertezza
ed un indice qualitativo per valutare quanto la specifica fase possa gravare sull’incertezza
finale.
Fase Sorgente di incertezza Indice qualitativo di incertezza
Tabella 1: Fasi dell’analisi ambientale, possibili fonti di incertezza e indice qualitativo per valutare quanto la proce-
dura eseguita possa gravare nella valutazione dell’incertezza finale di una misura analitica
Pianificazione
Definizione dell’area Variabilità spaziale, eterogeneità Alto
Metodo di campionamento Rappresentatività statistica, Alto, parzialmente controllabile
contaminazione o perdite
Numero dei campioni Rappresentatività statistica Alto
Massa del campione Rappresentatività statistica Basso
Tempistica Variabilità temporale Alto
Campionamento
Condizioni ambientali Irriproducibilità Molto alto
Imballaggio del campione Contaminazione o perdite Controllabile
Conservazione del campione Perdite per metabolismo, volatilizzazione Medio
ecc. (in particolare relativamente
a campioni di acqua, aria e tessuti animali)
Trasporto Contaminazione e perdite per metabolismo, Alto
volatilizzazione (in particolare per i
campioni di suolo e acqua)
Immagazzinamento Contaminazione o perdite, metabolismo, Alto
Breve termine/Lungo termine alterazione della forma e del peso
originari, speciazione, solubilità
Preparazione del campione
Pulizia, lavaggio Contaminazione o perdite per lisciviazione Alto
Essiccazione Perdite, contaminazione Medio
Omogeneizzazione Contaminazione Alto
Sottocampionamento Eterogeneità, distribuzione delle particelle Medio
e dell’analita
Pretrattamento Contaminazione a causa dei reagenti o del Controllabile
contenitore del campione, precipitazione,
perdite per adsorbimento
segue
PARTE GENERALE
segue
Fase Sorgente di incertezza Indice qualitativo di incertezza
Analisi Strumenti settati in maniera errata, Medio - Basso
interferenze fisiche e chimiche
nella fase di taratura
Valutazione dei dati Noncuranza delle distribuzioni Medio - Alto
asimmetriche, della naturale variabilità
2. Il piano di campionamento
La predisposizione del piano di campionamento, finalizzato alla raccolta di una serie di campioni
rappresentativi risulta fondamentale per una corretta descrizione del fenomeno investigato.
La definizione degli obiettivi del campionamento (ricerca, monitoraggio, controllo, ecc.) è una
fase cruciale di tutto il processo analitico, in quanto rappresenta un fattore condizionante l’intero
approccio sperimentale che comprende la scelta del numero e della localizzazione dei
punti di campionamento, la determinazione della frequenza, della durata e delle procedure
di prelievo, nonché il successivo trattamento dei campioni e la scelta delle più adeguate metodiche
analitiche da utilizzare.
La predisposizione di un piano di campionamento, che conduca ad una serie di campioni
rappresentativi del fenomeno da descrivere, implica oltre ad una conoscenza preliminare del
sistema da analizzare, una chiara definizione degli obiettivi da perseguire.
L’analisi può essere finalizzata alla verifica del rispetto di limiti, alla definizione della variabilità
spaziale e/o temporale di uno o più parametri, al controllo di scarichi accidentali od
occasionali, alla determinazione di parametri di processo, alla caratterizzazione fisica, chimica
o biologica di un ambiente.
Dal punto di vista analitico, la rappresentatività del risultato dipende dal numero di campioni
prelevati. Tale numero può essere definito statisticamente in base a criteri dipendenti dagli
obiettivi di qualità e dalla ripetibilità del metodo. Generalmente, però, il numero di campioni
ricavati in base a considerazioni statistiche è poco realistico, perché porta spesso ad un
numero di prelievi non sostenibile rispetto alle risorse economiche, umane e laboratoristiche
disponibili. Il calcolo statistico è basato, inoltre, su alcune assunzioni che non sempre possono
essere accettate a priori (in particolare in campo ambientale), come quella della normalità
della distribuzione dei valori misurati. Dal punto di vista pratico, il numero di repliche può
rappresentare un giusto compromesso tra le esigenze della rappresentatività analitica e le risorse
disponibili.
Il campione dovrà inoltre essere:
-prelevato in maniera tale che mantenga inalterate le proprie caratteristiche fisiche,
chimiche e biologiche fino al momento dell’analisi;
-conservato in modo tale da evitare modificazioni dei suoi componenti e delle
caratteristiche da valutare.
Fissati gli obiettivi del prelievo, le operazioni di campionamento devono essere effettuate sulla
base di uno specifico “Piano di campionamento”, che deve programmare nel dettaglio le
operazioni di campionamento secondo criteri e disposizioni che in alcuni casi sono stabilite
da normative tecniche di riferimento. Il campionamento, essendo parte integrante dell’intero
procedimento analitico, deve essere effettuato da personale qualificato e nel rispetto della
normativa in materia di sicurezza del lavoro.
Un piano di campionamento deve quindi prevedere:
-la definizione dell’obiettivo;
-la descrizione del sito di campionamento;
-la strategia di campionamento;
PARTE GENERALE
-l’indicazione delle matrici da campionare;
-le metodiche di campionamento;
-la numerosità dei campioni;
-la durata del campionamento;
-la frequenza del campionamento;
-il numero di addetti e delle loro competenze necessarie per la conduzione del
campionamento;
-la pianificazione logistica del campionamento (mezzi di trasporto, luoghi di ac-
Figura 1: Diagramma di flusso del campionamento e
analisi ambientale.
cesso, ecc.);
- le modalità di trasporto dei campioni;
- la conservazione dei campioni;
-il controllo di qualità;
-la pianificazione della sicurezza
sul lavoro;
-la definizione del tipo di documentazione
che deve essere utilizzato
durante tutto il programma di campionamento.
La documentazione del campione prelevato
dovrà altresì includere lo scopo del campionamento,
la descrizione del luogo del
prelievo, l’ora ed il giorno del prelievo, le
caratteristiche del campione, le precauzioni
necessarie alla conservazione, l’identificazione
del campione, l’identificazione degli
operatori e delle analisi che devono essere
fatte. La quantità da prelevare dal
campione per le analisi dipende dalla tecnica
analitica e dai limiti di sensibilità richiesti.
Il piano di campionamento è strutturato
quindi secondo una sequenza molto arti-
colata di operazioni, rappresentata in maniera
sintetica tramite il diagramma di flusso
di Fig. 1. Mutare “in corso d’opera” la
strategia del piano di campionamento, in
assenza anche di una qualsiasi registrazione
delle modifiche apportate, può avere
conseguenze che possono inficiare
profondamente la confrontabilità dei risultati.
Spesso trascurate, le variabili climatiche,
idrologiche, morfometriche ecc., assumono
in certi casi un’importanza chiave nella interpretazione
dei risultati. Un caso particolare
di variabile strettamente legata alla fase
di prelievo è la definizione esatta della
posizione geografica del punto di raccolta
dei campioni. Sia nel caso di fiumi, ma ancor
più nel campionamento di laghi o acque
sotterranee, è indispensabile registrare
su carte geografiche di scala appropriata
(1:10.000 o 1:25.000) le coordinate
del luogo di prelievo. Questa operazione
una volta complessa oggigiorno viene
PARTE GENERALE
effettuata in modo semplice mediante strumenti di posizionamento satellitare (Global Position
System, GPS) alla portata di chiunque. Anche la corretta misura della profondità del punto di
prelievo rappresenta una variabile di campo significativa per interpretazioni successive della
validità e/o rappresentatività del campionamento.
Oltre a quelle prima indicate, oggi sono ormai facilmente ottenibili anche misure dirette in
campo di variabili ambientali (conducibilità, pH, ossigeno, temperatura, clorofilla, ecc.), che
sono utili per orientare e migliorare le operazioni di prelievo. L’utilità maggiore dei sistemi di
misura in tempo reale è comunque costituita dalla possibilità di acquisire un numero elevato
di misure in tempi molto brevi rispetto ai sistemi tradizionali. In un ambiente fluviale è ad
esempio possibile effettuare transetti tra le rive che in pochi minuti forniscono centinaia di misure.
In questi casi si è in grado di individuare facilmente la presenza di un “plume” dovuto
alla non completa miscelazione di due masse d’acqua, che possono differire per contenuto
termico, per i soluti o per gli inquinanti trasportati, orientando quindi le modalità di prelievo.
In un ambiente lacustre si possono invece condurre profili verticali mediante sonde multiparametriche
che permettono di ottenere misure ad intervalli di frazioni di metro, che sono di
grande utilità per identificare le diverse stratificazioni (termiche e chimiche) presenti. Nel caso
di acque sotterranee, infine, l’uso di metodi di misura in tempo reale è raccomandato per
il controllo delle operazioni di spurgo dei piezometri di prelievo dei campioni, per identificare
eventuali traccianti salini utilizzati per verificare i movimenti delle acque di falda, ecc.
Le strategie di campionamento possono essere:
-casuali;
-stratificate;
-sistematiche;
-preferenziali o ragionate.
Per campionamento “casuale” (random) si intende un prelevamento senza “bias”, cioè senza
derive tendenziose, ma non “a casaccio”. I singoli prelevamenti dovrebbero avere la stessa
probabilità d’includere tutti i componenti delle soluzioni in esame. Questa tecnica si utilizza
con soluzioni omogenee, per la misura di alcune proprietà fisiche e chimiche e quando non
si abbiano sufficienti informazioni.
Nel campionamento “stratificato” l’intera area in esame è suddivisa in sottoaree, da ciascuna
delle quali è tratto un campionamento sistematico o casuale semplice. Si ricorre ad un tale
procedimento qualora si voglia effettuare un’inferenza statistica su ciascuna sottoarea separatamente.
Il campionamento “sistematico” è la tecnica più comune e consiste nel prelevamento del campione
ad intervalli (di tempo o di spazio) predeterminati nel piano di campionamento. Rispetto
al campionamento casuale, il campionamento sistematico permette una distribuzione
maggiormente uniforme dei punti di campionamento e in generale, rappresenta il miglior
schema per l’applicazione della geostatistica.
Il campionamento “preferenziale o ragionato” è quello che, attraverso esperienze dirette visive
in campo o in base ad esperienze del passato, conoscenza dei luoghi, esperienza del-
l’operatore, condizioni fisiche locali ed informazioni raccolte permette di definire in modo appunto
“ragionato” i siti di prelievo.
Ci sono poi combinazioni tra le strategie sopra elencate, del tipo: casuale preferenziale, casuale
stratificato, sistematico stratificato, sistematico casuale e sistematico preferenziale.
La scelta della strategia dipende anche dall’utilizzazione prevista dei dati: i campioni per scopi
legali dovrebbero essere preferibilmente casuali ed avere una elevata numerosità; i campioni
per studi di ricerca possono essere più efficaci e rappresentativi se prelevati mediante
un tipo di campionamento preferenziale o sistematico. Spesso una combinazione dei diversi
tipi è l’approccio migliore.
Per campionamento “istantaneo” si intende il prelievo di un singolo campione in un’unica soluzione
in un punto determinato ed in un tempo molto breve. Il campionamento istantaneo è
da considerarsi rappresentativo delle condizioni presenti all’atto del prelievo ed è consigliabile
per controllare scarichi accidentali e/o occasionali di brevissima durata. Si può utilizzare
tale tipo di campionamento anche per altri tipi di scarico e per le seguenti finalità:
PARTE GENERALE
-controlli estemporanei derivanti da necessità contingenti o per determinare effetti
istantanei sull’ambiente ricettore;
-controllo delle escursioni dei valori di parametri in esame nel caso di scarichi
a composizione variabile;
-controllo di parametri particolari, quali temperatura, ossigeno disciolto, pH,
solfuri, cianuri liberi e altri, i valori dei quali possono essere modificati nel corso
di un campionamento prolungato.
Il campionamento “medio” consiste nell’ottenere un campione effettuando prelievi in un dato
intervallo di tempo (ad esempio ogni 3, 6, 12, 24 ore) in maniera continua o discontinua,
proporzionale o non alla portata dell’effluente. La scelta della durata del campionamento, del
numero dei prelievi e della loro frequenza sarà stabilita in funzione della variabilità delle caratteristiche
quali-quantitative dell’effluente. Si distingue in:
- campionamento “medio-composito”. Viene realizzato mescolando un numero
di campioni istantanei prelevati ad opportuni intervalli di tempo, in modo proporzionale
o non alla portata;
-campionamento
“medio-continuo”. Viene effettuato prelevando in maniera
continua e per un dato intervallo di tempo, una porzione dell’effluente, proporzionale
o non alla portata del medesimo.
Il D.Lgs. 152/99 richiede il prelievo di campioni medi per il controllo dei limiti per le acque
reflue urbane (campioni medi ponderati nell’arco delle 24 ore) e per le acque reflue industriali
(campioni medi prelevati nell’arco di tre ore).
3. La scelta delle apparecchiature per il campionamento
È importante tenere presente che nell’ambiente acquatico in generale i contaminanti tendono
a distribuirsi tra la componente liquida e la componente solida sospesa (materiale in sospensione).
Per convenzione, il materiale in sospensione è definito come il materiale solido che è
trattenuto da filtri con porosità di 0,45 µm, mentre il materiale disciolto è quello che passa
attraverso la membrana filtrante. La distribuzione tra la fase liquida e la fase solida sospesa
è fortemente dipendente:
• dal tipo di contaminante;
• dalle caratteristiche chimico-fisiche delle acque e dalle proprietà superficiali
del particolato;
• dalle caratteristiche idrologiche delle acque in esame;
• dal tempo intercorso tra l’immissione del contaminante nelle acque ed il campionamento
e/o la determinazione del contaminante stesso.
Particolare cura dovrà essere prestata nella scelta del metodo di campionamento al fine di eliminare
o ridurre al minimo qualsiasi fonte di contaminazione da parte delle apparecchiature
di campionamento. La contaminazione del campione da parte delle apparecchiature di
campionamento può rappresentare una rilevante fonte di incertezza da associare al risultato
analitico. Deve essere quindi valutata la capacità di assorbire o rilasciare analiti da parte delle
diverse componenti del sistema di campionamento (tubi, componenti in plastica o in metallo,
ecc.).
Un ulteriore fattore che può condizionare la qualità di una misura di un campione ambientale,
è rappresentato dal fenomeno di “cross-contamination”. Con tale termine si intende
il potenziale trasferimento di parte del materiale prelevato da un punto di campionamento
ad un altro, nel caso in cui non venga accuratamente pulita l’apparecchiatura dicampionamento tra un prelievo ed il successivo. È fondamentale pertanto introdurre nel-
l’ambito del processo di campionamento una accurata procedura di decontaminazione delle
apparecchiature.
PARTE GENERALE
4. Sistemi di campionamento
I sistemi di campionamento attualmente disponibili possono essere raggruppati in due principali
categorie:
• sistemi per la raccolta di piccoli volumi di acque;
• sistemi per la raccolta e filtrazione “in situ” di grossi volumi di acqua
(20÷2000 litri), funzionali ad indagini sul particolato.
4.1 Campionamento di piccoli volumi di acque
Questi sistemi permettono di raccogliere diverse aliquote di campioni in uno o più contenitori
da sottoporre successivamente a filtrazioni ed analisi. Sono sistemi di semplice utilizzo e
manutenzione anche da parte di operatori non specializzati.
Il prelievo del campione di acqua può essere effettuato con sistemi di campionamento costituiti
da bottiglie verticali (bottiglia di Niskin) o orizzontali (Van Dorn) o tramite un campionatore
automatico.
A. Le bottiglie Niskin e Van Dorn sono costituite da cilindri di materiale plastico le cui estremità
sono aperte nella fase iniziale del campionamento e che possono essere chiuse alla
profondità prestabilita del corpo idrico in esame, tramite l’invio di un messaggero. Il messaggero
attiva un meccanismo che permette la chiusura di entrambe le estremità delle bottiglie.
La capacità delle bottiglie è molto variabile: in genere i volumi prelevabili variano
da 1 dm3 fino a 30 dm3. Questi sistemi forniscono un campione istantaneo e non prelievi
integrati nel tempo e sono quindi rappresentativi solo della qualità dell’acqua al momento
e nel sito puntuale in cui il campione di acqua è prelevato. Generalmente utilizzando
questi sistemi di campionamento intercorre un certo periodo tra il campionamento e la successiva
filtrazione del campione in laboratorio. Durante questo periodo la frazione più pesante
del particolato in sospensione (particelle di dimensioni maggiori) può depositarsi sul
fondo della bottiglia. Al fine di assicurare un campione omogeneo e rappresentativo delle
acque in esame, particolari cautele dovranno essere prese in questo caso per non perdere
la frazione più pesante del particolato in sospensione, sia durante l’apertura delle
estremità delle bottiglie, sia nel caso in cui si voglia filtrare solo un’aliquota del campione
raccolto con la bottiglia.
Nel caso in cui la componente solida sospesa non sia distribuita uniformemente nella colonna
d’acqua, il campione raccolto con questi sistemi va riferito allo strato di colonna interessato
dal campionamento e non a tutta la massa d’acqua. Campionatori del tipo a
“bottiglia orizzontale” sono da preferire a campionatori verticali, nel caso in cui si vogliano
caratterizzare forti gradienti verticali di variabili ambientali nella colonna d’acqua.
B. Il campionatore automatico permette il prelievo contemporaneo di più campioni di acqua e
particolato a diverse profondità e/o in diverse posizioni. Questo sistema, a differenza di
quanto avviene per le bottiglie Niskin o Van Dorn, permette di effettuare anche prelievi integrati
in un periodo temporale abbastanza lungo. Esistono due tipi principali di campionatori
automatici, uno dipendente dal tempo e l’altro dal volume. I campionatori dipendenti
dal tempo prelevano campioni discreti, compositi e continui, ma ignorano le variazioni di
flusso del corpo idrico in esame, mentre i campionatori dipendenti dal volume prelevano
campioni discreti, compositi o continui, ma in modo dipendente dalle variazioni di flusso. La
scelta dipende dall’obiettivo dell’indagine. I campionatori automatici richiedono un’alimentazione
elettrica che può essere fornita da batterie ricaricaribili o da un motogeneratore.
Se l’indagine richiede la separazione della frazione solida sospesa dalla componente liquida,
i campioni di acqua raccolti con tutti i sistemi sopra descritti devono essere filtrati il più
presto possibile dopo il campionamento. La filtrazione di un volume noto del campione di acqua
è normalmente effettuata a temperatura ambiente, utilizzando filtri compatibili con il
campione di acqua in esame.
80
PARTE GENERALE
In questi sistemi di campionamento, in genere si opera con prelievi sistematici di tipo istantaneo
(grab samples), mentre, nel caso siano evidenti forti variazioni nel tempo o comunque sia
necessario definire con maggiore certezza un valore medio che caratterizzi una variabile del-
l’ambiente acquatico in esame, si possono utilizzare campioni ottenuti per miscelazione di aliquote
raccolte ad intervalli di tempo prestabiliti (composite samples). In casi particolari, come
ad esempio gli ambienti lacustri, l’integrazione temporale viene sostituita da quella spaziale
(integrated samples), raccogliendo aliquote di campione rappresentative di un’intera colonna
o di una superficie acquatica. Tale operazione, che può essere effettuata sia in modo manuale
discontinuo che in modo automatico continuo, permette di rappresentare una variabile con un
valore integrato non dipendente direttamente dall’operatore. L’uso di campioni integrati, sebbene
consenta solo valutazioni complessive, basate su medie temporali giornaliere, settimanali
o mensili, sui meccanismi che governano il trasporto e la diffusione degli inquinanti, ha
comunque il grande vantaggio di produrre un numero ridotto di campioni.
4.2 Campionamento e filtrazione “in situ” di grossi volumi di acque
Questi sistemi sono particolarmente indicati nel caso in cui sia necessario dover filtrare grossi
volumi di acque (20÷2000 litri) per il recupero di materiale particolato e si dividono in tre
principali categorie:
-filtrazione a flusso perpendicolare;
-filtrazione a flusso tangenziale;
-centrifugazione.
I campioni prelevati con questi sistemi contengono tutti i costituenti presenti nelle acque durante
il periodo di campionamento considerato, ma non forniscono informazioni sulle variazioni
di concentrazione della frazione solida sospesa, di concentrazione dei contaminanti associati
alla frazione solida sospesa e di concentrazione dei contaminanti associati alla componente
disciolta, avvenute durante il periodo di campionamento.
A. I sistemi di filtrazione a flusso perpendicolare permettono la filtrazione di grandi volumi di
acque (50÷2000 litri) in tempi relativamente brevi (100-200 litri/ora), utilizzando generalmente
filtri a cartuccia (con estese superfici filtranti) e con porosità di 0,45 µm. Sono particolarmente
indicati per la raccolta di contaminanti associati alla frazione solida sospesa.
B. I sistemi di filtrazione a flusso tangenziale possono permettere la filtrazione di grandi volumi
di acque (50÷700 litri) ed in questo caso la frazione solida è raccolta, a filtrazione ultimata,
concentrata in un ridotto volume di acqua, senza essere associata a nessun supporto
filtrante.
C. I sistemi di prelievo per centrifugazione consentono di trattare minori quantità di acque
(50÷200 litri) ed offrono generalmente gli stessi vantaggi dei sistemi di filtrazione a flusso tangenziale.
5. Conservazione del campione
Conservare un campione significa garantire la stabilità e la inalterabilità di tutti i suoi costituenti
nell’intervallo di tempo che intercorre tra il prelievo e l’analisi. Questi aspetti non sono
realizzabili al cento per cento; è però possibile ricorrere ad accorgimenti al fine di ridurre al
minimo le alterazioni, salvaguardando la rappresentatività del campione. Un campione ambientale,
nel momento stesso in cui viene separato e confinato in un recipiente non rappresenta
più, a stretto rigore, il sistema di origine. Da quel momento il campione inizia a modificarsi
fisicamente (evaporazione, sedimentazione, adsorbimento alle pareti del contenitore
ecc.), chimicamente (reazioni di neutralizzazione, trasformazioni ossidative ecc.) e biologicamente
(attacco batterico, fotosintesi ecc.).
81
PARTE GENERALE
Vari fattori di tipo meccanico concorrono inoltre all’alterazione della composizione del campione.
Tra questi si ricordano l’imperfetta chiusura del contenitore ed il deposito o rilascio di
sostanze sulle o dalle pareti del contenitore.
Per ovviare a questi inconvenienti e per ridurre entro limiti accettabili le variazioni delle caratteristiche
del campione è necessario utilizzare contenitori costituiti da materiali scelti di volta
in volta, in funzione del parametro da determinare.
La precipitazione dei metalli come idrossidi, l’adsorbimento dei metalli sulle superfici del contenitore,
la formazione di complessi, la variazione dello stato di valenza di alcuni elementi,
possono essere ritardati mediante l’addizione di stabilizzanti chimici e/o una idonea conservazione.
L’attività microbica, a cui è imputabile l’alterazione di alcuni parametri analitici (ad esempio
COD, fosforo e azoto organici), può essere convenientemente ritardata mediante l’aggiunta
di battericidi e/o ricorrendo alla refrigerazione.
Le Tabb. 2 e 3 riportano alcune raccomandazioni per quanto riguarda i contenitori, i principali
conservanti e i procedimenti più adatti per la migliore conservazione del campione dal
momento del prelievo a quello dell’analisi. Le suddette tabelle fanno riferimento alle acque di
scarico.
Per quanto attiene i tempi massimi intercorrenti tra il prelievo e l’analisi, indipendentemente
dalle indicazioni riportate nelle suddette tabelle, è raccomandabile eseguire sempre le analisi
sui campioni, il più presto possibile dopo la raccolta. Al fine di avere maggiori garanzie di
stabilità del campione è opportuno, in tutti quei casi in cui l’analisi andrà effettuata sul campione
filtrato, eseguire la filtrazione entro le 24 ore e conservare il campione filtrato secondo
le modalità indicate nelle suddette tabelle.
Per attività non finalizzate al controllo si può ricorrere, dopo filtrazione del campione, ad una
stabilizzazione per congelamento. Questo tipo di stabilizzazione consente l’effettuazione delle
analisi anche dopo diverse settimane dal campionamento per la stragrande maggioranza degli
analiti.
5.1 Recipienti per la raccolta e il trasporto dei campioni
I contenitori utilizzati per la raccolta e il trasporto dei campioni non devono alterare il valore
di quei parametri di cui deve essere effettuata la determinazione, in particolare:
-non devono cedere o adsorbire sostanze, alterando la composizione del campione;
-devono essere resistenti ai vari costituenti presenti nel campione;
-devono garantire la perfetta tenuta, anche per i gas disciolti e per i composti
volatili, ove questi siano oggetto di determinazioni analitiche.
I materiali più usati per i contenitori sono generalmente il vetro, la plastica e altri materiali.
Riguardo al vetro, che rimane il materiale da preferire, esistono in commercio diverse qualità
che si differenziano per la composizione e per la resistenza agli agenti fisici e chimici. Tra
questi i più indicati sono il vetro Pyrex (boro-silicato) e il Vycor (ad alto contenuto di silicio)
che è di qualità migliore ma ha costi più elevati.
Nel caso in cui non sia richiesta una particolare impermeabilità ai gas o nel caso in cui non
vi siano interferenze dovute agli additivi organici (per esempio, plastificanti), si può ricorrere
all’uso di materiale plastico che presenta il vantaggio di essere leggero, resistente all’urto ed
economico. In questi casi, il polietilene* presenta il vantaggio di essere più resistente agli
agenti chimici ed alle variazioni termiche e presenta inoltre una buona resistenza all’urto.
Sono anche segnalati contenitori costituiti da altro materiale polimerico come il policarbonato
(soprattutto per campioni contenenti metalli), il teflon, il cloruro di polivinile e il polimetilpentene
(TPX).
* Il polietilene e il TPX sono, tra i materiali plastici impiegati, quelli che mediamente cedono meno impurezze e pertanto sono
consigliabili quando è necessario determinare concentrazioni dell’ordine di 10-9 parti (m/m o m/v).
PARTE GENERALE
Acidità e alcalinità
Anidride carbonica
Azoto ammoniacale
Azoto nitrico
Azoto nitroso
Azoto totale
Boro
Calcio
Cianuri (totali)
Cloro
Cloruro
Conducibilità
Durezza
Fluoruro
Fosfato inorganico
Fosforo totale
Metalli disciolti
Metalli totali**
Cromo (VI)
Mercurio
Ossigeno disciolto
(elettrodo)
Ossigeno disciolto
(metodo di Winkler)
pH
Potassio
Silice
Sodio
Solfato
Solfito
Solfuro
Torbidità
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Polietilene, vetro
Vetro
Polietilene, vetro
Polietilene
Polietilene
Polietilene
Polietilene, vetro
Polietilene
Polietilene, vetro
Polietilene, vetro
Refrigerazione *
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Aggiunta di NaOH fino a
pH>12, refrigerazione al buio
-
Refrigerazione
-
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Aggiunta di H2SO4 fino a
pH< 2 e refrigerazione
Filtrazione su filtri da 0,45
µm; aggiunta di HNO3
fino a pH<2
Aggiunta di HNO3 fino
a pH<2
Refrigerazione
Aggiunta di HNO3 fino
a pH<2, refrigerazione
Aggiunta di reattivi di
Winkler sul posto
-
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione
Refrigerazione, aggiunta di
acetato di zinco; aggiunta
di NaOH fino a pH>9
Refrigerazione al buio
24 ore
Analisi immediata
24 ore
48 ore
Analisi prima possibile
24 ore
1 settimana
24 ore
24 ore
Analisi immediata
1 settimana
Analisi immediata
24 ore
24 ore
1 settimana
24 ore
1 mese
1 mese
1 mese
24 ore
1 mese
Misura “in situ”,
analisi immediata
24 ore
Analisi immediata
6 ore
1 settimana
1 settimana
1 settimana
1 mese
24 ore
1 settimana
24 ore
Composto Tipo di contenitore Conservazione Tempo massimo di conservazione
Tabella 2: Raccomandazioni per la conservazione di campioni acquosi tra il campionamento e l’analisi (composti
inorganici)
* Per refrigerazione si intende la conservazione del campione in frigorifero con controllo della temperatura.
** Per metallo totale si intende la somma del metallo disciolto e del metallo estraibile con acido nelle condizioni indicate
Esistono infine contenitori in metallo, per esempio acciaio inox, usati per alcuni campionamenti
particolari, ma il loro impiego non è molto diffuso.
PARTE GENERALE
Aldeidi
BOD
COD
Composti fenolici
Idrocarburi policiclici
aromatici (PAH)
Oli e grassi
Pesticidi organoclorurati
Pesticidi organofosforati
Policlorobifenili (PCB)
Solventi clorurati
Solventi organici
aromatici
Tensioattivi
Vetro scuro
Polietilene, vetro
Polietilene, vetro
Vetro
Vetro scuro
Vetro
Vetro
Vetro
Vetro
Vetro
Polietilene, vetro
Refrigerazione*
Refrigerazione
Refrigerazione.
Aggiunta di H2SO4
fino a pH< 2
Refrigerazione,
aggiunta di H2SO4
fino a pH< 2
Refrigerazione
Aggiunta di HCl fino
a pH< 2
Refrigerazione,
aggiunta del solvente
estraente
Refrigerazione,
aggiunta del solvente
estraente
Refrigerazione
Refrigerazione,
riempimento contenitore
fino all’orlo
Refrigerazione,
riempimento contenitore
fino all’orlo
Refrigerazione
Aggiunta di 1% (v/v)
di formaldeide al 37%
24 ore
24 ore
Analisi immediata
1 settimana
1 mese
48 ore
40 giorni dopo
l’estrazione
1 mese
7 giorni
24 ore
7 giorni prima
dell’estrazione;
40 giorni dopo
l’estrazione
48 ore
48 ore
24 ore
1 mese
Composto Tipo di contenitore Conservazione Tempo massimo di conservazione
Tabella 3: Raccomandazioni per la conservazione di campioni acquosi tra il campionamento e l’analisi (composti or-
ganici)
* Per refrigerazione si intende la conservazione del campione in frigorifero con controllo della temperatura.
In linea generale il volume del campione dipende dalle determinazioni da eseguire e dal metodo
di analisi impiegato. Si consiglia di prelevare in ogni caso quantità di campione in eccesso
e di distribuirlo in più contenitori, in modo da premunirsi dalla possibilità di perdita del
campione per eventuali incidenti ed avere la possibilità di compiere ulteriori accertamenti, se
ritenuti in seguito necessari. Tale aspetto è fondamentale, ad esempio, nel settore delle analisi
forensi. Qualora si renda necessario evitare il contatto del campione con l’aria o si debbano
analizzare sostanze volatili, si consiglia di riempire il contenitore fino all’orlo. In quest’ultimo
caso tale accortezza impedisce il trasferimento degli analiti nello spazio di testa e la
loro perdita all’atto dell’apertura dei contenitori.
BIBLIOGRAFIA
ANPA (1999): “Le principali metodiche di campionamento ed analisi del particellato in sospensione
in ambienti acquatici”, Rassegna bibliografica, Serie Documenti 9/1999, ISBN 88448-
0019-5, 140p.
APHA, AWWA, WEF (1998): “Standard Methods far the Examination of Water and Wastewater”,
XX Ed. (Washington, APHA).
PARTE GENERALE
BARBIZZI S., de ZORZI P., GALAS C. (2002): “Metrologia e conduzione del campionamento
ambientale”, Tutto Misure, Augusta-Edizioni Mortarino, n. 01, anno IV.
BAUDO R. (1990): “Sediment sampling, mapping, and data analysis”, in R. Baudo, J. Giesy
and H. Muntau (Eds), Sediments: Chemistry and toxicity of in-place pollutants, Lewis Publisher,
Inc., Chelsea, Michigan, 15-60.
BENOLIEL M.J. (1994): “Sample storage for inorganic compounds in surface waters – a review”,
Inter. J. Environ. Anal. Chem., 57, 197-206.
BENOLIEL M.J. (1994): “Preservation techniques for analysis of organic compounds in water
samples – a review”, Inter. J. Environ. Anal. Chem., 57, 231-236.
CANTER L.W., KNOX R.C. & FAIRCHILD D.M. (1987): “Ground water quality protection,
Lewis Publisher, Inc., Chelsea, Michigan, 562 pp.
EURACHEM/CITAC Guide (2000): “Quantifying Uncertainty in Analytical Measurement”, Laboratory
of Government Chemist, London, April.
GALAS C., SANSONE U. & BELLI M. (2002): “Intercomparison of freshwater and suspended
particles sampling methodologies used in environmental radioactivity monitoring”, Final Report
1999-2001, European Commission Contract n° 99/70549, ISBN 88-448-0045-4, ANPA,
Serie Rapporti 13/2002, 113p.
ISO 5667-4 (1987): “ Guidance on sampling from lakes, natural and man made”.
KIETH L.H. (1996): “Principles of Environmental Sampling”, ASC Professional Reference,
American Chemical Society, Washington DC.
KRAICA J.M. (1989): “Water sampling”, J. Wiley and Sons, New York, 212 pp.
MYERS J.C. (1997): “Geostatistical Error Management – Quantifying Uncertainty for Environmental
Sampling and Mapping”, International Thomson Publishing Company, USA.
RAMSEY M.H. (1998): “Sampling as a source of measurement uncertainty: techniques for
quantification and comparison with analytical sources”, J. Anal. Atom. Spectrom., 13, 97-104.
SANSONE U., BELLI M., RICCARDI M., ALONZI A., JERAN Z., RADOJCO J., SMODIS B.,
MONTANARI M. & CAVOLO F. (1998): “Adhesion of water-borne particulates on freshwater
biota”, Sci.Total Environ., 219, 21-28.
UNI EN 25667-1 (1996): “Guida alla definizione di programmi di campionamento”, Milano.
UNI EN 25667-2 (1996): “Qualità dell’acqua Campionamento”, Guida alla definizione di
programmi di campionamento.
UNI EN ISO 5667-3 (1998): “Qualità dell’acqua Campionamento”, Guida per la conservazione
ed il maneggiamento di campioni.
WAGNER G. (1995): “Basic approaches and methods for quality assurance and quality control
in sample collection and storage for environmental monitoring”, Sci. Total Environ. 176,
63-71.
WORLD HEALTH ORGANIZATION (1982): “Design of sampling systems”, Manual on Analysis
for Water Pollution Control, Ginevra.
P A R T E G E N E R A L E
1040. Qualità del dato analitico
Introduzione
Questo capitolo riguarda una scelta di informazione essenziale sulla valutazione dell’incertezza
di misura nonché il trattamento dei dati sperimentali. Il capitolo si basa su quanto riportato
nelle pubblicazioni UNI CEI EN ISO/IEC 17025, UNI CEI ENV 13005 e EURACHEM/
CITAC Guide “Quantifying Uncertainty in Analytical Measurement”.
1. Errore
Tradizionalmente, un errore è costituito da due componenti, una casuale o aleatoria ed una
sistematica.
1.1 Errori sistematici
La caratteristica degli errori sistematici è di influire in genere sempre nello stesso senso e
nella stessa misura nelle successive ripetizioni dell’osservazione. Tali errori non possono essere
eliminati ma il loro effetto può essere ridotto. Se una grandezza che influenza il risultato
di una misurazione produce un effetto identificato come errore sistematico, tale effetto
può essere quantificato e compensato, se di proporzioni significative rispetto all’accuratezza
richiesta alla misurazione, apportando una correzione. Ovviamente, una volta effettuata
la correzione il valore atteso dell’errore generato da un effetto sistematico si ipotizza
uguale a zero.
1.2 Errori casuali
Gli errori casuali o accidentali sono originati da variazioni non prevedibili o casuali, nel tempo
e nello spazio, delle grandezze che influenzano il risultato della misurazione. Per quanto
l’operatore si sforzi di eseguire la determinazione con la massima cura possibile, tale tipo di
errori influenza sempre l’analisi e quindi i risultati di questa. La loro presenza è messa in evidenza
dal fatto che, se per uno stesso campione si ripete più volte e con lo stesso metodo il
dosaggio di un certo elemento, si ottengono in genere risultati diversi.
Benché non sia possibile correggerli, gli errori casuali possono essere ridotti codificando
accuratamente il metodo di analisi, operando con grande cura ed attenzione e aumentando
il numero di determinazioni. L’influenza degli errori casuali sui risultati analitici può
essere stimata mediante l’analisi statistica dei risultati ottenuti in una serie di determinazioni
ripetute.
2. Esattezza e precisione
Gli errori sistematici determinano il grado di esattezza del risultato: minore è l’entità di tali
errori e più esatti sono i risultati di una determinazione. Gli errori casuali determinano invece
la precisione del risultato analitico. Questa viene comunemente espressa in termini di dispersione
dei risultati intorno alla loro media aritmetica cioè, quantitativamente, in termini di
scarto quadratico medio o scarto tipo.
Una misura è da considerarsi esatta quando chi la esegue si è posto nelle condizioni speri
87
PARTE GENERALE
mentali adatte, usa strumenti idonei e predispone l’apparecchiatura in modo che essa fornisca
effettivamente le informazioni richieste. Una misura è da ritenersi precisa quando lo sperimentatore
che l’ha eseguita è in grado di indicare, oltre al valore numerico di essa, l’entità
degli effetti casuali dai quali essa è affetta.
3. Incertezza
Il concetto di incertezza, in quanto attributo quantificabile, è relativamente nuovo nella storia
della misurazione, benché concetti come errore ed analisi dell’errore siano stati presenti a lungo
nella pratica della scienza della misurazione o della metrologia. Attualmente è accettato
che, allorquando tutte le componenti di errore, note o ipotizzate, siano state valutate e le relative
correzioni apportate, rimanga tuttavia un’incertezza sulla correttezza del risultato.
“Incertezza” significa dubbio, pertanto “incertezza di misura” significa dubbio circa la validità
del risultato di una misurazione, in altre parole l’incertezza rispecchia la mancanza di una conoscenza
esatta del valore del misurando. Il risultato di una misurazione, anche dopo essere
stato corretto per gli effetti sistematici identificati, è ancora solamente una stima del valore del
misurando a causa dell’incertezza originata dagli effetti casuali e dalla non perfetta correzione
del risultato per gli effetti sistematici. La definizione formale dell’incertezza è: “parametro,
associato al risultato di una misurazione, che caratterizza la dispersione dei valori ragionevolmente
attribuibili al misurando”. Pertanto, mentre l’errore è un singolo valore, l’incertezza
rappresenta un intervallo di valori che, ad un certo livello di fiducia stabilito, possono essere
attribuiti al misurando.
L’incertezza in generale comprende più componenti. Alcune di queste possono essere valutate
dalla distribuzione statistica dei risultati di una serie di misurazioni e possono essere caratterizzate
mediante scarti tipo sperimentali (deviazioni standard). Le altre componenti, caratterizzabili
anch’esse mediante scarti tipo, sono valutate da distribuzioni di probabilità ipotizzate
sulla base dell’esperienza o di informazioni di altro tipo.
3.1 Metodologia per la valutazione dell’incertezza associata ad un risultato analitico
La guida EURACHEM/CITAC e la UNI CEI ENV 13005 “Guida all’espressione dell’incertezza
di misura” forniscono indicazioni operative per valutare l’incertezza associata ad un risultato
analitico. Nel riportare il risultato di una misurazione è necessario:
-specificare il misurando;
-descrivere chiaramente i metodi usati per calcolare il risultato di una misurazione
e la sua incertezza dalle osservazioni sperimentali e dai dati di ingresso;
-identificare le sorgenti di incertezza e documentare in modo esauriente come
esse sono state valutate;
- quantificare le componenti dell’incertezza;
- calcolare l’incertezza combinata o composta;
-presentare l’analisi dei dati in modo tale che ogni passaggio possa essere agevolmente
seguito e che il calcolo del risultato riportato possa essere ripetuto in
modo autonomo, se necessario;
- fornire le correzioni e le costanti utilizzate nell’analisi e le loro fonti.
La presentazione finale del risultato della misura analitica y e la sua incertezza tipo composta
Ic sarà quindi:
Y = y ± Ic(y).
In linea di massima, nell’analisi ambientale i principali contributi all’incertezza del risultato
analitico finale sono identificabili nelle seguenti fonti:
-il campionamento, che comprende una serie di operazioni quali il prelievo del
campione, la conservazione, il trasporto e l’immagazzinamento;
88
PARTE GENERALE
-la preparazione e il pre-trattamento del campione (essiccazione, omogeneizzazione,
ripartizione, digestione, diluizione, estrazione, separazione);
-il processo analitico, ossia la misurazione del misurando in esame.
Traducendo in forma semplificata, l’incertezza combinata Ic di una misura analitica y può
quindi ricondursi al contributo:
- dell’incertezza derivante dal campionamento = Icamp;
- dell’incertezza derivante dal pre-trattamento del campione = Ipc;
- dell’incertezza dovuta alla fase analitica = Ia.
La formula per calcolare l’incertezza tipo composta diventerà quindi:
I diversi contributi all’incertezza associata al risultato di un processo analitico possono essere
efficacemente visualizzati tramite il diagramma causa-effetto (fishbone), come suggerito
dalla guida EURACHEM/CITAC. Per “causa” si intende l’incertezza associata alla particolare
operazione o procedura eseguita, mentre per “effetto” si intende l’incertezza globale associata
ad esempio al risultato di una misurazione analitica o ad una fase dell’analisi ambientale
che poi interverrà a sua volta come “causa” nel diagramma della misura analitica.
La guida EURACHEM/CITAC descrive anche i passi successivi per quantificare le incertezze.
Non sempre può essere necessario o conveniente valutare tutte le componenti dell’incertezza
separatamente, ovvero spesso è possibile effettuare esperimenti, quali gli studi interlaboratorio,
da cui è possibile stimare incertezze cumulative senza avere la necessità di quantificarle
separatamente. In alcuni casi, inoltre, è possibile che alcune incertezze, una volta quantificate,
possano risultare trascurabili o che alcune incertezze non possano essere valutate. In questi
casi può essere di aiuto l’esperienza degli operatori o i risultati di altre esperienze similari
riportati nella bibliografia ufficiale. C’è anche da evidenziare il fatto che, considerando l’equazione
sopra riportata dell’incertezza tipo composta, il fattore dell’incertezza dovuta alla
fase analitica di un processo di misura, come riportato nella guida EURACHEM/CITAC, è valutabile
in più modi, ad esempio tramite il confronto con materiali di riferimento oppure direttamente
dalla relazione matematica che specifica il misurando e la corrispondenza con i
diversi parametri dai quali dipende il misurando stesso. Al contrario, le componenti dell’incertezza
dovute al campionamento e al pre-trattamento non sono così “facilmente” determinabili
poiché di fatto non esistono materiali di riferimento “ad hoc” ed inoltre non è banale
ricondurre l’operazione di campionamento ad una espressione matematica che correli i parametri
dalla quale sia possibile stimare l’incertezza.
4. Valutazione statistica dei risultati sperimentali
Limitiamo ora la nostra attenzione allo studio degli errori casuali o accidentali, prescindendo
dagli effetti dovuti agli errori sistematici che non possono essere identificati e valutati per mezzo
di metodologie statistiche, ma che possono essere spesso minimizzati dalla opportuna scelta
del metodo, dall’accortezza e dall’abilità dell’analista.
Gli errori casuali dipendono da circostanze perturbatrici che si verificano indifferentemente
nei due sensi e che tendono a compensarsi all’aumentare del numero delle determinazioni.
La misura di una grandezza, può quindi essere affetta da errori casuali sia positivi che negativi,
la cui entità può essere valutata per mezzo di metodi statistici.
4.1 La distribuzione normale o di Gauss
Come accennato in precedenza, l’esecuzione di un’analisi è soggetta ad un gran numero di
circostanze, le quali, agendo indipendentemente l’una dall’altra, fanno sì che l’effetto complessivo
che determina il risultato sia accidentale.
89
PARTE GENERALE
Queste condizioni «perturbatrici» si verificano indifferentemente nei due sensi e tendono a
compensarsi all’aumentare del numero delle determinazioni. Da ciò deriva che non esiste «a
priori» alcun motivo per preferire un risultato al posto di un altro: si pone pertanto il problema
di una rappresentazione dei risultati stessi che consenta di far fronte all’indeterminatezza
sperimentale.
All’atto pratico si tratta di trovare un valore in grado di caratterizzare la serie dei risultati. A
tale riguardo la media aritmetica, per la sua semplicità concettuale ed operativa, parrebbe
l’operazione più congrua. Tra l’altro, sotto il profilo strettamente matematico, quando il numero
delle determinazioni tende all’infinito, essa gode delle proprietà di avere per limite il valore
vero della quantità misurata, mentre la somma delle differenze degli scarti da essa è
uguale a zero.
Tuttavia la media aritmetica da sola non è in grado di rappresentare univocamente una serie
di risultati, tant’è vero che serie con diversa variabilità possono avere la stessa media.
Si rende quindi necessario un valore statistico che esprima il modo con cui i singoli risultati
sono distribuiti rispetto alla media aritmetica stessa.
Per la gran parte delle applicazioni della chimica analitica il parametro che più d’ogni altro
viene utilizzato per definire la variabilità di una serie di misure «coerenti» (effettuate con lo
stesso metodo, dallo stesso operatore, con gli stessi reagenti ecc.) è il cosiddetto «scarto quadratico
medio» o «scarto» tipo s.
È possibile dimostrare che, ove gli errori seguano la distribuzione «normale» o di Gauss e la
serie di misure sia sufficientemente numerosa, il 68,27% dei risultati non differisce dal valore
medio più dello scarto tipo, il 95,46% più del doppio dello scarto tipo, il 99,72% più del triplo
(vedi Fig. 1). Ma è lecito affermare che gli errori analitici seguono una legge del tipo:
nota come funzione normale di probabilità o funzione di Gauss dove s è lo scarto tipo e µ è
il valore medio.
È possibile verificare sperimentalmente che gli errori accidentali tendono a seguire la distribuzione
di Gauss. Difatti una osservazione attenta dei risultati di un congruo numero di analisi
«coerenti» mostra chiaramente che essi si distribuiscono attorno al valor medio, cosicché
la differenza tra il numero degli scarti positivi e quello dei negativi diventa sempre più modesta
all’aumentare del numero totale di essi, mentre gli scarti più grandi in valore assoluto
si presentano con minor frequenza di quelli più piccoli. Intuitivamente ciò si spiega considerando
che moltissime sono le cause, differenti l’una dall’altra che orientano in un senso o nel-
l’altro il risultato sperimentale, per cui la loro azione combinata conduce con la stessa probabilità
ad errori positivi o negativi; ugualmente è meno probabile che le stesse cause spingano
tutte fortemente nello stesso senso.
È pertanto lecito affermare che alla misura che fornisce come risultato il valore x corrisponde
un dato s, tale che il valore vero avrà una probabilità del 68,27% di essere compreso tra (x
-s) e (x + s), ovvero una probabilità del 95,46% di essere compreso tra (x - 2s) e (x + 2s)
o infine una probabilità del 99,72% di essere compreso tra (x - 3s) e (x + 3s) (vedi Fig. 1).
Ugualmente è lecito predire l’esistenza di un valore vero al quale tende il valore medio quando
il numero delle misure tende all’infinito.
4.2 Stima di µ e s
Nella pratica ovviamente non si dispone di un numero particolarmente elevato di osservazioni
sperimentali e quindi i valori effettivi dei parametri statistici µ e s non sono determinabili. Tuttavia
un numero seppure limitato di osservazioni disponibili consente di effettuare una stima
di detti parametri mediante le seguenti espressioni, dove con –
x si indica la stima della media
e con S si indica la stima dello scarto quadratico tipo:
PARTE GENERALE
ove le xi (i = 1,2,…..,N) sono le osservazioni sperimentali. Quanto più numerosa è la serie
delle determinazioni sperimentali, tanto migliori ed accurate sono le stime che –
x e S forniscono
per i parametri µ e s.
Per il calcolo di S è conveniente utilizzare la seguente espressione che si ottiene dalla precedente
mediante semplici trasformazioni
Figura 1: Funzione di distribuzione di una serie di misure di una grandezza x, delle quali µµ è il valore medio e s lo scarto tipo.
In Tab. 1 si riporta, a titolo esemplificativo, il calcolo di S relativo ad una determinazione del-
l’ammoniaca in acqua con il metodo al fenolo-ipoclorito.
È bene rilevare che i diversi calcoli devono essere effettuati considerando tutte le cifre significative
dei dati sperimentali: infatti i parametri statistici del tipo descritto risentono in misura
notevole della sia pure piccola differenza tra le ultime cifre dei risultati sperimentali.
Le considerazioni esposte per una serie di singole determinazioni analitiche rimangono valide
anche se tale serie è costituita da medie di gruppi di singole misure. Anche in questo caso
è possibile definire lo scarto tipo della media (o deviazione standard della media) SM che
assume il significato di parametro caratteristico della distribuzione normale o di Gauss relativa
alle medie di gruppi di determinazioni.
PARTE GENERALE
Taratura A
C (corretta del bianco medio)
(µg/L)
bianco 0,092-0,095-0,100-0,115
2,5 0,028-0,035-0,032-0,037
5,0 0,120-0,115-0,100-0,100
10,0 0,183-0,180-0,175-0,172
15,0 0,245-0,250-0,255-0,250
20,0 0,329-0,330-0,325-0,330
25,0 0,415-0,420-0,400-0,410
30,0 0,482-0,487-0,467-0,477
40,0 0,680-0,665-0,685-0,675
50,0 0,835-0,830-0,820-0,840
x 0,367-0,369-0,364-0,366
(campione incognito) (assorbanza non corretta del bianco)
bianco medio = 0,1005
assorbanza media campione incognito = 0,3665
assorbanza media campione incognito corretta per il bianco = 0,3665-0,1005 = 0,2660
S bianco = 0,0106
S campione incognito = 0,00208
S netto = = 0,0108
coefficiente angolare retta di taratura = 0,0165 ± 0,0001 (A/µg/L)
concentrazione campione incognito = 0,2660/0,0165 = 16,12 µg/L
Ipotizzando una relazione lineare tra assorbanza e concentrazione del tipo y = a·Cx, quindi ricavando la concentrazio-
ne del campione incognito dal rapporto tra l’assorbanza media del campione incognito corretta per il bianco e il coef-
ficiente angolare della retta, l’incertezza associata alla concentrazione del campione incognito è dato dalla formula
dove:
Sy = scarto netto;
y = assorbanza media del campione incognito corretto per il bianco;
Sa = scarto sul coefficiente angolare;
a = coefficiente angolare;
Cx = concentrazione del campione incognito
Risultato Cx = (16,12 ± 0,16) µg/L = (16,1 ± 0,2) µg/L
Tabella 1: Esempio: determinazione spettrofotometrica dell’ammoniaca nelle acque con il metodo al fenolo-ipoclori-
to nell’intervallo di concentrazione 2,5 - 50 µg/L (nella soluzione finale misurata); .. = 635 nm; b = 10 cm.
In conformità a quanto già precedentemente osservato per il parametro S, lo scarto tipo della
media, stimato sulla serie di osservazioni disponibili, è espresso da
Pertanto, mentre lo scarto tipo esprime l’incertezza relativa ad ogni singola determinazione,
lo scarto tipo della media, SM, esprime l’incertezza relativa alla media aritmetica delle diverse
determinazioni sperimentali.
4.3 Intervallo di confidenza
Lo scarto tipo stimato SM consente di determinare «l’intervallo di confidenza» della media,
92
PARTE GENERALE
cioè l’intervallo entro il quale debba trovarsi, ad un determinato livello di probabilità, il valore
“vero” della grandezza da misurare. Ciò permette di ottenere un’idea sufficientemente rappresentativa
del grado di approssimazione della media delle determinazioni sperimentali al
valore vero incognito. Gli estremi inferiore e superiore dell’intervallo di fiducia della media
sono espressi rispettivamente da
ove t è un coefficiente detto «coefficiente di Student», i cui valori dipendono dal livello di probabilità
prescelto e dal numero dei «gradi di libertà» relativi allo scarto tipo delle determinazioni
sperimentali disponibili (*).
È opportuno ricordare che i gradi di libertà per un parametro statistico sono espressi come
differenza tra il numero N delle osservazioni sperimentali ed il numero dei vincoli a cui il parametro
stesso è subordinato. Nel caso in esame, trattandosi di scarti di misure analitiche indipendenti,
l’unico vincolo è che la somma algebrica degli scarti dalla media deve essere nulla:
pertanto i gradi di libertà sono N-1. In Tab. 2 sono riportati i valori del coefficiente t di
Student per diversi gradi di libertà e diversi livelli di probabilità.
1 1,000 1,376 1,963 3,078 6,314 12,706 63,657
2 0,816 1,061 1,386 1,886 2,920 4,303 9,925
3 0,765 0,978 1,250 1,638 2,353 3,182 5,841
4 0,741 0,941 1,190 1,533 2,132 2,776 4,604
5 0,727 0,920 1,156 1,476 2,015 2,571 4,032
6 0,718 0,906 1,134 1,440 1,943 2,447 3,707
7 0,711 0,896 1,119 1,415 1,895 2,365 3,499
8 0,706 0,889 1,108 1,397 1,860 2,306 3,355
9 0,703 0,883 1,100 1,383 1,833 2,262 3,250
10 0,700 0,879 1,093 1,372 1,812 2,228 3,169
11 0,697 0,876 1,088 1,363 1,796 2,201 3,106
12 0,695 0,873 1,083 1,356 1,782 2,179 3,055
13 0,694 0,870 1,079 1,350 1,771 2,160 3,012
14 0,692 0,868 1,076 1,345 1,761 2.145 2,977
15 0,691 0,866 1,074 1,341 1,753 2,131 2,947
16 0,690 0,865 1,071 1,337 1,746 2,120 2,921
17 0,689 0,863 1,069 1,333 1,740 2,110 2,898
18 0,688 0,862 1,067 1,330 1,734 2,101 2,878
19 0,688 0,861 1,066 1,328 1,729 2,093 2,861
20 0,687 0,860 1,064 1,325 1,725 2,086 2,845
21 0,686 0,859 1,063 1,323 1,721 2,080 2,831
22 0,686 0,858 1,061 1,321 1,717 2,074 2,819
23 0,685 0,858 1,060 1,319 1,714 2,069 2,807
24 0,685 0,857 1,059 1,318 1,711 2,064 2,797
25 0,684 0,856 1,058 1,316 1,708 2,060 2,787
26 0,684 0,856 1,058 1,315 1,706 2,056 2,779
27 0,684 0,855 1,057 1,314 1,703 2,052 2,771
28 0,683 0,855 1,056 1,313 1,701 2,048 2,763
G.d.L. 50 40 30 20 10 5 1
Tabella 2: Valori della variabile t di Student
Livello di probabilità %
segue
(*) Nel caso sia stata effettuata una sola misura sperimentale x e sia già noto il valore di S, gli estremi dell’intervallo fiduciale
di tale misura sono espressi da (x - tS) e (x +tS).
PARTE GENERALE
segue
29 0,683 0,854 1,055 1,311 1,699 2,045 2,756
30 0,683 0,854 1,055 1,310 1,697 2,042 2,750
40 0,681 0,851 1,050 1,303 1,684 2,021 2,704
50 0,680 0,849 1,048 1,299 1,676 2,008 2,678
60 0,679 0,848 1,046 1,296 1,671 2,000 2,660
120 0,677 0,845 1,041 1,289 1,658 1,980 2,617
-0,674 0,842 1,036 1,282 1,645 1,960 2,576
G.d.L. 50 40 30 20 10 5 1
Tabella 2: Valori della variabile t di Student
Livello di probabilità %
4.4 Confronto fra risultati
La conoscenza del parametro S, oltre a permettere la stima dell’intervallo di fiducia della media
delle misure, consente di eseguire confronti tra risultati diversi, per mezzo di opportuni test
statistici. Supponiamo ad esempio che uno stesso analista abbia determinato la concentrazione
di cadmio in due campioni di acqua prelevati in tempi diversi da uno stesso fiume ed
abbia eseguito su ciascun campione 5 misure indipendenti con lo stesso metodo di analisi, ottenendo
i seguenti valori:
Campione 1 Campione 2
21,8 µg/L 23,9 µg/L
24,5 “ 28,4 “
23,3 “ 26,9 “
27,6 “ 30,4 “
23,2 “ 26,4 “
x1 = 24,1 µg/L x2 = 27,2 µg/L
L’analista potrà chiedersi se le concentrazioni di cadmio nei due campioni sono effettivamente
diverse, o se la differenza tra due medie possa derivare semplicemente dalla dispersione
delle misure eseguite.
Per rispondere a ciò, egli potrà eseguire un test, comunemente chiamato «test t», che gli permetterà
di valutare, con una certa probabilità, se le due medie possano o non possano essere
considerate stime diverse di uno stesso valore di concentrazione di cadmio. Prima di tutto
fisserà il livello di significatività del test, cioè la probabilità che la valutazione dedotta dal test
non sia vera: in genere sceglierà il livello di significatività 5%, con il quale la sua valutazione
avrà 95 probabilità su 100 di essere corretta. Calcolerà poi gli scarti tipo S1 = 2,2 µg/L
e S2 = 2,4 µg/L della serie di misure dei due campioni.
Dovendo confrontare due medie calcolate da un egual numero di misure (N1 = N2 = 5) gli
sarà sufficiente calcolare il rapporto
e confrontarlo con il valore del coefficiente di Student al livello di probabilità prescelto e per
(*) Nel caso di medie calcolate da numerosità di misure diverse il rapporto assume la forma più generale
dove n1 ed n2 (entrambi molto maggiori di 1) sono rispettivamente la numerosità di misure da cui sono derivate le medie. Il
valore di t ottenuto va confrontato con il valore critico (Tab. 2) in corrispondenza di n1 + n2 - 2 gradi di libertà.
PARTE GENERALE
il numero di gradi di libertà (2N-2 = 8) degli scarti tipo. Tale valore, pari a 2,306 (vedi Tab.
2), risulterà più grande di quello calcolato per il rapporto, per cui l’analista potrà affermare
che, con più di 95% di probabilità, i due valori medi ottenuti sono stime diverse di una stessa
concentrazione: potrà quindi affermare che le concentrazioni di cadmio nei due campioni
sono effettivamente uguali con 95 probabilità su 100.
Il «test t» sopra illustrato non è che un esempio dei molti test statistici che trovano utile applicazione
nella valutazione o nel confronto dei risultati di analisi chimiche: tra essi citiamo il
«test di Dixon», per il confronto tra più risultati; il «test F», per il confronto tra due scarti tipo,
il «test» del «.2», per il confronto tra due scarti tipo.
Ciascuno di questi test permette di eseguire un’analisi dei risultati con rigore matematico, e le
affermazioni che se ne deducono hanno una validità oggettiva, se pur in termini probabilistici.
È necessario però dedicare molta attenzione affinchè il test, e quindi il confronto, venga eseguito
correttamente. Nel caso sopracitato, ad esempio, il confronto è stato possibile solo in
quanto le due medie si riferivano a misure eseguite con lo stesso metodo e dallo stesso analista,
e gli scarti tipo S1, ed S2 potevano essere considerati stime della dispersione di misure
ottenute in questo modo.
Se i due campioni fossero stati analizzati con metodi diversi, o anche con lo stesso metodo
ma da laboratori diversi, il confronto non si sarebbe potuto eseguire con le modalità sopra
descritte. Infatti la differenza tra le due medie sarebbe stata determinata non soltanto dalle
cause di dispersione delle misure eseguite in quel particolare laboratorio, e con quel particolare
metodo, ma anche dalla possibile dispersione derivante dalle diverse condizioni speri-
mentali dei due metodi o dei due laboratori. Nel caso di metodi diversi, inoltre, occorre tenere
presente che la differenza tra le due medie poteva derivare anche dalla differente accuratezza
dei due metodi (*).
5. Ripetibilità e riproducibilità
Si è visto nel paragrafo precedente, che per confrontare i risultati di analisi eseguite in laboratori
diversi, anche supponendo che sia stato usato lo stesso metodo di analisi non è sufficiente
valutare la dispersione tra misure eseguite da uno stesso analista o in uno stesso laboratorio,
ma è necessario valutare anche la dispersione di misure eseguite con lo stesso metodo
ma in laboratori diversi.
Nel parlare di precisione delle misure, ottenute con uno stesso metodo, è opportuno quindi
distinguere a seconda delle cause di variabilità prese in considerazione, facendo ricorso ai
termini seguenti:
-ripetibilità: grado di concordanza tra misure della stessa grandezza (quantità
o concentrazione) nella stessa matrice, ottenute con lo stesso metodo, da uno
stesso analista con gli stessi reattivi e le stesse apparecchiature, in un arco di
tempo ragionevolmente breve;
-riproducibilità: grado di concordanza tra misure della stessa grandezza (quantità
o concentrazione) nella stessa matrice, ottenute con lo stesso metodo in laboratori
diversi.
Analogamente, gli scarti tipo che forniscono la stima della variabilità delle misure eseguite
nelle condizioni di cui sopra vengono chiamati scarto tipo di ripetibilità e scarto tipo di riproducibilità.
I concetti di ripetibilità e di riproducibilità, insieme con quello di esattezza, sono presentati
schematicamente in Fig. 2. In essa viene illustrata una serie di risultati di misure di una stes
(*) In effetti il confronto tra risultati ottenuti con lo stesso metodo da laboratori diversi non presenta particolari difficoltà, mentre
quello fra risultati ottenuti con metodi diversi è sempre affetto dalla difficoltà di valutare correttamente l’accuratezza
dei due metodi, anche in uno stesso laboratorio. Da queste difficoltà deriva l’opportunità di adottare, per la determinazione
di una sostanza in una stessa matrice, un metodo unificato.
PARTE GENERALE
Figura 2: Rappresentazione schematica dei concetti di precisione ed esattezza.
sa grandezza in uno stesso campione, eseguita da più laboratori; tali risultati sono schematizzati
da linee orizzontali.
Si può notare che ogni laboratorio ha eseguito tre misure indipendenti della grandezza, ottenendo
con ciascuna misura un risultato leggermente diverso: per ciascun laboratorio viene riportato
quindi un tratto rettilineo verticale, in corrispondenza della media dei risultati ottenuti.
Per il laboratorio n. 3 viene riportata anche una curva di distribuzione, che illustra la dispersione
delle misure ottenute da quel laboratorio, e quindi la ripetibilità delle sue misure.
Il segmento verticale contrassegnato con –x corrisponde alla media generale di tutti i risultati,
e la curva di distribuzione ad esso associata illustra la dispersione tra le misure dei diversi laboratori,
e quindi la riproducibilità delle misure. La differenza tra il segmento verticale contrassegnato
con –x e quello tratteggiato, che corrisponde al valore vero della grandezza misurata,
illustra l’esattezza delle misure.
Mentre la ripetibilità delle misure eseguite con un certo metodo può essere valutata con relativa
facilità, effettuando una serie di misure in uno stesso laboratorio, la riproducibilità delle
misure richiede l’organizzazione e l’esecuzione di prove interlaboratorio.
Tali prove devono coinvolgere un numero più o meno elevato di laboratori, opportunamente
scelti; è, infatti, evidente che la riproducibilità delle misure può dipendere anche fortemente
dalle caratteristiche dei laboratori coinvolti.
6. Caratteristiche di un metodo di analisi
6.1 Ripetibilità, riproducibilità ed esattezza
Ripetibilità, riproducibilità ed esattezza sono caratteristiche analitiche dei risultati ottenuti con
un certo metodo: esse però vengono spesso estese allo stesso metodo di analisi, intendendo
con riproducibilità di un metodo, ad esempio, la riproducibilità dei risultati ottenuti con il metodo
stesso. Tale estensione, che a rigore non sarebbe accettabile, è entrata ormai nel linguaggio
comune.
Essa può essere accettata solo tenendo presente che l’esattezza e la dispersione delle misure
ottenute con un certo metodo possono dipendere fortemente dalle caratteristiche del laboratorio
(o dei laboratori) in cui le misure vengono eseguite; e che la dispersione dei risultati dipende
in genere dal valore della grandezza che viene misurata.
Per definire la ripetibilità, la riproducibilità di un metodo è quindi necessario aver cura di utilizzare
laboratori opportunamente scelti tra quelli che presumibilmente dovranno applicare il
96
PARTE GENERALE
metodo stesso, o con caratteristiche simili ad essi, eseguendo prove interne e prove interlaboratorio.
È necessario, inoltre, effettuare le prove in modo da ottenere informazioni su ripetibilità, riproducibilità
del metodo per diversi valori della grandezza da misurare, e trovare una correlazione,
anche empirica, tra tali caratteristiche ed il valore della grandezza.
Infine, non si deve trascurare il fatto che tali caratteristiche dipendono anche dal grado di
esattezza con cui vengono fornite le istruzioni per applicare il metodo di analisi.
È quindi opportuno eseguire le prove interlaboratorio distribuendo ai partecipanti il metodo
di analisi redatto nella sua forma definitiva: qualsiasi variazione successiva nella redazione
del metodo potrebbe infatti causare una variazione delle caratteristiche del metodo
stesso.
6.2 Limite di rivelabilità
Un’altra caratteristica importante di un metodo di analisi è il suo «limite di rivelabilità».
La conoscenza di tale limite non è soltanto una informazione su quale sia il valore minimo della
grandezza misurata (quantità o concentrazione) rivelabile con un certo metodo, ma permette anche
di esprimere correttamente un risultato di analisi quando nel campione analizzato il valore
della grandezza misurata non è risultato significativamente diverso da zero (valore del bianco).
Non esiste una definizione universalmente accettata di limite di rivelabilità, nè vi è accordo
sul modo con cui determinarlo.
Tra le varie definizioni, si ritiene che la più corretta ed adeguata sia la seguente: il limite di
rivelabilità di un metodo di analisi è il valore minimo delle grandezze da misurare (quantità
o concentrazione), che dà luogo ad un risultato che ha una certa probabilità (generalmente
il 95%) di essere valutato statisticamente maggiore del risultato che si sarebbe ottenuto se in
quello stesso campione la grandezza avesse avuto valore zero (bianco).
Il limite di rivelabilità è quindi strettamente correlato alla ripetibilità del metodo, in quanto si
tratta in pratica di un confronto tra due valori ipotetici ottenuti dallo stesso analista, con gli
stessi reattivi ed apparecchiature e nello stesso momento.
Ciò appare evidente in Fig. 3. Per poter essere riconosciuto diverso dal valore di zero, un risultato
deve essere superiore ad A.
Per ottenere ciò, però, non è sufficiente che il valore della grandezza sia superiore ad A: se
la grandezza ha il valore B in figura, ad esempio, la probabilità di ottenere un risultato inferiore
ad A è piuttosto elevata.
Solo quando il valore della grandezza è pari ad LR la probabilità di ottenere un risultato inferiore
ad A si limita al 5%.
Su queste basi, il limite di rivelabilità di un metodo risulta pari a:
LR = tS0 + tSL = t (S0 + SL)
dove t è il coefficiente di Student al livello di probabilità 95%, mentre S0 ed SL sono gli scarti
tipo di ripetibilità del risultato per un livello della grandezza pari a zero ed a LR rispettivamente.
Poiché normalmente S0 = SL si avrà:
LR = 2t·S0.
Come si è già accennato, la conoscenza del limite di rivelabilità di un metodo è particolarmente
utile quando si debba esprimere il risultato di un’analisi nella quale il valore della grandezza
misurata non è risultato significativamente diverso da zero. Non è corretto infatti riportare
zero come risultato dell’analisi, ma è necessario riportare che la grandezza misurata
è risultata inferiore al limite di rivelabilità LR.
PARTE GENERALE
Figura 3: Rappresentazione schematica del concetto di limite di rivelabilità.
7. La validazione del dato analitico
L’affidabilità del dato analitico è assicurata dalle seguenti condizioni:
-il laboratorio che esegue la misura deve seguire le procedure periodiche di
controllo di qualità (carte di controllo ecc.);
-il laboratorio che esegue la misura deve utilizzare metodi analitici normati o
armonizzati a livello nazionale e/o internazionale;
-il laboratorio che esegue la misura deve partecipare periodicamente ad esercizi
di interconfronto.
8. Strumenti a disposizione per l’assicurazione della qualità delle analisi
Le procedure autonomamente adottate e regolarmente applicate all’interno dei laboratori per
l’assicurazione della qualità delle analisi possono essere numerose e diversificate a seconda
delle tipologie di campioni che vengono analizzati (acque di pioggia, acque correnti, lacustri
o di falda, acque reflue o di impianto industriale, ecc.), e della maggiore o minore omogeneità
delle matrici. Una importante differenza risiede inoltre nelle procedure adottabili in laboratori
che svolgono attività ripetitive (controllo, monitoraggio, ecc.) rispetto a quelle applicabili
nel caso di laboratori di ricerca o in quelli che effettuano analisi saltuarie di matrici acquose.
Un elenco generale delle principali operazioni è riportato in Tab. 3, nella quale sono
stati selezionati i controlli più comuni adottabili nel caso di laboratori di medie dimensioni (45
analisti) con una sufficiente cadenza di operazioni analitiche (ad esempio circa 20-30 campioni
settimanali) solo su matrici acquose omogenee.
La distinzione indicata in tabella tra operazioni continue e periodiche è da considerarsi in tutti
i casi orientativa ed esemplificativa. In altri termini, in un piano di qualità si deve distinguere
tra le procedure da compiere costantemente ad ogni analisi e quelle che invece è sufficiente
effettuare con periodicità. Naturalmente i casi che si possono annoverare a questo proposito
sono infiniti e dipendono essenzialmente dalla tipologia del metodo analitico, dall’analita e
dalla sua concentrazione. Nei casi più favorevoli di misure di specie macrocostituenti stabili
con metodi selettivi e con elevate precisioni, è relativamente semplice condurre una distinzio
PARTE GENERALE
Controllo dell’acqua reagente P
Controllo dei reagenti C
Tarature con standard P
Determinazione dei limiti di rilevabilità e quantificazione P
Analisi di duplicati C
Carte di controllo C
Analisi di campioni con riferimenti interni P
Analisi di campioni certificati P
Controllo delle unità di misura e dei calcoli dei risultati C
Controllo della consistenza interna delle analisi C
Confronto con dati pregressi C(*)
Confronto dei risultati ottenuti in interconfronti tra laboratori P
C: continuo; P: periodico; (*) quando possibile.
Controllo Periodicità
Tabella 3: Principali controlli di qualità interni che devono essere effettuati per garantire la qualità dei risultati ana-
litici nella determinazione di analiti nelle acque.
ne operativa tra procedure continue e periodiche. In generale però tali situazioni sono circoscritte
a poche variabili (specie di origine geochimica: metalli alcalini ed alcalino-terrosi, sol-
fati, cloruri, ecc.; nutrienti: nitrati, ecc.). Molto più comune è invece il caso della determinazione
di specie poco stabili, a basse concentrazioni ed in presenza di interferenze. In queste
situazioni le periodicità dei controlli devono essere profondamente riviste ed in taluni casi è
comune considerare come normali anche numeri di repliche, bianchi di controllo, riferimenti
interni, controlli delle tarature, ecc., che possono giungere a rappresentare oltre la metà dei
campioni analizzati.
Una delle fasi delle operazioni analitiche che richiedono una verifica costante sono le procedure
di calcolo dei risultati e della loro trascrizione finale. Molto frequenti sono, infatti, i casi di errori
commessi in fasi esterne alle procedure chimico-analitiche o fisiche vere e proprie, a seguito
dell’abitudine alla effettuazione di calcoli ripetitivi, al mancato controllo degli ordini di grandezza
in caso di operazioni automatiche oppure all’errata trascrizione materiale dei numeri.
Gli strumenti a disposizione del laboratorio per valutare ed incrementare la qualità delle prestazioni
analitiche sono molteplici. Tra questi i più importanti sono certamente l’utilizzo di materiali
di riferimento (certificati e non) e la partecipazione a studi interlaboratorio (“proficiency
testing”, “intercomparison exercise”, “interlaboratory study”, “round robin”).
Oltre agli strumenti precedentemente citati, all’interno di un singolo laboratorio, il controllo di
qualità sui risultati ottenuti comprende una serie di provvedimenti, tra cui:
-la determinazione di un bianco reagenti o, meglio ancora, di un bianco del
metodo, che tenga conto di tutte le possibili contaminazioni provenienti dalla
strumentazione utilizzata durante l’analisi;
-l’utilizzo di campioni di controllo di qualità, caratterizzati da una verificata stabilità
nel tempo;
-la ripetizione delle analisi;
- l’effettuazione di eventuali prove di recupero.
Il controllo di qualità è una verifica che le fluttuazioni osservate nei risultati di analisi ripetute
rientrino in un certo intervallo di accettabilità. La ripetizione della misura di un campione di
riferimento risulta pertanto essere un sistema di monitoraggio comunemente utilizzato.
8.1 Materiali di riferimento
Si tratta di materiali caratterizzati da un’elevata omogeneità dell’analita, sottoposti ad una
preparazione molto accurata da parte di enti preposti. Le linee Guida ISO 34:1996 stabiliscono
la corretta procedura per la preparazione di materiali di riferimento. Qualora il mate
99
PARTE GENERALE
riale di riferimento venga sottoposto ad un processo di certificazione, allora diventa un materiale
di riferimento certificato; tale processo deve essere in accordo con le Linee Guida ISO
35:1989, che riguardano proprio “I principi generali e statistici da seguire nella certificazione
di materiali di riferimento”.
I materiali di riferimento vengono utilizzati per la validazione di un metodo, per la riproducibilità
di un metodo nel tempo, ad esempio mediante la compilazione di una carta di controllo,
e per la valutazione dell’esattezza di un metodo analitico. Caratteristiche essenziali di
tali materiali sono l’elevata omogeneità e la stabilità nel tempo degli analiti.
I risultati analitici possono essere ritenuti accurati e confrontabili su scala internazionale soltanto
se riferibili.
La riferibilità di un risultato può essere raggiunto tramite una catena ininterrotta di interconfronti
in grado di collegare il processo di misura ad unità del Sistema Internazionale SI.
Spesso nelle analisi chimiche tale catena risulta interrotta in quanto il trattamento dei campioni
porta alla distruzione fisica degli stessi. È necessario dimostrare che durante il trattamento
del campione non vi siano contaminazione del campione e/o perdite degli analiti di
interesse.
I materiali di riferimento sono uno strumento molto utile per il controllo di qualità, in quanto
rappresentano la sola maniera a disposizione dei laboratori per garantire l’affidabilità delle
procedure analitiche utilizzate.
8.1.1 Materiali di Riferimento Certificati (CRM)
La preparazione di materiali di riferimento certificati è un processo che comporta un notevole
dispendio di tempo, risorse economiche e tecnico-scientifiche.
I materiali di riferimento certificati risultano quindi dei materiali molto costosi ed il loro utilizzo
dovrebbe essere limitato. L’utilizzo appropriato dei materiali di riferimento certificati è
chiaramente specificato in apposite direttive dell’ISO; in particolare la ISO Guide 32:1997 si
occupa della taratura in chimica analitica e dell’utilizzo di CRM, mentre la ISO Guide
33:1989 riguarda l’utilizzo dei CRM.
In particolare i CRM dovrebbero essere utilizzati per:
-verificare l’accuratezza dei risultati ottenuti in laboratorio;
-tarare strumentazione che richiede materiali simili alla matrice (p.es. Spettrometria
a raggi X);
- dimostrare l’equivalenza tra metodi differenti;
- individuare errori nella applicazione di metodi normati (p.es. ISO, ASTM, ecc.).
-“testare” materiali di riferimento non certificati, e quindi meno costosi, che possono
essere successivamente utilizzati per il controllo di qualità di routine.
L’utilizzo di materiali di riferimento certificati durante la validazione di un metodo assicura
che i risultati siano riferibili, ovvero che il risultato finale possa essere messo in relazione con
il sistema internazionale delle unità di misura; consente inoltre di verificare se la procedura
utilizzata è più o meno adeguata allo scopo prefisso.
Nel caso di non disponibilità di CRM in matrici confrontabili ai campioni oggetto dell’analisi,
l’uso di CRM di composizione diversa non è sufficiente a garantire l’affidabilità e la riferibilità
dei risultati. L’utilizzo del maggior numero di CRM con composizione il più possibile simile
ai campioni incogniti riduce il rischio di produrre dati non affidabili.
Alcuni tra i più importanti enti di certificazione a livello mondiale sono riportati in Tab. 4.
Nel caso particolare dell’analisi di acque, sono disponibili numerosi materiali di riferimento;
due grandi enti di certificazione, quali NIST e BCR coprono vari campi di analisi, assicurando
una disponibilità a lungo termine di CRM. La maggiore fonte di informazione sui materiali
di riferimento è la Banca Dati COMAR, situata nel “Laboratoire National d’Essais” (LNE), in
Francia, nata per iniziativa di LNE, BAM (Germania) e LGC (Regno Unito). I CRM possono
essere campioni compositi, composti da una miscela di vari campioni, campioni simulati, preparati
per uno scopo particolare, o campioni “fortificati”, con l’aggiunta di opportune quantità
di analita. Dall’elenco di alcuni CRM riportato in Tab. 5, risulta evidente che la maggior
100
PARTE GENERALE
Tabella 4: Elenco dei più importanti Enti di Certificazione nel mondo
SM&T-BCR Standard Measurements and Testing Programme - European Commission Reference Bureau of Standards
NIST National Institute for Standards and Technology - USA
NRC National Research Council - Canada
NIES National Institute for Environmental Sciences - Giappone
IAEA International Atomic Energy Agency - ONU – Austria
NRCCRM National Research Centre for Certified Reference Materials - Cina
LGC Laboratory Government Chemist - UK
NWRI National Water Research Institute - Canada
BAM Bundesanshalt fur Materialforshung und Prufung - Germania
parte dei componenti certificati in materiali di riferimento acquosi sono di natura inorganica.
Tuttavia è in fase di preparazione una serie di CRM di nuova generazione in cui vengono presi
in considerazione anche componenti a stabilità inferiore, quali ad esempio i composti organofosforici
e le triazine.
Da un’indagine recentemente svolta sui CRM in soluzione acquosa attualmente reperibili (Tab.
5) è emerso che per i costituenti maggiori esistono numerosi CRM relativi a deposizioni umi-
Tipo di matrice acquosa Analita(i) Nominativo da catalogo Ente di certificazione
Tabella 5: Elenco di alcuni CRM disponibili presso tre diversi enti di certificazione (BCR, NRC e NIST) per l’analisi di acque
Acqua liofilizzata Cr III/VI, Cr CRM 544 BCR
Pesticidi CRM 606 BCR
Acqua distillata fortificata Elementi maggiori ION-92 NWRI
Elementi in traccia TM-23-28 NWRI
Elementi in traccia TM-DA-51-54 NWRI
Acqua naturale Elementi maggiori ION-94 NWRI
Hg SRM 1641c NIST
Elementi in traccia SRM 1640 NIST
Elementi in traccia SRM 1643d NIST
Acqua piovana
sintetica Elementi maggiori (b.c.) CRM 408 BCR
Elementi maggior (a.c.) CRM 409 BCR
Elementi maggiori
ed elementi in traccia SRM 2694a NIST
centrifugata Elementi maggiori GBW 08627-9 NRCCRM
Elementi maggiori GRM-02 NWRI
Acqua di falda
artificiale Elementi maggiori (b.c. e a.c.) CRM 616-617 BCR
naturale Elementi in traccia (b.c. e a.c.) CRM 609-610 BCR
Br (b.c. e a.c.) CRM 611-612 BCR
Acqua dolce NO3 (b.c.) CRM 479 BCR
NO3 (a.c.) CRM 480 BCR
Elementi maggiori (b.c. e a.c.) CRM 398 - 399 BCR
Acqua di lago
fortificata Elementi maggiori ION-20 NWRI
durezza media Elementi maggiori ION-95 NWRI
durezza bassa Elementi maggiori ION-911 NWRI
Elementi maggiori AUD-6 NWRI
Elementi maggiori HURON-03 NWRI
Acqua di fiume
Durezza elevata Elementi maggiori ION-911 NWRI
Durezza media Elementi maggiori SOUR-01 NWRI
Acqua di estuario Elementi in traccia SLRS-3 NRC
Elementi in traccia CRM 505 BCR
Elementi in traccia SLEW-2 NRC
Acqua di mare Elementi in traccia CRM 403 BCR
Hg CRM 579 BCR
Elementi in traccia CASS-3 NRC
Elementi in traccia NASS-4 NRC
101
PARTE GENERALE
de, ad acqua di lago e ad acqua di fiume, mentre per gli elementi in traccia i CRM reperibili
sono per la maggior parte relativi ad acqua di fiume, acqua di estuario e acqua di mare.
In entrambi i casi esiste un elevato numero di CRM in acqua distillata detti CRM “fortified”.
Per quanto riguarda gli elementi maggiori ed i principali parametri chimico-fisici (Tab. 6) è
stato riscontrato che l’acidità è certificata solo per acque piovane, mentre non esistono CRM
di alcun tipo per la CO2 totale per la quale invece sono disponibili solo valori raccomandati
in campioni di acqua di mare. Nè ioduro, nè bromuro risultano certificati in alcun materiale
ed il fosfato è certificato solo per acqua di mare e acqua di falda, mentre in altri tipi di matrice
sono forniti solo valori raccomandati. In generale in acqua di mare e di estuario risulta
certificato solo un numero molto piccolo di costituenti maggiori.
In considerazione del grande numero di analisi sui nutrienti presenti nell’ambiente marino, è
da sottolineare come non siano ancora disponibili CRM per il contenuto totale di azoto e per
il contenuto totale di fosforo; inoltre non esistono CRM di acque minerali, caratterizzate da un
proprio specifico contenuto minerale.
Per quanto riguarda gli elementi in traccia (Tab. 6), risulta che Al, Fe e Mn sono certificati in un
ampio spettro di matrici acquose, mentre per Ag, Bi, Sn, Ti e U sono disponibili solo valori raccomandati.
Infine non esistono valori certificati, nè raccomandati per elementi delle terre rare ed
altri elementi minori che pure trovano oggigiorno vasto impiego in varie branche dell’industria,
sia come catalizzatori che nella composizione di superconduttori e componenti elettronici.
Uno dei maggiori limiti alla preparazione di CRM è la scarsa stabilità di alcuni analiti nel tempo,
specialmente quando presenti a livello di tracce. A tal proposito, soprattutto nel caso di
CRM di elementi in traccia in matrice acquosa, particolare attenzione deve essere riservata
alla conservazione dei campioni sia subito dopo la fase di campionamento che durante le fasi
di preparazione e di successiva distribuzione del materiale di riferimento. Tra i vari fattori
da prendere in considerazione risultano particolarmente importanti la scelta adeguata dei
materiali e del pH a cui stabilizzare l’analita o gli analiti d’interesse.
Negli ultimi anni sono stati sviluppati nuovi approcci che consentono la preparazione di CRM
impensabili in passato, basati ad esempio sulla preparazione di soluzioni liofilizzate per certificare
il contenuto organico.
Tipo di
analita
Acqua
distillata/
fortificata
Acqua
naturale
Acqua
di
falda
Acqua
piovana
Acqua
dolce
Acqua
di
lago
Acqua
di
fiume
Acqua
di
estuario
Acqua
di
mare
Tabella 6: Disponibilità di CRM in funzione dei parametri certificati e/o raccomandati; la X maiuscola corrisponde
ad un valore certificato, mentre la x minuscola corrisponde ad un valore raccomandato
Conducibilità -X -XXXX -XXXXX XX --
Salinità --------X
Acidità ---XXXX -----
Alcalinità X X ---XXXXX XX --
Torbidità X X -X -XXXXX XX --
Colore X X -X -XXXXX XX --
Durezza X X -X -XXXXX XX --
pH X X -XXXX -XXXXX XX --
CO2 totale --------(x)
F -X -XXXXX -XXXXX XX --
Cl XX X X XXXXX X XXXXX XX --
NO3 X (x) X XXXXX X X --X
NO3 + NO2 X X -X -XXXXX X(x) -X
NH4 X X -XXXXX -XX(x)XX (x)(x) --
PO4 -(x) X -(x) (x)(x) (x)(x) -X
Si -X -X -XXXXX XX -X
SO4 XX X X XXXXX X XXXX XX --
Principali parametrichimico-fi sici
Elementi maggiori e lorocomposti inorganici
segue
PARTE GENERALE
segue
Tipo di
analita
Acqua
distillata/
fortificata
Acqua
naturale
Acqua
di
falda
Acqua
piovana
Acqua
dolce
Acqua
di
lago
Acqua
di
fiume
Acqua
di
estuario
Acqua
di
mare
K X X -XXXXX X XXXXX XXX --
Na X X X XXXXX X XXXXX XXX --
Ca X X X XXXXX X XXXXX XXX --
Mg X X X XXXXX X XXXXX XXX --
B -(x) ---(x)(x) (x)(x) --
DOC X X -X -XXXXX XX -
Ag (x) --------
Al X X X X -XX X -(x)
As X -X ---X X XX(x)
Ba X -----X --
Be X -----X --
Cd XX -X ---X XX XXX
Co X -----X X XX
Cr XX -----X X XX
Cr III/VI ---------
Cu XX -X -X -X XX XXX
Fe X -X ---X X XX
Hg -X -X ----X
La ----(x) ----
Li X(x) --------
Mn X -X -X -X X XX
Mo X -----X (x) XXX
Ni XX ---X -X XX XXX
Pb XX -X -X -X X XXX
Sb X ---X -X --
Se X ---X ---X(x)
Sr X -----(x) --
Ti (x) --------
V X ----X -(x)
Zn XX ----X X XXX
Elementi maggiorie loro compostiinorganici
Elementi in traccia
8.1.2 Materiali di riferimento non certificati – carte di controllo
Una carta di controllo è un semplice grafico, in cui vengono riportati in funzione del tempo i risultati
ottenuti per l’analisi di un campione di riferimento di controllo di qualità, o più semplicemente
campione di CQ; tale carta consente quindi il monitoraggio continuo dei risultati. La fluttuazione
naturale dei valori misurati può così essere immediatamente valutata ed interpretata. Come
campione di controllo viene in genere utilizzato un materiale di riferimento non certificato.
Esistono varie carte di controllo tra cui la Carta di Shewhart, il grafico a media mobile o il
grafico CUSUM (CUmulative SUM o totale cumulato).
La carta di controllo di qualità (CQ) comunemente più utilizzata per il monitoraggio delle fluttuazioni
nel breve termine è il grafico di Shewhart, in cui vengono riportati i risultati relativi
ad un campione di riferimento per CQ.
Tale campione è un campione simile a quelli normalmente sottoposti ad analisi, che presenti unacerta omogeneità e stabilità nel tempo e che sia disponibile in grandi quantità. È ragionevole
presumere che se la variazione dei risultati relativi al campione di CQ è accettabile, lo siano anche
le variazioni associate ai risultati ottenuti parallelamente per i campioni reali analizzati negli
stessi lotti. Il campione di CQ viene inizialmente sottoposto ad un numero di analisi sufficiente
per determinare il valore medio e lo scarto tipo e preparare la carta di controllo.
L’insieme dei risultati o popolazione, quando in numero statisticamente rilevante, ha un valo
103
PARTE GENERALE
re medio o media, nell’intorno della quale i valori sono in genere distribuiti simmetricamentesecondo una distribuzione normale o gaussiana. È generalmente pratica comune sottoporre
il campione di CQ ad almeno 10 analisi effettuate possibilmente in giorni differenti. La distribuzione
dei valori intorno alla media, generalmente considerata come valore di riferimento
o aspettato, è statisticamente regolato dallo scarto tipo; il 95% della popolazione è
sempre compreso nell’intervallo definito dalla media ± 2 volte lo scarto tipo, mentre il 99,7%
della popolazione è sempre compreso nell’intervallo definito dalla media ± 3 volte lo scarto
tipo. Questi valori rappresentano i limiti da riportare graficamente: solitamente i valori (media
± 2 x scarto tipo) corrispondono ai limiti di guardia, mentre i valori (media ± 3 x scarto
tipo) corrispondono ai limiti di intervento.
Ogni ulteriore misura deve soddisfare i precedenti limiti.
Il grafico della carta di controllo è in grado di evidenziare variazioni nel sistema di misura
che comportino uno spostamento della media o un aumento dello scarto tipo.
La norma ISO 8258:1991 costituisce una guida in cui sono specificati con accuratezza i casi
di comportamento anomalo del sistema di analisi. I tre casi principali sono sotto elencati:
- tre punti successivi oltre i limiti di guardia ma entro i limiti di intervento;
-due punti successivi oltre i limiti di guardia ma entro i limiti di intervento sullo stesso
lato della media;
- un punto oltre il limite di intervento;
-dieci punti successivi sullo stesso lato della media.
Nel caso in cui si verifichi un tale evento si deve controllare il sistema di analisi prima di proseguire
con le analisi. Una volta riportato il sistema sotto controllo si ricostruisce la carta di
controllo ripetendo almeno 10 volte l’analisi del campione di CQ.
Dalla Fig. 4a alla Fig. 4d si possono osservare esempi di Carte di Shewhart, in cui sono riportate
varie tipologie di risultati.
Figura 4a: Carta di Shewhart con dati sotto controllo intorno al valore di riferimento.
Figura 4b: Carta di Shewhart con dati decentrati rispetto al valore di riferimento.
PARTE GENERALE
Figura 4c: Carta di Shewhart con dati soggetti a deriva.
Figura 4d: Carta di Shewhart con dati soggetti ad una variazione a gradino.
Un limite della carta di Shewhart è che non consente l’immediata visualizzazione di variazioni
progressive o a gradino; queste possono invece essere messe in evidenza mediante una
carta a media mobile in cui la variazione naturale viene mediata prima della sua rappresentazione
grafica, in modo tale che emergano solo le variazioni significative. Esso normalmente
media quattro valori in successione, ma il numero n dei valori mediati può essere liberamente
scelto a seconda delle esigenze. A valori maggiori di n corrisponde un maggiore effetto
di smussamento sui dati ma anche un maggiore tempo di risposta nell’identificazione
delle variazioni significative.
Esempio di grafico a media mobile con valori mediati a base 4 (n=4):
Misure:
1,2,3 e 4 mediate e riportate come 1° punto
2,3,4 e 5 mediate e riportate come 2° punto
3,4,5 e 6 mediate e riportate come 3° punto
4,5,6 e 7 mediate e riportate come 4° punto
5,6,7 e 8 mediate e riportate come 5° punto, e così via
In Fig. 5 sono riportati su una carta a media mobile (n=4) gli stessi dati precedentemente riportati
in Fig. 4d. In Fig. 5 risulta molto più evidenziata la variazione a gradino rispetto alla
variazione di fondo.
Anche la carta di Shewhart può essere utilizzata per riportare le medie di misure, a condizione
che ciascun punto rappresenti la media di un uguale numero di misure. Come per
la carta a media mobile, si conferisce in questa maniera una maggiore uniformità al sistema
eliminando alcune delle variazioni casuali dei dati. In questo caso occorre però modificare
i limiti di guardia e di intervento; infatti effettuando una media su n misure prima
di tracciare il grafico si riduce lo scarto tipo di vn; di conseguenza i limiti di intervento e
di azione devono essere definiti, rispettivamente, a ±3/vn e ±2/vn unità di scarto tipo.
Un altro tipo di grafico di controllo è il grafico CUSUM, in cui vengono riportati i valori medi di
tutti i dati, ed è quindi il metodo migliore per identificare piccole variazioni nella media. Per ciascuna
nuova misura si calcola la differenza fra essa ed il valore di riferimento T e la si somma ad
un totale corrente (somma cumulativa). Questo totale cumulato viene riportato graficamente contro
il numero delle misure (CUSUM sta appunto per CUmulative SUM, ossia totale cumulato).
PARTE GENERALE
Figura 5: Carta a media mobile (n=4): stessi dati di Fig. 4d.
Quanto più la media operativa è vicina al valore di riferimento T, tanto più il gradiente del
grafico CUSUM sarà prossimo allo zero. Un gradiente positivo indica una deviazione positiva
della media operativa, mentre un gradiente negativo indica il contrario. In Figg. 6a e 6b
sono riportati due esempi di grafici CUSUM; nel primo si evidenzia un’improvvisa variazione
del gradiente dovuta ad una variazione a gradino dei risultati, mentre nel secondo viene
evidenziato un gradiente in costante cambiamento dovuto a continue variazioni della media
di piccola entità.
Figura 6a: Variazione a gradino mostrata come carta CUSUM.
Figura 6b: Carta CUSUM di dati alla deriva.
Per verificare se i dati rappresentati su una carta CUSUM sono sotto controllo, si utilizza una
maschera a ‘V’, solitamente realizzata in materiale trasparente, in modo da poter essere sovrapposta
alla carta stessa. La Fig. 6c mostra un diagramma della maschera a V. I limiti di controllo
sono definiti dalla lunghezza di ß e dall’angolo ., che possono essere scelti in modo che
la maschera offra la stessa probabilità statistica di controllo dei limiti di intervento/guardia tradizionali,
conferendo al grafico di CUSUM una corrispondenza con la carta Shewhart.
PARTE GENERALE
Figura 6c: La maschera a V per l’interpretazione di carte CUSUM.
I dati sulla carta CUSUM vengono esaminati appoggiando la maschera sui dati, con l’estremità
sinistra della freccia ß allineata di volta in volta a ciascun punto. La linea ß è sempre
mantenuta parallela all’asse x. Se i punti corrispondenti ai dati precedenti rientrano nei bracci
della maschera, il sistema è sotto controllo. Quando essi cadono esternamente ai bracci
della maschera, il sistema è fuori controllo. La Fig. 6d illustra l’uso di una maschera a V, posizionata
su due posizioni diverse, su dati CUSUM soggetti a deriva. Al punto A della Fig. 6d
tutti i dati precedenti rientrano visibilmente nei bracci della maschera ed il sistema è sotto controllo,
mentre al punto B alcuni dei dati precedenti si trovano al di sotto del braccio inferiore
della maschera, indicando che il sistema è fuori controllo.
Pertanto, i limiti di controllo sono definiti dalla lunghezza di ß e dall’angolo ., e devono
quindi essere scelti con attenzione. Le scale impiegate sugli assi x e y hanno anch’esse
un’influenza evidente sulla scelta di ß e di ..
Figura 6d: Carta CUSUM che illustra l’uso di una maschera a V.
8.2 Studi interlaboratorio
Gli studi interlaboratorio sono un utile strumento che può essere impiegato con le seguenti finalità
distinte:
-valutare la confrontabilità dei dati ottenuti da più laboratori;
-valutare la riproducibilità di un metodo (studi di collaborazione).
I campioni da analizzare negli studi interlaboratorio devono essere materiali caratterizzati da
elevata omogeneità e stabilità nel tempo; queste caratteristiche sono per definizione soddisfatte
da materiali di riferimento non certificati, ma in taluni casi possono essere utilizzati anche
materiali, cosiddetti “home-made”, non di riferimento, preparati e distribuiti da un laboratorio
partecipante.
Un laboratorio centrale si occupa di raccogliere ed elaborare i dati relativi all’analisi del cam
107
PARTE GENERALE
pione distribuito a tutti i laboratori. Momento fondamentale negli studi interlaboratorio sono
le riunioni in cui i partecipanti confrontano e discutono i propri risultati.
Uno studio in collaborazione è una forma particolare di studio in comune tra diversi laboratori,
con cui si valutano le prestazioni di un metodo prestabilito. Tale tipo di studio è indicato per
lo sviluppo di metodi di analisi di riferimento. Un laboratorio funge da coordinatore e si occupa
di proporre ai partecipanti un protocollo di analisi dettagliato, aperto ad eventuali modifiche
da concordare tra tutti i partecipanti. I campioni distribuiti devono quindi essere analizzati
da tutti i partecipanti secondo un protocollo definitivo ed i dati ottenuti elaborati dal laboratorio
coordinatore e discussi da tutti i partecipanti. Al termine dello studio, che potrebbe prevedere
la ripetizione delle analisi modificando il metodo a fronte dei risultati ottenuti, viene stesa
una proposta di metodo da parte del coordinatore in accordo con i partecipanti.
La partecipazione a tali studi è utile anche per individuare errori sistematici.
In generale, oltre ai contributi all’incertezza derivanti dal campionamento e dalla conservazione
del campione, possono essere individuate tre fonti di incertezze:
-il trattamento del campione (p.es. estrazione, digestione, derivatizzazione, purificazione);
-l’analisi finale (p.es. errori di taratura, interferenze spettrali, sovrapposizione
di picchi);
-la professionalità degli addetti e le strutture del laboratorio.
Durante gli studi interlaboratorio, differenti metodi di pre-trattamento ed analisi vengono confrontati
e valutati. Se i risultati sono in buon accordo statistico, il valore medio ottenuto è la
migliore approssimazione del valore “vero”.
9. Glossario
Accuratezza
Grado di concordanza tra il risultato di una misurazione e il valore “vero” del misurando
(UNI CEI ENV 13005, 2000).
Bianchi
La loro determinazione consente di stabilire quale parte della misura non dipenda dall’analita
contenuto nel campione. Si distinguono vari tipi di bianchi; tra questi:
-Bianco reagenti: tiene conto della contaminazione derivante dai reagenti. Vengono
effettuati controlli analitici sui reagenti onde escludere o almeno quantificare
eventuali contaminazioni.
-Bianco di procedura: tiene conto della contaminazione derivante dai reagenti
e dalle apparecchiature e strumentazioni utilizzate. Viene effettuata una procedura
d’analisi completa eseguita in assenza del campione.
- Bianco matrice: tiene conto delle interferenze provenienti dalla matrice. In teoria
viene analizzata una matrice identica al campione in cui l’analita è contenuto
in quantità inferiore al limite di rivelabilità del metodo. In pratica tale matrice
è quasi impossibile da reperire e si cerca di utilizzare matrici quanto più
simili possibile a quelle di interesse.
Esattezza
Grado di concordanza tra la media dei risultati di un gran numero di misure e un valore di
riferimento accettato (ISO 5725/1).
Garanzia di Qualità dell’Analisi (GAQ)
Complesso delle azioni codificate che vengono ripetute sistematicamente per fornire un’adeguata
sicurezza alla qualità delle operazioni adottate per l’ottenimento di una misura.
PARTE GENERALE
Incertezza
Si distinguono tre tipi di incertezze.
Incertezza tipo
Rappresenta l’incertezza del risultato di una misurazione espressa come scarto tipo.
Incertezza tipo combinata
Rappresenta l’incertezza tipo del risultato quando il risultato è ottenuto dai valori di un certonumero di altre grandezze. È uguale alla radice quadrata di una somma di termini che comprendono
varianze e covarianze di queste grandezze pesate a seconda di come il risultato
della misurazione varia al variare di esse.
Incertezza estesa
Rappresenta l’intervallo intorno al risultato di una misurazione che si stima possa comprendere
una gran parte della distribuzione dei valori ragionevolmente attribuiti al misurando.
Limite di rivelabilità strumentale
Il limite di rivelabilità strumentale rappresenta il valore limite di concentrazione che produce
un segnale più grande di cinque volte rispetto al rapporto segnale/rumore dello strumento.
Limite di rivelabilità del metodo
Il limite di rivelabilità del metodo rappresenta il valore limite di una certa quantità che è possibile
distinguere significativamente dal valore del bianco di procedura. In pratica esso viene
valutato mediante la formula
LR = xb + 3sb
dove xb è il valore medio del bianco e sb la precisione della sua misura.
Materiale di riferimento (RM)
Materiale o sostanza i cui valori di una o più proprietà sono sufficientemente omogenei e ben
stabiliti da essere impiegati nella taratura di uno strumento, per la valutazione di un metodo
di misurazione, o per l’assegnazione di valori a materiali.
Materiale di riferimento certificato (CRM)
Materiale di riferimento, accompagnato da un certificato, i cui valori di una o più proprietà
sono certificati da un procedimento che stabilisce la riferibilità ad una accurata realizzazione
dell’unità nella quale i valori delle proprietà sono espressi e per cui ciascun valore certificato
è accompagnato da un’incertezza con un livello di fiducia stabilito.
Precisione
Misura del grado di dispersione di una serie di dati prodotti da repliche indipendenti intorno
ad un valore centrale.
Riferibilità
La riferibilità rappresenta la proprietà di un risultato di una misurazione per la quale esso può
essere posto in relazione con riferimenti definiti, nazionali o internazionali, attraverso una catena
ininterrotta di confronti aventi tutti incertezze note.
Taratura
Serie di operazioni che stabiliscono, sotto precise condizioni, la relazione tra i valori indicati
dallo strumento ed i corrispondenti valori noti del sistema internazionale di misura (SI).
BIBLIOGRAFIA
APHA, AWWA, WEF (1998): “Standard methods for the examination of water and wastewater”,
XX Ed., (Washington, APHA), 1-1/1-26.
PARTE GENERALE
AMERICAN SOCIETY FOR TESTING AND MATERIALS (1981): “Annual Book of ASTM Stan
dards”, Part 31, Water (Philadelphia).
BARBIZZI S., de ZORZI P., GALAS C. (2002): “Metrologia e conduzione del campionamento
ambientale”, Tutto Misure, Augusta-Edizioni Mortarino, n. 01, anno IV.
CHEESEMAN R.V. & WILSON A.L. (1989): “A manual on analytical quality control for the
water industry”, WRC.
EURACHEM/CITAC Guide (2000): “Quantifying Uncertainty in Analytical Measurement”. Laboratory
of Government Chemist, London.
GARFIELD F.M. (1993): “Quality Assurance Principles for Analytical Laboratories”, 2nd Ed.,
AOAC International, Gaithersburg MD, USA.
International Vocabulary of Basic and General Terms in Metrology (VIM; 1993): BIPM, IEC,
IFCC, ISO, IUPAC, IUPAP AND OIML.
ISO 8258 (1991): “Shewhart control charts”.
ISO 5725-1 (1994): “Accuracy (trueness and precision) of measurement methods and results”-
Part 1: General principles and definitions.
ISO GUIDE 30 (1992): “Terms and definitions used in connection with reference materials”.
ISO GUIDE 32 (1997): “Calibration in analytical chemistry and use of certified reference materials”.
ISO GUIDE 33 (2000): “Uses of certified reference materials”.
ISO GUIDE 34 (2000): “General requirements for the competence of reference material pro
ducers”.
KRAMER KEES J.M. (1998): “Perspective – Inorganic Certified Reference Materials in Water:
What do we have, what do we need?”, Analyst, 123, 991-995.
PRICHARD E. (1995): “Quality in the Analytical Chemistry Laboratory”, John Wiley & Sons,
Ltd.
QUEVAUVILLER P.H. (1994): “Quality Assurance for Water Analysis”, Trends in Analytical
Chemistry, 13(9), 404-409.
UNI CEI EN ISO/IEC 17025 (2000): “Requisiti generali per la competenza dei laboratori di
prova e di taratura”, Milano.
UNI CEI ENV 13005 (2000): “Guida all’espressione dell’incertezza di misura”, Milano.
UNICHIM (1999): “Linee guida per la validazione di metodi analitici nei laboratori chimici”.
Criteri generali, Manuale N. 179/0, Milano.
VALCÀRCEL M. & RÌOS A. (1999): “Reliability of Analytical Information in the XXIst century”,
Anal. Chim. Acta, 400, 425-432.
YOUDEN, W.J. & STEINER E.H. (1975): “Statistical Manual of the Association of Official
Analytical Chemists”, (Arlington, VA).