Riassunti bioingegneria B
Image processing
Per caratterizzare la qualità di un'immagine si possono definire diversi parametri, che sono:
risoluzione spaziale = localizzazione spaziale dell'elemento che stiamo esaminando
contrasto = differenza di luminosità di due strutture diverse
rapporto segnale rumore (SNR) = elementi che vanno ad interferire con il segnale iniziale
rapporto contrasto rumore (CNR) = elementi che vanno ad interferire con il contrasto
Immagini digitali
In applicazioni particolari, inoltre, si acquisiscono serie temporali di immagini e quindi abbiamo anche la variabile tempo. Il risultato è un dataset 4D (x, y, z, t)
Descrizione delle immagini
Immagine = superficie con una determinata distribuzione di intensità luminosa
Le immagini non hanno mai tutti i parametri elevati, ma bisogna sempre raggiungere un compromesso
Ad esempio, risoluzione spaziale e SNR sono inversamente proporzionali
Al momento consideriamo immagini in toni di grigio (in seguito faremo dei cenni sulle immagini a colori)
Possiamo descrivere matematicamente l’immagine con una funzione f(x,y) che rappresenta l’intensità luminosa o livello di grigio associato alle coordinate x e y.
Per la trattazione delle immagini ci si basa sugli stessi concetti illustrati per i segnali e i sistemi, con la differenza che adesso il segnale varia con la posizione su un piano anziché nel tempo.
Quindi il segnale è ora funzione di due variabili, per cui le operazioni matematiche vanno definite in 2D.
Spesso considereremo anche immagini «volumetriche», in cui il segnale varia con la posizione (x, y, z) all’interno di un organo.
Profilo di intensità = rappresentazione in un piano cartesiano di un’immagine in 2D
Al profilo di intensità contribuiscono sia variazioni rapide (alta frequenza) sia lente (bassa frequenza).
Possiamo pensare di descrivere il profilo di intensità come sovrapposizione di onde sinusoidali a diversa frequenza e ampiezza.
Frequenza spaziale (k) = la frequenza spaziale di un’onda sinusoidale è il numero di cicli per unità di lunghezza.
k = è detto anche numero d’onda ed ha come dimensioni fisiche l’inverso di una lunghezza (L-1)
Periodo spaziale (λ) = è la lunghezza d’onda λ, quindi abbiamo che
In immagini che rappresentano griglie di linee (onde quadre) la frequenza spaziale è definita come il numero di linee per millimetro (aumenta da A a C), che corrisponde anche al numero di cicli per mm:
Anche se due immagini hanno lo stesso numero di cicli, non è detto che abbiano la stessa frequenza.
In due immagini con lo stesso numero di cicli, una con onde sinusoidali e una con onde quadre, quella con le onde quadre ha una frequenza maggiore.
L’onda quadra è rappresentabile con una serie di Fourier con un numero infinito di armoniche superiori e di conseguenza con una frequenza maggiore di quella fondamentale
Analisi di Fourier
Possiamo fare un paragone fra gli sviluppi in serie di Fourier di funzioni periodiche nel tempo e nello spazio:
Funzioni qualsiasi, anche non periodiche, sono ancora rappresentabili come sovrapposizione di sinusoidi di diversa frequenza k e ampiezza S ricorrendo alla trasformata di Fourier e alla sua inversa.
Poichè nei casi più generali S(k) può assumere valori complessi, si utilizza spesso graficarne il modulo , indicato come lo spettro di frequenza della funzione f(x).
Nel caso delle immagini abbiamo bisogno di una trattazione bidimensionale.
Anche qui, l’idea è quella di rappresentare un’immagine con una sovrapposizione di onde piane sinusoidali aventi diverse frequenze, ampiezze, fasi e direzioni.
Possiamo rappresentare un’onda piana sinusoidale con una funzione dove dobbiamo considerare frequenze spaziali separate lungo x e y (indicate con ).
Spazio k = spazio costituito dalle dimensioni
Le frequenze basse (k piccoli) sono associate a variazioni «lente» che mettono in evidenza le forme principali, mentre le frequenze alte (k grandi) sono associate a variazioni «rapide» che mettono in evidenza i dettagli.
Un'immagine generica presenterà sia frequenze basse e sia frequenze alte.
Es.
Conversione analogico-digitale
Immagine analogica = una superficie 2D in cui l’intensità luminosa varia con continuità muovendosi lungo il piano (descritta con una funzione f(x,y)).
Se si ingrandisce l’immagine, possiamo osservare che questa continuità si mantiene.
Solo per ingrandimenti molto elevati si può cominciare ad apprezzare una certa granulosità dovuta al materiale utilizzato.
Immagini su questi tipi di supporto possono essere valutate solo visivamente.
Per poter sfruttare la potenza di elaborazione dei moderni computer è necessario il formato digitale.
Al giorno d’oggi si fa tutto in modo digitale e si usa il sistema PACS.
PACS = Picture Archiving and Communication System (sistema di archiviazione e trasmissione di immagini)
Digitalizzazione = rappresentazione numerica di un segnale o un’immagine.
Tutti i sistemi forniscono un segnale analogico (una differenza di potenziale) che viene amplificato e poi digitalizzato con un convertitore Analogico-Digitale (ADC).
Il processo di digitalizzazione per le immagini è simile a quello dei segnali, con l’ovvia differenza che ora operiamo in 2D e nello spazio anziché nel tempo.
Per una immagine la digitalizzazione presenta due aspetti:
la scomposizione del piano immagine in elementi discreti detti pixel (che diventano ben visibili se ingrandiamo a sufficienza l’immagine)
l’assegnazione di un valore numerico ad ognuno di essi che ne rappresenta l’intensità luminosa (o il colore).
Questi processi sono indicati coi termini di:
Campionamento spaziale = il piano immagine è scomposto in una griglia «discreta» di rettangoli (pixel) con coordinate (x,y).
Quantizzazione = assegnazione di un numero ad ogni rettangolo che ne rappresenta l’intensità luminosa.
Il modo in cui viene effettuato il campionamento spaziale dipende dal sistema di imaging considerato.
La descrizione di un’immagine I tramite una funzione che ne rappresenta l’intensità luminosa nel piano è ancora valida sostituendo le coordinate continue (x,y) con quelle discrete (i,j) relative ai pixel: I = f(i,j)
Matrice = numero di pixel
Field of view = SizeX x Sizey
Più pixel sono usati per rappresentare un'immagine, più il risultato assomiglierà all'immagine originale.
Risoluzione = è il numero di pixel in un'immagine. Può essere espressa:
• da un solo numero (es.“tre megapixel”)
• da una coppia di numeri (es. 128x128, 512x512, 1024x1024)
Sebbene importante, il numero di pixel non è da solo sufficiente a determinare la risoluzione spaziale (capacità di distinguere dettagli fini) di un sistema di imaging.
Per una corretta digitalizzazione, il segnale 2D originale deve essere campionato ad una frequenza pari ad almeno il doppio della massima frequenza presente nello spettro del segnale analogico, sia per l’asse x che per l’asse y.
Questa frequenza minima di campionamento è nota come frequenza di Nyquist.
Se un segnale viene campionato ad una frequenza inferiore alla frequenza di Nyquist, avremo il fenomeno dell’aliasing (alte frequenze nel segnale originale vengono mappate come basse frequenze del segnale campionato).
Se l’onda di partenza è un’onda quadra, sono presenti anche frequenze superiori rispetto a quella fondamentale e a quella di campionamento quindi avremo l’aliasing anche se avessimo preso una frequenza di Nyquist corretta.
Gli effetti dell’aliasing si presentano spesso nelle immagini biomediche, come artefatti di vario tipo.
Ovviamente gli effetti di aliasing possono presentarsi non solo durante la ricostruzione delle immagini ma anche durante il loro utilizzo nello studio di determinati fenomeni.
In molte applicazioni MRI (risonanza magnetica) tuttavia la frequenza di campionamento è inferiore alla frequenza cardiaca.
Un metodo per ridurre questo problema è quello di applicare un filtro analogico passa-basso o passa-banda prima di inviare i dati all’ ADC.
I segnali che determinano l’intensità luminosa dei vari pixel sono in origine segnali analogici che sono digitalizzati da un ADC. I numeri ottenuti sono rappresentati negli elaboratori elettronici utilizzando il sistema binario.
In genere i toni di grigio sono rappresentati da numeri interi per limitare l’occupazione di memoria (i software che elaborano le immagini li trasformano spesso in reali al momento di fare i calcoli).
L’unità di misura del mondo digitale: il bit
Bit (binary digit): unità minima dell’informazione digitale, una singola cifra binaria che può assumere il valore 0 o 1.
Il numero di valori rappresentabili dipende dal numero di bit che compongono il codice: con N bit si hanno 2N valori possibili.
Byte = gruppo di 8 bit
Tra le caratteristiche importanti degli ADC abbiamo:
il numero di bit usati per rappresentare l’uscita (dynamic range)
l’intervallo ammesso della tensione in ingresso (voltage range)
Da questi valori dipende la risoluzione dell’ADC.
Risoluzione (r) = è la più piccola variazione di tensione rappresentabile correttamente dallo strumento. Essa è data da: i = intervallo di tensione n = numero di bit
Errore di quantizzazione (q) = è la differenza fra il segnale analogico in ingresso e il valore digitale in uscita. Esso è dato da: ed è compreso tra 0 e ±1/2 della risoluzione.
Per minimizzare l’errore di quantizzazione (in rapporto al segnale in ingresso) è importante quindi amplificare il segnale in ingresso in modo da sfruttare il voltage range per intero.
È importante che il segnale in ingresso non superi il voltage range per evitare artefatti da saturazione.
Es. - Se usiamo un ADC a 12 bit, i segnali in input oltre i 5 volt verrebbero digitalizzati tutti col valore 4095, impedendo le osservazioni delle fluttuazioni temporali nel fantoccio.
Profondità/gamma dinamica di un’immagine = è il numero di bit che definisce l’immagine.
Lo spazio di occupazione in memoria dipende infine dalla matrice (n°di pixel) e dalla profondità.
Anche nelle immagini a colori ogni pixel è rappresentato da un determinato numero di bit, che determina il numero di colori che questo può assumere.
Es. - Un pixel può essere rappresentato da un insieme di bit che indicano nell’ordine: l’intensità di rosso, verde e blu (RGB: red, green, blue) associata al relativo punto dell’immagine. Mescolando
i tre colori in determinate proporzioni si possono ottenere anche gli altri colori.
Comunemente abbiamo 8 bit per il rosso, 8 per il verde e 8 per il blu.
Quindi ciascun pixel richiede 3 byte di memoria.
Profondità di colore = è il numero di bit con il quale viene rappresentato ogni singolo pixel dell’immagine.
Il massimo numero di colori rappresentabili in tale immagine è dato da:
nmaxdicolori = 2nbit_pixel nbit_pixel = è il numero di bit utilizzati per la rappresentazione di ogni pixel dell’immagine.
Sistema esadecimale = utilizza 16 cifre: 0,1,2,3,4,5,6,7,8,9 A,B,C,D,E,F
Quindi la lettera A rappresenta il numero decimale 10 in esadecimale, B il numero 11, C il numero 12, D il numero 13, E il numero 14, F il numero 15. Il valore delle cifre dipende dalla posizione nella scrittura del numero secondo le potenze di 16.
esadecimale | binario |
0 | 0000 |
1 | 0001 |
2 | 0010 |
3 | 0011 |
4 | 0100 |
5 | 0101 |
6 | 0110 |
7 | 0111 |
8 | 1000 |
9 | 1001 |
A | 1010 |
B | 1011 |
C | 1100 |
D | 1101 |
E | 1110 |
F | 1111 |
Es. - Dato un numero binario (1011010101.01101)2, la conversione in un numero esadecimale si ottiene raggruppando in gruppi di quattro cifre a destra e a sinistra del punto (10)(1101)(0101).(0110)(1)
I gruppi agli estremi potrebbero avere meno di quattro cifre, in questi casi è necessario aggiungere degli zeri rispettivamente a sinistra e a destra nelle posizioni vuote, trasformandoli in gruppi di 4 bit. (0010)(1101)(0101).(0110)(1000)
A questo punto è sufficiente sostituire il numero binario contenuto in ogni gruppo con l'equivalente cifra esadecimale: (2)(D)(5).(6)(8)
Esempio: trasformazione del numero esadecimale 3AF2 in numero decimale:
DICOM
DICOM = è un tipo di formato, molto importante per le immagini radiologiche. Esso rappresenta uno standard per la condivisione di informazioni radiologiche. Il file in cui memorizziamo una immagine contiene anche informazioni aggiuntive che servono ai programmi usati per aprire le immagini a leggerle correttamente. Queste informazioni sono memorizzate solitamente nella prima parte del file (header).
Le immagini DICOM sono a 16 bit ma visualizzate con un display video a 8 bit.
Visualizzazioni delle immagini biomediche
Hounsfield = è una scala dell’assorbimento di raggi x da parte di tessuti/organi
I valori numerici che un pixel può assumere sono compresi in questa scala
Una profondità di 12 bit permette di rappresentare fino a 4096 valori per cui è perfettamente in grado di gestire questa scala, ma l’occhio umano riesce a distinguere al massimo circa 50 livelli di grigio. Quindi, per una fruizione visiva delle immagini, un numero elevato di bit non serve e può essere addirittura controproducente.
Per una fruizione visiva ottimale dell’immagine si ricorre ad una tecnica denominata windowing.
Windowing = tecnica che permette di aumentare il contrasto di un intervallo di una finestra (window) di una TAC
Si sceglie, in base alla struttura che si vuole visualizzare, un intervallo opportuno di valori Hounsfield caratterizzato da:
1) un valore centrale (window center o window level)
2) una larghezza (window width).
Tutto ciò che sta sopra al limite superiore viene visualizzato in bianco e tutto ciò che sta sotto in nero.
I numeri compresi nell’intervallo sono convertiti in una scala di grigi con 256 gradazioni.
In generale i parametri di windowing vanno scelti in base al distretto anatomico da visualizzare e alla patologia.
Double windowing = permette di visualizzare due finestre contemporaneamente, ma in questo modo due strutture che hanno segnali diversi possono apparire con la stessa tonalità.
Matematicamente, la trasformazione dei livelli di grigio è rappresentata da una funzione g che assegna al valore di intensità iniziale I un altro valore I’ : I’(i, j) = g [I(i, j)]
La funzione deve essere la stessa per ogni pixel (i,j) in modo da non alterare le intensità relative tra pixel diversi (se un pixel è più luminoso di un altro nell’immagine iniziale lo sarà anche in quella
trasformata, ma con un’entità diversa)
Funzioni di trasformazione
Si dividono in tre categorie:
trasformazione negativo = è utile per far apprezzare meglio al nostro occhio alcuni dettagli invertendo la tonalità (l’informazione dell’immagine non cambia).
trasformazione logaritmica = utile nei casi in cui sono presenti valori in un range molto esteso, dove quelli più bassi sarebbero indistinguibili dal fondo (nero) per l’occhio umano.
trasformazione potenza = è utile in molti casi in cui bisogna correggere la risposta dei sistemi di visualizzazione, che segue spesso una legge potenza.
Per valori < 1 si comporta come la trasformazione logaritmo
Istogrammi nelle immagini
È utile in alcuni casi studiare come si distribuiscono i livelli di grigio in una immagine (dal più basso al più alto) riportandoli in un istogramma
Ad una immagine corrisponde un ben definito istogramma. Tuttavia ad un dato istogramma possono corrispondere infinite immagini
Operazioni sulle immagini
Image enhancement = miglioramento dell’immagine, ci sono diverse tipologie che sono:
zoom = aumento di dimensione dell’immagine
edge detection = riconoscimento dei contorni
Le operazioni di enhancement non possono aumentare l’informazione contenuta nell’immagine, che resta quella «catturata» al momento dell’acquisizione. Tuttavia possono migliorarne la percezione da parte del nostro cervello.
Alcune operazioni non sono dirette all’osservatore umano ma servono come passaggio preliminare ad una elaborazione successiva.
Segmentazione = separazione di diversi tipi di strutture nelle immagini. Essa è utile per valutare le funzioni metaboliche di un dato distretto.
La definizione di regioni target (bersaglio) mediante una elaborazione opportuna di combinazioni di immagini (es. anatomiche + metaboliche) è inoltre estremamente importante per guidare la radioterapia dei tumori (radioterapia stereotassica)
Image filtering: Insieme di elaborazioni delle immagini digitali per migliorare le caratteristiche di interesse di un’immagine riducendo quelle di disturbo.
Smoothing = permette di ridurre fluttuazioni troppo rapide del segnale (da pixel a pixel), dovute soprattutto al rumore.
Sharpening = permette di mettere in risalto i dettagli nelle immagini
Entrambe le operazioni possono essere effettuate:
nel dominio dello spazio (spatial filtering)
nel dominio della frequenza (frequency filtering)
Nel dominio delle frequenze (spaziali) abbiamo che:
lo smoothing corrisponde ad un filtro passa-basso
lo sharpening corrisponde ad un filtro passa-alto
L’idea base dell’operazione di smoothing nel dominio dello spazio è quella di sostituire il valore di intensità di pixel «outlier» o «rumorosi» con valori più «ragionevoli».
La procedura più semplice consiste nel sostituire il valore di ogni pixel con la media pesata dei valori dei pixel vicini scelti in un intorno (o «finestra») opportuno.
La procedura va effettuata per ogni pixel dell’immagine, per cui è indicata anche come media mobile o sliding window.
Kernel = finestra utilizzata con i relativi pesi
Nell’immagine smussata, l’intensità di ogni pixel viene ridefinita calcolando la media pesata dei pixel vicini (incluso il pixel di interesse), utilizzando i pesi w definiti dal Kernel.
Aumentando la larghezza del Kernel, la curva viene smussata sempre di più. Se da un lato il rumore diminuisce, come inconveniente abbiamo che si perdono i dettagli più fini.
Questo effetto è particolarmente evidente con un Kernel rettangolare, in cui tutti i pixel hanno lo stesso peso.
Una scelta diversa è rappresentata da un Kernel gaussiano, in cui i pesi diminuiscono man mano che ci spostiamo dal pixel centrale. Anche se la gaussiana non va mai a zero, per ragioni pratiche si considera anche qui una finestra di larghezza finita.
L’effetto di un Kernel gaussiano dipende anche dalla sua deviazione standard. Più frequentemente si indica la larghezza a metà altezza (FWHM, Full Width Half Maximum) in mm o pixel:
FWHM =
Se il kernel ha una FWHM maggiore, il contributo dei pixel più lontani da quello centrale aumenta, portando a uno smoothing più accentuato.
Volendo migliorare la definizione dei pesi w, notiamo che il valore centrale non rappresenta adeguatamente il peso per l’intero pixel.
Una definizione più opportuna dei pesi w è quella di considerare per ogni pixel l’area sotto la gaussiana.
Lo smoothing può essere effettuato anche su una funzione continua.
Un kernel apparentemente poco utile ma importante è il kernel identità, che lascia l’immagine inalterata. Nel discreto abbiamo:
Nel continuo il concetto corrispondente è fornito dalla «funzione» delta di Dirac, nota anche come funzione impulsiva e indicata con 𝜹(𝒙).
Passando in 2D, lo smoothing (qui con kernel gaussiano 3x3) diventa:
Lo smoothing sarà più o meno marcato a seconda della FWHM del kernel.
Operazioni matematiche sulle immagini
Addizione: s(x, y) = f(x, y) + g(x, y)
Sottrazione: d(x, y) = f(x, y) – g(x, y)
Moltiplicazione: p(x, y) = f(x, y) * g(x, y)
Divisione: v(x, y) = f(x, y) / g(x, y)
Image filtering
Sottrarre una versione smussata di una immagine dall’immagine originale è un metodo per ottenere un effetto di sharpening
Combinando kernel diversi si può ottenere un effetto opposto allo smoothing
Sharpened image = è un’immagine data da un’immagine originale più un’immagine di soli bordi (ottenuta sottraendo l’immagine smussata da quella originale). Possiamo ottenere questo effetto anche in un solo passaggio applicando il corrispondente kernel di sharpening
Filtro mediano = molto efficace per rimuovere il rumore “sale e pepe”. Per usare questo filtro si procede così:
si mettono in ordine crescente i valori di un’immagine
si prende il valore mediano (dei valori ordinati) e viene assegnato al pixel centrale
Risoluzione spaziale
Risoluzione spaziale = capacità di un sistema di imaging di vedere correttamente separate («risolte») strutture piccole e molto vicine fra loro. Essa non dipende solo dalla matrice di sensori, ma dalle caratteristiche complessive del sistema.
Frequenza spaziale = per una griglia di linee, essa è il numero di linee per millimetro.
Maggiore è il contenuto di alte frequenze spaziali nell’oggetto e maggiore deve essere il potere risolutivo dello strumento per rappresentarle correttamente nelle corrispondenti immagini.
Per testare i sistemi di imaging si usano dei fantocci (phantom) in cui sono realizzate griglie di linee a diversa frequenza spaziale.
Poiché il sistema non è perfetto, le linee nelle immagini ottenute da questi phantom avranno una certa sfocatura (blurring) e appariranno con uno spessore maggiore di quello reale. Questo effetto si descrive matematicamente con il concetto di Line Spread Function (LFS).
Sperimentalmente, si misura il profilo dell’intensità dell’immagine in direzione perpendicolare al filo. Per molti strumenti questo profilo è ben approssimato da una gaussiana, di cui si calcola la FWHM per quantificare l’effetto di «allargamento».
Se la LFS è una gaussiana abbiamo:
La LFS descrive le caratteristiche del sistema in una dimensione.
Per molti sistemi di imaging abbiamo bisogno di una descrizione in 2D o anche in 3D.
L’equivalente tridimensionale della LSF è la Point Spread Function (PSF) che, come suggerisce il nome, descrive l’immagine acquisita da un oggetto «puntiforme» (in un fantoccio reale una piccola sferetta).
Notiamo che la PSF può essere asimmetrica. Inoltre può anche dipendere dalla posizione dell’oggetto nel campo di indagine (es. scintigrafia).
In pratica, i limiti di un sistema di imaging fanno sì che le immagini ottenute da esso sono versioni più o meno «sfocate» dell’oggetto reale.
La Point Spread Function opera come un kernel di smoothing.
Quindi la relazione fra l’oggetto e la sua immagine I ottenuta da un certo sistema si può descrivere
matematicamente come convoluzione fra il profilo di intensità dell’oggetto O e la point spread function h del sistema: I (x, y, z) = O (x, y, z) * h (x, y, z)
In un sistema ideale la point spread function è una delta di Dirac la cui convoluzione con l’immagine di partenza restituisce una copia esatta dell’oggetto.
Un altro aspetto importante è la risposta del sistema alle diverse frequenze spaziali. In generale l’ampiezza delle frequenze che si avvicinano alla risoluzione spaziale dello strumento tende a diminuire perché l’effetto di blurring della PSF è più evidente.
Questo comportamento viene quantificato dalla Modulation Transfer Function (MTF) che esprime come vengono attenuate le varie frequenze spaziali ky (qui solo lungo y per semplicità):
Matematicamente si può dimostrare che la MTF è la trasformata di Fourier della PSF:
MTF (kx, ky, kz) = F {PSF(x, y, z)}
Fin dove possiamo spingere la frequenza di campionamento di un sistema di imaging?
Prendendo ad esempio le tecniche tomografiche (MRI, CT, PET) dobbiamo tenere presente che viene attribuito un segnale ad ogni elemento di volume (voxel) con cui campioniamo il tessuto.
Tecnicamente, con tomografi clinici, è possibile ottenere voxel anche relativamente piccoli ma per
avere un segnale attendibile, le dimensioni dei voxel non possono essere molto piccole, per ragioni legate alla presenza del rumore.
Rapporto segnale-rumore (SNR)
Tutti i segnali misurati sono affetti da rumore.
Rumore = segnali di disturbo che si sommano o sottraggono da quello «vero» che stiamo misurando.
Escludiamo da questa definizione gli artefatti che possono presentarsi in un’immagine.
Le sorgenti di questo rumore sono molteplici e alcune dipendono dalle specifiche metodiche di imaging.
Una di queste sorgenti è comune a tutte le metodiche ed è rappresentata dal rumore introdotto dall’elettronica di lettura.
Rumore di fondo = a causa dei disturbi si misura un segnale anche dove l’oggetto non è presente
Passando ad una scala logaritmica si evidenziano meglio i valori bassi e quindi il fondo.
Il rumore deve essere piccolo rispetto al valore del segnale affinché l’immagine abbia una buona qualità.
Non esiste una definizione universalmente accettata di rapporto segnale-rumore (SNR: Signal to Noise Ratio) applicabile a tutte le situazioni.
Nel caso più semplice il rumore può essere considerato un segnale casuale (random noise) che si sovrappone al segnale «vero».
In generale quindi, a causa del rumore, se ripetiamo più volte l’acquisizione osserveremo delle fluttuazioni dell’intensità del segnale intorno al valor medio.
La distribuzione di queste fluttuazioni è spesso approssimata da una gaussiana.
SNR per un pixel:
Questo tipo di rumore, essendo casuale, può essere ridotto acquisendo più immagini e facendone la media.
Svantaggi:
• richiede tempo
• se il soggetto si muove avremo voxel in cui si mediano segnali da strutture diverse
Se abbiamo a disposizione una sola immagine, per stimare il rumore possiamo studiare i valori di intensità in una regione omogenea dell’oggetto ed una regione in cui non dovrebbe esserci segnale (per es. il fondo).
Potremmo a questo punto considerare il rapporto fra i due segnali (Segnale/Fondo) come stima di SNR. Tuttavia il valore medio del segnale di fondo è poco informativo perché non rappresenta le fluttuazioni casuali.
La deviazione standard dei valori di intensità in una regione di interesse (Region Of Interest: ROI) posta sul fondo (F) è invece una buona indicazione del livello del rumore, mentre per il segnale consideriamo la media in una regione (omogenea !) dell’oggetto (A).
Possiamo definire un SNR per ogni regione dell’immagine in cui il segnale sia abbastanza omogeneo.
In un’immagine di buona qualità il rumore deve essere piccolo rispetto al segnale vero.
Spesso nella trattazione matematica si descrive l’immagine da elaborare come somma dell’immagine «vera» più un’immagine costituita da solo rumore.
Avere un’immagine con alto SNR ma poco contrasto sarebbe comunque di scarsa utilità da un punto di vista diagnostico.
Anche il contrasto influisce sulla nostra capacità di percepire i dettagli in una immagine.
<i(x,y)>A = valor medio dell’intensità dell’immagine valutato sull’area A
<i(x,y)>F = valor medio dell’intensità dell’immagine valutato sullo sfondo F
Tuttavia anche in questo caso il valore medio del segnale di fondo è poco informativo e ci accorgiamo che dobbiamo di nuovo tenere conto delle fluttuazioni casuali. Per cui definiamo il rapporto contrasto rumore (CNR) come:
Spesso la difficoltà non è nel rilevare una struttura rispetto al fondo ma piuttosto rilevare una differenza fra due tipi di tessuti.
Trasformazioni spaziali
Riallineamento (registrazione)
Procedura intra-subject, ossia le due immagini sono dello stesso soggetto
Adattamento ad un template (normalizzazione)
Coregistrazione = registrazione tra immagini diverse
Ricampionamento = aumento o diminuzione della matrice di pixel.
Downsampling = ricampionamento ad una matrice inferiore
Procedura inter-subject, ossia le immagini sono di soggetti diversi
Vediamo come si descrivono matematicamente le trasformazioni spaziali, considerando dapprima il caso 2D.
La trasformazione più semplice è una traslazione lungo i due assi, che porta il punto p di coordinate (x,y) nella posizione p’ di coordinate (x’,y’), ottenuta semplicemente aggiungendo i parametri traslazionali tx e ty alle coordinate iniziali:
X’ = x + tx y’ = y + ty
Se invece abbiamo una rotazione la trasformazione è data da:
Utilizzando la notazione matriciale la rotazione si può scrivere in forma compatta (i vettori p e p’ sono indicati come «vettori colonna»):
Per una rototraslazione abbiamo:
dove t è il vettore colonna che indica la traslazione
È possibile esprimere questa trasformazione usando coordinate omogenee in abbinamento a matrici 3x3 del tipo:
Chiamiamo coordinate omogenee di un punto P = ( x, y ) del piano una qualsiasi terna ordinata
(X, Y, Z) di numeri reali tali che Z ≠ 0 e X/Z= x, Y/Z= y.
Questo formalismo può descrivere non solo rototraslazioni ma anche trasformazioni di tipo diverso che sono indicate come trasformazioni affini e sono descritte in generale da matrici del tipo:
In 3D le matrici affini hanno la forma:
Le trasformazioni affini permettono anche un certo grado di deformazione (come nel caso di shear verticale e shear orizzontale).
Rotazioni intorno ai tre assi e traslazione:
Interpolazione
Interpolazione = è un metodo per individuare nuovi punti del piano cartesiano a partire da un insieme finito di punti dati
Per applicare le matrici di trasformazione alle immagini digitali occorre scegliere uno schema di interpolazione. Questo è necessario per determinare l’intensità nei pixel dell’immagine trasformata quando la trasformazione (ad es. una traslazione) è pari ad una frazione di pixel.
Interpolazione in 1D (lineare)
Interpolazione lineare = è un metodo numerico per trovare le radici di una funzione
Interpolazione in 2D (bilineare)
interpolazione bilineare = è un metodo per interpolare funzioni di due variabili usando ripetutamente l’interpolazione lineare
Le interpolazione bilineari indicano le intensità del pixel corrispondente
Riallineamenti (registrazioni)
Occorre definire un criterio di similitudine o quella che in gergo si chiama funzione di costo per stabilire se le due immagini sono ben sovrapposte.
Quando le due immagini hanno lo stesso contrasto una funzione di costo semplice è costituita da:
R = reference T = target
L’idea è che se le due immagini sono allineate la funzione di costo è vicina a zero, mentre aumenta se c’è uno spostamento relativo.
In pratica il software procede per tentativi con piccole rotazioni e traslazioni, ricalcolando la funzione di costo per ciascun tentativo. Il migliore riallineamento si ha in corrispondenza del valore minimo della funzione di costo.
Per immagini volumetriche 3D si può considerare il modello del corpo rigido per il quale abbiamo 6
gradi di libertà: 3 traslazionali e 3 rotazionali.
Tipi di rotazione in 3D:
Yaw: rotazione intorno all’asse Z
Roll: rotazione intorno all’asse Y
Pitch: rotazione intorno all’asse X
L’algoritmo di riallineamento trova i 6 parametri che permettono la massima sovrapposizione con l’immagine di riferimento.
In pratica in 3D una qualunque nuova orientazione rispetto ad una di riferimento è descritta come composizione di rotazioni intorno ai tre assi più una traslazione.
Per le traslazioni e le rotazioni l’ordine è irrilevante, ma le rotazioni in 3D non commutano (l’ordine va rispettato).
Occorre quindi definire un ordine convenzionale. Una scelta comune è:
Yaw ➔ Roll ➔ Pitch ➔ Traslazione
Con la notazione matriciale questa successione di trasformazioni si scrive (I rappresenta l’immagine di partenza su cui agisce per prima RZ) :
Come abbiamo visto, ad ogni trasformazione l’interpolazione causa un piccolo degrado dell’immagine (in termini di blurring). Quindi, anziché applicare in successione le 4 trasformazioni elementari per ottenere una rototraslazione, si calcola un’unica trasformazione dal prodotto delle corrispondenti matrici:
L’immagine trasformata I’ è data da: I’ = R I
Una rototraslazione in 3D si applica quindi attraverso un’unica matrice di trasformazione ottenuta dal prodotto di diverse matrici.
In alcuni casi le trasformazioni spaziali per ottenere un certo «posizionamento» finale sono necessariamente determinate per step successivi. Tuttavia è sempre possibile calcolare una matrice di trasformazione complessiva dal prodotto delle singole matrici.
Coregistrazione = registrazione tra immagini diverse
Ricampionamento = aumento o diminuzione della matrice dei pixel. Ci sono due tipi di ricampionamento:
ricampionamento senza interpolazione = si assegnano ai sottopixel le stesse intensità dei pixel iniziali. Si ottiene un’immagine indistinguibile da quella iniziale
ricampionamento con interpolazione lineare = si assegnano ai sottopixel intensità diverse
Downsampling = ricampionamento ad una matrice inferiore, necessario in caso di ricampionamento con interpolazione lineare.
Il ricampionamento può avere diverse applicazioni (mostrare immagini più adatte all’occhio umano, registrazione fra immagini con matrici diverse, ecc), ma non aumenta la risoluzione spaziale
Imaging con raggi-X
Distinguiamo due implementazioni principali:
Radiografie planari (projection radiography)
• Economicità
• Portabilità (per alcuni strumenti)
• Caratteristiche “real time” (risoluzione temporale, velocità di esecuzione)
Tomografia Assiale Computerizzata (TAC). In inglese CT per computed tomography
• Più approfondita, permette di ottenere immagini 3D.
• Più costosa
Concetti introduttivi
Quando elettroni accelerati da un forte campo elettrico colpiscono un bersaglio metallico, viene emessa una radiazione che è in grado di attraversare un materiale ed impressionare pellicole fotografiche.
Questo tipo di radiazione prende il nome di raggi-x.
Oggi si usano dispositivi che prendono il nome di tubi a raggi-x. Gli elettroni sono emessi per effetto termoionico da un sottile filamento di tungsteno percorso da una corrente che lo porta a elevate temperature. Il campo elettrico necessario per accelerare gli elettroni si ottiene applicando una forte ddp (differenza di potenziale) tra catodo e anodo (quest’ultimo costituisce anche il target).
Tutti i componenti sono racchiusi in un tubo a vuoto per non ostacolare il moto degli elettroni.
La ddp determina la massima energia dei raggi-x emessi.
Il fascio di raggi-x viene collimato (raddrizzato) per essere indirizzato in modo più preciso sul paziente. La collimazione viene effettuata dal collimatore.
Il principio delle radiografie planari è molto semplice, l’immagine che si forma sulla lastra è modulata sostanzialmente da quanto i diversi tessuti lasciano passare i raggi-x.
La radiografia planare produce un’immagine che rappresenta una proiezione bidimensionale di tutte le strutture che si trovano tra la sorgente di raggi-x e i rivelatori.
La grandezza degli organi nelle immagini cambia a seconda della disposizione relativa di sorgente-oggetto-rivelatore.
Principi fisici dell’imaging con raggi-x
I raggi-x sono onde elettromagnetiche con frequenze comprese fra 1016-1020 Hz, essi sono radiazioni ionizzanti.
Radiazioni ionizzanti = radiazioni in grado di produrre ioni nella materia da essi attraversata (strappando elettroni dagli atomi o scindendo molecole).
Questo tipo di radiazioni sono molto invasive, in quanto il tessuto biologico in questione può riportare molti danni.
Ricordiamo che le onde elettromagnetiche sono costituite da campi elettrici e magnetici che oscillano su piani mutuamente ortogonali e si possono propagare anche nel vuoto.
La velocità di propagazione nel vuoto è la stessa per tutte le frequenze di oscillazione ed è indicata con c (velocità della luce nel vuoto, c = 299792458 m/s). Ricordiamo inoltre le relazioni fondamentali fra i parametri che descrivono un’onda:
Ricordiamo anche il dualismo onda-corpuscolo, in base al quale le particelle elementari e le onde elettromagnetiche si comportano a volte come onde (dando luogo a fenomeni tipicamente ondulatori come la diffrazione e l’interferenza) e a volte come corpuscoli (in tal caso le descriviamo come raggi che si propagano in linea retta).
Nell’interazione dei raggi X con la materia il comportamento corpuscolare è molto importante.
Alle frequenze che caratterizzano i raggi X (e i raggi gamma) la natura corpuscolare delle onde elettromagnetiche è molto evidente.
Queste radiazioni sono infatti descritte nella fisica moderna come quanti di luce o fotoni, ciascuno dei quali possiede un’energia E ed una quantità di moto p (anche se ha massa nulla)
Di pari importanza è l’interazione fra radiazioni costituite da particelle con massa (elettroni, protoni, ecc.) e la materia. Per comprendere i processi fisici di interesse nell’imaging radiologico occorre quindi scendere a livello atomico (e nucleare).
Richiami sulla struttura atomica
Elettrone = particella con carica elettrica negativa
Protone = particella con carica elettrica positiva
Neutrone = particella con carica elettrica nulla
Nucleo atomico = elemento costituito da protoni e neutroni
Z = numero atomico (numero di protoni)
A = numero di massa (numero di protoni + numero di neutroni)
Nel modello atomico di Bohr i diversi elettroni si muovono intorno al nucleo su orbite stabili caratterizzate da livelli energetici ben precisi (che dipendono dall’elemento considerato).
I livelli energetici sono quantizzati e individuati dal numero quantico principale n.
Per ogni livello energetico n (detto anche guscio, strato o shell) esiste un numero massimo di elettroni che possono occuparlo, dato dalla formula:
L’unità di misura dell ’ energia usata nella descrizione dei sistemi atomici e in fisica delle radiazioni è l’elettronvolt (eV).
Elettronvolt = è l'energia che una carica elementare (protone o elettrone) acquisisce spostandosi fra due punti fra i quali c’è una differenza di potenziale di 1 Volt:
Un fotone incidente su un materiale può cedere energia agli elettroni dei suoi atomi, spostandoli su un’orbita superiore. In questo caso parliamo di eccitazione
Fotone = quanto di energia della radiazione elettromagnetica
Eccitazione = passaggio dallo stato fondamentale ad uno stato di maggiore energia
Da questo stato eccitato l’atomo perde l’energia in eccesso quando l’elettrone torna sull’orbita più bassa, emettendo un fotone (diseccitazione). L’energia del fotone emesso è esattamente uguale al «salto» energetico dell’elettrone.
Emissione (o diseccitazione) = passaggio da uno stato a più alta energia ad uno a più bassa energia
Ionizzazione = fornire energia ad un atomo per strappare l’elettrone più esterno. Dopo di essa si ha uno ione (ovvero un atomo carico elettricamente)
Per separare l’unico elettrone dell’H servono 13.6 eV, questo valore è il valore limite oltre il quale le radiazioni sono considerate ionizzanti.
Per le onde elettromagnetiche ciò avviene a partire dai raggi ultravioletti in su.
Anche radiazioni costituite da particelle cariche (elettroni, nuclei, ecc.) dotate di sufficiente energia cinetica hanno potere ionizzante. Ciò avviene per le particelle emesse in alcuni decadimenti radioattivi e per quelle accelerate artificialmente sia a scopo di ricerca sia per la costruzione di vari dispositivi, tra cui quelli in ambito medico.
Per l’imaging con raggi-X ci interessa l’interazione di un fascio di elettroni con energia appropriata e la materia e ovviamente l’interazione degli stessi raggi-X con la materia.
Elettroni molto energetici possono interagire col materiale su cui collidono in modi diversi:
urti elettrone-elettrone (e-e) che coinvolgono gli elettroni dei gusci esterni
urti elettrone-elettrone (e-e) che coinvolgono un elettrone dei gusci più interni
urti elettrone-nucleo
Urti elettrone-elettrone
Nel 99% delle collisioni l’elettrone incidente cede una frazione molto piccola della sua energia ad un elettrone del materiale che si sposta temporaneamente su un livello di poco superiore. Occasionalmente si ha un urto più «frontale» e-e in cui l’elettrone colpito acquista un'energia sufficiente per diventare a sua volta ionizzante (raggio delta).
Quando in seguito l’atomo si diseccita viene emessa radiazione infrarossa. In sostanza il 99% dell’energia del fascio di elettroni incidenti si trasforma in calore. L’elettrone incidente (o il raggio
delta) continua il suo percorso urtando moltissimi atomi fino a quando perde tutta la sua energia.
Urti elettrone-nucleo
In queste collisioni (che ammontano ad appena l’1%) viene prodotto ciò che ci interessa ossia
raggi-X. Le leggi dell’elettromagnetismo ci dicono infatti che una carica che subisce un’accelerazione emette radiazione elettromagnetica (indicata in questo caso come radiazione di frenamento).
Analizzando lo spettro dei raggi-X che fuoriescono da un tubo catodico si ottiene la seguente distribuzione che è il risultato di due processi distinti:
radiazione caratteristica
radiazione di frenamento (bremsstrahlung, dal tedesco)
La radiazione di bremsstrahlung presenta uno spettro continuo, mentre la radiazione caratteristica si presenta con delle righe ai valori specifici di energia tipici del materiale in questione (in questo caso un bersaglio di tungsteno).
Radiazione caratteristica
Se ha energia sufficiente, l’elettrone incidente espelle un elettrone dallo strato K. Il posto vacante viene poi occupato da un elettrone dai livelli superiori. In questa transizione vengono emessi raggi-X con energie ben definite, caratteristiche dei livelli energetici di quel particolare atomo.
Se gli elettroni del fascio non hanno energia sufficiente il fenomeno non può avvenire e le righe non si osservano. Per il tungsteno il valore soglia è di circa 58 keV
Radiazione di frenamento
L’elettrone incidente interagisce con un nucleo che ne devia bruscamente la traiettoria. Poiché una carica accelerata emette radiazione elettromagnetica (in questo caso i nostri raggi-X) e quindi perde energia, verrà frenata in questo processo (bremsstrahlung).
La quantità relativa di raggi-X emessi cresce al diminuire dell’energia (il valore massimo dell’energia si ha per i rari urti frontali elettrone-nucleo).
L’apparente diminuzione al di sotto di una certa energia è dovuta al fatto che questi fotoni non riescono a fuoriuscire dal bersaglio o sono fermati dal tubo di vetro.
Descriviamo ora l’interazione dei raggi-X con la materia che attraversano, poiché da questo dipende il contrasto che otteniamo nelle immagini.
L’obiettivo è quello di ottenere il miglior compromesso fra SNR (rapporto segnale rumore), CNR e limitazione della dose al paziente. Notiamo che raggi troppo energetici attraverserebbero entrambi i materiali senza attenuazione, e l’immagine non sarebbe di alcuna utilità.
I meccanismi di interazione raggi X – materia sono diversi da quelli che abbiamo descritto per gli elettroni ma producono ugualmente una ionizzazione.
Le modalità principali di interazione importanti per l’imaging in ambito biomedico sono due:
effetto fotoelettrico
effetto Compton
Effetto fotoelettrico
Effetto fotoelettrico = si verifica quando un fotone viene assorbito da un atomo e l’energia acquisita viene liberata con l’espulsione di uno dei suoi elettroni.
Esso avviene solo se l’energia hf del singolo fotone è maggiore dell’ energia di legame degli elettroni del metallo.
Negli atomi con più elettroni, un fotone incidente con sufficiente energia (ad es. un fotone X) può strappare completamente dall’atomo un elettrone del guscio K.
Il posto vacante che si viene a creare viene poi occupato da un elettrone proveniente da un livello
superiore. In questa diseccitazione vi è un raggio X emesso dall’atomo, diverso da quello incidente. Questi raggi X sono detti caratteristici perché la loro energia dipende dall’elemento atomico in questione.
Questo è simile quindi a quanto visto prima per gli elettroni incidenti e la radiazione caratteristica.
L’energia cinetica dell’elettrone espulso (fotoelettrone) è pari a quella dell’X meno l’energia di legame. Nei materiali biologici quest’ultima è piccola rispetto a quella dell’X, per cui il fotoelettrone
si prende la maggior parte dell’energia mentre la radiazione caratteristica ha energie molto basse.
L’effetto fotoelettrico produce quindi ionizzazione, da cui le caratteristiche di invasività dei raggi X.
D’altra parte è proprio l’effetto fotoelettrico che causa l’assorbimento dei raggi X nel materiale, contribuendo in modo significativo al contrasto nelle immagini.
Effetto compton
L’effetto compton si verifica invece quando un fotone X incidente urta uno degli elettroni più esterni degli atomi del materiale. In questo processo il fotone viene deviato e l’elettrone colpito acquista parte della sua energia e viene espulso.
L’energia dei fotoni deviati per effetto compton, in funzione dell’angolo di scattering, si può ricavare descrivendo il fenomeno come un urto ed applicando la conservazione della quantità di moto e dell’energia (m è la massa dell’elettrone). Con una trattazione relativistica si ottiene:
Ricordiamo che un fotone trasporta sia energia sia quantità di moto date rispettivamente da
(qui abbiamo indicato la frequenza con 𝝂):
L’energia dei fotoni deviati per effetto compton in funzione dell’angolo di scattering è riportata in figura (per un fotone incidente con energia di 70 keV). Come si vede, essi conservano la maggior
parte dell’energia iniziale anche per angoli significativi.
Questo costituisce un problema perché i fotoni deviati possono raggiungere il rivelatore al pari di quelli non assorbiti, ma da una direzione sbagliata contribuendo al rumore nelle immagini.
È importante capire cosa determina la probabilità che un fotone X subisca un effetto fotoelettrico o un effetto compton, perché entrambi gli eventi influenzano le immagini.
Ricordiamo che nella descrizione degli eventi su scala atomica e nucleare con la meccanica quantistica l’aspetto deterministico perde di significato e dobbiamo parlare di probabilità che avvenga un’interazione.
In generale questa probabilità dipende sia dalle caratteristiche della radiazione incidente (es. tipo di radiazione o energia) sia dalle caratteristiche degli atomi bersaglio (numero atomico, numero di massa, densità, ecc.).
Nello specifico, la probabilità Pef dell’effetto fotoelettrico in un certo tessuto dipende dall’energia h𝝂 del fotone X, il numero atomico effettivo Zeff (qui inteso come il numero atomico medio dei vari elementi presenti nel tessuto) e la densità del tessuto stesso:
La probabilità dell’effetto compton dipende invece molto poco dal numero atomico del materiale e dall’energia del fotone incidente (almeno alle energie di nostro interesse). Il parametro importante è la densità elettronica del materiale.
Per i raggi-X con energia più bassa quindi, l’effetto fotoelettrico è dominante, mentre ad energie più alte diminuisce e il contributo relativo dello scattering Compton è più importante.
Assorbimento dei raggi-X
A causa di queste interazioni radiazione-materia, un fascio di raggi-X viene attenuato man mano che attraversa un materiale. Questo è alla base del contrasto nelle immagini che otteniamo.
Sperimentalmente si osserva un’attenuazione esponenziale con lo spessore attraversato.
Deriviamo questo risultato, partendo dal caso semplice di un fascio di raggi-X monoenergetico e di uno strato di materiale omogeneo.
Si fa spesso riferimento a particolari spessori di materiale che attenuano il fascio incidente di uno specifico fattore:
= spessore dopo il quale rimane il 37% (1/e) dell’intensità del fascio
strato emivalente x1/2 = spessore dopo il quale il 50% dell’intensità del fascio
L’attenuazione dipende ovviamente dal materiale ed è il risultato delle interazioni subite dai fotoni nell’attraversarlo (in particolare dell’effetto fotoelettrico) la cui probabilità è in generale anche funzione dell’energia del fotone incidente, come descritto.
Per il coefficiente di attenuazione possiamo scrivere quindi in generale:
Il fascio di raggi X prodotto dal tubo catodico non è però monocromatico.
Come abbiamo visto la maggior parte dell’energia è distribuita secondo lo spettro continuo della bremsstrahlung. Occorre quindi ulteriormente generalizzare la formula dell’attenuazione considerando la dipendenza di µ dall’energia oltre che dal materiale (cioè dalla posizione):
Fascio monoenergetico:
Fascio polienergetico:
Spesso, invece del coefficiente di attenuazione lineare si utilizza il coefficiente di attenuazione di massa , definito come:
La formula dell’attenuazione dovuta ad uno spessore d diventa (riportiamo solo il caso con µ costante):
risulta utile quando si vuole tenere conto separatamente del contributo della sostanza e della densità
Ad energie più elevate (raggi gamma) diventa significativo anche un altro meccanismo di interazione fotone-materia, noto come “produzione di coppie”, in cui dall’interazione del fotone incidente con un nucleo viene creata una coppia elettrone () - positrone (
).
Le due particelle hanno la stessa massa, alla quale corrisponde una energia
Notare la conservazione della carica elettrica. Inoltre la conservazione dell’energia richiede che il fotone incidente abbia un’energia di almeno 1.02 MeV.
Alle energie tipiche dei raggi X usati in radiologia la produzione di coppie è quindi assente.
Elementi costruttivi del tubo radiogeno e dei rivelatori di raggi X
La geometria del catodo influisce sulle caratteristiche geometriche del fascio di elettroni.
La quantità di raggi X prodotta per bremsstrahlung cresce col numero atomico dell’anodo.
Nella maggior parte dei casi si utilizza il tungsteno (Z=74), in quanto ha un elevato punto di fusione (3370 °C) ed è importante perchè solo l’1% dell’energia del fascio di elettroni è convertita in raggi-X, il resto si trasforma in calore.
Per evitare di surriscaldare sempre lo stesso punto l’anodo è ruotante
Il fascio di raggi X emerge con una dimensione trasversa f dalla zona di interazione tra gli elettroni incidenti e l’anodo. Il valore di f dipende a sua volta dalle dimensioni trasverse F del fascio di elettroni e dall’angolo con cui è costruito l’anodo:
Effetto Heel = causa una maggiore intensità del fascio nel lato verso il catodo.
I raggi-X a bassa energia (detti anche raggi molli) contribuiscono alla dose erogata al paziente e molto poco all’immagine in quanto sono per la maggior parte bloccati dal paziente stesso. È utile pertanto rimuovere questi raggi poco energetici con un filtro.
Collimatore = strumento costituito da una lastra di piombo con un foro regolabile, che ha lo scopo di restringere il fascio alla zona di interesse evitando l’esposizione di altri organi
Poiché alcuni dei raggi X sono diffusi (deviati) dai materiali (effetto Compton), il rivelatore è preceduto da una griglia anti-diffusione (griglia anti-scatter) che evita il contributo dei raggi diffusi all’immagine, migliorandone il contrasto.
Le griglie sono costituite da strisce di piombo che ha un alto potere schermante per i raggi X. I parametri che determinano la capacità filtrante di una griglia sono:
Rapporto di griglia =
(valori tipici da 4:1 a 16:1)
Frequenza di griglia =
(valori tipici 5-7 linee/mm)
La griglia, eliminando anche parte dei raggi X «utili» causa inevitabilmente una diminuzione dell’efficienza a parità di dose (che quindi deve essere a volte aumentata). Inoltre la sua «ombra» è chiaramente visibile nell’immagine se non si usano particolari accorgimenti.
Nei sistemi radiografici moderni le pellicole radiografiche sono state sostituite da rivelatori in grado di fornire immagini digitali visualizzabili sul monitor. In più è possibile archiviare le immagini e condividerle.
Fotodiodo: rivelatore di fotoni molto semplice che permette il passaggio di corrente solo quando colpito dalla luce.
Ci sono due tecnologie digitali principali in ambito radiografico:
Computed radiography (tecnologia più economica ma più macchinosa)
Digital radiography (tecnologia più recente e con maggiori vantaggi)
Computed radiography
La formazione di immagini tramite computed radiography avviene in due fasi:
l’esposizione vera e propria e la lettura.
Durante l’esposizione i raggi-X che hanno attraversato il paziente e la griglia anti-scatter incidono sul plate. L’energia rilasciata dai raggi-X sullo strato di fosfòri porta degli elettroni a livelli più alti di energia che risultano essere semistabili (gli elettroni possono restarvi intrappolati per diverse ore). Quindi l’informazione resta in qualche modo «catturata» (diciamo che si forma un’immagine latente).
L’informazione così immagazzinata viene trasformata in una immagine digitale nella fase di lettura che consiste nello scansionare la piastra con un laser che causa il ritorno degli elettroni ai livelli energetici più bassi con conseguente emissione di fotoni luminosi che possono essere rilevati da fotodiodi.
I fotodiodi sono disposti su una barra mobile che scansiona tutto il plate. I fotoni luminosi sono focalizzati sui fotodiodi con lenti opportune. All’uscita dei fotodiodi si ottiene una differenza di potenziale che viene amplificata e digitalizzata.
Per aumentare l’efficienza, alla base del plate si può disporre uno strato riflettente per recuperare anche la luce laser che arriva più in profondità. Tuttavia questo riduce la risoluzione spaziale perché la luce rivelata dal fotodiodo arriva da più direzioni.
Per applicazioni dove è richiesta un’alta risoluzione spaziale, si dispone uno strato assorbente anziché riflettente (sacrificando l’efficienza).
Considerazioni simili si possono fare per lo spessore del plate, che aumenta l’efficienza ma diminuisce la risoluzione spaziale.
Plate = piastra con uno strato di fosforì (un composto chimico a base di cristalli di bario, fluoro e europio bivalente)
Un metodo per aumentare efficienza e risoluzione spaziale consiste nell’usare cristalli di Cesio (CsBr:Eu2+) anziché di Bario. Con questo materiale i cristalli hanno una struttura a colonne, che funzionano anche da guide di luce, limitandone la diffusione laterale.
Le piastre hanno dimensioni variabili, la risoluzione dipende da diversi fattori (grandezza, densità e orientamento dei cristalli di fosforì, spessore della piastra, area stimolata dal laser)
Per evitare che la diseccitazione stimolata dal laser possa avvenire prima del tempo a causa della luce ambiente, la piastra è contenuta in un involucro opaco alla luce (ma ovviamente trasparente ai raggi-X). Prima del riutilizzo, ogni informazione residua sulla piastra può essere cancellata irradiandola con luce molto intensa.
Le piastre sono riutilizzabili secondo il tipico workflow: esposizione (raggi-x) > lettura > cancellazione (luce intensa) > nuova esposizione (raggi-x)
Digital radiography
La formazione di immagini tramite digital radiography avviene invece in modo più immediato, con un workflow clinico globalmente più semplice. Distinguiamo due tecnologie a seconda di come l’energia dei raggi-X viene convertita in segnale elettrico:
A conversione indiretta
A conversione diretta
Conversione indiretta
Nella conversione indiretta i raggi-X vengono assorbiti prima in un materiale scintillatore che ne converte l’energia in luce visibile. Questa luce è misurata immediatamente da una matrice di sensori, costruita con tecnologia TFT (Thin Film Transistor) in cui milioni di pixel sono ricavati in un sottile strato di silicio amorfo. Ciascun pixel comprende anche un fotodiodo che trasforma il segnale luminoso in segnale elettrico. Questi segnali sono poi amplificati e digitalizzati con un ADC.
Un materiale scintillatore molto usato è lo ioduro di cesio drogato con tallio (CsI:Tl).
Lo iodio e il cesio hanno una probabilità dell’effetto fotoelettrico (Pef) elevata, con un significativo assorbimento dei raggi-x. Ne risulta un coefficiente di attenuazione molto alto quindi l’efficienza del rivelatore è molto alta.
Lo strato scintillatore è composto da tanti e sottili cristalli «ad ago» di CsI:Tl disposti perpendicolarmente alla superficie, che si comportano anche come guide di luce (fibre ottiche).
Questo limita la diffusione laterale della luce, a vantaggio della risoluzione spaziale.
La luce prodotta nello scintillatore ha frequenze intorno al verde e raggiunge il pixel sottostante dopo riflessioni interne alle «fibre» (principio della riflessione totale).
Ciascun pixel include il fotodiodo, un condensatore che immagazzina temporaneamente la carica elettrica ed un TFT che insieme ad altri componenti elettronici consente di leggere correttamente i segnali da tutta la matrice.
Conversione diretta
Nella conversione diretta i raggi-X vengono assorbiti in uno strato di selenio amorfo (a-Se), in cui creano ionizzazione in numero proporzionale all’intensità dei raggi-X stessi. Sotto l’effetto di una differenza di potenziale applicata ai due lati dello strato le cariche negative e positive migrano in direzione opposta generando localmente una corrente proporzionale ai raggi-X incidenti. Questo
segnale elettrico viene poi letto con una matrice TFT come nel caso indiretto.
Questa tecnica è meno efficiente di quella a conversione indiretta basata su un materiale scintillatore, anche se più promettente in termini di risoluzione spaziale.
Rapporto segnale/rumore (SNR)
Fattori principali che incidono sul SNR per l’imaging con raggi-X:
rumore quantistico = è dovuto alla natura intrinseca dei processi fisici coinvolti
rumore termico = è dovuto soprattutto all’elettronica di lettura
Nell’imaging con raggi-X prevale il rumore quantistico
Consideriamo un sistema di imaging a raggi-X impostato per far arrivare, senza il paziente interposto, un certo numero di fotoni su un dato pixel. Se ripetiamo la misura più volte, a causa delle fluttuazioni quantistiche, troveremo un numero di fotoni effettivo N diverso per ogni ripetizione.
La distribuzione di 𝑁 intorno a (valor medio) è descritto dalla funzione densità di probabilità di Poisson:
Per P(N) sappiamo che la sua deviazione standard (
Poiché è una stima del rumore mentre
è il segnale, abbiamo:
SNR aumenta all’aumentare di
Aumentare N significa però anche aumentare la dose per il paziente.
In alternativa, si può aumentare la superficie dei pixel (sacrificando un po’ di risoluzione spaziale).
Data la dipendenza del SNR dal numero di raggi X, l’SNR sarà influenzato anche dai parametri di acquisizione:
• corrente nel filamento che incide su intensità e durata del fascio di elettroni (e quindi sul tempo di esposizione)
• valore di kVp (aumentano i raggi X di alta energia che sono quelli che hanno più probabilità di raggiungere il rivelatore).
Le considerazioni fatte permettono di comprendere anche l’impatto di altri fattori sul SNR:
geometria della griglia anti-scatter = un rapporto e frequenza di griglia maggiori ne aumentano l’efficienza ma diminuiscono l’SNR.
le dimensioni del paziente e del distretto corporeo = un paziente/distretto corporeo più grande comporta un maggiore assorbimento dei raggi-x, diminuendo l’SNR
Infine dobbiamo tenere conto anche dell’efficienza del rivelatore, che definiamo col parametro DQE (Detector Quantum Efficiency):
Dove in e out si riferiscono agli SNR in ingresso e in uscita rispetto al rivelatore.
DQE è sempre < 1, e in alcune piastre per CR può arrivare a 0.8.
Rapporto contrasto/rumore (CNR)
Al CNR contribuiscono i seguenti fattori:
energia dei raggi X = per bassi valori del kVp aumenta il CNR, mentre per alti valori di kVp diminuisce il CNR.
Field Of View (FOV) = un piano immagine più grande comporta un maggior contributo dei fotoni diffusi per effetto Compton e quindi una riduzione del CNR.
spessore dell’oggetto = uno spessore maggiore comporta un maggiore contributo Compton, diminuendo il CNR oltre al SNR
geometria della griglia = le griglie servono a ridurre il contributo dei fotoni diffusi per effetto Compton e quindi migliorano il CNR (ma come abbiamo visto a discapito del SNR).
Risoluzione spaziale
Nel determinare la risoluzione spaziale di un apparato, oltre alle caratteristiche del rivelatore, entrano in gioco anche fattori geometrici.
Mezzi di contrasto radiografici
Si tratta di sostanze introdotte nel corpo umano che si accumulano nel distretto di interesse aumentandone il contrasto rispetto ai tessuti circostanti. Per l’imaging con raggi-X si usano composti contenenti elementi che aumentano l’effetto fotoelettrico.
K-edge = è l’improvviso aumento della probabilità di assorbimento di un fotone appena la sua energia supera l’energia di legame dello strato K.
A seconda dell’utilizzo distinguiamo:
mezzi di contrasto per il tratto gastro-intestinale
mezzi di contrasto vascolari
Mezzi di contrasto per il tratto gastro-intestinale
Sono somministrati oralmente (apparato digerente superiore) o per via rettale (tratto digerente inferiore). Si utilizza il solfato di bario (in polvere) che è molto efficiente nell’assorbire i raggi-X. Viene ingerito o somministrato per via rettale come sospensione acquosa.
I tratti intestinali riempiti dalla sospensione appaiono molto chiari e si possono mettere in evidenza anomalie nella conformazione o lesioni.
Un approccio combinato prevede la somministrazione della sospensione e poi di aria che distende le pareti dell’intestino, permettendo di evidenziarle meglio.
Mezzi di contrasto vascolari
Sono composti a base di iodio e vengono iniettati in una vena o arteria a seconda di cosa si voglia studiare. I composti in uso contengono tre atomi di iodio per molecola ed un certo numero di altre sostanze che servono a massimizzare la biocompatibilità e la farmacocinetica.
I mezzi di contrasto vascolari sono composti a base di iodio e vengono iniettati in una vena o arteria a seconda di cosa si voglia studiare. Una volta in circolo aumentano il coefficiente di attenuazione del comparto intravascolare in modo da evidenziare nelle immagini la rete vascolare.
Un’applicazione particolare è l’angiografia a sottrazione digitale.
Angiografia a sottrazione digitale (Digital Subtraction Angiography - DSA)
Con la DSA si riesce ad evidenziare la rete vascolare attraverso una doppia acquisizione: con e senza mezzo di contrasto. La differenza fra le due immagini fa scomparire tutte le strutture che non hanno preso contrasto. È utilizzata per diagnosticare anomalie nella vascolarizzazione.
L’utilizzo della DSA (e delle tecniche sottrattive in generale) per lo studio degli organi in movimento (soprattutto il cuore) è complicato dallo spostamento relativo fra le immagini da sottrarre.
Mammografia digitale – Digital Mammography
È utilizzata per evidenziare piccoli tumori o microcalcificazioni nella mammella. È richiesto:
elevata risoluzione spaziale
alto CNR
bassa dose di radiazioni
Data la composizione dell’organo sono preferibili tubi radiogeni con bassi kVp (25-30 kVp), uniti a schermi per selezionare il più possibile energie «utili».
In questo aiuta anche un anodo di molibdeno (k-edge intorno a 18 keV) anziché tungsteno, in quanto presenta una produzione significativa di raggi-X ad energie di interesse.
Per ottenere un’elevata risoluzione spaziale è inoltre importante un fascio di dimensioni trasverse ridotte (spot focale f e angoli piccoli) per ridurre la «penombra»:
Fluoroscopia digitale
È utilizzata come tecnica di acquisizione dinamica per applicazioni interventistiche, lo studio della circolazione ematica, del funzionamento dell’apparato urinario, ecc.
Si possono realizzare dei veri e propri filmati (circa 30 frame/s) per monitorare in tempo reale le procedure interventistiche, il moto degli organi e la cinetica dei mezzi di contrasto.
L’implementazione tradizionale si basa su dispositivi detti intensificatori di immagine in cui avviene una catena di conversioni: raggi X ⇒ luce ⇒ elettroni ⇒ luce
L’uso di intensificatori di immagine è reso indispensabile dalla necessità di ridurre la dose di raggi-x il più possibile. A questo contribuisce anche la modalità pulsata di irraggiamento, che prevede l’invio di «pacchetti» (burst) di raggi X opportunamente intervallati.
Le immagini che si ottengono non hanno la stessa qualità di quelle radiografiche convenzionali:
risoluzione spaziale limitata dalla videocamera
a causa delle ripetute conversioni il rumore aumenta
vengono introdotte distorsioni geometriche, soprattutto ai bordi (pin-cushion distortion)
Le applicazioni più moderne utilizzano invece la tecnologia TFT diretta o indiretta. Il vantaggio è l’assenza di distorsioni. Tuttavia, la necessità di un basso dosaggio comporta comunque una qualità inferiore rispetto ad una radiografia «statica».
K-edge subtraction
Un approccio più avanzato consiste nello sfruttare la dipendenza del coefficiente di assorbimento del mezzo di contrasto dall’energia dei raggi X, soprattutto intorno al valore di K-edge, acquisendo due immagini quasi simultanee a due diverse energie (K-edge subtraction).
Con un normale tubo radiogeno non si riesce ad ottenere un fascio strettamente monocromatico, anche se si può agire con dei filtri.
Radiazione di sincrotrone
Queste tecniche sono infatti implementate soprattutto con la radiazione di sincrotrone. Il sincrotrone è un esempio di acceleratore di particelle (in questo caso elettroni che percorrono traiettorie circolari).
Entra in gioco la radiazione emessa da una carica accelerata (in questo caso l’accelerazione centripeta degli elettroni).
Cardiac gating
Per ottenere un’immagine statica del cuore in corrispondenza di una fase cardiaca ben precisa occorre sfruttare un segnale esterno per temporizzare l’acquisizione in modo opportuno.
Segnali adatti sono l’ECG e quello fornito da un pulsossimetro
Da questi segnali viene prodotto un segnale che «triggera» l’acquisizione (tipicamente un impulso rettangolare). La tecnica è indicata come cardiac gating
Computed Tomography (CT)
L’immagine ottenuta con le radiografie planari è una proiezione bidimensionale di tutte le strutture che si trovano fra la sorgente di raggi X e i rivelatori.
Per ottenere immagini di specifiche sezioni sono state sviluppate tecniche tomografiche.
Tra le diverse tecniche tomografiche oggi esistenti la CT indica quella che usa raggi-X. Inizialmente era indicata con CAT (Computed Axial Tomography), in italiano TAC (Tomografia Assiale Computerizzata).
Il termine «assiale» si riferisce al fatto che i primi sistemi furono costruiti per acquisire immagini solo sul piano assiale. Attualmente si possono acquisire immagini anche secondo gli altri piani (sagittale e coronale).
Principi base della CT
Un fascio sottile (pencil beam) di raggi-X viene usato per irradiare da diverse posizioni uno strato (slice) assiale. Successivamente l’operazione è ripetuta diverse volte cambiando angolazione, ruotando lo strumento intorno all’asse Z ad intervalli regolari.
Il percorso dei raggi-X attraverso il paziente, era indicato come «ray» (raggio). L’insieme dei segnali sij ottenuti dopo una serie completa di traslazioni era indicato come «view» (vista).
Lo schema descritto (fascio singolo e rivelatore singolo mossi nella combinazione traslazione+rotazione) è indicato come scanner CT di prima generazione.
Lo strato scansionato ha uno spessore che dipende dalle dimensioni trasverse del pencil beam.
La slice da scansionare si può rappresentare come una matrice (reconstruction matrix) di rettangolini 3D detti voxel, per i quali ottenere i coefficienti di attenuazione.
Una singola «view» non è sufficiente per ottenere tutte le informazioni.
Per matrici di piccole dimensioni può essere utilizzato un approccio analitico per ottenere i valori di µ per ogni voxel, sfruttando acquisizioni da diverse «view».
Intensità (I): del fascio di fotoni, definita come l’energia che arriva sull’unità di superficie nell’unità di tempo.
Backprojection (BP)
Un metodo efficace per ricostruire immagini tomografiche da proiezioni unidimensionali multiple è quello indicato come backprojection.
L’idea è quella di ricavare da ogni proiezione un'immagine distribuendo l’intensità misurata in modo uniforme lungo la direzione dei raggi.
Le immagini ottenute dalle BP delle diverse proiezioni (o «view») sono poi sommate. Nell'immagine somma, l’intensità si «rafforza» in corrispondenza della posizione delle strutture con un µ diverso dal fondo.
In pratica per ricostruire correttamente immagini complesse occorrono molte BP. In questo modo scompaiono gli artefatti a «stella», anche se rimane un effetto di blurring (smoothing).
Un metodo efficace per eliminare l’effetto di blurring si basa su filtri passa-alto dei profili unidimensionali prima di effettuare la backprojection. La tecnica prende il nome di Filtered Backprojection.
I lobi negativi dei profili filtrati «erodono» il segnale spurio che verrebbe a sommarsi intorno ai contorni veri dell’oggetto usando i profili non filtrati.
Un concetto strettamente legato a quello di backprojection è quello di sinogramma. Si ottiene rappresentando con una immagine i profili di attenuazione ottenuti dalle varie proiezioni.
In un sinogramma appaiono pattern sinusoidali (da cui appunto il nome).
Un'immagine CT non mostra il valore assoluto del coefficiente di attenuazione lineare µ per ogni voxel, ma si preferisce un valore normalizzato al coefficiente di attenuazione dell’acqua (CT number) in base alla seguente formula:
I CT number vengono espressi in unità Hounsfield (HU).
Visualizzazione di immagini CT
In realtà, una volta acquisite le immagini di tante sezioni contigue (senza gap), abbiamo una matrice tridimensionale di voxel che possiamo «riaffettare» (reslice) secondo gli altri piani ortogonali.
Questa operazione di reslicing, in generale indicata come multiplanar reconstruction, può essere effettuata anche secondo piani qualunque (richiesta interpolazione).
In seguito alle operazioni di segmentazione è poi possibile realizzare una vera e propria visualizzazione 3D
Medicina nucleare
Per quanto riguarda l’imaging, abbiamo:
Scintigrafia planare
Spect
Pet
I fenomeni di base avvengono a livello nucleare oltre che atomico.
Possiamo fare la seguente distinzione:
Transmission imaging (imaging con raggi-X): in queste tecniche abbiamo radiazioni che sono generate all’esterno del corpo e fatte passare attraverso di esso fino al rivelatore.
Emission imaging (imaging con medicina nucleare): la radiazione viene emessa dall’interno del corpo da radiofarmaci iniettati per via endovenosa e registrata da rivelatori esterni.
Possiamo avere sistemi di imaging:
Planare = in cui la fotocamera rimane fissa
Tomografici = in cui la fotocamera si muove
La medicina nucleare è considerata una modalità di imaging funzionale. Infatti il contrasto nelle immagini dipende da come il radiofarmaco si concentra nei vari distretti, che a sua volta dipende dall’attività fisiologica e metabolica degli organi di interesse.
Le immagini ottenute con metodiche nucleari hanno in genere scarso SNR e poca risoluzione spaziale.
In compenso hanno un’alta sensibilità (possono rilevare pochi nanogrammi di materiale radioattivo) e specificità (il corpo umano non emette di per sè radiazioni).
Nomenclatura in medicina nucleare
Elettrone = ha carica elettrica negativa
Protone = ha carica elettrica positiva
Neutrone = ha carica elettrica nulla
Nucleoni = insieme di protoni e neutroni, costituiscono il nucleo atomico
Z = numero atomico (numero di protoni)
A = numero di massa (numero di protoni + numero di neutroni)
Isotopi = elementi che differiscono per il numero di neutroni (stesso Z e diverso A)
Isobari = stesso A e diverso Z
Isotoni = stesso numero di neutroni
Isomeri = stesso A, stesso Z ma diverso stato di eccitazione (gli isomeri metastabili – che hanno una vita media più lungo rispetto uno stato instabile - sono indicati con m)
Principi fisici di medicina nucleare
Alcune sostanze emettono radiazioni che sono in grado di attraversare corpi che non sono attraversati dalla luce.
Le radiazioni emesse da queste sostanze risultano insensibili ai legami chimici. Inoltre sono
insensibili alla temperatura, alla pressione, ai campi elettromagnetici.
Sono proprietà del nucleo atomico.
La radioattività è dovuta al risultato della diseccitazione di un nucleo instabile.
Ci sono tre tipologie di radiazioni:
alfa = con carica elettrica positiva
beta = con carica elettrica negativa
gamma = con carica neutra
I tre tipi di radiazione corrispondono a tre tipi di “particelle”:
1. I raggi sono nuclei dell’atomo di elio, ovvero oggetti costituiti da due protoni e due neutroni;
2. I raggi β sono degli elettroni, che però si generano all’interno del nucleo;
3. I raggi sono dei fotoni ad altissima energia, superiore a quella dei raggi X.
Il nucleo è normalmente tenuto insieme dalle forze nucleari forti (attrattive, agenti fra tutti i nucleoni e solo a corto raggio) che sovrastano quelle elettromagnetiche (repulsive, agenti solo fra protoni).
Anche nel nucleo ci sono livelli energetici come per gli atomi. Le energie in gioco sono però dell’ordine del MeV o decine di MeV.
Le energie di legame sono esattamente equivalenti al difetto di massa (perdita di nucleoni) secondo la famosa formula di Einstein (E = mc2):
Vista l’equivalenza fra massa ed energia (E = mc2) le masse possono anche essere espresse in eV.
Decadimenti radioattivi = processi in cui un nucleo instabile si diseccita emettendo particelle.
La quantità di nuclei radioattivi decade esponenzialmente nel tempo con una costante 𝜆 caratteristica per ciascun isotopo:
Nelle reazioni nucleari, che siano decadimenti spontanei o urti, si conservano sempre:
la carica elettrica, l’energia totale, la quantità di moto, il momento angolare.
La massa non è strettamente conservata perché parte si trasforma in energia o viceversa, tuttavia il numero di massa A si conserva.
Decadimento alfa
Decadimento alfa = si ha quando un nucleo atomico instabile emette raggi- Decadimento beta
CI sono due tipi di decadimenti:
= si ha quando un nucleo atomico instabile emette un positrone e un neutrino
= si ha quando un nucleo atomico instabile emette un elettrone e un antineutrino
Decadimento gamma
Decadimento gamma = si ha quando un nucleo atomico instabile emette raggi-
Molto frequentemente il nucleo “figlio” di un precedente decadimento viene creato in uno stato eccitato e si diseccita emettendo radiazione gamma (decadimenti composti)
Unità dosimetriche
Le radiazioni ionizzanti procurano un certo danno ai tessuti biologici che attraversano. Si distinguono due tipi di effetti:
effetti deterministici = si manifestano negli individui esposti soltanto per dosi di radiazioni
superiori a un valore soglia. La gravità dipende dalla dose.
effetti stocastici = la probabilità che si manifestino effetti (ma non la loro gravità) è proporzionale alla dose. Non esiste un valore soglia al di sotto del quale la probabilità è zero.
Esistono diversi modi di misurare la dose di radiazioni. Le definizioni di interesse in ambito diagnostico sono:
dose assorbita (D) = è definita come l’energia depositata dalle radiazioni per kg di tessuto. Si misura in gray (Gy), dove 1 Gy = 1 Joule/kg.
dose equivalente (HT) = quantifica il danno biologico causato dalle radiazioni sull'organismo. È definita da:
DT,R è la dose assorbita dal tessuto T (media) e è un fattore che pesa il contributo della radiazione R
HT ha anch’essa le unità J/kg ma viene espressa in sievert (Sv).
dose effettiva/efficace (E) = somma ponderata delle dosi equivalenti ai vari organi e tessuti causata da irradiazioni interne o esterne.:
Anche E si misura in sievert (Sv).
Legge del decadimento radioattivo
Legge del decadimento radioattivo = stabilisce che la variazione del numero di nuclei della sorgente per unità di tempo è proporzionale al numero N di nuclei radioattivi presenti:
La costante di proporzionalità è chiamata costante di decadimento (si misura in
ed è costante per un determinato radionuclide).
La radioattività Q di una sorgente è definita come il numero di decadimenti al secondo e coincide con l’espressione precedente:
L’unità di misura di Q è il becquerel (Bq) = 1 dedadimento/s. Spesso è ancora usato anche il curie (Ci), con 1 Ci = Bq.
Dalla relazione si ottiene
Un parametro importante è il tempo di dimezzamento (o emivita), che rappresenta il tempo richiesto affinché il numero di nuclidi radioattivi si dimezzi:
Radiofarmaci per medicina nucleare
Il tempo di dimezzamento influisce sulla dose assorbita dal paziente.
Per calcolare la dose effettiva bisogna tuttavia tenere presente anche il tempo di dimezzamento biologico del radiotracciante (ossia quanto tempo rimane nel corpo).
Questo è spesso descritto a sua volta da un decadimento esponenziale caratterizzato da un proprio tempo di dimezzamento.
Il tempo di dimezzamento effettivo risulta essere una combinazione dei due:
Proprietà fisiche ideali di un radiotracciante per scintigrafia planare e SPECT:
Emivita abbastanza breve da produrre un buon numero di decadimenti senza richiedere una dose iniziale troppo elevata, ma non così breve da lasciare poca radioattività quando il composto iniettato raggiunge l’organo di interesse.
Il decadimento dovrebbe produrre esclusivamente raggi-
monoenergetici, senza particelle
o
che verrebbero completamente assorbite dal corpo aumentando la dose radioattiva senza alcun vantaggio per le immagini.
L’energia dei raggi-
dovrebbe essere compresa fra 100 e 200 keV in modo che in buona parte fuoriescano dal corpo ma vengano comunque filtrati dal collimatore.
Proprietà metaboliche ideali di un radiotracciante per scintigrafia planare e SPECT:
Il composto chimico a cui è legato il radionuclide deve essere assorbito prevalentemente dall’organo di interesse e in misura minore nel resto del corpo, in modo da garantire il massimo contrasto nelle immagini e ridurre la dose totale per l’organismo.
Il radionuclide più utilizzato nella scintigrafia planare e nella SPECT è il tecnezio 99m, che emette raggi gamma monocromatici (ovvero monoenergetico) da 140 keV. A differenza dei raggi-X prodotti da un tubo catodico, che presentano uno spettro continuo, abbiamo qui che tutti i fotoni emessi hanno la stessa energia.
Nel tecnezio la quantità di raggi X inizialmente aumenta e poi diminuisce
Indichiamo con il numero di atomi dei rispettivi isotopi al tempo generico t.
Abbiamo quindi la seguente equazione differenziale al primo ordine ( sono le rispettive costanti di decadimento):
Gamma camera
Gamma camera = rilevatore tipico per la radiografia nucleare
Mentre nelle radiografie bisogna rivelare un gran numero di fotoni emessi in un tempo piccolissimo (frazioni di secondo), nell’imaging nucleare occorre rilevare un numero di fotoni più modesto, emessi in un tempo molto più lungo (minuti).
La maggior parte dei gamma non arriva al rivelatore, occorre quindi avere una sensibilità elevata.
A: il raggio γ emerge dal paziente con una direzione perpendicolare al piano del rivelatore,
interagisce per effetto fotoelettrico con il cristallo depositando tutta la sua energia (evento ottimale).
B: Il raggio γ emesso con una direzione non perpendicolare al rivelatore, viene fermato dal setto di
piombo (collimazione).
C: il raggio γ, emesso con una direzione non perpendicolare al rivelatore, attraversa il setto e viene comunque rivelato.
D: il raggio γ si ferma all’interno del paziente (attenuazione).
E: il raggio γ, inizialmente emesso con una direzione non perpendicolare al rivelatore, viene deviato per effetto Compton perdendo parte della sua energia iniziale. Poi viene comunque rivelato.
Tipologie di collimatori:
- parallel-hole = il più usato, presenta fori paralleli e perpendicolari alla superficie del cristallo. Proietta un'immagine delle stesse dimensioni e senza distorsione spaziale della struttura esplorata.
- pin-hole = focalizzante a breve distanza, provvede ad ingrandire l'immagine. Fornisce un'immagine rovesciata su entrambi gli assi. È utilizzato per organi piccoli, o per ottenere ingrandimenti di piccole regioni corporee.
- converging = oggi poco usato, presenta fori convergenti. Similmente al pin-hole, provvede
ad ingrandire l'immagine.
- diverging = oggi poco usato grazie alle grandi dimensioni dei cristalli di rivelazione attualmente disponibili. Presenta fori divergenti che hanno la funzione di aumentare il campo di vista del cristallo e quindi di visualizzare organi grandi o grandi superfici corporee su cristalli più piccoli di
esse.
Il rivelatore dei raggi gamma posto subito dopo il collimatore è costituito da un cristallo scintillatore accoppiato a tubi fotomoltiplicatori e relativa elettronica di lettura. Lo scopo del materiale scintillatore è quello di convertire il raggio gamma in tanti fotoni visibili (passando per l’effetto fotoelettrico).
Lo Ioduro di Sodio drogato al Tallio, NaI(Tl), è uno scintillatore inorganico fra i più usati per via dei seguenti vantaggi:
- efficienza di scintillazione molto alta (un fotone visibile prodotto per ogni 30 eV di energia depositata dal fotone gamma da 140 keV: quindi circa 4600 fotoni visibili).
- trasparente alla propria luce di scintillazione (luce blu a 415 nm).
- luce di scintillazione (luce blu a 415 nm) di lunghezza d’onda ottimale per il funzionamento dei fotomoltiplicatori.
- il numero di fotoni prodotto è direttamente proporzionale all’energia del gamma
- è economico e disponibile in un'ampia varietà di forme e dimensioni.
La rivelazione dei fotoni luminosi avviene tramite tubi fotomoltiplicatori (Photo Multiplier Tubes, PMT) che si basano su:
effetto fotoelettrico = causato dai fotoni, fanno avvenire l’emissione secondaria.
emissione secondaria = è l’emissione degli elettroni da parte dell’effetto fotoelettrico. Gli elettroni arrivano sull’anodo generando un segnale ben misurabile
La risoluzione spaziale non sempre corrisponde alle dimensioni dei PMT (2-3 cm).
La risoluzione spaziale è comunque limitata dalle fluttuazioni statistiche di ciascun segnale.
È necessaria una procedura di calibrazione che può essere effettuata con phantom dalla distribuzione di radioattività nota.
Può accadere che due raggi colpiscano lo scintillatore contemporaneamente.
In questo caso la procedura di localizzazione fallisce e l’evento deve essere scartato anche se i due fotoni sono entrambi buoni.
La gamma camera sfrutta anche il segnale ottenuto sommando quelli dei singoli PMT, che è proporzionale all’energia del gamma incidente.
Questo segnale somma è usato per discriminare gli eventi buoni da quelli Compton (che hanno perso energia rispetto ai 140 keV iniziali), in aggiunta all’operazione di filtraggio da parte del collimatore.
Inoltre sarebbe conveniente mantenere anche quei fotoni Compton che hanno deviato molto poco per non sacrificare eccessivamente l’SNR.
Nella pratica clinica si utilizza una finestra di selezione intorno al 20%, ossia si accettano fotoni tra 127 e 153 keV.
Caratteristiche delle immagini
Le immagini scintigrafiche non hanno rumore di fondo, poiché il corpo umano o l’ambiente circostante non emettono spontaneamente raggi ℽ.
Non abbiamo quindi il problema di separare il segnale proveniente dal radiofarmaco da segnali simili provenienti da radioattività naturale.
Le immagini ottenute hanno perciò un contrasto molto elevato.
Bisogna eliminare il contributo di quei che pur provenendo dal radiofarmaco arrivano sullo scintillatore in modo non ottimale degradando l’immagine. A questo provvede il collimatore e l’elettronica di lettura.
La collimazione però taglia via numerosi fotoni e quelli che arrivano sul rivelatore sono molto pochi. Questo implica che il rapporto segnale rumore (SNR) è piuttosto basso per la scintigrafia.
I processi seguono la statistica di Poisson per cui si ha: N = numero di fotoni rivelati.
L’ SNR dipende in definitiva da diversi fattori:
• La quantità totale di radiofarmaco iniettata
• Il tempo trascorso dopo l’iniezione
• La quantità di radiofarmaco che si è accumulata nell’organo di interesse
• L’attenuazione dei sarà maggiore per gli organi profondi, con un minore SNR
• La sensibilità della gamma camera (spessore del cristallo, collimatore, ecc.)
• Caratteristiche del filtro passa-basso applicato alle immagini acquisite
Single photon emission computed tomography (SPECT)
La SPECT usa 2 o 3 gamma camera che ruotano attorno al paziente per registrare i raggi da angolazioni differenti. Fra SPECT e scintigrafia planare vi è la stessa differenza che c’è fra TAC e
radiografia planare.
Anche le tecniche di ricostruzione sono simili a quelle per la CT.
Gli utilizzi principali della SPECT includono esami al cuore o al cervello.
Per i due organi si usano due diversi tipi di tecnezio.
La SPECT nel cervello ha una risoluzione spaziale maggiore che nel cuore.
Una differenza importante rispetto alla CT è che per la SPECT immagini acquisite da angolazioni opposte non sono identiche in quanto i gamma sono attenuati diversamente.
La radioattività misurata da siti più profondi è quindi inferiore a causa della maggiore attenuazione dei gamma da parte del tessuto. Di questo si deve tenere conto durante la ricostruzione delle immagini con opportune correzioni basate sui modelli fisici che descrivono l’attenuazione delle radiazioni mentre queste attraversano la materia.
Un metodo di correzione è noto come metodo moltiplicativo di Chang, che assume un coefficiente di attenuazione uniforme nel volume indagato.
L’immagine viene inizialmente formata (filtered backprojection) senza nessuna correzione. Da
questa immagine si ricava una prima stima delle posizioni dei vari punti all’interno dell’organo e
quindi degli spessori di tessuto.
Correzioni più precise dell’attenuazione possono essere ottenute con esami combinati SPECT/CT, sfruttando la maggiore risoluzione spaziale della CT.
Questa combinazione permette inoltre la fusione delle immagini «strutturali» CT ad alta risoluzione con le immagini «funzionali» SPECT, permettendo una localizzazione anatomica più accurata delle zone con alterato metabolismo. Ma può esserci un possibile problema di coregistrazione
Positron emission tomography (PET)
La PET è una tecnica tomografica basata sull’utilizzo di traccianti radioattivi che emettono positroni (antiparticelle degli elettroni).
Annichilazione = si ha quando un positrone interagisce con un elettrone e vengono emessi due raggi gamma (la massa del sistema si trasforma integralmente in energia).
Tra gli isotopi più usati troviamo il fluoro 18.
I positroni vengono emessi con uno spettro continuo ed un range corrispondente < 2.4 mm.
Un range ridotto è importante per la risoluzione spaziale.
Tra i vantaggi della PET rispetto alla SPECT abbiamo:
• Risoluzione spaziale significativamente migliore
• SNR maggiore
L’SNR elevato della PET rispetto alla SPECT dipende da diversi fattori:
• Non è necessaria alcuna collimazione perché la condizione di avere due raggi gamma rivelati in coincidenza (vedi dopo) permette di scartare molti eventi spuri
• La maggiore energia dei emessi riduce il loro assorbimento da parte del corpo umano
• L’utilizzo di un anello completo di rivelatori che riduce il numero di non rivelati
Gli svantaggi della PET sono invece legati alla necessità di avere un ciclotrone (acceleratore di particelle) nelle vicinanze per produrre i radioisotopi necessari, con costi associati che sono piuttosto alti.
Dei radioisotopi più comuni usati nella PET, il rubidio 82 è l’unico che può essere prodotto senza l’utilizzo di un ciclotrone, partendo dal decadimento dello stronzio 82 (con una procedura simile a quella descritta per il tecnezio).
Tuttavia ha un’emivita molto breve e i positroni vengono emessi con energia più alta e quindi con un range maggiore, peggiorando la risoluzione spaziale.
I rilevatori per la PET
Anche in questo caso si usano cristalli scintillatori per rivelare i gamma.
La soluzione migliore (ma costosa) per la risoluzione spaziale sarebbe un grande numero di cristalli piccoli, ciascuno accoppiato ad un proprio PMT.
Si preferisce quindi usare blocchi di cristallo nei quali sono praticati degli intagli in cui viene inserito materiale riflettente. In questo modo la luce di scintillazione non si sparpaglia eccessivamente in direzione laterale.
Le proprietà ideali di un materiale scintillatore per rivelare i gamma della PET includono:
• alta efficienza di rivelazione
• tempi di scintillazione rapidi (anche la scintillazione è un processo radiativo con tempi di decadimento propri)
• lunghezza d’onda della luce di scintillazione intorno ai 400 nm (è quella alla quale sono più sensibili i PMT)
Utilizzo dell’informazione temporale: circuito di coincidenza (annihilation coincidence detection, ACD).
Oltre all’energia viene misurato anche il tempo di ogni evento di scintillazione, in modo da poter selezionare solo le coppie di gamma che arrivano sul rivelatore in simultanea (o quasi).
La precisione tipica di questa misura è tra 1 e 2 ns.
In realtà l’arrivo dei due gamma è simultaneo solo se l’evento di annichilazione avviene esattamente al centro del rivelatore, altrimenti bisogna tenere conto che la distanza percorsa dai due fotoni è diversa.
I circuiti logici provvedono a questo assegnando a ciascun tempo una «finestra» entro la quale valutare se c’è una coincidenza temporale fra i segnali generati dai singoli rivelatori (in questo caso segnali logici cioè on/off)
Il parametro caratteristico coincidence resolving time viene definito uguale a 2tA questo proposito abbiamo due modalità di acquisizione: 2D e 3D
L’acquisizione 2D è resa possibile da collimatori «retrattili» che consentono di selezionare l’acquisizione di piani diretti o incrociati.
2D:
- sensibilità uniforme lungo l’asse Z
- SNR inferiore (a causa dei collimatori)
3D:
- maggiore SNR (no collimatori): riduzione della durata dell’esame di un fattore 10 o più.
- sensibilità non uniforme (maggiore per le zone al centro del rivelatore)
Sistemi ibridi PET/CT e PET/MRI
Oggi i sistemi PET includono sempre anche uno scanner TAC e, nei centri più avanzati, scanner MRI. Le diverse modalità sono integrate ed offrono gli stessi vantaggi che abbiamo visto per la SPECT/CT
Data processing per la PET
Le tecniche di ricostruzione sono simili a quelle per la SPECT
In questo caso la rivelazione di una coppia di gamma individua una line of reconstruction (LOR), lungo la quale deve trovarsi la sorgente.
L’immagine viene ricostruita mettendo insieme i dati da tutte le LOR.
La correzione degli effetti dovuti all’attenuazione è necessaria anche per la PET, così come abbiamo visto per la SPECT.
L’approccio più utilizzato prevede l’utilizzo combinato PET/CT o PET/MRI.
Il metodo più collaudato è quello PET/CT, in quanto la CT può fornire direttamente mappe del coefficiente di attenuazione.
Le immagini MRI non dipendono invece da µ, sebbene con particolari modalità di acquisizione possano fornire misure «surrogate».
Le mappe CT o MRI del coefficiente di attenuazione hanno una risoluzione spaziale molto più alta delle immagini PET da correggere.
Per questo motivo vengono smussate, anche per tenere conto di eventuali deformazioni.
Una parte importante del trattamento dei dati per arrivare a immagini il più possibile corrette è la selezione delle coincidenze «vere».
Le coincidenze accidentali (dette anche random) si hanno quando si verificano due annichilazioni quasi simultanee e la coppia di gamma che viene rivelata non appartiene allo stesso evento. La corrispondente LOR (linea tratteggiata) risulta quindi non corretta. Esse risultano distribuite in modo uniforme nel FOV dello scanner e pertanto alterano maggiormente la quantificazione in aree a bassa attività (un segnale spurio aggiunto ad un valore piccolo si fa sentire maggiormente).
Anche le false coincidenze dovute a scattering non sono trascurabili.
Occorrono quindi metodi per sottrarre questi contributi.
Correzione delle false coincidenze dovute a scattering
Gli scintillatori a base di BGO non hanno una risoluzione energetica molto elevata e la finestra di accettazione di 450-650 keV include anche una percentuale non trascurabile di fotoni Compton.
Un metodo di correzione si basa sull’utilizzo di una doppia finestra ed è usata anche per la SPECT.
Si ricostruisce un’immagine con i fotoni appartenenti alla finestra con energia più bassa (che sono solo Compton). Questa immagine viene poi sottratta all’immagine acquisita con i fotoni nella finestra centrata a 140 keV (SPECT) o 511 keV (PET) che contiene sia il contributo Compton e sia quello dei fotoni «buoni».
Il metodo più utilizzato per la correzione delle coincidenze random prevede l’utilizzo di un secondo circuito di coincidenza, ritardato rispetto al primo e che quindi si «accorge» anche di altri fotoni.
Anche in questo caso si ottiene un’immagine del «rumore» che poi viene sottratta a quella complessiva che contiene sia il segnale che il rumore.
Time of Flight (TOF) PET
Il circuito di coincidenza sfrutta solo parzialmente le informazioni temporali sui tempi di arrivo dei due gamma.
Nella PET convenzionale le informazioni spaziali sulle coincidenze servono a determinare le LOR con le quali ricostruire l’immagine.
Gli sviluppi più recenti della PET sfruttano anche le informazioni sul tempo di volo (TOF) dei fotoni per migliorare la risoluzione spaziale.
In linea di principio sarebbe possibile calcolare la posizione esatta dell’evento di annichilazione lungo la LOR da semplici considerazioni cinematiche.
Tuttavia l’indeterminazione sui tempi misurati produce un’indeterminazione anche sulla posizione:
Nonostante questa indeterminazione, l’introduzione dell’informazione sul TOF permette di migliorare le prestazioni del sistema.
Risonanza magnetica nucleare - RMN
Risonanza Magnetica Nucleare = tecnica diagnostica utilizzabile sia per lo studio della composizione dei materiali e sia come tecnica di imaging in ambito medico.
La tecnica si basa sull’interazione fra onde elettromagnetiche a radiofrequenza ed alcuni nuclei atomici posti in opportuni campi magnetici.
Quando la RMN è usata per produrre immagini prende il nome MRI.
Sigle adottate nella letteratura internazionale:
Magnetic Resonance Imaging (MRI)
Nuclear Magnetic Resonance (NMR)
Spieghiamo ora il significato di ciascuno dei tre termini: Risonanza Magnetica Nucleare
Risonanza
Risonanza = Il fenomeno fisico della risonanza avviene quando un sistema oscillante viene sottoposto all’azione di una sollecitazione esterna periodica di frequenza pari alla frequenza propria del sistema. Il fenomeno provoca un aumento significativo dell’ampiezza delle oscillazioni.
In questo caso il sistema assorbe una frazione notevole dell’energia delle sollecitazioni esterne.
Principi fisici del RMN
Proprietà del protone (e di altri nuclei atomici):
- = spin (momento angolare intrinseco)
- = momento di dipolo magnetico (momento magnetico)
Le due grandezze sono tra loro proporzionali:
= costante caratteristica del nucleo considerato (nel nostro caso il protone) ed è chiamato rapporto giromagnetico
Il momento di dipolo magnetico del protone si allinea quindi col campo magnetico applicato.
Nella RMN questo campo magnetico è indicato di solito con ed è un campo statico molto intenso.
Cosa succede se la direzione di è diversa da quella di
?
Su agisce un momento torcente
che cerca di allinearlo con
:
Nel caso del protone il moto che ne risulta è più complesso.
In base alle leggi della fisica classica, un protone il cui spin forma un angolo con
compie un moto di precessione con frequenza angolare
pari al prodotto della sua costante giromagnetica per il valore del campo:
(Frequenza di Larmor, valida solo per piccoli angoli)
Classicamente l’angolo può assumere qualunque valore e quindi l’energia può variare con continuità fra
Anche il modulo di può assumere classicamente qualunque valore.
Tuttavia le leggi della fisica classica non sono in grado di spiegare correttamente il comportamento delle particelle elementari, tra cui il protone e altri nuclei.
Infatti molte loro proprietà risultano «quantizzate» ossia possono assumere solo determinati valori, multipli di quantità elementari e si possono descrivere in modo completo solo con la meccanica quantistica.
La quantizzazione riguarda diverse caratteristiche intrinseche delle particelle, tra cui la carica, la massa, l’energia degli stati legati e lo spin (momento angolare intrinseco).
Il modulo dello spin è individuato dal numero quantico I, che ha un valore specifico per ogni particella o nucleo atomico
Magnetizzazione = momento di dipolo magnetico risultante dalla somma vettoriale dei singoli contenuti nell’unità di volume (il cui numero indichiamo con N):
In assenza di campo magnetico non vi è nessuna direzione preferenziale e si ha
Se applichiamo un campo magnetico, a causa del moto di agitazione termica vi è un continuo scambio tra l’energia cinetica delle molecole e i due livelli energetici del sistema protone-campo magnetico. Gli urti a livello molecolare causano continue transizioni fra i due livelli
Tuttavia le popolazioni degli spin up e down non sono uguali.
In pratica si realizza un equilibrio dinamico in cui, a temperatura ambiente, c’è solo una leggera prevalenza di spin paralleli.
Questo significa che la magnetizzazione che otteniamo applicando il campo magnetico è molto più piccola di quella che potremmo avere se tutti i dipoli nucleari fossero allineati col campo. Tuttavia essa è misurabile ed è l’oggetto che miriamo a «manipolare» nell’MRI.
La proporzione esatta si può ricavare dalla meccanica statistica.
La meccanica statistica permette di calcolare la probabilità di occupazione dei livelli energetici di un sistema in funzione del valore dell’energia e della temperatura
L’eq. di Boltzmann ci dice che gli stati energetici più bassi saranno più popolati.
Nella maggior parte delle applicazioni MRI, è comunque abbastanza grande da poter essere descritta come una grandezza macroscopica e trattata quindi con le leggi della fisica classica.
È utile scomporre in una componente trasversale ed una longitudinale in quanto la loro evoluzione temporale è caratteristica ed ha applicazioni importanti nell’MRI.
Il moto di precessione (cambiamento della direzione dell’asse di rotazione di un corpo) della componente trasversale della magnetizzazione produce una f.e.m. indotta in una bobina che funziona da antenna ricevente.
Dal segnale indotto nella bobina, acquisito durante l’applicazione di gradienti del campo magnetico, si ricavano informazioni importanti sui tessuti e le corrispondenti immagini.
Nella pratica, si utilizza una configurazione minima con due bobine disposte perpendicolarmente fra di loro.
Per la RMN applicata allo studio delle sostanze presenti in un campione di materiale si può manipolare anche la temperatura e abbassandola si aumenta il segnale.
Per ottenere il moto di precessione bisogna però prima disallineare la magnetizzazione rispetto al campo B0
Questo processo è chiamato anche eccitazione degli spin, perchè come abbiamo visto si aumenta l’energia del sistema.
Il campo oscillante B1 è ottenuto tramite onde elettromagnetiche di frequenza pari alla frequenza di Larmor ().
Considerati i valori tipici dei campi magnetici negli scanner clinici, le onde elettromagnetiche coinvolte sono onde a radiofrequenza (107-108 MHz). Si tratta di radiazioni non-ionizzanti, quindi
abbiamo una tecnica a ridotta invasività.
L’onda elettromagnetica che eccita i protoni è chiamata impulso a radiofrequenza (RF).
Ricordiamo che l’effetto descritto avviene in modo selettivo alla frequenza di Larmor (frequenza intrinseca del sistema), come previsto dai fenomeni di risonanza: un impulso a frequenze diverse
lascerebbe allineata con
L’approccio appena descritto utilizza un’onda elettromagnetica polarizzata linearmente (B1 si inverte alla frequenza dell’onda ma rimane parallelo all’asse y)
Un approccio più efficiente utilizza un’onda elettromagnetica polarizzata circolarmente ( ruota sul piano XY alla frequenza di Larmor)
Visto nel sistema di riferimento del laboratorio, l’effetto simultaneo di B1 e della precessione intorno a B0 è un moto a spirale che porta la magnetizzazione verso il piano XY.
Nel sistema rotante è come se B0 non esistesse e dobbiamo quindi considerare solo gli effetti di B1 (che apparirà anch’esso fermo nel sistema rotante).
Il processo di «eccitazione degli spin» e il conseguente segnale indotto in una antenna che abbiamo descritto usando la fisica classica può anche essere spiegato, a livello dei singoli nuclei, da fenomeni di assorbimento ed emissione di onde elettromagnetiche, in corrispondenza delle transizioni del sistema fra i suoi due livelli energetici
Come avviene per i livelli energetici degli elettroni di un atomo, possiamo indurre una transizione fra un certo livello energetico ed uno superiore inviando un fotone di energia 𝑬 pari alla differenza di energia fra i due livelli
Il sistema si porta al livello energetico superiore assorbendo l’energia del fotone incidente. In seguito ritorna allo stato energetico inferiore emettendo un fotone identico a quello inizialmente assorbito
La frequenza dei fotoni coinvolti in queste transizioni è:
alla quale corrisponde una pulsazione angolare:
Consideriamo ora i fotoni emessi da un gran numero di protoni precedentemente eccitati (spin antiparalleli al campo), con B0 uniforme.
Dal principio di indeterminazione tempo-energia di Heisenberg si ricava che il valore dell’energia (frequenza) dei fotoni emessi non è ben definito ma è legato al tempo di diseccitazione dalla relazione:
I tempi di decadimento per le transizioni RMN sono abbastanza lunghi (decine di ms) per cui gli spettri mostrerebbero picchi molto stretti centrati sulla frequenza di risonanza.
Tuttavia, oltre al principio di indeterminazione, intervengono altri fattori ad allargare le righe spettrali.
Nell’ RMN l’omogeneità del campo magnetico applicato è un fattore importante.
È quindi fondamentale cercare di ottenere un campo il più uniforme possibile. Per questo non è sufficiente il campo fisso in quanto le distorsioni sono create dallo stesso paziente quando entra nello scanner.
Ad ogni misura vengono quindi attivati campi magnetici secondari (molto meno intensi) per compensare queste distorsioni. La procedura è detta shimming
RMN – Contrasto
Il segnale dipende dalle caratteristiche dei tessuti nei quali si trovano le molecole d’acqua.
Subito dopo l’impulso di eccitazione a 90° la magnetizzazione trasversale è massima e pari a M0. In seguito decade esponenzialmente con una costante temporale T2 (qualche decina di ms) che dipende dal tessuto nel quale si trovano le molecole d’acqua da cui proviene il segnale e dal valore
del campo B0
T2 = tempo di rilassamento trasversale e ci dà una misura del tempo necessario per il decadimento della magnetizzazione trasversale.
TE = tempo di acquisizione del segnale/tempo di eco
Per ottenere immagini pesate in T2, l’ordine di grandezza del TE è simile a quello dello stesso T2 (qualche decina di ms)
T1 = tempo di rilassamento longitudinale e ci dà una misura del tempo necessario per il recupero della magnetizzazione longitudinale. Esso dipende dal tipo di tessuto
T2 è chiamato anche tempo di rilassamento Spin–Spin. È espressione delle interazioni tra spin e spin, ossia tra molecole d’acqua (componente dinamica legata ai moti molecolari).
T1 è chiamato anche tempo di rilassamento Spin – Reticolo. Descrive infatti la velocità di cessione dell’energia all’ambiente molecolare circostante da parte dei nuclei a partire dal termine dell’impulso RF di eccitazione.
Se si misura il segnale dopo un impulso di eccitazione a 90° si osserva quindi un decadimento esponenziale della sua ampiezza. Tale segnale è detto FID (Free Induction Decay).
Tuttavia la costante di decadimento è in generale più piccola del T2 ed è indicata con T2*.
Questo succede perchè oltre alle caratteristiche intrinseche del tessuto che determinano il T2 ci sono altri effetti su una scala spaziale più grande che contribuiscono a velocizzare lo sfasamento:
e
La presenza di una sostanza paramagnetica produce disomogeneità di campo all’interno dei voxel, che contribuisce a velocizzare il decadimento del segnale. Questo effetto è puramente statico e si aggiunge alle fluttuazioni di campo prodotte da effetti dinamici (moto termico).
È utile introdurre la definizione di tasso di rilassamento trasversale, che è definito come l’inverso del T2 o del T2*:
Il decadimento del segnale è regolato da R2* che include:
1- effetti di sfasamento statico (indicati con R'2): dovuti a disomogeneità di campo che non variano nel tempo.
2- effetti di sfasamento dinamico (indicati con R2): dovuti al movimento casuale delle molecole d'acqua che introduce disomogeneità del campo percepiti da ciascuna molecola.
Di solito si assume che: R*2 = R2 + R'2
T*2 è un contrasto utile per l'imaging in diverse situazioni interessanti
Bold FMRI
Un’applicazione importante del contrasto T2*: la risonanza magnetica funzionale (FMRI) basata sull’effetto BOLD (Blood Oxygen Level Dependent).
La FMRI prevede un'acquisizione dinamica in cui la stessa immagine viene ripetutamente acquisita mentre l'attività cerebrale sta cambiando. L'intervallo temporale tra due volumi consecutivi è chiamato tempo di ripetizione (TR) e contribuisce alla risoluzione temporale della FMRI.
Esiste sempre un compromesso tra la risoluzione spaziale (dimensione della matrice dell'immagine) e risoluzione temporale (tempo di ripetizione). Il numero di fette conta anche in questo senso (un numero maggiore è necessario se si vogliono fette sottili).
Volume funzionale = consiste nel numero di fette
Tuttavia le caratteristiche intrinseche della risposta emodinamica pongono un limite ultimo per la risoluzione temporale della FMRI.
In effetti, la risposta emodinamica BOLD è molto lenta rispetto alla dinamica neuronale.
Ciò significa che l'attività suscitata da singoli stimoli di breve durata non può essere risolta come nel caso dei potenziali correlati agli eventi (ERP) dell'EEG.
Le mappe di connettività statistica sono ottenute, ad esempio, correlando ciascun voxel con quello di una regione "seme":
RMN - Contrasto
L’effetto T2* è sensibile in particolare alle disomogeneità di campo prodotte all’interfaccia fra diversi materiali (effetti di suscettività magnetica).
Per quanto riguarda le proprietà magnetiche, i materiali sono classificati in tre categorie:
diamagnetici (
)
paramagnetici (
)
ferromagnetici (
)
Le situazioni in cui il T*2 offre un utile contrasto comportano disomogeneità di campo che si sviluppano su una scala spaziale confrontabile con le strutture che si vogliono studiare .
Disomogeneità di campo che si sviluppano su una scala spaziale maggiore producono invece artefatti nelle immagini (artefatti da suscettività: distorsioni e vuoti di segnale).
Il decadimento del segnale è dovuto al graduale sfasamento degli spin.
Per riportare gli spin in fase bisogna fare un rifasamento.
Un rifasamento può essere ottenuto usando uno schema detto a eco di spin (spin echo).
Nello spin echo vengono usati due impulsi RF a 90° e 180°, uno più lento e uno più veloce, ma stavolta vengono applicati in ordine inverso rispetto alla sequenza di inversion recovery. L’angolo di fase accumulato dallo spin più veloce aumenta quindi più rapidamente col tempo.
Senza la rifocalizzazione il decadimento del segnale è regolato da R2* che include gli effetti di sfasamento statico (R’2) e dinamico (R2).
Tuttavia questa rifocalizzazione del segnale è solo parziale. Infatti gli effetti dinamici dovuti ai moti molecolari sono casuali e quindi sono diversi da intervallo a intervallo.
Le immagini acquisite con lo schema spin-echo sono quindi pesate in T2 (che è sempre maggiore del T*2).
Rimuovendo il contributo delle disomogeneità statiche del campo magnetico si rimuove però anche parte della sensibilità nel rilevare.
Il T2 è più alto nei fluidi (in cui le molecole di acqua si muovono più liberamente). Un’applicazione importante è quindi quella di evidenziare l’accumulo di liquidi (edema)
Oltre la semplice pesatura in T2 o T*2 c’è la valutazione quantitativa dei parametri T2 e T*2 con sequenze multiecho
Quantitative T2 mapping
Con un approccio simile si possono ricavare anche i valori del T2, usando sequenze spin-echo e multi-echo. I segnali vengono attenuati a TE più lunghi in base al T2 del tessuto.
Approfondiamo anche il contrasto T1. Questo è prodotto quando l’impulso di eccitazione agisce su una magnetizzazione longitudinale che sta tornando all’equilibrio (a causa di precedenti impulsi di eccitazione) ed è quindi < di M0.
Consideriamo ad esempio eccitazioni ripetute (TR = tempo di ripetizione) con diversi impulsi a 90°. Il segnale ottenuto dagli impulsi successivi al primo è ridotto, ma in misura dipendente dal T1 di ciascun tessuto.
Come abbiamo detto, per avere una pesatura in T1 il TR deve essere abbastanza corto. Il TE deve invece essere il più corto possibile per evitare una pesatura in T2.
Spesso infatti la presenza contemporanea delle due pesature tende ad abbassare il contrasto.
Le immagini pesate in T1 sono spesso indicate come immagini strutturali o anatomiche perché mettono bene in luce i bordi fra i vari organi.
Le immagini pesate in T1 sono anche usate in abbinamento a mezzi di contrasto. I più usati sono a base di gadolinio (Gd), un elemento metallico fortemente paramagnetico che ha l’effetto di accorciare notevolmente il T1. Per accentuare ulteriormente il contrasto T1 si ricorre talvolta ad uno schema detto Inversion Recovery (IR), in cui prima dell’impulso di eccitazione a 90° si applica un impulso di preparazione a 180°. In questo modo il «range dinamico» della magnetizzazione longitudinale aumenta (da –M0 a +M0 invece che da 0 a +M0 ).
Eccitazioni ripetute a questi intervalli e un TE = 0 (o quasi) danno un’immagine in cui il contrasto non sarà influenzato nè dal T2 e nè dal T1, ma solo dalla densità protonica.
L’impulso di eccitazione a 90° è applicato dopo un tempo opportuno detto tempo di inversione (TI)
Sequenza di recupero dell’inversione
Notiamo che durante il recupero le curve dei diversi tessuti attraversano lo zero a tempi diversi (null points), a seconda del rispettivo T1.
Il segnale può essere considerato col suo segno oppure ne possiamo prendere solo il modulo.
Due metodi di ricostruzione
La sequenza con lo sfondo grigio è chiamata correzione di fase o recupero dell'inversione sensibile alla fase (PSIR), essa è meno sensibile alla scelta del TI. Se il TI non è perfettamente scelto, il rilevamento del miglioramento del contrasto può essere compromesso utilizzando magnitudine di ricostruzione.
Usando TI specifici è possibile minimizzare il contributo di particolari tessuti nelle immagini acquisite con Inversion Recovery.
Naturalmente esiste anche una certa variabilità individuale sui valori di T1 (e quindi dei «null point») dei vari tessuti. Per questo i valori di TI da utilizzare sono stabiliti sulla base di valori medi riportati in letteratura.
Un’applicazione importante è la sequenza Fluid Attenuated Inversion Recovery (FLAIR). Come suggerisce il nome, il TI è scelto in questo caso per minimizzare il segnale dai fluidi, in particolare dal CSF. Poiché il CSF ha un T1 molto lungo, sono accettabili TI compresi in un intervallo abbastanza ampio.
Un’altra applicazione particolare è la sequenza Short TI Inversion Recovery (STIR), che mira a minimizzare il segnale dal grasso.
Scelta dei parametri per l'imaging pesato con densità protonica (PD): TR lungo, TE corto
La densità protonica, riflettendo sostanzialmente il contenuto di acqua, non cambia molto fra i vari organi ma ha delle utili applicazioni cliniche, permettendo di distinguere le diverse parti del corpo.
Le equazioni di Bloch sono fenomenologiche, ossia ricavate in modo empirico per descrivere ciò che osserviamo sperimentalmente. Per includere un decadimento esponenziale, consideriamo che in generale esso comporta una relazione differenziale del tipo:
Le costanti di decadimento della magnetizzazione sono 1/T2 e 1/T1 (nel caso della magnetizzazione longitudinale possiamo considerare MZ – M0 come la componente che «decade» man mano che MZ recupera).
Le equazioni di Bloch permettono di ricavare il flip angle che dà il segnale massimo quando il TR
non è sufficientemente lungo da permettere alla magnetizzazione di tornare all’equilibrio.
Quando il TR è lungo, il segnale massimo viene con un angolo di flip di 90°, come si ci si aspetterebbe. Ma quando il TR si accorcia, l'angolo di flip che produce il massimo segnale si riduce.
Questo flip angolo per segnale massimo è l'angolo di Ernst ed è dato da:
Un flip angle ridotto permette anche di ridurre l’effetto inflow.
Quando ci sono eccitazioni ripetute, tale effetto (dovuto al T1) crea un segnale più forte dagli spin in movimento.
MRI – Codifica spaziale
Come facciamo a isolare i segnali da ciascun voxel ?
La lunghezza d’onda delle onde elettromagnetiche utilizzate è di qualche decina di cm, a seconda del valore del campo.
Conoscendo i valori della velocità di propagazione nei tessuti, si può calcolare la lunghezza d’onda dalla relazione:
La situazione è quindi completamente diversa dal caso dei raggi X, la cui lunghezza d’onda è molto più piccola delle strutture anatomiche da analizzare (parliamo infatti di «raggi» ai quali non assegniamo nessuna dimensione trasversale).
La soluzione consiste nello sfruttare la relazione base della RMN:
Per cominciare descriviamo l’eccitazione selettiva degli spin in un certo strato (fetta).
Questo viene ottenuto applicando un gradiente del campo magnetico lungo Z durante l’azione dell’impulso RF, e scegliendo la frequenza dell’impulso stesso in modo che la condizione di Larmor sia soddisfatta solo nello strato scelto:
Gli altri strati si possono eccitare cambiando la frequenza dell’impulso RF.
Negli scanner moderni possiamo eccitare fino a 8 strati simultaneamente inviando impulsi «multiband», ossia contenenti diverse frequenze.
I gradienti del campo magnetico sono prodotti da bobine diverse da quella a superconduttore che produce il campo statico principale, che sono azionate con tempistiche opportune (grande rumore acustico)
Con combinazioni opportune di GZ, GX e GY si possono eccitare piani con un orientamento qualunque nello spazio.
Intensità di gradiente elevate sono importanti nel determinare le performance complessive di uno scanner. Lo spessore T della slice è infatti legato all’intensità del gradiente di selezione di slice:
Notiamo che l’impulso RF, dovendo avere una durata limitata a qualche ms, contiene una banda di frequenze.
È possibile agire anche sulla larghezza di banda, ma tipicamente lo spessore di slice viene stabilito cambiando l’intensità di gradiente.
Come facciamo a isolare i segnali lungo X e Y ?
Dopo l’impulso RF abbiamo quindi un FID complessivo da tutti i protoni nella fetta selezionata. Per completare la codifica spaziale, dobbiamo estrarre i segnali da attribuire ai singoli voxel lungo X e Y.
Questo viene ottenuto applicando gradienti lungo X e lungo Y. Tuttavia non abbiamo in questo caso una eccitazione selettiva ma si segue una procedura diversa.
Cominciamo a descrivere la codifica in frequenza (solitamente relativa all’asse X).
Un gradiente GX è applicato lungo X durante la lettura (readout) del segnale FID, col risultato di
alterare il contenuto in frequenza del segnale, altrimenti oscillante solo alla frequenza di Larmor.
I protoni alla posizione x contribuiranno al segnale complessivo con una frequenza effettiva:
Il termine 𝝎𝟎 è uguale per tutte le posizioni ed essendo noto può essere sottratto dal rivelatore stesso, pertanto non compare nelle successive equazioni, in cui consideriamo solo il termine 𝜸𝒙𝑮𝒙 che indichiamo con 𝝎𝒙.
Ricordando la notazione complessa di una magnetizzazione trasversale MT che precede in verso
orario (dopo un impulso a 90° MT = M0) :
Sempre per la proporzionalità fra kX e il tempo t , possiamo quindi affermare che: l’evoluzione temporale del segnale rappresenta la trasformata di Fourier della magnetizzazione trasversale!
ll metodo funziona se 𝝎𝟎 è uguale per tutte le posizioni, ossia se B0 è uniforme. Severe disomogeneità di campo come quelle prodotte da oggetti metallici invalidano la corrispondenza posizione-frequenza su cui è basata la localizzazione, producendo gravi distorsioni nelle immagini.
Descriviamo la codifica di fase (solitamente relativa all’asse Y). La procedura è più complessa e non è speculare alla codifica in frequenza, anche se basata sostanzialmente sullo stesso principio.
Anche in questo caso un gradiente GY è applicato lungo Y ma prima del readout (durante il quale è attivo GX).
Inoltre la procedura deve essere ripetuta più volte cambiando l’intensità di GY ad ogni ripetizione.
Commenti
Posta un commento