A partire dal diciannovesimo secolo, l’industria mondiale ha fatto largo uso della chimica, generando decine di milioni di nuove sostanze chimiche allo scopo di studiarne proprietà e applicazioni. Oggi, oltre 100’000 sostanze sono correntemente utilizzate per produrre oggetti d’uso comune. Grazie ad una attività straordinaria ed imposta dal Regolamento REACH, negli ultimi 10 anni le aziende europee hanno studiato approfonditamente la tossicità di circa 21’000 sostanze.
Per capire il perché di questo ritardo, e con quali metodi sono state testate per la sicurezza umana e ambientale, bisogna fare un passo indietro, e raccontare come sono stati condotti gli esperimenti tossicologici fino ad oggi.
E’ ben noto che la tossicologia ha ottenuto le proprie deduzioni facendo largo uso di animali. Questo perché, come succede in molti altri ambiti, si è fatto ricorso a modelli, ovvero sistemi simili più pratici, etici, economicamente sostenibili. Il paradigma era tanto semplice quanto primitivo: se una determinata sostanza fa male a un topo, a un cane, o una scimmia, farà male anche ad un uomo. Sulla base di questo principio negli ultimi decenni sono stati sacrificati decine di milioni di animali da laboratorio, ottenendo una importante quantità di dati. Sulla base di questi dati è stata edificata tutta la tossicologia “classica”, che vede nella DL50 il suo fulcro.
La DL50 equivale alla dose di una sostanza in grado di uccidere metà dei soggetti sottoposti all’esperimento. Più basso è il suo valore, e più è “tossica” la sostanza testata. I metodi classici, tutt’oggi largamente utilizzati in tutto il mondo, si basano sull’esposizione di quantità determinate di una sostanza o miscela ad uno o più modelli animali, e sullo studio della reazione di questi modelli. Nel calcolo della DL50 un numero statisticamente significativo di animali viene trattato con una quantità minima di sostanza/miscela e si registrano gli effetti. Si calcola in questo modo la DL50 orale, dermica, cervicale, inalatoria, venosa, spinale, ecc. L’operazione si effettua su diversi modelli animali: topo, ratto, gerbillo, coniglio, maiale, scimmia, ecc.
Straordinariamente, ancora oggi, i metodi usati per la valutazione della pericolosità di sostanze sono gli stessi usati 50-60 anni fa dai primi tossicologi classici, ovvero il calcolo della DL50 attraverso l’uso di modelli animali. Non esiste altra disciplina scientifica dove il progresso tecnologico si sia fermato per così tanto tempo! Oltre alla questione etica, sempre più sentita da aziende e consumatori, questa clamorosa obsolescenza tecnologica sta generando ritardi a causa dei lunghissimi tempi e altissimi costi che comporta.
Le biotecnologie (un fascio molto ampio di strumenti bio-molecolari) e la connessa bioinformatica (l’informatica applicata allo studio del dato biologico) hanno dato vita, a partire dagli anni 2000 a una rivoluzione tecnologica che sta stravolgendo interi settori come la farmacologia, la medicina, la diagnostica e non ultima la tossicologia.
Nel 2007, la comunità scientifica assiste ad una svolta, molto attesa, in ambito tossicologico. L’autorità scientifica statunitense NASEM (National Accademy of Science, Engeneering and Medicine) pubblica una pietra miliare: Toxicity Testing in 21st Century: a Vision and a Strategy. Con quest’opera sono gettate le basi per un cambio di paradigma e progetti come Tox21 e 3R nascono nella scia di questo primo rivoluzionario lavoro.
I nuovi progetti propongono di abbandonare alcuni metodi e principi della tossicologia classica, ed adottarne di nuovi, quali:
- Determinare il meccanismo d’azione dell’agente di tossicità;
- Indagarne gli effetti a diversi livelli (tessuto, organo, organismo, popolazione, ambiente) e in diversi stadi di crescita (embrione, giovane, in sviluppo, adulto);
- Non utilizzare modelli animali;
- Minimizzare tempi e costi rispetto ai metodi precedenti.
Il cambio di paradigma ha attinto a piene mani delle rivoluzioni tecnologiche delle biotecnologie e della bioinformatica ed oggi la ricerca di frontiera è rappresentata dall’unione dell’uso processivo di modelli in vitro (come modelli 3D che ricostruiscono il derma piuttosto che il tessuto polmonare, o i più moderni organ-on-a-chip per arrivare al human-on-a-chip o body-on-a-chip) con le tecnologie omiche (come la metabolomica e trascrittomica) in una nuova scienza estremamente promettente che prende il nome di System Toxicology.
Le stesse basi del nuovo paradigma tossicologico sono adottate dalla medicina traslazionale: una nuova branca della medicina che combina diverse discipline allo scopo di migliorare gli attuali approcci medici e le politiche della salute.
Come funzionano i metodi moderni
Alla base dei metodi moderni c’è la combinazione di nuove tecnologie convergenti quali: biotecnologie, biologia molecolare, robotica, big data management e intelligenza artificiale solo per citarne alcune. I metodi moderni si basano su nuovi concetti tra cui:
- Caratterizzazione chimica: reattività, stabilità, bioaccumulo, ecc
- Caratterizzazione delle proprietà tossicologiche: tessuti target, pathway di tossicità, capacità di perturbare pathway metabolici, ecc
- Dose-risposta: studiare la risposta con modelli empirici a dosi crescenti di sostanza
- Esposizione alla sostanza: determinare la via di esposizione, la quantità di sostanza, tempistiche e durata, le categorie di soggetti esposti, ecc
- Valutare il contesto: stato di salute delle categorie esposte, il livello di inquinamento ambientale, ecc
Sempre nei primi anni del XXI secolo, Europa e Stati Uniti hanno gettato le basi normative per imporre alle aziende di determinare la tossicità delle sostanze chimiche immesse in commercio. Il REACH è probabilmente il Regolamento più complesso mai prodotto, concepito per migliorare la protezione della salute dell’uomo e dell’ambiente dalle sostanze chimiche.
La Commissione Europea ha inoltre fondato e finanziato un centro per lo studio e validazione di modelli alternativi (modelli che non si basano sull’uso di modelli animali): ECVAM.
Uno step imprescindibile per il successo di queste tecnologie e la loro diffusione nei vari livelli della società consiste nel riconoscimento del loro valore da parte delle autorità regolatorie. E’ quindi particolarmente significativa la manifestazione d’interesse dei principali enti regolatori come la FDA e l’ente di standardizzazione internazionale OECD.
Il processo che caratterizza il riconoscimento di un nuovo modello alternativo da parte delle autorità passa per uno step che prende il nome di validazione. La validazione prevede che il modello risponda in modo coerente se utilizzato in laboratori diversi e condizioni standard e richiede normalmente investimenti per circa 1 milione di Euro e 10 anni di lavoro. Servono quindi tempo e investimenti prima di poter sostituire i vecchi modelli classici con i più moderni.
Read-Across e Quantitative Structure-Activity Relationship (QSAR) sono metodi bioinformatici che consentono di predire la pericolosità di sostanze prive di informazioni tossicologiche sulla base di alcune caratteristiche chimiche condivise con altre sostanze a tossicità nota. Alcuni esempi di caratteristiche chimiche considerate possono essere la presenza o assenza di determinati gruppi chimici oppure caratteristiche più complesse come il volume delle molecole o l’energia degli orbitali molecolari.
FlavourArt sostiene la ricerca di metodi di indagine alternativi
contribuendo al superamento dell’uso di modelli animali in ambito tossicologico e allo sviluppo delle nuove tecnologie science based.
TRUSTiCERT adotta i nuovi paradigmi della tossicologia moderna
aderendo a diversi programmi riconosciuti da Università ed autorità regolatorie Europee e Statunitensi.