Skip to main content
Example of Leaf & Soil Moisture/Temperature Station (fonte: Davis Instruments)

L’adozione di tecnologie emergenti come AI, sensori IoT, droni e immagini multispettrali sta trasformando radicalmente l’agricoltura verso un modello più efficiente, sostenibile e data-driven. In un contesto globale segnato da insicurezza alimentare e risorse limitate, l’Agricoltura 4.0 rappresenta una risposta concreta alle sfide del futuro. Con Davide Piacentini, esperto di innovazione agroalimentare, approfondiamo come digitalizzazione e AI stiano ottimizzando la gestione delle colture.

Il contesto dell’Agritech tra Italia ed Europa

Secondo la FAO (Food and Agriculture Organization delle Nazioni Unite), siamo ancora lontani dal raggiungere gli obiettivi ambiziosi fissati dai Sustainable Development Goals correlati a cibo e agricoltura. Le ultime stime indicano che nel 2022 circa 700 milioni di persone soffrivano la fame a livello globale, con l’insicurezza alimentare salita dal 25,3% nel 2019 al 29,6% nel 2022.

A conferma di queste difficoltà, l’Agricoltural Orientation Index (AOI), che confronta la spesa pubblica destinata all’agricoltura con il PIL generato da essa, è diminuito dal 2015 al 2021 a livello globale, segnalando una possibile sottovalutazione strategica del settore. Entro il 2050, la popolazione globale raggiungerà i 9,6 miliardi di persone, aumentando ulteriormente la pressione sui sistemi agricoli esistenti.

Considerando che lo spazio coltivabile è limitato e che risorse critiche come acqua ed elettricità sono soggette a vincoli sempre più stringenti, è evidente come ci troviamo di fronte a un cosiddetto “wicked problem”: una sfida complessa e articolata, impossibile da risolvere con una soluzione unica o definitiva. Tuttavia, il progresso tecnologico e metodologico offre speranze concrete, consentendo di affrontare queste criticità partendo da problemi specifici e cercando soluzioni mirate e progressive.

In Europa e in Italia, l’adozione delle tecnologie nel settore agritech è in forte crescita. In Italia, il mercato dell’agricoltura 4.0, che include soluzioni innovative come intelligenza artificiale, robotica e sistemi di sensori avanzati, ha raggiunto un valore di 2,3 miliardi di euro nel 2024, rispetto ai soli 100 milioni di euro del 2017. Nonostante una generale contrazione degli investimenti in AgriFood Tech dell’8% nel 2024 rispetto al 2023, il numero di startup attive nel settore è cresciuto sensibilmente, passando da 341 a 407 aziende nello stesso anno. Questo aumento riflette un ecosistema innovativo in sviluppo, focalizzato su tecnologie avanzate che mirano a rendere più sostenibile ed efficiente la gestione agricola.

In Italia, il settore agricolo ha generato un valore aggiunto di circa c.a. 42 miliardi di euro nel 2024, con un incremento del 3,5% rispetto al 2023, posizionando il paese al primo posto nell’Unione Europea, seguito da Spagna, Francia e Germania.

Per approfondire come la tecnologia possa concretamente supportare e ottimizzare la gestione delle colture, abbiamo intervistato Davide Piacentini, esperto di innovazione, tecnologie emergenti e sostenibilità con esperienza trasversale in diversi settori, tra cui l’Agrifood. Davide ha sviluppato una solida competenza nell’innovazione tecnologica applicata alla sostenibilità agroalimentare, collaborando con realtà internazionali come Deloitte, Plug and Play Tech Center e Yara, contribuendo allo sviluppo di progetti ad alto impatto. Gli anni di esperienza in vari ecosistemi di innovazione gli hanno permesso di avere un’ampia visione e capacità di collegare i punti tra business e tecnologia.

Come sta cambiando il settore agricolo grazie alla digitalizzazione e all’Intelligenza Artificiale?

L’innovazione tecnologica ha rivoluzionato in modo sostanziale il settore agricolo, in particolar modo le operazioni in campo durante il ciclo stagionale:

Pre-stagione: include tutte le fasi preparatorie prima dell’inizio della stagione, come ad esempio la preparazione del terreno, manutenzione degli utensili e dei macchinari agricoli, acquisto degli input agricoli (e.g. fertilizzanti, biostimolanti, semi). L’utilizzo di tecnologie quali AI, algoritmi avanzati, sensoristica stand-alone e sensoristica applicata a macchine agricole (ad esempio trattori) permettono di effettuare analisi predittive del suolo, identificare le varietà di semina più adatte in base alle condizioni climatiche e alla rotazione, ottimizzare la logistica degli input ed effettuare manutenzione predittiva dei macchinari;

Stagione: include le attività di semina, mantenimento della coltura durante il processo di crescita, e la raccolta quando la coltura raggiunge il punto ottimale. L’utilizzo di satelliti, droni, robot e sensoristica avanzata, combinata con AI e Machine Learning, permettono di raccogliere e analizzare dati per prendere decisioni più consapevoli, migliorando l’efficienza delle attività agricole, riducendo gli sprechi e migliorando la quantità e qualità del raccolto (e.g. rilevazioni anticipati di stress idrico, malattie, infestazioni). Questo permette di intervenire tempestivamente riducendo i costi di gestione e ottenendo una quantità e qualità migliore del raccolto;

Post-stagione: dove i risultati vengono analizzati e valutati, nonché la preparazione alla stagione successiva. L’utilizzo di software avanzati e AI permettono di fornire insight rispetto ai dati raccolti, identificare aree di miglioramento e preparare al meglio la stagione seguente.

Quali sono le fasi chiave quando parliamo di digitalizzazione della gestione delle colture?

Per arrivare ad avere risultati affidabili e informativi, è necessario seguire 6 fasi:

  1. Data collection: acquisizione di dati raw attraverso sensori avanzati e tecnologie di osservazione, come ad esempio immagini satellitari, immagini raccolte tramite droni e sensori IoT utilizzati in campo;
  2. Data cleaning: i dati raw vengono pre-processati e puliti al fine di essere armonizzati, viene rimosso eventuale “rumore” (e.g. riflessi) e colmate eventuali lacune dei dati attraverso tecniche di interpolazione temporale. Questo processo permette di avere un dataset di qualità e pronto per essere utilizzato all’interno di modelli predittivi;
  3. Machine Learning e Deep Learning: i dati vengono analizzati attraverso approcci come:
    • Convolusional Neural Networks (CNN), utilizzate in ambito computer vision per analizzare, riconoscere e classificare immagini, e identificare pattern anomali. Un esempio di applicazione in ambito agricolo è la presenza di ingiallimento fogliare, che potrebbe indicare stress dovuto a carenza nutrizionale;
    • Modelli predittivi, utilizzati insieme a dati storici per prevedere il potenziale sviluppo di patologie oppure effettuare simulazioni di scenari e dei relativi impatti sulla coltura. Questo è possibile attraverso l’utilizzo di modelli come il Random Forest – ideato per effettuare classificazioni – e regressioni attraverso la creazione di decision tree basati su un sottoinsieme casuale dei dati originali;
    • Segmentazione semantica, utilizzata in ambito computer vision per classificare ogni singolo pixel di un’immagine, permettendo di creare mappe del campo molto dettagliate. Tramite la segmentazione semantica è possibile riconoscere se il pixel appartiene ad una foglia malata o sana, o se un frutto è maturo oppure acerbo.
  4. Diagnosi: attraverso set di dati precedentemente addestrati, è possibile associare le anomalie rilevate dai modelli di AI a delle specifiche problematiche della coltura e quindi alle relative cause. Ad esempio, dalla firma spettrale delle immagini rilevate tramite sensori multispettrali e dati ambientali è possibile identificare morsi fogliari su pattern irregolari causati da insetti, oppure decolorazioni delle foglie dovute a stress nutrizionale;
  5. Prescrizioni agronomiche: dopo aver identificato la problematica e la relativa causa, l’AI pù generare delle raccomandazioni per le operazioni in campo. Un esempio è la creazione di mappe a rateo variabile (VRT), dove vengono identificate specifiche aree all’interno nel campo in cui è necessario applicare determinati input agricoli (e.g. fitofarmaci, fertilizzanti);
    Nitrogen fertilisation map (fonte: EOS data analytics)

    Nitrogen fertilisation map (fonte: EOS data analytics)

  6. Monitoraggio e apprendimento: in base alle azioni eseguite e i risultati ottenuti, i modelli di AI possono migliorarsi nel tempo attraverso approcci di Reinforcement Learning, permettendo risultati più precisi con il passare del tempo.

Avere dei dati fruibili e di qualità è un elemento fondamentale per poter elaborare insight, previsioni e azioni correttive. Come funziona l’acquisizione del dato in questo caso e quali le principali fonti utilizzate per monitorare le colture (satelliti, droni, sensori IoT)? Quali i pro e i contro di ciascuna?

L’acquisizione di dati in input è uno step cruciale che può influenzare l’output a valle: avere dati di qualità raccolti con una frequenza adeguata, permette di prendere decisioni più informate. Tale raccolta può avvenire attraverso satelliti, droni, e sensori IoT posizionati nel campo.

I satelliti possono montare sensori multispettrali o iperspettrali per catturare immagini al fine di analizzare lo stato di salute delle colture e degli indici vegetativi. Questi, possono potenzialmente coprire un’area di centinaia di chilometri per ogni immagine, con una risoluzione spaziale che varia in media dai 10 ai 30 metri. Nonostante i dati non vengano offerti in tempo reale, il costo contenuto e la possibilità di accedere a dati storici permette di renderlo uno strumento particolarmente accessibile.

I droni possono anch’essi montare sensori multispettrali e iperspettrali, ma a differenza dei satelliti la copertura è più limitata (generalmente a qualche centinaio di metri). La risoluzione spaziale è particolarmente alta, si parla infatti di poter riprodurre 2-10 centimetri di terreno all’interno di un singolo pixel. Nonostante richieda un costo operativo dovuto all’ingaggio del pilota per il drone, eventuali autorizzazioni (e.g. registrazione degli operatori sul portale d-flight dell’ENAC) e un’attività di post-elaborazione dell’informazione, rimane uno strumento particolarmente utile quando è necessario fare analisi dettagliate su specifiche parcelle di terreno.

Infine, i sensori IoT applicati in campo permettono di coprire puntualmente limitate zone del terreno    , permettendo di avere dati di alta qualità, in tempo reale e con elevata frequenza di acquisizione. La difficoltà nell’utilizzo dei sensori è legata alla loro capillarità e all’investimento qualora fosse necessario installarli su un’area estesa, e nel gestire la calibrazione e la loro manutenzione. Rispetto ai droni e ai satelliti, la sensoristica applicata in campo permette di monitorare in modo più dettagliato dati ambientali oppure dati legati al suolo (e.g. pH, nutrienti).

Example of Leaf & Soil Moisture/Temperature Station (fonte: Davis Instruments)

Example of Leaf & Soil Moisture/Temperature Station (fonte: Davis Instruments)

Cosa si intende per immagine multispettrale? In che modo contribuisce all’analisi dello stato di salute delle piante?

Satelliti e droni possono montare due tipologie di sensori:

  • Sensori multispettrali, per raccogliere immagini multispettrali
  • Sensori iperspettrali, per raccogliere immagini iperspettrali.

Le immagini multispettrali possono essere utilizzare per:

  • Monitorare la salute delle colture attraverso gli indici di vegetazione;
  • Individuare aree sottoposte a stress idrico, carenze nutrizionali o con infestanti;
  • Pianificare  l’utilizzo di fertilizzanti e pesticidi attraverso l’applicazione a rateo variabile (VRA, Variable Rate Application).

Le immagini multispettrali sono composte da un numero di bande dello spettro elettromagnetico tipicamente compreso tra 4 e 12, dove ogni pixel dell’immagine rappresenta la quantità di radiazione riflessa in ciascuna banda. Le bande dello spettro elettromagnetico possono essere visibili (rosso, verde e blu), infrarosso vicino (NIR), infrarosso a onde corte (SWIR) o a bande termiche.

Nel caso in cui le immagini vengano acquisite tramite satelliti, la risoluzione spaziale può variare dai 10 ai 30 metri, mentre in caso di droni si può arrivare fino a pochi centimetri. Una volta che il sensore multispettrale osserva la superficie da analizzare, misura la radiazione riflessa in diverse lunghezze d’onda e permette di identificare la firma spettrale caratteristica – ovvero il comportamento di uno specifico tipo di materiale nel modo in cui riflette o assorbe la luce di ogni banda.

Ad esempio:

  • Una variazione della banda Red Edge (margine rosso, tra il rosso e l’infrarosso) indica uno stress precoce della vegetazione;
  • Un’alta riflettanza del NIR (vicino infrarosso) e una bassa riflettanza nel rosso (sintomo di fotosintesi), indica una vegetazione vigorosa in quanto la struttura cellulare delle foglie disperde la radiazione.

Una delle informazioni che possiamo estrapolare dalle immagini multispettrali sono gli indici di vegetazione, ad esempio:

  • NDVI (Normalized Difference Vegetation Index) per descrivere il livello di vigore della coltura. Una vegetazione sana assorbe buona parte della luce visibile (rosso)  e riflette un’alta percentuale della luce del vicino infrarosso (NIR). L’indice può assumere valori tra -1 e +1, con valori inferiori allo 0 per indicare l’acqua, valori tra 0 e 0.3 per il suolo, mentre valori tra 0.4 e 0.7 per la vegetazione (in casi di vegetazioni particolarmente vigorose arriva a 0.9);
Example of NDVI map visualization (fonte: Shurlaeva, Ekaterina & Tokarev, K & Sanzhapov, B. (2021). Satellite monitoring and visualization of vegetation indices for assessing crop productivity. Journal of Physics: Conference Series. 2060. 012018. 10.1088/1742-6596/2060/1/012018)

Example of NDVI map visualization
(fonte: Shurlaeva, Ekaterina & Tokarev, K & Sanzhapov, B. (2021). Satellite monitoring and visualization of vegetation indices for assessing crop productivity. Journal of Physics: Conference Series. 2060. 012018. 10.1088/1742-6596/2060/1/012018)

  • SAVI (Soil-Adjusted Vegetation Index) per analizzare suoli o coperture vegetative scarse, come ad esempio negli stadi iniziali delle colture. Questo indice applica un fattore di correzione all’indice NDVI, al fine di ridurre l’incidenza della luminosità del terreno. Tale fattore di correzione può assumere valori tra -1 e +1, dove alti valori dell’indice indicano una minore copertura di vegetazione;
  • NDVI Red Edge per valutare lo stato di salute e individuare precocemente potenziale stress al quale la coltura è sottoposta. L’indice utilizza le bande del NIR (vicino infrarosso) e il RedEdge (margine rosso). Rispetto alla banda visibile rossa utilizzata nell’NDVI, il Red Edge può penetrare più profondamente la foglia e rilevare i cambiamenti di clorofilla nella coltura, permettendo quindi di identificare potenziale stress, nonché distinguere lo stadio di crescita delle diverse colture;
  • NDMI (Normalized Difference Moisture Index) per identificare potenziale stress idrico nelle foglie e quindi agire attraverso una diversa pianificazione idrica o identificare potenziali deficit nutritivi nella pianta. L’indice combina i valori derivanti NIR e lo SWIR (Short Wave Infrared, infrarosso a onde corte), dove il NIR permette di rilevare la riflettanza luminosa della struttura interna della foglia e il suo contenuto di sostanza secca, mentre lo SWIR identifica il contenuto di acqua nella vegetazione. L’indice può assumere valori tra -1 e +1, dove -1 indica una mancanza di acqua nella vegetazione, mentre +1 un alto contenuto (o eccesso) di idratazione.

Un esempio di satellite già attivo per la raccolta di immagini multispettrali è Landsat 8. Questa satellite può generare immagini con risoluzioni spaziali pancromatiche di 15 metri per pixel (in bianco e nero) e multispettrali di 30 metri per pixel (a colori), lungo una striscia di 185 km. La banda pancromatica, essendo in grado di raccogliere più fotoni su una banda più alta dello spettro, è particolarmente rilevante al fine di ottenere immagini molto dettagliate del terreno, ma presenta un output in bianco e nero. Se a queste immagini vengono combinate quelle multispettrali (con una risoluzione minore ma a colori) e tecniche di pan-reshapening, è possibile avere immagini a colori e con una risoluzione spaziale più elevata, e quindi più dettagliata.

Quali sono le differenze tra immagini multispettrali e iperspettrali?

A differenza delle immagini multispettrali che hanno un numero di bande elettromagnetiche tra 4 e 12, le immagini iperspettrali sono composte da centinaia di bande elettromagnetiche lungo uno spettro continuo che include l’ultravioletto, il visibile il NIR e il MWIRL (Middle Wavelength Infrared, medio infrarosso). Inoltre, il sensore iperspettrale riesce a raccogliere dati su tre dimensioni: i dati spaziali, rappresentati sull’asse X e Y, necessari per identificare la posizione geografica; dati spettrali, rappresentati sull’asse Z, con l’informazione della riflettanza in ogni pixel, lungo le centinaia lunghezze d’onda dello spettro continuo. In questo modo, ogni pixel contiene una firma spettrale completa.

Differenza della banda spettrale tra immagine multispettrale e iperspettrale (fonte: JOUAV)

Differenza della banda spettrale tra immagine multispettrale e iperspettrale (fonte: JOUAV)

Mentre in un’immagine multispettrale è possibile identificare se un’area è vegetata o meno, attraverso l’immagine iperspettrale è possibile distinguere i diversi tipi di piante e per ognuna di queste il diverso livello di stress idrico.

Le immagini iperspettrali permettono di fornire un maggior livello di dettaglio e possono essere sfruttate per:

  • Analizzare dello stato nutrizionale delle piante attraverso il contenuto dei macro-nutrienti (azoto, fosforo e potassio);
  • Identificare precocemente alcune infezioni fungine, virali o batteriche prima che queste si sviluppino e mostrino sintomi visibili;
  • Identificazione di contaminanti (e.g. metalli pesanti, sostanze tossiche o residui di pesticidi) nel terreno prima della semina;
  • Analizzare il grado di maturazione del raccolto;
  • Identificare in modo più dettagliato la tipologia di colture e di vegetazione.

Un esempio di satellite iperspettrale è PRISMA (PRecursore IperSpettrale della Missione Applicativa): costruito dall’ASI (Agenzia Spaziale Italiana) e lanciato dall’ESA (European Space Agency) nel 2019, monta una strumentazione che combina un sensore multispettrale e una fotocamera pancromatica a risoluzione media.

Quali sono le principali differenze tra l’utilizzo dei satelliti e quello dei droni per il monitoraggio e la raccolta di dati?

Come anticipato, sensori multispettrali e iperspettrali possono essere montati anche su droni. Rispetto ai satelliti, l’utilizzo di droni:

  • Permette di raccogliere immagini con una risoluzione spaziale più elevata (pochi cm/pixel);
  • Porta maggiore flessibilità nella pianificazione, in quanto puó volare quando necessario, mentre il satellite ha una risoluzione temporale (ovvero la frequenza con la quale sorvola la medesima porzione di terreno) dipendentemente dall’orbita;
  • Consentire un’elevata qualità dell’immagine, in quanto può volare sotto le nuvole ed evitare interferenze dovute alla copertura nuvolosa (fenomeno che puó invece verificarsi con i satelliti);
  • Permette di coprire una superficie più limitata di terreno (pochi ettari per volo, rispetto alle centinaia di chilometri quadrati dei satelliti);
  • Ha un costo per ettaro più elevato.

 Cos’è la risoluzione di un satellite e perchè è importante considerarla?

La scelta del satellite di riferimento deve considerare le esigenze in campo, la tipologia di dato che si vuole raccogliere e le metriche che si vogliono analizzare.

In generale, i satelliti si distinguono tra loro per:

Risoluzione spaziale, che indica il livello di dettaglio che un sensore satellitare può distinguere sulla superficie terrestre. Ad esempio, se un’immagine ha una risoluzione spaziale di 15 metri significa che ogni pixel dell’immagine rappresenta un’area del terreno di 15×15 metri.

Risoluzione temporale, che indica la frequenza con la quale un satellite può sorvolare e acquisire immagini della medesima porzione di terreno. Ad esempio, una risoluzione temporale di 16 giorni indica che il satellite può acquisire immagini dell’area target ogni 16 giorni. Una risoluzione temporale elevata permette di monitorare fenomeni dinamici come la crescita delle colture nel tempo.

 Quali sono le sfide principali nell’acquisizione di dati agricoli? Come si possono superare?

A livello tecnologico, disponiamo già degli strumenti necessari per poter raccogliere dati di qualità e armonizzati per effettuare analisi e previsioni future. Ciò nonostante, acquisire dati agricoli non porta sempre benefici, in particolar modo se non c’è un’adeguata strategia che possa guidare l’operatività.

Alcune sfide nell’acquisizione del dato:

Eterogeneità delle fonti: dati che provengono da diverse fonti (e.g. satelliti, droni, macchinari) possono portare ad avere dati non armonizzati, incompatibili e temporalmente non sincronizzati. A livello di architettura dati diventa importante accedere a piattaforme che permettano l’integrazione di fonti multiple (e.g. API e middlewar), mentre a livello di data processing è necessario standardizzare i dati, attivare processi computazionali quali ETL (Extract, Transform, Load) e modelli interoperabili come AgGateway;

Qualità del dato: dati in input che provengono da interferenze ambientali e sensori malcalibrati, portano a un output a valle parzialmente concordante con la realtà, rendendo quindi il processo decisionale meno affidabile;

Costi: l’investimento necessario per acquistare sensori IoT, voli dei droni e la formazione del personale, può essere una barriera all’ingresso nell’utilizzo di strumenti avanzati. Diventa quindi vitale utilizzare risorse gratuite ove possibile (ad esempio per accedere a immagini satellitari), usare strumenti adatti e fare acquisti tramite consorzi per accedere a condizioni di acquisto agevolate;

Connettività in campo: avere una connessione stabile in campo è fondamentale per poter controllare i dispositivi IoT. Utilizzare protocolli di comunicazione basati su reti a bassa potenza e ampio raggio LPWA (low-power, wide-area) permette di avere una rete maggiormente stabile anche in aree rurali.

Queste tecnologie hanno un impatto a 360 gradi sulle imprese agricole e non solo.

L’integrazione di tecnologie emergenti e del digitale all’interno del settore agricolo rappresenta una vera e propria trasformazione a livello di sistema. Queste permettono di raggiungere nuovi livelli di sostenibilità economica, sociale e ambientale.

La sostenibilità economica riguarda la capacità dell’impresa (e ancor piu’ a livello del singolo farmer) di generare profitto, senza che questo vada a discapito della qualità della resa. L’AI gioca un ruolo importante al fine ottimizzare l’utilizzo degli input agricoli, rendere maggiormente efficienti le attività in field, avere una maggior resilienza climatica e aumentare la resa. Questi elementi permettono di diminuire i costi lungo tutte le fasi e di aumentare i ricavi.

La sostenibilità sociale permette di creare maggiore equità lungo tutta la filiera agricola, specialmente per i piccoli farmer localizzati in zone rurali. Le tecnologie digitali e l’automazione permettono di migliorare le condizioni lavorative e democratizzare l’accesso di strumenti digitali anche ai piccoli agricoltori.

Infine, la sostenibilità ambientale permette di tutelare gli ecosistemi, le risorse naturali e l’emissione di CO2eq lungo l’intera filiera. Questo è possibile grazie a un monitoraggio continuo e l’abilitazione all’agricoltura di precisione, permettendo quindi di applicare in modo chirurgico il prodotto nelle giuste quantità, tempistiche e luogo.

Agire in modo sistemico lungo la filiera fornendo conoscenza, tecnologie e strumenti adeguati, è il primo passo per rendere un processo di trasformazione solido e creare un impatto positivo nel campo, nell’azienda e nella società.