Intelligenza artificiale e analisi di Big Data geospaziali 

Stella inattivaStella inattivaStella inattivaStella inattivaStella inattiva
 

GEOmedia 6 2018 Editoriale di Renzo Carlucci

Un'enorme quantità di dati viene oggi creata e utilizzata, non solo dalle organizzazioni commerciali e dalle pubbliche amministrazioni, ma anche dai miliardi di singoli utenti delle tecnologie ICT. Negli ultimi tempi, c'è stato un crescente interesse nell'uso dei Big Data e dei dati di crowdsourcingsia per la ricerca che per le applicazioni commerciali.

La Volunteered Geographic Information (VGI, vedi GEOmedia 4 2014 pag. 20) acquisisce e produce dati più semplicemente che mai con gli sviluppi tecnologici nella comunicazione mobile, nelle tecnologie di posizionamento, nelle applicazioni per smartphone e in altri sviluppi infrastrutturali che supportano applicazioni mobili di facile utilizzo. 

Ma non possiamo non vedere i problemi che si generano sulla qualità dei dati quali credibilità, pertinenza, affidabilità, strutturazione, informazioni sulla posizione incompleta, metadati e validità mancanti che continuano a essere una delle maggiori sfide dei Big Data e possono limitare il suo utilizzo e i potenziali benefici. Nella cronaca quotidiana leggiamo spesso di casi simili come ad esempio di recente la diffida alla sindaca di Roma, nell’indicazione di aree per discariche dal sindaco di Fiumicino che solleva dubbi circa la competenza dell’organo che ha proceduto all’approvazione delle cartografie, redatte senza adeguata qualifica professionale, che per gli atti di pianificazione deve essere la laurea in ingegneria o in architettura. Quanto costa alla comunità non tenere conto delle specifiche competenze necessarie a validare dati che purtroppo la attuale tecnologia propone senza comunicarne limiti ed approssimazioni? E quanto danno all’immagine di un sindaco che si affida a tecnici che non hanno le necessarie capacità? 

La ricerca procede a grandi passi nell'estrazione di informazioni geospaziali utili da grandi set di dati sui social media per supportare la gestione delle catastrofi e l'aggiornamento di serie autorevoli da altri dati non autorevoli come OpenStreetMap. Esistono sicuramente opportunità all'interno di aree di grandi dati geospaziali in cui è possibile ottenere miglioramenti nella qualità e nel valore dei set di dati autorevoli esistenti. Le prime versioni dei dati di Google Maps, vennero originariamente acquisite da fonti geospaziali autorevoli. Tuttavia, i dati non erano originariamente assemblati per scopi cartografici o di navigazione e solo negli anni a seguire attraverso l'analisi dei dati geospaziali, si sono ottenuti miglioramenti come ad esempio il grafo stradale o la precisione metrica del dato. 

Una delle principali sfide per le agenzie cartografiche è quella di identificare subito quando si verificano nuovi sviluppi o cambiamenti, ad esempio se viene costruita una nuova proprietà o se si intraprendono modifiche all'impronta di un edificio. In Italia abbiamo un ottimo esempio nel sistema catastale dei terreni che oggi consente proprio questo, l’aggiornamento contestuale alla presentazione della pratica che ha portato ad una variazione che riguardi la proprietà sul terreno. Ma al di fuori di questa specifica esigenza legata al possesso e alla fiscalità del territorio non abbiamo altri esempi simili da parte degli organi cartografici. 

Solo una nuova spinta tecnologica può ridare vita ad una analisi periodica con immagini riprese dall’alto, satellitari o aeree, per identificare modifiche e avvisare i produttori dei dati cartografici che si sono verificati potenziali cambiamenti. L'analisi dei Big Data geospaziali può facilitare questo rilevamento dei cambiamenti attraverso l'analisi temporale di immagini ad alta risoluzione a intervalli regolari. 

Possiamo immaginare quale vantaggio economico se ne trarrebbe, ad esempio continuando l’analisi dell’edilizia nascosta avviata qualche anno fa sul territorio italiano, poi arrestata all’analisi dei soli territori extraurbani. La rendita nascosta è sicuramente all’interno dei centri urbani all’epoca tralasciati e ad oggi tutti ancora da analizzare. 

L'intelligenza artificiale (AI) ci aiuta e può condurre all'analisi automatizzata di set di dati di grandi dimensioni. Gli approcci basati sulle regole dei geodatabase forniscono un quadro per l'analisi dei dati in base a requisiti definiti. Questi approcci possono essere adatti all'analisi di dati geospaziali conservati in ambienti regolamentati, quali i geodatabase, in cui sono richieste determinate condizioni per la conformità. Ad esempio, i regolamenti minimi di pianificazione potrebbero richiedere distanze minime o compensazioni dai confini di una proprietà. D'altra parte, l'apprendimento automatico analizza i dati per identificare i modelli, apprende da questi modelli e quindi può auto-migliorarsi una volta che il sistema è stato addestrato. Si tratta di riadattare le regole cartografiche e urbanistiche, ed ecco allora che la svolta per il settore della geomatica del territorio è alle porte. Il nostro settore si può così riattivare, rinnovato dal fondo se alla base si pone un nuovo ordinamento della materia della conoscenza e della gestione del territorio.