Progettazione di un framework integrato per tecniche sub-simboliche e simboliche: Verso l'eXplainable AI

   page       attach   

Nell’era della rivoluzione digitale la vita degli individui è sempre più orientata verso l’uso di servizi informatici tra loro interconnessi, i quali vengono resi responsabili dell’esecuzione di mansioni e del trattamento di informazioni personali, tanto nella vita privata quanto nelle realtà industriali. Mentre nei decenni passati il comportamento di tali servizi era esclusivamente determinato da quanto previsto dagli sviluppatori nella loro progettazione, attualmente gli esseri umani delegano sempre più compiti e decisioni ad agenti software le cui attitudini intelligenti sono conseguenza della capacità di apprendere, pianificare, ed inferire informazioni attraverso l’osservazione di dati. Il termine intelligenza artificiale (AI) accomuna perciò scienze ed attività di ricerca il cui scopo è quello di dotare gli agenti software della capacità di comprendere gli aspetti della realtà che li riguardano, di pensare razionalmente, e di agire con coerenza al fine di riprodurre il comportamento degli esseri umani per poterli efficacemente assistere nei loro bisogni.
Le tecnologie attualmente esistenti permettono l’apprendimento automatico mediante l’osservazione di voluminose quantità di dati di esempio, dai quali è possibile riconoscere associazioni utili ad una corretta categorizzazione di nuove istanze future dello stesso problema. Con l’avvento dell’Internet of Things (IoT), ossia della partecipazione di oggetti e luoghi fisici nella rete Internet, i flussi di dati disponibili per l’apprendimento sono esponenzialmente aumentati grazie ai numerosi sensori distribuiti nello spazio ed a stretto contatto con le persone. Allo stesso modo, la partecipazione di numerosi automi nella vita personale solleva l’esigenza di attitudini intelligenti da parte degli stessi, affinché essi possano agire con coerenza nel contesto spazio-temporale in cui sono ubicati.
Nonostante la larga adozione, gli agenti intelligenti il cui comportamento è frutto dell’apprendimento automatico non godono ancora di particolare fiducia della maggior parte degli individui, specialmente da quelli distanti dal settore dell’informatica. Tale problema è fortemente determinato dalle tecniche di apprendimento stesse, delle quali è spesso impossibile comprendere le complesse strutture interne per via dell’incompatibilità con i canoni del pensiero logico umano. Questo genere di limitazione allontana la maggior parte dei sistemi intelligenti odierni dalle caratteristiche di comprensibilità, affidabilità, e chiarezza necessarie per una corretta adozione di massa, per la quale le persone esigono razionalità e spiegabilità. Come risposta a tali problematiche è emerso negli ultimi anni l’ambito di ricerca dell’eXplainable Artificial Intelligence (XAI), il cui fine è quello di riconoscere e categorizzare approcci che permettano di estrarre spiegazioni significative dagli attuali sistemi di apprendimento, in modo da ottenere soluzioni sofisticate che soddisfino le caratteristiche desiderate. Questa tesi è perciò focalizzata sul raggiungimento dei seguenti obiettivi:
• Riconoscimento di caratteristiche, problemi, tematiche dell’ambito Explainable AI.
• Definizione di alcune soluzioni relative alle problematiche discusse.
• Modellazione e progettazione di un framework in grado di ospitare gli attuali metodi di apprendimento automatico ed i nuovi sistemi di spiegazione, che possa far lavorare le diverse tecniche in maniera coerente e favorire lo sviluppo di applicazioni per agenti intelligenti.
• Realizzazione di un prototipo del modello proposto, finalizzato all’esposizione dei principi introdotti e alla dimostrazione di quanto discusso.