APICe » Theses » Progettazione di un framework integrato per tecniche sub-simboliche e simboliche: Verso l'eXplainable AI

Progettazione di un framework integrato per tecniche sub-simboliche e simboliche: Verso l'eXplainable AI 


Nell’era della rivoluzione digitale la vita degli individui `e sempre piu` orien- tata verso l’uso di servizi informatici tra loro interconnessi, i quali vengono resi responsabili dell’esecuzione di mansioni e del trattamento di informazio- ni personali, tanto nella vita privata quanto nelle realt`a industriali. Mentre nei decenni passati il comportamento di tali servizi era esclusivamente de- terminato da quanto previsto dagli sviluppatori nella loro progettazione, attualmente gli esseri umani delegano sempre piu` compiti e decisioni ad agenti software le cui attitudini intelligenti sono conseguenza della capacit`a di apprendere, pianificare, ed inferire informazioni attraverso l’osservazione di dati. Il termine intelligenza artificiale (AI) accomuna perci`o scienze ed attivit`a di ricerca il cui scopo `e quello di dotare gli agenti software della capacit`a di comprendere gli aspetti della realt`a che li riguardano, di pensare razionalmente, e di agire con coerenza al fine di riprodurre il comportamento degli esseri umani per poterli efficacemente assistere nei loro bisogni. Le tecnologie attualmente esistenti permettono l’apprendimento automa- tico mediante l’osservazione di voluminose quantit`a di dati di esempio, dai quali `e possibile riconoscere associazioni utili ad una corretta categorizzazio- ne di nuove istanze future dello stesso problema. Con l’avvento dell’Internet of Things (IOT), ossia della partecipazione di oggetti e luoghi fisici nella rete Internet, i flussi di dati disponibili per l’apprendimento sono esponen- zialmente aumentati grazie ai numerosi sensori distribuiti nello spazio ed a stretto contatto con le persone. Allo stesso modo, la partecipazione di nu- merosi automi nella vita personale solleva l’esigenza di attitudini intelligenti da parte degli stessi, affinch`e essi possano agire con coerenza nel contesto spazio-temporale in cui sono ubicati. Nonostante la larga adozione, gli agenti intelligenti il cui comportamento `e frutto dell’apprendimento automatico non godono ancora di particolare fi- ducia della maggior parte degli individui, specialmente da quelli distanti dal settore dell’informatica. Tale problema `e fortemente determinato dalle tec- niche di apprendimento stesse, delle quali `e spesso impossibile comprendere le complesse strutture interne per via dell’incompatibilit`a con i canoni del pensiero logico umano. Questo genere di limitazione allontana la maggior parte dei sistemi intelligenti odierni dalle caratteristiche di comprensibilit`a, affidabilit`a, e chiarezza necessarie per una corretta adozione di massa, per la quale le persone esigono razionalit`a e spiegabilit`a. Come risposta a tali problematiche `e emerso negli ultimi anni l’ambito di ricerca dell’eXplainable Artificial Intelligence (XAI), il cui fine `e quello di riconoscere e categoriz- zare approcci che permettano di estrarre spiegazioni significative dagli at- tuali sistemi di apprendimento, in modo da ottenere soluzioni sofisticate che soddisfino le caratteristiche desiderate. Questa tesi `e perci`o focalizzata sul raggiungimento dei seguenti obiettivi: • Riconoscimento di caratteristiche, problemi, tematiche dell’ambito Ex- plainable AI. • Definizione di alcune soluzioni relative alle problematiche discusse. • Modellazione e progettazione di un framework in grado di ospitare gli attuali metodi di apprendimento automatico ed i nuovi sistemi di spiegazione, che possa far lavorare le diverse tecniche in maniera coerente e favorire lo sviluppo di applicazioni per agenti intelligenti. • Realizzazione di un prototipo del modello proposto, finalizzato al- l’esposizione dei principi introdotti e alla dimostrazione di quanto discusso.


Enrico Denti (Supervisor)
Roberta Calegari (Co-supervisors)