La comprensione scientifica ai tempi dell'intelligenza artificiale

Relatore Giovanni Galli

Università degli Studi di Teramo

 

Le comunità scientifiche grazie al lavoro di scienziate e scienziati negli anni si sono impegnate con metodologie e strumenti diversi a comprendere i fenomeni che studiano, tramite l’uso di teorie, modelli, ipotesi, dati e, recentemente, con l’aiuto di sistemi implementati dall’intelligenza artificiale.

Ma cosa vuol dire comprendere un fenomeno? In particolare, in che cosa consiste la comprensione scientifica di un fenomeno? Questa è la domanda da cui, da alcuni decenni, è scaturito un intenso dibattito in filosofia della scienza e in epistemologia. Fino a qualche decennio fa dominava la convinzione che le scienze naturali producessero spiegazioni, mentre le scienze umane avessero il compito di comprendere.

 

Tuttavia, dopo un secolo e mezzo di netta distinzione tra spiegazione e comprensione, tra scienze naturali e scienze umane, questa netta separazione è venuta a mancare. In questo seminario, verranno trattate le teorie della spiegazione e le principali teorie della comprensione scientifica, quella contestualista di De Regt (2017) e quella più canonica di Khalifa (2017). De Regt e Khalifa usano due strategie diverse per difendere una versione che chiameremo “esplicativa” della comprensione scientifica e che ben si applica a casi della storia della scienza del ‘900.

 

Alla luce dell’apporto dei nuovi sistemi di intelligenza artificiale e nuove tecnologie per la ricerca scientifica, propongo un’ulteriore versione della comprensione scientifica, che chiamo “descrittiva”, per rendere conto del tipo di comprensione che le scienziate e gli scienziati ottengono utilizzando sistemi come AlphaFold, per lo studio bioinformatico delle proteine, e le reti neurali per lo studio e l’emulazione del linguaggio umano. A partire da biologia e bioinformatica, filosofia del linguaggio e linguistica computazionale, difenderò una versione della comprensione scientifica che meglio si applica alla ricerca assistita dall’AI. Infine, la distinzione tra spiegazione e comprensione ci permetterà di delineare alcuni problemi aperti che ancora interessano chi si occupa del rapporto tra i modelli a reti neurali e i loro target-system. La motivazione forte che muove questi indirizzi di ricerca è la ridefinizione dell’ontologia alla base della ricerca scientifica svolta con l’ausilio dell’AI.

 
 
Ultimo aggiornamento: 17-06-2024