Il termine ‘incertezza’ assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ’80 in intelligenza artificiale (IA). Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall’informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell’argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l’espressione ‘intelligenza artificiale’ ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della ‘nuova’ IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci ‘classici’ è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la ‘nuova’ IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro - come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default,…, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.

Il ragionamento in condizioni di incertezza

Benzi, Margherita
2019-01-01

Abstract

Il termine ‘incertezza’ assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ’80 in intelligenza artificiale (IA). Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall’informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell’argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l’espressione ‘intelligenza artificiale’ ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della ‘nuova’ IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci ‘classici’ è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la ‘nuova’ IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro - come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default,…, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.
File in questo prodotto:
File Dimensione Formato  
APhEx20,2019Ragionamentoincondizioniincertezza-pubblicato.pdf

file ad accesso aperto

Tipologia: Versione Editoriale (PDF)
Licenza: DRM non definito
Dimensione 744.96 kB
Formato Adobe PDF
744.96 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11579/104298
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact