Il termine ‘incertezza’ assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ’80 in intelligenza artificiale (IA). Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall’informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell’argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l’espressione ‘intelligenza artificiale’ ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della ‘nuova’ IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci ‘classici’ è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la ‘nuova’ IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro - come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default,…, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.
Il ragionamento in condizioni di incertezza
Benzi, Margherita
2019-01-01
Abstract
Il termine ‘incertezza’ assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ’80 in intelligenza artificiale (IA). Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall’informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell’argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l’espressione ‘intelligenza artificiale’ ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della ‘nuova’ IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci ‘classici’ è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la ‘nuova’ IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro - come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default,…, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.File | Dimensione | Formato | |
---|---|---|---|
APhEx20,2019Ragionamentoincondizioniincertezza-pubblicato.pdf
file ad accesso aperto
Tipologia:
Versione Editoriale (PDF)
Licenza:
DRM non definito
Dimensione
744.96 kB
Formato
Adobe PDF
|
744.96 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.