Stabilire le relazioni che intercorrono fra discipline differenti, oppure le influenze reciproche che si sono verificate fra di esse, è un compito che presenta notevoli difficoltà in special modo per la assenza di un unico modello da applicare con rigore.
Nell'articolo di John Wiliamson scaricabile da [www.kent.ac.uk] si cerca di superare queste difficoltà con particolare attenzione al rapporto esistente fra la Filosofia della Scienza (d'ora in avanti PS) e la nuova disciplina del Machine Learning (ML).
Alcuni - come Korb - sostengono che in ultima analisi le due discipline siano la medesima, ricordando ad esempio la
similarità fra il meta-learning in ML e la ricerca di un corretto metodo scientifico in PS, oppure il legame fra la
'inductive semplicity' e le riflessioni sui Termini teorici.
Altri ricercatori - Thagard e Bensusan - invece sostengono che sono presenti notevoli differenze fra le due discipline
in special modo per quanto riguarda l'oggetto della ricerca e gli obiettivi da raggiungere. La Filosofia della Scienza
si occupa ad esempio del dibattito fra realismo e strumentalismo, sui fondamenti della Meccanica Quantistica, sulle origini
ed il significato della causalità, mentre la Machine Learning ha come oggetto di ricerca argomenti che si collegano alla
interrogazione di database, al parsing del linguaggio naturale o ad esempio la ricerca per l'ottimizzazione di algoritmi.
Anche gli obiettivi differiscono: per la PS il target da raggiungere è la comprensione di come si creano le teorie scientifiche,
del legame fra di esse e la realtà, di come la Scienza dovrebbe essere (aspetto formale), mentre per la ML l'obiettivo
è lo sviluppo di tecniche che permettano alle macchine di imparare.
Sebbene ci siano differenze, sono presenti anche numerose influenze reciproche - come sostiene l'autore - che possono essere
meglio comprese con il concetto dell'interazione dinamica fra campi di ricerca.
Questo concetto è stato proposto da Gillies e Zheng ed è costituito da quattro aspetti:
1. Si ammette l'esistenza di un legame fra due campi differenti (A e B)
2. Entrambi i campi beneficiano dell'interazione reciproca (non è unidirezionale la relazione)
3. La relazione non è statica ma dinamica. Normalmente il flusso di ideee passa dal campo A a B e solo in un secondo momento,
quando anche B raggiunge una certa maturità, vi è un flusso di idee opposto.
4. Sebbene i due campi interagiscano è indispensabile che essi non si fondano in una unica disciplina, ma che mantengano un certo grado di autonomia.
Ma quali sono i vantaggi che si possono ottenere dall'applicazione di questo concetto? Ad esempio è facile spiegare il
successo e la continuità di un campo di ricerca: se infatti il campo in esame influenza in qualche modo un altro campo di ricerca,
questa interazione porta a considerare il primo di un certo successo, ed inoltre la relazione di interazione favorisce la nascita
di nuove idee, analogie ecc.. che portano ad un ulteriore sviluppo.
Inoltre l'interazione dinamica giustifica la ricerca interdisciplinare, la discussione fra comunità scientifiche differenti e la contaminazione di idee fra campi differenti.
Consideriamo ora alcuni esempi per meglio capire in cosa consiste l'interazione dinamica fra campi di ricerca, concentrandoci
sul rapporto fra PS e ML ed in seguito analizzando brevemente il caso delle Reti Bayesiane. Non vi è dubbio che inizialmente fu
la Filosofia della Scienza ad avere una particolare influenza sulla Machine Learning: si consideri ad esempio come l'approccio
logico alla spiegazione scientifica - sostenuto dal Positivismo Logico ad inizio 900 - influenzò in maniera determinante i primi
lavori di Machine Learning sviluppati da Turing. Oppure come proprio la crisi dell'approccio simbolico alla filosofia della scienza
- vedi Kuhn e Lakatosh - abbia facilitato la nascita in Machine Learning delle reti neurali (basate non più sulla logica) ed in seguito
delle reti bayesiane.
D'altro lato, quando la ML raggiunge un certo grado di autonomia ed autorevolezza - solo negli ultimi anni del 900 - si inverte il flusso
di idee e la PS riceve alcune contaminazioni significative. Nel dibattito fra induttivisti e falsificazionisti si inserisce - ad esempio -
il successo del programma GOLEM che riesce ad imparare ipotesi scientifiche e che porta un sostenziale vantaggio ai sostenitori dell'induttivismo.
Nella verifica dei modelli formali che descrivono il ragionamento - in special modo quello scientifico - una notevole influenza hanno avuto
le ricerche in ML del ragionamento induttivo e abduttivo, dell'inferenza analogica e causale...
Prendiamo ora in esame le Reti Bayesiane che coinvolgono i concetti di causalità e probabilità e che dunque rappresentano un interesse sia per
la Filosofia della Scienza che per la Machine Learning.
Da un punto di vista filosofico i concetti di causa e probabilità sono legati dal 'Principio di causa Comune', proposto da Reichenback.
Il principio afferma che due eventi probabilisticamenti dipendenti, ma non causa l'uno dell'altro, devono essere gli effetti di una causa comune,
ed inoltre che essi sono probabilisticamente indipendenti se ognuno è considerato insieme alla causa comune.
Nella ML invece i due concetti sono in relazione se si considerano le Reti Bayesiane. Una rete bayesiana è formata da due componenti:
un grafico che rappresenta le relazioni causali su un dominio di variabili, e un insieme di tabelle di probabilità in cui è specificata
una distribuzione per ogni variabile condizionata con la causa che la determina.
Furono inizialmente sviluppate come un utile formalismo per il ragionamento causale, ma sono ora utilizzate come 'framework' generale per
la rappresentazione di funzioni di probabilità. Le reti Bayesiane si fondano sulla condizione causale di Markov la quale afferma che una causa
è probabilisticamente indipendente da ogni suo non-effetto condizionato con la sua causa diretta.
L'interazione fra i due campi di ricerca si manifesta con la scoperta ad opera della PS che proprio la condizione causale di Markov implica
il Principio sostenuto da Reichenback; quest'ultimo però presenta numerosi controesempi che dunque inficiano la validità anche della condizione iniziale.
Risulta ora problematica la spiegazione del successo pratico delle reti bayesiane, che rappresentano - a ben vedere - il migliore modello con a disposizione
una conoscienza limitata. Se infatti ipotiziammo l'esistenza di un agente artificiale che opera su un dominio di variabili probabilistiche - descritte da
una rete bayesiana - e basate su una conoscenza di fondo, il successo predittivo dell'agente è giustificato con la massimizzazione dell'entropia della
funzione di distribuzione.
La presente breve presentazione dell'articolo di Wiliamson è rappresentato in maggior dettaglio nelle mappe concettuali raggiungibili all'indirizzo
[dynamic map]