È diventato abbastanza comune in questi giorni sentire le persone riferirsi ai moderni sistemi di apprendimento automatico come “scatole nere”. Come esempio, si consideri un recente episodio del podcast di Sam Harris in cui ha intervistato il pioniere dell’IA Stuart Russell. Harris chiede:
“Quindi, se non mi sbaglio, la maggior parte, se non tutti questi approcci di apprendimento profondo, o anche più in generale approcci di apprendimento automatico sono, essenzialmente, scatole nere, in cui non si può davvero ispezionare come l’algoritmo sta compiendo ciò che sta compiendo.”
Anche se questa metafora è appropriata per alcune situazioni particolari, è in realtà piuttosto fuorviante in generale, e può causare una notevole quantità di confusione. Come vedremo, un sistema di apprendimento profondo non è una scatola nera; anche lo sviluppo di un tale sistema non deve essere una scatola nera. La vera sfida, tuttavia, è che entrambe queste cose sono complesse, e non necessariamente ben comprese. Qui, voglio cercare di chiarire alcune di queste idee, e allo stesso tempo riflettere su cosa intendiamo per spiegazioni.
Come spiegherò di seguito, credo che la confusione nasca almeno in parte dalle idee sbagliate che la gente ha su come funzionano questi sistemi. Quando le persone ricorrono alla metafora della scatola nera, ciò che sembrano esprimere è il fatto che è difficile dare un senso allo scopo dei vari componenti di un modello di apprendimento automatico. Anche se questo è effettivamente difficile, voglio sostenere che è anche un’aspettativa irrealistica. Lungo il percorso, cercherò di spiegare la differenza tra i modelli e come vengono addestrati, discuterò gli scenari in cui la metafora della scatola nera è appropriata, e suggerirò che in molti modi, gli umani sono le vere scatole nere, almeno per quanto riguarda l’apprendimento automatico.
Spiegazioni
Per cominciare, è utile riflettere su cosa le persone intendono quando parlano di spiegazioni. Questa non è affatto una questione banale, ma sembrano esserci almeno due modi particolarmente rilevanti di pensarci.
Quando chiediamo a qualcuno una spiegazione del perché ha fatto qualcosa (“Perché hai fatto X?”), stiamo operando su una certa serie di presupposti di fondo. Nel caso di una decisione presa con cura, stiamo tipicamente assumendo che abbiano avuto qualche buona ragione per agire come hanno fatto, e stiamo fondamentalmente chiedendo il processo di ragionamento che hanno usato per prendere la decisione. Per esempio, potremmo aspettarci che abbiano soppesato i pro e i contro e scelto un corso d’azione basato sull’aspettativa che portasse a qualche particolare risultato.
Quando chiediamo perché qualcosa è andato storto, al contrario, stiamo invece chiedendo una sorta di spiegazione post-hoc del fallimento. Per esempio, dopo un incidente d’auto, potremmo volere una spiegazione di ciò che ha causato l’incidente. Il conducente era distratto? Un’altra macchina li ha fatti sbandare? Piuttosto che un processo di ragionamento, stiamo chiedendo, più o meno, lo stimolo critico che ha causato una particolare reazione al di fuori del comportamento normale.
Quando le persone pensano all’intelligenza artificiale, di solito sembrano avere in mente il primo tipo di spiegazione. L’aspettativa è che il sistema abbia deliberato e scelto una linea d’azione in base al risultato atteso. Anche se ci sono casi in cui questo è possibile, sempre più spesso stiamo assistendo a uno spostamento verso sistemi che sono più simili al secondo caso; cioè, ricevono stimoli e poi reagiscono e basta.
Ci sono ottime ragioni per questo (non ultimo perché il mondo è complicato), ma significa che è più difficile capire le ragioni per cui una particolare decisione è stata presa, o perché abbiamo finito con un modello piuttosto che un altro. Con questo in mente, cerchiamo di capire cosa intendiamo per modello, e la metafora della scatola nera.
Boxes and Models
La metafora della scatola nera risale ai primi tempi della cibernetica e del comportamentismo, e tipicamente si riferisce ad un sistema di cui possiamo solo osservare gli input e gli output, ma non il funzionamento interno. In effetti, questo era il modo in cui B. F. Skinner concettualizzava le menti in generale. Sebbene abbia dimostrato con successo come certi comportamenti appresi potessero essere spiegati da un segnale di rinforzo che collegava certi input a certi output, ha poi notoriamente commesso l’errore di pensare che questa teoria potesse spiegare facilmente tutto il comportamento umano, compreso il linguaggio.
Come esempio più semplice di una scatola nera, consideriamo un esperimento di Skinner: vi viene data una scatola con una serie di input (interruttori e pulsanti) e una serie di output (luci che sono o accese o spente). Manipolando gli ingressi, siete in grado di osservare le uscite corrispondenti, ma non potete guardare dentro per vedere come funziona la scatola. Nel caso più semplice, come un interruttore della luce in una stanza, è facile determinare con grande sicurezza che l’interruttore controlla il livello della luce. Per un sistema sufficientemente complesso, tuttavia, può essere effettivamente impossibile determinare come funziona la scatola semplicemente provando varie combinazioni.
Lascia un commento