Volenti o nolenti, l’Intelligenza artificiale è già piuttosto diffusa e trova anche applicazioni difficili da scovare ma che hanno impatto nella vita di tutti i giorni. La branca è studiata da diverse decadi ed è, soprattutto nella sotto-branca del Machine learning, uno dei settori più di moda sia nelle accademie che nel privato. Questo comporta non solo un gran giro di denaro (data anche la facilità di fare profitto da questa area) ma soprattutto un gran movimento all’interno della comunità di ricerca che è molto prolifica con conseguenze sempre più visibili di anno in anno. Sebbene, a mio parere, è probabilmente è uno degli ambiti più noiosi da studiare dal punto di vista tecnico, conoscere anche quel punto di vista è strettamente necessario per poter parlare con cognizione di causa.
Ovviamente, questo non accade. Non mi riferisco alla consolidata tradizione filosofica sull’Intelligenza artificiale che ha ben toccato in modo molto lungimirante e minuzioso molto di quello che si può dire a riguardo ma di tutta la nuova discussione che avviene in modo disinformato nell’opinione pubblica. Tra le paure e le domande fondate che tutti dovremmo porci, soprattutto per spronare gli organi legislatori a preoccuparsi di aspetti che sono fondamentali nella vita odierna, salta fuori la paura dell’algoritmo.
Se è vero che l’ignoranza non può sempre essere considerata una colpa, è vero anche che in Italia l’analfabetismo informatico è allarmante, complice un sistema scolastico che ignora la materia e la sua importanza. Come conseguenza di questa ignoranza è che l’opinione pubblica è molto più preoccupata dall’eventualità di un possibile Terminator, o di un Io Robot (spoiler, non accadrà nulla del genere) piuttosto che dei modi subdoli con cui siamo costretti a cedere i nostri dati senza accorgercene o i rischi di sicurezza dell’avere dispositivi di scarsa qualità collegati alla rete. Lo spauracchio generale verso l’automazione e cioè di tecnologico che non si comprende collassa nell’astratto concetto di algoritmo.
Lo spauracchio in realtà non è del tutto ingiustificato: spessissimo la stampa, per scendere a patti con le difficoltà di spiegare i concetti del mondo tecnologico senza ricorrere a termini tecnici inaccessibili ai più, si ritrova a fare delle esemplificazioni eccessive. Il risultato è che la persona media (e non mi riferisco solo a chi è nato troppo presto per crescere a braccetto coi computer) pensa che siano i famelici algoritmi, entità astratte e incomprensibili, che porteranno a un futuro distopico. È dunque mia intenzione quella di fare un po’ di chiarezza cercando di spiegare su cosa è meglio dirottare le legittime preoccupazioni verso il mondo tecnologico.
Il modo più comune per spiegare il concetto di algoritmo è il paragone con le ricette. Bisogna tenere bene a mente che il concetto di algoritmo e la programmazione in generale sono fortemente collegati a quello di problem solving: raramente ci rivolgiamo a un computer se non abbiamo un problema di base da voler automatizzare. I dati sono gli ingredienti, che per buona norma di programmazione si elencano all’inizio di un programma (o porzione di programma), mentre l’algoritmo vero e proprio sono i una sequenza di passi che portano alla soluzione risultato del nostro algoritmo.
Nell’accezione più tradizione di programmazione questo è ancora del tutto valido, e sarà probabilmente rassicurante sapere che la maggior parte dei programmi che usiamo è stato pensato e scritto con questa idea di algoritmo.
Nell’Intelligenza artificiale, in realtà, le cose si complicano: per risolvere i problemi di questa branca, è necessario ingegnarsi e trovare dei metodi più creativi per programmare i computer e trovare una soluzione. Si ricorre dunque a paradigmi (ovvero modi di intendere la programmazione) meno diffusi e più complessi in cui non si spiega al computer esattamente, passo per passo, cosa deve fare ma gli si spiega la natura del problema e ci si affida a proprietà note della Matematica per far sì che il computer capisca come risolvere il problema.
A volte le cose sono ancora più complesse, come nel caso delle reti neurali artificiali, la tecnologia di apprendimento automatico più in voga al momento a grazie alla quale si è arrivati a fare cose impensabili anche solo pochi anni fa. In questo caso l’algoritmo non consiste né in una descrizione passo per passo della soluzione, né una descrizione del problema ma in una descrizione di una struttura a rete che, con l’aiuto di altri algoritmi noti (nel senso più tradizionale), possa imparare dopo un lungo addestramento, come risolvere il problema. In questo caso c’è molto meno controllo su cosa di fatto la macchina faccia ma soprattutto sul come. In realtà le implicazioni di questa complessità pongono questioni più preoccupanti dal punto di vista tecnico che dal punto di vista della paura. Quello che fa una rete neurale non è (almeno in teoria) più complesso di quello che si potrebbe fare con la programmazione tradizionale, solo che è di gran lunga più semplice per noi programmare in questo modo.
Che si programmi in senso tradizionale, che si usino paradigmi meno comuni o tecnologie sub-simboliche (come le reti neurali) molte cose non cambiano: quelli che sono i limiti dei computer sono ben noti e ampiamente studiati sia dal punto di vista teorico che dal punto di vista pratico, e ci sono problemi che non possono essere risolti a meno di un radicale cambio nel concetto stesso di computer e il funzionamento stesso delle componenti hardware. Possiamo anche stare tranquilli riguardo i computer quantistici: almeno nel breve termine non saranno una tecnologia di facile accesso a tutti.
È necessaria un’ulteriore considerazione. Un algoritmo, non è un’ente astratto che vive nell’Iperuranio (forse sì, ma se così fosse non sarebbe conoscibile), è un pezzo di conoscenza, una conoscenza il più delle volte procedurale, che riflette i limiti e le caratteristiche della mente che concepisce l’algoritmo stesso. Un algoritmo riflette una visione delle cose, o meglio una visione del problema e non è autonoma e svincolata dal programmatore che lo trascrive all’interno del programma. Questo ci dice la cosa più importante: dietro ogni programma c’è una o più persone che hanno uno specifico obiettivo.
Avere paura di un astratto algoritmo, dunque, non ha senso. Quello che ha senso temere è chi pensa l’algoritmo o soprattutto chi vuole usare un algoritmo per fini illeciti. Ha quindi senso spaventarsi di fenomeni come i deepfake? Assolutamente sì ma tenendo in mente che il problema non è l’esistenza stessa della tecnologica (che non è nient’altro che una variazione e una summa di altre tecnologie già esistenti e non preoccupanti) ma il fatto che questa possa facilmente finire nelle mani sbagliate.
Dato che mi sto dilungando cerco di tirare le somme. Qual è la morale della favola? C’è molto di cui preoccuparsi, molto su cui dovremmo sviluppare consapevolezza a livello societario e spingere i legislatori a cercare delle soluzioni a problemi reali. Tuttavia bisogna ricordare che dietro quei programmi, quegli algoritmi e dietro le intelligenze artificiali ci sono delle persone, persone che operano delle scelte deliberate e che è verso di loro che dovremmo rivolgere i nostri timori. E con questa consapevolezza bisogna imparare a leggere tra le righe quali sono le implicazioni delle innovazioni tecnologiche, senza né cadere nei vari bait della stampa di bassa lega, né leggere fatti apparentemente spaventosi come un preludio dell’apocalisse digitale.