Nel saggio Homo Deus lo storico Yuval Noah Harari analizza le tre “minacce pratiche” al liberum arbitrium indifferentiae, di matrice agostiniana 1, dinanzi all’avvento del “datismo” 2, che consiste sia nell’introduzione pervasiva di algoritmi sia nell’interpretazione del funzionamento della mente umana come un sistema di algoritmi biochimici3.
La prima minaccia riguarda la perdita di capacità ritenute tipicamente umane 4 , mentre la seconda, più insidiosa, mina il fondamento stesso della libertà – la “sacralizzazione del sé narrante” 5 – riducendo l’individuo a disarticolato “fascio di percezioni” 6, secondo un’analogia mente–computer, di origine hobbesiana 7 , inserita in una più ampia teoria computazionale della mente 8, criticata variamente da Dreyfus 9 , Searle 10, Winograd e Flores11.
Attualmente, l’impiego di algoritmi pare delineare, in ambito socio–economico, un “capitalismo della sorveglianza”12, una sorta di “anarchia sorvegliata” 13, un “dispositivo della trasparenza […] che non nega o reprime la libertà, ma la sfrutta” 14 , attraverso la “selezione delle offerte”, producendo “un effetto di conformità, come se ciascuno sorvegliasse ogni altro”, in uno scoprimento volontario che sovverte, intensificandole, le logiche sottese al Panopticon benthamiano15.
Sebbene non si possano ignorare i vantaggi di una simile rivoluzione tecnologica (specialmente in campo medico), non si devono neanche sottacere i rischi, anche psicologici, connessi alla tendenza “conservatrice” dell’algoritmo16 , con relativi difetti di valutazione che sovente si risolvono in echo chambers radicalizzanti17 , finendo per paralizzare il libero arbitrio.
Tuttavia, l’aspetto più preoccupante è di carattere eminentemente politico.
“Gli individui potrebbero abbandonare i propri giudizi psicologici e affidarsi a computer quando devono affrontare decisioni importanti relative alla loro vita” 18 . Così “l’algoritmo evolve da supporto a protagonista attivo delle scelte, investito della fiducia degli umani”19. Si tratta di una “quarta rivoluzione”, che ha già previsto il conferimento, spesso problematico, di un grande potere alle “grandi agenzie dell’algoritmo”20.
A detta di molti studiosi, “il machine learning è ormai in grado di demolire i vecchi assetti dell’economia e della società” 21 , favorendo “sistemi di regolazione basati sull’intelligenza artificiale” e “leggi costruite in modo autonomo dagli algoritmi” 22 , “spogliando gli uomini della loro autorità, e al contrario potenziando gli algoritmi” 23 . Di conseguenza – prosegue Harari – “abitudini liberali come le elezioni democratiche diverranno obsolete, poiché Google sarà in grado di rappresentare perfino le mie personali opinioni politiche meglio di me.”24
L’uomo cesserà di essere il soggetto della storia, rinunciando alla propria libertà e divenendo un mero “funzionario di apparato tecnico” 25 , mentre si profilerà una ristretta élite dotata degli algoritmi più potenti26.
Si tratta di un rischio che, sia pure in maniera aurorale, si è già affacciato nel recente scandalo che ha coinvolto Facebook nella vendita di dati personali alla società di consulenza britannica Cambridge Analytica27.
Non si tratta di essere misoneisti, rifiutando con ottuso luddismo una tecnologia le cui implicazioni positive sono effettivamente numerose. Ma urge, specie da parte dei filosofi, l’elaborazione di quella che papa Francesco ha chiamato “algor– etica”, una cui prima ossatura sembra delineata negli Orientamenti etici sull’intelligenza artificiale della Commissione Europea. Solo così sarà possibile fare tesoro delle rivoluzionarie acquisizioni della tecnica, salvaguardando il libero arbitrio dell’uomo.
A cura di Matteo Abriani
Note
1. S. AGOSTINO DI IPPONA, De libero arbitrio, III, 19, 50–53; PL 32,1267–1268. Cfr. anche Id., De correptione et gratia, XI.
2. Y.N. HARARI, Homo Deus. Breve storia del futuro, Bompiani, Milano, 2017, pp. 559.
3. Id., 21 lezioni per il XXI secolo, Bompiani, Milano, 2018, p. 45.
4. Id., Homo Deus, op. cit., pp. 97–98. Si potrebbe dire, con Gunter Anders, “l’uomo è antiquato”.
5. Ibid., p. 514.
6. D. HUME, A Treatise of Human Nature, 1739.
7. T. HOBBES, De corpore, I, 2: “Ratiocinatio est computatio”.
8. Cfr. A. NEWELL, H. SIMON, Computer Science as Empirical Inquiry: Symbols and Search, in “Communications of the Associations for Compunting Machinary”, vol. 19 (3), 1976. Una visione funzionalista o “formale” e “astratta” della mente (per usare le grammatiche di Dennet e Hofstadtler) si trova in: H. PUTNAM, The Mental Life of Some Machines, in Hector–Neri Castaneda (a cura di), Intentionality, Minds and Perception, Wayne State University Press, 1967.
9. H. DREYFUS, What Computers Can’t Do. The Limits of Artificial Intelligence, MIT Press, New York, 1972.
10. J.R. SEARLE, La mente è un programma?, in “Le scienze”, nº 259, 1990.
11. A differenza di Dreyfus, che muove da presupposti fenomenistici, la critica di Winograd e Flores – esposta in Understanding Computers and Cognition. A New Foundation for Design (1984) – si concentra sulla retroazione e influenza reciproca tra la macchina e l’uomo, ponendo dunque l’insuperabilità della prima sul secondo.
12. S. ZUBOFF, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, LUISS University Press, Roma, 2019.
13. Un esempio zoologico di “anarchia sorvegliata”, corrispondente alla modernità liquida, si trova in: Z. BAUMAN, Le vespe di Panama. Una riflessione su centro e periferia, Laterza, Roma– Bari, 2007.
14. B.–C. HAN, Psicopolitica, Nottetempo, Milano, 2016, p. 19–25.
15. J. BENTHAM, Panopticon ovvero la casa d’ispezione, M. Foucault, M. Perrot (a cura di), Mursia, Milano, 1988.
16. M. GAGGI, Homo Premium, Laterza, Roma–Bari, 2018, pos. Kindle 896 e sgg.: “Oltre a rispecchiare tendenzialmente i valori del passato […] l’algoritmo non ha margini di flessibilità. […] Cosicché, se anche chi lo utilizza lo fa in modo rigido […], le conseguenze possono essere piuttosto pesanti.”
17. M. SPITZER, Emergenza smartphone. I pericoli per la salute, la crescita e la società, Corbaccio, Milano, 2018, pos. Kindle 469: “Circa l’80 percento dei contenuti visti su YouTube viene proposto dall’algoritmo che gestisce la raccomandazione dei video. Per farci restare incollati a lungo allo schermo, ci vengono mostrati video dal contenuto sempre più estremo.”
18. W. YOUYOU, M. KOSINOSKI, D. STILLWELL, Computer–Based Personality Judgements Are More Accurate Than Those Made By Humans, PNAS, 112 (4), 2015, p. 1040.
19. Y.N. HARARI, Homo Deus, op. cit., p. 518.
20. L. FLORIDI, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina, 2017.
21. E. BRYNJOLFSSON, A. MCAFEE, Race Against the Machine: How the Digital Revolution Is Accelerating Innovation, Driving Productivity and Irreversibly Trasforming Employment and the Economy, Digital Frontier Press, 2011.
22. M. GAGGI, Homo Premium, op. cit., pos. Kindle 909 e sgg.
23.. Y.N. HARARI, Homo Deus, op. cit., pp. 523–524.
24 Ibid., op. cit., p. 514.
25. U. GALIMBERTI, Psiche e Techne. L’uomo nell’età della tecnica, Feltrinelli, Milano, 2000, Introduzione, 9, pos. Kindle 854.
26. Y.N. HARARI, Homo Deus, op. cit., pp. 525–533.
27. A. HERN, How to check whether Facebook shared your data with Cambridge Analytica, in “The Guardian”, 10 aprile 2018.