Il libro di Jerry
Kaplan, imprenditore e ingegnere informatico, esperto di Intelligenza
Artificiale che ha seguito dall’avvio del termine negli anni cinquanta è del
2015, cui ha fatto seguito “Intelligenza
artificiale”, dell’anno successivo.
In entrambi Kaplan si impegna a diradare un poco del
fumo rilasciato da decenni dal marketing delle aziende produttrici (di hardware
e software, a partire da IBM negli anni cinquanta) e dalla strategia competitiva
dei dipartimenti universitari in caccia di lucrosi finanziamenti e per questo
di eccitanti etichette. La cosiddetta “intelligenza
artificiale” non ha nulla del primo termine, almeno in senso antropologico,
in sostanza chiedersi se un software di automazione è “intelligente” è tanto
pertinente quanto chiedersi se un sottomarino nuota: fa il suo lavoro, ma non
lo fa in quel modo.
I software non hanno menti, ma sono veloci, e
ottengono i loro risultati, ma noi non sappiamo come.
Alla fine Kaplan rinvia allo stesso allarme che viene
da tante parti: siamo alla vigilia di un gigantesco scontro tra modi di fare le
cose, dietro le quinte, che coinvolgerà un’enorme quantità di attività
produttive fisiche e mentali. L’autore, che è certamente lontano da questa
prospettiva, dà ragione a Marx nel senso che lo scontro è alla fine tra
capitale e lavoratori, la cui forza-lavoro è sempre meno centrale, dunque vale
sempre meno.
Ed alla fine l’accumulo di risorse nelle mani di una
quota sempre minore, che non necessita della restante umanità come forza
produttiva (per la prima volta nella storia) potrebbe “buttare fuori bordo”
tutti gli altri (p.22). Se ciò succederà, o se si troveranno altri modi di
includere anche le persone, mentre sciami di lavoratori artificiali piccoli
come insetti, controllati in cloud da server remoti e software dotati di “intelletti
sintetici” assolvono in pratica a tutti i compiti che oggi riusciamo ad immaginare,
dipende in tutto dal ritmo.
Non è infatti la prima volta che una drastica
sostituzione di ‘piattaforma tecnologica’, e quindi di competenza umana,
avviene nella storia. Tutte le volte che le innovazioni “a grappolo” (ovvero
che si rafforzano vicendevolmente) si sono fatte avanti, vincendo la resistenza
della consuetudine e spiazzando milioni di persone c’è stata una crisi maggiore:
il socialismo è nato da una di queste, e il trentennio glorioso da un’altra. Ma
ogni volta la trasformazione si è svolta nell’arco di decenni, quasi un secolo
la prima, almeno un trentennio la seconda, oggi potrebbe essere sia più veloce
sia più radicale. Perché la produttività migliorando si riverberi in benessere
diffuso e questo faccia emergere nuovi bisogni e desideri non soddisfatti dalla
‘piattaforma’, mettendo al lavoro coloro i quali in questa erano stati
emarginati, è necessario che la distruzione proceda gradualmente e
progressivamente gli espulsi siano sostituiti (o si adeguino con l’opportuna
formazione). Come dice l’autore “con il mercato del lavoro, così come con il
riscaldamento globale, è il ritmo che conta, non il fatto in sé. I lavoratori
attuali potrebbero non avere né il tempo né l’opportunità di acquisire le
competenze richieste dai nuovi lavori. E il reddito medio è un dato inutile se
un piccolo gruppo di oligarchi ricchissimi si prende la parte più grande,
mentre tutti gli altri vivono in relativa povertà”.
Si tratta del solito allarme, insomma. Il libro è però
insolitamente informato sui meccanismi tecnici di questo rischio tecnologico. A
partire dal seminario che nel 1956 coniò il termine stesso di “intelligenza
artificiale”, sulla base di un finanziamento certamente interessato (a vendere
i mainframe alle aziende ed alle amministrazioni) della IBM. L’idea era all’epoca
di dividere un problema in molte piccole routine più gestibili (anche dalle
piccole potenze di calcolo ed immagazzinamento dati dell’epoca) per ottenere
dei risultati operativi incorporati nel sistema; si trattava di quel che fu
chiamato “l’approccio simbolico ai sistemi”.
Man mano che la potenza di calcolo aumentò si tentarono
nuovi approcci all’automazione: furono introdotti quindi i cosiddetti “sistemi esperti”, basati sul tentativo
di incorporare l’esperienza degli esperti nelle routine dei software.
E quindi si arrivò alla proposta di una architettura
per livelli, in cui uno strato elabora l’informazione propagandola ad uno
superiore: si tratta dei cosiddetti “network
neurali”. Ancora una metafora per antropomorfizzazione.
Da ultimo, per ora, con l’immane capacità di
archiviazione diffusa e di potenza di calcolo si è visto che in qualche modo l’automazione
funziona bene se può accedere ad esempi ed estrarre regolarità senza essere
diretta passo a passo. È il “machine
learning” e l’approccio dei “big data”
(p.34), che è reso possibile direttamente dall’accesso ai dati e
sorprendentemente “trova” la risposta senza capire come. Un esempio sono le
sempre migliori traduzioni automatiche. Quando ho iniziato il blog, quattro
anni fa, erano del tutto inutilizzabili, oggi aiutano (ad esempio ad
approcciarsi con lingue non conosciute, anche se funzionano meglio dove hanno
più esempi di traduzioni a cui riferirsi, dunque all’inglese ed ai contenuti
meno specialistici), domani spazzeranno il mondo.
Bisogna fissare questo concetto: l’attuale automazione ottiene il risultato, ma non sappiamo come e non
riusciamo neppure a stargli davvero dietro. Ma non pensa, non è cosciente pur
potendo avere obiettivi.
Ma se questo accade ai software (che per lo più sono
ormai in cloud e forniti come servizio) cosa accade alle macchine vere e proprie?
Per l’autore “presto, praticamente qualunque compito fisico voi possiate
immaginare sarà soggetto all’automazione: dipingere spazi interni e esterni,
preparare pasti, lavare le stoviglie, pulire locali, servire cibo, rifare i
letti, preparare la biancheria, …”. Saranno necessari alcuni requisiti, l’energia,
la consapevolezza, il ragionamento, i mezzi. Ma questi requisiti possono essere
diffusi in luoghi diversi.
Il valore sarà nei dati e non nei programmi, è da
tempo così. L’intera finanza moderna si basa sul semplice concetto di garantire
un arbitrato su steroidi grazie ad analisi sempre più sofisticate e sempre più
rapide di segnali deboli e confronti. Qualche volta va male, come il 6 maggio
2010, quando un ciclopico scontro tra software di trading repentinamente
provocò un crollo fermato appena in tempo.
Si tratta quindi di un territorio selvaggio che si
manifesta anche tutte le volte che esce un annuncio internet a fianco delle
nostre ricerche. Silenziosamente software automatici si confrontano per vincere
l’asta che si accende per la nostra query, interpretano i nostri dati e
forniscono l’annuncio più adatto.
Altri esempi sono nel modello di business di Amazon
(p.94) che aggiusta continuamente il prezzo, utilizzando la massa di dati di
cui dispone.
Se l’automazione sostituisse, in un tempo breve, i
lavoratori corrispondenti alla maggior parte delle competenze (agricoltori,
magazzinieri, medici, professori, lavoratori del sesso, …) i cambiamenti
distributivi sarebbero enormi e difficilmente gestibili.
Il problema è che questi software e sistemi automatici
operano secondo obiettivi individuali programmati dai proprietari, ma alla fine
tendono ad operare alla cieca, ognuno per sé. Lo scontro potrebbe metterci in
mezzo. Kaplan propone che si introducano in proposito alcune precauzioni:
evitare che un sistema possa possedere se stesso, e programmare una sorta di “responsabilità
morale” (p.80), prima che sia troppo tardi. Un poco l’idea di Asimov.
Ciò anche per evitare che la futura crescita economica
sia interamente basata sul reddito concentrato in alto ed autoreferente. Secondo
i dati forniti ormai negli Stati Uniti l’1% possiede più di 20.000 miliardi di
dollari e quindi potrebbe permettersi di dare lavoro (spendendo ogni anno il
10%) a 60 milioni di persone per soddisfare i propri consumi di lusso. L’intera
spesa al dettaglio, e quindi macchina produttiva, potrebbe essere orientata in
questa direzione.
La parte costruens del testo si rifà ad uno schema di
Milton Friedman (p.144) e cerca di ottenere la distribuzione più egualitaria
degli anni settanta (che è il suo obiettivo) attraverso la separazione di
lavoro e reddito, essenzialmente incentivando la diffusione dei diritti di
proprietà attraverso un opportuno disegno fiscale.
Pensando che la dinamica dell’automazione è
inarrestabile l’obiettivo diventa ottenere da una parte “robot civilizzati”,
dall’altra sistemi responsabili e controllati da collettività più ampie
possibili (mai da se stessi ed “allo stato brado”). Il lavoro resta marginale, in
carico ad una élite di utili e agli hobbisti.
Escludendo dal novero delle soluzioni accettabili “per
la sensibilità odierna” il socialismo, che sarebbe a sua ammissione “una possibile
risposta” (“Intelligenza artificiale”, p.179), e salvando la proprietà
individuale dei beni, l’idea è insomma di passare da un’economia basata sul
lavoro ad una “basata sui patrimoni”.
Certo, in questo modo, “le società sono destinate a
dividersi tra edonistici ‘hippy’ senza un soldo ed egocentrici, ambiziosi ‘yuppie’”.
Si tratta della stessa idea di Tyler Cowen in “La
media non conta più”, che immagina ancora più duramente e realisticamente
che i ricchi si vorranno tenere tutto, e non accetteranno i piani di
ridistribuzione fiscale (neppure amichevoli come quello di Kaplan) e non
pagheranno più tasse, perché sono mobili e non lo vogliono (ivi, p.222). La
società si polarizzerà ancora di più, ed anche geograficamente. Alcune aree per
gli ‘Yuppie’ diventeranno lussuose e superprotette (da eserciti di automi e di
schiavi umani), mentre chi si sposterà “fuori della rete”, gli ‘hippy’ di Kaplan,
rimodelleranno se stessi facendo di necessità virtù.
Quel che i due autori conservatori immaginano è nel
novero del possibile, ma dimentica che tutto il potere è concesso dagli uomini.
Siamo noi che lo attribuiamo, noi che possiamo revocarlo: se, appunto, ricordiamo
di essere un “noi” e non tanti “io” soli, poveri e impotenti.
Nessun commento:
Posta un commento