Dobbiamo temere l’Intelligenza Artificiale? A scatenare le paure, peraltro già esistenti, è stata una lettera aperta di oltre 1.000 esperti di tecnologia, tra cui Elon Musk, che sollevano dubbi sui rischi di un uso incontrollato dell’AI. Ma subito sono arrivate anche le critiche di chi li accusa di aver sollevato un inutile polverone solo per fare clamore e perseguire gli interessi delle élite.
Andiamo con ordine. Martedì 28 marzo il Future of Life Institute ha pubblicato sul proprio sito web una lettera (qui la versione integrale in inglese) firmata da grandi nomi del tech: oltre al CEO di SpaceX, Tesla & Twitter ci sono, per esempio, il cofondatore di Apple Steve Wozniak, il cofondatore di Pinterest Evan Sharp e il cofondatore di Skype Jaan Tallinn, insieme a numerosi imprenditori, manager, ricercatori e docenti universitari da ogni parte del mondo.
L’obiettivo? Chiedere uno stop di almeno sei mesi nello sviluppo di sistemi come ChatGPT, di cui è appena stato presentato il quarto aggiornamento, a causa delle conseguenze preoccupanti a cui questa evoluzione potrebbe condurre. Quindi, sono proprio coloro che sulla nuova tecnologia hanno basato la loro attività a proporre ora un rallentamento.
Che cosa dice la lettera di Elon Musk sull’AI
“L’AI avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate”, scrivono i firmatari, sottolineando come questo attualmente non stia avvenendo e come i sistemi di intelligenza artificiale contemporanei stiano diventando sempre più competitivi nei confronti dell’uomo. “Dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti (per le persone, ndr)? Dovremmo sviluppare menti non umane, che alla fine potrebbero essere più numerose, più astute, meno obsolete delle nostre e potrebbero sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti”.
E ancora: “Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”. Quindi l’appello: “Invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi lo sviluppo di sistemi più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile ed includere tutti gli attori chiave. Se non può essere attuata rapidamente, i governi dovrebbero intervenire ed istituire una moratoria”.
Laboratori ed esperti indipendenti dovrebbero poi sfruttare questo periodo di tempo per sviluppare ed implementare una serie di protocolli di sicurezza condivisi per la progettazione, rigorosamente verificati e supervisionati da esperti esterni ed indipendenti. Parallelamente dovrebbero collaborare con i responsabili politici per accelerare lo sviluppo di solidi sistemi di governance dell’AI. Tra le azioni necessarie, bisogna istituire apposite autorità di regolamentazione ed un solido ecosistema di audit e certificazione, prevedere responsabilità per i danni causati dall’AI, raccogliere finanziamenti pubblici per la ricerca sulla sicurezza e prevedere istituzioni dotate di risorse adeguate per far fronte alle “drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’AI causer”à.
Infine, la conclusione: “L’umanità può godere di un futuro fiorente con l’AI. Dopo essere riusciti a creare potenti sistemi, ora possiamo goderci un’estate di intelligenza artificiale, in cui raccogliere i frutti, a vantaggio di tutti. Godiamoci una lunga estate di AI, non precipitiamoci impreparati in un autunno”.
Quanta ipocrisia c’è nella lettera di Musk sull’AI?
In poche ore questo testo ha fatto il giro del mondo e con altrettanta velocità sono arrivate anche le critiche. In prima linea ci sono gli autori di un paper che viene citato tra le fonti della lettera. E così Timnit Gebru ha scritto su Twitter che il suo articolo in realtà mette in guardia proprio dal fare affermazioni così gonfiate sull’AI: “Fondamentalmente loro dicono l’opposto di quello che diciamo noi, ma citano il nostro articolo”, ha scritto.
Poi ha fatto notare che il Future of Life Institute, che ha pubblicato la lettera, gravita nell’area dei cosiddetti lungotermisti, esponenti della nuova utopia della Silicon Valley, che sembra affrontare i problemi più profondi dell’umanità, ma in realtà viene accusata di giustificare il perseguimento delle preferenze sociali delle élite.
NO.
Y’all please listen. The longtermists have infiltrated all these organizations and unless we seriously push back this narrative is going to be setting all sorts of legislation.
Read here to understand who the Future of Life Institute is: https://t.co/Gp11QgAuOr https://t.co/TPVLu7qxHO
— @[email protected] on Mastodon (@timnitGebru) March 30, 2023
La coautrice del paper, Emily Bender, oltre ad aggiungere che la lettera è “un casino” che “gocciola clamore”, ha specificato come i veri rischi dell’intelligenza artificiale non riguardano il fatto che l’AI possa essere “troppo potente”, ma piuttosto “la concentrazione del potere nelle mani delle persone, la riproduzione di sistemi di oppressione, i danno all’ecosistema dell’informazione e all’ecosistema naturale attraverso l’aumento della richiesta di risorse energetiche”.
E ancora: “Ci sono corporazioni e VC che cercano di guadagnare il massimo dei soldi possibili con poca attenzione per le conseguenze sulla democrazia (e sull’ambiente)”. Quindi il suo personale appello ai responsabili politici di tutto il mondo: “Non perdete tempo con le fantasie dei techbros (neologismo che indica chi lavora nell’industria tech, tipicamente uomini, di solito nella Silicon Valley, ndr) che dicono ‘Oh no, stiamo costruendo qualcosa di TROPPO potente’. Ascoltate invece coloro che stanno studiando come le aziende (e i governi) utilizzano la tecnologia (e le narrazioni dell’intelligenza artificiale) per concentrare ed esercitare il potere”.
My thread from last night on the hypey “open letter” as a blog post:https://t.co/zuE2A39W5F#LLM #AIhype #GPT4
— @[email protected] on Mastodon (@emilymbender) March 29, 2023
Twitter, poi, mette nel mirino Elon Musk. “E’ il tipo di persona che sosterrebbe un’iniziativa del genere per guadagnare più tempo per entrare in quel mercato”, sostengono alcuni utenti. Altri, invece, lo difendono: “Pensare che lo faccia solo per interesse è la conseguenza del solito stereotipo del ragazzo ricco. Musk ha espresso preoccupazione più volte negli ultimi anni ed ha contribuito a fondare OpenAI, investendo 100 milioni di dollari, quando era un’organizzazione senza scopo di lucro, per poi andarsene quando è diventata una realtà a scopo di lucro”. E ancora: “Probabilmente si è reso conto di essere troppo impegnato con Twitter e ha bisogno di un cessate il fuoco temporaneo in modo da poter recuperare”.
Insomma, una lettera ipocrita o un sincero monito a riflettere sul futuro dell’AI?