La recente lettera-monito sui rischi futuri dell’Intelligenza Artificiale, firmata da Elon Musk e da altri mille esperti tech, ha acceso i riflettori sulla “filosofia” che ormai impazza nella Silicon Valley, il Longtermism o Lungotermismo. Secondo la definizione di Wikipedia, si tratta di “una posizione etica che dà priorità al miglioramento del futuro a lungo termine”, secondo la quale “le persone che nasceranno in futuro devono contare moralmente quanto le persone che oggi abitano la Terra”. In soldoni, i guru miliardari si appoggiano a questa teoria per giustificare visioni e progetti futuristici, come la colonizzazione dei pianeti (sempre targata Elon Musk). Secondo i critici, invece, questa è una filosofia pericolosa ed inquietante, perché nasconde il perseguimento delle preferenze sociali delle élite nascondendolo dietro i problemi più profondi dell’umanità.
Come è nato il Lungotermismo
Nel 2017 il filosofo scozzese William MacAskill ha coniato il termine “longtermism” per spiegare l’idea secondo la quale “influenzare positivamente il futuro a lungo termine è una priorità morale chiave del nostro tempo”. Una teoria che è piaciuta d altri filosofi e ai membri del movimento del cosiddetto “Altruismo efficace”, che riflettono su come gli individui possono aiutare al meglio il mondo.
Quest’anno, però, l’idea è passata dal tavolo delle discussioni filosofiche alle prima pagine dei giornali, perché lo scorso agosto l’uscita del libro “What we owe to the future” di William MacAskill ha ricevuto una grande attenzione mediatica, oltre a vari endorsment importanti, tra i quali, ancora una volta, è spiccato il nome di Elon Musk, insieme a quello di Sam Bankman-Fried, fondatore e CEO di FTX, società crollata nel novembre 2022.
Worth reading. This is a close match for my philosophy. https://t.co/cWEM6QBobY
— Elon Musk (@elonmusk) August 2, 2022
Ad esempio, MacAskill riconosce che non stiamo facendo abbastanza per la minaccia del cambiamento climatico, ma sottolinea altre potenziali fonti future di miseria o estinzione umana, che potrebbero essere anche peggiori. Che dire, per esempio, di un regime tirannico abilitato dall’AI da cui non c’è scampo? O di un patogeno biologico ingegnerizzato, che potrebbe spazzare via la specie umana?
I critici del Lungotermismo
I critici affermano che il lungotermismo sia in realtà solo un modo per mascherare interessi economici e sociali da parte di una casta di persone, che coprono i loro veri obiettivi facendo previsioni (impossibili) sul futuro ed insistendo su scenari fantascientifici apocalittici come la conquista del mondo da parte dei robot o la collisione della Terra con gli asteroidi.
Un’altra critica riguarda la popola da parte dei lungotermisti di azioni filantropiche dirette, ovvero molto concrete ed orientate ai risultati, per salvare l’umanità da mali specifici: anche in questo caso dietro questi progetti così mirati ci sarebbero solo gli interessi di un’élite e non il perseguimento del benessere futuro dell’umanità. La tesi dei nemici del Lungotermismo è che strategie meno dirette, come la costruzione della solidarietà e il rafforzamento delle istituzioni condivise, sarebbero modi migliori per attrezzare il mondo a rispondere alle sfide future.