“Bug Bounty”. Caccia al bug. Si chiama così il nuovo programma che invita gli utenti, in particolare gli sviluppatori e gli appassionati di codice, a segnalare le eventuali problematiche riscontrate nell’uso ChatGPT. In cambio, saranno pagati da OpenAI, l’azienda che ha creato il popolare chatbot basato sull’intelligenza artificiale e che ora chiede una collaborazione globale per il miglioramento del suo progetto.
ChatGPT: il programma per cacciatori di bug di OpenAI
La campagna è stata lanciata ufficialmente su Bugcrowd: quanto si guadagnerà? Le ricompense varieranno a seconda della gravità della falla o del problema di sicurezza riscontrato: si va comunque da un minimo di 200 dollari ad un massimo di 20.000 dollari in caso di “scoperte eccezionali”. “Vogliamo riconoscere e premiare le preziose intuizioni di chi contribuisce a proteggere la nostra tecnologia e la nostra azienda”, ha affermato OpenAI. “Invitiamo tutti a segnalare vulnerabilità, bug o difetti di sicurezza scoperti nei nostri sistemi. Condividendo le vostre scoperte, giocherete un ruolo cruciale nel rendere la tecnologia più sicura per tutti”.
ChatGPT: qual è la situazione in Italia?
Certo, va detto che in Italia non sarà così immediata la possibilità di guadagnare, ma bisognerà avere un po’ di pazienza. Nelle settimane scorse, infatti, l’Autorità Garante per la protezione dei dati personali ha infatti sospeso l’operatività della piattaforma nel nostro Paese: stop momentaneo al trattamento dei dati degli utenti italiani, finché non saranno risolte le criticità segnalate rispetto alla normativa sulla privacy italiana. Il collegio dell’Autorità sta ora valutando i documenti fatti pervenire da OpenAI, che contengono le misure proposte per risolvere la situazione. Pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, la società americana ha espresso la volontà di collaborare per arrivare ad una positiva soluzione. Dal canto suo il Garante della privacy ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica, chiedendo però che si rafforzino la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori.
Quanto costa ChatGPT
Intanto, emergono altre criticità, di tipo economico ed ambientale, riguardo al chatbot del momento. Innanzitutto, quanto costa far funzionare ChatGPT? Secondo i calcoli di Tom Goldstein, professore associato dell’Università del Maryland, “100.000 dollari al giorno, ovvero tre milioni di dollari al mese. Si tratta però di una stima grossolana, perché in realtà le GPU (unità di elaborazione grafica, ndr) di OpenAI potrebbero non funzionare sempre alla massima potenza”. Il costo reale “dovrebbe facilmente essere superiore alla mia stima – spiega il docente -, perché essa si basa su un’efficienza del 100% nella gestione parallela delle GPU, che è decisamente ottimistica. Tuttavia, i costi diretti di OpenAI potrebbero essere anche più bassi della stima, per via della sua partnership con Microsoft”.
Quanto “beve” ChatGPT: una bottiglia d’acqua a conversazione
Nel dubbio, bisogna considerare anche l’impatto di ChatGPT sull’ambiente, oltre che sul portafoglio. Un software di Intelligenza artificiale come questo, o come Bard di Google, consuma una grande quantità di energia: gli enormi data center richiesti, infatti, devono essere raffreddati utilizzando ingenti quantità di acqua. Per esempio, secondo studio dell’Università del Colorado Riverside e dell’Università del Texas di Arlington, per l’addestramento di ChatGpt-3 sono stati necessari 700.000 litri di acqua dolce, gli stessi che servirebbero per produrre 370 auto Bmw o 320 Tesla. Lo scambio di conversazioni di un utente medio con ChatGPR, invece, equivale al consumo di una bottiglia di acqua.
Quanto tutto questo potrà impattare sulle carenze idriche negli Stati Uniti (vedi allarme siccità per il Colorado River) e nel mondo?
I estimate the cost of running ChatGPT is $100K per day, or $3M per month. This is a back-of-the-envelope calculation. I assume nodes are always in use with a batch size of 1. In reality they probably batch during high volume, but have GPUs sitting fallow during low volume.
— Tom Goldstein (@tomgoldsteincs) December 6, 2022