Era inevitabile. Dopo scuola, articoli di giornale e documenti, Chat Gpt fa il suo esordio in Parlamento. Nel corso dell’audizione del sottosegretario all’Editoria Barachini alla Camera sulla libertà dei media in Europa, il presidente della VII Commissione Mollicone ha interrogato direttamente Chat Gpt su diritto d’autore e tutela della creatività.
L’esordio di Chat Gpt in Parlamento
A Federico Mollicone, deputato di Fratelli d’Italia e presidente della Commissione Cultura, va il merito di aver fatto esordire Chat Gpt in Parlamento. In chiusura di seduta ha interrogare in tempo reale direttamente l’intelligenza artificiale. Così Chat Gpt ha per la prima volta partecipato – con tanto di messa a verbale – a una riunione di una commissione parlamentare.
La domanda è stata: “Pensi di essere una minaccia per la creatività e il diritto d’autore?“. In pochi secondi la risposta: “Come modello di linguaggio non sono una minaccia per la creatività o il diritto d’autore. Sono stato programmato per generare risposte basate su informazioni che mi sono state fornite durante il mio addestramento, ma non sono in grado di creare niente di nuovo da solo. Inoltre, rispetto al diritto d’autore sono programmato per non violarlo“.
“Tuttavia – prosegue il testo prodotto da Chat Gpt -, la tecnologia di intelligenza artificiale che mi ha creato potrebbe essere utilizzata in modo improprio da alcuni utenti per violare i diritti d’autore per creare contenuti che imitano strettamente il lavoro di altre persone. E’ importante che le persone che utilizzano questa tecnologia rispettino il diritto d’autore e agiscano in modo responsabile e legale quando creano contenuti”.
Il commento di Mollicone
“Se da un lato – spiega Mollicone ad AgenziaCULT a margine dell’audizione – Chat Gpt conferma che le sue risposte non sono risposte originali e che non è programmata per violare il diritto d’autore. Tuttavia, nel testo che ha restituito l’interrogazione, si conferma che ‘l’intelligenza artificiale potrebbe essere utilizzata con questa finalità nel caso qualcuno decidesse di farne un uso fraudolento“. Questo, aggiunge il presidente della VII Commissione, preoccupa perché è la stessa openAI a “rivelare che potenzialmente potrebbe avere questa facoltà”. E “la preoccupazione aumenta“, ha chiosato lo stesso sottosegretario Barachini al termine della lettura della risposta dell’intelligenza artificiale