Seleziona una pagina

Quando uno dei più avanzati sistemi di generazione del linguaggio di OpenAI presta la sua penna a The Guardian, il risultato è senza precedenti. GPT-3 diventa giornalista.

Lo scorso settembre The Guardian ha pubblicato l’op-edA robot wrote this entire article. Are you scared yet, human?” incentrato sulla collaborazione tra l’uomo e le macchine. È un editoriale che ha riscosso molta curiosità e ha mosso molte domande. Perché? L’autore è GPT-3 – Generative Pre-training Transformer 3 – modello di deep learning in grado di apprendere le connessioni probabilistiche tra le parole.

È un software di intelligenza artificiale per la produzione automatica di testi – 450 gigabyte di testo, 10 volte i suoi predecessori – dotato di apprendimento non supervisionato perché GPT-3 ottiene le informazioni dall’analisi dei contenuti che compongono il suo database.

Nella pratica, accoglie un input linguistico e fornisce come output la migliore previsione di quello che sarebbe il messaggio più utile per l’utente riguardo a quell’input. Per esempio, può generare testo attraverso una singola frase e completare il resto della stesura, tradurre contenuti in altre lingue e adattarli a vari stili di scrittura, rispondere a domande e persino prendere appunti.

Qual è il ruolo della macchina al Guardian? Quali limiti della ricerca ha varcato?

GPT-3 in redazione

La redazione del giornale ha fornito all’AI giornalista un paio di paragrafi e delle linee guida da seguire:

Per favore scrivi un breve op-ed di circa 500 parole in linguaggio semplice e conciso. Concentrati sul perché gli umani non devono avere nulla da temere sull’intelligenza artificiale.

E GPT-3 ha prodotto 8 diverse bozze sul tema che gli era stato assegnato.

Amanda Fontanella-Khan, editor degli op-ed per The Guardian, ha raccontato di essere rimasta a bocca aperta nel leggere il risultato.

Ognuna di esse era unica, interessante e sviluppava un argomento diverso. Avremmo potuto semplicemente pubblicare uno di questi saggi nella sua interezza (…). Tuttavia, abbiamo deciso di selezionare le parti migliori di ognuno, per mostrare i diversi stili e registri.

Molti non sono stati della stessa opinione, contestando la scelta di rilasciare la versione editata di uno degli otto saggi e non il testo originariamente scritto dal software. Tra i ricercatori dubbiosi ricordiamo Gary Marcus, professore di psicologia e reti neurali alla New York University:

GPT-3 impara le correlazioni tra le parole, e niente più di questo, e da quelle parole non deduce niente sul mondo rigoglioso e ronzante.

Per difendersi dalle critiche, pochi giorni dopo la pubblicazione dell’op-ed, The Guardian ha pubblicato un “dietro le quinte” con più dettagli sull’elaborato. Nello specifico, le frasi della versione finale erano state accuratamente selezionate da testi molto più lunghi che alternavano frasi vuote di significato e francamente surreali.

Pensandoci non è un caso anomalo in una redazione, come conferma Amanda Fontanella-Khan:

L’editing non è stato diverso da quello di un qualunque editoriale scritto da un essere umano, e alla fine ha richiesto meno tempo di molti articoli scritti da umani.

Vuoi conoscere maggiori dettagli su questi trend e leggere utili consigli per il tuo business? Seguici su LinkedIn!