Scienza & Tecnologia

The Guardian pubblica un editoriale scritto da un IA!

The Guardian pubblica un editoriale scritto da un IA!

Di recente, il quotidiano britannico The Guardian ha affidato la redazione di un suo editoriale a un’intelligenza artificiale. Questo non è altro che GPT-3, sviluppato dalla società OpenAI. Tuttavia, questa iniziativa non sembra aver attirato alcuni esperti che hanno criticato il modus operandi.

Un articolo scritto da GPT-3

“Questo articolo è stato scritto da un robot, hai ancora paura degli umani?” , questo il titolo di un articolo pubblicato su The Guardian l’8 settembre 2020. A penna troviamo GPT-3, un’intelligenza artificiale ideata da OpenAI. Recentemente, è stato pubblicizzato dopo che uno studente negli Stati Uniti lo ha utilizzato per produrre un falso post sul blog. Tuttavia, questo post era arrivato al primo posto sui media Hacker News .

GPT-3 è un generatore di linguaggio . Attraverso di essa, OpenAi voleva dimostrare che gli esseri umani non avevano nulla da temere dai robot. A proposito, questo è un postulato che va contro ciò che pensava il fisico Stephen Hawking . Infatti, il defunto ha parlato nel 2016 della possibilità che l’intelligenza artificiale potesse causare la fine della razza umana.

IA

Alcuni limiti all’esperienza

Per quanto riguarda l’articolo del The Guardian, il testo è coerente e piuttosto convincente . A prima vista, questo articolo testimonia una rivoluzione nell’IA. In effetti, sapevamo che gli algoritmi erano in grado di scrivere articoli da informazioni grezze. D’altra parte, era ancora difficile immaginare che questi potessero spingere l’analisi molto oltre , che è più su un argomento del genere. Tuttavia, l’esperienza del quotidiano britannico deve affrontare alcune limitazioni.

I giornalisti hanno menzionato in particolare il fatto che l’IA aveva generato non meno di otto versioni di questo editoriale. Tuttavia, risulta che la redazione ha selezionato alcuni passaggi di questi articoli per formare la pubblicazione finale. In altre parole, è impossibile sapere se i testi originali contenessero aberrazioni o parti scritte male, o addirittura incomprensibili.

Alcuni esperti sono scettici

Tuttavia, i giornalisti hanno affermato che alcuni articoli avrebbero potuto essere pubblicati nella loro interezza. Quest’ultimo, tuttavia, ha preferito conservare estratti di ciascuna delle prove al fine di mostrare i diversi registri che l’IA era in grado di produrre. Inoltre, la redazione precisa che il lavoro di editing ha richiesto meno tempo che se fosse stato interamente umano.

In un articolo pubblicato lo stesso giorno da The Next Web , alcuni specialisti erano scettici. Questo è in particolare il caso di Daniel Leufer, che lavora per la società Mozilla. Non ha usato mezzi termini e ha descritto l’esperienza come uno “scherzo assoluto”. Secondo lui, sarebbe stato interessante vedere i primi articoli nella loro interezza. Per l’esperto, questo modo di modificare purtroppo contribuisce al clamore e alla disinformazione sull’intelligenza artificiale.

Scarica gratis la nostra App da Googe Play Store

Related Articles

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button

Adblock Detected

Il nostro sito Web fruisce i contenuti gratuitamente grazie alle pubblicità che aiutano a sostenere i costi . Considera di supportarci disabilitando il blocco degli annunci.