METÀ di noi non può dire se la copia è stata scritta da ChatGPT o da un essere umano

Più della metà delle persone non è in grado di identificare se le parole siano state scritte da chatbot di intelligenza artificiale come ChatGPT, ha dimostrato una nuova ricerca, e la generazione Z è la peggiore.

I ricercatori hanno scoperto che il 53% delle persone non ci è riuscito individua la differenza tra i contenuti prodotti da un essere umano, un’intelligenza artificiale o un’intelligenza artificiale modificata da un essere umano.

Tra i giovani di età compresa tra 18 e 24 anni, solo quattro su 10, dove le persone di età pari o superiore a 65 anni sono state in grado di individuare correttamente i contenuti AI più della metà delle volte.

Arriva tra i timori che ChatGPT e bot simili possano minacciare il lavoro dei colletti bianchi.

Un nuovo sondaggio ha dimostrato che solo quattro persone su 10 di età compresa tra 18 e 24 anni possono individuare la differenza, mentre le persone di età superiore ai 65 anni non si lasciano ingannare facilmente: il 52% di questo gruppo ha identificato correttamente i contenuti generati dall’intelligenza artificiale

Robert Brandl, CEO e fondatore della società di revisione di strumenti web Tooltester, che ha condotto l’ultimo sondaggio, ha dichiarato a DailyMail.com: “Il fatto che i lettori più giovani fossero meno esperti nell’identificare i contenuti AI è stato sorprendente per noi.

“Potrebbe suggerire che i lettori più anziani siano attualmente più cinici nei confronti dei contenuti di intelligenza artificiale, specialmente visto che ultimamente è una cosa così importante nelle notizie.

‘I lettori più anziani avranno una base di conoscenze più ampia da cui attingere e potranno confrontare le percezioni interne su come una domanda dovrebbe ricevere una risposta migliore di una persona più giovane, semplicemente perché hanno avuto molti più anni di esposizione a tali informazioni.

“Uno studio dell’Università della Florida ha dimostrato che in realtà il pubblico più giovane è suscettibile alle notizie false online quanto le generazioni più anziane, quindi essere giovani e potenzialmente più esperti di tecnologia non è una difesa dall’essere ingannati dai contenuti online”.

La ricerca ha anche scoperto che le persone credono che dovrebbero esserci avvertimenti che l’intelligenza artificiale è stata utilizzata per produrre contenuti.

Ha coinvolto 1.900 americani a cui è stato chiesto di determinare se la scrittura è stata creata da un essere umano o da un’intelligenza artificiale, con contenuti che spaziano tra campi, tra cui salute e tecnologia.

La familiarità con l’idea di “IA generativa” come ChatGPT sembrava aiutare: solo il 40,8% delle persone non aveva familiarità con ChatGPT ed è il tipo che potrebbe identificare correttamente i contenuti AI.

Più di quattro persone su dieci (80,5%) ritengono che le aziende che pubblicano blog o articoli di notizie dovrebbero avvisare se l’IA è stata utilizzata.

Quasi tre quarti (71,3%) ha affermato che si fiderebbero meno di un’azienda se avesse utilizzato contenuti generati dall’intelligenza artificiale senza essere chiari al riguardo.

“I risultati sembrano mostrare che il pubblico in generale potrebbe aver bisogno di fare affidamento sulle rivelazioni di intelligenza artificiale online per sapere cosa è stato creato e cosa non è stato creato dall’IA, poiché le persone non possono distinguere tra contenuto umano e contenuto generato dall’IA”, ha affermato Brandl.

“Siamo rimasti sorpresi nel vedere con quanta facilità le persone considerassero la scrittura di intelligenza artificiale una creazione umana. I dati suggeriscono che molti hanno fatto ricorso a supposizioni perché semplicemente non erano sicuri e non potevano dirlo.’

Brandl ha anche affermato che molti nel sondaggio sembravano presumere che qualsiasi copia fosse generata dall’intelligenza artificiale e che tale cautela potrebbe essere utile.

Strumenti come ChatGPT sono noti per l’aggiunta di errori fattuali nei documenti e nelle ultime settimane i ricercatori di sicurezza informatica hanno avvertito che possono essere utilizzati come strumenti per frode.

La ricerca arriva mentre i ricercatori della sicurezza informatica hanno avvertito di un’ondata imminente di attacchi di phishing e frodi scritti dall’intelligenza artificiale.

Nei test, le persone non possono dire se ChatGPT o un essere umano ha scritto il testo

Nei test, le persone non possono dire se ChatGPT o un essere umano ha scritto il testo

Il sondaggio ha coinvolto 1.900 americani a cui è stato chiesto di determinare se la scrittura è stata creata da un essere umano o da un'intelligenza artificiale, con contenuti che spaziano tra campi, tra cui salute e tecnologia

Il sondaggio ha coinvolto 1.900 americani a cui è stato chiesto di determinare se la scrittura è stata creata da un essere umano o da un’intelligenza artificiale, con contenuti che spaziano tra campi, tra cui salute e tecnologia

I giovani erano i più facilmente ingannabili, secondo la ricerca

I giovani erano i più facilmente ingannabili, secondo la ricerca

La società di sicurezza informatica Norton ha avvertito che i criminali si stanno rivolgendo a strumenti di intelligenza artificiale come ChatGPT per creare “esche” per derubare le vittime.

Un rapporto su New Scientist ha suggerito che l’utilizzo di ChatGPT per generare e-mail potrebbe ridurre i costi per le bande di criminali informatici fino al 96%.

“Abbiamo scoperto che spesso i lettori presumono che qualsiasi testo, umano o IA, sia stato generato dall’IA, il che potrebbe riflettere l’atteggiamento cinico che le persone stanno assumendo nei confronti dei contenuti online in questo momento”, ha affermato Brandl.

“Questa potrebbe non essere un’idea così terribile poiché la tecnologia dell’IA generativa è tutt’altro che perfetta e può contenere molte imprecisioni, un lettore cauto potrebbe avere meno probabilità di accettare ciecamente il contenuto dell’IA come un dato di fatto.”

I ricercatori hanno scoperto che la capacità delle persone di individuare i contenuti generati dall’intelligenza artificiale variava in base al settore: i contenuti sulla salute generati dall’intelligenza artificiale sono stati in grado di ingannare maggiormente gli utenti, con il 56,1% che pensava erroneamente che i contenuti di intelligenza artificiale fossero stati scritti da un essere umano o modificati da un essere umano.

La tecnologia era il settore in cui le persone potevano individuare più facilmente i contenuti generati dall’IA, con il 51% che identificava correttamente i contenuti generati dall’IA.

Secondo la società di analisi SimilarWeb, ChatGPT ha registrato una media di 13 milioni di utenti al giorno a gennaio, rendendola l’app Internet in più rapida crescita di tutti i tempi.

TikTok ha impiegato circa nove mesi dopo il suo lancio globale per raggiungere 100 milioni di utenti e Instagram più di due anni.

OpenAI, una società privata sostenuta da Microsoft Corp, ha reso ChatGPT disponibile al pubblico gratuitamente alla fine di novembre.

Leave a Reply

Your email address will not be published. Required fields are marked *