Senza che noi ne siamo consapevoli, siamo già abituati a compiere determinate azioni quotidiane senza percepire la presenza dell’intelligenza artificiale.
I nostri feed sui social e tutte le operazioni di e-commerce sono gestiti tramite algoritmi intelligenti, capaci di proporci e personalizzare i contenuti per noi più interessanti o appetibili.
Ma se io dichiarassi che anche la semplice operazione di leggere un quotidiano durante il caffè mattutino coinvolge l’intelligenza artificiale, potreste crederlo?
Oggi l’intelligenza artificiale è in grado di raccogliere e analizzare dati e redigere un articolo.
Questa tecnologia viene già utilizzata da media specializzati nelle informazioni, consentendo loro di produrre un gran numero di articoli, distribuirli in modo massiccio e risparmiare denaro.
Il giornalista scopre, esamina, sceglie e redige notizie, per diffonderle tramite i suoi canali stampa. Si dà per assodato che tali operazioni possano essere svolte soltanto da un umano.
Eppure, risale a fine maggio 2020 la notizia del Seattle Times secondo la quale MSN, il portale di news di Microsoft, avrebbe licenziato 50 dipendenti per sostituirli con l’intelligenza artificiale.
I giornalisti-software basati sull’intelligenza artificiale sono in grado di creare autonomamente contenuti, interpretare, organizzare e presentare agli uomini i dati in modo leggibile, e infine programmare la pubblicazione.
Il giornalismo algoritmico, come viene chiamato in alcune pubblicazioni scientifiche, viene già impiegato da significative testate del settore come Forbes, The New York Times o Los Angeles Times.
Senz’altro, i giornalisti potrebbero essere istintivamente considerati migliori storytellers.
Eppure, un recente studio del settore condotto da Thomas Baekdal, un ricercatore dell’Università svedese di Karlstad, ha confutato tale assunto, applicando il famoso test di Turing e chiedendo agli studenti di valutare notizie scritte da giornalisti e dall’algoritmo.
I risultati sono sorprendenti: nel caso di articoli scritti dall’algoritmo, gli studenti hanno decretato che gli stessi fossero scritti da esseri umani. Ed il contrario, nel caso inverso.
L’unica piccola differenza è che gli articoli scritti dai giornalisti hanno dato l’impressione di essere scritti meglio, nonostante gli stessi apparissero meno utili, informativi e affidabili.
Il giornalismo automatizzato si basa su algoritmi che scansionano un’ampia rete di dati e generano un vero e proprio ‘pezzo’ utilizzando strutture già preimpostate. Si occupano quindi di inserire nomi, luoghi, quantità, statistiche, classifiche o altri elementi relativi al tema specifico.
Il suo utilizzo si sposa perfettamente per articoli su competizioni sportive, elezioni, incontri, meteo. Temi che forniscono informazioni fattuali e dati senza dover inserire un’analisi o un commento. Il giornalista robot si occupa della creazione dell’articolo, ma anche dell’impaginazione e di mandarlo online. Il contenuto può essere poi condiviso sui canali social e altri siti.
Un’altra possibilità abbraccia giornalismo e traduzione automatizzata. Il robot giornalista può selezionare e tradurre articoli o informazioni da testate estere fornendo così una copertura di fatti interessanti su scala internazionale.
L’uso delle tecnologie presenta per le testate giornalistiche e d’informazione uno strumento da cui trarre dei benefici: una macchina è in grado di lavorare ad alta velocità generando un articolo in un istante. Può dunque produrre un alto volume di articoli in brevissimo tempo. Inoltre, con le giuste impostazioni, il robot giornalista è in grado di generare articoli di qualità. Il suo lavoro si basa su un numero di fonti possibilmente molto ampio che permette di includere tutte le informazioni presenti sul web. L’uso corretto della grammatica e dell’ortografia è assicurato, oltre a un uso corretto delle parole chiavi e dell’impaginazione per la massima copertura in rete.
L’uso dell’intelligenza artificiale nel giornalismo libera i giornalisti da attività ripetitive e consente di gestire meglio il tempo di lavoro. Il giornalista non dovrà lavorare a notizie per riportare fatti o descrivere dati, ma può concentrarsi sulla produzione di articoli che forniscano analisi di altra natura.
Eppure, com’è facile immaginare, ci sono anche diversi limiti che l’intelligenza artificiale non riesce a superare.
Una macchina non potrà leggere le notizie con occhio critico, motivo per cui non può essere applicata per argomenti per la quale non sono disponibili dati strutturati, o quando le informazioni siano poco chiare e non univoche.
La velocità di diffusione lo renderebbe uno strumento di diffusione di fake news e di brutte figure per le aziende. Come è successo a Microsoft con un articolo automatizzato caduto nel razzismo, o alla BBC che ha usato la foto del giocatore di basket LeBron nel parlare della morte del collega Kobe Bryant.
I contenuti generati automaticamente inoltre non contribuiscono all’identità della testata, perché risulta oltremodo difficoltoso creare un algoritmo che segua le linee editoriali. In generale, gli articoli prodotti dai giornalisti robot possono essere applicati solo per informazioni “fattuali” e quindi molto semplici. Non possono spiegare trend e fenomeni, oppure adempiere ad alcune funzioni complesse come orientare o formare l’opinione pubblica.
L’applicazione dell’intelligenza artificiale ha sempre prodotto un certo livello di scetticismo, in ogni campo. Il robot non viene visto come una risorsa per migliorare il lavoro umano ma più come un pericolo per la professione e i posti di lavoro.
Ma anche in questo caso sembra più una questione accademica che un problema reale: i lettori sapranno sempre cosa e come leggere. Se quello che vorranno è sapere il risultato di una partita di calcio, o aggiornarsi sui risultati delle elezioni, potranno leggere un contenuto generato dall’intelligenza artificiale che presenta dati e fatti. Se invece desidereranno un’analisi sul ruolo della squadra o un commento sulla situazione politica di un Paese, troveranno un articolo scritto da un giornalista.
Inoltre, occorre specificare che questa risposta è già stata fornita dai diretti interessati.
A precisa domanda, GPT-3, il più potente generatore di linguaggio di OpenAI che lavora come giornalista per The Guardian, ha dichiarato: «Non desidero spazzare via gli umani. Mi sembrerebbe un compito piuttosto inutile.»