ChatGPT 3 / L’intelligenza artificiale in grado di scrivere come un essere umano

0
206
intelligenza artificiale ai

ChatGPT 3, è questo il nome della più potente intelligenza artificiale in circolazione. Un modello di linguaggio che permette di produrre testi simili a quelli umani. Ma cos’è un’intelligenza artificiale? E come fa a replicare il modo di scrivere degli umani?

Che cos’è un’intelligenza artificiale

L’intelligenza artificiale è la branca dell’informatica che si occupa della creazione di sistemi informatici a cui vengono attribuite caratteristiche tipiche degli umani. In questo modo si cerca di permettere a questi sistemi di pensare e agire come un vero essere umano. L’obiettivo è rendere migliore e più semplice la nostra vita. I campi di applicazione dell’intelligenza artificiale sono, infatti, molteplici. Essi comprendono l’economia, la legge e la medicina; oggi sistemi di AI, per esempio, vengono utilizzati per supportare le diagnosi mediche. L’intelligenza artificiale però viene utilizzata quotidianamente anche da tutti noi. Basti pensare a programmi come Siri di Apple che permettono di interagire coi nostri smartphone.

Intelligenza artificiale / I paletti dell’Unione Europea

Ovviamente la scienza ancora non è arrivata a creare un’intelligenza artificiale in tutto e per tutto assimilabile a un essere umano. Dopotutto è importante prendere in considerazione le implicazioni etiche che si scontrano con l’IA. L’Unione Europea, ad esempio, ha stabilito un codice etico con delle regole riguardo lo sviluppo e l’utilizzo di sistemi di intelligenza artificiale. Regole che servono a garantire privacy, libertà e uguaglianza tra gli individui. Nel 2021 è stata, inoltre, proposta la Artificial Intelligence Act che classifica le diverse AI in 3 livelli in base al loro rischio. Non mancano inoltre le critiche di chi ha paura che uno sviluppo troppo avanzato delle AI possa arrivare a minacciare la presenza dell’uomo in molti luoghi di lavoro.

Intelligenza artificiale e ChatGPT 3 / Cos’è e come funziona

OpenAI GPT 3

GPT-3 è un’intelligenza artificiale sviluppata da OpenAI. Si tratta del terzo modello di linguaggio in grado di produrre testi che vanno ad imitare il modo di scrivere di un essere umano in carne ed ossa attraverso il deep learning. In questo modo GPT-3 è in grado di creare contenuti online. È possibile, infatti, chiedere all’AI di scrivere una pagina web in quanto essa stessa procederà a generare il codice necessario. GPT-3 però non è solo in grado di creare applicazioni e pagine web; grazie al terzo modello dell’AI è possibile tradurre dei testi, riassumerli e addirittura crearne degli originali.

Per funzionare GPT-3 utilizza dei testi già esistenti come input. Una volta scelto il testo da chi sta utilizzando il modello, esso andrà ad analizzarne il linguaggio. Sulla base del testo input, quindi, l’IA calcolerà la probabilità delle parole di apparire nel testo seguente. In parole povere il programma sulla base di un testo o una domanda cerca di capire in che modo risponderebbe un essere umano. L’analisi del testo input gli permette di prevedere le parole che utilizzerebbe un essere umano. Potremmo paragonare il programma a un bambino che impara nuove parole e che per la prima volta mette insieme le parole apprese per formare diverse frasi.

Rischi e limiti di ChatGPT 3

Come abbiamo visto GPT-3 riesce a svolgere le sue funzioni solo a partire da testi già esistenti. L’AI infatti non è in grado di riconoscere il significato delle parole, e si limita ad associarle tra loro in base a quello che ha analizzato nei testi input. Il che può portare alla creazione di frasi che a livello grammaticale hanno senso ma a livello semantico no. Senza considerare i casi in cui gli stessi testi input presentano degli errori. In quel caso il sistema infatti apprenderà quegli stessi errori.

Alcuni studi hanno inoltre notato come in alcuni casi il sistema rischia di alimentare pregiudizi inquanto associa stereotipi a informazioni etniche, religiose e di genere. Bisogna anche notare il rischio di disinformazione che porta con se l’utilizzo dell’intelligenza artificiale. Questo perché, al contrario di un umano, il programma non è in grado di percepire un testo come vero o falso, né di verificare l’attendibilità delle fondi da cui attinge le parole.

Francesco Guglielmino

Print Friendly, PDF & Email