News Secondaria di secondo grado Informatica Intelligenza artificiale

Intelligenza Artificiale - cosa c’è dietro ChatGPT

di  Emil Dari

Scarica l'articolo in PDF

ChatGPT è stato rilasciato da OpenAI nel novembre 2022, diventando immediatamente il Chatbot AI più noto e diffuso al mondo, contribuendo a far esplodere l’interesse verso il settore dell’intelligenza artificiale. Secondo alcuni studi è diventata l’applicazione con la crescita più rapida della storia di Internet, con oltre 100 milioni di utenti attivi in due mesi.

Un Chatbot AI non è altro che un tool che permette agli utenti di avere conversazioni simili a quelle umane generando un testo in risposta ai messaggi dell’utente, detti prompt. Ma come funziona questa tecnologia? Chat GPT, come altri chatbot, si basa su due componenti fondamentali:

  • Large Language Models (LLM): modelli di linguaggio
  • Transformer Neural Network (NN): reti neurali 

Le reti neurali sono algoritmi composti da nodi interconnessi chiamati neuroni. I neuroni sono unità di calcolo associate a funzioni matematiche pensate per imitare il funzionamento dei neuroni umani. A ogni connessione è associato un peso che influenza il flusso di informazioni nella rete. I neuroni sono raggruppati in diversi livelli e avere una rete con tanti livelli significa avere una rete profonda, o  Deep Neural Network, da cui deriva il Deep Learning.

I modelli linguistici di grandi dimensioni (LLM) sono l’anello di congiunzione tra i modelli di elaborazione del linguaggio naturale (NLP) e il Deep Learning. Questi modelli, composti da reti neurali con milioni di neuroni e miliardi di connessioni sono in grado di generare un testo leggibile dall’uomo in varie lingue e imparano a generare un testo.

I Transformer in questo caso non sono robot antropomorfi che si trasformano in automobili, come abbiamo visto al cinema, masono una tipologia di rete neurale in grado di comprendere il contesto di una sequenza di parole grazie a un concetto chiamato attenzione. L’attenzione permette di assegnare un diverso livello di rilevanza alle varie parti di una frase in base al significato semantico e alla posizione degli elementi che la compongono.

Questi modelli vengono pre-addestrati in modo automatico (non supervisionato) su una mole di dati raccolti da Internet e vengono sottoposti a un addestramento supervisionato dall’uomo per perfezionarne l’accuratezza.

Un Chatbot intelligente (ma che ancora non si applica)

Chat GPT basa quindi tutta la sua conoscenza sui dati con i quali è stato addestrato e risponde in base a un sofisticato modello matematico. Proprio per questo è stato definito come un ‘pappagallo stocastico’ (stochastic parrots) in quanto la sua intelligenza consisterebbe nel rielaborare conoscenza senza generare nulla di nuovo, anche se alcuni stanno iniziando a teorizzare come questo tipo di modelli possa anche agire a un livello più profondo.

I modelli come Chat GPT permettono di effettuare conversazioni simili a quelle umane e generare un testo grammaticalmente corretto, possono quindi rispondere alle domande, riassumere un testo e tradurlo in diverse lingue. Possono inoltre migliorare nel tempo grazie ai feedback e all’apprendimento continuo. Per contro però, sono proni a errori di vario tipo: per esempio possono dare risposte plausibili ma sbagliate, perché la veridicità delle informazioni su cui si basa il loro addestramento non è verificata; oppure possono costruire delle risposte assurde quando non capiscono la domanda. Infine, la loro conoscenza si ferma a un certo istante nel tempo che dipende dalla versione del modello: quanto successo dopo è per loro una pagina bianca.

Approfondimenti