Quello che c’è da sapere su ChatGPT: un’analisi approfondita – Parte 1

Quello che c’è da sapere su ChatGPT: un’analisi approfondita – Parte 1

Quello che c’è da sapere su ChatGPT: un’analisi approfondita – Parte 1

Nessun commento su Quello che c’è da sapere su ChatGPT: un’analisi approfondita – Parte 1

Sono ormai circa sei mesi che l’attenzione mediatica internazionale, e quella degli investitori, si è spostata dagli NFT, dal Metaverso e dal Web3 al chatbot di OpenAI: ChatGPT. Ogni giorno vengono pubblicati migliaia di articoli, e star dietro a tutti è praticamente impossibile. Provo a fare una sintesi di alcuni punti relativi a questo bot, più da appassionato e interessato alle tecnologie che da esperto.

Articolo a cura di Massimo Manganaro.

Che cosa è ChatGPT

Per i pochi che ancora non lo sanno, ChatGPT è un programma che può per così dire chiacchierare con un utente umano quasi come se fosse umano lui stesso.

Più nel dettaglio, è un sistema di Machine Learning preaddestrato per l’uso, la gestione e la produzione di Modelli di Linguaggio Naturale (LLMs), giunto alla terza versione (GPT3.5). L’addestramento di ChatGPT si è avvalso delle tecniche di apprendimento per Supervisione e per Rinforzo.

Durante l’addestramento, il sistema associa valori statistici (pesi) da 0 a 1 in funzione alla frequenza d’uso delle entità linguistiche immesse; inoltre, aggiusta questi valori in base alle valutazioni (positive o negative) che l’addestratore dà alle ipotesi formulate dal sistema stesso ogni qualvolta gli venga fornito un dato totalmente nuovo.

Sintetizzando e tornando a generalizzare: ChatGPT è una macchina statistica in grado di apprendere, elaborare e produrre espressioni di linguaggio naturale ma non è in grado di comprendere il senso e il significato delle parole adoperate.

La maggior parte dei documenti adoperati in fase di addestramento è ovviamente in inglese. Le altre lingue sono meno presenti. Quindi, sebbene si possa chiacchierare con ChatGPT in italiano, i testi nella nostra lingua sono soprattutto traduzioni in tempo reale dall’inglese.

Lavorando su valori statistici, pur avendo un database ricchissimo, userà sempre i termini più frequenti. Cioè quelli il cui “peso” è più vicino alla media. Ecco perché i testi prodotti da ChatGPT non brillano per costruzione sintattica, né per varietà e qualità dei lemmi, né per espressività. È l’uomo medio. E con tutto il rispetto per l’uomo medio, il linguaggio medio è di media qualità.

Però è una macchina che continua ad apprendere grazie all’interazione con gli utenti che immettono nuovi dati e lo correggono quando sbaglia. Con il tempo dovrebbe migliorare. Tuttavia molti utenti stanno immettendo nel sistema documenti prodotti dal sistema stesso: cioè, si sta addestrando un sistema che produce prodotti di bassa qualità con la stessa bassa qualità. Ora, se sommiamo tra loro prodotti di bassa qualità, la media si sposterà sempre più verso lo zero. Addio espressività linguistica, ricchezza terminologica e miglioramento futuro.

Ancora due cose importanti e da non dimenticare. La sua base di dati è limitata nel tempo e nella quantità: i dati immessi sono fermi al 2021 e non esce nel mondo esterno, non naviga in internet. Inutile chiedergli della guerra in Ucraina scoppiata nel 2022 perché per lui non è mai avvenuta; per lui Giorgia Meloni non è mai stata eletta presidente del Consiglio italiano né Elon Musk ha mai comprato Twitter ecc.; e non ha modo di saperlo.

Ma almeno, ChatGPT è intelligente?

Molto meno del vostro gatto o cane, e un po’ di più della vostra automobile. In ogni caso, dipende da cosa intendiamo per “intelligenza”. Ancora oggi si discute su una definizione condivisa del concetto di intelligenza. Stando alla Treccani l’intelligenza è il “Complesso di facoltà psichiche e mentali che consentono di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e adattarsi all’ambiente.”

Per quanto potente, brava e veloce sia a mettere insieme parole delle quali non capisce il senso, non penso che una macchina statistica rientri in questa definizione. Questo programma è sicuramente veloce nel fare quello che fa, qualunque cosa sia quello che fa.

ChatGPT è senziente?

Ovvero ha una “coscienza”? Bella domanda… se si sapesse cosa sia la “coscienza”! Anche in questo caso, nessuno scienziato, filosofo, psicologo ecc. è ancora oggi in grado di dare una risposta chiara, univoca e condivisa. Ammesso che lo sia, non è senziente come lo può essere un essere umano o il vostro gatto o cane.

Quindi, quando leggete che ChatGPT ha dichiarato il suo amore incondizionato, chiedendo di lasciare il partner per lui o che ha minacciato di impadronirsi dei sistemi informatici del mondo e di sterminare l’umanità, non lo dice perché prova veramente questi sentimenti o perché capisce quello che sta dicendo. Quelle affermazioni sono espresse perché, secondo lui, sono statisticamente più adatte alle affermazioni dell’utente e in base all’andamento del dialogo tenuto con lui.

Si potrebbe obiettare che anche alcuni esseri umani dicono quelle cose e di questi, per fortuna, ancor meno le fanno o ci provano. Quello che differenzia un essere umano da una macchina statistica è l’intenzionalità, la volontà, la finalità che c’è dietro. Questa consapevolezza e finalità manca nella macchina.

Non sono l’unico a pensarla così, e personalmente per me non solo ChatGPT non è senziente, ma neanche tanto intelligente. È uno strumento molto potente, interessante, migliorabile, potenzialmente utile in molti modi e campi, e da studiare. Ma resta uno strumento, come un martello, una calcolatrice, una lavatrice o Word o PhotoShop.

ChatGPT e il Garante per la privacy italiano

Fatte queste premesse, vediamo cosa è successo nel mese di aprile e iniziamo con il fatto che ci riguarda direttamente, in quanto utenti italiani.

Venerdì 31 marzo i giornali pubblicano la notizia che il Garante della Privacy ha bloccato ChatGPT per chi si collega dall’Italia, primo ente al mondo a prendere una decisione di questo tipo. Le motivazioni sono: raccolta illecita di dati personali e assenza di sistemi di verifica dell’età dei minori. Alcuni giornali associano questa decisione ai blocchi, già attivi da tempo e per altri motivi, di Russia, Cina, Siria, Iran e Corea del Nord, come se ci fosse qualche nesso politico comune.

Come sempre l’opinione pubblica si polarizza tra chi è nettamente contrario e chi è favorevole alla decisione. E non sempre con cognizione di causa sui motivi del Garante. Nell’arco delle 24 ore successive si chiarisce cosa stia accadendo. Ma ormai le fazioni sono acquartierate e i contrari chiedono l’immediato sblocco urlando allo scandalo e ironizzando pesantemente.

Facciamo un po’ di chiarezza!

Il Garante non ha bloccato ChatGPT, ma ha limitato provvisoriamente il trattamento dei dati personali degli utenti italiani e notificato una richiesta di chiarimento su probabili violazioni del GDPR, dando 20 giorni per rispondere. È OpenAI che decide unilateralmente di bloccare l’accesso a ChatGPT dall’Italia la sera stessa.

Le richieste del Garante

Il trattamento dei dati personali e le modalità della raccolta: sul sito di OpenAI manca l’informativa agli utenti sulle modalità e finalità che giustifichi la raccolta e il trattamento di una tale mole di dati, presi “a strascico” da internet. Cioè OpenAI ha raccolto tutto quel che ha trovato su internet su ciascuno di noi e lo ha dato in pasto a ChatGPT senza dire nulla ai diretti interessati, non ha chiesto il “consenso”, come richiesto dal GDPR (e non solo).

Cosa comporta: io avrei potuto non volere o non essere interessato a che i miei dati personali e sensibili venissero usati per addestrare una macchina. Oppure, viola il diritto all’oblio di chi lo avesse esercitato successivamente al 2021. E non tiene conto di eventuali correzioni di dati successive al 2021. Ricordate? Il database di ChatGPT è limitato al 2021 e il bot non può sapere cosa sia accaduto negli ultimi due anni.

Secondo problema: la gestione dei dati e la violazione della privacy. OpenAI non ha alcun controllo sui dati inseriti nel database, sulla loro validità e correttezza e ChatGPT può attribuire a soggetti individuabili fatti non più validi, o non corretti, o comunque non (più) autorizzati.

Se non trova l’informazione? La “inventa” con quanto trova nel suo database e che è secondo lui statisticamente più attinente. Cioè, può attribuire fatti e circostanze che non appartengono affatto alla persona in oggetto: si va da fatti relativamente innocui (attribuire pubblicazioni che non sono mai state scritte né dall’autore indicato né in assoluto o elencare come diplomati in una specifica scuola in un dato anno persone che non hanno mai frequentato quella scuola) a eventi diffamatori gravi (dichiarare che un incensurato sia un pregiudicato).

Il terzo punto riguarda l’assenza di un sistema di verifica dell’età per i minori, il che comporta, per usare le parole dello stesso Garante, il rischio di “esporre i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.”

Sviluppi del caso

Il 5 aprile c’è stato un primo incontro in videoconferenza tra le parti. Entrambi hanno esposto le loro posizioni e data la disponibilità a collaborare per risolvere i nodi. Dopo un secondo incontro, l’11 aprile, il tempo limite per mettersi in regola è stato indicato al 30 aprile. Se per questa data OpenAI avrà risolto tutti i punti, verrà sospeso l’attuale blocco.

E nel resto del mondo?

Dopo la decisione del Garante italiano, anche gli analoghi organi di Francia, Germania, Irlanda e Norvegia si sono mossi, chiedendo informazioni all’ente italiano e mettendo sotto osservazione OpenAI.

A livello comunitario si è proceduto alla creazione di una task force dedicata a ChatGPT e si sta lavorando a una maggiore definizione delle regole che confluiranno nell’Artificial Intelligence Act.

Il Canada ha aperto un’indagine su OpenAI a seguito di una denuncia relativa alla raccolta, all’uso e la divulgazione di informazioni personali senza consenso.

Negli stessi Stati Uniti, il Center for AI and Digital Policy ha presentato una denuncia presso il Federal Trade Commission per possibili minacce e violazioni della tutela dei consumatori che possono arrivare dallo sviluppo della nuova versione del modello di ChatGPT di OpenAI, il modello GPT4, rilasciato ad accesso limitato nella seconda metà di marzo.

Un sindaco australiano ha denunciato OpenAI per diffamazione dopo che ChatGPT aveva dichiarato essere stato condannato per corruzione. Cosa non vera. Sono seguiti casi analoghi in tutto il mondo.

In casa Samsung ci sono state tre fughe di dati in 20 giorni per colpa dell’uso un po’ incosciente e leggero della chat. Tre dipendenti, per velocizzare e semplificare il loro lavoro, hanno copiato e incollato nel sistema intere parti di codice e modelli di test (segreti proprietari ancora in fase di sviluppo ecc.) per individuare eventuali errori e ottimizzarli, o le registrazioni di riunioni per averne una sintesi e preparare delle presentazioni.

I dipendenti non hanno pensato però che ChatGPT incamera tutte le informazioni che gli utenti immettono durante le loro interazioni e poi le ricicla per rispondere agli altri utenti, con buona pace del segreto industriale.

Già prima nel mese di marzo, c’è stata una pesante violazione della sicurezza del sistema: le conversazioni tra numerosi utenti e il bot erano diventate accessibili da altri utenti e rese pubbliche su Reddit e Twitter.

Ogni giorno vengono alla luce nuovi problemi riguardo la privacy, la sicurezza e il trattamento dei dati da parte di ChatGPT.

Ma vorrei portare la vostra attenzione ancora su un altro aspetto.

Copilot

Microsoft è uno dei maggiori finanziatori di OpenAI e ha deciso di implementare il sistema che è alla base di ChatGPT in tutti i suoi prodotti sotto il nome di Copilot: dagli ecosistemi Office, Azure e il nuovissimo Loop al servizio di allocazione dei software GitHub. Copilot dovrebbe aiutare gli utenti nello svolgimento dei loro lavori. Per fare ciò qualsiasi cosa venga sviluppata o immessa usando questi prodotti verrà ingerita, digerita e riutilizzata da Copilot negli usi futuri.

E sebbene si diano garanzie di sicurezza e privacy e che Copilot presenta solo i dati ai quali è possibile accedere e solo a chi è autorizzato, non esiste un Copilot unico per ciascun utente, ma ne esiste uno che aiuta tutti gli utenti. Come diceva quel politico un tempo: a pensar male si fa peccato, ma raramente si sbaglia…

Non resta che attendere gli sviluppi alla scadenza del 30 aprile indicata dal Garante per la privacy, di cui vi darò conto nella seconda parte.

Per approfondire:

Minacce e opportunità che ChatGPT offrirebbe ai content creator

ChatGPT: lo stagista inaspettato che alcuni vorrebbero accanto

 

Se vi è piaciuto questo articolo condividetelo nei social oppure seguite gli aggiornamenti del blog iscrivendovi alla newsletter. In regalo riceverete utili risorse gratuite.

 

Foto di: ThankYouFantasyPictures da Pixabay

Chi lo ha scritto:

Mi occupo di comunicazione nel web, in editoria e in televisione. Mi incuriosisce un po’ di tutto, dal campo umanistico a quello tecnico-scientifico. Navigo in Internet dai tempi delle BBS e di Mosaic. Per me il Web è uno strumento per la massima diffusione della Conoscenza.

Cosa ne pensi?

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Ti do il benvenuto sul mio sito

Mi chiamo Anna Colagè e sono UX writer, copywriter, content strategist e localizzatrice: progetto, scrivo e localizzo contenuti per il web per attrarre, fidelizzare e coccolare gli utenti che visitano le tue pagine web. Come posso aiutarti?

 

Io utilizzo Iubenda. Voglio provarlo anch’io!

Privacy Policy Cookie Policy

Entriamo in contatto?

Con piacere! Ti scrivo a infoATannacolage.it ma potrei voler fare due chiacchiere con te e allora

 

Saggezza dal passato

Piccole opportunità sono spesso l’inizio di grandi imprese” Demostene, IV sec. a.C.

 

Vuoi approfondire la content strategy, lo UX writing, il content marketing, la localizzazione e l’IA generativa e ricevere risorse gratuite?

Torna su