Vai al contenuto

L’algoretica ai tempi di ChatGPT

fake papa francesco piumino
Tempo di lettura - 7 minuti

ChatGPT e l’Intelligenza Artificiale Generativa (Generative AI), in grado di emulare il ragionamento e linguaggio umano, sono in questi giorni al centro dell’attenzione collettiva.

Non più per le recenti foto (assolutamente false) dell’arresto di Donald Trump o del Santo Padre con il piumino.

A quelle ormai ci siamo abituati: ci crediamo, salvo poi riderci sopra quando ci viene detto che sono false.

L’indignazione e il dibattito si è infervorato dopo che il Garante della Privacy italiano ha imposto a una società statunitense, OpenAI, la limitazione provvisoria, ma con effetto immediato, del trattamento dei dati degli utenti italiani.

In attesa di una strategia europea (e non solo) in materia di Intelligenza Artificale, ecco innescato l’effetto domino: anche Francia, Germania, Irlanda stanno valutando di intervenire nei confronti della società.

In Canada Il garante della privacy federale ha già aperto un’istruttoria.

OpenAI forse non ti dirà molto, ecco perchè è meglio parlare subito del servizio offerto da questa: ChatGPT.

ChatGPT e il blocco in Italia

ChatGPT è la piattaforma di Intelligenza Artificiale (AI) e apprendimento automatico in grado di imitare il linguaggio umano e generare testi, immagini, video.

Contenuti che sembrano sempre più autentici. Sembrano.

Alla portata di chiunque.

Basti pensare che in soli due mesi dal lancio ha raggiunto 100 milioni di utenti attivi.

Il Garante della Privacy lo scorso 31 marzo è intervenuto nei confronti di OpenAI dopo aver rilevato:

  • la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti;
  • l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali per “addestrare” la piattaforma;
  • l’assenza di “qualsivoglia filtro per la verifica dell’età degli utenti”, nonostante in Italia viga il limite dei 13 anni di età per l’iscrizione a social e app (es Messanger, WhatsApp, Telegram).

OpenAI avrà 20 giorni di tempo per rispondere al Garante (pena un’importante sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo) e in una prima fase interlocutoria, avvenuto lo scorso 5 Aprile, si è resa disponibile a collaborare con l’Autorità italiana e giungere a una soluzione condivisa.

Nel frattempo però ha scelto, in autonomia, di oscurare il servizio ChatGPT in Italia.

Servizio divenuto di fatto non fruibile solo per coloro che non sanno usare strumenti tecnologicamente più avanzati come:

  • Application Programming Interface (API): interfacce per accedere alle funzionalità del modello sottostante a ChatGPT che agevolano programmazione e integrazione tra applicazioni;
  • Virtual Private Network (VPN): strumento ampiamente utilizzato quando si vuole far credere di navigare Internet da un’altra località geografica ed aggirare così eventuali censure.

La scelta ha fatto insorgere il mondo del Web e l’opinione pubblica (così come la politica italiana) si è spaccata tra favorevoli e contrari all’intervento del Garante.

robot responsabilita
Foto di Andy Kelly su Unsplash

[AGGIORNAMENTO del 28 Aprile 2023: ChatGPT torna disponibile in Italia, segno concreto del disgelo tra il Garante della privacy italiano e la startup americana]

La pericolosità dell’Intelligenza Artificiale

In realtà a non parlare di privacy ma sollevare dubbi in merito all’Intelligenza Artificiale ci avevano già pensato gli stessi fondatori di OpenAI.

Le loro dichiarazioni in merito infatti si sono accentuate in occasione dell’uscita di GPT-4, il modello utilizzato per alimentare ChatGPT e nettamente migliore rispetto alle versioni precedenti.

Elon Musk, uscito dall’azienda nel 2019, ha chiesto a gran voce, in una lettera aperta firmata da più di 1.000 esperti del settore tech, una pausa di sei mesi allo sviluppo di nuovi sistemi:

«I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità» e quindi «invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l’addestramento»

Sam Altman, ideatore e CEO di OpenAI, paventa un ipotetico scenario Terminator:

«Sono soprattutto preoccupato che questi modelli possano essere usati per la disinformazione su larga scala. Inoltre, migliorando sempre di più nella scrittura di codice informatico, potrebbero anche essere usati per eseguire cyber-attacchi»

Preoccupazioni un po’ tardive e che fanno pensare più ad un’azione di marketing se si pensa a come, quotidianamente, siamo testimoni dei rischi (es fake news, phishing) e delle opportunità (es produrre velocemente dati sintetici) di questi strumenti.

Proprio il Santo Padre, pochi mesi fa, ricevendo in udienza i firmatari del documento “Rome Call for A.I. Ethics” (sull’uso etico dell’Intelligenza Artificiale) e alcune delegazioni dal mondo ebraico e musulmano (per un approccio condiviso a un uso non discriminatorio delle tecnologie), ci ha perentoriamente richiamato a concetti di etica e rispetto.

«Non è accettabile che la decisione sulla vita e il destino di un essere umano vanga affidata ad un algoritmo. La Rome Call può essere un utile strumento per un dialogo comune tra tutti, al fine di favorire uno sviluppo umano delle nuove tecnologie»

Ecco perché in questa occasione preferiamo ripartire da questi concetti. Lasciando alla nostra autrice, Suor Cecilia, la guida in questo viaggio.

Algoretica

Un’etica per l’Intelligenza Artificiale, un’algoretica come la definiscono alcuni.

Qualcosa che può forse apparire così lontana dalla nostra quotidianità e che invece ci riguarda tutti fin d’ora.

Social, motori di ricerca, riconoscimento facciale e vocale: in tutti questi casi entriamo in contatto, che lo sappiamo o no, con sistemi di Intelligenza Artificiale. Ma di cosa si tratta concretamente?

Potremmo dire che è l’applicazione di sistemi di apprendimento che permettono ai dispositivi di imparare attraverso le informazioni che ricevono.

Mentre le ‘macchine’ a cui eravamo abituati, erano programmate una volta per tutte i dispositivi di Intelligenza Artificiale, invece, sono programmati esattamente ad imparare dalle informazioni che riceveranno nel tempo.

Quando tu apri il tuo profilo Facebook o acquisti il tuo cellulare, quel dispositivo non sa nulla di te. Ma pian piano impara a conoscerti, conoscerà le tue preferenze e abitudini e utilizzerà questi dati per fornirti un servizio personalizzato.

È evidente che questa tecnologia, che permette di garantire una prestazione sempre più sofisticata e precisa al servizio della persona nei più diversi campi (quello della comunicazione, ma, ad esempio, anche in campo medico), apre anche numerosi interrogativi in merito all’eticità del suo utilizzo.

A differenza delle tecnologie a cui siamo stati abituati fino ad oggi, infatti, non si tratta solo di uno strumento che resta nelle nostre mani e che quindi, sì, può essere impiegato bene o male a seconda delle intenzioni di chi lo ha in mano, ma di un processo, un algoritmo che ha in sé la capacità di crescere una volta avviato.

È da qui che viene da un lato la fondamentale importanza di un confronto a diversi livelli, fra le diverse parti in gioco, in merito ad un uso etico dell’Intelligenza Artificiale, dall’altro l’importanza di una consapevolezza sempre più diffusa ed approfondita dei meccanismi che guidano gli strumenti che ci troviamo ad utilizzare.

robotica riabilitativa
Foto di Franck V su Unsplash

Rome Call for AI Ethics

28 febbraio 2020. È la data di nascita della Rome Call for AI Ethics, l’appello per un’etica dell’Intelligenza Artificiale.

Un documento che deve il suo interesse, oltre ai contenuti, alla varietà dei firmatari.

Pontificia Accademia per la Vita, Microsoft, IBM, FAO, Governo italiano hanno sottoscritto questa Carta, di cui si è scritto anche nella prestigiosa rivista scientifica Nature Machine Intelligence, con l’obbiettivo di promuovere un’etica dell’innovazione digitale che ponga il progresso tecnologico al servizio dell’uomo.

Si riconosce che questo sarà possibile solo attraverso una collaborazione fra tutti i soggetti sociali, collaborazione che con questa firma congiunta si è provato a iniziare a mettere in atto.

Il testo della Carta sottolinea l’importanza che l’etica non arrivi semplicemente a regolamentare l’utilizzo dell’Intelligenza Artificiale, ma che sia coinvolta già a partire dai processi di ricerca e produzione.

Affinchè la programmazione degli algoritmi sia improntata a principi che favoriscano il bene dell’intera famiglia umana, la libertà e la dignità di ogni essere umano, favorendo lo sviluppo delle potenzialità di ciascuno.

I principi nella progettazione dell’Intelligenza Artificiale

Nel documento Rome Call for AI Ethics vengono identificati sei principi che devono guidare l’Intelligenza Artificiale fin dalla sua progettazione:

Trasparenza (Transparency): i sistemi di Intelligenza Artificiale devono essere comprensibili.

Inclusione (Inclusion): le necessità di tutti gli esseri umani devono essere prese in considerazione così che ciascuno possa beneficiarne e a tutti siano offerte le migliori condizioni possibili per esprimere se stessi e svilupparsi.

Responsabilità (Responsability): coloro che progettano e implementano soluzioni di Intelligenza Artificiale devono procedere con responsabilità e trasparenza.

Imparzialità (Impartiality): non creare o agire secondo il pregiudizio, salvaguardando così l’equità e la dignità umana.

Affidabilità (Reliability): i sistemi di Intelligenza Artificiale devono essere in grado di funzionare in modo affidabile.

Sicurezza (Security) e Privacy: i sistemi di Intelligenza Artificiale devono funzionare in modo sicuro e rispettare la privacy degli utenti.

All’atto della firma, il Presidente di Microsoft, Brad Smith, ha rilevato l’importanza di principi etici che guidino l’uso delle tecnologie:

“Microsoft è orgogliosa di sostenere la Rome Call for AI Ethics, che rappresenta un importante passo in avanti nella promozione di un dibattito pensato, rispettoso e inclusivo sul rapporto tra Intelligenza Artificiale ed Etica. Crediamo che la tecnologia abbia il potere di risolvere alcune delle più grandi sfide del mondo, ma affinché sia un beneficio per tutti, deve essere guidata da forti principi etici che si fondano sui diritti umani.”.

Nei mesi successivi altri firmatari si sono aggiunti.

robot umanoidi
Foto di Maximalfocus su Unsplash

Etica by design

Possiamo dunque affermare che la Rome call for AI Ethics è stato un passo verso una collaborazione al servizio di un’Intelligenza Artificiale che si ponga fin nelle modalità in cui viene pensata, al servizio dello sviluppo e del bene di tutti gli uomini.

“Non basta la semplice educazione all’uso corretto delle nuove tecnologie” ha affermato papa Francesco in un comunicato letto da mons. Vincenzo Paglia prima della firma. “non sono infatti strumenti neutrali”.

È quindi più che mai necessario pensare ad un etica ‘by design’ come afferma il documento, che orienti l’Intelligenza Artificiale fin dalla progettazione degli algoritmi.

Non basta semplicemente affidarci alla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi; occorre invece creare corpi sociali intermedi che assicurino rappresentanza alla sensibilità etica degli utilizzatori e degli educatori.”, aggiunge il Papa, sottolineando l’importanza di un’educazione digitale che offra a tutti gli strumenti per un uso consapevole ed etico degli strumenti e delle potenzialità che ci vengono e ci verranno offerte.

Il pensiero critico

Le opportunità che ci sono offerte sono davvero tante e come sempre la crescita delle possibilità richiede non solo una crescita del know how, ma anche uno sviluppo di un pensiero critico ed etico che ci aiuti ad usufruire al meglio delle tecnologie che ci sono offerte: “se al progresso tecnico non corrisponde un progresso nella formazione etica dell’uomo, nella crescita dell’uomo interiore [allora lo sviluppo tecnico costituisce] una minaccia per l’uomo e per il mondo” (Benedetto XVI, Enciclica Spe salvi, 22).

È offerta a ciascuno di noi la possibilità di far sì che l’uso delle nuove tecnologie, fin d’ora affidate alle nostre mani sia un’opportunità di crescita per la vita, nostra e altrui, e non una schiavitù; uno strumento di libertà e non di chiusura in bolle autoreferenziali.

L’Intellligenza Artificiale cresce con chi la usa, così come il Web e occorre conoscerli per poterne fare un uso consapevole e libero.

Contribuiamo a renderli spazi di arricchimento e sviluppo, spazi di crescita e confronto, spazi di vita e di libertà per tutti.

Foto di copertina di Pop Base

Immagini collegate:

Suor Cecilia

Suor Cecilia

Sono sr Cecilia, ho 35 anni e dal 2005 faccio parte della comunità delle Carmelitane Scalze di Piacenza, tredici sorelle di tutte le età, in cui ultimamente mi occupo della formazione.Credo nella ricchezza dell’incontro fra la nostra vita monastica e la cultura di oggi e nell’importanza di non smettere mai di cercare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Il contenuto è protetto