Vai al contenuto

Robot e responsabilità: nuova frontiera del diritto

robot responsabilita
Tempo di lettura - 4 minuti

Negli ultimi anni abbiamo visto la nostra società riempirsi di tecnologia (come algoritmirobot e intelligenze artificiali) e con essa le inevitabili preoccupazioni in merito a chi si debba assumere la responsabilità della sua condotta.

Si è iniziato con device reattivamente semplici, come i primi telefoni cellulari mobile.

Adesso lo sviluppo tecnologico ha portato a un incremento sempre più marcato di quella che è una vera e propria rivoluzione digitale. E si può parlare di rivoluzione in senso proprio: le nuove tecnologie hanno cambiato e stanno cambiando radicalmente di più le nostre abitudini.

Pensate a dei semplici esempi e ve ne renderete subito conto.

Non so voi, ma io non sarei in grado di arrivare in una città lontana con il solo aiuto di una cartina stradale. O ancora, senza l’aiuto di Tripadvisor mi risulterebbe estremamente difficile trovare dei buoni ristoranti in un paese che non conosco.

Ovviamente la lista potrebbe continuare a lungo. Ma l’essenziale qui è rendersi conto che siamo di fronte a qualcosa di più di una semplice innovazione tecnologica.

L’importante è infatti capire che la tecnologia non ci sta solo facilitando la vita, ma ce la sta cambiando. Nel bene o nel male.

Le origini del robot

L’incedere della rivoluzione digitale porta con sé molti interrogativi. Alcuni di natura etica, altri di natura prettamente giuridica.

Occupandomi di diritto sarà su quest’ultime che cercherò di portare il mio contributo.

In modo particolare il quesito su cui vorrei soffermarmi oggi è quello della possibile responsabilità del robot per aver causato un danno a qualcuno.

Ma prima di cominciare ci sono alcune doverose precisazioni.

Normalmente noi utilizziamo il termine “robot” in modo molto esteso. Con questa parola intendiamo infatti riferirci a un essere sintetico, con sembianze umanoidi e dotato di intelligenza.

In realtà il robot nasce con un significato parzialmente diverso.

Il termine “robot” deriva dalla parola ceca “robota”, che indica il lavoratore, il servo, lo schiavo. La parola è stata utilizzata per la prima volta dallo scrittore Karel Čapek nel corso della propria opera teatrale “RUE”. In questa interessante opera, i robot erano servi automatici che si ribellavano ai propri padroni, causando molti problemi.

Oggi il termine robot si è evoluto, ma quello che vorrei evidenziare è che non è molto la struttura del robot a poter dare problemi.

Il problema sta nella programmazione del robot, ossia l’insieme delle istruzioni che gli vengono impartite.

In altre parole, il fulcro della questione è l’intelligenza artificiale che muove il robot.

Per capire meglio il ruolo dell’intelligenza artificiale nei robot, torniamo all’opera RUR, che per prima ha coniato il termine.

Nell’opera gli esseri avevano molta paura che le “macchine” si ribellassero, cosa che nella finzione è infatti accaduta. Ma il terrore di questa ribellione non si è arrestato qui.

Del resto altre opere letterarie e cinematografiche più recenti hanno trattato il tema della ribellione delle intelligenze artificiali (come non pensare alla serie “Terminator”, dove l’intelligenza artificiale “Skynet” sovverte il mondo e dà la caccia agli esseri umani).

Proprio questo terrore – forse insito nella natura umana – ha portato oggi a creare delle norme e dei principi volti a controllare le intelligenze artificiali.

robot
Foto di StockSnap su Unsplash

Il concetto di “Human in the loop”

Per tenere a bada la paura di una ribellione delle macchine, è stato introdotto il concetto di Human in the loop, espressione inglese che significa letteralmente “Essere umano nel giro”.

Ciò sta a indicare la presenza garantita di un controllo umano su qualsiasi attività robotica.

In altre parole, il principio dell’Human in the loop impone che non possa esserci attività “robotica” senza la possibile supervisione di un essere umano.

Questo però pone allora un importante quesito giuridico.

Se, all’esito del procedimento robotico, compreso il controllo umano, si verifica uno sbaglio che comporta un danno, di chi è la colpa? Chi è tenuto a pagare?

Di chi è la responsabilità di un robot

Capire chi è tenuto a pagare in una certa situazione è importante: significa garantire la certezza del diritto e la sicurezza dei cittadini.

In generale, la legge prevede la responsabilità del produttore per i danni causati dal prodotto difettoso.

Se quindi io produttore costruisco macchinari, e uno di questi viziato da un difetto tecnico causa un danno a terzi, io nel sono responsabile.

Ciò a meno che non si riesca a provare che il danno è stato causato dalla colpa grave o dal dolo dell’utente, o che si sia verificato un evento di forza maggiore.

Queste considerazioni sono ovviamente applicabili nel caso in cui il robot sia adibito a compiti estremamente ripetitivi e meccanici. In altre parole, funzionano se il robot è poco più che una macchina.

Se però il robot in questione è dotato della capacità di apprendere ed evolversi tramite machine learning, allora la situazione si complica.

Se infatti il robot è in grado di evolversi e di cambiare rispetto alla propria programmazione originaria, allora diventa più difficile imputare la responsabilità al solo produttore.

Come altri soggetti potenzialmente responsabili è infatti possibile individuare:

  • il programmatore che realizza il software e l’algoritmo di machine learning del robot;
  • la persona che istruisce il robot, fornendogli i dati necessari per l’apprendimento (in questo caso la responsabilità sta nell’aver indicato dati sbagliati);
  • la persona addetta al controllo delle attività robotiche, responsabile per non aver adeguatamente vigilato.

Al momento queste domande non hanno una risposta chiara a livello legislativo. Ma il tema è senz’altro attenzionato al livello dell’Unione europea.

Il Parlamento europeo ha infatti recentemente adottato una risoluzione in cui sollecita l’adozione di un regolamento per disciplinare la responsabilità dell’Intelligenza artificiale.

Nell’assenza di una risposta chiara a livello normativo, possiamo solo fare attenzione e cercare di controllare il più possibile i nostri “robot”.

Immagini collegate:

Enrico Autero

Enrico Autero

Avvocato specializzato in diritto commerciale e societario presso lo studio IPG Lex.Da qualche anno appassionato al diritto delle nuove tecnologie e, in generale, dell’IT. Questa passione è sempre stata latente per me: fin da giovanissimo mi sono infatti interessato ai videogiochi e al mondo di internet!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Il contenuto è protetto