La Commissione europea ha presentato, oggi a Bruxelles, una proposta di direttiva sulla responsabilità civile nel settore dell'intelligenza artificiale (Ia) che mira ad aggiornare il quadro Ue e ad armonizzare le norme nazionali allo scopo di agevolare i risarcimenti da parte di chi ha subito danni causati dai sistemi "intelligenti", come la robotica o le auto a guida autonoma.
La Commissione intende assicurare che persone fisiche o imprese danneggiate dalle tecnologie di Ia, per colpa od omissione di un fornitore, di uno sviluppatore o di un utente, possano disporre di un'equa possibilità di risarcimento, come in qualsiasi circostanza simile in altri campi.
La direttiva si applica a qualsiasi tipo di sistema di intelligenza artificiale, sia ad alto rischio che non ad alto rischio, riguardano non solo i danni materiali, causati da prodotti difettosi o usati in modo improprio, ma anche in senso più largo, ad esempio contro trattamenti discriminatori determinati dagli algoritmi usati nella fornitura di determinati servizi.
Le nuove norme riguardano le azioni di responsabilità civile a livello nazionale per colpa o omissione di qualsiasi persona (fornitori, sviluppatori, utenti), per il risarcimento di qualsiasi tipo di danno contemplato dal diritto nazionale (vita, salute, proprietà, vita privata, ecc.) e per qualsiasi tipo di danneggiato (persone fisiche, imprese, organizzazioni).
La proposta di direttiva introduce due misure principali: innanzitutto, la cosiddetta "presunzione di causalità", grazie alla quale i danneggiati da prodotti e servizi basati sull'Ia non dovranno spiegare in dettaglio come il danno sia stato causato da una determinata colpa od omissione. Se i danneggiati possono dimostrare che qualcuno ha agito con colpa, non rispettando un determinato obbligo rilevante per il danno, e che è ragionevolmente probabile un nesso di causalità con le prestazioni dell'Ia, il giudice può presumere che questa inosservanza abbia causato il danno, senza chiedere ulteriori evidenze. D'altro canto, la persona responsabile può confutare la presunzione di causalità (ad esempio dimostrando che il danno è stato provocato da una causa diversa).
In secondo luogo, viene garantito l'accesso dei danneggiati agli elementi di prova di imprese o fornitori, quando si tratta di Ia "ad alto rischio". I danneggiati potranno accedere a elementi di prova pertinenti: potranno chiedere al giudice di ordinare la divulgazione di informazioni sui sistemi di Ia ad alto rischio. Questo consentirà loro di identificare la persona che potrebbe essere ritenuta responsabile e di scoprire cosa non ha funzionato. D'altro canto, la divulgazione sarà soggetta a garanzie adeguate per proteggere le informazioni sensibili, come i segreti commerciali.
Secondo quanto spiega una nota dell'Esecutivo comunitario, "le norme nazionali vigenti in materia di responsabilità civile non sono adatte a gestire le domande di risarcimento dei danni causati da prodotti e servizi basati sull'Ia. Nelle azioni di responsabilità per colpa il danneggiato deve identificare chi citare in giudizio e spiegare in dettaglio la colpa, il danno e il nesso di causalità tra i due. Ciò non è sempre facile, in particolare nel campo dell'Ia. I sistemi possono spesso essere complessi, opachi e autonomi, rendendo eccessivamente difficile, se non impossibile, provare i legami di causalità da parte del danneggiato".
A questo proposito, va notato infine, la direttiva allevia il peso della ricerca dell'evidenza della colpa e dei legami di causa-effetto, ma non arriva a ribaltare l'onere della prova, che ricade sempre sulla persona danneggiata.
per commentare devi effettuare il login con il tuo account