Le questioni legali presentate dall’intelligenza artificiale generativa

Blog

CasaCasa / Blog / Le questioni legali presentate dall’intelligenza artificiale generativa

Jul 10, 2023

Le questioni legali presentate dall’intelligenza artificiale generativa

4 domande da porre prima di sostituire il lavoro umano con l'intelligenza artificiale Approfondimenti sulla leadership per innovare nel cambiamento Perché imparare a dire di no è la lezione più importante per questo fondatore Credito: Rob Dobi Ideas

4 domande da porsi prima di sostituire il lavoro umano con l’intelligenza artificiale

Approfondimenti sulla leadership per innovare nel cambiamento

Perché imparare a dire di no è la lezione più importante per questo fondatore

Credito: Rob Dobi

Idee fatte per contare

Intelligenza artificiale

Di

Dylan Walsh

28 agosto 2023

L’intelligenza artificiale generativa solleva nuove questioni legali sull’uso dei dati e su come i contenuti saranno regolamentati. Un partner legale offre assistenza.

L’intelligenza artificiale generativa, compresi modelli linguistici di grandi dimensioni come ChatGPT e software di generazione di immagini come Stable Diffusion, sono nuovi potenti strumenti per individui e aziende. Sollevano inoltre domande profonde e nuove su come i dati vengono utilizzati nei modelli di intelligenza artificiale e su come la legge si applica all’output di tali modelli, come un paragrafo di testo o un’immagine generata dal computer.

"Stiamo assistendo alla nascita di una nuova tecnologia davvero eccezionale", ha affermato Regina Sam Penti, SB '02, MEng '03, partner legale di Ropes & Gray specializzata in tecnologia e proprietà intellettuale. "È un momento emozionante, ma in questo momento là fuori c'è un po' un campo minato dal punto di vista legale."

Alla conferenza EmTech Digital di quest'anno, sponsorizzata dal MIT Technology Review, Penti ha discusso di ciò che gli utenti e le aziende dovrebbero sapere sulle questioni legali che circondano l'intelligenza artificiale generativa, inclusi diversi casi pendenti nei tribunali statunitensi e su come le aziende dovrebbero pensare a proteggersi.

La maggior parte delle cause legali sull’intelligenza artificiale generativa si concentrano sull’uso dei dati, ha affermato Penti, “il che non sorprende, dato che questi sistemi consumano enormi, enormi quantità di dati provenienti da tutti gli angoli del mondo”.

Una causa intentata da diversi programmatori contro GitHub, Microsoft e OpenAI è incentrata su GitHub Copilot, che converte comandi scritti in inglese semplice in codice informatico in dozzine di linguaggi di codifica diversi. Copilot è stato addestrato e sviluppato su miliardi di righe di codice open source già scritte, il che ha portato a dubbi di attribuzione.

"Per le persone che operano nella comunità open source, è abbastanza semplice prendere un software open source e assicurarsi di mantenere l'attribuzione, che è un requisito per poter utilizzare il software", ha affermato Penti. Un modello di intelligenza artificiale come quello alla base di Copilot, tuttavia, “non si rende conto che ci sono tutti questi requisiti da rispettare”. La causa in corso sostiene, tra le altre cose, che le società hanno violato i termini di licenza del software.

In un altro caso, diversi artisti visivi hanno intentato un'azione legale collettiva contro le società che hanno creato i generatori di immagini Stable Diffusion, Midjourney e DreamUp, che generano tutti immagini in base a messaggi di testo inviati dagli utenti. Il caso sostiene che gli strumenti di intelligenza artificiale violano i diritti d’autore prelevando immagini da Internet per addestrare i modelli di intelligenza artificiale. In una causa separata, Getty Images sostiene che l'uso di Stable Diffusion per addestrare modelli viola i diritti d'autore. Tutte le immagini generate da Stable Diffusion sono opere derivate, sostiene la causa, e alcune di quelle immagini contengono persino una traccia della filigrana Getty.

Ci sono anche “troppi casi da contare” incentrati su problemi di privacy, ha affermato Penti. I modelli di intelligenza artificiale addestrati su dati interni potrebbero persino violare le politiche sulla privacy delle aziende. Ci sono anche scenari più di nicchia, come il caso in cui un sindaco australiano ha preso in considerazione l'idea di avviare una causa per diffamazione contro ChatGPT dopo aver affermato falsamente di aver trascorso del tempo in prigione.

Sebbene non sia chiaro in che modo le minacce legali influenzeranno lo sviluppo dell’intelligenza artificiale generativa, potrebbero costringere i creatori di sistemi di intelligenza artificiale a riflettere più attentamente su quali set di dati addestrano i loro modelli. Più probabilmente, le questioni legali potrebbero rallentare l’adozione della tecnologia mentre le aziende valutano i rischi, ha affermato Penti.

Negli Stati Uniti, i due principali sistemi giuridici per regolare il tipo di lavoro generato dall’intelligenza artificiale sono il copyright e i brevetti. Nessuno dei due è facile da applicare, ha detto Penti.