IA contro IP?

21-04-2023 | News

L’intelligenza artificiale generativa può creare gravi problemi di proprietà intellettuale

di Gil Appel, Juliana Neelbauer e David A. Schweidel

Foto di Michael Dziedzic su Unsplash

L’intelligenza artificiale generativa può sembrare una magia. Generatori di immagini come Stable Diffusion, Midjourney o DALL-E 2 possono produrre immagini notevoli in stili che vanno dalle fotografie invecchiate ai colori ad acqua, dai disegni a matita al puntinismo. I prodotti che ne derivano possono essere affascinanti: sia la qualità che la velocità di creazione sono elevate rispetto alla media delle prestazioni umane. Il Museum of Modern Art di New York ha ospitato un’installazione generata dall’IA a partire dalla collezione del museo stesso, mentre il Mauritshuis dell’Aia ha appeso una variante IA della Ragazza con l’orecchino di perla di Vermeer mentre l’originale era in prestito.

Le capacità dei generatori di testo sono forse ancora più sorprendenti: scrivono saggi, poesie e riassunti e si dimostrano abili imitatori dello stile e della forma (anche se possono prendersi una licenza creativa con i fatti).

Sebbene possa sembrare che questi nuovi strumenti di IA possano attingere nuovo materiale dall’etere, non è proprio così. Le piattaforme di IA generativa sono addestrate su pool di dati e frammenti di domande – miliardi di parametri costruiti da software che elaborano enormi archivi di immagini e testi. Le piattaforme di IA recuperano schemi e relazioni che utilizzano per creare regole e quindi formulare giudizi e previsioni quando rispondono a una domanda.

Questo processo comporta rischi legali, tra cui la violazione della proprietà intellettuale. In molti casi, pone anche questioni legali che sono ancora in fase di risoluzione. Ad esempio, le violazioni di copyright, brevetti e marchi si applicano alle creazioni dell’intelligenza artificiale? È chiaro chi sia il proprietario dei contenuti che le piattaforme di IA generativa creano per voi o per i vostri clienti? Prima di poter sfruttare i vantaggi dell’IA generativa, le aziende devono capire i rischi e come proteggersi.

Dove si colloca l’IA generativa nell’attuale panorama legale

Sebbene l’IA generativa sia una novità per il mercato, le leggi esistenti hanno implicazioni significative per il suo utilizzo. Ora i tribunali stanno cercando di capire come applicare le leggi in vigore. Ci sono problemi di violazione e di diritti d’uso, incertezze sulla proprietà delle opere generate dall’IA e questioni relative ai contenuti senza licenza nei dati di addestramento e se gli utenti debbano essere in grado di richiedere a questi strumenti di fare riferimento diretto a opere protette da copyright e marchi di altri creatori senza la loro autorizzazione.

Queste rivendicazioni sono già oggetto di controversie. In una causa depositata alla fine del 2022, Andersen v. Stability AI et al., tre artisti hanno avviato una class action per citare in giudizio diverse piattaforme di IA generativa sulla base del fatto che l’IA utilizza le loro opere originali senza licenza per addestrare l’IA ai loro stili, consentendo agli utenti di generare opere che potrebbero non essere sufficientemente trasformative rispetto alle loro opere esistenti e protette e, di conseguenza, sarebbero opere derivate non autorizzate. Se un tribunale stabilisce che le opere dell’IA sono non autorizzate e derivate, possono essere applicate sanzioni sostanziali per violazione.

Casi analoghi presentati nel 2023 riguardano la denuncia di aziende che hanno addestrato strumenti di IA utilizzando pool di dati con migliaia – o addirittura molti milioni – di opere non autorizzate. Getty, un servizio di licenze d’immagini, ha intentato una causa contro i creatori di Stable Diffusion per l’uso improprio delle sue foto violando i diritti d’autore e di marchio che detiene sulla sua collezione di fotografie filigranate.

In ognuno di questi casi, il sistema giuridico è chiamato a chiarire i limiti di ciò che è un “lavoro derivato” ai sensi delle leggi sulla proprietà intellettuale e, a seconda della giurisdizione, i diversi tribunali possono rispondere con interpretazioni diverse. Si prevede che l’esito di questi casi dipenda dall’interpretazione della dottrina del fair use, che consente l’utilizzo di opere protette dal diritto d’autore senza l’autorizzazione del proprietario “per scopi quali la critica (compresa la satira), il commento, l’informazione giornalistica, l’insegnamento (comprese le copie multiple per l’uso in classe), lo studio o la ricerca” e per un uso trasformativo del materiale protetto dal diritto d’autore in un modo per il quale non era stato concepito.

Non è la prima volta che la tecnologia e la legge sul copyright si scontrano. Google si è difesa con successo da una causa legale sostenendo che l’uso trasformativo consentiva di attingere il testo dai libri per creare il suo motore di ricerca, e per il momento questa decisione rimane un precedente. Ma ci sono altri casi non tecnologici che potrebbero influenzare il trattamento dei prodotti dell’IA generativa. Una causa davanti alla Corte Suprema degli Stati Uniti contro la Andy Warhol Foundation – intentata dalla fotografa Lynn Goldsmith, che aveva concesso in licenza un’immagine del defunto musicista Prince – potrebbe perfezionare la legge statunitense sul diritto d’autore in merito alla questione di quando un’opera d’arte sia sufficientemente diversa dal materiale di partenza per diventare inequivocabilmente “trasformativa” e se un tribunale possa considerare il significato dell’opera derivata quando valuta tale trasformazione. Se il tribunale ritiene che l’opera di Warhol non sia un uso corretto, ciò potrebbe significare problemi per le opere generate dall’intelligenza artificiale.

Tutta questa incertezza presenta una serie di sfide per le aziende che utilizzano l’IA generativa. Esistono rischi di violazione – diretta o involontaria – nei contratti che non si esprimono sull’uso dell’IA generativa da parte di fornitori e clienti. Se l’utente di un’azienda è consapevole che i dati di addestramento potrebbero includere opere prive di licenza o che l’IA può generare opere derivate non autorizzate e non coperte dal fair use, l’azienda potrebbe essere perseguita per violazione intenzionale, che può comportare danni fino a 150.000 dollari per ogni caso di uso consapevole. C’è anche il rischio di condividere accidentalmente segreti commerciali o informazioni aziendali riservate inserendo dati in strumenti di IA generativi.

Mitigare il rischio e costruire una strada per il futuro

Questo nuovo paradigma significa che le aziende devono adottare nuove misure per proteggersi sia a breve che a lungo termine. Gli sviluppatori di IA, ad esempio, devono assicurarsi di essere in regola con la legge per quanto riguarda l’acquisizione dei dati utilizzati per addestrare i loro modelli. Ciò dovrebbe comportare la concessione di licenze e la compensazione di coloro che possiedono la proprietà intellettuale che gli sviluppatori cercano di aggiungere ai loro dati di addestramento, sia attraverso la concessione di licenze che attraverso la condivisione dei ricavi generati dallo strumento di IA. I clienti degli strumenti di IA dovrebbero chiedere ai fornitori se i loro modelli sono stati addestrati con contenuti protetti, esaminare i termini di servizio e le politiche sulla privacy ed evitare gli strumenti di IA generativa che non sono in grado di confermare che i loro dati di addestramento sono adeguatamente concessi in licenza dai creatori di contenuti o soggetti a licenze open-source che le aziende di IA rispettano.

Sviluppatori

Nel lungo periodo, gli sviluppatori di IA dovranno prendere iniziative sulle modalità di approvvigionamento dei dati e gli investitori dovranno conoscere l’origine dei dati. Stable Diffusion, Midjourney e altri hanno creato i loro modelli basandosi sul set di dati LAION-5B, che contiene quasi sei miliardi di immagini con tag compilate attraverso lo scouting indiscriminato del web e che notoriamente include un numero considerevole di creazioni protette da copyright.

Stability.AI, che ha sviluppato Stable Diffusion, ha annunciato che gli artisti potranno scegliere di non partecipare alla prossima generazione del generatore di immagini. Tuttavia, in questo modo i creatori di contenuti hanno l’onere di proteggere attivamente la loro proprietà intellettuale, anziché richiedere agli sviluppatori dell’IA di assicurarsi la proprietà intellettuale dell’opera prima di utilizzarla; inoltre, anche quando gli artisti optano per l’esclusione, la decisione si rifletterà solo nell’iterazione successiva della piattaforma. Le aziende dovrebbero invece richiedere l’opt-in del creatore piuttosto che l’opt-out.

Gli sviluppatori dovrebbero anche lavorare su come mantenere la provenienza dei contenuti generati dall’IA, aumentando la trasparenza sulle opere incluse nei dati di addestramento. Ciò comprende la registrazione della piattaforma utilizzata per sviluppare il contenuto, i dettagli sulle impostazioni utilizzate, il tracciamento dei metadati dei dati originari e i tag per facilitare la segnalazione dell’IA, compreso il seme generativo e il prompt specifico utilizzato per creare il contenuto. Queste informazioni non solo consentirebbero la riproduzione dell’immagine, permettendo di verificarne facilmente la veridicità, ma parlerebbero anche dell’intento dell’utente, proteggendo così gli utenti aziendali che potrebbero dover superare le denunce di violazione della proprietà intellettuale, oltre a dimostrare che il risultato non è dovuto a un intento intenzionale di copia o furto.

Lo sviluppo di questi percorsi di audit garantirebbe alle aziende di essere preparate se (o, più probabilmente, quando) i clienti inizieranno a richiederli nei contratti come forma di assicurazione che le opere del fornitore non siano intenzionalmente, o involontariamente, derivate senza autorizzazione. In futuro, le compagnie di assicurazione potrebbero richiedere questi rapporti per estendere le coperture assicurative tradizionali agli utenti aziendali i cui beni includono opere generate dall’IA. La scomposizione dei contributi dei singoli artisti che sono stati inclusi nei dati di addestramento per produrre un’immagine supporterebbe ulteriormente gli sforzi per compensare in modo appropriato i collaboratori e persino incorporare il copyright dell’artista originale nella nuova creazione.

Creatori

Sia i singoli creatori di contenuti che i marchi che creano contenuti dovrebbero adottare misure per esaminare i rischi per i loro portafogli di proprietà intellettuale e proteggerli. Ciò comporta la ricerca proattiva del loro lavoro nei dataset compilati o nei pool di dati su larga scala, compresi gli elementi visivi come i loghi e le opere d’arte e gli elementi testuali, come i tag delle immagini. Ovviamente, questo non può essere fatto manualmente attraverso terabyte o petabyte di dati sui contenuti, ma gli strumenti di ricerca esistenti dovrebbero consentire l’automazione economica di questo compito. I nuovi strumenti possono anche promettere l’offuscamento da questi algoritmi.

I creatori di contenuti dovrebbero monitorare attivamente i canali digitali e sociali per individuare la comparsa di opere che potrebbero essere derivate dalle loro. Per i brand con un valore da proteggere, non si tratta semplicemente di cercare elementi specifici come il Nike Swoosh o il Tiffany Blue. Piuttosto, potrebbe essere necessario che il monitoraggio dei marchi e della veste commerciale si evolva per esaminare lo stile delle opere derivate, che potrebbero essere nate dall’addestramento su una serie specifica di immagini di un marchio. Anche se elementi critici come un logo o un colore specifico possono non essere presenti in un’immagine generata dall’IA, altri elementi stilistici possono suggerire che elementi salienti del contenuto di un marchio sono stati utilizzati per produrre un’opera derivata. Tali somiglianze possono suggerire l’intento di appropriarsi della fiducia del consumatore medio nei confronti del marchio utilizzando elementi visivi o uditivi riconoscibili. L’imitazione può essere considerata la forma più sincera di adulazione, ma può anche suggerire l’abuso intenzionale di un marchio.

La buona notizia per i titolari di aziende in materia di violazione dei marchi è che gli avvocati specializzati in marchi hanno stabilito come notificare e far valere i diritti di marchio nei confronti di un trasgressore, ad esempio inviando un avviso di cessazione di attività o una lettera di richiesta di licenza, o passando direttamente alla presentazione di una denuncia per violazione di marchio, indipendentemente dal fatto che sia stata una piattaforma di intelligenza artificiale a generare il marchio non autorizzato o un essere umano.

Aziende

Le aziende dovrebbero valutare i termini delle loro transazioni per inserire le protezioni nei contratti. Come punto di partenza, dovrebbero richiedere alle piattaforme di IA generativa termini di servizio che confermino la corretta licenza dei dati di formazione che alimentano la loro IA. Dovrebbero inoltre richiedere un ampio indennizzo per potenziali violazioni della proprietà intellettuale causate dall’incapacità delle aziende di IA di concedere correttamente la licenza per i dati immessi o dall’auto-segnalazione da parte dell’IA stessa dei propri risultati per segnalare potenziali violazioni.

Come minimo, le aziende dovrebbero aggiungere delle clausole nei contratti con i fornitori e i clienti (per la fornitura di servizi e prodotti personalizzati), nel caso in cui una delle parti utilizzi l’IA generativa, per garantire che i diritti di proprietà intellettuale siano compresi e protetti da entrambe le parti del tavolo, nonché le modalità con cui ciascuna parte sosterrà la registrazione della paternità e la proprietà di tali opere. I contratti con i fornitori e i clienti possono includere una clausola relativa all’IA aggiunta alle clausole di riservatezza per impedire alle parti riceventi di inserire informazioni riservate delle parti divulganti nei messaggi di testo degli strumenti di IA.

Alcune aziende leader hanno creato liste di controllo dell’IA generativa per le modifiche ai contratti per i loro clienti, che valutano ogni clausola per le implicazioni dell’IA al fine di ridurre i rischi di utilizzo non intenzionale. Le organizzazioni che utilizzano l’IA generativa, o che collaborano con fornitori, devono tenere aggiornati i propri consulenti legali sulla portata e la natura di tale utilizzo, poiché la legge continuerà a evolversi rapidamente.

In futuro, i creatori di contenuti che dispongono di una libreria sufficiente di proprietà intellettuale a cui attingere possono prendere in considerazione la possibilità di costruire i propri set di dati per addestrare e far maturare le piattaforme di IA. I modelli di IA generativa che ne derivano non devono necessariamente essere addestrati da zero, ma possono basarsi su IA generativa open-source che ha utilizzato contenuti di provenienza lecita. Ciò consentirebbe ai creatori di contenuti di produrre contenuti con lo stesso stile del proprio lavoro, con una traccia di controllo del proprio data lake, o di concedere in licenza l’uso di tali strumenti a parti interessate con un titolo chiaro sia sui dati di addestramento dell’IA che sui suoi risultati. In questo stesso spirito, i creatori di contenuti che hanno sviluppato un seguito online possono prendere in considerazione la co-creazione con i follower come un altro mezzo per procurarsi i dati di addestramento, riconoscendo che a questi co-creatori dovrebbe essere chiesta l’autorizzazione a fare uso dei loro contenuti in termini di servizio e politiche sulla privacy che vengono aggiornate in base ai cambiamenti della legge.

L’IA generativa cambierà la natura della creazione di contenuti, consentendo a molti di fare ciò che finora solo pochi avevano le competenze o la tecnologia avanzata per operare ad alta velocità. Con lo sviluppo di questa tecnologia emergente, gli utenti devono rispettare i diritti di coloro che ne hanno permesso la creazione, ovvero gli stessi creatori di contenuti che potrebbero essere soppiantati da essa. Se da un lato comprendiamo la reale minaccia dell’IA generativa per una parte dei mezzi di sostentamento dei membri della classe creativa, dall’altro essa rappresenta un rischio per i brand che hanno utilizzato le immagini per creare la propria identità.  Allo stesso tempo, sia i creativi che le aziende hanno l’opportunità di creare portafogli di opere e materiali di marca, di inserire meta-tag e di formare piattaforme di IA generativa in grado di produrre beni autorizzati e proprietari (a pagamento o con diritti d’autore) come fonti di guadagno immediato.

Gil Appel è professore assistente di Marketing presso la GW School of Business. 

Juliana Neelbauer è partner di Fox Rothschild LLP e docente presso l’Università del Maryland.

David A. Schweidel è professoressa di Marketing presso la Goizueta Business School , Emory University.

Condividi questo contenuto su: