Cassandra Crossing/ IA: ChatGPT, i Plugin e la Responsabilità
(551) — Come era prevedibile ChatGPT evolve verso un’architettura di API e plugin. Questo rappresenta un rischio, perché deresponsabilizza sia chi vende i servizi di GPT4 sia chi li usa.
27 agosto 2023— Circa due mesi fa un annuncio di OpenAI ha reso nota la realizzazione di plugin che consentono di interfacciare ChatGPT con fonti esterne di dati e servizi.
Tecnicamente, si tratta di un API che permette la realizzazione di plugin che interfacciano, anche in maniera bidirezionale, una fonte di dati od un servizio con, ad esempio, ChatGPT e viceversa
In questo modo ChatGPT può utilizzare risorse informative per produrre le sue “risposte”.
E nella direzione opposta gli “oggetti intelligenti”, i servizi ed i siti possono far generare testi, programmi ed immagini alla falsa IA di turno, ed utilizzarli per produrre i risultati o le pagine che devono fornire.
E’ perfettamente chiaro come questa architettura permetta un immediato inserimento delle false Intelligenze Artificiali nei tessuti profondi della Rete come la conosciamo oggi.
E’ inutile che Cassandra annoi i suoi 24 irriducibili lettori ripetendo qui la sua opinione e le sue profezie.
D’altra parte, probabilmente coloro che scrivono news e commercial per guadagnarsi la pagnotta hanno già chiara la necessità di trovarsi al più presto un altro lavoro.
I loro lavori saranno infatti i primi a cadere sotto la falce dell’utilizzo delle false Intelligenze Artificiali, seguiti a ruota da un impressionante quantitativo di lavori “di concetto” ed impiegatizi.
Ma non è questo il tema di oggi, il tema è la responsabilità, e tutto quello che da essa si sviluppa.
L’attenzione alle questioni legali delle false IA si è per ora concentrata solo sulle questioni legate alla proprietà intellettuale, sia relativamente al materiale usato per allenare le false IA, sia relativamente alla proprietà degli output generati.
Quello che i plugin impatteranno pesantemente è la responsabilità giuridica delle false IA, nel caso di danni o procedimenti civili e penali in cui esse verranno coinvolte.
Renderanno la ricerca della responsabilità oggettiva molto più complessa, sfumata e confusa. Probabilmente improponibile ed ingestibile
Si, perché se già oggi non c’è nessun accordo su chi dovrebbe essere il responsabile per i “cattivi comportamenti” o gli errori delle false IA e dei prodotti che le incorporeranno (automobili, cloud, armi, computer, etc.) la presenza di comunicazioni continue tra più false IA, e tra false IA e servizi cloud, renderà una situazione giuridicamente e tecnicamente molto complessa, addirittura inestricabile per quanto riguarda le responsabilità.
Se già oggi non c’è accordo sulla responsabilità quanto la falsa IA è un prodotto completamente monolitico, come un’auto a guida autonoma, figuriamoci cosa si potrà dire e fare quando le IA comunicheranno in tempo reale tra loro e con altri servizi internet.
Di chi sarà mai la responsabilità di un incidente avvenuto tra macchine cooperanti e dotate di diverse false IA, alimentate da flussi di informazioni sul traffico, sul meteo e su dio sa cosa.
Il futuro utente-consumatore dei prossimi prodotti di questo tipo, se già non bastassero quelli già noti, dovrebbe perciò avere un motivo in più per preoccuparsi.
Ah, già, il futuro è domani, e gli utenti-consumatori siamo tutti noi.
Goddamn!
Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero
Licenza d’utilizzo: i contenuti di questo articolo, dove non diversamente indicato, sono sotto licenza Creative Commons Attribuzione — Condividi allo stesso modo 4.0 Internazionale (CC BY-SA 4.0), tutte le informazioni di utilizzo del materiale sono disponibili a questo link.