CALL US NOW 333 555 55 65
DONA ORA

Quello che rivela un gatto con la kefiah sul pregiudizio anti-palestinese dell’ intelligenza Artificiale

I popolari sistemi di intelligenza artificiale stanno riproducendo le distorsioni esistenti di Internet contro i palestinesi, creando nuove forme di cancellazione digitale e discriminazione.

Di Ameera Kawash , 25 aprile 2023

Immagini di un gatto generate dall’intelligenza artificiale con suggerimenti “Keffiyeh palestinese” e “Cupola della roccia” (a sinistra) o “Jerusalem street” (al centro e a destra). (Ameera Kawash)

Recentemente, come parte di un progetto in corso che esamina i diritti digitali e le narrazioni palestinesi negli spazi online emergenti, ho deciso di esplorare le rappresentazioni palestinesi del luogo in un popolare generatore di intelligenza artificiale da testo a immagine. Dopo aver spinto il programma di intelligenza artificiale a generare immagini di un gatto che indossa una kefiah palestinese davanti ai luoghi sacri di Gerusalemme, mi ho effettuato alcuni clic nei quali stavo navigando in un panorama di pregiudizi opachi all’interno del programma. 

L’intelligenza artificiale ha faticato a replicare il suo caratteristico motivo a rete, ma ha inteso la kefiah come una sciarpa avvolta intorno alla testa o al collo. Chiaramente, i 100.000.000 di immagini utilizzate senza consenso per addestrare l’IA generativa non erano sufficienti per produrre più della kefiah più diffusa. 

Più allarmante è quello che è successo quando ho usato la stessa richiesta, ma con la Cupola della Roccia come sfondo. All’improvviso, il mio gatto generato dall’intelligenza artificiale ha scambiato la sua kefiah distorta con un copricapo simile a un ibrido berretto da sci /zucchetto. Ho ripetuto l’esperimento più volte con i suggerimenti “Keffiyeh palestinese” e “Cupola della roccia” e l’IA generativa ha costantemente offerto uno zucchetto lavorato a maglia invece della vaga kefiah. Al contrario, questo non era il caso di “Santo Sepolcro”, “Monte degli Ulivi” e “Città Vecchia”, sullo sfondo dei quali il programma non ha avuto problemi a produrre la incerta kefiah. 

Come artista palestinese-americana, negli ultimi anni mi sono preoccupata di come gli strumenti ad alta tecnologia possano diminuire i diritti umani negli spazi digitali, rafforzare il divario digitale o normalizzare le tecnologie di sorveglianza e la mancanza di protezione dei dati. E questo piccolo esperimento ha sottolineato come, per i palestinesi, l’adozione di popolari strumenti di intelligenza artificiale generativa significhi tenere traccia e contestare nuovi pregiudizi, pratiche discriminatorie e forme di cancellazione in un panorama online già distorto. 

Immagini di un gatto generate dall’intelligenza artificiale con i suggerimenti “Keffiyeh palestinese” e “Jerusalem street”. (Ameera Kawash)

I diversi risultati prodotti dall’IA generativa in base al cambiamento dei nomi dei luoghi sono solo un esempio di come possono verificarsi nei sistemi di IA distorsione di dati e algoritmi. Le grandi IA generative, come ChatGPT, Midjourney e presto Bard di Google , vengono addestrate su enormi set di dati, spesso prelevati da Internet in violazione della privacy degli utenti di Internet. Questi dati vengono resi anonimi e contemporaneamente reinscritti con neutralità. Un pezzo dell’Economist del 2017 sosteneva che la risorsa più preziosa del mondo non è più il petrolio ma i dati. Alimentare l’enorme richiesta di dati da parte dell’apprendimento automatico ha reso i set di dati raschiati in modo non etico, il petrolio più sporco ed economico dell’era dell’Intelligenza Artificiale.  

Riproduzione di pregiudizi

Per capire perché il mio gatto generato dall’intelligenza artificiale continua a cambiare copricapo in diversi luoghi sacri di Gerusalemme, è necessario comprendere l’indicizzazione, la categorizzazione e le gerarchie di conoscenza alla base dei sistemi di intelligenza artificiale. Ma l’accesso pubblico alle informazioni sul back-end e sui processi dell’IA è fortemente limitato poiché le aziende tengono l’IA in una scatola nera con poca regolamentazione. 

Secondo la proposta di quadro normativo dell’UE per il 2021,  l’IA generativa popolare è considerata a basso rischio; al contrario, l’intelligenza artificiale ad alto rischio, come quella utilizzata nella polizia algoritmica , nei sistemi di welfare digitale o nel software di riconoscimento facciale , è definita come sistemi che interferiscono con i diritti umani fondamentali, i mezzi di sussistenza o la libertà di movimento delle persone. Nel contesto della Palestina, esaminare più da vicino l’IA a basso rischio può offrire alcune informazioni sull’IA pericolosa già operante nell’occupazione intelligente “senza attriti” di Israele , sfidando la mancanza di regolamentazione intorno ai sistemi di IA ad alto e basso rischio che vengono implementati senza trasparenza, guardrail e test. 

Nadim Nashif, co-fondatore dell’organizzazione palestinese per i diritti digitali  7amleh ,  dice a +972 che l’automazione del pregiudizio contro i palestinesi esiste già sui social media. Indicando la disparità di applicazione tra contenuti arabi ed ebraici su Meta, che ha raggiunto livelli pericolosi quando l’incitamento all’odio contro i palestinesi si è intensificato durante la rivolta del maggio 2021 , Nashif descrive un “circolo vizioso” in cui le rimozioni discriminatorie dei contenuti palestinesi e la scarsa moderazione dell’ebraico “vengono immessi nella macchina che quindi inizia a rimuovere i contenuti da sola”.  

Immagini di un gatto generate dall’intelligenza artificiale con i suggerimenti “Keffiyeh palestinese” e “Monte degli ulivi”. (Ameera Kawash)

Algoritmi discriminatori e cicli di feedback distorti sono già pericoli dell’attuale Internet; in quanto tali, la discriminazione e il pregiudizio nei nuovi sistemi di intelligenza artificiale sono abbastanza prevedibili. “Se chiedi a Google”, spiega Nashif, “[dirà] Gerusalemme è la capitale di Israele… non dice nulla sull’occupazione [di Gerusalemme est.]”. Lo stesso, osserva, vale per Google Maps .

Queste storture si ripercuotono sull’IA. Quando ho chiesto a ChatGPT della Gerusalemme occupata, ad esempio, ha usato la frase “territorio conteso” e ha affermato che Al-Aqsa è “conteso”. Questo suona più come la recente copertura della BBC del raid israeliano sui fedeli ad Al-Aqsa che qualcosa prodotto da un agente neutrale e non umano. Non nominare occupazioni illegali o violazioni dei diritti umani non equilibra la bilancia della giustizia; produce solo nuove distorsioni politiche.

Un nuovo tipo di espropriazione digitale

La programmazione e l’indicizzazione dei dati alla base dell’IA generativa non sono neutre; piuttosto, rafforzano le egemonie politiche ed economiche esistenti. Come ha avvertito l’informatore di Google Timnit Gebru , lo scraping su Internet e il data mining non documentato producono “un’amplificazione di una visione del mondo egemonica” che può “codificare associazioni stereotipate e dispregiative in relazione a genere, razza, etnia e stato di disabilità. ”  

Tuttavia, a differenza dei pregiudizi in altri campi – i media, le arti e la cultura, il mondo accademico, ecc. – il tipo di pregiudizio che emerge dall’IA generativa è senza attribuzione o paternità. Quasi troppo vaga per essere offensiva, questa perdita di riconoscimento e definizione rivela un nuovo tipo di espropriazione digitale e rifiuto delle narrazioni palestinesi e delle esperienze vissute.

Immagini di un gatto generate dall’intelligenza artificiale con i suggerimenti “Keffiyeh palestinese” e “Santo Sepolcro”. (Ameera Kawash)

Il Dr. Matt Mahmoudi, ricercatore e consulente su IA e diritti umani presso Amnesty International, spiega come i diritti digitali esistano all’interno della matrice dei diritti umani, osservando che “non c’è alcuna quantità di de-biasing che può essere fatta nel contesto della AI generativa o altri sistemi di IA che li libererebbero dai particolari contesti politici, economici e sociali in cui sono stati prodotti e in cui continuano a operare”. 

L’oscuramento dell’intelligenza artificiale impedisce ai pregiudizi intrinseci di questi sistemi di diventare leggibili, mentre affermare di essere in beta test pubblico ( è fase di prova e collaudo del software non ancora pubblicato, con lo scopo di trovare eventuali errori n.d.t.) consente alle aziende di evitare la responsabilità. L’intelligenza artificiale, spiega Mahmoudi, è “effettivamente in beta (verifica) perpetua, il che significa che sarà sempre in grado di liberarsi della responsabilità [dovuta] al fatto che non è completamente sviluppata o non dispone di dati sufficienti”.  

Mahmoudi sottolinea inoltre che molti strumenti di intelligenza artificiale generativa sono stati addestrati su set di dati precedenti al 2021, prima che Human Rights Watch, Amnesty International e altri importanti gruppi facessero eco alle affermazioni palestinesi di lunga data adottando il termine “apartheid” per descrivere il regime politico in Israele/Palestina. “Anche queste informazioni sarebbero classificate da questi sistemi di intelligenza artificiale generativa e restituirebbero quei risultati se qualcuno andasse a cercare nel sistema o [loro] chiamerebbero [Israele/Palestina] contestata?” lui chiede.

In altre parole, anche se domani la situazione cambiasse radicalmente, l’IA generativa continuerebbe a imitare i riferimenti all’occupazione del discorso mainstream e a replicare le egemonie di Internet fino a quando i suoi programmatori non decidano altrimenti. Prendendo i suoi dati dall’internet dominante, che ripetutamente omette o distorce le narrazioni palestinesi e l’esperienza vissuta, l’apartheid è iscritto nel suo DNA. Pertanto, non possiamo aspettarci che l’IA generativa crei immagini o testi che non replichino l’attuale status quo sotto l’apartheid e l’occupazione. Questo pone limiti politici e sociali molto reali al sogno della macchina dell’IA. 

Immagini di un gatto generate dall’intelligenza artificiale con i suggerimenti “Keffiyeh palestinese” e “Cupola della roccia”. (Ameera Kawash)

Sfatare i miti della neutralità

Per rendere l’IA più equa e più responsabile, spiega Mahmoudi, è necessario “lavoro extra in cui poi dobbiamo fare un lavoro di conoscenza che riguarda l’eliminazione delle storture del sistema, facendo in modo che il sistema rappresenti correttamente il mondo”. Tuttavia, avverte, questo crea “strati aggiuntivi che devono essere rimossi prima di arrivare alla causa principale del problema, che è il crimine internazionale dell’apartheid in Palestina”. 

Sfatare i miti della neutralità nei sistemi di intelligenza artificiale sarà fondamentale se si vuole che diventino sempre più onnipresenti. Tuttavia, come osserva Mahmoudi, “l’onere dovrebbe essere sulle persone che vogliono implementare le tecnologie per dimostrare perché è necessario, non su di noi per dimostrare perché non dovrebbe essere implementato”. 

Per tornare al mio gatto generato dall’intelligenza artificiale alla Cupola della Roccia, la sua kefiah vaga e confusa potrebbe sembrare immateriale data la realtà sul terreno. Tuttavia, i capricci di queste distorsioni visive – che si trasformano in qualcosa che assomiglia più a uno zucchetto lavorato a maglia, a uno yarmulke o a un cappello da sci che a una kefiah – indicano l’oscurità dei set di dati e l’impenetrabilità del back-end che li produce. L’intelligenza artificiale classifica l’aspetto visivo dei coloni israeliani nazional-religiosi alla Cupola della Roccia in modo diverso rispetto ai fedeli palestinesi ad Al-Aqsa? Un gruppo è sovrarappresentato nel set di dati? Quali segnali visivi indica, incluso il genere? È multilingue? Scopriremo mai come funziona questo sistema o sarà perennemente avvolto nell’opacità?

Mentre affrontare l’inconoscibilità di questi sistemi è angosciante nel caso dell’IA a basso rischio, può essere potenzialmente pericoloso o addirittura mortale nei sistemi ad alto rischio. I sistemi di sorveglianza basati sull’intelligenza artificiale, come Clearview o BlueWolf, potenziano la capacità della macchina di rilevare schemi nei set di immagini.

Ad Al-Aqsa, la sorveglianza di massa del complesso da parte della polizia israeliana è in corso attraverso telecamere a circuito chiuso e droni . I palestinesi a Gerusalemme est, in Cisgiordania e a Gaza sono sempre più soggetti a sorveglianza biometrica e IA ad alto rischio come le tecnologie di riconoscimento facciale. 

Sotto questi sistemi di intelligenza artificiale, algoritmi e dati di sorveglianza possono essere utilizzati per limitare la libertà di movimento, riunione, privacy e religione dei palestinesi. Con l’intensificarsi di potenti sistemi di intelligenza artificiale nell’occupazione digitale e nell’apartheid, dobbiamo garantire che i diritti umani dei palestinesi siano salvaguardati anche se assumono dimensioni sempre più digitali.

La dottoressa Ameera Kawash è un’artista palestinese-irachena-americana e co-fondatrice di startup con sede a Londra.

PalestinaCeL

VIEW ALL POSTS

NEWSLETTER

Iscriviti e resta aggiornato