©Foto di @mapbox da Unsplash https://unsplash.com/photos/wmhehhmeA1o

Si può essere sessisti anche con gli spazzaneve. Lo sappiamo per ciò che è avvenuto nel 2011 a Karlskoga, cittadina svedese, i cui amministratori pubblici stavano affrontando la questione della rimozione della neve dalle strade in inverno. Uno dei membri dell'assemblea comunale ha provocatoriamente e retoricamente chiesto ai colleghi cosa avrebbero detto i fanatici della cultura di genere in merito, adombrando la pervasività pretestuosa di simili argomenti in qualsiasi sfera del dibattito pubblico. Il tutto ha portato all'emersione di una triste ma ineluttabile realtà. In seguito ad un approfondimento, si è appreso come il ritmo dei passaggi pianificati per i mezzi in questione non tenesse in alcun conto i molti spostamenti a piedi delle donne, cui spettava (e spetta) in maniera assolutamente preponderante il primato in termini di accompagnamento dei figli a scuola ed altre mansioni legate alla gestione del nucleo familiare.

È il caso con cui Caroline Criado Perez sceglie di aprire il primo capitolo del suo fondamentale ed epocale Invisibili - Come il nostro mondo ignora le donne in ogni campo. Dati alla mano, testo dedicato a quantificare e a dare plastica evidenza alla nettezza della disparità di genere in tutte le pieghe del quotidiano attraverso l'enunciazione di dati concreti. Dovrebbero essere gli stessi dati che informano e caratterizzano le scelte di impostazione degli algoritmi digitali che finiscono per regolare molti degli aspetti della vita, da quelli finanziari a quelli professionali, a quelli educativi, con tutte le implicazioni possibili in termini di privacy e libertà di espressione della persona e della personalità.

Un argomento spesso banalizzato e sottovalutato, come nel caso del politico locale svedese, ma che torna in tutta la sua evidenza e tridimensionalità in un discorso che non può non essere inteso come profondamente culturale, essendo legato e radicato nella riflessione complessiva inerente l’identità e le relazioni collettive in rapporto ai diversi contesti della coesistenza civile. D’altronde è proprio l’invito a “Ripensare l’algoritmo” il decimo e conclusivo punto del Decalogo di genere per le industrie culturali e creative, frutto della sintesi della prima fase del percorso di riflessione, confronto e pensiero sviluppato nell’ambito di Letture Lente da diverse voci e intelligenze e distillato in una mappa di principi e riferimenti utili a cambiare lo scenario da Flavia Barca.

IL PARADIGMA CULTURALE UTILE

Foto di @franki da Unsplash https://unsplash.com/photos/1K6IqsQbizI

 

Se un libro - del quale non si può che consigliare caldamente la lettura - descrive la profondità del problema, è un altro libro che offre un approccio metodologico più che utile e consistente per affrontarlo e auspicabilmente risolverlo. Un contributo essenziale per orientarsi nella comprensione specifica delle meccaniche di riequilibrio del sistema viene da Catherine D'Ignazio e Lauren F. Klein che, per MIT Press, hanno pubblicato Data Feminism, focalizzato su "Un nuovo modo di pensare alla scienza e all'etica dei dati basato sulle idee del femminismo intersezionale". Il testo è rilasciato gratuitamente dall'istituto di ricerca grazie al recente programma di Open Access concesso su una parte rilevante del proprio catalogo, in ossequio al principio per il quale la prima e principale forma di empowerment è proprio quella di semplificare l'accesso alla conoscenza.

La lettura è illuminante perché codifica in maniera efficace ed efficiente sette principi cardine per un approccio realmente bilanciato alla comprensione delle pratiche sociali, tale da consentire poi una conseguente impostazione se non virtuosa, quantomeno consapevole dei meccanismi di organizzazione digitale delle stesse.

Il primo invito è "esaminare il potere", per individuare e comprendere appieno il modo in cui si dispieghino le sue dinamiche. La seconda direttrice è "sfidare il potere", nel senso di status quo, impegnandosi a mettere in discussione e cercare alternative a strutture di potere basate e costruite sulla diseguaglianza, nell'intento di operare in favore della giustizia.

Il richiamo alla considerazione reale e realistica delle emozioni e dei corpi viventi, del vissuto reale e delle storie delle persone completa l'arco dei principi più spiccatamente vocazionali, ma inserendo nella griglia un primo fondamentale richiamo ad una questione eminentemente pratica: la relativa validità dei Big Data, la considerazione massiva dei dati che tende ad appiattire e banalizzare l'effettiva quotidianità di molti esseri umani, non riducibili a mera statistica. Una regola tanto più vera quanto più ci si avvicina ad osservare la parte quantitativamente più contenuta di un campione, una minoranza la cui considerazione non può e non deve essere approssimata.

La prospettiva analitica corretta prende poi una forma più marcata e definita dalle prescrizioni successive, che suggeriscono in primo luogo di ripensare la concezione sociale fondata sull'elemento binario di genere, che non è in grado di esaurire la complessità dell'articolazione sociale, per prediligere un pluralismo che si traduce in una conoscenza più completa, frutto della sintesi di molteplici prospettive, con priorità data alla dimensione locale, autoctona ed esperienziale. Tutti prodromi del principio successivo, la necessaria considerazione del contesto, liberando il dibattito dalla falsa neutralità e oggettività dei dati, che fotografano in genere relazioni sociali diseguali.

A corollario, il lavoro inevitabilmente collettivo relativo alla scienza dei dati deve essere reso pubblico e dunque condiviso, in ossequio alla trasparenza e alla valorizzazione di chi abbia contribuito al processo.

Una serie di indicazioni compiute e paradigmatiche per un approccio più sano - a livello pubblico e privato - per eliminare i bias (non solo) di genere dai processi digitali. D’altronde, come ricordano nel loro recente dialogo Loretta Bondi e Flavia Barca, “Oltre a essere sinistramente strumentale, questa raccolta e uso dei dati non è neutrale, ma incarna e propaga stereotipi, inclusi quelli che riguardano le donne e altri di diversa (o multipla) natura discriminatoria.”

I PROGRAMMI DELLE AZIENDE HIGH TECH

Foto di @askkell su Unsplash  https://unsplash.com/photos/0E_vhMVqL9g

 

Da parte loro le grandi aziende tech mostrano una sempre maggiore tensione alla risoluzione di questo tipo di problemi, e i casi più recenti e ponderali per il panorama complessivo sono quelli di IBM e Microsoft.

Nel caso di IBM è stato elaborato il progetto "Trusting AI", che mira a migliorare gli strumenti tecnologici predittivi come IBM Watson garantendo equità, inclusività e responsabilità, anche se non c'è certezza del risultato dichiarato.

Oltre agli strumenti creati per le prestazioni, IBM Research ritiene che l'IA futura debba essere incentrata sulla fiducia e che la fiducia possa essere guadagnata solo attraverso valutazioni e modifiche coerenti. La fiducia nell'AI fa parte di questo piano e rappresenta il modo in cui IBM sta lavorando per garantire che la sua tecnologia sia equa e inclusiva, pur rimanendo responsabile quando è possibile apportare miglioramenti.

La piattaforma Azure AI di Microsoft verrà aggiornata per includere software anti-bias. Gli scienziati che sviluppano strumenti di intelligenza artificiale spesso lo fanno includendo nei percorsi elaborativi i propri pregiudizi, portando a una tecnologia che aumenta la discriminazione. Nel tentativo di migliorare tali pratiche, la piattaforma Azure di Microsoft viene aggiornata con un toolkit denominato Fairlearn, che aiuta le aziende a creare test del software di intelligenza artificiale circa i propri pregiudizi personali.

Il toolkit consente ai data scientist e agli sviluppatori di vedere non solo quali pregiudizi siano sfuggiti nella prima fase di progettazione, ma anche come tali mancanze potrebbero avere un impatto sulla vita dell'utente. Ad esempio lo strumento è stato utilizzato per testare l'algoritmo di prestito automatizzato di Ernst & Young, rivelando infine il pregiudizio di genere all'interno del sistema. Secondo i risultati del toolkit, il modello in questione aveva il 15,3% di probabilità in più di concedere prestiti agli uomini rispetto alle donne.

Sono tutte attività che tentano di compensare lo squilibrio strutturale di partenza dell’architettura degli algoritmi mediante un ricalibramento qualitativo più attento al senso e alla sostanza delle differenze ponderali che vengono attribuite nelle codificazioni dei sistemi digitali. Se tali evenienze possono essere lette come segnali incoraggianti, non si può assegnargli un significato che vada oltre quello dei necessari, indispensabili e doverosi “primi passi” in direzione del riequilibrio, peraltro ancora lontano, in termini assoluti. È interessante in questo senso l’approfondimento svolto da Kate Crawford, docente della University of South California e senior principal researcher di Microsoft Research, oltre che autrice del libro Atlases od AI, la quale – con assoluta cognizione di causa, visti i ruoli e le competenze – sostiene in maniera decisa l’inconsistenza della pretesa e presuntiva neutralità dell’algoritmo, concepito come “astratto e immateriale” nella vulgata comune. La risposta per superare il limite a colpo d’occhio invisibile dei bias non è quindi, a suo parere, l’immissione di più dati, quanto una revisione qualitativa, etica ed assolutamente più puntuale ed inclusiva delle categorie di classificazione nelle quali i dataset vengono organizzati. Un fattore di carattere culturale più che meramente tecnico, evidentemente.

LE INIZIATIVE ORIZZONTALI

Foto di @yasinyusuf da Unsplash https://unsplash.com/photos/fMh-VTuMHQs

 

Se gli sforzi delle multinazionali per un riequilibrio sono certamente apprezzabili e degni di nota, va sottolineato come sia un fatto acclarato che il sistema di algoritmi che attualmente definisce e domina il contesto delle infrastrutture digitali sia effettivamente figlio e frutto della prospettiva e del taglio concettuale scelto da ingegneri caucasici di mezza età (profilo comune a tutti i fondatori dei colossi digitali mainstream).

Alla verticalità di questi interventi di riallineamento, dicevamo, si aggiungono - portando un valore assai più consistente, esperienze di autoorganizzazione di gruppi di donne che, sulla scorta di un'acquisizione di visibilità, potere e rilievo professionale decidono di coalizzarsi mettendo a fattore e a sistema competenze e risorse per contribuire al miglioramento del panorama in ambiti specifici. Un fattore riassunto mirabilmente da Tiziana Catarci in uno dei passaggi della sua recente riflessione per Letture Lente relativamente all’impatto della mancanza di diversità nella rivoluzione digitale: “La vera opportunità del digitale offerta alle donne è rappresentata proprio dall’acquisizione di competenze specifiche nel settore che le metterebbero in grado di essere le artefici della trasformazione (rivoluzione) in atto, senza essere più relegate al ruolo di spettatrici.”

È alla radice del sistema tecnologico che si propone di intervenire ad esempio il gruppo Girls Who Code, che articola oltre 8.500 programmi di formazione, informazione e aggiornamento professionale sui temi della preparazione digitale nel mondo, con l'obiettivo dichiarato di costruire la più grande "filiera produttiva" di "futuri ingegneri donna". Un disegno che mira a compensare un trend assai preoccupante, che vede il tasso di ingegneri informatici donna nel mondo calare oggi al 24%, a fronte del 37% registrato nel 1995. Il risultato che si tende a perseguire non è solo di matrice quantitativa, comunque, dato che una delle formule usate per descrivere il senso della missione del gruppo è quello di colmare il divario di genere, naturalmente, ma con la specifica di voler "cambiare l'immagine di come appare e di quello che fa" un programmatore, liberando la figura e le sue prospettive dal peso dei luoghi comuni, promuovendo un rinnovamento che può definirsi unicamente e profondamente culturale.

In maniera analoga ragionano e operano i membri di Women in Technology, che si concentrano a più ampio spettro sull'inclusione digitale professionale delle donne, operando a tutti i livelli perché possano integrarsi nel miglior modo possibile all'interno di un mondo del lavoro in continua evoluzione, e dunque offrendo anche supporto per la riqualificazione e l'aggiornamento delle donne che rischino di essere penalizzate dallo sviluppo del mercato del lavoro.

Il collettivo Women In Technology International persegue finalità analoghe, ma offre anche un'ulteriore risorsa al dibattito, offrendo una galleria virtuale, l'Art Cafè, nella quale tutte possono trarre ispirazione dall'opera di artiste che usano arte e tecnologia per "il bene superiore".

Visione analoga ispira le iniziative di Women in Academy, che si propone esplicitamente di umanizzare l'intelligenza artificiale con il "Womenpower", intesa come la capacità di elaborazione concettuale e pratica - e naturalmente l'asseverazione professionale - delle donne, facilitate nel loro percorso di abilitazione lavorativa nel settore tecnologico dai molti programmi previsti.

Il quadro delineato da queste esperienze sembra illustrare la maggiore incisività dei percorsi di emancipazione delle figure professionali femminili come elemento chiave del percorso di bilanciamento delle istanze sociali nell'impostazione e nello sviluppo della trasformazione digitale in tutti i settori. Il mentoring, il tutoring e in generale il supporto educativo e informativo segnano un possibile sentiero capace di condurre tutti noi ad una più inclusiva e sostenibile esistenza collettiva. La conoscenza e la sua distribuzione si ergono, oggi più che mai, a fattori decisivi per la perequazione sociale e culturale.

Un approccio metodologico e di pensiero la cui necessità ed utilità è peraltro già sottolineato in chiusura dell’articolo “Le diseguaglianze di genere nella società dello spettacolo” su Economia della Cultura, Anno XXVIII, 2018/n.1-2, ancora a firma di Flavia Barca: “In conclusione è fondamentale, anche in questo caso, muoversi su un doppio livello: da una parte ‘pensare alto’, studiando, mettendo assieme evidenze, ripensando le politiche; dall’altro muoversi con velocità su piccoli ma decisi interventi, che inizino a produrre cambiamento nel breve periodo e diano segnali significativi alle nuove generazioni.”

Come accennato in precedenza, l’articolazione di un dibattito realmente efficace ed incisivo su questi temi non può che essere di natura spiccatamente culturale, e ad esso devono necessariamente partecipare e prendere parte tutti gli stakeholder del sistema, per riuscire a trasmettere in maniera collettiva, e quindi rilevante, l’urgenza della riconsiderazione strutturale della società (anche) digitale. Piattaforme ed algoritmi non sono meri strumenti di condivisione ed offerta per prodotti e servizi, ma parte integrante dell’infrastruttura sociale che regola le relazioni sociali, con tutte le implicazioni connesse in termini di potere e responsabilità. Un potere ed una responsabilità che, oggi più che mai, vanno condivisi e gestiti in una prospettiva consapevole, che tenga conto delle inevitabili e preziose specificità dei membri della comunità non in termini problematici ma costruttivi. L’inclusione, oggi più che mai, non genera dissonanza e disallineamento del sistema ma un suo reale, concreto e specifico arricchimento, indispensabile per affrontare la sfida della complessità del mondo contemporaneo.

ABSTRACT

A narrative map of women professional empowerment principles and experiences in the field of technology and Artificial Intelligence, to fight gender bias oriented algorithms that rule the world in the digital shift. The article suggests useful books and relevant practices promoted by big firms and independent communities of professionals, involved in a path of real and deep social innovation to build and promote a more inclusive digital world. Knowledge and cases depicted show a framework of possible tools and guidelines to find solutions to drive a more gender balanced social digital transformation.

Leggi anche:

 

Articoli correlati