Un recente articolo di The Guardian ha riportato che l’intelligenza artificiale tende ad oggettificare i corpi delle donne, etichettando le immagini con donne come “sexy” anche quando in realtà non lo sono (donne in costume da bagno, donne in gravidanza). Ovviamente questo non succede alle immagini di uomini quando per esempio vengono a fotografati a torso nudo.
Il fatto che le immagini di donne siano considerate più sexy penalizza i contenuti che sono pubblicati con queste immagini, e questo può tradursi, secondo The Guardian, anche in un danno economico: “le società di social media che sfruttano questi algoritmi o simili hanno soppresso la portata di innumerevoli immagini che ritraggono corpi di donne e danneggiato le imprese guidate da donne, amplificando ulteriormente le disparità sociali.”
La maggiore sessualizzazione dei corpi femminili riguarda secondo l’articolo il fatto che inizialmente l’etichettatura delle immagini sono state fatte da uomini eterosessuali, che quindi tendono a oggettificare maggiormente il corpo delle donne o che, siccome spesso queste attività di etichettatura sono fatte da personale nel Sud del mondo, in alcuni casi chi le ha etichettate come sexy possa appartenere a culture più conservatrici per quanto riguarda il corpo femminile.
Oltre al problema della maggiore caratterizzazione come sexy delle immagini delle donne che si trovano online ci sono ancora poche donne che lavorano nel campo dell’intelligenza artificiale; nel 2020 il World Economic Forum ha riportato che le donne rappresentano solo il 26% della forza lavoro nell’intelligenza artificiale.
Una maggiore presenza di donne nel settore potrebbe idealmente correggere il tiro ed evitare il perpetuarsi di stereotipi di genere.
Immagine di Amanda Dalbjörn su Unsplash