
Come abbracciare la diversità nelle assunzioni tramite l’IA
Nelle conversazioni sulla diversità e l’inclusione sul posto di lavoro, i vantaggi pratici di una forza lavoro diversificata possono talvolta perdersi nelle chiacchiere. Quando ciò accade, vale la pena ricordare: le 20 società più diverse nell’indice S&P 500 ottengono una redditività a lungo termine più elevata rispetto alle loro controparti meno diversificate. Le aziende nel quartile più alto per diversità nella leadership hanno maggiori probabilità di sovraperformare in termini di redditività, creare valore superiore e avere buone prestazioni finanziarie. Entro il 2025, il solo progresso dell’uguaglianza di genere sul posto di lavoro potrebbe aggiungere 12 trilioni di dollari al PIL globale. Nonostante questi ovvi vantaggi, il 48% delle aziende non è sulla buona strada per raggiungere i propri obiettivi di diversità o non ha alcun obiettivo.
In che modo le aziende in difficoltà possono migliorare i propri risultati in termini di diversità? Il primo passo è riconoscere i pregiudizi umani nel reclutamento. In media, i reclutatori passano 7 secondi a rivedere un curriculum individuale. In così poco tempo, i reclutatori spesso si affidano a giudizi improvvisi che potrebbero essere colorati da pregiudizi di somiglianza, effetto di contrasto e altro. Sebbene i reclutatori umani potrebbero non avere il tempo di esaminare ogni domanda in modo più approfondito, dovrebbero essere consapevoli delle soggettività che i selezionatori umani portano al processo di assunzione.
Il software è una soluzione? Il 90% delle imprese e il 68% delle piccole imprese utilizzano sistemi di tracciamento dei candidati, ma neanche il software di reclutamento è immune da pregiudizi. L’utilizzo di software che si basa su parole chiave nella ricerca di curriculum può riflettere la capacità di un candidato di scrivere un curriculum ricco di parole chiave, ma non le sue qualifiche effettive. La ricerca di sinonimi risolve parte del problema, ma non tutto. Un esempio calzante di software di reclutamento andato male è Amazon. Nel 2018, Amazon ha abbandonato la sua intelligenza artificiale di reclutamento all’avanguardia dopo aver imparato da sola a penalizzare i curriculum che includevano la parola “femmina” o menzionati college di sole donne. Le IA non vengono programmate con pregiudizi umani; li apprendono elaborando dati e identificando modelli. Se i dati forniti sono distorti, i suoi risultati rifletteranno i bias. L’intelligenza artificiale di Amazon è stata addestrata su un decennio di curriculum e decisioni di assunzione. Di conseguenza, l’IA ha rilevato ed esagerato i pregiudizi esistenti nel processo di screening.
Cosa si può fare per migliorare la situazione? L’81% dei professionisti delle risorse umane ammette che le proprie pratiche attuali sono nella media o peggio nell’area della diversità. Molti non sono sicuri di come addestrare un’IA senza pregiudizi. Alcuni modi per non discriminare i dati esaminati da un’intelligenza artificiale includono la raccolta di dati da vari settori, lavori e candidati, la rimozione di fattori come età, sesso e nomi dallo screening iniziale e la considerazione di quanto bene un candidato e un’azienda si adattano da entrambe le prospettive. Passi importanti da intraprendere dal lato umano sono la definizione di obiettivi di miglioramento chiari e tracciabili, la creazione di standard di formazione sulla diversità e un’opportunità per imparare dai colleghi, la collaborazione strategica con organizzazioni, scuole e college esterni e la garanzia che la gestione e le politiche supportino la diversità e l’inclusione a ogni livello.
Superare i pregiudizi legati al reclutamento può aiutare un’azienda a prosperare. E nelle parole di Lena Waithe, scrittrice, produttrice e attrice vincitrice di un Emmy, “l’unico modo per vedere veramente il cambiamento è aiutarlo a crearlo”.