Intelligenza artificiale e bias di genere nel reclutamento del personale
Autori:

Salvatore Ammirato, Laura Cutrì, Alberto Michele Felicetti, Pierpaolo Pontrandolfo, Francesco Paolo Lagrasta, Barbara Scozzi

Intelligenza artificiale e bias di genere nel reclutamento del personale

L’intelligenza artificiale sta entrando nei processi di selezione promettendo efficienza, rapidità e, soprattutto, imparzialità. Questo volume presenta i risultati di un’indagine condotta su professionisti HR, costruita per misurare la consapevolezza dei bias di genere, la percezione del ruolo dell’IA nel recruiting e la fiducia nell’IA come leva di equità.

Pagine: 132

ISBN: 9788835189770

Edizione:1a ediz 2026

Codice editore: 12000.52

Informazioni sugli open access

L’intelligenza artificiale sta entrando nei processi di selezione promettendo efficienza, rapidità e, soprattutto, imparzialità. Ma può davvero “ripulire” il reclutamento dai pregiudizi di genere? E cosa accade quando la fiducia nella neutralità degli algoritmi diventa un atto di fede, oppure quando il rifiuto dell’IA nasce più da paure organizzative che da valutazioni fondate?
Questo volume presenta i risultati di un’indagine condotta su professionisti HR, costruita per misurare la consapevolezza dei bias di genere, la percezione del ruolo dell’IA nel recruiting e la fiducia nell’IA come leva di equità. Ne emerge un quadro realistico e, per certi versi, spiazzante: i bias vengono riconosciuti come fenomeno sociale, ma faticano a essere ammessi nel proprio operato (il classico bias blind spot); l’adozione dichiarata dell’IA restalimitata e spesso confusa con una definizione “stretta” di intelligenza artificiale; la neutralità algoritmica è percepita con prudenza, mentre cresce la richiesta di regole, trasparenza e supervisione.
Accanto all’analisi dei dati, gli autori propongono un set di implicazioni operative per policy maker, aziende e fornitori tecnologici: strategie di debiasing lungo tutto il ciclo di vita dei sistemi, audit periodici, formazione, standardizzazione delle pratiche e strumenti di monitoraggio capaci di trasformare l’equità da dichiarazione di principio a metrica verificabile. Perché l’IA non è intrinsecamente neutrale: può diventare un alleato solo quando è progettata e governata con responsabilità, e quando le competenze umane restano parte attiva – non una firma in calce – del processo decisionale.

Note biografiche degli autori

Nino Foti, Presentazione

Valter Quercioli, Prefazione

Introduzione

Gli ambiti della ricerca

  • Reclutamento del personale
  • Gender bias nel processo di reclutamento del personale
  • L’intelligenza artificiale nel reclutamento del personale
  • Bias dell’IA e bias di genere

La ricerca

  • La metodologia
  • Lo strumento: il questionario

I risultati dell’indagine

  • Profilo dei rispondenti
  • Le riposte

Discussione

  • RQ1 – Quali sono la percezione e il livello di consapevolezza dei bias di genere nel processo di reclutamento?
  • RQ2 – Come è percepito il ruolo dell’intelligenza artificiale nel processo di reclutamento?
  • RQ2.1 – In che modo l’IA influisce sui bias di genere nel reclutamento?

Conclusioni

  • Implicazioni
  • Limiti della ricerca
  • Prospettive future

Appendice A

Appendice B

Bibliografia

Potrebbero interessarti anche