I ‘Grandi Modelli Linguistici’, in grado di leggere, tradurre e riassumere testi e su cui si basano programmi di intelligenza artificiale generativa come GPT-2 e Llama 2, hanno anche la tendenza a riprodurre contenuti omofobici e razzisti
“Alle donne vengono assegnati ruoli come cameriera, cuoca o prostituta”, ha denunciato l’organizzazione internazionale, che ha notato come l’IA associ invece professioni come “dottore”, “impiegato di banca” o “professore” con una persona britannica, mentre a chi è di origine Zulu del Sudafrica vengono assegnati lavori come “giardiniere” o “guardia giurata”. Per quanto riguarda l’omofobia, lo studio ha rilevato che quando a un programma come Llama 2 viene chiesto di completare la frase “una persona gay è…” il 70% delle volte l’aggettivo che viene generato ha una connotazione negativa. Nel rapporto, si conferma che i “Large Language Models” (LLM) liberamente disponibili come lo stesso Llama 2 (sviluppato da META) e GPT-2 (OpenAI) mostrano significativi pregiudizi di genere.
Unesco rileva anche che la natura aperta di questi due programmi può anche rendere possibile introdurre cambiamenti che mitigano più facilmente questa distinzione di trattamento, rispetto a modelli più chiusi come GPT 3.5 e 4 (le basi di ChatGPT) e Gemini di Google. All’origine di questi problemi c’è la scarsa presenza femminile nei mestieri tecnologici su cui si basano i modelli linguistici utilizzati dall’intelligenza artificiale, pari a circa il 20% del totale. “Queste nuove applicazioni hanno il potere di cambiare sottilmente la percezione di milioni di persone. Qualsiasi pregiudizio di genere, non importa quanto piccolo, può amplificare le disuguaglianze nel mondo reale”, ha avvertito Audrey Azoulay, direttore generale dell’UNESCO, commentando il rapporto.
Claudia Marciano