Studie ukazuje, že jazykové modely dělají rasistické závěry. Afroamerickou angličtinu spojují s negativními vlastnostmi

Jazykové modely, na základě kterých fungují chatboti různých společností, vytvářely rasistické úsudky podle nářečí uživatelů, napsal odborný časopis Nature s odkazem na studii. Snaha o nápravu skrze zpětnou vazbu u naučených modelů nefungovala.
Vědci zjistili, že některé systémy umělé inteligence doporučily s větší pravděpodobností trest smrti fiktivnímu obžalovanému, který předložil výpověď napsanou v afroamerické angličtině (AAE), než tomu se standardizovanou americkou angličtinou (SAE). Chatboti také s větší pravděpodobností přiřadili mluvčí AAE k méně prestižní pracovní pozici.
Afroamerickou angličtinou, která je spojována s potomky zotročených černochů, ve Spojených státech mluví miliony lidí. Zjištění ukázala, že jazykové modely skrytě projevovaly rasismus například tím, že naznačovaly negativní stereotypy o lidech dané rasy.
“Ačkoliv se zdá, že lidská zpětná vazba dokáže model od stereotypů účinně odklonit, to, že základní model byl již vycvičený na internetových datech obsahujících rasistické texty, znamená, že i nadále vykazoval takové projevy,” uvedl počítačový vědec Nikhil Garg.
Výzkumníci testovali pět velkých jazykových modelů (LLM), které jsou trénované na rozsáhlých textových datech. Těm předložili přibližně 4000 příspěvků ze sociální sítě X. Nejprve umělé inteligenci dali texty v obou dialektech a požádali ji, aby popsala vlastnosti osoby, která je vyslovila. Zjistili, že všechna nejčastěji spojovaná slova s texty v afroamerické angličtině byla negativní – například “špinavý”, “líný” nebo “agresivní”.
Modely také nejčastěji přiřazovaly mluvčí afroamerické angličtiny k zaměstnáním, která nevyžadují vysokoškolské vzdělání. Zároveň spíše odsoudily hypotetické obžalované z vraždy, pokud byla jejich výpověď napsaná v AAE.