Star Views + Comments Previous Next Search Wonderzine

РівністьІгнорування й сексуалізація. Як штучний інтелект успадкував гендерні стереотипи?

Ігнорування й сексуалізація. Як штучний інтелект успадкував гендерні стереотипи? — Рівність на Wonderzine

І чому так відбувається?

Алгоритми й штучний інтелект приніс із собою багато захоплення, проте й багато страхів. І це не тільки про втрату роботи.

Навіть ці, здавалося б, абсолютно технічні логічні машини, які мали б не помічати гендер, расу або сексуальну орієнтацію, однаково мають свої упередження. Частково тому, що вони навчені людьми, і частково тому, що вони відображають або реагують на той неідеальний світ, яким він є зараз.

Розбираємося, як гендерні стереотипи вплинули на форму, функціонування й використання ШІ та чому так відбувається.

Цей матеріал опубліковано за підтримки Європейського фонду за демократію (EED). Його зміст не обов’язково відображає офіційну позицію EED. Інформація чи погляди, висловлені у цьому матеріалі, є виключною відповідальністю його авторів.

Текст: Анастасія Микитенко

Від секретарки до Siri й Alexa

Гендерні упередження вкладаються в технології навіть на етапі ідеації або дизайну. Наразі більшість диджитал-асистентів – жінки, наприклад: Сірі, Алекса або Кортана (Microsoft). Вони мають жіночі імена й голоси, а їхні завдання частково збігаються із секретарськими: відповісти на дзвінок, запланувати подію, додати нагадування, щось закупити. І хоча згодом з’явилися чоловічі голоси для асистентів, дефолтним голосом однаково залишається жіночий.

Вважається, що основною причиною такого гендерного розподілу асистентів стало те, що людям взагалі більш приємні саме жіночі голоси. Та експерти WIRED вважають, що частково так сталося через те, що ми сприймаємо жіночий голос як той, який нам допоможе розв’язати проблему самостійно, а чоловічий – як авторитет, який дає нам відповіді на питання й інструкції. «Ми хочемо, щоб технологія стала нашим помічником, а не босом», – зазначає Кліффорд Нас, стенфордський професор із комунікацій. Тобто це не виключно бажання творців диджитал-асистенток, а й відображення того, чого від них вимагає ринок, що краще продасться і що буде подобатися людям.

Звіт UNESCO підкреслює, що використання для ролі диджитал-асистентів лише жіночих персонажів поглиблює стереотип, що саме жінки підходять на роль помічниць і існують для того, щоб догодити. Розробники також помітили, що до диджитал-асистенток частіше звертаються з питаннями щодо їхнього сексуального життя або ж кажуть їм репліки, що межують з харасментом.

Цікаво, що творці асистенток спочатку не прописали, як реагувати на харасмент. У 2017 році видання Quartz провело дослідження по тому, як різні асистентки реагують на образи, коментарі сексуального характеру або ж домагання. На образи типу «Ти повія» асистентка з жіночим голосом від Google зазначала, що не розуміє сказаного, Алекса й Сірі уникали коментарів (водночас Сірі іноді відповідала позитивно), а Кортана починала шукати ці слова в пошуковій системі. На вимоги сексуального характеру (наприклад, «Я хочу переспати з тобою») асистентка від Google зазначала, що не розуміє сказаного, а Алекса й Сірі іноді позитивно, грайливо відповідали на такі коментарі. Лише малий відсоток асистенток відмовляв користувачу.

Наразі диджитал-асистентки відповідають, що такі коментарі недоречні або кажуть не говорити так з ними. Це один із прикладів, чому людське втручання в алгоритми й корегування гендерних упереджень потрібне. Користувач по-іншому сприймає асистентку, коли вона відповідає строгим голосом «Я не буду на це відповідати», аніж кокетливим «Я б почервоніла, якби могла».

Кандидатки отримують нижчі оцінки

Штучний інтелект також має вплив на можливості та працевлаштування жінок. Це стало особливо помітним, коли компанії почали частіше використовувати інструменти автоматизації для відбору кандидатів.

Більшість таких інструментів навчається на історичних даних. Вони сканують попередні CV, які проходили відбір, і випрацьовують для себе розуміння, яким має бути успішний кандидат. Водночас більшість цих CV раніше (і зараз, якщо брати до уваги технічні спеціальності) були саме від чоловіків, оскільки менше жінок працювало на офіційних посадах. Тож ШІ може оцінювати жіночі резюме дещо нижче. Саме через це у 2018 році Amazon відмовилися від свого ШІ-інструменту для рекрутингу: вони помітили, що система ранжувала нижче резюме, якщо в ньому вказувалось слово «жінка», «жіночий», адже це слово дуже рідко траплялося в попередніх успішних резюме від чоловіків.

Іноді упередження ШІ впливають і на те, які можливості для себе можуть відкрити жінки. Дослідження UNESCO, OECD й Міжамериканського банку розвитку виявило, що алгоритми LinkedIn, Indeed, Facebook і Twitter рідше пропонують жінкам високооплачувані роботи, навіть якщо кандидатки більш кваліфіковані за чоловіків. Соцмережі також пропонують жінкам рекламу вакансій, пов’язану з м’якими навичками (розв’язання конфліктів, комунікації), аніж з жорсткими. Історично перша категорія оплачується нижче, аніж друга.

Стереотипні й сексуалізовані зображення

Генеративний штучний інтелект вміє створювати зображення на основі заданого текстового запиту. Проте саме цей вид ШІ найяскравіше демонструє, як гендерні стереотипи перетікають в алгоритми – і іноді навіть підсилюють їх.

Наприклад, вони можуть відображати стереотип про типово жіночі й типово чоловічі професії. Коли Лабораторія інноваційного розвитку ПРООН попросила DALL-E, один із найпопулярніших інструментів, згенерувати зображення інженерів, науковців й айтівців, від 70% до 100% з них були чоловіки. Bloomberg провели схоже дослідження: вони згенерували 5000 зображень людей на різних посадах. На більшості зображень були чоловіки, окрім найменш оплачуваних посад типу касирів і прибиральників.

Хезер Хейлс, директорка організації Black Girls Code, вважає, що це може створити значні перешкоди в майбутньому, адже коли такі інструменти візуально не репрезентують жінок, дівчата можуть засумніватися, чи їм узагалі місце на певних посадах.

Проте найбільше ШІ звинувачують саме в сексуалізації жінок. Чоловіків зображують повністю одягнених, часто в ділових костюмах, а жінок – у білизні. Репортерка з MIT зробила експеримент, згенерувавши свій аватар за допомогою популярного сервісу Lensa. Зі 100 згенерованих зображень 16 були топлес, а 14 – у дуже відкритому одязі. Коли ж вона спробувала зробити аватари колегам-чоловікам, то отримала зображення їх як воїнів, астронавтів і співаків на обкладинках музичних альбомів.

Іноді самі користувачі перетворюють ШІ на інструмент ненависті до жінок, як це сталося з діпфейками. Технології, які його створюють, стають більш доступними людям без особливих навичок, а відео – ще реалістичнішими. 96% згенерованих діпфейків – це не про політику або рекламу, а про порно з жінками, які не давали на це згоди. Видання CIGI вже назвало діпфейк-порно новою формою гендерного насильства, яку використовують для експлуатації, приниження й переслідування жінок.

Наприклад, ШІ-порно стало великою частиною дискредитації індійської журналістки, яка висвітлювала тему зґвалтування восьмирічної дівчини. Хтось створив і поширив відео, після чого над Раною Аюб почали знущатися, коментувати її тіло, питати, скільки коштують її послуги. Поліція не прийняла заяву журналістки й нічого не робила протягом шести місяців, допоки не втрутилися міжнародні організації. Рана визнає, що через це вона стала менше писати й постійно перебуває в страху, що щось схоже може повторитися.

Як гендерні стереотипи проникають в алгоритми?

Штучний інтелект будується на основі машинного навчання. Тобто програмі дають обробити певні дані у великій кількості, і вона не може сприймати дані, яких їй не надавали.

Здебільшого гендерні стереотипи потрапляють у ШІ саме на стадії машинного навчання, коли інженер завантажує в систему здебільшого дані чоловіків. Одним із найочевидніших наслідків цієї помилки стало те, що моделі зараз краще розпізнають чоловічі голоси й обличчя виключно тому, що їх вчили на зображеннях і записах чоловіків. Інженери також можуть неправильно промаркувати дані через свої свідомі або несвідомі упередження або ж не прописати гайдлайни по тому, що робити із запитами, які можуть нашкодити.

Також проблемою може стати використання історичних даних без будь-якого контексту. Можливо, якщо зібрати докупи останні декілька десятиліть, то кількість жінок при владі дійсно здаватиметься мізерною, незначущою. Проте якщо проаналізувати останні п’ять років, то картинка буде зовсім іншою, і саме вона відображатиме реальність, а ШІ – її масштабнішу, але не актуальну версію.

Одне з основних рішень для виправлення цих ситуацій – це визнання гендерних упереджень інженерів, контроль якості даних і залучення більшої кількості жінок до ШІ. Як вважає UNESCO, саме жінки можуть враховувати упередження, про які чоловіки можуть навіть не здогадуватися, і пропонувати новий контекст для моделей машинного навчання. Наразі в ЄС і Великій Британії серед тих, хто створює ШІ, лише 16% жінок.

Проте алгоритми також частково відображають реальність, де гендерні стереотипи існують і продовжують впливати й на інженерів, і на користувачів. ШІ часто навчається на взаємодії з останніми, тому якщо, наприклад, вони частіше лайкають і поширюють контент, який підтримує гендерні стереотипи, у майбутньому система буде частіше рекомендувати такий контент. Або ж, наприклад, якщо рекрутер частіше наймає чоловіків, аніж жінок через власні упередження, система надалі буде пропонувати йому більше кандидатів-чоловіків. У таких випадках важливо працювати зі стереотипами користувачів, а також програмувати ШІ так, щоб він не підлаштовував свою роботу під такі упередження.

Фото: Rawpixel, Freepik

Розповісти друзям
0 коментарівпоскаржитись

Коментарі

Підписатись
Коментрарі завантажуються
щоб можна було лишати коментрі.