Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Для населения вводят валютное ограничение — что об этом думают люди
  2. «Вызывает глубокую тревогу». Эксперты ООН обратились к властям Беларуси
  3. Доллар стремительно дешевеет: что будет с курсами в конце апреля. Прогноз по валютам
  4. Налоговики рассылают «письма счастья» из-за зарплат. В чем причина
  5. Том Круз имеет все шансы получить крупнейший гонорар в истории Голливуда. Название этого фильма вам явно понравится
  6. Коррупция, махинации, пьянки. Что рассказал в мемуарах первый посол независимой Беларуси (он был из оппозиции и работал в Германии в 90-х)
  7. Экс-министр иностранных дел Украины оценил вероятность вступления Минска в войну на стороне России. Вот к каким выводам он пришел
  8. Пророссийская партия победила на выборах в одной из стран Евросоюза
  9. «Надо успеть, пока окно не закроется». Основатель EPAM рассказал трогательную историю своей семьи — минское гетто и эмиграция в 90-е
  10. Лукашенко рассказал, в чем он преуспел, и заявил, что новый президент появится «задолго до того, как я уйду в мир иной»
  11. Женщину, тело которой нашли в Витебской области, могли убить
  12. Чиновники придумали очередное ограничение для населения
  13. Лукашенко заговорил о возврате к советской системе


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.