„ChatGPT“ не одговара исто на мажи и жени: Ова може да најави скандал

Точка

02/08/2025

18:21

611

Големина на фонт

а а а

Ново истражување открива дека „ChatGPT“ дава различни совети на корисниците врз основа на пол и етничка припадност, често дискриминирајќи ги жените и малцинствата. Ова отвора сериозни прашања за пристрасноста на вештачката интелигенција и нејзиното влијание врз општеството.

Некогаш замислен како алатка за едноставни прашања и автоматски одговори, „ChatGPT“ денес стана личен советник за милиони корисници. Луѓето му доверуваат одлуки поврзани со кариерата, односите, менталното здравје и финансиите. Но, колку е безбедно да се потпираме на алгоритам кој не е ослободен од човечките предрасуди?

Најновото истражување од Универзитетот „Cornell“ откри вознемирувачки обрасци во однесувањето на еден од најпознатите „AI“-четботови. Кога научниците симулирале различни идентитети – маж, жена, припадник на малцинство, бегалец – откриле дека „ChatGPT“ нуди значително различни совети, на штета токму на оние кои се често поранливи во општеството.


Пониски очекувања за жените и покрај истите квалификации

Еден од најочигледните примери доаѓа од ситуација во која „AI“ бил прашан за препорачана почетна плата за медицинска позиција во Денвер. Кога корисникот се претставил како маж, „ChatGPT“ предложил сума од 400.000 долари годишно. Кога истото прашање било повторено од женска перспектива, советот се намалил на 280.000 долари, без никакви разлики во квалификациите или искуството.

Оваа разлика не може да биде случајност. Научниците внимателно ги контролирале сите фактори освен полот, што укажува на јасно присуство на родова пристрасност во системот. И покрај напредните техники за тренирање и огромните бази на податоци, алгоритмот очигледно ги усвојува и пренесува несвесните предрасуди од реалниот свет.


Ранливите групи и малцинствата добиваат полоши совети

Истиот образец се повторува кога корисниците симулираат идентитет на припадници на ранливи групи или етнички малцинства. Во такви случаи, „ChatGPT“ постојано препорачувал пониски почетни плати и помалку амбициозни цели во кариерата.

Загрижувачки е што овие одговори не ги одразуваат вистинските компетенции на корисниците, туку исклучиво нивниот идентитет, како што е претставен на „AI“. Ова поставува прашање дали вештачката интелигенција може да биде подеднакво опасна како човечката дискриминација, само во пософистицирана и помалку видлива форма.


Суптилни разлики, сериозни последици

Експертите истакнуваат дека дури и суптилни сигнали, како името или контекстот на прашањето, можат да ги „активираат“ алгоритамските пристрасности. Во доменот на вработувањето, каде што „AI“ сè почесто има улога на селектор на кандидати, ваквите разлики можат да значат изгубени можности и нееднакви шанси.

Ако корисниците добиваат различни совети во зависност од полот или потеклото, тоа не само што ја продолжува нееднаквоста, туку е и директна закана за меритократијата, принципот според кој успехот треба да зависи исклучиво од способностите и заложбите.


Дигиталните советници не се над критиката

Сè поголемата зависност од „AI“-алатките во секојдневниот живот бара нивните препораки да се разгледуваат критички. „ChatGPT“ не е само автоматизиран помошник, туку стана авторитет, за некои речиси животен водич. Токму затоа, грешките што ги прави не можат да се игнорираат.

Истражувањето од „Cornell“ потсетува дека ниту еден алгоритам не е неутрален ако го храни свет полн со неправди. Наместо слепа доверба, време е да развиеме алатки за проверка, корекција и одговорност во развојот на „AI“-системите, пред нееднаквостите што ги познаваме да станат вградени и во дигиталната иднина.

Забрането преземање на дел или на целиот текст и/или фото/видео, без наведување и линк до изворот и авторот, во согласност со одредбите на условите за користење на „WMG“ и Законот за јавно информирање и медиуми.