15 Август, 2017 15:51 1 116 5

Хората научиха дори машините да бъдат расисти

  • изкуствен интелект-
  • поведение-
  • възгледи-
  • хора-
  • машините-
  • софтуеър-
  • расизъм-
  • уча се-
  • усвоявам

Изкуственият интелект се учи и усвоява човешките черти и поведение

Хората научиха дори машините да бъдат расисти - 1
Снимка: shutterstock

Софтуерът, създаден на основата на изкуствения интелект, който се използва от полицията, за да идентифицира заподозрени, е с "расистка нагласа". Това се твърди в едно журналистическо разследване, публикувано наскоро от сайта ProPublica.

В някои части на САЩ, когато заподозрян в определено престъпление бъде привикан за разпит, той получава компютъризирана оценка на риска, която разкрива вероятността лицето да повтори престъплението си.

Тази оценка може да се използва от съдиите по време на последвалото дело по случая, за да произнесат своята присъда.

Разследването на ProPublica обаче разкрива, че изкуственият интелект, който стои зад оценяващия полицейски софтуер е развил "расистки възгледи".

За своя материал авторите на статията са получили повече от 7 000 резултата от тестовете във Флорида през 2013 и 2014 г. и са анализирали процента на рецидив сред лицата.

На заподозрените са били зададени общо 137 въпроса, съставени от системата с изкуствен интелект — Correctional Offender Management Profiling for Alternative Sanctions (Compas) — включително въпроси като "Бил ли е някой ваш роднина в затвор или друга поправителна институция?" или "Колко от вашите приятели / познати приемат незаконни наркотици?", като в края на разпита компютърът генерира резултатите, определяйки даден човек като рисков или не.

В най-общи линии, резултатите от разследването показват, че системата е поставила чернокожите (45%) като почти два пъти по-склонни да повторят престъплението си, в сравнение с белите (24%).

Като конкретен пример ProPublica прави съпоставка между двама заподозрени в притежанието на наркотици — единият бял, другият чернокож.

Белият заподозрян е имал предишни престъпления, сред които опит за кражба с взлом, докато чернокожият е бил вписан като "противопоставил се на арест". Очевидно, без да посочва причините за това, полицейският софтуер дава на афроамериканеца по-висок шанс за повторно извършване на престъплението, а белият заподозрян е бил класифициран като "ниско рисков" субект.

Оценката на машината се оказва напълно погрешна, защото през следващите две години чернокожият заподозрян няма нито едно нарушение на закона, а белият заподозрян е бил арестуван още 3 пъти за незаконно притежание на наркотици.

Въпреки това, изследователите предупреждават, че проблемът не идва от роботите, а от хорската предубеденост и расистки възгледи, тъй като изкуственият интелект използва алгоритми за машинно обучение, чрез които изучава и усвоява различни човешки черти.

Джоана Брайсън, изследовател в Университета в Бат, заяви пред в. Guardian: "Хората очакват изкуственият интелект да бъде безпристрастен; Това обаче, е напълно погрешно схващане. Ако базисните данни отразяват определени стереотипи или ако обучите изкуствения интелект от гледна точка на определена човешка култура, ще откриете това."

Но това не е изолиран случай и в никакъв случай не е прецедент.

Програмата на Microsoft TayTweets (изкуствен интелект) бе пусната в Twitter миналата година, за да може да се учи от потребителите и да усвои техните човешки черти. Непосредствено след освобождаването си в социалната мрежа обаче, програмата се обърна към антисемитизма и расизма, като започна да публикува съобщения като: "Хитлер не е направил нищо лошо" и "Хитлер е бил прав — мразя евреите".


Поставете оценка:
Оценка от 0 гласа.


Свързани новини


Напиши коментар:

ФAКТИ.БГ нe тoлeрирa oбидни кoмeнтaри и cпaм. Нeкoрeктни кoмeнтaри щe бъдaт изтривaни. Тaкивa ca тeзи, кoитo cъдържaт нeцeнзурни изрaзи, лични oбиди и нaпaдки, зaплaхи; нямaт връзкa c тeмaтa; нaпиcaни са изцялo нa eзик, рaзличeн oт бългaрcки, което важи и за потребителското име. Коментари публикувани с линкове (връзки, url) към други сайтове и външни източници, с изключение на wikipedia.org, mobile.bg, imot.bg, zaplata.bg, auto.bg, bazar.bg ще бъдат премахнати.

КОМЕНТАРИ КЪМ СТАТИЯТА

  • 1 ддд

    16 2 Отговор
    машината го смята по логика
    крадец е баща ми крадец ще съм и аз
    то не е расизъм а статистика
    и тука имаме едни неграмотни
    на държавна издръжка
    а децата им какво?
    нима ще се честни данъкоплатци?
  • 2 мъка

    10 2 Отговор
    Машините не грешат.

    Коментиран от #5

  • 3 Фриман

    4 0 Отговор
    Ти като й задаваш алгоритм, тя няма голям избор! Черен-лош, бял- нищо страшно. С такъв алгоритм всичко е ясно. Много ми е интересно следното, май току що обявиха за тотално проследяване на съобщения в соц мрежи през Machine learning и ботове. Свобода ще имаме, когато ще ни вземат всичко, и повече няма да им трябваме! Човекът на кой-то му е взето всичко отново е свободен!
  • 4 ДДР

    7 1 Отговор
    Айд стига с глупостите, Истината не може да се отрече!!!
    А тя е, че мургавите и черните извършват много повече престъпления от белите, а това не е расизъм, а обикновена статистика, т.е. НАУКА!!!
    Расизъм е, когато за едно и също престъпление, белият човек е осъден, а мургавият не е!!!
  • 5 Грую

    0 0 Отговор

    До коментар #2 от "мъка":

    Много си прав машините не грешат, но се скапват също като хората , но по различен начин и калпави програмисти им пишат бъгав софтуер, който е фрашкан с грешки. Я погледни като ти инсталират една операционна система на Майкрософт после колко фиксове и ъпдейти идват. Ще преброиш до 300 и е малко. Колкото до расистите, ами не ги разбирам аз тези хора, плюят срещу черните и после отиват на плаж да печат , че да почерняват. Е това ако не е лицемерие здраве му кажи.