Може ли една програма за изкуствен интелект да стане „психопатична“?
Така нареченият алгоритъм на Норман има мрачен поглед върху живота благодарение на Reddit
С
Изследователите са създали алгоритъм за изкуствен интелект (AI), за който твърдят, че е първата психопатна система от този вид.
Norman, програма за изкуствен интелект, разработена от изследователи от Масачузетския технологичен институт (MIT), не е била изложена на нищо друго освен ужасяващи изображения на умиращи хора, които са били събрани от тъмните ъгли на чат форума Reddit, според Би Би Си .
Това дава Норман, име, получено от трилъра на Алфред Хичкок Психо , малко мрачен поглед върху живота.
След като били изложени на изображенията, изследователите подавали на Норман снимки на петна от мастило и помолили AI да ги интерпретира, съобщава телевизионният оператор.
Когато нормален AI алгоритъм интерпретира петна от мастило като изображение на птици, кацнали върху клон на дърво, Норман видя вместо това мъж да бъде убит с токов удар, казва The New York Post .
И когато стандартната система за изкуствен интелект видя двойка, застанала един до друг, Норман видя мъж, скачащ от прозорец.
Според алфр , проучването е предназначено да проучи как се променя поведението на AI система в зависимост от информацията, използвана за нейното програмиране.
Това е завладяваща идея, казва уебсайтът и показва, че алгоритъмът е толкова добър, колкото хората и всъщност данните, които са го научили.
Обяснение на проучването, публикувано на Уебсайт на MIT казва: Когато хората говорят, че AI алгоритмите са пристрастни и несправедливи, виновникът често не е самият алгоритъм, а предубедените данни, които са му подавани.
Норман е страдал от продължително излагане на най-тъмните ъгли на Reddit и представлява казус за опасностите от обърканост на изкуствения интелект, добавя се.
Появявали ли са се „психопатични“ ИИ преди?
С една дума, да. Но не в същия дух като програмата на MIT.
Норман е продукт на контролиран експеримент, докато други технологични гиганти са видели подобни резултати от системи с изкуствен интелект, които не са проектирани да станат психопати.
Прословутият алгоритъм на Microsoft Tay, стартиран през 2016 г., беше предназначен да бъде робот за чат, който може да провежда автономни разговори с потребителите на Twitter.
„Тей“ премина от „хората са супер готини“ до пълен нацист<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Гери (@geraldmellor) 24 март 2016 г
Въпреки това, AI системата, която е проектирана да говори като тийнейджърка, бързо се превърна в зъл обичащ Хитлер и инцестуален робот, насърчаващ секса, което накара Microsoft да изключи проекта, казва The Daily Telegraph .
Личността на Тей се е променила, тъй като отговорите му са моделирани на коментари от потребители на Twitter, много от които изпращат груби съобщения за AI програмата, обяснява вестникът.
Facebook също спря експеримент с чатбот миналата година, след като две системи с изкуствен интелект създадоха свой собствен език и започнаха да общуват помежду си.