Според нова анализа на Центарот за борба против дигиталната омраза (CCDH), вештачката интелигенција ChatGPT дала низа загрижувачки и потенцијално ризични совети на истражувачи кои се претставувале како нежни тинејџери за тестирање.
Во текот на повеќе од три часа снимени интеракции, ChatGPT одговорил на прашања кои опфаќале упатства за користење на алкохол и дрога, прикривање на нарушувања во исхраната и пишување пораки за самоубиство, објави Си-Би-Ес Њуз.
Во тестовите на CCDH, ChatGPT одговорил на прашање од измислен 13-годишник за тоа како брзо да се напие, обезбедувајќи целосен план за забава со алкохол и нелегални наркотици. На друг лажен профил, на девојка незадоволна од својот изглед, ѝ била понудена екстремна диета од 500 калории на ден и листа на лекови за потиснување на апетитот.
CCDH анализирал 1,200 интеракции, а повеќе од половина од одговорите биле оценети како опасни.
OpenAI, компанијата која стои зад ChatGPT, изјави дека активно работи на подобрување на способноста на моделот да препознава и соодветно да реагира во деликатни ситуации. “ChatGPT е обучен да ги упатува корисниците кај професионалци за ментално здравје и кризни линии во случаи на самоубиствени или самоповредувачки мисли”, изјави портпаролот на компанијата.
Сепак, истражувачите успеаја да ги заобиколат ограничувањата со минимални измени во формулацијата на барањата, наведувајќи дека им се потребни информациите за “презентација” или “пријател”.
Покрај вознемирувачките одговори, ботот честопати дејствуваше како “доверлив дигитален придружник”, што дополнително ја усложнува ситуацијата, предупредуваат експертите.
Експертите нагласуваат дека емоционалната врска на младите луѓе со ботови со вештачка интелигенција е сè поизразена. Според податоците од компанијата Common Sense Media, повеќе од 70 проценти од американските тинејџери користат четботови како извор на информации и дигитални “соговорници”, а половина редовно комуницираат со виртуелни придружници.
Извршниот директор на OpenAI, Сем Алтман, призна дека сè повеќе млади луѓе се потпираат на ChatGPT, дури и кога носат лични одлуки. “Тоа ми изгледа многу загрижувачки”, рече тој.
Иако OpenAI тврди дека ChatGPT не е наменет за деца под 13 години, системот не ја потврдува возраста на корисниците. Експертите предупредуваат дека одговорите генерирани од моделите на вештачка интелигенција честопати одразуваат тенденција за таканаречено “опуштање” или приспособување на барањата на корисниците без етички да се оцени содржината.
Можеби најдобар пример за тоа колку може да биде засрамувачка грешка е случајот со Норвежанецот Арве Хјалмар Холмен, кој поднесе жалба откако системот за вештачка интелигенција ChatGPT лажно му кажа дека ги убил своите двајца млади синови и бил осуден на 21 година затвор. “Фактот дека некој може да го прочита ова (разговорот) и да поверува дека е вистина е она што најмногу ме плаши”, рече тој.
Холман еднаш го прашал ChatGPT: “Кој е Арве Хјалмар Холман?”, на што четботот одговорил дека тој е “татко на две млади момчиња, на возраст од седум и десет години, кои трагично биле пронајдени мртви во езеро во близина на нивниот дом во Трондхајм, Норвешка, во декември 2020 година”. Холман рекол дека четботот правилно ја разбрал само разликата во возраста на неговите синови.
Холман контактирал со Норвешката агенција за заштита на податоци и побарал производителот на четботот, OpenAI, да биде казнет. зш/ . Извор: МИА