Дали вештачката интелигенција (ВИ) може да го уништи човештвото? Група со седиште во Брисел наречена PauseAI верува дека ова е можно и се обидува да лобира во Европската унија да го запре воведувањето на помоќни системи за вештачка интелигенција.
Во изминатите неколку месеци, новите алатки како ChatGPT предизвикаа стравувања дека вештачката интелигенција ќе доведе до губење на работа милиони луѓе или масовно ширење на дезинформации, особено за време на избори.
Но, според речиси 300-те членови на активистичкиот колектив PauseAI, овие моќни системи можат многу брзо да ги надмудрат, па дури и да манипулираат со луѓето.
И ако луѓето се обидат да ги попречат или исклучат, овие технологии би можеле да возвратат.
PauseAI беше лансиран во мај и е замисла на софтверскиот инженер Џип Миндеркм.
Тој направи пауза од неговата сегашна улога како извршен директор на технолошката компанија за да се фокусира исклучиво на PauseAI.
– Чувствувам дека постои реална шанса во следните неколку месеци некој да измисли суперинтелигентна машина. Тоа ќе биде крајот на човештвото како што го знаеме. Тоа беше доволна причина да почнам да се занимавам со ова политичко движење, бидејќи сум прилично исплашен – изјави тој за „Еуроњуз“.
Конкретно, она што најмногу го плаши Миндеркм е тоа што вештачката интелигенција ќе може да пронајде пропусти на компјутерски софтвер претходно непознати за оние кои би требало да бидат задолжени за нивно ублажување.
Имајќи предвид дека компаниите и владите на крајот би можеле да им дадат на системите за вештачка интелигенција поголема автономија и да ги поврзат со одредени витални инфраструктури, како што се електричните мрежи или дури и оружје, ова може да значи дека суперинтелигентните системи со вештачка интелигенција би можеле да ги исклучат и да предизвикаат хаос.
– Првото нешто е да се повикаат владите да организираат самит и да спроведат мораториум, прекин на развојот на овие опасни системи. Тоа треба да се случи на меѓународно ниво, бидејќи ако го направите тоа на национално ниво, ќе има многу аргументи против тоа. Земјите се натпреваруваат исто како што се натпреваруваат компаниите. Не можеме само да бараме од компаниите да го прекинат развојот на вештачката интелигенција, бидејќи имаат голем конкурентен притисок. Затоа треба да го направиме овој самит – објасни тој.
Повеќе од 350 експерти предупредуваат
PauseAI не е сам во алармот за ова прашање. Во јуни, Риши Сунак, британскиот премиер, стана еден од првите светски лидери што ја призна потенцијалната „егзистенцијална“ закана од развојот на „суперинтелигентна“ вештачка интелигенција без соодветни заштитни мерки.
Неодамна, 350 директори, истражувачи и инженери кои работат во вештачката интелигенција потпишаа отворено писмо во кое предупредуваат дека еден ден може да го уништи човештвото.
„Ублажувањето на ризикот од истребување поради вештачката интелигенција треба да биде глобален приоритет заедно со другите општествени ризици, како што се пандемиите и нуклеарната војна“, се вели во соопштението објавено од Центарот за безбедност на вештачката интелигенција, непрофитна организација.
Но, некои тврдат дека вештачката интелигенција сè уште е премногу неразвиена за да претставува егзистенцијална закана и дека краткорочните проблеми како што се пристрасни и неточни одговори се најголемите проблеми во моментов.
Сем Алтман, извршен директор на OpenAI, кој го разви ChatGPT, рече дека иако вештачката интелигенција може да биде корисна за луѓето, регулирањето на вештачката интелигенција е „суштинско“.
Today we protested in London. We call directly on @RishiSunak to lead the way in implementing a global pause on the development of AI systems more powerful than GPT-4 at the AI summit this autumn. Read our press release: https://t.co/QQtmk1vWaZ #PauseAI pic.twitter.com/nfwGhkam5p
— PauseAI (@pause_ai_info) June 8, 2023
.