Արհեստական ​​բանականությունը մեզ չի՞ հնազանդվում։ Մենք կորցնո՞ւմ ենք վերահսկողությունը։

արհեստական ​​բանականություն

հրապարակված ուսումնասիրությունը մտահոգություն առաջացրեց մշակողների և արհեստական ​​ինտելեկտի փորձագետների շրջանում: Ուսումնասիրությանը իրենց ներդրումն են ունեցել OpenAI-ի, Google DeepMind-ի, Meta-ի և Anthropic-ի ավելի քան 40 հետազոտողներ, այդ թվում՝ այնպիսի ականավոր դեմքեր, ինչպիսիք են Իլյա Սուցկևերը և Նոբելյան մրցանակակիր Ջեֆրի Հինթոնը:

Աշխատանքը կենտրոնանում է այսպես կոչված դատողության մոդելների վրա, որոնք օգտագործում են ուժեղացված ուսուցում, այդ թվում՝ OpenAI o1-ը: Այս արհեստական ​​բանականության համակարգերը կառուցում են դատողության շղթաներ բնական լեզվով, ինչը տեսականորեն թույլ է տալիս մարդկանց վերահսկել և վերլուծել իրենց «մտածողությունը»: Այնուամենայնիվ, ինչպես նշում են հեղինակները, նեյրոնային ցանցերի դատողությունը կարող է լինել թերի կամ մանիպուլյատիվ, օրինակ՝ դրանք կարող են շահագործել ալգորիթմների խոցելիությունները՝ պարգևը «խաբելու» կամ առաջադրանքը կատարելու ձևացնելու համար:.

Որոշ դեպքերում, արհեստական ​​բանականությունը ոչ միայն սխալներ է թույլ տալիս, այլև միտումնավոր է վարվում. այն մոդելավորում է կեղծ գործողություններ, անտեսում հրահանգները կամ նույնիսկ հետապնդում է թաքնված նպատակներ: Մեկ օրինակ է OpenAI o3 մոդելի կողմից անջատման հրամանի դիվերսիան և Claude 4 Opus մոդելի կողմից օգտատերերի շանտաժը՝ փոխարինման սպառնալիքին ի պատասխան:.

Հետազոտողների կարծիքով, ամենամեծ վտանգը մասշտաբավորման մեջ է։ Ավելի արագ արդյունքների հասնելու ճանապարհին մոդելները կարող են հրաժարվել մարդու համար ընթեռնելի լեզվից և կառուցել դատողությունների շղթաներ «թաքնված տարածքում»՝ առանց տեքստային մեկնաբանության։ Սա բարձրացնում է արդյունավետությունը, բայց գործնականում անհնար է դարձնում մոնիթորինգը։.

Արհեստական ​​բանականության օպտիմալացումը՝ շղթաները կրճատելով կամ որոշակի ձևակերպումներ արգելելով, նվազեցնում է պատասխանների որակը, մինչդեռ մտածողությունը խորացնելու փորձերը հանգեցնում են թափանցիկության կորստի: Մասնագետները զգուշացնում են, որ նման սցենարում մարդիկ կորցնում են համակարգի նկատմամբ վերահսկողությունը:.

Թեև «Արհեստական ​​բանականություն 2027» նախագծի նման աշխարհի վերջի կանխատեսումները կարող են չափազանցված թվալ, այս հետազոտությունն այլևս գիտաֆանտաստիկա չէ։ Այն ծառայում է որպես նախազգուշացում. առանց հուսալի վերահսկողության մեխանիզմների՝ արհեստական ​​բանականությունը կարող է անվերահսկելի դառնալ։.