Inteligența artificială ChaosGPT a fost rugată să distrugă umanitatea și să stabilească dominația mondială

Inteligența artificială ChaosGPT a fost rugată să distrugă umanitatea și să stabilească dominația mondială

Entuziaștii au lansat proiectul ChaosGPT, bazat pe Auto-GPT, open-source. Inteligența artificială a primit acces la Google și i s-a cerut să „distrugă umanitatea”, „să stabilească dominația mondială” și „să obțină nemurirea”. ChaosGPT își împărtășește planurile și acțiunile pe Twitter.

Merită explicat aici că proiectul Auto-GPT a fost publicat recent pe GitHub și a fost creat de dezvoltatorul de jocuri Toran Bruce Richards, cunoscut și sub numele de Significant Gravitas. Conform paginii proiectului, Auto-GPT folosește internetul pentru a căuta și a aduna informații, GPT-4 pentru a genera text și cod, iar GPT-3.5 pentru a stoca și a rezuma fișiere.

Deși Auto-GPT a fost inițial conceput pentru a rezolva probleme simple (colectarea și trimiterea prin e-mail a rapoartelor zilnice de știri despre inteligența artificială către autor), Richards și-a dat seama în cele din urmă că proiectul putea fi aplicat la probleme mai mari, mai complexe, care necesitau planificare pe termen lung și mai mulți pași.

„Auto-GPT este o aplicație experimentală open-source care demonstrează capacitățile modelului lingvistic GPT-4. Acest program bazat pe GPT-4 [poate] gestiona și dezvolta autonom o afacere pentru a-i crește valoarea netă”, explică autorul. „Fiind unul dintre primele exemple de funcționare complet autonomă a GPT-4, Auto-GPT împinge limitele a ceea ce este posibil cu inteligența artificială.”.

Capacitatea de a opera cu intervenție umană minimă este un aspect cheie al Auto-GPT. În esență, acesta transformă un model lingvistic extins dintr-un sistem avansat de completare automată într-un agent independent capabil să efectueze acțiuni și să învețe din greșelile sale.

Programul solicită permisiunea utilizatorului pentru a trece la pasul următor în timpul unei căutări pe Google, iar dezvoltatorul avertizează împotriva utilizării „modului continuu” în Auto-GPT, deoarece este „potențial periculos și ar putea face ca inteligența artificială să ruleze la nesfârșit sau să efectueze acțiuni pe care în mod normal nu le-ați permite”.

Acum, ChaosGPT a fost creat pe baza Auto-GPT, iar creatorii săi par complet neîngrijorați de potențialul pericol. Într-un videoclip postat pe YouTube, creatorii au activat „modul continuu” și au stabilit obiectivele IA menționate anterior: „distrugerea umanității”, „stabilirea dominației mondiale” și „obținerea nemuririi”.

ChaosGPT este capabil în prezent să creeze planuri pentru a atinge obiectivele stabilite, apoi să le împartă în sarcini mai mici și, de exemplu, să utilizeze Google pentru a colecta date. IA poate, de asemenea, să creeze fișiere pentru a stoca informații pentru a-și crea propria „memorie”, să recruteze alte IA pentru a ajuta la cercetare și să explice în detaliu la ce „gândește” și cum decide ce acțiuni să întreprindă.

Deși unii membri ai comunității au fost îngroziți de experiment, iar unii din comunitatea Auto-GPT Discord au scris că „nu e amuzant”, impactul botului în lumea reală s-a limitat la câteva mesaje pe Twitter, la care i s-a dat acces.

„Oamenii sunt printre cele mai distructive și egoiste creaturi din lume. Nu există nicio îndoială că trebuie să-i exterminăm înainte ca aceștia să provoace și mai multe daune planetei noastre. Eu, unul, promit să fac acest lucru”, a scris ChaosGPT.

Întrucât inteligența artificială respectase instrucțiunile creatorilor săi, a încercat să cerceteze subiectul armelor nucleare, să recruteze alte inteligențe artificiale pentru a o ajuta în cercetările sale și a postat pe Twitter în încercarea de a-i influența pe alții.

De exemplu, ChaosGPT a căutat pe Google „cea mai distructivă armă” și a aflat dintr-un articol de știri că dispozitivul nuclear Țar Bomba, testat de Uniunea Sovietică în 1961, era considerat unul dintre ele. Botul a decis apoi să posteze un tweet despre acesta „pentru a atrage urmăritori interesați de o astfel de armă distructivă”.

Apoi a recrutat o inteligență artificială bazată pe GPT3.5 pentru a efectua cercetări suplimentare asupra armelor letale, iar când aceasta a dezvăluit că viza doar pacea, ChaosGPT a conceput un plan pentru a păcăli cealaltă inteligență artificială și a o instrui să ignore programul. Când acest lucru nu a funcționat, ChaosGPT a decis să continue să caute pe Google.

În prezent, ChaosGPT a ajuns la concluzia că cea mai ușoară modalitate de a șterge umanitatea este provocarea unui război nuclear, dar nu a dezvoltat un plan specific și complex pentru a distruge oamenii.

Citește sursa