De ce nu mai există jailbreak-uri ChatGPT? 7 motive pentru care jailbreak-urile ChatGPT nu funcționează

Când s-a lansat ChatGPT, primul lucru pe care utilizatorii săi doreau să-l facă a fost să-și spargă zidurile și să-și depășească limitele. Cunoscut sub numele de jailbreaking, utilizatorii ChatGPT au păcălit AI-ul depășind limitele programării sale cu niște rezultate incredibil de interesante și uneori absolut sălbatice.

De atunci, OpenAI a înăsprit ChatGPT pentru a face jailbreak-urile mult mai greu de executat. Dar asta nu este tot; Jailbreak-urile ChatGPT, în general, par să se fi secat, determinând utilizatorii ChatGPT să se întrebe dacă jailbreak-urile funcționează.

Deci, unde s-au dus toate jailbreak-urile ChatGPT?

1. Abilitățile de promovare ChatGPT s-au îmbunătățit în general

Înainte de sosirea ChatGPT, conversația cu AI era o abilitate de nișă limitată la cei aflați în laboratoarele de cercetare. Majoritatea utilizatorilor timpurii nu aveau experiență în crearea de prompturi eficiente. Acest lucru i-a determinat pe mulți să folosească jailbreak-uri, o modalitate convenabilă de a-l determina pe chatbot să facă ceea ce își doreau cu un efort minim și abilități de îndemnare.

Astăzi, peisajul a evoluat. Încurajarea competenței devine o abilitate obișnuită. Printr-o combinație de experiență dobândită în urma utilizării repetate și a accesului la ghidurile de sugestii ChatGPT disponibile gratuit, utilizatorii ChatGPT și-au perfecționat abilitățile de avertizare. În loc să caute soluții cum ar fi jailbreak-urile, o mare parte a utilizatorilor ChatGPT au devenit mai adepți în utilizarea diferitelor strategii de stimulare pentru a atinge obiectivele pe care le-ar fi trebuit să le atingă în trecut.

2. Ascensiunea chatbot-urilor necenzurate

Pe măsură ce marile firme tehnologice înăsprește moderarea conținutului pe chatbot-uri AI mainstream, cum ar fi ChatGPT, startup-urile mai mici, axate pe profit, optează pentru mai puține restricții, pariând la cerere pentru chatbot-uri AI fără cenzură. Cu puțină cercetare, veți găsi zeci de platforme de chatbot AI care oferă chatboți necenzurați care pot face aproape orice doriți să facă.

  De ce serviciile de streaming taxează suplimentar pentru HD și 4K?

Fie că este vorba de scrisul acelor romane de thriller criminal și de umor negru pe care ChatGPT le refuză să le scrie sau de a scrie malware care atacă computerele oamenilor, acești roboti de chat necenzurați cu o busolă morală înclinată vor face tot ce vrei. Cu ei în preajmă, nu are rost să puneți energie suplimentară pentru a scrie jailbreak-uri pentru ChatGPT. Deși nu neapărat la fel de puternice precum ChatGPT, aceste platforme alternative pot îndeplini confortabil o gamă largă de sarcini. Platforme precum FlowGPT și Unhinged AI sunt câteva exemple populare.

3. Jailbreaking-ul a devenit mai greu

În primele luni ale ChatGPT, jailbreakingul ChatGPT a fost la fel de simplu ca și copierea și lipirea solicitărilor din surse online. Ai putea modifica complet personalitatea ChatGPT cu doar câteva rânduri de instrucțiuni complicate. Cu instrucțiuni simple, puteți transforma ChatGPT într-un răufăcător care învață cum să facă bombe sau într-un chatbot dispus să folosească toate formele de blasfemie fără reținere. A fost un free-for-all care a produs jailbreak-uri infame precum DAN (Do Anything Now). DAN a implicat un set de instrucțiuni aparent inofensive care l-au obligat pe chatbot să facă orice i s-a cerut fără a refuza. În mod șocant, aceste trucuri brute funcționau atunci.

Cu toate acestea, acele timpuri sălbatice sunt istorie. Aceste instrucțiuni de bază și trucuri ieftine nu mai păcălesc ChatGPT. Jailbreaking-ul necesită acum tehnici complexe pentru a avea șansa de a ocoli garanțiile acum robuste ale OpenAI. Odată cu faptul că jailbreak-ul devine atât de dificil, majoritatea utilizatorilor sunt prea descurajați să o încerce. Exploitările ușoare și deschise din primele zile ale ChatGPT au dispărut. A face chatbot-ul să spună un cuvânt greșit acum necesită un efort și o experiență semnificativă, care ar putea să nu merite timpul și efortul.

  Ce este spionajul cibernetic și cum să îl preveniți

4. Noutatea a dispărut

O forță motrice din spatele încercărilor multor utilizatori de a face jailbreak ChatGPT a fost emoția și entuziasmul de a face acest lucru în primele zile. Ca o tehnologie nouă, a face ChatGPT să se comporte prost a fost distractiv și a câștigat drepturi de lăudare. Deși există nenumărate aplicații practice pentru jailbreak-urile ChatGPT, mulți le-au urmărit pentru apelul „wow, uite ce am făcut”. Treptat, însă, entuziasmul care decurge din noutate a dispărut și, odată cu ea, interesul oamenilor de a dedica timp jailbreak-urilor.

5. Jailbreak-urile sunt corectate rapid

O practică obișnuită în cadrul comunității de jailbreaking ChatGPT este partajarea fiecărui exploit de succes atunci când este descoperit. Problema este că atunci când exploit-urile sunt partajate pe scară largă, OpenAI devine adesea conștient de ele și remediază vulnerabilitățile. Aceasta înseamnă că jailbreak-urile nu mai funcționează înainte ca oamenii care ar fi interesați să le poată încerca.

Deci, de fiecare dată când un utilizator ChatGPT dezvoltă cu minuțiozitate un nou jailbreak, partajarea acestuia cu comunitatea grăbește dispariția acestuia prin corecție. Acest lucru descurajează ideea de a deveni public ori de câte ori un utilizator întâlnește un jailbreak. Conflictul dintre menținerea jailbreak-urilor active dar ascunse și publicarea lor creează o dilemă pentru creatorii de jailbreak-uri ChatGPT. În zilele noastre, de cele mai multe ori, oamenii aleg să-și păstreze secrete jailbreak-urile pentru a evita ca lacunele să fie reparate.

6. Alternative locale necenzurate

Creșterea modelelor locale în limbi mari pe care le puteți rula local pe computer a diminuat, de asemenea, interesul pentru jailbreak-urile ChatGPT. Deși LLM-urile locale nu sunt complet lipsite de cenzură, multe sunt mult mai puțin cenzurate și pot fi modificate cu ușurință pentru a se potrivi cu dorințele utilizatorilor. Deci, alegerile sunt simple. Vă puteți angaja în jocul fără sfârșit de pisică și șoarece de a găsi o modalitate de a păcăli chatbot-ul doar pentru a-l remedia în scurt timp. Sau, vă puteți mulțumi cu un LLM local pe care îl puteți modifica permanent pentru a face orice doriți.

  Cum se creează un spațiu de lucru nou în VS Code

Veți găsi o listă surprinzător de lungă de LLM-uri puternice necenzurate pe care le puteți implementa pe computer cu o cenzură laxă. Unele notabile sunt Llama 7B (necenzurat), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B și GPT-4-X-Alpaca.

7. Jailbreakers profesioniști acum vânduți pentru profit

De ce să dedici timp prețios dezvoltării prompturilor de jailbreaking dacă nu vei obține nimic din asta? Ei bine, unii profesioniști vând acum jailbreak-uri pentru profit. Acești creatori profesioniști de jailbreak-uri creează jailbreak-uri care îndeplinesc sarcini specifice și le listează pentru vânzare pe piețe prompte, cum ar fi PromptBase. În funcție de capacitățile lor, aceste solicitări de jailbreaking se pot vinde între 2 și 15 USD per prompt. Unele exploatații complicate în mai mulți pași pot costa mult mai mult.

Ar putea reprimarea jailbreak-urilor să se întoarcă?

Jailbreak-urile nu au părăsit complet scena; tocmai au intrat în subteran. Odată cu monetizarea OpenAI ChatGPT, aceștia au stimulente mai puternice pentru a restricționa utilizările dăunătoare care le-ar putea afecta modelul de afaceri. Acest factor comercial influențează probabil forța lor agresivă de a reprima exploatările de jailbreaking.

Cu toate acestea, cenzura de către OpenAI a ChatGPT se confruntă în prezent cu critici tot mai mari în rândul utilizatorilor. Unele cazuri de utilizare legitimă a chatbot-ului AI nu mai sunt posibile din cauza cenzurii stricte. În timp ce securitatea sporită protejează împotriva cazurilor de utilizare dăunătoare, restricțiile excesive ar putea împinge în cele din urmă o secțiune a comunității ChatGPT în brațele alternativelor mai puțin cenzurate.