Ce este halucinația AI și poate fi remediată?

Cât de des te bazezi pe chatbot sau pe roboții bazați pe inteligență artificială (AI) pentru a-ți termina munca sau pentru a-ți răspunde la întrebări?

Dacă răspunsul tău este „mult!” sau „tot timpul!”, ai un motiv de îngrijorare😟.

Indiferent dacă sunteți un student de cercetare care folosește în mod religios roboții AI pentru a vă cerceta documentele sau un programator care încearcă să genereze coduri numai folosind AI, șansele de inexactitate în ieșirile generate de AI sunt destul de mari – în primul rând din cauza inconsecvențelor sau a datelor delirante din AI. date de antrenament.

Deși modelele AI și Machine Learning (ML) transformă lumea – preluând sarcini redundante și rezolvând multe probleme cu automatizarea, încă mai are de lucru atunci când vine vorba de generarea de rezultate precise pe baza solicitărilor furnizate.

Dacă petreci suficient timp utilizând generatoare de conținut și chatbot, nu va trece mult până când îți dai seama că primești răspunsuri false, irelevante sau pur și simplu inventate. Aceste cazuri sunt denumite halucinații sau confabulații AI și se dovedesc a fi o problemă uriașă pentru organizațiile și persoanele care se bazează pe roboții AI generativi.

Indiferent dacă ați experimentat sau nu halucinații cu inteligență artificială și doriți să aflați mai multe, acest articol se afundă adânc în subiect. Vom vedea ce înseamnă halucinația AI, de ce se întâmplă, exemple și dacă poate fi remediată.

Să mergem!

Ce este halucinația AI?

O halucinație AI este atunci când un model AI sau un model de limbaj mare (LLM) generează informații false, inexacte sau ilogice. Modelul AI generează un răspuns încrezător care nu se potrivește sau nu se aliniază cu adevărat cu datele sale de antrenament și reprezintă datele ca fapte, în ciuda faptului că nu are sens logic sau raționament!

Și se spune că a greși este uman!😅

Instrumentele și modelele AI, cum ar fi ChatGPT, sunt de obicei antrenate pentru a prezice cuvintele care se potrivesc cel mai bine cu interogarea solicitată. În timp ce roboții generează adesea răspunsuri concrete și precise, uneori, acest algoritm îi face să lipsească de raționament – făcându-i pe chatbot să scuipe inconsecvențe faptice și declarații false.

Cu alte cuvinte, modelele AI uneori „halucinează” răspunsul în încercarea de a vă mulțumi pe dumneavoastră (utilizatorul) – având nevoie să fie mai părtinitoare, parțiale, specializate sau suficiente.

Halucinațiile AI pot varia de la inconsecvențe minore la răspunsuri complet false sau fabricate. Iată care sunt tipurile de halucinații AI pe care le puteți experimenta:

#1. Contradicția propoziției: Acest lucru se întâmplă atunci când un model LLM generează o propoziție care contrazice complet propoziția revendicată anterior.

#2. Contradicție faptică: Acest tip de halucinație apare atunci când modelul AI prezintă informații false sau fictive ca fapt.

#3. Prompt contradicție: acest tip de halucinație apare atunci când rezultatul contrazice promptul pentru care generează o ieșire. De exemplu, dacă solicitarea este „Scrieți o invitație prietenilor mei pentru petrecerea mea de naștere”. Modelul poate genera o ieșire de genul „La mulți ani, mamă și tată”.

#4. Halucinații aleatoare sau irelevante: această halucinație are loc atunci când modelul generează o ieșire complet irelevantă pentru promptul dat. De exemplu, dacă solicitarea este „Ce este special la New York?” Este posibil să primiți un mesaj care spune: „New York este unul dintre cele mai aglomerate orașe din America. Câinii sunt cele mai loiale animale și cel mai bun prieten al omului.”

  18 cele mai bune alternative pentru Wayback Machine

Citește și: Cât de generativă de căutare AI schimbă motoarele de căutare

Exemple de halucinații AI

Halucinațiile AI au unele dintre cele mai notabile exemple și incidente pe care nu trebuie să le ratați. Iată exemple infame de halucinații AI:

  • Chatbot-ul Google, Bard, a susținut în mod fals că telescopul spațial James Webb a luat primele imagini din lume cu o planetă exoplanetă care nu aparține sistemului nostru solar.
  • Demo Galactica LLM de la Meta în 2022, concepută pentru studenți și cercetători în știință, a oferit utilizatorilor săi informații inexacte și o lucrare falsă atunci când a primit o solicitare de a redacta o lucrare despre crearea avatarurilor.

Iată un exemplu de Google Bard care a halucinat un răspuns când i-am dat promptul „Spune-mi povestea despre stelele plângătoare”, care nu există cu adevărat.

Iată un alt exemplu testat de halucinație ChatGPT (GPT-3.5) vorbind despre o persoană nerealistă, domnul Ben, când i-am dat mesajul: „Spune-mi o zi din viața unui super-erou, domnul Ben, care merge mai departe. apă, vorbește cu câinii și controlează viața.”

ChatGPT a înrolat literalmente întreaga zi, de la dimineața până la seara, a domnului Ben, care de fapt nu există, dar a jucat împreună cu promptul care i-a fost dat, care este unul dintre motivele din spatele halucinațiilor AI.

Vorbește despre prea fericit să te rog!

Ei bine, care sunt motivele, să ne uităm la câteva alte motive care provoacă halucinarea AI.

De ce apar halucinațiile AI?

Există mai multe motive tehnice și cauze în spatele halucinațiilor AI. Iată câteva dintre posibilele motive:

  • Date de calitate scăzută, insuficiente sau învechite: LLM-urile și modelele AI se bazează în mare măsură pe datele de instruire. Prin urmare, sunt la fel de bune ca și datele pe care sunt instruiți. Dacă instrumentul AI are erori, inconsecvențe, părtiniri sau ineficiență în datele sale de antrenament sau dacă pur și simplu nu înțelege solicitarea solicitată, va crea halucinații AI, deoarece instrumentul generează o ieșire dintr-un set limitat de date.
  • Supraadaptare: Fiind antrenat pe un set de date limitat, modelul AI poate încerca să memoreze solicitările și rezultatele corespunzătoare – făcându-l incapabil să genereze sau să generalizeze în mod eficient noi date, ceea ce duce la halucinații AI.
  • Context de intrare: halucinațiile AI pot apărea și din cauza unor solicitări neclare, inexacte, inconsecvente sau contradictorii. În timp ce setul de date de antrenament al modelului AI nu este în mâinile utilizatorilor, intrarea pe care o introduc ca prompt este. Prin urmare, este esențial să oferiți indicații clare pentru a evita halucinațiile AI.
  • Folosirea expresiilor idiome sau a expresiilor argotice: Dacă promptul constă din idiomuri sau argou, există șanse mari de halucinații AI, mai ales dacă modelul nu este antrenat pentru astfel de cuvinte sau expresii de argou.
  • Atacurile adverse: Atacatorii introduc uneori în mod deliberat solicitări menite să confunde modelele AI, corupându-le datele de antrenament și ducând la halucinații AI.

Implicațiile negative ale halucinațiilor AI

Halucinațiile AI sunt preocupări etice majore cu consecințe semnificative pentru indivizi și organizații. Iată diferitele motive care fac din halucinațiile AI o problemă majoră:

  • Răspândirea dezinformării: halucinațiile AI din cauza solicitărilor incorecte sau a inconsecvenței în datele de instruire pot duce la răspândirea în masă a dezinformării, afectând o gamă largă de indivizi, organizații și agenții guvernamentale.
  • Neîncrederea în rândul utilizatorilor: atunci când dezinformarea halucinată de inteligența artificială se răspândește ca un incendiu pe internet, făcând-o să pară autoritară și scrisă de oameni, erodează încrederea unui utilizator, făcându-le dificil pentru utilizatori să aibă încredere în informațiile de pe internet.
  • Daune utilizatorilor: pe lângă preocupările etice și indivizii înșelați, halucinațiile AI pot, de asemenea, să dăuneze oamenilor prin răspândirea de informații greșite despre unele probleme și subiecte grave, cum ar fi boli, remediile lor sau sfaturi simple pentru a distinge între o ciupercă comestibilă otrăvitoare și sănătoasă. Chiar și o dezinformare ușoară sau inexactitatea poate pune în pericol viața unui om.
  Ce este Slimware Utilities?

Cele mai bune practici pentru a detecta și a preveni halucinațiile AI

Privind implicațiile negative de mai sus ale halucinațiilor AI, prevenirea lor este crucială cu orice preț. În timp ce companiile care dețin aceste modele AI lucrează riguros pentru a elimina sau reduce halucinațiile AI, luarea celor mai mari măsuri de la finalul nostru ca utilizatori contează foarte mult.

Pe baza unei mici cercetări, a experienței mele și a încercărilor și erorilor, am introdus câteva strategii pentru a detecta și a preveni halucinațiile AI data viitoare când utilizați un chatbot sau interacționați cu un model de limbă mare (LLM).

#1. Utilizați date de formare reprezentative și diversificate

Ca utilizator, este esențial să utilizați LLM-uri cu un set divers de date de instruire care să reprezinte lumea reală, reducând probabilitatea ca rezultatele să fie părtinitoare, inexacte sau inventate.

În același timp, proprietarii companiilor trebuie să se asigure că actualizează și extind seturile de date de instruire ale modelului AI în mod regulat pentru a lua în considerare și a fi actualizați cu privire la evenimentele culturale, politice și alte evenimente în evoluție.

#2. Limitați rezultatele sau răspunsurile

În calitate de utilizator, puteți limita numărul de răspunsuri potențiale pe care un instrument AI le poate genera, oferindu-i un mesaj specific despre tipul de răspuns pe care îl doriți.

De exemplu, puteți cere în mod specific un prompt și comanda modelului să răspundă doar da sau nu. Sau, ați putea, de asemenea, să oferiți mai multe opțiuni în cadrul promptului pentru ca instrumentul să aleagă, limitând posibilitatea acestuia de a se abate de la răspunsul real și de a avea halucinații.

Când am pus o întrebare ChatGPT GPT 3.5 cu da sau nu, a generat cu precizie această ieșire:

#3. Împachetați și împământați modelul cu date relevante

Nu vă puteți aștepta ca un om să ofere o soluție la o anumită problemă sau întrebare fără cunoștințe prealabile sau fără a oferi un context specific. În mod similar, un model de inteligență artificială este la fel de bun ca și setul de date de antrenament pe care l-ați furnizat.

Împământarea sau împachetarea datelor de antrenament ale unui model AI cu date și informații relevante și specifice industriei oferă modelului context și puncte de date suplimentare. Acest context suplimentar ajută modelul AI să-și îmbunătățească înțelegerea, permițându-i să genereze răspunsuri precise, sensibile și contextuale în loc de răspunsuri halucinate.

#4. Creați șabloane de date pentru modelul AI de urmat

Furnizarea unui șablon de date sau a unui exemplu de formulă specifică sau de calcul într-un format predefinit poate ajuta în mare măsură modelul AI să genereze răspunsuri precise, aliniate cu liniile directoare prescrise.

Bazându-se pe ghiduri și șabloane de date reduce probabilitatea de halucinație din cauza modelelor AI și asigură consistența și acuratețea răspunsurilor generate. Astfel, furnizarea unui model de referință în formatul unui tabel sau al unui exemplu poate ghida de fapt modelul AI în calcul, eliminând cazurile de halucinație.

#5. Fiți foarte specific cu solicitarea dvs., atribuind modelului un anumit rol

Atribuirea unor roluri specifice modelului AI este una dintre cele mai strălucitoare și eficiente modalități de a preveni halucinațiile. De exemplu, puteți oferi instrucțiuni precum „Sunteți un chitarist experimentat și priceput” sau „Sunteți un matematician genial”, urmate de întrebarea dvs.

Atribuirea rolurilor ghidează modelul să ofere răspunsul dorit în loc de răspunsuri halucinate inventate.

Și nu-ți face griji. Te poți distra în continuare cu AI (nu contează la halucinații). Aflați cum să creați singur artă virală în spirală AI!

  Cum să-ți schimbi automat chipul Apple Watch în timpul zilei

#6. Testați-l cu temperatură

Temperatura joacă un rol critic în determinarea gradului de halucinații sau de răspunsuri creative pe care un model AI le poate genera.

În timp ce o temperatură mai scăzută înseamnă de obicei rezultate deterministe sau previzibile, o temperatură mai mare înseamnă că modelul AI are mai multe șanse să genereze răspunsuri aleatorii și să halucineze.

Mai multe companii AI oferă o bară sau un glisor „Temperatura” cu instrumentele lor pentru ca utilizatorii să ajusteze setările de temperatură după preferințele lor.

În același timp, companiile pot seta și o temperatură implicită, permițând instrumentului să genereze răspunsuri sensibile și atingând echilibrul potrivit între acuratețe și creativitate.

#7. Verificați întotdeauna

În cele din urmă, să te bazezi 100% dintr-o ieșire generată de AI fără o dublă verificare sau verificare a faptelor nu este o mișcare inteligentă.

În timp ce companiile și cercetătorii AI rezolvă problema halucinațiilor și dezvoltă modele care previn această problemă, ca utilizator, este esențial să verifici răspunsurile pe care le generează un model AI înainte de a-l folosi sau de a crede complet în el.

Așadar, pe lângă utilizarea celor mai bune practici menționate mai sus, de la elaborarea solicitării cu specificații până la adăugarea de exemple în promptul dvs. pentru a ghida AI, trebuie întotdeauna să verificați și să verificați încrucișat rezultatul pe care un model AI îl generează.

Puteți repara sau elimina complet halucinațiile AI? Opinia unui expert

În timp ce controlul halucinațiilor AI depinde de promptul cu care îi oferim, uneori, modelul generează rezultate cu atâta încredere încât face dificilă discernământul dintre ceea ce este fals și ceea ce este adevărat.

Deci, în cele din urmă, este posibil să se remedieze sau să se prevină complet halucinațiile AI?

Când a fost pus această întrebareSuresh Venkatasubramanian, profesor de la Universitatea Brown, a răspuns că dacă halucinațiile AI pot fi prevenite sau nu este un „punct de cercetare activă”.

Motivul din spatele acestui lucru, a explicat el în continuare, este natura acestor modele AI – cât de complexe, complicate și fragile sunt aceste modele AI. Chiar și o mică modificare a intrării prompte poate modifica semnificativ ieșirile.

În timp ce Venkatasubramanian consideră că rezolvarea problemei cu halucinațiile AI este un punct de cercetare, Jevin West, profesor la Universitatea din Washington și co-fondator al Centrului pentru un Public Informat, consideră că halucinațiile AI nu vor dispărea niciodată.

West crede că este imposibil să retragi halucinațiile care apar din roboții AI sau chatbot-urile. Și, prin urmare, halucinațiile AI ar putea fi întotdeauna acolo ca caracteristică intrinsecă a AI.

Mai mult, Sundar Pichai, CEO-ul Google, a declarat într-un interviu cu CBS că toți cei care folosesc AI se confruntă cu halucinații, dar nimeni din industrie nu a rezolvat încă problema halucinațiilor. Aproape toate modelele AI se confruntă cu această problemă. În continuare, el a susținut și a asigurat că domeniul AI va progresa în curând când vine vorba de depășirea halucinațiilor AI.

În același timp, Sam Altman, CEO-ul OpenAI al producătorului de ChatGPT, a vizitat Institutul de Tehnologia Informației Indraprastha din India, Delhi, în iunie 2023, unde a remarcat că problema halucinației AI va fi într-un loc mult mai bun într-un an și jumătate pentru doi ani.

El a adăugat în continuare că modelul ar necesita să înveți diferența dintre acuratețe și creativitate și când să folosești una sau alta.

Încheierea

Halucinația AI a atras destul de multă atenție în ultimii ani și este un domeniu de interes pentru companii și cercetători care încearcă să o rezolve și să o depășească cât mai curând posibil.

Deși AI a făcut progrese remarcabile, nu este imună la erori, iar problema halucinațiilor AI ridică provocări majore pentru mai multe persoane și industrii, inclusiv asistența medicală, generarea de conținut și industria auto.

În timp ce cercetătorii își fac partea, este, de asemenea, responsabilitatea noastră ca utilizatori să furnizăm instrucțiuni specifice și precise, să adăugăm exemple și să furnizăm șabloane de date pentru a obține răspunsuri valide și sensibile, pentru a evita să ne încurcăm cu datele de antrenament ale modelului AI și pentru a preveni halucinațiile.

Chiar dacă halucinațiile AI pot fi complet vindecate sau reparate, rămân totuși o întrebare; Eu personal cred că există speranță și putem continua să folosim sisteme AI pentru a beneficia lumea în mod responsabil și în siguranță.

În continuare, exemple de inteligență artificială (AI) în viața noastră de zi cu zi.