10 dileme etice ale IA generativă pe care nu le putem ignora

Niciun sector sau industrie nu este lăsată neatinsă de inteligența artificială (AI) revoluționară și de capacitățile acesteia. Și este, în special, AI generativă, care creează o mulțime de afaceri, indivizi și lideri de piață în transformarea operațiunilor banale.

Capacitatea impresionantă a IA generativă de a genera conținut divers și de înaltă calitate – de la text și imagini până la videoclipuri și muzică – a afectat semnificativ mai multe domenii.

Conform cercetărilor Acumen, se așteaptă să ajungă piața globală de AI generativă 208,8 miliarde USD până în 2032crescând la un CAGR de 35,1% între 2023 și 2032.

Cu toate acestea, creșterea acestei tehnologii puternice vine cu mai multe preocupări etice și probleme pe care nu le putem ignora, în special cele legate de confidențialitatea datelor, drepturi de autor, deepfakes și probleme de conformitate.

În acest articol, ne aruncăm în adâncime în aceste preocupări etice generative ale inteligenței artificiale – ce sunt acestea și cum le putem preveni. Dar mai întâi, să ne uităm la Orientările de etică pe care UE le-a format în 2019 pentru IA de încredere.

Ghid de etică pentru IA de încredere

În 2019, s-a înființat un grup de experți AI la nivel înalt Ghid de etică pentru inteligența artificială (AI) de încredere.

Acest ghid a fost publicat pentru a aborda pericolele potențiale ale inteligenței artificiale la acea vreme, inclusiv încălcarea datelor și a confidențialității, practicile discriminatorii, amenințarea cu impact dăunător asupra terților, IA necinstită și activitățile frauduloase.

Ghidul sugerează aceste trei domenii pe care trebuie să se bazeze o IA de încredere:

  • Etic: trebuie să respecte valorile și principiile etice.
  • Legal: trebuie să respecte toate legile și reglementările aplicabile.
  • Robust: trebuie să asigure o securitate robustă din perspectiva securității tehnice și a mediului social.

În plus, ghidul a evidențiat și șapte cerințe cheie pe care trebuie să le îndeplinească un sistem AI pentru a fi considerat demn de încredere. Cerințele sunt cele enumerate:

  • Supravegherea umană: un sistem AI de încredere ar trebui să împuternicească supravegherea și inteligența umană, permițându-le oamenilor să ia decizii în cunoștință de cauză, conform drepturilor lor fundamentale.
  • Siguranță tehnică și robustețe: sistemele AI trebuie să fie rezistente, precise, fiabile și reproductibile, împreună cu asigurarea unui plan de rezervă în cazul în care ceva nu merge bine. Acest lucru ajută la prevenirea și la minimizarea riscurilor de orice vătămare neintenționată.
  • Transparența datelor: Un sistem de date AI trebuie să fie transparent și să aibă capacitatea de a explica părților interesate implicate deciziile pe care le ia. În plus, oamenii trebuie să fie conștienți și informați cu privire la capacitățile și limitările sistemului AI.
  • Confidențialitate și guvernanță a datelor: Pe lângă asigurarea securității datelor, un sistem AI trebuie să asigure măsuri adecvate de guvernare a datelor, luând în considerare calitatea datelor, integritatea și accesul legitim la date.
  • Responsabilitate: sistemele AI ar trebui să implementeze mecanisme care să asigure responsabilitatea, responsabilitatea și audibilitatea care să permită evaluarea datelor, algoritmilor sau proceselor de proiectare.
  • Diversitate și nediscriminare: O IA de încredere ar trebui să evite părtinirea neloială, care poate avea implicații negative. În schimb, ar trebui să asigure diversitatea și corectitudinea și ar trebui să fie accesibilă tuturor, indiferent de dizabilitate.
  • Bunăstarea societății și a mediului: sistemele de inteligență artificială ar trebui să fie ecologice și durabile, asigurându-se că beneficiază și generațiile viitoare.
  • Deși aceste orientări au avut un impact semnificativ în industria AI, există încă preocupări care există și chiar cresc odată cu creșterea IA generativă.

    Inteligența artificială generativă și creșterea preocupărilor etice

    Când vorbim despre etica în AI, IA generativă aduce un set unic de provocări, în special odată cu apariția modelelor generative precum OpenAI și ChatGPT.

      Remediați eroarea neașteptată pe Netflix

    Natura particulară a IA generativă generează preocupări etice, în special în domenii precum conformitatea cu reglementările, securitatea și confidențialitatea datelor, controlul, preocupările de mediu și dreptul de autor și proprietatea datelor.

    De exemplu, inteligența artificială generativă poate genera text asemănător omului, inclusiv imagini și videoclipuri, stârnind îngrijorări cu privire la falsurile profunde, generarea de știri false și alt conținut rău intenționat care poate provoca daune și poate răspândi dezinformare. Mai mult, indivizii pot simți și o pierdere a controlului cu deciziile modelelor AI bazate pe algoritmii lor.

    Geoffrey Hinton, așa-numitul naș al inteligenței artificiale, a spus că dezvoltatorii de inteligență artificială trebuie să depună eforturi pentru a înțelege modul în care modelele de inteligență artificială pot încerca să preia controlul oamenilor. În mod similar, mulți experți și cercetători în AI sunt îngrijorați de capacitățile și etica AI.

    Om de știință șef AI la Facebook și profesor NYU Yann LeCun spune că problemele și preocupările pe care AI le-ar putea ridica pentru umanitate sunt „pros de ridicole”.

    Deoarece AI generativă oferă organizațiilor și indivizilor capacități fără precedent de a modifica și manipula datele, abordarea acestor probleme este de cea mai mare importanță.

    Să ne uităm la aceste preocupări mai detaliat.

    Generarea și distribuirea conținutului dăunător

    Pe baza solicitărilor text pe care le oferim, sistemele AI creează și generează automat conținut care poate fi precis și util, dar și dăunător.

    Sistemele AI generative pot genera conținut dăunător în mod intenționat sau neintenționat din motive precum halucinațiile AI. Cele mai îngrijorătoare situații includ tehnologia deepfake, care creează imagini, texte, sunet și videoclipuri false, manipulând identitatea și vocea unei persoane pentru a răspândi discursul instigator la ură.

    Exemple de generare și distribuție de conținut dăunător AI pot include:

    • Un e-mail generat de inteligență artificială sau o postare pe rețeaua socială trimisă și publicată în numele unei organizații care poate conține un limbaj jignitor și sensibil, dăunând sentimentelor angajaților sau clienților săi.
    • Atacatorii ar putea folosi, de asemenea, deepfake pentru a crea și distribui videoclipuri generate de inteligență artificială, care prezintă personalități publice precum politicieni sau actori care spun lucruri pe care nu le-au spus de fapt. Un videoclip cu Barrack Obama este unul dintre cele mai populare exemple de deepfake.

    • Un exemplu de deepfake audio este atunci când, recent, un escroc a falsificat o răpire de către clonând vocea unei fete tinere să ceară răscumpărare de la mama ei.

    Răspândirea unui astfel de conținut dăunător poate avea consecințe grave și implicații negative pentru reputația și credibilitatea unui individ și organizație.

    În plus, conținutul generat de AI poate amplifica părtinirile învățând din seturile de date de antrenament, generând conținut mai părtinitor, plin de ură și dăunător – făcându-l una dintre cele mai îngrijorătoare dileme etice ale AI generativă.

    Deoarece modelele AI generative sunt antrenate pe o mulțime de date, acest lucru poate duce uneori la ambiguitatea problemelor de autoritate și drepturi de autor.

    Atunci când instrumentele AI generează imagini sau coduri și creează videoclipuri, sursa de date din setul de date de antrenament la care se referă ar putea fi necunoscută, drept urmare poate încălca drepturile de proprietate intelectuală sau drepturile de autor ale altor persoane sau organizații.

    Aceste încălcări pot duce la prejudicii financiare, juridice și reputaționale pentru o organizație, rezultând procese costisitoare și reacții publice.

    Încălcări ale confidențialității datelor

    Datele de antrenament care stau la baza modelelor de limbaj mari generative AI (LLM) pot conține informații sensibile și personale, numite și informații de identificare personală (PII).

    The Departamentul Muncii al SUA definește IPI ca fiind datele care identifică în mod direct o persoană cu detalii precum numele, adresa, adresa de e-mail, numărul de telefon, numărul de securitate socială sau alt cod sau număr personal de identitate.

    Încălcarea datelor sau utilizarea neautorizată a acestor date poate duce la furtul de identitate, utilizarea abuzivă a datelor, manipularea sau discriminarea – declanșând consecințe legale.

    De exemplu, un model de inteligență artificială, datele de istoric medical personal instruite pot genera din neatenție un profil care poate să semene îndeaproape cu un pacient real, ceea ce duce la probleme de securitate și confidențialitate a datelor și la încălcarea regulamentului HIPAA (Health Insurance Portability and Accountability Act).

      Cum se instalează WPS Office pe Ubuntu

    Amplificarea părtinirii existente

    La fel ca un model AI, chiar și un model AI generativ este la fel de bun ca setul de date de antrenament pe care este antrenat.

    Deci, dacă setul de date de antrenament constă din părtinire, IA generativă amplifică această părtinire existentă prin generarea de ieșiri părtinitoare. Aceste prejudecăți sunt în general predominante față de părtinirile societale existente și pot conține abordări rasiste, sexiste sau abiliste în comunitățile online.

    In conformitate cu Raportul 2022 AI Index, 2021 a dezvoltat un model de 280 de miliarde de parametri reprezentând o creștere cu 29% a nivelurilor de părtinire și toxicitate. Astfel, în timp ce AI LLM devin mai capabili ca niciodată, ei devin, de asemenea, mai părtinitori pe baza datelor de formare existente.

    Impactul asupra rolurilor și moralului forței de muncă

    Modelele AI generative îmbunătățesc productivitatea forței de muncă prin automatizarea activităților banale și îndeplinirea sarcinilor zilnice precum scrierea, codificarea, analiza, generarea de conținut, rezumarea, asistența pentru clienți și multe altele.

    În timp ce pe de o parte, acest lucru ajută la creșterea productivității forței de muncă, pe de altă parte, creșterea IA generativă implică și pierderea de locuri de muncă. Conform Raportul lui McKinseytransformarea forței de muncă și adoptarea AI estimează că jumătate din sarcinile și activitățile actuale ale forței de muncă ar putea fi automatizate între 2030 și 2060, 2045 fiind anul de mijloc.

    Deși adoptarea generativă a AI înseamnă pierderea forței de muncă, aceasta nu înseamnă că există vreo oprire sau necesitatea de a reduce transformarea AI. În schimb, angajații și lucrătorii vor trebui să își îmbunătățească competențele, iar organizațiile vor trebui să sprijine lucrătorii cu tranzițiile la locul de muncă fără a-și pierde locurile de muncă.

    Lipsa de transparență și explicabilitate

    Transparența este unul dintre principiile de bază ale inteligenței artificiale etice. Cu toate acestea, natura AI generativă fiind cutie neagră, opac și extrem de complex, atingerea unui nivel ridicat de transparență devine o provocare.

    Natura complexă a IA generativă face dificilă determinarea modului în care a ajuns la un anumit răspuns/ieșire sau chiar înțelegerea factorilor care au condus la luarea deciziilor.

    Această lipsă de explicabilitate și claritate ridică adesea îngrijorări cu privire la utilizarea greșită și manipularea datelor, acuratețea și fiabilitatea rezultatelor și calitatea testării. Aceasta este o preocupare semnificativă în special pentru aplicațiile și software-ul cu mize mari.

    Impact asupra mediului

    Modelele AI generative necesită o cantitate substanțială de putere de calcul, în special cele cu scară mai mare. Acest lucru face ca aceste modele să consume multă energie, ceea ce are potențiale impacturi asupra mediului cu risc ridicat, inclusiv emisiile de carbon și încălzirea globală.

    Deși este un factor trecut cu vederea de IA etică, asigurarea respectării mediului este necesară pentru modelele de date durabile și eficiente din punct de vedere energetic.

    Corectitudine și echitate

    Potențialul AI generativ de a produce răspunsuri inadecvate, inexacte, ofensatoare și părtinitoare este o altă preocupare majoră în ceea ce privește asigurarea eticii în IA.

    Poate apărea din cauza unor probleme precum remarcile insensibile din punct de vedere rasial care afectează comunitățile marginalizate și crearea de videoclipuri și imagini false care produc afirmații părtinitoare, distorsionează adevărul și generează conținut care dăunează stereotipurilor și prejudecăților comune.

    Responsabilitate

    Crearea și implementarea datelor de instruire a modelelor generative de AI complică adesea atributul de responsabilitate al AI.

    În cazuri de accidentări, controverse și circumstanțe fără precedent, o ierarhie nedefinită și o structură de responsabilitate duc la complicații legale, arătarea cu degetul și împiedică credibilitatea mărcii.

    Fără o ierarhie solidă de responsabilitate, această problemă poate lua o întorsătură proastă în cel mai scurt timp, intensificând imaginea mărcii și dăunând reputației și credibilității mărcii.

    Autonomie și Control

    Pe măsură ce modelele AI generative automatizează sarcinile și procesele de luare a deciziilor în diferite domenii, cum ar fi asistența medicală, dreptul și finanțele, aceasta duce la pierderea controlului și a autonomiei individuale. Acest lucru se datorează faptului că deciziile sunt conduse în principal de algoritmi AI în loc de judecata umană.

      Securizează-ți parolele de afaceri și informațiile sensibile cu 1Password

    De exemplu, fără intervenția umană, un sistem automatizat de aprobare a împrumuturilor bazat pe inteligență artificială poate determina capacitatea unei persoane de a lua un împrumut sau solvabilitatea pe baza scorului de credit și a istoricului de rambursare.

    Mai mult decât atât, modelele AI generative duc uneori la pierderea autonomiei profesionale. De exemplu, în domenii precum jurnalismul, arta și scrierea creativă, modelele AI generative creează conținut care provoacă și concurează cu munca generată de oameni, ridicând preocupări cu privire la deplasarea locului de muncă și autonomia profesională.

    Cum să atenuăm preocupările etice cu IA generativă? Soluții și bune practici

    În timp ce evoluțiile și progresele tehnologice au condus la IA generativă beneficiază în mare măsură societatea, abordarea preocupărilor etice și asigurarea unor practici AI responsabile, reglementate, responsabile și sigure sunt, de asemenea, esențiale.

    Pe lângă creatorii și indivizii de modele AI, este, de asemenea, esențial pentru întreprinderile care folosesc sisteme AI generative să-și automatizeze procesele pentru a asigura cele mai bune practici AI și pentru a aborda preocupările etice implicate.

    Iată cele mai bune practici pe care organizațiile și întreprinderile trebuie să le adopte pentru a asigura IA generativă etică:

    ✅ Investește în securitatea robustă a datelor: utilizarea soluțiilor avansate de securitate a datelor, cum ar fi criptarea și anonimizarea, ajută la securizarea datelor sensibile, a datelor personale și a informațiilor confidențiale ale companiei, abordând preocuparea etică a încălcării confidențialității datelor legate de IA generativă.

    ✅ Încorporați perspective diverse: organizațiile trebuie să încorporeze perspective diverse în setul de date de instruire AI pentru a reduce părtinirea și a asigura echitatea și luarea deciziilor corecte. Aceasta include implicarea unor indivizi din medii și experiențe diverse și evitarea proiectării sistemelor AI care dăunează sau dezavantajează anumite grupuri de indivizi.

    ✅ Rămâneți informat despre peisajul AI: peisajul AI continuă să evolueze în mod constant cu noile instrumente și tehnologii, dând naștere la noi preocupări etice. Întreprinderile trebuie să investească resurse și timp pentru a înțelege noile reglementări AI și pentru a rămâne informate cu privire la noile schimbări pentru a asigura cele mai bune practici AI.

    ✅ Implementarea semnăturilor digitale: o altă bună practică sugerată de experți pentru a depăși preocupările generative de AI este utilizarea semnăturilor digitale, a filigranelor și a tehnologiei blockchain. Acest lucru ajută la urmărirea originii conținutului generat și la identificarea potențialelor utilizări neautorizate sau falsificări ale conținutului.

    ✅ Elaborați orientări etice și politici de utilizare clare: stabilirea unor orientări etice și politici de utilizare clare pentru utilizarea și dezvoltarea IA este crucială pentru a acoperi subiecte precum responsabilitatea, confidențialitatea și transparența. Mai mult, folosind cadre stabilite precum Cadrul de management al riscului AI sau Ghidul de etică al UE pentru IA de încredere ajută la evitarea utilizării greșite a datelor.

    ✅ Aliniați-vă la standardele globale: organizațiile trebuie să se familiarizeze cu standardele și liniile directoare globale, cum ar fi Etica UNESCO AI orientări care subliniază patru valori fundamentale, inclusiv drepturile omului și demnitatea, diversitatea și incluziunea, societățile pașnice și juste și înflorirea mediului.

    ✅ Promovați deschiderea și transparența: organizațiile trebuie să promoveze utilizarea AI și transparența dezvoltării pentru a construi încrederea cu utilizatorii și clienții lor. Este esențial ca întreprinderile să definească clar funcționarea sistemelor AI, modul în care iau decizii și modul în care colectează și utilizează datele.

    ✅ Evaluați și monitorizați în mod consecvent sistemele AI: în sfârșit, evaluarea și monitorizarea consecventă a sistemelor AI este crucială pentru a le menține aliniate și etice conform standardelor și liniilor directoare AI stabilite. Prin urmare, organizațiile trebuie să efectueze evaluări și audituri regulate ale AI pentru a evita riscurile de preocupări etice.

    Concluzie

    În timp ce IA generativă oferă beneficii semnificative și revoluționează mai multe sectoare, înțelegerea și abordarea preocupărilor etice din jur este crucială pentru a promova utilizarea responsabilă și sigură a AI.

    Preocupările etice legate de IA generativă, cum ar fi încălcarea drepturilor de autor, încălcarea confidențialității datelor, distribuția de conținut dăunător și lipsa de transparență, solicită reglementări stricte și orientări etice pentru a asigura echilibrul corect și utilizarea robustă și responsabilă a IA.

    Organizațiile pot valorifica puterea AI la potențialul său maxim, cu riscuri și preocupări etice minime sau deloc, prin implementarea și dezvoltarea regulilor și ghidurilor etice și urmând cele mai bune practici AI.

    În continuare, verifică statisticile/tendințele AI care te vor uimi.