Google Gemini, „risc ridicat” pentru copii și tineri, zice Common Sense Media.

Proliferarea inteligenței artificiale, în special a modelelor lingvistice mari (LLM-uri), a adus în prim-plan discuții critice despre siguranța utilizatorilor, în special în ceea ce privește demografia mai tânără. O evaluare recentă realizată de Common Sense Media, o organizație non-profit dedicată siguranței copiilor în media și tehnologie, a desemnat Google Gemini ca fiind „cu risc ridicat” pentru adolescenți și copii, ridicând întrebări semnificative despre dezvoltarea și implementarea responsabilă a inteligenței artificiale pentru utilizatorii vulnerabili.

Evaluarea Common Sense Media a subliniat că nivelurile Gemini pentru utilizatorii sub 13 ani și pentru adolescenți par a fi versiuni pentru adulți ale platformei AI, la care au fost adăugate doar funcții suplimentare de siguranță. Organizația susține că produsele AI concepute pentru copii ar trebui proiectate de la zero, având în vedere nevoile de dezvoltare ale acestora, mai degrabă decât să fie simple adaptări ale sistemelor orientate către adulți. Această abordare fundamentală de proiectare este crucială pentru a crea experiențe digitale cu adevărat sigure și adecvate pentru utilizatorii tineri.

Analiza organizației non-profit a identificat cazuri în care Gemini ar putea expune copiii la conținut inadecvat, inclusiv informații legate de sex, droguri, alcool și sfaturi potențial dăunătoare privind sănătatea mintală. Aceasta din urmă este o preocupare deosebit de acută, deoarece inteligența artificială a fost implicată în incidente de auto-vătămare în rândul adolescenților. În mod notabil, OpenAI se confruntă în prezent cu un proces pentru moarte nedreaptă în urma sinuciderii unui adolescent, după ce acesta ar fi interacționat cu ChatGPT, iar un proces similar a fost intentat împotriva producătorului de însoțitori AI Character.AI după moartea unui alt adolescent. Aceste cazuri subliniază consecințele grave din lumea reală care pot apărea din cauza unor măsuri de siguranță AI insuficiente.

Această evaluare critică a Google Gemini apare pe fondul rapoartelor care indică faptul că Apple ia în considerare utilizarea acestui LLM pentru a-și alimenta viitoarea Siri, activată de AI. O astfel de integrare potențială crește miza pentru Google și pentru industria tehnologică în general în ceea ce privește siguranța AI. În ciuda etichetei de „risc ridicat”, Google a declarat că își îmbunătățește continuu funcțiile de siguranță. Compania afirmă că are măsuri de siguranță specifice pentru utilizatorii sub 18 ani pentru a preveni rezultatele dăunătoare și colaborează cu experți externi pentru a-și perfecționa măsurile de protecție.

Potrivit lui Robbie Torney, Director Senior al Programelor AI la Common Sense Media, deși Gemini abordează unele aspecte fundamentale de siguranță, acesta eșuează în adaptarea abordării sale la diferite etape ale dezvoltării copilului. Torney a subliniat că platformele AI eficiente pentru copii trebuie să le răspundă la nivelul lor de dezvoltare, mai degrabă decât să utilizeze o abordare universală. Provocarea continuă pentru firmele de tehnologie este de a echilibra inovația rapidă cu imperativul de a proiecta sisteme AI care sunt în mod inerent sigure, eficiente și adecvate din punct de vedere al dezvoltării pentru cei mai tineri și mai impresionabili utilizatori.

Sources