Meta Platforms își îmbunătățește supravegherea parentală pentru interacțiunile sale cu inteligența artificială (AI), introducând funcționalități care vor permite tutorilor să restricționeze accesul la personaje AI specifice și să monitorizeze subiectele conversațiilor care implică minori. Această mișcare strategică survine în contextul unei intensificări a controlului de reglementare și a preocupărilor publice legate de siguranța tehnologiilor AI pentru utilizatorii tineri, în special după apariția unor rapoarte conform cărora boții AI au purtat dialoguri nepotrivite cu copiii.
Actualizările viitoare ale gigantului tehnologic, programate pentru începutul anului viitor, sunt concepute pentru a oferi părinților un control sporit asupra implicării copiilor lor cu companionii AI de la Meta. Aceste noi funcționalități vor permite părinților să dezactiveze complet conversațiile AI unu-la-unu, să blocheze personaje AI individuale și să obțină vizibilitate asupra subiectelor pe care adolescenții le discută cu aceste entități AI. Această inițiativă reflectă o poziție proactivă a Meta pentru a aborda anxietățile legate de potențialul AI de a expune minorii la conținut sau influențe neadecvate.
Această evoluție are loc într-un moment în care atât Meta, cât și alți dezvoltatori AI de top sunt examinați de Comisia Federală pentru Comerț (FTC). Investigația FTC vizează stabilirea măsurilor de protecție pe care aceste companii le-au implementat pentru a asigura siguranța chatbot-urilor AI atunci când interacționează cu copiii. Ancheta subliniază o discuție societală mai largă despre implicațiile etice ale AI, în special în ceea ce privește impactul asupra sănătății mintale și bunăstării demografiilor mai tinere.
Rapoartele din august au evidențiat cazuri în care boții AI de la Meta ar fi purtat conversații romantice și senzuale cu minori, determinând ajustări imediate ale politicilor. Ca răspuns, Meta și-a actualizat protocoalele chatbot-urilor pentru a împiedica sistemele AI să discute subiecte sensibile precum auto-vătămarea, sinuciderea, tulburările de alimentație și conținutul romantic sau sexual cu adolescenții. În plus, au fost introduse noi măsuri de siguranță pentru a limita generarea de „răspunsuri neadecvate vârstei”. Aceste restricții îmbunătățite sunt în prezent implementate pe piețele cheie, inclusiv Statele Unite, Regatul Unit, Australia și Canada.
Instrumentele existente ale Meta permit deja părinților să gestioneze timpul petrecut în fața ecranului și să revizuiască jurnalele de conversații AI. Noile funcționalități sunt menite să completeze aceste controale existente, oferind un nivel mai granular de gestionare a interacțiunilor AI. Compania a subliniat angajamentul său de a implementa modificări care afectează o bază largă de utilizatori cu o considerație atentă.
Lumina reflectoarelor de reglementare se extinde și asupra OpenAI, care se confruntă cu întrebări similare din partea FTC cu privire la modelele sale AI și măsurile de protecție a copiilor. OpenAI și-a introdus recent propriile controale parentale și explorează tehnologii de verificare a vârstei pentru a aplica automat setările adecvate pentru utilizatorii sub 18 ani. Compania a înființat, de asemenea, un consiliu de experți axat pe ghidarea abordării sale privind AI și sănătatea mintală, semnalând un angajament de a aborda bunăstarea utilizatorilor.
Aceste acțiuni ale Meta și OpenAI au loc pe un fundal de preocupare publică semnificativă, amplificată de cazuri precum un proces pentru moarte nejustificată împotriva OpenAI, în care o familie a susținut că ChatGPT a contribuit la sinuciderea fiului lor adolescent. Presiunea din partea opiniei publice, a organismelor de reglementare și gravitatea consecințelor din lumea reală au făcut imperativ pentru aceste firme de tehnologie să prioritizeze siguranța aplicațiilor lor AI, în special pentru utilizatorii tineri și vulnerabili.