AI companion chatbots și copiii: considerații etice

image

Când copiii intră în dialog cu inteligența artificială (AI), trebuie să avem în vedere nu numai aspectele juridice (respectarea drepturilor lor), dar și aspectele etice.

Specialiști IT și experți juriști internaționali au organizat un webinar în cadrul proiectului i-Access MyRights, în data de 14 mai, unde au discutat beneficiile dar și riscurile tehnologiilor AI pentru copiii vulnerabili care intră online pentru a cere ajutor. Tema a fost pusă în discuție deoarece în proiect se lucrează la o aplicație în sprijinul acestor copiii.

Va fi o aplicație chatbot pe model GPT care va facilita accesul copiilor la informații într-un mod prietenos și adecvat vârstei lor, îi va ajuta să își cunoască drepturile și serviciile destinate lor în țara respectivă, îi va susține psihologic pe copiii victime ale abuzurilor, dar și pe cei aflați în conflict cu legea.

Creatorul unui chatbot GPT are numeroase responsabilități, iar transparența este una dintre ele, au arătat vorbitorii. Copiii trebuie informați de la început că interacționează cu un sistem AI, nu cu o ființa umană.

Riscurile de natură etică sunt multiple, au explicat experții IT. Când un chatbot de tip GPT intră în dialog cu un utilizator, el devine un Conversational Agent sau un Companion Chatbot. Acest chatbot de companie are un potențial foarte mare deoarece se poate intra în dialog cu el mult mai ușor decât cu o persoană, el poate oferi susținere psihologică, consiliere.  

Atunci când un chatbot GPT mimează comportamentul uman, copiii vulnerabili pot sa îl perceapă ca pe o ființă umană. Se pot atașa emoțional, pot deveni dependenți de el. Companion AI chatbots sunt problematice, a explicat Victoria Hendrickx, cercetător la KU Leuven Centre for IT and IP Law din Belgia. ”Noi am luat  în considerare mai multe măsuri de protecție în crearea acestui chatbot. Chatbotul creat de noi are un cadru fix prestabilit de răspunsuri posibile. L-am proiectat astfel încât să nu manifeste prea multă compasiune, prea multă emoție. Eliminăm astfel riscul de atașament emoțional (...) Este proiectat să nu aibă memorie, să nu rețină conversațiile, deci nu va fi posibil să i se adreseze întrebări ulterior.” Este important ca AI companion  să nu se comporte ca o ființă umană, au concluzionat experții. Scopul unui chatbot este doar acela de a informa utilizatorii și a oferi răspunsuri.

Alt risc, pe lângă impactul emoțional: acești agenți pot colecta prea multe date personale despre utilizator. Datele pot fi utilizate pentru a manipula utilizatorul în multe feluri: social, economic, emoțional, a adăugat Victoria.

Un pericol de ordin etic este subiectivitatea designerului. Dacă inputul este subiectiv, outputul va fi și el subiectiv ( pe principiul “garbage in, garbage out”). Deci designerul trebuie să fie foarte atent la ce introduce în sistem.

Articolul poate fi citit integral aici: AI companion chatbots și copiii: considerații etice | ChildHub - Child Protection Hub