GDPR in razvoj virtualnih agentov – dobra stvar ali nujno zlo?

Rok Naraks, Head of AI Development, 2Mobile • mar. 18, 2024

Od leta 2018, ko je GDPR pri nas stopil v veljavo, je marsikdo izmed nas, ki dela v marketingu in se na različne načine ukvarja z obdelavo podatkov, kdaj izgubil potrpljenje, ko je prišlo do urejanja pravnoformalnih zadev, ki se nanašajo na zajem in obdelavo osebnih podatkov. A dejstvo je, da je to področje, ki ga v digitalnem marketingu ne moremo preskočiti in predstavlja temelje za dobro uporabniško izkušnjo in seveda zakonsko skladnost.


V svetu, kjer so pogovorni boti postali pomemben del poslovne strategije, je nujno, da vsi, ki obdelujemo osebne podatke državljanov EU, zagotovimo visoko stopnjo zaščite podatkov in transparentnost. GDPR zahteva točno to – visoko stopnjo zasebnosti in transparentnost pri obdelavi osebnih podatkov, kar je še posebej pomembno pri razvoju pogovornih botov, ki pogosto obdelujejo občutljive informacije.

Integracija mehanike zasebnosti v samo delovanje bota zagotavlja, da je varovanje zasebnosti vgrajeno neposredno v tehnologijo botov od samega začetka. Samostojni klepetalni boti, ki uporabljajo lastne podatkovne baze in pogovorne algoritme, predstavljajo v tem kontekstu dodatno raven varnosti, saj osebni podatki niso deljeni s tretjimi strankami. 



Pogovorni boti obdelujejo številne podatke


Pogovorni boti so uvrščeni med orodja za zbiranje in obdelavo podatkov, zato zanje velja zakonodaja GDPR. To pomeni, da morajo spoštovati ključna načela GDPR-ja, kot so pridobitev soglasja uporabnika, transparentnost vseh operacij obdelave, implementacija orodij za spoštovanje pravic uporabnikov, omejitev zadrževanja podatkov in varnost podatkov. Pogovorni boti se pogosto uporabljajo za pridobivanje potencialnih strank in zbirajo informacije, kot so imena, e-poštni naslovi in telefonske številke. GDPR od podjetij zahteva, da pojasnijo, kako bodo ti podatki uporabljeni.

Informirano soglasje in novi zakoni, kot je DMA (Digital markets act), igrajo ključno vlogo pri uporabniški izkušnji na spletu, kar smo pred kratkim opazili tudi uporabniki Facebooka in drugih spletnih orodij. Dobili smo namreč možnost, da se uporabniške račune za Facebook, Instagram, Threads in Facebook Messenger loči. V praksi to pomeni, da moramo biti kot uporabniki pred začetkom uporabe jasno obveščeni o tem, kako se naši podatki zbirajo, uporabljajo in shranjujejo, in moramo imeti možnost, da svoje soglasje kadarkoli prekličemo. To od lastnika orodja oziroma tehnološke rešitve zahteva transparentnost ne le na ravni podatkov, ampak tudi na ravni algoritmičnih procesov, ki pogosto ostajajo skriti uporabniku.


Spoštovanje GDPR-ja pri razvoju pogovornih botov v Evropski uniji


Pri vsakem razvoju orodja, ki ga poganjajo podatki, je izjemno pomembno upoštevanje pravilnikov o zasebnosti, kot so GDPR (General Data Protection Regulation), DMA (Digital markets act) in v prihodnje tudi AI Act. Evropska unija namreč s temi akti zahteva, da vse entitete, ki obdelujejo osebne podatke državljanov EU, zagotovijo visoko stopnjo zaščite podatkov in transparentnost v svojih procesih. To je še posebej pomembno pri razvoju pogovornih botov, ki se pogosto zanašajo na obdelavo občutljivih informacij.


V družbi 2Mobile se zavedamo, da je za nas kot razvijalce pogovornih botov spoštovanje GDPR-ja in drugih aktov zato ne le zakonska obveznost, ampak tudi ključen element za gradnjo zaupanja strank. Zato pri snovanju virtualnih agentov skrbimo, da so jasno določene in s pogodbo opredeljene naše pravice in pravice naročnika, da so vsi zbrani podatki obravnavani s skrajno skrbnostjo in da so uporabnikom jasno razložene pravice v zvezi z njihovimi podatki.



Pogovorni boti, ki so zgrajeni na tehnologiji Boost.ai, zagotavljajo avtonomijo in varnost


Pogovorni boti, ki jih poganja tehnologija našega norveškega partnerja Boost.ai, ki velja za enega največjih izzivalcev v segmentu pogovorne umetne inteligence, so z vidika podatkovne varnosti izjemno varni. Temeljijo namreč na avtonomnih podatkovnih bazah, ki so lahko vzpostavljene bodisi v zasebnem oblaku (AWS), ki se nahaja v EU, bodisi na lokalnem strežniku podjetja. Zato nudijo dodatno raven varnosti, saj se osebni podatki ne delijo s tretjimi strankami in so tako v lasti in upravljanju izključno posameznega podjetja. Ključnega pomena je, da ti sistemi uporabljajo napredne tehnike šifriranja in anonimizacije, da dodatno zaščitijo podatke uporabnikov.

 

Integracija s ChatGPT-jem in uporaba velikih jezikovnih modelov


ChatGPT, razvit s strani podjetja OpenAI, je primer naprednega pogovornega modela AI, ki je zasnovan na velikem jezikovnem modelu (LLM) in je zadnje čase tudi vse bolj reguliran (natreniran) v smeri spoštovanja zasebnosti in varnosti osebnih podatkov. Razvijalci pogovornih botov ta najnaprednejši jezikovni model uporabljamo tudi pri izgradnji in treningu avtonomnih pogovornih botov, pri čemer je pomembno, da tudi tukaj sledimo smernicam, določenim z GDPR-jem.


V praksi to pomeni, da pogovorni boti podjetij, ki so zgrajeni na lastnih podatkovnih bazah in algoritmih (na npr. platformi Boost.ai), ne smejo z velikim jezikovnim modelom deliti osebnih podatkov brez eksplicitne privolitve uporabnika. Uporabljajo se lahko za oblikovanje odgovorov, ki ne vsebujejo informacij zasebne narave. V praksi zna avtonomni pogovorni bot, ko je natreniran, odgovoriti na 90 odstotkov zahtevkov brez uporabe modela LLM, se pa ta odstotek s časom izboljšuje, saj se pogovorni bot nenehno uči in se njegova sposobnost avtonomno odgovoriti na vprašanja povečuje. Če uporabnik dovoli uporabo funkcionalnosti modela LLM za dodatne in bolj izčrpne odgovore, pa s tem sam prevzame nadzor, katere podatke deli, in odgovornost za lastne osebne podatke.



Po GDPR-ju prihaja še Akt o umetni inteligenci


V dobi digitalne preobrazbe, kjer že GDPR zahteva visoko stopnjo zasebnosti in transparentnosti pri obdelavi osebnih podatkov, EU dodatno krepi regulativni okvir z novim predlogom zakonodaje – Aktom o umetni inteligenci (AI Act). Ta zakonodajni predlog uvaja razvrstitev sistemov AI glede na tveganje, ki ga predstavljajo za zdravje, varnost ali temeljne pravice posameznikov, in določa različne zahteve za njihov razvoj in uporabo.

Integracija akta o AI v razvoj in upravljanje pogovornih botov v EU ne samo, da krepi zahteve GDPR-ja za zasebnost in varstvo podatkov, ampak uvaja tudi stroge okvire za zagotavljanje varne, odgovorne in transparentne uporabe tehnologij AI. Razvijalci in podjetja bomo v prihodnosti morali še bolj uspešno krmariti skozi ti dve regulativni področji, da bomo zagotovili popolno skladnost svojih izdelkov in storitev, hkrati pa ohranili konkurenčnost in inovativnost v hitro razvijajočem se tehnološkem okolju.


Predvsem pa je pomembno, da so pogovorni boti, ki so popolnoma odprti in uporabljajo velike jezikovne modele, v tem kontekstu precej manj varni in zaupanja vredni kot pogovorni boti, ki so zasnovani na avtonomnih tehnoloških rešitvah. Razvoj pogovornih botov v skladu z GDPR-jem zato ni samo pravna obveznost, ampak tudi priložnost za gradnjo zaupanja in zagotavljanje boljše uporabniške izkušnje. 

Share by: