Dr. Ēvalds Urtāns: Ja tu kaut ko izmanto par brīvu, tad tu esi produkts

Mūsu ikdiena nav iedomājama bez digitālās vides, sociālajiem tīkliem un jaunajām tehnoloģijām. Mākslīgā intelekta straujā attīstība rada jaunas iespējas un arī riskus, kas šobrīd vēl nav iedomājami. Kā būs nākotnē?

Dr. Ēvalds Urtāns ir mākslīgā intelekta pētnieks un tehnoloģiju uzņēmuma “asya.ai” CEO. Saprot dažādus jaunākos mākslīgā intelekta rīkus un algoritmus, par kuriem stāsta sarunā. 

Ar kādiem Mākslīgā intelekta risinājumiem Jūs ieteiktu sākt?

Tagad ir ļoti populārs “ChatGPT”. Pirms izmantot “ChatGPT” ir jāsaprot, kā tas strādā, var iziet pamācību kursu vai patstāvīgi atrast izglītojošus materiālus, jo viņš īsti nestrādā tādā veidā, kā lielākā daļa cilvēku domā, kā viņš strādā. Viņš nav “orākls”, viņš ir kā improvizācijas teātris, un tas ir fundamentāli no modeļa atkarīgs. Ko tas nozīmē? Tas ir “jāpabaro” ar datiem, ja ir vēlme, lai tas uzrakstītu vērtīgu tekstu, izveido materiālus, tādus, kādus vēlaties.

“ChatBing.com” – vēl viens noderīgs rīks, kuru daudzi šobrīd, vēl nezina. Tas var uzģenerēt dažādas citas lietas, attēlus un, piemēram, bērnu krāsojamās grāmatas.

Jāņem vērā, ka lielākoties izmantojam bezmaksas versijas, bet, maksas versijas var sniegt pilnvērtīgāku informāciju. Piemēram, “ChatGPT” maksas versija piedāvā iespēju pat ielikt dokumentus un uzdot jautājumus par tiem. Tad vēl ir “GPT 4” un “GPT 4 Turbo”, kas vienkārši ir kā diena pret nakti, ja salīdzina maksas un bezmaksas versijas.

Runājot par jauniešiem, skolās tagad līdz pat 90% izmanto mākslīgā intelekta rīkus (arī “ChatGPT“), lai pildītu mājasdarbus, jo tie tiešām ir noderīgi. 

Tad vēl ir tādi mākslīgā intelekta meklētāji, kas ir labāki par “Google.com”. Piemēram, “Chatbing.com”, kas spēj meklēt informāciju arī latviešu valodā vai “perplexity.ai”, kas ir ļoti jaudīgs. Vēl eksistē “you.com” un vēl citi, un doma ir, ka tādos meklētājos, piemēram, var uzprasīt uztaisīt tabulu, salīdzināt cenas kaut kādam produktam ar konkurentiem vai, piemēram, cik tuvu drīkst būvēt māju kaimiņam, tātad pat normatīvos aktus. Informācija tiek sniegta ļoti precīzi, līdzīgi kā “ChatGPT”. Tas atgriež dokumentu ar atsaucēm, tabulas formātā un citos sarežģītākos veidos.

Tāpēc “Google” apmeklējums tagad ir samazinājies. Es pats jau kādus 6 mēnešus neesmu lietojis “Google.com”.

Jā, un mākslīgie intelekti ir riskanti – var uzģenerēt cilvēka balsi, viltot audio failus. Un arī slavenības sejas, kas tagad parādījušās uzģenerētas dažādos video – daudz dažādu risku. Ko Jūs par to domājat?

Jā, tas ir jāņem vērā. Jāsaka, ka mēs neesam pirmais mērķtirgus šādiem gadījumiem – uzbrukumiem. Amerikā tas šobrīd aktīvāk notiek. Bet tas notiek, kad nestrādā “spamfiltri” – netiek atlasīts un iztīrīts “spams”.

Pieņemsim, ka pa telefonu var pazvanīt dēls vai meita, kas īstenībā nav dēls vai meita, un palūgt izdarīt visdažādākās lietas, un to visu praktiski tā var diezgan vienkārši izdarīt un uzķerties.

Bet, ja ir jārunā par tādām nopietnām aizsardzības sistēmām, pieņemsim tās, kas ir bankās, kur var atpazīt balsi, un mēs arī ar šādām balss atpazīšanas sistēmām strādājam, tad balsij jābūt augstam kvalitātes ierakstam – tad nebūs tik viegli viltot. Bankas par to ir padomājušas, lai sistēma varētu atpazīt, ka tas ir kaut kas ģenerēts, un pieprasa balss ierakstus vislabākajā kvalitātē.

Runājot par kvalitāti – ja monitoram konkrētā ierīcē ir augsta izšķirtspēja, tad arī var pateikt, vai attēls ir ģenerēts. Tāpēc tādās sistēmās, kas skar valstisku drošību un tamlīdzīgi ir jāceļ šo failu kvalitāte, lai tādus modeļus krāpniekiem būtu grūtāk realizēt.

Sanāk, ka jebkurš var iemācīties atpazīt viltojumus, ja, piemēram, ir monitors ar augstu izšķirtspēju?

Nē, nē, pašam ir ļoti grūti atpazīt. Tādā ziņā, bankām vai autentifikācijas sistēmām ir veidi, kā ceļot kvalitāti, var, novērst krāpnieku viltojums, bet, ja tev pa telefonu kāds pazvana, tad pat ar zemu kvalitātes audio ierakstu vai parastu ģenerētu attēlu monitorā var vienkārši apkrāpt un to nav viegli apturēt.

Tagad tiek gatavota Mākslīgā intelekta regula, kas būšot gatava 2025. gadā. Tas ir tāds ilgs laiks – 3 gadi, kamēr vēl nebūs gatava regula. Un tur ir interesanti aprakstīts, ka tās sistēmas tiks iedalītas trijās kategorijās (pēc riskiem). Kā tad varēs izšķirt, kas būs ar augstāko risku?

Esmu piedalījies dažādās diskusijās par šo jautājumu. Jāsaka, ka pirmām kārtām, kas nāk prātā, ka parasti, pārcenšoties kaut ko regulēt, pirms kaut kas ir nogājis greizi, tā jau pati par sevi ir riskanta situācija.

No biznesa puses arī būs diezgan nepatīkami, jo var gadīties situācija, ka tāpēc, ka kāds ir izdomājis kaut ko pārāk daudz regulēt, tad sliktākajā gadījumā mēs izmantosim, piemēram, “ChatGPT” vai kaut kādus labus rīkus, tikai ja varēsim tos uzinstalēt savā ierīcē. Tātad produkti, kas potenciāli nerada riskus, tiks pārāk kontrolēti un radīs sarežģījumus ne tikai uzņēmējiem, bet arī patērētājiem.

Regulu sāka veidot jau vairākus gadus atpakaļ, bet tad iznāca “ChatGPT” un visi noteikumi pamainījās. Tāpēc regula atkal bija ātri jāgroza, tādā ātrumā un nākotnē mēs nevaram zināt, kas būs ar šo regulu. Tas viss ir ļoti neskaidri un var pat rezultēties slikti priekš uzņēmējiem, un priekš gala patērētājiem.

Rezultātā gala produkts var strādāt pilnīgi nepareizi, ja iejaucas cilvēki, kas pārāk uzrauga, iejaucas, bet nesaprot un neizstrādā šīs sistēmas.

Par uzraudzību nav skaidrs, kā tas notiks. Kā to var darīt?

Jā, simtiem visādu caurumu un tad vēl būs gadījumi ar lieliem uzņēmumiem, kuriem uzbruks konkurenti un izmantos visādas regulas, lai uzbruktu viens otram. Tas īstenībā beigās gala patērētājam nekāds ieguvums nebūs. 

Piemēram, arī situācija – tev zvana pa telefonu un saka, ka zvans tiks ierakstīts, lai uzlabotu kvalitāti un citu iemeslu dēļ, un jautās – vai jūs tam piekrītat? Un vai kāds vispār kādreiz saka “nē, neierakstiet” ? Tu esi kādreiz tā darījusi?

Es zinu, ka neviens tā nedarīs, jo es biju “Riga COMM” spīkeris un visās lielās zāles saka, ka neviens cilvēks nav tā darījis. Tas ir atkal – kāds izdomājis regulai tādu lietu, kas ir pilnīgi nevajadzīga.

Rezultātu īstenībā ir grūti iztēloties, jo tik daudz visādu aspektu. Piemēram, strādājot ar daudziem zvanu centriem, mums stāstīja, ka mākslīgā intelekta sistēmas palīdz atpazīt visu, kas notiek zvanos ar klientiem, un tā tālāk, tāpēc darbs ritēja raiti, varēja efektīvi organizēt darbu līdz brīdim, kad iestājās jauna regula. Sanāk, ka vairs nevar, piemēram, dalīties ar kontaktiem uzņēmumiem savā starpā, bet to tāpat daudzi vēl dara, tikai nelegālā veidā. Izveidojies “melnais” tirgus, kas varētu arī nenotikt, ja nebūtu regulas. Un arī problēmas no patērētāju puses – neviens taču nesaka “nē, neierakstiet mani” utml. Tie ir nevajadzīgi sarkanie paziņojumi, ka pēkšņi saka, ka ir risks, riska produkts.

Jā, topošajā regulējumā bija arī tāda dīvaina frāze, ka ar 2025. gadu sistēmas būs jāizstrādā pēc konkrētiem standartiem. Vai tas netraucēs šo sistēmu attīstībai?  Ja uzņēmējs sāk izstrādāt sistēmu, kā tad viņam var ierobežojumus uzlikt?

Vēl viens labs punkts. Kā piemēru paņemsim Amerikā, kas notika nupat nesen. Senātā viņi mēģināja virzīt priekšlikumu, lai mākslīgā intelekta uzņēmumi kļūtu par regulētiem uzņēmumiem, tāpat kā farmācijas uzņēmumi. Ja kaut kas tāds tiktu virzīts Eiropā, tad būs milzīgas neskaidrības, kāpēc tas tiek virzīts? Iedomājies, uzņēmums iet pie valdības un prasa “lūdzu, regulējiet mūs!” Īstais iemeslis apakšā ir finansējums – ja šai valdībai ir jāoperē ar 11 miljardu finansējumu un tu vari sastādīt visu regulējumu tā, ka tikai tam vienam pietiek finansējums, lai visas regulas prasības izpildītu, tad visi pārējie spēlētāji vispār nespēs tur tikt iekšā. Tas tikai novedīs pie monopola veidošanās. Līdzīgi kā farmācijas nozarēs.

Jā, un par sodu sistēmu –  līdz pat 40 milj. eiro sodu varēs uzlikt, ja ir kaut kāda kļūda izstrādātajā sistēmā. Kā tad var saprast, vai tā ir kļūda, vai tas ir, piemēram, netīšām sanācis? Tad jau visi baidīsies tajā iekšā līst un neviens negribēs attīstīt sistēmas, ja par katru kļūdu milzīgs sods.

Jā, nu līdzīgi Latvijā jau ir ar regulētajām nozarēm, piemēram, Latvijā tiek regulēts banku sektors –  kreditēšana, apdrošināšana. Virkne visādu citu uzņēmumu. Tad tas uzreiz jau uzceļ barjeru. Tas nozīmē, ka lielākā daļa nevar nemaz startēt. Ja vēl tiek uzlikti sodi, tad tiek atturēts no ienākšanas tirgū. Beigās zaudētāji būs gan patērētāji, gan uzņēmumi. Vispār visa sabiedrība kopumā, jo tajās valstīs, kur nebūs šādi regulējumi, tur tas viss attīstīsies un plauks, tātad nauda migrēs uz citurieni. Viņiem nebūs izstrādāts agresīvs veids, kā pretoties jaunajām tehnoloģijām. 

Un vēl par riskiem. Tagad robotus veido tādus, kas var aizvietot darbiniekus. 

Es nezinu, cik tas risks. Drīzāk realitāte, ka lielākajā daļā ikdienas darbu tas jau ir ieviests un tiks ieviests.

Runājot par bērniem, viņi vienkārši sēdēs un skatīsies ekrānos, atslēgsies no realitātes, jo “robotiņi”, jaunās sistēmas izklaidēs, stāstīs pasakas, kas kaut kā ietekmēs bērnu psihi, jauno paaudzi. Tas ietekmēs sabiedrību kopumā, jo vienkārši aizvietos pamatfunkcijas cilvēkiem. Ja mākslīgais intelekts sāks aizvietot pamatcilvēka jēgu, tad sāk parādīties lielāki jautājumi. Mēs nezinām, kā tas būs.

Un kā būs ar mazo uzņēmumu konkurētspēju, ja pēkšņi visi lielie uzņēmumi sapirks jaunās sistēmas? Vai tad nebūs tā, ka tie mazie uzņēmumi sāks izmirt?

Tieši pretējais. Ar šo milzīgo uzplaukumu, visi mazie uzņēmumi var sākt plaši izmantot, pielietot darbā mākslīgo intelektu, jo tagad ir pienācis brīdis, kad arī mazie, vidējie uzņēmumi var viegli piekļūt pie šīm tehnoloģijām. Tāpēc tieši viņiem ir “atvērti ceļi” un uzplaukums, ja viņi tikai to izmanto. Un pie tam vēl Latvijā ir fantastisks brīdis, kad eksistē digitalizācijas programma LIAA, kur var gan iekšējos procesus, gan jaunus produktus digitalizēt, un tur ir diezgan labs finansējums pieejams. Mazie, vidējie uzņēmumi var vienkārši sākt pieteikties un sākt lietot visus šos rīkus savā ikdienā, lai paātrinātu procesus vai uzlabotu kvalitāti. Tā ir lieliska iespēja.

Runājot par algoritmiem, sociālajiem tīkliem, tad es tur piefiksēju 2 dīvainas lietas. Pirmā – “Facebook” tevi noklausās no telefona, lai pielāgotu savas reklāmas. Otrais – “Instagram” tevi nobloķē, ja tu esi pārāk aktīvs, lai tu to nedarītu un pirktu reklāmas, ja esi biznesa profils. 

Jā, nu abas situācijas ir interesantas un atšķirīgas. Visticamāk nenoklausās, nu tā būtu vislielākā varbūtība, ka nenoklausās, bet man pašam tas gadījies “Facebook” ar sensoriem, kurus pirku mājai. Vienu vakaru kopā ar labu draugu vakariņojām, runājām par šiem sensoriem un nākamajā rītā mums abiem parādījās šīs reklāmas. Bet tas kā es to skaidroju – visa informācija par tevi, ko tu dari internetā, ir pieejama tavam interneta provaideram. Viņiem otrā pusē ir zināms pilnīgi viss. Tāpēc arī tagad ir brīdinājumi mājaslapās, ka tiek ievākti dati, lai patērētājs ir informēts. Jāsaka, ka šie dati ir ļoti vērtīgi un tos pārdot, piemēram, arī bankas pārdot datus, ko tu iegādājies internetā, meklē meklētājos, uz kā tu uzklikšķini u.c. Par lielu naudu šādus datus var nopirkt. Tas ir tehniski iespējams, jo “otrajā galā” tas nav sarežģīts uzdevums. Tas ir tas, kā es to skaidrotu.

Savukārt “Instagram” bloķēšana notiek botu dēļ. “Instagram” “satiksme” ir tāda, ka nevar atpazīt vai tas ir cilvēks vai bots, tāpēc kaut kas šāds notiek. Un tad viņi mēģina cīnīties, kā nu viņi māk, un tad gala lietotājiem ļoti nepatīkama pieredze sāk veidoties. Viens veids, kā to var atrisināt, ir, kā jau “Twitters jeb X” to sāk darīt, “Facebook” ar laiku, visticamāk, pievienosies – apzināti likt cilvēkiem maksāt. Ja tu lieto sociālos tīklus, tad maksā par tiem, un botus nav izdevīgi veidot, ja par katru jāmaksā. Nākotnē liela daļa pakalpojumu, kas tagad ir par brīvu, būs par maksu.

Skaties – ja tu kaut ko izmanto par brīvu, tad visticamāk nozīmē, ka tu esi produkts. Vari sevi iztēloties, ka tu atrodies veikalā uz plaukta un “Instagram”, sociālie mediji ir milzīga masu kontroles mašīna.

Autore: Helēna Rozalinska

Leave a Reply