Izuzetno je zanimljivo posmatrati sve raširenije napore različitih softverskih rešenja zasnovanih na veštačkoj inteligenciji i mašinskom učenju da stvore umetnička dela ) (ako se tako mogu nazvati). Kompanija OpenAI dozvolila je korisnicima svog softvera zasnovanog na veštačkoj inteligenciji pod nazivom DALL-E da „uređuju“ fotografije i slike koje sadrže ljude. Ranije to nije bilo dozvoljeno jer je kompanija bila zabrinuta zbog potencijalne zloupotrebe ove funkcionalnosti. Međutim, lideri su očigledno promenili mišljenje nakon što su radili na algoritmu koji automatski ulaže „kreacije“ koje sadrži seksualni, nasilni ili politički sadržaj.

U ovom trenutku, DALL-E omogućava uređivanje i menjanje fotografija na nekoliko načina. Za početak, potrebno je da na serveru postavite fotografiju ili neke druge osobe. Zatim je moguće automatski generisati različite varijante iste fotografije ili izabrati opciju za promenu određenih parametara i karakteristika, kao što su odeća ili frizura, ali i karakteristike lica osobe. S jedne strane, to je veoma koristan alat za kreativne ljude i sve one koji se takođe osećaju, a sa druge strane, kompanija OpenAI je svesna potencijala imala nivo za zloupotrebu, pa je bezbednost na visokom nivou. i da je onemogućeno korišćenje ove tehnologije u kreativne svrhe. deepfake” photo.

Da li je zaštita moguća?

Krajnji cilj korišćenja takve tehnologije od strane „javnosti“ poboljšava sposobnost same veštačke inteligencije , ali na oprezan način. Na primer, Right Diffusion omogućava korisnicima slične funkcionalnosti sa mnogo manjeg ograničenja, što je već donelo do dobijanja stvaranja pornografskog sadržaja sa „duboko lažnim“ licima poznatih ličnosti.

Kako OpenAI rešava ove probleme? Korištenjem naprednih filtera za sprečavanje kreiranja sličnog sadržaja i sprečavanjem korisnika da postavljaju fotografije drugih ljudi na svoje servere bez njihove dozvole. Vreme će pokazati koliko će ova vrsta zaštite biti efikasna

Više detalja