Ovaj AI ima potencijal da postane ključni alat u modernom umetničkom arsenalu.
OpenAI nedavno je predstavio svoj najnoviji generativni AI alat pod nazivom Sora, koji je već izazvao veliku pažnju među kreativcima, ali i u javnosti uopšte.
Sora, koja može da kreira minut duge video-zapise iz jednostavnih tekstualnih opisa, prvi put je prikazana javnosti sredinom februara. Iako još nije dostupan kao komercijalni proizvod, ovaj alat već pokazuje značajan potencijal u transformaciji kreativnog procesa i omogućava umetnicima da svoje ideje pretvore u vizuelnu stvarnost na način koji do sada nije bio moguć.
U februaru 2024, Sora je postala dostupna „crvenim timovima“ – ljudima čiji je posao da testiraju sigurnost i stabilnost proizvoda. OpenAI takođe je pozvao odabrani broj vizuelnih umetnika, dizajnera i filmskih stvaralaca da testiraju mogućnosti generisanja video-zapisa.
Ipak, akcenat je u ovom trenutku na samoj bezbednosti upotrebe ovog AI alata. To potvrđuje i podatak da je OpenAI krajem maja formirao Odbor za bezbednost, koji je nadležan za davanje preporuka o ključnim odlukama koje se tiču sigurnosti svih njihovih projekata, koji su uglavnom vodeći u industriji kada je reč o tehnološkim mogućnostima.
Samim tim, u ovoj kompaniji žele da njihovi projekti podjednako budu uspešni i u vezi s pitanjem bezbednosti i zaštitnih mera. Zbog toga će OpenAI u narednom periodu intenzivirati angažman i saradnju sa brojnim stručnjacima za sigurnost i tehničke aspekte, uključujući bivše zvaničnike i savetnike za sajber bezbednost.
Iz kompanije pojašnjavaju da rade na alatima koji će pomoći u prepoznavanju obmanjujućeg sadržaja, ali i na unapređenju tehnologija koje se tiču odbacivanja zlonamjernog. Svesni su, navode, da su sami ljudi zapravo „najslabija karika“ u lancu prevara raznih vrsta koje su prisutne u onlajn svetu, uglavnom zbog toga što ne mogu baš uvek da se odupru tim negativnim uticajima. Jednostavno, skloni smo tome da ponekad budemo naivni ili lakoverni, a mračna strana ljudske mašte koristi svaku priliku da to zloupotrebi.
Zato OpenAI pokreće saradnju sa brojnim stručnjacima s ciljem testiranja Sora-e, a kako bi pomno razmotrili područja poput dezinformacija, govora mržnje i pristrasnosti. Ti testovi su od vitalnog značaja, jer bi ovako nastali video-zapisi mogli omogućiti zlonamernim akterima da generišu lažne snimke, što izaziva veliku zabrinutost akademske, ali i biznis zajednice, kao i predstavnika vlada i drugih sektora, a svakako i stručnjaka za veštačku inteligenciju.
Sora je, naime, apsolutno sposobna da kreira video-zapise koji bi mogli da prevare ljude. Tako stručnjaci koji su posvećeni borbi za sigurnije onlajn okruženje apeluju da video-zapisi ne moraju biti savršeni da bi bili verodostojni, jer mnogi ljudi i dalje nisu svesni da se njima može manipulisati jednako lako kao i fotografijama, odnosno slikom.
Pre nego što Sora bude u potpunosti lansirana i dostupna kao veb-aplikacija, OpenAI planira da uvede sigurnosne mere kako bi sprečio generisanje nasilnih, seksualnih ili uvredljivih sadržaja, kao i da implementira alate za borbu protiv dezinformacija.
Sve u svemu, Sora predstavlja uzbudljiv korak napred u generativnoj AI tehnologiji, otvarajući nove horizonte za kreativce i omogućavajući im da na inovativne načine izraze svoje ideje. Iako je još u fazi razvoja, potencijal Sora-e da transformiše način na koji se stvaraju video-zapisi je neosporan i očekuje se da će, uz dalji razvoj i usavršavanje, postati nezamenljiv alat za umetnike i kreatore širom sveta.
Preuzeto iz m:agazina, m:tel.ba