Kako je Sora zaludela svet

Ovaj AI ima potencijal da postane ključni alat u modernom umetničkom arsenalu.

OpenAI nedavno je predstavio svoj najnoviji generativni AI alat pod nazivom Sora, koji je već izazvao veliku pažnju među kreativcima, ali i u javnosti uopšte.

Sora, koja može da kreira minut duge video-zapise iz jednostavnih tekstualnih opisa, prvi put je prikazana javnosti sredinom februara. Iako još nije dostupan kao komercijalni proizvod, ovaj alat već pokazuje značajan potencijal u transformaciji kreativnog procesa i omogućava umetnicima da svoje ideje pretvore u vizuelnu stvarnost na način koji do sada nije bio moguć.

U februaru 2024, Sora je postala dostupna „crvenim timovima“ – ljudima čiji je posao da testiraju sigurnost i stabilnost proizvoda. OpenAI takođe je pozvao odabrani broj vizuelnih umetnika, dizajnera i filmskih stvaralaca da testiraju mogućnosti generisanja video-zapisa.

Ipak, akcenat je u ovom trenutku na samoj bezbednosti upotrebe ovog AI alata. To potvrđuje i podatak da je OpenAI krajem maja formirao Odbor za bezbednost, koji je nadležan za davanje preporuka o ključnim odlukama koje se tiču sigurnosti svih njihovih projekata, koji su uglavnom vodeći u industriji kada je reč o tehnološkim mogućnostima.

Samim tim, u ovoj kompaniji žele da njihovi projekti podjednako budu uspešni i u vezi s pitanjem bezbednosti i zaštitnih mera. Zbog toga će OpenAI u narednom periodu intenzivirati angažman i saradnju sa brojnim stručnjacima za sigurnost i tehničke aspekte, uključujući bivše zvaničnike i savetnike za sajber bezbednost.

Iz kompanije pojašnjavaju da rade na alatima koji će pomoći u prepoznavanju obmanjujućeg sadržaja, ali i na unapređenju tehnologija koje se tiču odbacivanja zlonamjernog. Svesni su, navode, da su sami ljudi zapravo „najslabija karika“ u lancu prevara raznih vrsta koje su prisutne u onlajn svetu, uglavnom zbog toga što ne mogu baš uvek da se odupru tim negativnim uticajima. Jednostavno, skloni smo tome da ponekad budemo naivni ili lakoverni, a mračna strana ljudske mašte koristi svaku priliku da to zloupotrebi.

Zato OpenAI pokreće saradnju sa brojnim stručnjacima s ciljem testiranja Sora-e, a kako bi pomno razmotrili područja poput dezinformacija, govora mržnje i pristrasnosti. Ti testovi su od vitalnog značaja, jer bi ovako nastali video-zapisi mogli omogućiti zlonamernim akterima da generišu lažne snimke, što izaziva veliku zabrinutost akademske, ali i biznis zajednice, kao i predstavnika vlada i drugih sektora, a svakako i stručnjaka za veštačku inteligenciju.

Sora je, naime, apsolutno sposobna da kreira video-zapise koji bi mogli da prevare ljude. Tako stručnjaci koji su posvećeni borbi za sigurnije onlajn okruženje apeluju da video-zapisi ne moraju biti savršeni da bi bili verodostojni, jer mnogi ljudi i dalje nisu svesni da se njima može manipulisati jednako lako kao i fotografijama, odnosno slikom.

Pre nego što Sora bude u potpunosti lansirana i dostupna kao veb-aplikacija, OpenAI planira da uvede sigurnosne mere kako bi sprečio generisanje nasilnih, seksualnih ili uvredljivih sadržaja, kao i da implementira alate za borbu protiv dezinformacija.

Sve u svemu, Sora predstavlja uzbudljiv korak napred u generativnoj AI tehnologiji, otvarajući nove horizonte za kreativce i omogućavajući im da na inovativne načine izraze svoje ideje. Iako je još u fazi razvoja, potencijal Sora-e da transformiše način na koji se stvaraju video-zapisi je neosporan i očekuje se da će, uz dalji razvoj i usavršavanje, postati nezamenljiv alat za umetnike i kreatore širom sveta.

Preuzeto iz m:agazina, m:tel.ba

Telekom Srbija
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.