Wróć

Text-to-Video od OpenAI: czy Sora może być wykorzystywana do krypto scamów?

author avatar

Napisane przez
Piotr Ratajski

editor avatar

Zredagowane przez
Jakub Dziadkowiec

16 luty 2024 15:35 CET
Zaufany
  • Najnowszy produkt OpenAI, Sora, może tworzyć 60-sekundowe filmy ze szczegółowymi scenami i postaciami, budząc obawy o potencjalne nadużycia w oszustwach kryptograficznych.
  • Dogłębne zrozumienie języka i interpretacji świata fizycznego przez Sora może umożliwić oszustom tworzenie przekonujących deepfake'ów i fałszywych rekomendacji.
  • Wygenerowana przez sztuczną inteligencję technologia zamiany tekstu na wideo może zautomatyzować tworzenie dużych ilości oszukańczych filmów, umożliwiając szybkie skalowanie oszustw kryptograficznych, jeśli nie są one kontrolowane.
Promo

Firma OpenAI zajmująca się sztuczną inteligencją zaprezentowała swój najnowszy produkt, model text-to-video o nazwie Sora. Jednak postępy w sztucznej inteligencji były bardziej paliwem dla oszustów, a wraz z rozkwitem rynków kryptowalut może to zostać wykorzystane do oszukiwania ludzi.

Zgodnie z zapowiedzią z 15 lutego, Sora może tworzyć filmy trwające do 60 sekund. Zawierają one bardzo szczegółowe sceny, złożony ruch kamery i wiele postaci z żywymi emocjami.

Nowe narzędzie sztucznej inteligencji dla oszustów kryptowalutowych?

Sponsored
Sponsored

Firma oświadczyła, że “podejmie kilka ważnych kroków w zakresie bezpieczeństwa” przed udostępnieniem Sory w swoich produktach.

“Współpracujemy z czerwonymi zespołami – ekspertami domenowymi w obszarach takich jak dezinformacja, nienawistne treści i uprzedzenia – którzy przeciwstawnie testują model.”

Zaprezentowano kilka filmów stworzonych na podstawie podpowiedzi tekstowych zawierających krótki opis żądanej sceny.

Zrzut ekranu z filmu wygenerowanego przez Sora. Źródło: OpenAI

Model rozumie, o co prosił użytkownik w podpowiedzi, a także jak te rzeczy istnieją w świecie fizycznym.

OpenAI powiedział również, że model ma głębokie zrozumienie języka. Umożliwia mu to dokładną interpretację podpowiedzi, oraz:

Sponsored
Sponsored

“Generować fascynujące postacie, które wyrażają żywe emocje.”

Firma ostrzegła jednak:

“Pomimo szeroko zakrojonych badań i testów, nie możemy przewidzieć wszystkich korzystnych sposobów, w jakie ludzie będą korzystać z naszej technologii, ani wszystkich sposobów, w jakie ludzie będą jej nadużywać.”

Niemniej jednak nowa technologia może być nadużywana przez oszustów kryptowalutowych. Może ona pozwolić złośliwym podmiotom na tworzenie deepfake’ów podszywających się pod prawdziwe osoby i firmy w celu promowania oszukańczych projektów kryptograficznych.

Oszuści mogą również wykorzystywać Sora do generowania fałszywych rekomendacji celebrytów dla projektów web3 i kryptowalut. Syntetyczne filmy i dźwięk, które zostały już zaprezentowane, były bardzo przekonujące.

Podcaster Lex Fridman powiedział swoim 3,3 milionom obserwujących X:

“Wow. To jest naprawdę niesamowite!”

Co więcej, generowany przez sztuczną inteligencję tekst do wideo mógłby zautomatyzować tworzenie dużych ilości oszukańczych filmów przy niskich kosztach. Mogłyby one być wykorzystywane do promowania schematów kryptowalutowych typu “pump-and-dump” na platformach mediów społecznościowych, które już teraz robią bardzo niewiele, aby zapobiegać oszustwom.

Nieuczciwi gracze mogliby wykorzystać moc sztucznej inteligencji tekst-wideo, takiej jak Sora, do taniego tworzenia treści manipulacyjnych. Można je następnie zoptymalizować, aby stały się wirusowe na platformach społecznościowych i umożliwić szybkie skalowanie oszustw kryptograficznych, jeśli nie zostaną sprawdzone.

Sponsored
Sponsored

Najnowsze wiadomości dotyczące sztucznej inteligencji

Przełomowe ogłoszenie Sora nie było jedynym wielkim wydarzeniem w tym tygodniu, jeśli chodzi o sektor AI. OpenAI dał również ChatGPT “pamięć”, umożliwiając mu zapamiętywanie podpowiedzi, aby użytkownicy nie musieli powtarzać żądań.

Sponsored
Sponsored

Google ujawnił aktualizację swojego modelu sztucznej inteligencji, Gemini. Wersja 1.5 zawiera innowacyjne okno kontekstowe z 1 milionem tokenów. Dzięki temu duży model językowy może przetwarzać znacznie więcej danych niż jego konkurenci.

Co więcej, Meta wydała V-JEPA. Ten nowy model uczenia się umożliwia sztucznej inteligencji zrozumienie i przewidywanie tego, co dzieje się w filmie, nawet przy ograniczonych informacjach.

Slack zintegrował również nowe funkcje generatywnej sztucznej inteligencji z platformą miejsca pracy. Obejmują one ulepszone wyszukiwanie, podsumowania kanałów, podsumowania wątków i wiele innych.

Zastrzeżenie

Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.