Firma OpenAI zajmująca się sztuczną inteligencją zaprezentowała swój najnowszy produkt, model text-to-video o nazwie Sora. Jednak postępy w sztucznej inteligencji były bardziej paliwem dla oszustów, a wraz z rozkwitem rynków kryptowalut może to zostać wykorzystane do oszukiwania ludzi.
Zgodnie z zapowiedzią z 15 lutego, Sora może tworzyć filmy trwające do 60 sekund. Zawierają one bardzo szczegółowe sceny, złożony ruch kamery i wiele postaci z żywymi emocjami.
Nowe narzędzie sztucznej inteligencji dla oszustów kryptowalutowych?
Firma oświadczyła, że “podejmie kilka ważnych kroków w zakresie bezpieczeństwa” przed udostępnieniem Sory w swoich produktach.
“Współpracujemy z czerwonymi zespołami – ekspertami domenowymi w obszarach takich jak dezinformacja, nienawistne treści i uprzedzenia – którzy przeciwstawnie testują model.”
Zaprezentowano kilka filmów stworzonych na podstawie podpowiedzi tekstowych zawierających krótki opis żądanej sceny.
Model rozumie, o co prosił użytkownik w podpowiedzi, a także jak te rzeczy istnieją w świecie fizycznym.
OpenAI powiedział również, że model ma głębokie zrozumienie języka. Umożliwia mu to dokładną interpretację podpowiedzi, oraz:
“Generować fascynujące postacie, które wyrażają żywe emocje.”
Firma ostrzegła jednak:
“Pomimo szeroko zakrojonych badań i testów, nie możemy przewidzieć wszystkich korzystnych sposobów, w jakie ludzie będą korzystać z naszej technologii, ani wszystkich sposobów, w jakie ludzie będą jej nadużywać.”
Niemniej jednak nowa technologia może być nadużywana przez oszustów kryptowalutowych. Może ona pozwolić złośliwym podmiotom na tworzenie deepfake’ów podszywających się pod prawdziwe osoby i firmy w celu promowania oszukańczych projektów kryptograficznych.
Oszuści mogą również wykorzystywać Sora do generowania fałszywych rekomendacji celebrytów dla projektów web3 i kryptowalut. Syntetyczne filmy i dźwięk, które zostały już zaprezentowane, były bardzo przekonujące.
Podcaster Lex Fridman powiedział swoim 3,3 milionom obserwujących X:
“Wow. To jest naprawdę niesamowite!”
Co więcej, generowany przez sztuczną inteligencję tekst do wideo mógłby zautomatyzować tworzenie dużych ilości oszukańczych filmów przy niskich kosztach. Mogłyby one być wykorzystywane do promowania schematów kryptowalutowych typu “pump-and-dump” na platformach mediów społecznościowych, które już teraz robią bardzo niewiele, aby zapobiegać oszustwom.
Nieuczciwi gracze mogliby wykorzystać moc sztucznej inteligencji tekst-wideo, takiej jak Sora, do taniego tworzenia treści manipulacyjnych. Można je następnie zoptymalizować, aby stały się wirusowe na platformach społecznościowych i umożliwić szybkie skalowanie oszustw kryptograficznych, jeśli nie zostaną sprawdzone.
Najnowsze wiadomości dotyczące sztucznej inteligencji
Przełomowe ogłoszenie Sora nie było jedynym wielkim wydarzeniem w tym tygodniu, jeśli chodzi o sektor AI. OpenAI dał również ChatGPT “pamięć”, umożliwiając mu zapamiętywanie podpowiedzi, aby użytkownicy nie musieli powtarzać żądań.
Google ujawnił aktualizację swojego modelu sztucznej inteligencji, Gemini. Wersja 1.5 zawiera innowacyjne okno kontekstowe z 1 milionem tokenów. Dzięki temu duży model językowy może przetwarzać znacznie więcej danych niż jego konkurenci.
Co więcej, Meta wydała V-JEPA. Ten nowy model uczenia się umożliwia sztucznej inteligencji zrozumienie i przewidywanie tego, co dzieje się w filmie, nawet przy ograniczonych informacjach.
Slack zintegrował również nowe funkcje generatywnej sztucznej inteligencji z platformą miejsca pracy. Obejmują one ulepszone wyszukiwanie, podsumowania kanałów, podsumowania wątków i wiele innych.
Wyjaśnienie
Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.