Wygenerowany przez sztuczną inteligencję obraz fałszywej eksplozji w Waszyngtonie, którzy przedstawia Pentagon w ogniu wzbudził globalne zaniepokojenie. Jednocześnie na krótko doprowadził do tąpnięcia na wielu giełdach.
Jeśli chodzi o utrzymanie stabilności demokracji i rynków, rosnące zagrożenie ze strony sztucznej inteligencji było przedmiotem dyskusji. Pentagon w ogniu to tylko jeden z wielu incydentów, w których AI wywiera poważny wpływ na politykę, gospodarkę i biznes.
Pentagon w ogniu straszy rynki finansowe
Fejkowy obraz Pentagon w ogniu szybko zyskał popularność w mediach społecznościowych. Według doniesień, notowania na giełdach chwilowo spadły w wyniku tego obrazu. Opinia publiczna odetchnęła z ulgą, gdy Departament Policji w Arlington ogłosił na Twitterze, że obraz był mistyfikacją.
Nieprawdziwy Pentagon w ogniu podkreśla krytyczną potrzebę podjęcia kroków zapobiegawczych w celu złagodzenia negatywnych konsekwencji sztucznej inteligencji. Fałszerstwa generowane przez sztuczną inteligencję mogą zaszkodzić zaufaniu publicznemu i zakłócić wybory oraz procesy demokratyczne.
Indeks S&P 500 odnotował krótkotrwały spadek o 0,3%, gdy Pentagon w ogniu rozprzestrzeniał się w mediach społecznościowych. Kobeissi Letter szacuje, że spadek o 30 punktów spowodował wahania o wartości 500 miliardów dolarów. Jednak rynki szybko się ożywiły, ponieważ Wall Street czekała na kluczowe spotkanie w sprawie pułapu zadłużenia. Indeks S&P 500 pozostał stabilny na zamknięciu w poniedziałek. Tymczasem kapitalizacja rynku kryptowalut doświadczyła niewielkiego ożywienia o 1,4%, zgodnie z danymi CoinGecko.
Według doniesień, nie wiadomo jeszcze, skąd pochodzi obraz Pentagon w ogniu ani jakie technologie AI zostały użyte do jego wykonania.
Technologia stawia wyzwania: Czy istnieje rozwiązanie?
Kwestie związane z fałszywymi informacjami są jeszcze trudniejsze ze względu na szerokie rozpowszechnianie tego fejkowego zdjęcia przez wiele zweryfikowanych kont. Dotyczy to również rosyjskich mediów państwowych, które cieszą się dużą popularnością.
Fałszerstwa generowane przez sztuczną inteligencję mogą jeszcze bardziej zacierać granice między faktem a fikcją. Podważa to szerokie zaufanie publiczne. Samuel Altman, dyrektor generalny OpenAI i twórca ChatGPT, wyraził swoje obawy dotyczące możliwej szkodliwości sztucznej inteligencji. Podczas niedawnego przesłuchania w Senacie USA wspomniał o nowych wyzwaniach technologicznych związanych ze sztuczną inteligencją.
Obawy o wpływ fałszerstw na demokrację nasiliły się w miarę zbliżania się wyborów prezydenckich w USA w 2024 roku. Eksperci ostrzegali już, że te wyrafinowane technologie mogą łatwo zniekształcić opinię publiczną. Co więcej, mogą podważyć zaufanie do instytucji i sabotować procesy wyborcze, o czym wspomina BeInCrypto.
Ponadto, ponieważ ma to wpływ na tradycyjne finanse, najnowocześniejsze podejścia, takie jak technologia blockchain, wykazują potencjał w zakresie zagwarantowania prawdziwości zdjęć i filmów.
Społeczność wskazuje, że Bitcoin może służyć jako ochrona w cyberświecie. Jest to szczególnie prawdziwe tam, gdzie może być trudno odróżnić dane generowane przez sztuczną inteligencję od rzeczywistych danych.
Wyjaśnienie
Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.