Sztuczna inteligencja zrewolucjonizowała wiele branż i wszędzie pojawia się to samo pytanie: czy zastąpi ludzi? W kryptowalutach już dawno widać jej wpływ: od botów handlujących wspomaganych przez AI po systemy agentów tradingowych.
Jednak Alex Svanevik, CEO i współzałożyciel Nansen, twierdzi, że AI to nie zamiennik dla ludzkiego osądu, tylko jego wsparcie. W ekskluzywnym wywiadzie dla BeInCrypto Svanevik szczegółowo omawia tę zmianę i zapowiada, co dalej czeka analizę opartą na AI.
Sztuczna inteligencja w krypto: CEO Nansen argumentuje za wspomaganiem, a nie zastępowaniem
W dniu 21 stycznia Nansen ogłosił uruchomienie swojej funkcjonalności handlu on-chain wspieranej AI. To oznacza istotną zmianę z platformy do czystej analizy na zintegrowany produkt dający zarówno wgląd, jak i możliwość działania.
SponsoredNa podstawie autorskiego zbioru danych obejmującego ponad 500 mln oznaczonych portfeli, nowe rozwiązanie umożliwia użytkownikom zarządzanie portfelami, interpretację sygnałów on-chain w czasie rzeczywistym oraz otrzymywanie sugestii popartych danymi. Dodatkowo pozwala na bezpośrednie zawieranie transakcji w ramach Nansen. W ogłoszeniu czytamy:
„Wytrenowany i oceniony na autorskim zbiorze danych Nansen, Nansen AI konsekwentnie przewyższa wiodące produkty AI w testach stworzonych do analizy i handlu on-chain. To zapewnia, że dostarczane spostrzeżenia są nie tylko dokładniejsze, ale także bezpośrednio użyteczne dla traderów/inwestorów, zamieniając agentową inteligencję w praktyczną przewagę handlową.”
Dodatkowo, premiera otwiera możliwość, którą Nansen nazywa „vibe tradingiem”. Opisuje to jako bardziej intuicyjny sposób przechodzenia od wniosku do realizacji transakcji on-chain bez potrzeby zmiany narzędzi.
Wraz z tym jak AI przejmuje coraz więcej pracy analitycznej, rola analityków pozostaje otwarta. Svanevik mówi, że AI świetnie radzi sobie w skalowaniu analiz — potrafi przeanalizować setki milionów portfeli, śledzić przepływy cross-chain i rozpoznawać schematy nieosiągalne dla człowieka.
Podkreślił jednak, że decyzja zawsze należy do użytkownika, który kieruje procesem poprzez zadawanie właściwych pytań i akceptowanie działań:
„Granica nie jest stała. Przesuwa się wraz z rozwojem AI i bogaceniem się danych on-chain. Ale celem nie jest zastąpienie osądu. Chodzi o uwolnienie ludzi od żmudnych czynności, by mogli koncentrować się na decyzjach wyższego rzędu.”
Dlaczego analiza jest wiarygodna na rynku krypto z przewagą AI?
Badania sugerują, że coraz większe poleganie na narzędziach AI może prowadzić do spadku zdolności krytycznego myślenia. Na rynku kryptowalut, gdzie traderzy muszą radzić sobie z olbrzymią zmiennością i wysokim ryzykiem, ryzyko jest jeszcze większe.
Sponsored SponsoredSvanevik zaprezentował jednak inne spojrzenie. Stwierdził, że „dobra AI” prezentuje więcej sygnałów, przez co użytkownicy muszą myśleć bardziej krytycznie o egzekucji, a nie mniej:
„Prawdziwe ryzyko systemowe pojawia się wtedy, gdy wszyscy używają tego samego schematu. To nie dotyczy wyłącznie AI — tak samo dzieje się przy analitykach-ludziach. Odpowiedzią jest różnorodność: różne modele, różne strategie, odmienne interpretacje danych. Dlatego budujemy narzędzia wspierające indywidualne decyzje, a nie jedno wyrocznię dla wszystkich.”
Manager podkreślił, że nie należy bezkrytycznie ufać ani AI, ani analitykom. Liczy się to, czy analiza konsekwentnie sprawdza się na dłuższą metę.
Zagadnięty o wiarygodność na rynku z dominującą AI, CEO wskazał:
„Wiarygodność w erze AI pochodzi z pomiaru i powtarzalności, a nie z nazwiska czy zasięgów w social mediach. AI daje przewagę, bo można ją testować na dużą skalę i w zestawieniu z rzeczywistością — czego pojedynczy człowiek nie zrobi.”
Svanevik podkreślił, że najprostszy test jest praktyczny. Według niego użytkownicy powinni zadawać ważne dla siebie pytania i oceniać, czy odpowiedzi są rozsądne, użyteczne i możliwe do wdrożenia. Zwrócił także uwagę, że to użytkownicy zwykle najlepiej oceniają jakość.
Sponsored„W dłuższej perspektywie zaufanie będzie się przesuwać od indywidualnych analityków w stronę platform, które nieustannie udowadniają, że wyłapują sygnały i redukują szum. Do tego standardu się przykładamy.”
Dlaczego sztuczna inteligencja potrafi analizować dane on-chain, ale nie może zastąpić ludzkiego osądu?
Ludzie-analitycy często podejmują decyzje handlowe, łącząc metryki on-chain, dane cenowe i inne sygnały w oparciu o osąd i kontekst. AI natomiast polega wyłącznie na schematach wyuczonych z danych historycznych.
Zapytany, czy AI może w przyszłości wykształcić podobny osąd, Svanevik przyznał, że jest to prawdopodobne, choć nie w ludzkim rozumieniu.
Wyjaśnił, że AI rozwinie własną formę rozumowania kontekstowego. Według niego AI może skuteczniej integrować dane na żywo z dużo większej liczby zmiennych, niż potrafi jakikolwiek człowiek:
Sponsored Sponsored„Ścieżka wiedzie przez lepsze dane treningowe, dłuższe okna kontekstowe oraz pętle informacji zwrotnej ze śledzonej realizacji. Już to widzimy w naszym agencie. Nie polega tylko na rozpoznawaniu wzorców — AI wnioskuje na podstawie danych behawioralnych w czasie rzeczywistym. To wczesny etap osądu. Im modele są doskonalsze i im więcej czerpiemy z doświadczeń milionów interakcji on-chain, tym ten osąd będzie ostrzejszy.”
Zaznaczył jednak, że jest jeden aspekt analizy on-chain, którego AI nigdy w pełni nie zastąpi: brania odpowiedzialności za decyzje w warunkach niepewności.
Svanevik zauważa, że AI może wyłapywać schematy, prawdopodobieństwa i potencjalne scenariusze oraz oceniać, co się wydarzyło albo może się wydarzyć na podstawie danych. Jednak nie może określić osobistej tolerancji ryzyka, wartości czy też brać odpowiedzialności za decyzje, jeśli rezultat okaże się negatywny.
„Analiza on-chain ostatecznie prowadzi do realnych działań: alokacji kapitału, wsparcia zespołów, publicznych prognoz. Ktoś musi brać za te decyzje odpowiedzialność. To rola człowieka.”
Podkreślił, że niezależnie od zaawansowania modeli sztucznej inteligencji, wiarygodność zawsze będzie zależeć od ludzi w kwestiach oceny, odpowiedzialności i przekonań. Sztuczna inteligencja może wspierać podejmowanie decyzji, ale to ludzie ostatecznie decydują i ponoszą konsekwencje.
„Ocenianie, co jest ważne. Sztuczna inteligencja powie ci, co dzieje się on-chain, ale nie powie, na czym powinno ci zależeć. To jest smak. To są przekonania. To jest ludzkie.”
Ostatecznie Svanevik postrzega sztuczną inteligencję jako potężne wsparcie, nie decydenta. Sztuczna inteligencja może odkrywać wzorce, prawdopodobieństwa i wnioski na ogromną skalę. Jednak ludzka ocena nadal pozostaje kluczowa w kwestiach ryzyka, odpowiedzialności i przekonań.
W miarę wzrostu znaczenia analiz opartych na sztucznej inteligencji zaufanie coraz bardziej będzie się opierać na platformach, które nieustannie udowadniają jakość swoich analiz. Jednocześnie to ludzie odpowiadają za to, co jest ważne i za konsekwencje podejmowanych decyzji.
Aby zapoznać się z najnowszą analizą rynku kryptowalut od BeInCrypto, kliknij tutaj.