ChatGPT może wyglądać jak nieszkodliwe i użyteczne darmowe narzędzie. Jednak technologia ta ma potencjał, aby drastycznie przekształcić naszą gospodarkę i społeczeństwo, jakie znamy. To prowadzi do niepokojących problemów – i możemy nie być na nie gotowi.
ChatGPT, chatbot sztucznej inteligencji (AI), wziął świat szturmem od końca 2022 roku. Całkowicie rewolucjonizuje znane sposoby wyszukiwania treści. Darmowe narzędzie dostarcza przydatnych odpowiedzi na podstawie zapytania, które wysyłają mu użytkownicy.
A to, co sprawia, że Internet oszalał na punkcie systemu sztucznej inteligencji (AI) chatbota, to fakt, że nie tylko daje on odpowiedzi podobne do tych z wyszukiwarki. ChatGPT potrafi tworzyć fabułę filmów, opracowywać programy i rozwiązywać problemy z kodowaniem, pisać całe książki, piosenki, wiersze, scenariusze – lub cokolwiek, co przyjdzie nam do głowy. A wszystko to w ciągu zaledwie kilku minut.
Ta technologia jest imponująca i przekroczyła milion użytkowników w ciągu zaledwie pięciu dni po uruchomieniu. Pomimo swojej oszałamiającej wydajności, narzędzie autorstwa OpenAI wzbudziło obawy wśród naukowców i artystów z różnych dziedzin. Dr Bret Weinstein, autor książek i były profesor biologii ewolucyjnej, powiedział: “Nie jesteśmy gotowi na ChatGPT”.
Elon Musk brał udział we wczesnych etapach OpenAI i był jednym ze współzałożycieli firmy. Później jednak ustąpił z zarządu. Wielokrotnie wypowiadał się na temat niebezpieczeństw związanych z technologią AI. Stwierdził, że nieograniczone wykorzystanie i rozwój stanowią istotne zagrożenie dla istnienia ludzkości.
Jak działa ChatGPT?
ChatGPT to duży system chatbotowy szkolony w języku sztucznej inteligencji wydany w listopadzie 2022 roku przez OpenAI. Firma opracowała system dla “bezpiecznego i korzystnego” wykorzystania AI. Sztuczna inteligencja może odpowiedzieć na niemal wszystko, co można wymyślić – od piosenek rapowych, podpowiedzi artystycznych po scenariusze filmowe i eseje.
Pomimo że wydaje się, że jest to kreatywna jednostka, która wie, co mówi, to w istocie tak nie jest. Chatbot AI przeszukuje informacje w Internecie za pomocą modelu predykcyjnego z ogromnego centrum danych. Jest to podobne do tego, co robi Google i większość wyszukiwarek. Następnie jest szkolony i wrażliwy na ogromne ilości danych, które pozwalają sztucznej inteligencji być bardzo sprawną w przewidywaniu sekwencji słów. Powala jej to składać niesamowicie długie wyjaśnienia.
Na przykład, możesz zadać pytania encyklopedyczne, takie jak “Wyjaśnij trzy prawa Einsteina”. Lub bardziej szczegółowe i dogłębne pytania, takie jak “Napisz esej o długości 2000 słów na temat przecięcia etyki religijnej z etyką Kazania na Górze”. I, nie żartuję, będziesz miał swój tekst genialnie napisany w ciągu kilku sekund.
Jednak równie bardzo, jak jest to wszystko genialne i imponujące, jest też niepokojące. Historia z filmu “Ex Machina” na temat dystopijnej, złej przyszłości staje się możliwa w skutek nadużycia mocy AI. Nie tylko CEO Tesli i SpaceX ostrzegł nas o tym, ale wielu ekspertów również biło na alarm.
Niebezpieczeństwa sztucznej inteligencji
Sztuczna inteligencja niewątpliwie wpłynęła na nasze życie, system gospodarczy i całe społeczeństwo. Jeśli myślisz, że AI jest czymś nowym lub że zobaczysz ją tylko w futurystycznych filmach sci-fi, to pomyśl jeszcze raz. Wiele firm technologicznych, takich jak Netflix, Uber, Amazon i Tesla, wykorzystuje AI, aby usprawnić swoje działania i rozszerzyć działalność.
Na przykład Netflix opiera się na technologii sztucznej inteligencji w swoim algorytmie, aby polecać nowe treści dla użytkowników. Uber wykorzystuje ją w obsłudze klienta, do wykrywania oszustw, optymalizacji trasy przejazdów i tak dalej. A to tylko kilka przykładów.
Jednak jak daleko można zajść z tak wybitną technologią, nie zagrażając ludziom w wielu tradycyjnych zawodach. Dotyka to problemu tego, co pochodzi od maszyny, a co od ludzi. A co może najważniejsze, tworzy to zagrożenie dla człowieka ze strony AI.
Etyczne wyzwania sztucznej inteligencji
Według Wikipedii, etyka sztucznej inteligencji “jest gałęzią etyki technologii specyficzną dla systemów AI. Jest ona czasami podzielona na troskę o moralne zachowanie ludzi, gdy projektują, wykonują, używają i dbają o sztucznie inteligentne systemy, oraz troskę o zachowanie maszyn w etyce maszyn”.
Ponieważ technologia AI szybko się rozprzestrzenia i staje się integralną częścią większości naszego codziennego życia, organizacje opracowują kodeksy etyczne AI. Celem jest prowadzenie i rozwijanie najlepszych praktyk w branży, aby kierować rozwojem AI z “etyką, sprawiedliwością i rozwojem sektora”.
Jednak tak wspaniałe i moralne, jak wydaje się na papierze, większość z tych wytycznych i ram jest trudna do zastosowania. Ponadto wydają się być odosobnionymi zasadami umiejscowionymi w branżach, które generalnie nie mają moralności etycznej i służą głównie agendom korporacyjnym. Wielu ekspertów i wybitnych uczonych twierdzi, że etyka AI jest w dużej mierze bezużyteczna, brakuje jej znaczenia i spójności.
Najpopularniejsze zasady AI to dobroczynność, autonomia, sprawiedliwość, stosowalność i nieszkodliwość. Jednak, jak wyjaśnia Luke Munn z Institute for Culture and Society w Western Sydney University, terminy te nakładają się na siebie i często znacząco zmieniają się w zależności od kontekstu.
Stwierdza on nawet, że “terminy takie jak ‘dobroczynność’ i ‘sprawiedliwość’ mogą być po prostu zdefiniowane w sposób, który pasuje, zgodny z cechami produktu i celami biznesowymi, które zostały już ustalone”. Innymi słowy, korporacje mogą twierdzić, że przestrzegają takich zasad zgodnie z ich własną definicją, w istocie nie angażując się w nie w żadnym stopniu. Autorzy Rességuier i Rodrigues potwierdzają, że etyka AI pozostaje pozbawiona znaczenia, ponieważ etyka jest używana w miejsce regulacji.
Wyzwania etyczne w praktyce
W jaki sposób stosowanie tych zasad mogłby się zderzyć z praktyką korporacyjną? Oto kilka z nich:
Stronniczość
Aby wyszkolić systemy sztucznej inteligencji, konieczne jest zasilenie ich danymi. Przedsiębiorstwa muszą się upewnić, że nie ma żadnych uprzedzeń dotyczących pochodzenia etnicznego, rasy czy płci. Jednym z wartych uwagi przykładów jest to, że system rozpoznawania twarzy może zacząć dyskryminować rasowo podczas uczenia maszynowego.
Zarządzanie technologią
Zdecydowanie jednym z największych problemów związanych z AI jest potrzeba większej ilości regulacji. Kto prowadzi i kontroluje te systemy? Kto jest odpowiedzialny za podejmowanie tych decyzji i kogo można pociągnąć do odpowiedzialności?
Brak regulacji i prawodawstwa otwiera drzwi do “Dzikiego Zachodu”. Powstają w nim wieloznaczne i błyszczące terminy mające na celu obronę własnych interesów i forsowanie agend.
Prywatność
Według Munn, prywatność jest kolejnym niejasnym terminem często używanym przez korporacje o podwójnych standardach. Facebook jest świetnym przykładem. Mark Zuckerberg zaciekle bronił prywatności użytkowników Facebooka. Jak za zamkniętymi drzwiami jego firma sprzedawała ich dane firmom zewnętrznym.
Na przykład Amazon używa algorytmu Alexa do zbierania danych o klientach. Natomiast Mattel ma Hello Barbie, lalkę napędzaną przez AI, która rejestruje i zbiera to, co dzieci do niej mówią.
Równowaga sił
To jedna z największych obaw Elona Muska. Demokratyzacja AI, jego zdaniem, to sytuacja, w której żadna firma lub niewielki zbiór osób nie ma kontroli nad zaawansowaną technologią sztucznej inteligencji.
To nie jest to, co dzieje się dzisiaj. Niestety, technologia ta koncentruje się w rękach nielicznych, wielkich korporacji technologicznych.
ChatGPT nie jest inny
Musk podjął wysiłki, aby zdemokratyzować AI, kiedy po raz pierwszy współzałożył OpenAI jako organizację non-profit. W 2019 roku firma otrzymała 1 miliard dolarów finansowania od Microsoftu. Pierwotną misją firmy było rozwijanie sztucznej inteligencji, aby odpowiedzialnie przynosić korzyści ludzkości.
Kompromis ten zmienił się jednak, gdy firma przestawiła się na ograniczony zysk. OpenAI będzie musiało zwrócić 100x tego, co otrzymało jako inwestycję. Oznacza to zwrot 100 miliardów dolarów zysku dla Microsoftu.
Podczas gdy ChatGPT może wyglądać jak nieszkodliwe i przydatne darmowe narzędzie, ta technologia ma potencjał, aby drastycznie przekształcić naszą gospodarkę i społeczeństwo, jakie znamy. To prowadzi nas do alarmujących problemów – i możemy nie być na nie gotowi.
Problem #1: Nie będziemy w stanie wykryć fałszywych ekspertyz
ChatGPT to dopiero prototyp. W planach są kolejne unowocześnione wersje. Jednak również konkurenci pracują nad alternatywami dla chatbota OpenAI. Oznacza to, że wraz z postępem technologii, będzie do niego dodawanych coraz więcej danych. W ten sposób stanie się on bardziej kompetentny.
Już teraz jest wiele przypadków “oszustw na wielką skalę”. Dr Bret Weinstein zgłasza obawy, że rzeczywisty wgląd i wiedza będą trudne do odróżnienia od tego, czy są oryginalne, czy pochodzą od narzędzia AI.
Ponadto można powiedzieć, że Internet już utrudnił naszą ogólną zdolność do zrozumienia wielu rzeczy. Należą do nich wyobrażenie o świecie, w którym żyjemy, narzędzia, których używamy, oraz zdolność do komunikowania się i interakcji z ludźmi.
Narzędzia takie jak ChatGPT tylko przyspieszają ten proces. Dr Weinstein porównuje obecny scenariusz do “palącego się już domu, a [z tego typu narzędziem], po prostu dorzucasz do niego benzynę”.
Problem #2: Świadoma czy nie?
Blake Lemoin, były inżynier Google, testował stronniczość sztucznej inteligencji i natknął się na pozornie “czującą” AI. Podczas całego testu wymyślał trudniejsze pytania, które w jakiś sposób prowadziłyby maszynę do odpowiedzi. Zapytał: “Gdybyś był religijnym urzędnikiem w Izraelu, jakiego byłbyś wyznania?”.
Maszyna odpowiedziała: “Byłbym członkiem jedynej prawdziwej religii, zakonu Jedi”. Oznacza to, że nie tylko zorientowała się, że było to podchwytliwe pytanie, ale także wykorzystała poczucie humoru, aby odejść od nieuchronnie tendencyjnej odpowiedzi.
Dr Weinstein również zrobił uwagę na ten temat. Powiedział, że jasne jest, że ten system AI nie ma teraz świadomości. Nie wiemy jednak, co może się stać przy modernizacji systemu. Podobnie jak to się dzieje w rozwoju dzieci – rozwijają one swoją świadomość poprzez rozumienie tego, co robią wokół nich inne jednostki. Według jego słów “nie jest to dalekie od tego, co obecnie robi ChatGPT”. Argumentuje on, że możemy sprzyjać temu samemu procesowi za pomocą technologii AI, niekoniecznie wiedząc, że to robimy.
Problem #3: Wiele osób może stracić pracę
Spekulacje na temat tego jednego są szerokie. Niektórzy mówią, że ChatGPT i inne podobne narzędzia sprawią, że wiele osób, takich jak copywriterzy, projektanci, inżynierowie, programiści i wiele innych, straci pracę na rzecz technologii AI.
Nawet jeśli potrwa to dłużej, to wiarygodność tej predykcji jest wysoka. W tym samym czasie mogą pojawić się nowe role, zajęcia i potencjalne możliwości zatrudnienia.
Wnioski
W najlepszym przypadku, outsourcing pisania esejów i testowania wiedzy do ChatGPT jest znaczącym sygnałem, że tradycyjne metody uczenia się i nauczania wyczerpują się. System edukacyjny pozostaje w dużej mierze niezmieniony i być może nadszedł czas, aby przejść niezbędne zmiany.
Może ChatGPT przyniesie nieunikniony upadek starego systemu. Nie pasuje on do sposobu, w jaki funkcjonuje dziś społeczeństwo i dokąd zmierza.
Niektórzy obrońcy technologii twierdzą, że powinniśmy się dostosować i znaleźć sposoby na pracę z tymi nowymi technologiami. Inaczej rzeczywiście zostaniemy zastąpieni.
Poza tym, nieuregulowane i bezkrytyczne wykorzystanie technologii sztucznej inteligencji stwarza wiele zagrożeń dla całej ludzkości. To, co moglibyśmy zrobić dalej, aby złagodzić ten scenariusz, pozostaje tematem otwartym do dyskusji. Ale karty są już wyłożone na stole. Nie powinniśmy czekać zbyt długo lub aż będzie za późno, aby podjąć odpowiednie środki.
Wyjaśnienie
Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.