Kilka rządów zgodziło się w zeszłym roku co do jednego: sztuczna inteligencja (AI) musi być uregulowana. W przeciwnym razie istnieje ryzyko, że ludzie nie będą w stanie poradzić sobie z tymi modelami komputerowymi, ostrzegli eksperci. Dlatego też różne kraje są w trakcie opracowywania odpowiednich przepisów. UE w piątek osiągnęła porozumienie w tym temacie.
UE nakłada ograniczenia na sztuczną inteligencję
W komunikacie prasowym Parlament Europejski zauważa, że wie, co zrobić, aby chronić UE przed zagrożeniami związanymi ze sztuczną inteligencją. Mówiąc dokładniej, chce chronić europejskie prawa podstawowe, egzekwowanie prawa, interesy ekologiczne, a także demokrację. Oprócz tego zamierza również zachęcać do innowacji i zapewnić, że Europa stanie się liderem rynku w tej dziedzinie.
Parlament określił zatem kilka zakazanych zastosowań sztucznej inteligencji. Przykładowo, niedozwolone jest tworzenie systemów, które wykorzystują dane biometryczne i kategoryzują ludzi na ich podstawie, na przykład na podstawie przynależności politycznej, religii, rasy, płci, a nawet poglądów filozoficznych.
Niedozwolone jest również wykorzystywanie zdjęć twarzy zamieszczonych w Internecie do baz danych rozpoznawania twarzy. Pracodawcy i instytucje edukacyjne nie mogą korzystać z rozpoznawania emocji.
W ślad za tym idzie zakaz stosowania systemów kredytów społecznych, które Chiny wykorzystują na przykład do nagradzania posłusznych obywateli i karania nieposłusznych. Sztuczne inteligencje, które manipulują ludźmi i ograniczają ich wolną wolę, są również zakazane, podobnie jak systemy wykorzystujące ludzkie słabości.
Jednak same rządy europejskie mają w niektórych przypadkach prawo do przekraczania tych granic w sprawach policyjnych. Dotyczy to poszukiwania ofiar, zapobiegania atakom lub lokalizowania podejrzanych.
Rządy ostro o sztucznej inteligencji
Rząd Stanów Zjednoczonych jako pierwszy wyraził obawy dotyczące sztucznej inteligencji i jej rozwoju. Model AI ChatGPT amerykańskiej firmy OpenAI odniósł ogromny sukces już wkrótce po jego wprowadzeniu pod koniec 2022 roku.
Nawet wielu dyrektorów najwyższego szczebla z firm z amerykańskiego sektora AI głośno ostrzegało przed zagrożeniami stwarzanymi przez młodą technologię. Jeden ze światowej sławy programistów AI zrezygnował nawet z pracy w Google, ponieważ uważa, że ryzyko związane z inteligentnymi modelami komputerowymi stało się bardzo wysokie.
Wyjaśnienie
Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.