Zobacz więcej

ChatGPT zbada ryzyko sztucznej inteligencji (AI) dla ludzkości

1 min
Autor Harsh Notariya
Tłumaczenie Jakub Dziadkowiec
Dołącz do Naszej Społeczności na Telegramie

W SKRÓCIE

  • OpenAI, firma macierzysta ChatGPT, powołała zespół ds. gotowości do oceny ryzyka związanego z modelami sztucznej inteligencji, kierowany przez Aleksandra Madry'ego.
  • Zespół ds. gotowości będzie zarządzał ryzykiem katastrofalnych zagrożeń, takich jak cyberbezpieczeństwo, dezinformacja i autonomiczna replikacja.
  • OpenAI, Meta, Google i inni liderzy sztucznej inteligencji zobowiązali się w lipcu do zapewnienia bezpieczeństwa i przejrzystości w rozwoju sztucznej inteligencji w Białym Domu.
  • promo

Firma macierzysta ChatGPT, OpenAI, uruchomiła zespół ds. gotowości w celu oceny zagrożeń stwarzanych przez modele sztucznej inteligencji (AI).

Podczas gdy modele AI mogą zmienić ludzkość na lepsze, stwarzają one szereg zagrożeń. Dlatego też rządy są zaniepokojone zarządzaniem ryzykiem związanym z tą technologią i chatbotami typu ChatGPT.

Funkcje zespołu ds. gotowości OpenAI, twórców ChatGPT

W poście na blogu OpenAI ogłosiło uruchomienie zespołu ds. gotowości. Zespół będzie pracował pod kierownictwem Aleksandra Madry’ego, dyrektora Massachusetts Institute of Technology’s Center for Deployable Machine Learning.

Granice sztucznej inteligencji stwarzają pewne zagrożenia, takie jak:

  • Zindywidualizowana perswazja
  • Bezpieczeństwo cybernetyczne
  • Zagrożenia chemiczne, biologiczne, radiologiczne i nuklearne (CBRN)
  • Autonomiczna replikacja i adaptacja (ARA)

Ponadto istnieje ryzyko dezinformacji i rozprzestrzeniania plotek za pośrednictwem sztucznej inteligencji.

Poniższy zrzut ekranu pokazuje odsetek profesjonalistów, którzy uważają, że generatywna sztuczna inteligencja (AI) stwarza zagrożenie dla bezpieczeństwa i dezinformacji na całym świecie.

ChatGPT i ryzyko sztucznej inteligencji
Bezpieczeństwo i ryzyko dezinformacji potencjalnie powodowane przez sztuczną inteligencję / Źródło: Statista

Rząd Wielkiej Brytanii definiuje granice AI jako:

“Wysoce wydajne modele AI ogólnego przeznaczenia, które mogą wykonywać różnorodne zadania i dorównywać lub przewyższać możliwości obecne w dzisiejszych najbardziej zaawansowanych modelach.”

Zespół ds. gotowości OpenAI skupi się na zarządzaniu ryzykiem spowodowanym przez wyżej wymienione katastrofy. Firma macierzysta ChatGPT nazywa ten projekt swoim wkładem w nadchodzący globalny szczyt AI w Wielkiej Brytanii.

Ponadto w lipcu liderzy AI, tacy jak OpenAI, Meta, Google i inni, zobowiązali się do bezpieczeństwa i przejrzystości w rozwoju AI w Białym Domu.

Wczoraj BeInCrypto poinformowało, że premier Wielkiej Brytanii Rishi Sunak nie chce spieszyć się z regulacją sztucznej inteligencji. Obawia się on między innymi, że ludzkość może całkowicie stracić kontrolę nad AI.

Aby zapoznać się z najnowszą analizą Bitcoina (BTC) przez BeInCrypto, kliknij tutaj.

Najlepsze platformy dla krypto inwestorów | Maj 2024

Trusted

Wyjaśnienie

Wszystkie informacje zawarte na naszej stronie internetowej są publikowane w dobrej wierze i wyłącznie w ogólnych celach informacyjnych. Wszelkie działania podejmowane przez czytelnika w związku z informacjami znajdującymi się na naszej stronie internetowej odbywają się wyłącznie na jego własne ryzyko.

Zbudowane przez Ari10. Możliwość płatności BLIK
Zbudowane przez Ari10. Możliwość płatności BLIK
Jakub-Dziadkowiec.png
Jakub Dziadkowiec
Profesor na międzynarodowym uniwersytecie w Lublinie. Spędził 10 lat na studiowaniu filozofii przyrody i nauk o sporcie. Autor 4 książek i ponad 20 artykułów naukowych. Aktualnie wykorzystuje swój umysł dla dobra krypto społeczności. Entuzjasta analizy technicznej, wojownik Bitcoina oraz wielki zwolennik idei decentralizacji. Duc in altum!
READ FULL BIO
Sponsorowane
Sponsorowane