OpenAI wprowadza rewolucyjne zmiany. Eksperci mają jednak wątpliwości

Technologie
3539V
OpenAI
Łukasz Musialik | 18.09, 16:30

OpenAI, twórca słynnego modelu językowego GPT, ogłosił utworzenie niezależnej rady nadzorczej, która będzie mogła blokować lub opóźniać wprowadzenie nowych modeli AI, jeśli uznane zostaną za niebezpieczne. To przełomowy krok w kierunku bardziej odpowiedzialnego rozwoju sztucznej inteligencji.

Na czele nowej rady stanie Zico Kolter, ekspert ds. uczenia maszynowego z Carnegie Mellon University. W jej skład wejdą również uznane autorytety w dziedzinie bezpieczeństwa i etyki AI, takie jak Adam D'Angelo, Paul Nakasone i Nicole Seligman.

Dalsza część tekstu pod wideo

Rada będzie miała pełny dostęp do wewnętrznych ocen bezpieczeństwa OpenAI i będzie mogła żądać dodatkowych testów przed zatwierdzeniem nowego modelu. Ta zmiana w strukturze zarządzania ma na celu zminimalizowanie potencjalnego ryzyka związanego z rozwojem AI dla społeczeństwa.

Decyzja OpenAI pojawia się w czasie rosnących obaw dotyczących wpływu AI na bezpieczeństwo. Coraz potężniejsze modele rodzą pytania o ich odpowiedzialne wykorzystanie. 

Niektórzy eksperci wyrażają jednak wątpliwości co do rzeczywistej niezależności rady, zwracając uwagę na fakt, że jej członkowie zasiadają również w zarządzie OpenAI.

Niezależnie od kontrowersji, inicjatywa OpenAI jest pozytywnym krokiem w kierunku etycznego rozwoju AI. Stworzenie przejrzystych mechanizmów nadzoru jest kluczowe dla zapewnienia, że AI będzie służyć ludzkości, minimalizując jednocześnie potencjalne zagrożenia.

Co sądzisz o tej nowej radzie? Czy może ona skutecznie chronić przed zagrożeniami AI, czy może konflikt interesów podważa jej efektywność? Podziel się swoją opinią w komentarzach.

Źródło: OpenAI

Komentarze (30)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper