Eksperci uciekają z OpenAI. Ostrzegają przed niekontrolowanym rozwojem superinteligencji

Technologie
32716V
OpenAI
Łukasz Musialik | 25.10, 20:32

Miles Brundage, wieloletni starszy doradca OpenAI ds. nad rozwojem sztucznej inteligencji (AGI), opuszcza firmę z niepokojącym przesłaniem: żadna organizacja, włącznie z OpenAI, nie jest przygotowana na nadejście silnej sztucznej inteligencji - systemu zdolnego do uczenia się i rozumienia zadań na poziomie człowieka.

To kolejne głośne odejście z OpenAI, po rezygnacji Jana Leike, czołowego badacza bezpieczeństwa AI, oraz Ilyi Sutskvera, współzałożyciela firmy. Wszystkie te osoby wyrażają obawy dotyczące kierunku rozwoju organizacji, która wydaje się przedkładać komercjalizację nad bezpieczeństwo.

Dalsza część tekstu pod wideo

Presja ekonomiczna jest znacząca - OpenAI musi w ciągu dwóch lat przekształcić się w dochodową korporację. Ta transformacja biznesowa skutkuje rozwiązaniem kluczowych zespołów badawczych, w tym zespołu AGI Readiness i Superalignment.

Mimo różnic, OpenAI zaoferowało Brundage'owi wsparcie w postaci finansowania i wczesnego dostępu do modeli. Sam ekspert planuje kontynuować pracę nad regulacją AI z innej perspektywy, wolnej od korporacyjnych ograniczeń. 

Sytuacja ujawnia też wewnętrzne napięcia w firmie - pojawiają się doniesienia o problemach z dostępem do zasobów obliczeniowych dla zespołów zajmujących się bezpieczeństwem. Co jest dziwne biorąc pod uwagę powstanie nowego modelu Orion (GPT-5).

Źródło: cnbc.com

Komentarze (39)

SORTUJ OD: Najnowszych / Najstarszych / Popularnych

cropper