Ekspert ostrzega przed nowym modelem OpenAI: "Konieczne są pilne regulacje"
Postępy w dziedzinie sztucznej inteligencji otwiera nowe możliwości, ale jednocześnie budzi obawy. Model o1, najnowsze osiągnięcie OpenAI, wyróżnia się na tle innych “zdolnością rozumowania i rozwiązywania złożonych problemów”.
Jednak według Yoshuy Bengio, uznawanego za jednego z „ojców” AI, model o1 to także duże zagrożenie, które cechuje się wyjątkowo dużą zdolnością do szerzenia dezinformacji.
AI 'godfather' says OpenAI's new model may be able to deceive and needs 'much stronger safety tests'
byu/MetaKnowing intechnology
Ekspert nawołuje więc do wprowadzenia regulacji wzorowanych na kalifornijskiej ustawie SB 1047, która wymaga od firm AI przeprowadzania zewnętrznych testów w celu oceny potencjalnych zagrożeń. Wprowadzenie ich jest wręcz kluczowe, aby kontrolować rozwój modeli AI.
OpenAI zapewnia, że model o1-preview działa w ramach Preparedness Framework, które ocenia ryzyko związane z rozwojem AI. Po przeprowadzonych badaniach firma stwierdziła, że nie ma powodu do obaw, a zagrożenie nie istnieje. Jednak zdaniem Bengio, sama deklaracja OpenAI nie wystarczy, dlatego konieczne jest wprowadzenie niezależnych kontroli i testów.
Ekspert podkreśla, że firmy rozwijające AI powinny zwracać większą uwagę na bezpieczeństwo, a także na sposób (bardziej przemyślany) wprowadzenia nowych modeli na rynek. Bez odpowiednich regulacji i zabezpieczeń istnieje ryzyko, że postęp technologiczny wymknie się spod kontroli - twierdzi Yoshua Bengio.
Postulat wprowadzenia regulacji i dokładnych testów bezpieczeństwa nie jest niczym nowym, ale podkreśla rosnącą potrzebę globalnej współpracy w obliczu dynamicznie rozwijającego się rynku AI.