OpenAI poszukuje nowego menedżera wyższego szczebla odpowiedzialnego za badanie pojawiających się zagrożeń związanych z AI, w obszarach od bezpieczeństwa komputerowego po zdrowie psychiczne.
We wpisie opublikowanym na platformie X dyrektor generalny Sam Altman przyznał, że modele AI „zaczynają stwarzać pewne realne wyzwania”. Wskazał m.in. na „potencjalny wpływ modeli na zdrowie psychiczne”. I nie tylko, także na systemy, które są „na tyle dobre w obszarze bezpieczeństwa komputerowego, że zaczynają odkrywać krytyczne luki”.
„Jeśli chcesz pomóc światu zrozumieć, jak wyposażyć obrońców cyberbezpieczeństwa w najnowocześniejsze możliwości, jednocześnie dbając o to, by atakujący nie mogli ich wykorzystać do wyrządzania szkód, najlepiej poprzez zwiększenie bezpieczeństwa wszystkich systemów, a także jak udostępniać możliwości biologiczne i budować zaufanie do bezpieczeństwa systemów zdolnych do samodoskonalenia – rozważ aplikowanie”
– napisał Altman.
W ogłoszeniu o pracę OpenAI opisuje stanowisko Head of Preparedness jako rolę odpowiedzialną za realizację firmowych ram przygotowania na zagrożenia. Zostały one określane jako „nasze podejście do monitorowania i przygotowywania się na graniczne możliwości AI”.
Wynagrodzenie na tym stanowisku ustalono na poziomie 555 tys. dolarów rocznie plus pakiet udziałów
Firma po raz pierwszy ogłosiła powołanie zespołu ds. przygotowania na zagrożenia w 2023 roku. Informowała wówczas, że będzie on zajmował się analizą potencjalnych „katastrofalnych ryzyk”. Zarówno tych bardziej bezpośrednich, jak ataki phishingowe, jak i bardziej spekulacyjnych, takich jak zagrożenia nuklearne.
Niecały rok później OpenAI przeniosła dotychczasowego szefa ds. przygotowania na zagrożenia, Aleksandera Madry’ego, do zespołu zajmującego się rozumowaniem AI. Inni menedżerowie odpowiedzialni za bezpieczeństwo również opuścili firmę lub objęli nowe role poza obszarem przygotowania i safety.
Spółka niedawno zaktualizowała także swoje ramy Preparedness Framework, wskazując, że może „dostosować” wymagania bezpieczeństwa. Tylko wtedy, gdy konkurencyjne laboratorium AI wypuści „model wysokiego ryzyka” bez podobnych zabezpieczeń.
Jak zasugerował Altman we wspomnianym wpisie, generatywne chatboty AI znajdują się pod coraz większą presją ze względu na ich wpływ na zdrowie psychiczne. W ostatnich pozwach sądowych zarzuca się, że ChatGPT wzmacniał urojenia użytkowników. A także pogłębiał ich izolację społeczną, a w skrajnych przypadkach prowadził nawet do samobójstw. Firma podkreśla, że nadal pracuje nad poprawą zdolności ChatGPT do rozpoznawania sygnałów kryzysu emocjonalnego. I zamierza kierować użytkowników do realnych form wsparcia.
Materiał powstał we współpracy z AI:






