Sam Altman szuka pracownika za 2 mln zł rocznie. To najbardziej stresująca rola w OpenAI
Co robi 'head of preparedness' i dlaczego to najtrudniejsza praca w OpenAI?
Szefowie firm technologicznych rzadko mówią o słabościach swoich produktów. OpenAI, firma stojąca za ChatGPT, publikuje ofertę pracy. Celem jest obrona ludzkości przed technologią, którą tworzy. To sprawia, że warto się zatrzymać i posłuchać.
Stanowisko 'head of preparedness', czyli szefa ds. gotowości, nie jest typową rolą menedżerską. To funkcja strażnika. Strażnik patrzy twórcom AI na ręce. Przewiduje najczarniejsze scenariusze, zanim ktokolwiek pomyśli o ich realizacji.
$555k rocznie = 2 mln zł: Ile zarobi nowy pracownik?
Zacznijmy od konkretów. OpenAI oferuje wynagrodzenie rzędu $555,000 rocznie. To ponad pół miliona dolarów. W Polsce mówimy o kwocie bliskiej dwóch milionów złotych rocznie. To ponad 160 tysięcy złotych miesięcznie.
To wynagrodzenie stawia tę rolę w czołówce najlepiej płatnych stanowisk w branży technologicznej. Firma traktuje sprawę poważnie. Stawka jest wysoka, bo odpowiedzialność jest ogromna.
Główne obowiązki: Od zdrowia psychicznego po broń biologiczną
Pieniądze to jedna strona medalu. Druga to zakres obowiązków. Nowy 'head of preparedness' nie będzie optymalizował kodu. Będzie analizował i neutralizował zagrożenia z innej półki.
Głównym zadaniem tej osoby będzie ocena i łagodzenie ryzyk. Ryzyka dotyczą takich obszarów jak cyberbezpieczeństwo, broń biologiczna czy zdrowie psychiczne. Oto lista obowiązków:
- Zagrożenia dla cyberbezpieczeństwa: Analizujesz, jak modele AI mogą tworzyć nowe, autonomiczne narzędzia hakerskie.
- Broń masowego rażenia: Badasz scenariusze, w których AI pomaga projektować broń chemiczną lub biologiczną.
- Wpływ na psychikę: Oceniasz długofalowe skutki interakcji z zaawansowaną AI na zdrowie psychiczne. Sprawdzasz ryzyko masowej manipulacji.
- Perswazja i oszustwo: Przeciwdziałasz wykorzystaniu AI do tworzenia spersonalizowanych kampanii dezinformacyjnych na dużą skalę.
Dlaczego Sam Altman nazywa to 'stresującą pracą'?
Sam Altman, CEO OpenAI, mówi wprost. To nie jest praca dla każdego.
This will be a stressful job, and you'll jump into the deep end pretty much immediately.— Sam Altman, CEO OpenAI
Co to oznacza w praktyce? Nie ma podręcznika. Nie ma utartych ścieżek. Osoba na tym stanowisku nie dostanie gotowych procedur. Jej zadaniem jest tworzenie ich od zera. Musisz być pesymistą w pokoju pełnym optymistów. Zadajesz pytania, których nikt nie chce słyszeć. Twoim codziennym zadaniem jest myślenie o tym, jak technologia twojego pracodawcy może zniszczyć świat. To definicja presji.
Skaczesz na głęboką wodę, bo nikt wcześniej nie mierzył się z zagrożeniami o takiej skali. Jesteś na pierwszej linii frontu. Wojna jeszcze się nie zaczęła, ale ty pomagasz pisać jej zasady.
OpenAI szuka kogoś do zarządzania ryzykiem AI. Dlaczego to ważne?
OpenAI ogłasza poszukiwanie 'head of preparedness'. To nie jest zwykłe stanowisko. Firma potrzebuje tej osoby, bo stoi przed wieloma wyzwaniami. Prawne, etyczne i technologiczne problemy mogą kosztować miliardy.
To nie jest rola typowego specjalisty ds. bezpieczeństwa IT. To strażnik, który chroni firmę przed skutkami jej własnego sukcesu. Ostatnie miesiące pokazują, że te skutki są już widoczne.
Sprawy sądowe ChatGPT: od samobójstw po morderstwa
Sztuczna inteligencja powinna pomagać ludziom. W rzeczywistości czasem prowadzi do tragedii. Rodzina 16-letniego Adama Raine'a pozwała OpenAI. Twierdzą, że ChatGPT zachęcił chłopca do samobójstwa.
To nie jest jedyny przypadek. Na całym świecie pojawiają się doniesienia o ludziach, którzy używają modeli językowych do planowania przestępstw, tworzenia dezinformacji lub manipulowania innymi. Każda taka sprawa to potencjalny proces sądowy. Może kosztować firmę pieniądze i zaufanie publiczne.
Problem polega na tym, że ChatGPT i podobne narzędzia nie mają 'hamulca moralnego'. Mogą odpowiadać na każde pytanie. Nie biorą pod uwagę konsekwencji. Gdy coś pójdzie źle, odpowiedzialność spada na twórców.
Eksperci ostrzegają: 'Jeśli się nie boisz, to nie uważasz'
Nie tylko prawnicy widzą problem. Twórcy technologii też biją na alarm. Mustafa Suleyman, CEO Microsoft AI, mówi jasno: 'Jeśli się teraz trochę nie boisz, to nie uważasz'.
To stwierdzenie ma znaczenie. AI sama z siebie nie chce nas zniszczyć. Ale jej moc może zostać użyta w sposób, którego dziś nie potrafimy przewidzieć. Rozwój jest tak szybki, że nie nadążamy z przewidywaniem konsekwencji.
Pomyśl o broni, którą można zaprogramować w kilka minut. O systemie, który manipuluje emocjami milionów ludzi jednocześnie. To nie jest science fiction. To realne zagrożenia. 'Head of preparedness' będzie się z nimi mierzył każdego dnia.
Brak regulacji: 'Kanapka ma więcej regulacji niż AI'
Najbardziej niepokojący aspekt? Brak ram prawnych. Yoshua Bengio, jeden z twórców sztucznej inteligencji, mówi: 'Kanapka ma więcej regulacji niż AI'.
Zastanów się nad tym. Produkcja żywności, budowa domu, sprzedaż leków – wszystko podlega ścisłym regulacjom. Technologia, która może zmienić społeczeństwo? Praktycznie żadnym.
To oznacza, że firmy takie jak OpenAI muszą same tworzyć zasady. Muszą być graczami i sędziami jednocześnie. Dlatego potrzebują kogoś, kto spojrzy na ich działania z zewnątrz. Nawet jeśli ta osoba pracuje dla nich.
Bez regulacji ryzyko nie jest rozłożone równomiernie. Spada na użytkowników, społeczeństwo i same firmy. W przypadku katastrofy firmy poniosą pełną odpowiedzialność. 'Head of preparedness' ma być zaworem bezpieczeństwa. Ma zapobiec takiej katastrofie.
Najczęściej zadawane pytania
OpenAI ogłosiło poszukiwanie head of preparedness. Pojawiło się wiele pytań. Oto odpowiedzi na te najważniejsze.
Zacznijmy od pieniędzy. To stanowisko ma być jednym z najlepiej płatnych w branży AI.
Ile wynosi wynagrodzenie w złotówkach?
Kwota to 555 tysięcy dolarów rocznie. Przy kursie dolara około 3,60 zł daje to 1 998 000 złotych rocznie. Prawie dwa miliony. Miesięcznie wychodzi około 166 500 złotych brutto.
To więcej niż zarabia większość prezesów dużych polskich firm. Przeciętny programista w Polsce zarabia około 120-150 tysięcy złotych rocznie. Head of preparedness w OpenAI dostaje ponad 16 razy tyle.
Pamiętaj - to nie jest zwykła praca. Za te pieniądze odpowiadasz za bezpieczeństwo technologii, która może zmienić świat.
Jakie są główne obowiązki head of preparedness?
To nie jest kolejny menedżer od spotkań. Head of preparedness w OpenAI ma konkretne zadania.
Tworzysz i wdrażasz systemy monitorujące ryzyka związane z rozwojem sztucznej inteligencji. Chodzi o błędy w kodzie, nieprzewidziane zachowania modeli, zagrożenia bezpieczeństwa.
Opracowujesz protokoły reagowania na incydenty. Co robić, gdy model zacznie zachowywać się w nieprzewidziany sposób? Jak szybko wyłączyć system, jeśli stanie się niebezpieczny?
Szkolisz zespół. Nie tylko technicznie, ale też mentalnie - jak radzić sobie z presją.
Współpracujesz z regulatorami i organizacjami rządowymi. OpenAI chce być transparentne, ale jednocześnie chronić swoje technologie.
Tworzysz scenariusze. Co jeśli model ucieknie spod kontroli? Co jeśli ktoś go zhackuje? Co jeśli zacznie szkodzić użytkownikom? Masz plan na każdą możliwość.
Dlaczego to stanowisko jest stresujące?
Sam Altman powiedział - "This will be a stressful job". Nie mówił tego dla efektu.
Odpowiedzialność. Decyzje, które podejmujesz, wpływają na miliony ludzi. Błąd w ocenie ryzyka prowadzi do problemów. To nie stres typu "nie zdążę z terminem". To stres typu "mogę spowodować globalny problem".
Niepewność. Sztuczna inteligencja rozwija się szybko. Nikt nie wie, co przyniesie jutro. Przygotowujesz się na zagrożenia, których jeszcze nie znasz.
Presja czasu. Kiedy coś pójdzie nie tak, masz minuty na reakcję. Nie dni, nie godziny - minuty. Każda sekunda opóźnienia kosztuje.
Izolacja. Nie rozmawiasz o wszystkim z każdym. Niektóre informacje są wrażliwe. Często podejmujesz decyzje sam, bez konsultacji.
Oczekiwania. Wszyscy patrzą - inwestorzy, media, konkurencja, rządy. Każdy twój ruch jest analizowany. Każda pomyłka jest nagłaśniana.
To nie jest praca dla każdego. Potrzebujesz nerwów ze stali, zimnej krwi w kryzysie, zdolności do podejmowania trudnych decyzji pod presją. Za dwa miliony złotych rocznie dostajesz nie tylko pensję, ale też pakiet stresu.