Jak zaczęła się Pana kariera? Jak ona przebiegała?
Na początku myślałem o karierze akademickiej w Szkole Głównej Handlowej i tam zacząłem studia doktoranckie. Wyjechałem na doktorat na wydział ekonomii University of Minnesota, Twin Cities, który w tamtym czasie był jednym z 10 najlepszych wydziałów ekonomii na świecie – pracowało w nim kilku laureatów ekonomicznej nagrody Nobla. W trakcie studiów w Stanach Zjednoczonych odżyło moje zainteresowanie matematyką do tego stopnia, że połowę czasu spędzałem na wydziale ekonomii a drugą – na wydziale matematyki. Po trzech latach stwierdziłem, że kariera akademicka nie daje mi tak dużej satysfakcji, więc wróciłem do Polski.
Przez rok pracowałem jako freelancer, przy różnego rodzaju projektach na pograniczu matematyki, analityki i programowania, a później pojawiła się oferta pracy w PKO BP. 10 lat temu nie było jeszcze ani w Polsce, ani na Zachodzie w sektorze finansowym wyodrębnionych zespołów walidacji modeliczy niezależnej weryfikacji. Trafiłem do departamentu audytu wewnętrznego PKO BP, gdzie zajmowałem się tym, co dzisiaj nazywamy walidacją modeli, czyli sprawdzaniem założeń matematycznych, przyglądaniem się implementacji komputerowej, weryfikacją jakości wyników modeli itp. Z czasem jednak doszedłem do wniosku, że w audycie nie widzę dla siebie kariery i możliwości rozwoju w kierunkach, które by mnie interesowały.
W 2012 roku pojawiła się ciekawa oferta z Departamentu Analiz Strategicznych Kancelarii Prezesa Rady Ministrów. Powstał pomysł zbudowania silnego ośrodka analitycznego w centrum rządu, by zaplecze premiera miało niezależne analizy. Udało nam się zbudować silny analityczny zespół, który stworzył pierwszy w tej części Europy model mikrosymulacyjny dla powszechnego systemu ubezpieczeń, skonstruowaliśmy duży model optymalnego miksu energetycznego dla Polski, zbudowaliśmy i upubliczniliśmy pakiet R o nazwie gEcon do rozwiązywania makroekonomicznych modeli strukturalnych (DSGE, CGE), który wykorzysywany jest do dziś także poza Polską. Była to dla mnie niesamowita przygoda. Pierwszy raz budowałem zespół, który miał zajmować się zaawansowaną analityką.
W ostatniej dekadzie firmy z obszaru konsultingu i przemysłu zaczęły zdawać sobie sprawę z potencjału zaawansowanej analityki i możliwości poprawy wyników finansowych (zwiększenie sprzedaży, redukcję kosztów) poprzez optymalizację wszelkiego rodzaju procesów. Postrzegałem tę branżę jako bardzo rozwojową, dlatego zdecydowałem się w 2015 rozpocząć pracę w konsultingu. Zajmowałem się budowaniem zespołu i oferty dla klientów przemysłowych z zakresu optymalizacji i analizy danych z czujników różnego rodzaju oraz przebiegu procesów przemysłowych.
W końcu na przełomie 2016/2017 roku w Polsce zaczęły pojawiać się oferty pracy w oddziałach międzynarodowych banków, w których tworzone były huby zajmujące się konstrukcją i walidacją modeli. W drugiej połowie 2016 roku powstał w Polsce oddział Commerzbanku. W drugiej połowie 2016 roku powstał w Polsce oddział Commerzbanku. Z perspektywy mojego wcześniejszego doświadczenia i wyzwań, to była najciekawsza dla mnie oferta pracy w tym czasie.
Jaki był charakter Pana pracy na początku w Commerzbanku?
Na pierwszym etapie byłem mniej zaangażowany w realizację projektów, a bardziej w rekrutację i budowanie zespołu. Musiałem stworzyć framework, czyli ogólną wizję, jak powinna wyglądać infrastruktura IT, w jakich środowiskach będziemy budować modele i pisać raporty walidacyjne. Jedną z decyzji, którą podjęliśmy na starcie, była stopniowa migracja ze środowiska SAS w kierunku środowiska R. Stworzyliśmy zestaw standardów kodowania w języku R oraz szablon dokumentacji, którą, co może być dla wielu zaskoczeniem, tworzymy nie w Wordzie, a w LaTeX, używając infrastruktury, która generuje automatycznie kod LaTeX z wykresami i tabelami. Od początku było dużo inicjatyw o charakterze rozbudowy naszej infrastruktury IT i automatyzacji. Stopniowo przejmowaliśmy z Frankfurtu odpowiedzialność za kolejne modele i obecnie w pełni odpowiadamy za walidację większości modeli ryzyka, które funkcjonują w Commerzbanku.
Co zmieniło się w Pana życiu zawodowym od czasu, kiedy udzielił Pan wywiadu do naszego magazynu w 2017 roku?
W tym czasie nastąpiła reorganizacja zespołu walidacji w naszym oddziale Commerzbanku w Łodzi. Utworzyliśmy jeden duży departament walidacji modeli, w którym znalazły się 3 zespoły: Zespół Walidacji Modeli Ryzyka Kredytowego PD, Zespół Walidacji Modeli Ryzyka Kredytowego nie-PD oraz Zespół Walidacji Modeli Ryzyka Rynkowego, Płynności i Kontrahenta, który przejąłem pod koniec ubiegłego roku.
Posiada Pan bogate doświadczenie w budowaniu zespołów. Czy mógłby Pan zatem powiedzieć, jak wybrać odpowiednich ludzi do zespołu? Czy jest jakaś ogólna zasada?
Nie ma ogólnej recepty, jak budować nowy zespół, ponieważ w każdym otoczeniu organizacyjnym będzie to wyglądało inaczej. Najważniejsze jest to, żeby zespół był w stanie szybko dostosować się do nowych wyzwań i nauczyć się nowych rzeczy.
Z mojej perspektywy dużo ważniejsze są solidne podstawy techniczne oraz umiejętność uczenia się nowych klas modeli niż – szczególnie w przypadku młodszych osób – konkretna wiedza branżowa, którą można uzupełnić w trakcie pracy.
Duże znaczenie mają umiejętności z zakresu matematyki czy statystyki zdobyte na studiach na kierunkach ścisłych oraz umiejętność programowania, ponieważ trudno je zdobyć w krótkim czasie.
Jakie dzisiaj ma Pan wyzwania w swojej pracy?
Myślę, że największe wyzwanie wynika z często zmieniającego się otoczenia regulacyjnego. Każdy model, który funkcjonuje w banku, musi być dostosowany do nowych wymogów, a przez to zmieniają się też nasze aktywności związane z walidacją modeli. Drugim wyzwaniem jest automatyzacja i zwiększanie efektywności procesów, za które odpowiadamy. W Commerzbanku, jak w każdej innej wielkiej instytucji finansowej, modeli i parametrów ryzyka są setki, a do tego dochodzą nowe wymogi regulacyjne, które sprawiają, że lista zadań w ramach walidacji pojedynczego modelu z czasem się rozszerza. W związku z tym musimy szukać metod zwiększania efektywności i automatyzacji powtarzalnych zadań.
Bez których programów nie wyobraża Pan sobie pracy?
Bez R. W obszarze zaawansowanej analityki mamy wybór tylko kilku języków programowania i środowisk. R jest elastycznym językiem programowania, uznawanym, obok SAS, za najbardziej zaawansowane rozwiązanie technologiczne w pracy z danymi i tabelami. Posiada mnóstwo pakietów, pozwalających analizować różnego rodzaju modele statystyczne czy ekonometryczne – od analizy szeregów czasowych po relatywnie niszową klasę modeli jak modele panelowe. R jest także znany z szerokich możliwości w zakresie wizualizacji danych, tworzenia bardzo estetycznych, eleganckich wykresów.
Elastyczność języka wiąże się też z tym, że krzywa uczenia w przypadku języka R jest zupełnie inna w porównaniu do Pythona. Koszt na starcie jest dużo większy. Jeśli miałbym porównywać, to jest tak jak prowadzenie samochodu z manualną skrzynią biegów versus jazda z automatyczną. Łatwiej nauczyć się z automatyczną, ale pewnych rzeczy nie da się zrobić w takim samochodzie – nie ma się nad nim pełnej kontroli.
Dlaczego zaawansowana analityka i walidacja modeli to obszary, które mogłyby być ciekawe dla młodych ludzi?
Szeroko rozumiana analityka to obecnie najgorętszy obszar rynku budzący zainteresowanie ze strony pracodawców wszystkich branż. Zaawansowane modele matematyczne mogą być użyteczne w poprawie efektywności i działania czy w przewidywaniu rozwoju sytuacji rynkowej. W związku z tym popyt na specjalistów z zapleczem ilościowym zgłaszany jest zarówno ze strony sektora finansowego, firm doradczych, przemysłu, jak i np. firm internetowych, które obsługują miliony czy – w przypadku tych największych – miliardy użytkowników każdego dnia. Metody statystyczne, które są wykorzystywane w tych wszystkich obszarach, są dość podobne. Walidacja modeli w ryzyku, w odróżnieniu od rozwoju modeli, daje szerokie spojrzenie na możliwe zagrożenia i błędy w konstrukcji modeli. Można poznać szereg różnych modeli, różnych klas i przekonać się, że nawet w ramach tego samego typu ryzyka czy jednego parametru ryzyka modele potrafią się istotnie różnić w zależności od specyfiki danych czy biznesu. Dlatego praca w walidacji pozwala dość szybko zapoznać się z wieloma różnymi technikami – czy budowy modeli, czy też ich późniejszej walidacji.
Co Pan uznałby za swoje mocne strony?
Myślę, że mocny background techniczno-matematyczny, a z drugiej strony – wszechstronność. Wiele organizacji nadal kładzie mocny nacisk na doświadczenie w sektorze, w którym dana organizacja funkcjonuje. Tymczasem myślę, że dzisiaj najważniejsza jest umiejętność odnalezienia się w nowej branży, oczywiście pod warunkiem posiadania solidnych podstaw matematycznych i znajomości technologii. Co ciekawe, niewiele jest osób w obszarze zaawansowanej analityki, które mają predyspozycje managerskie, czy choćby chęć zdobycia umiejętności zarządzania zespołem. Może trochę powielam stereotyp, ale chyba nikt nie będzie zaskoczony tezą, że umiejętności miękkie są niedodatnio skorelowane z umiejętnościami twardymi. Można wyraźnie zaobserwować deficyt managerów w obszarze zaawansowanej analityki.
Z czego to może wynikać?
Zauważam, że wiele osób posiadających umysł ścisły woli być ekspertem, specjalistą w swojej dziedzinie, pracować z komputerem, wzorami a nie zostać managerem czy dyrektorem i spędzać większość swojego czasu na spotkaniach. Osoby, które nie mają doświadczenia w zarządzaniu zespołem, są dość niechętne do obejmowania takich ról. Warto też dodać, że nie można dobrze zarządzać zespołem, szczególnie na tym pierwszym poziomie liniowym, bez znajomości technologii i matematyki. Taki manager podejmuje wiele decyzji, które później rzutują na efektywność całej jednostki – jakość modeli i skalowalność operacji.
Jak Pan przygotowywał się do roli dyrektora?
To było „training on the job”. Myślę, że żadne szkolenia nie zastąpią praktyki. W swojej karierze dużo zawdzięczam moim przełożonym, z którymi zawsze miałem dobry kontakt. Udzielali mi cennych rad i mogłem się od nich wiele nauczyć.
Które z obecnych obowiązków należą do Pana ulubionych?
Lubię ten moment, kiedy jeszcze od czasu do czasu zdarza mi się wrócić do kodu, rozwiązać problem merytoryczny czy porozmawiać z zespołem na temat tego, jak podejść do danego zadania od strony statystycznej, koderskiej czy jak najefektywniej coś zaimplementować. Bardzo rzadko już mi się to zdarza, ale to jest chyba najciekawszy moment, gdy mogę znów przez chwilę „pobyć nerdem”.
Dużą satysfakcję sprawia mi praca z młodymi ludźmi i obserwowanie jak szybko potrafią się rozwijać i uczyć nowych rzeczy. Mam za sobą 9 lat doświadczenia pracy na uczelni (6 lat w SGH, 3 – na University of Minnesota), i myślę, że chyba pozostało mi jeszcze zacięcie dydaktyczne.
Dziękuję za rozmowę.