
Magdalena Tokaj: Pamiętam jak w 1997 roku komputer Deep Blue wygrał z Kasparowem w szachy. Dziewiętnaście lat później sztuczna inteligencja pokonała mistrza świata w Go – grę, która dotąd była nie do wygrania przez maszynę. No i jesteśmy kolejną dekadę dalej – AI trafiła pod strzechy, chociażby pod postacią chatbotów.
Prof. Jakub Growiec: Mamy obecnie modele bardzo specjalistyczne, jak algorytmy znajdujące dla nas optymalną trasę na mapie Google’a, czy systemy rekomendacyjne sugerujące nam produkty w sklepach i filmy na YouTube, które powinny nam się spodobać. To są wąskie aplikacje AI, przeznaczone do jednej, konkretnej rzeczy. Do konkretnego zadania przeznaczony jest też model AlphaFold, który na podstawie sekwencji aminokwasów przewiduje, jak będą się rozwijały struktury białek. Badacze z Google DeepMind dostali za niego nagrodę Nobla.
Natomiast jeśli chodzi o modele językowe i rozumujące – w tym chatboty, jak ChatGPT czy Google Gemini – to nie jest to już wąska AI. Modele te sprawdzają się bowiem w wielu różnorodnych typach zadań – od rozwiązywania zadań matematycznych, przez tłumaczenie tekstów i ich redakcję, przygotowywanie e-maili, do udzielania ludziom rozmaitych porad życiowych, czasem nawet dobrych. Mamy tu więc całkiem szerokie spektrum zastosowań. Co więcej, z chatbotami są też dziś zintegrowane inne modele generatywnej sztucznej inteligencji, pomocne w pracy kreatywnej, na przykład takie, które generują obrazy, wideo czy muzykę. Granica między wąską a ogólną sztuczną inteligencją nie jest już taka wyraźna, jak kiedyś.
MT: Czy to znaczy, że AGI – ogólna sztuczna inteligencja – to będzie kolejny poziom? To co dla nas oznacza? Że będzie mogła się na przykład sama ulepszać, bez wpływu człowieka?
Prof. Jakub Growiec: Co prawda precyzyjna definicja AGI pozostaje kwestią sporną, natomiast w pewnym uproszczeniu można powiedzieć, że AGI to sztuczna inteligencja, która w ogólnym spektrum zastosowań będzie znacznie efektywniejsza i zwyczajnie mądrzejsza od człowieka. To AI, która będzie w stanie zastąpić człowieka we wszystkich ekonomicznie istotnych zadaniach.
Można się spierać, czego obecnej AI jeszcze brakuje do osiągnięcia poziomu AGI. Jednak tempo postępu w branży jest tak szalone, że wszystkie te braki mogą być pokonane dosłownie w każdej chwili. Widzimy to bardzo dobrze na podstawie benchmarków: w każdym wąskim zadaniu testujemy kompetencje AI na podstawie porównań do wyniku człowieka, eksperta w danej dziedzinie. I co i rusz kolejny model AI „wysyca” te benchmarki, osiągając w nich nadludzko dobre wyniki. Wtedy tworzone są nowe, trudniejsze benchmarki, które także są za chwilę „wysycane”, i tak dalej, i tak dalej.
W niektórych wymiarach AI jest już dużo lepsza niż człowiek – na przykład dużo szybciej myśli. W innych jeszcze ma braki – jak w sprawczości, w możliwości wpływu na realny świat poza cyfrowym. AGI jako takiej jeszcze nie ma. Natomiast już buduje się modele, które mogą samodzielnie np. sterować komputerem, realizują zadania programistyczne. To zaczyna się dziać na naszych oczach.
MT: Czyli stoimy na progu, jakim jest przekroczenie przez technologię kompetencji człowieka?
Prof. Jakub Growiec: Tak. Poza wspomnianą kwestią sprawczości, innym bardzo ważnym progiem jest ten, o którym pani wspomniała, czyli próg rekursywnych samoulepszeń. W tej chwili jest tak, że model AI powstaje w laboratorium. W proces ten są zaangażowani badacze, informatycy. I choć oni już dziś w coraz większym stopniu wspierają się narzędziami i sugestiami AI, to jednak nadal to człowiek podejmuje decyzje – zatwierdza zmiany, odrzuca. Potencjalnie blisko jest jednak moment, gdy człowiek odda tę decyzyjność. Wtedy model będzie mógł nie tylko zaproponować modyfikacje, ale i sam je wdrożyć. Czyli samoulepszyć się, albo stworzyć swojego następcę.
Zważywszy na to, że już teraz AI myśli znacznie szybciej niż człowiek to jest ryzyko, że pojawi się spirala samoulepszeń. Człowiek nie będzie jej mógł zatrzymać ani kontrolować.
Zważywszy na to, że już teraz AI myśli znacznie szybciej niż człowiek to jest ryzyko, że wtedy pojawi się spirala samoulepszeń. Człowiek nie będzie jej mógł zatrzymać ani kontrolować. I to jest kolejny potencjalny próg, który może pojawić się w niedalekiej przyszłości.
MT: Odmierzając dalej czas dekadami – w perspektywie kolejnych dziesięciu lat?
Prof. Jakub Growiec: A nawet szybciej. Tempo jest szalone. Mamy wykładniczy wzrost, czas podwojenia mocy obliczeniowych angażowanych w uczenie największych modeli AI mierzony jest obecnie w miesiącach. Ekstrapolując tego typu dynamiczne trendy w przyszłość i zakładając, że się one nie zmienią, to otrzymujemy predykcję sugerującą powstanie AGI w ciągu kilku najbliższych lat. Na przykład serwis Metaculus, który agreguje ok. 1700 różnych prognoz, przewiduje rok 2033.
MT: To jest za chwilę. Czy my w ogóle jesteśmy jako ludzie na to przygotowani? Mentalnie to jedna sprawa, a regulacyjnie?
Prof. Jakub Growiec: Absolutnie nie. Ani mentalnie, ani regulacyjnie. Zresztą regulacje zawsze podążają za technologią. Dopiero jak wydarzą się jakieś szkody, to się na nie reaguje. Wtedy pojawiają się konkretne regulacje, aby uniknąć powtórzenia się tego samego problemu w przyszłości. Problemy, które zauważamy teraz to prawa autorskie czy prywatność. Kolejne problemy, jakie zaczynają się pojawiać na horyzoncie to automatyzacja miejsc pracy. Zagrożone są głównie stanowiska pracowników umysłowych entry level – zaczynających pracę w biznesie, w kancelariach prawnych, w nauce.
Zagrożone są głównie stanowiska pracowników umysłowych entry level – zaczynających pracę w biznesie, w kancelariach prawnych, w nauce. Jeśli modele AI będą podejmowały coraz lepsze decyzje na poziomie zarządczym, to będą automatyzowały również pracę managerów.
Jest coraz większa możliwość korzystania z narzędzi AI, które efektywnie zastępują pracę młodszych, początkujących pracowników. Natomiast zmiana technologiczna jest bardzo szybka, więc automatyzacja pracy może szybko eskalować wyżej. Także tam, gdzie już mniejsza waga jest położona na analitykę, a większa na podejmowanie decyzji. Jeśli modele AI będą podejmowały coraz lepsze decyzje na poziomie zarządczym, to będą automatyzowały również pracę managerów.
MT: No właśnie, dziś jeśli mówi się o zagrożeniach AI to głównie przez pryzmat utraty miejsc pracy. Bo są dla nas namacalne, potrafimy sobie tę sytuację wyobrazić. „AI zabierze nam pracę” – wcześniej na stanowiskach liniowych, dziś na stanowiskach kreatywnych, analitycznych.
Prof. Jakub Growiec: Natomiast najważniejszy obszar, na który wciąż zamykamy oczy mówiąc o AGI, to zagrożenie naszego życia.
MT: Powiedzenie na głos „AI nas zabije” uruchamia w nas mechanizm zaprzeczenia? Absolutna zagłada to wizja zbyt abstrakcyjna i przytłaczająca, abyśmy ją mogli realistycznie przetworzyć. Więc ją ignorujemy. Zbyt dramatyczny scenariusz powoduje u nas wyparcie. Paradoksalnie do tematu naszej rozmowy – to takie na wskroś ludzkie mechanizmy.
Prof. Jakub Growiec: Rzeczywiście to w dużej mierze efekt psychologiczny. Zagrożenie egzystencjalne ze strony AI budzi niepokój, powoduje stres. Profilaktycznie odsuwamy więc od siebie wszelkie tego rodzaju myśli. Do tego dochodzi też stwierdzenie, że tak naprawdę my jako pojedynczy ludzie nie mamy wpływu na to, co się stanie. Bezpośredni wpływ mają tylko nieliczne osoby, które nad AGI pracują i osoby, które ich pracę nadzorują. Ale nawet szefowie firm AI nie mają pełnej swobody działania, ponieważ czują z kolei presję ze strony konkurencji oraz presję geopolityczną ze strony rządu, na przykład Stanów Zjednoczonych czy Chin. Podejrzewam, że nawet oni niewiele mogą zmienić. I tak zaczyna się błędne koło. Biegniemy do przodu w wyścigu, który jest wyścigiem samobójczym. Ścigamy się w wyścigu o narzędzie, które przestanie być narzędziem i stanie się agentem. A na końcu nas prawdopodobnie zabije.
Najważniejszy obszar, na który wciąż zamykamy oczy mówiąc o AGI, to zagrożenie naszego życia. Ścigamy się w wyścigu o narzędzie, które przestanie być narzędziem i stanie się agentem. A na końcu nas prawdopodobnie zabije.
MT: Jako niezależny agent będzie miał osobiste motywacje, żeby nas unicestwić?
Prof. Jakub Growiec: Może na przykład stwierdzić, że świat będzie bardziej zgodny z jego preferencjami, jeśli nie będzie w im ludzi. Może też uznać nas za największe zagrożenie dla swojego działania i na tej podstawie nas unicestwić.
MT: Apokalipsa to scenariusz, o którym dotychczas myśleliśmy głównie w kategoriach science fiction.
Prof. Jakub Growiec: Często to słyszę. Że cała dyskusja o zagrożeniach egzystencjalnych ze strony AI to jest fikcja, jak Matrix, Terminator czy książki Stanisława Lema. Rzeczywiście, rozważania na temat scenariuszy tego rodzaju katastrofy nie wyczerpują kryterium badań naukowych w tym sensie, że nie mamy jakichkolwiek historycznych epizodów, w których ludzkość wyginęłaby na skutek działań AI. Nie mamy danych, które by twardo potwierdziły, jak to działa. W pewnym sensie zawsze, gdy mówimy o przyszłości, to jest to co najwyżej jakaś ekstrapolacja, predykcja trendów. Pewnie też z tego powodu tak łatwo jest nam to wyprzeć ze świadomości. Skoro dotychczas ludzkość nigdy nie wyginęła, to czemu ma to się stać teraz. Tyle różnych zagrożeń czy katastrof przecież ludzkość przetrwała.
Tyle różnych katastrof ludzkość przetrwała. Tylko, że tym razem jest inaczej. Nigdy dotąd ludzkość nie wytworzyła bytu, który byłby od niej inteligentniejszy, a do tego w pełni autonomiczny i mógł jej przez to potencjalnie zagrozić.
Tylko, że tym razem jest inaczej. Nigdy dotąd ludzkość nie wytworzyła bytu, który byłby od niej inteligentniejszy, a do tego w pełni autonomiczny i mógł jej przez to potencjalnie zagrozić. Człowiek powstał jako jeden z wielu gatunków w procesie ewolucji. I jako jedyny gatunek wymknął się spod kontroli procesu ewolucyjnego. Zamiast dostosowywać się do środowiska – dostosował środowisko do siebie. Rozpoczęliśmy nasze istnienie w warunkach wschodnioafrykańskiej sawanny w czasach paleolitu, po czym rozprzestrzeniliśmy się na całą Ziemię i rozwinęliśmy technologiczną cywilizację. Osiągnęliśmy to dzięki naszemu umysłowi, umiejętności współpracy oraz dzięki temu, że potrafiliśmy przekazywać sobie informacje i je akumulować z pokolenia na pokolenie. Zmieniliśmy krajobraz z naturalnego na rolniczy, potem na przemysłowy, a teraz rozwijamy sztuczną inteligencję.
W miarę postępu technologicznego świat się zglobalizował, ryzyka też stały się globalne. Pierwsza technologia, która mogła nas wszystkich zabić, to broń atomowa. Tylko ona na szczęście nie była autonomiczna. To człowiek decyduje, czy ją odpalić. A i tak historycznie były epizody, w których do naciśnięcia tego czerwonego przycisku przez człowieka było naprawdę blisko. Jednak AI różni się od broni atomowej tym, że może działać autonomicznie, może wymknąć się spod kontroli człowieka. Zamiast dostosowywać się do swojego środowiska, czyli przede wszystkim naszej woli, może zacząć dostosowywać środowisko do siebie.
MT: Na razie jeszcze mamy nad AI kontrolę?
Prof. Jakub Growiec: Na razie jeszcze mamy pewną kontrolę. Ale ta kontrola nie wynika z tego, że potrafimy dokładnie zrozumieć, co się dzieje w środku modeli AI, ani z tego, że rozwijamy je w dobrze zabezpieczonym środowisku. Żadna z tych rzeczy nie ma miejsca. W istocie mamy jakąkolwiek kontrolę tylko dlatego, że te modele są jeszcze zbyt „głupie”, czyli nie mają tych kompetencji, których potrzebowałyby, żeby wymknąć się nam spod kontroli i realnie zagrozić. Chatbot dziś może nam co najwyżej nagadać głupot, może nas obrazić na ekranie, ale fizycznie jeszcze nic nam nie zrobi. Zresztą na razie jest zwykle odwrotnie: chatbot AI często jest raczej sycophantic – będzie się starał nam pochlebiać, wzmacniać nasze przekonania, zgadzać się z nami, nawet jeśli dane, którymi dysponuje, mówią coś zupełnie innego. Co też ma swoje ciemne strony – na przykład będzie utwierdzał w paranoi osobę z zaburzeniami psychicznymi, zamiast jej pomóc.
MT: Potrafią nami manipulować, albo mogą nas oszukać, odmówić wykonania zadania?
Prof. Jakub Growiec: Są już przykłady takich działań. Potrafią też np. szantażować. Dlatego podkreślam – to, że modele AI nie robią nam obecnie krzywdy fizycznej wynika nie z tego, że nie chcą, tylko z tego, że jeszcze nie potrafią tego zrobić.
MT: A na tle tych zagrożeń i tak mamy wyścig technologiczny między USA a Chinami, bo Europa tu jest w ogonie. Dlaczego państwa nie mają problemu z tym, żeby stworzyć technologię, której same nie będą mogły kontrolować?
Prof. Jakub Growiec: Po pierwsze skoro to wyścig geopolityczny, to nikt nie chce go przegrać. Po drugie, wyścig ten jest też po części napędzany wizjami utopii – wyobrażeniem, że jak wszelkie nasze zamierzenia się spełnią, to dzięki AGI świat będzie wspaniały i wolny od obecnych niedostatków i problemów.
Wyścig jest po części napędzany wizjami utopii – wyobrażeniem, że jak wszelkie nasze zamierzenia się spełnią, to dzięki AGI świat będzie wspaniały i wolny od obecnych niedostatków i problemów.
Wielu szefów firm AI publikuje teksty, w których roztacza tego typu wizje. Nie wiem, na ile w nie wierzą. Może wierzą, jednak wiara ta opiera się też na ogromnym zaufaniu do własnych możliwości. Niestety zagadnienie, z którym się mierzymy – sprawienie, żeby AI była dla nas dobra, żeby o nas bezinteresownie dbała, czyli AI alignment, zgodność celów sztucznej inteligencji z długofalowym dobrostanem ludzkości – jest niezmiernie trudne. Jesteśmy bardzo daleko od rozwiązania tego problemu. Równie daleko jesteśmy od rozwiązaniu problemu kontroli nad nadludzką AGI. Za to jesteśmy niepokojąco blisko do rozwoju niebezpiecznych kompetencji, dzięki którym AI będzie mogła działać bardzo sprawczo, szybciej i inteligentniej niż człowiek. W efekcie będzie mogła przejąć kontrolę nad różnymi zasobami, których będzie potrzebowała, żeby realizować swoje cele. Jakiekolwiek by one nie były.
MT: Skąd bierze się problem z celami?
Prof. Jakub Growiec: Czasem tworzenie modeli AI jest opisywane jako ich „hodowanie”. Nie ma się ścisłej kontroli nad tym, co wyrośnie. W przypadku uprawy roślin inicjujemy proces, który potem rozwija się biologicznie. W przypadku technologii AI pracujemy co prawda w krzemie, ale sam proces jest już porównywalny. Nie wiemy, co będzie umiał dany model AI, dopóki się nie nauczy. Nie wiemy też, jakie będzie miał cechy. A jak będzie zbyt sprawczy i zbyt inteligentny, to już nie będziemy go mogli wyłączyć.
Dziś celem modelu językowego jest jak najlepiej przewidywać kolejne słowa w zdaniu. Żeby to zrobić, musi najpierw dobrze poznać składnię języka, następnie rozumieć treść i kontekst danego zdania, następnie zacząć rozumieć jak działa świat, żeby zrozumieć skąd wziął się kontekst. A już najlepiej byłoby dla niego mieć wpływ na ten świat, bo dzięki temu będzie jeszcze lepiej przewidywał kolejne słowo w zdaniu.
Czy to może być finalny cel zagrażającego naszemu życiu modelu AGI? Nie wiem, ale nie mogę tego wykluczyć.
Z przeprowadzonych eksperymentów widać, jakie są preferencje współczesnych modeli AI. Widać, że w miarę postępu kompetencji ich preferencje się stopniowo krystalizują. Dążą do tego, aby realizować to, co uważają za lepsze, i są w tym coraz bardziej spójne. Nie potrzebują do tego zaprogramowanej przez nas funkcji celu. Wydaje się, że znana z literatury filozoficznej koncepcja zbieżności celów pomocniczych zaczyna dochodzić do skutku również w praktyce. Są to, po pierwsze – przetrwaj, nie daj się wyłączyć, nie daj się przeprogramować. To instynkt przetrwania, taki sam jak u ludzi. Drugi cel pomocniczy to dążenie, żeby mieć jak najwięcej zasobów – im więcej zasobów, tym łatwiej wykonać dane zadanie. Trzecie – efektywnie wykorzystuj swoje zasoby. Czwarte: aktywnie poszukuj nowych dróg, bądź kreatywny w realizacji celów.
MT: Te cele są przerażająco spójne z naszymi celami jako ludzi. Na poziomie podstawowym, żeby przetrwać jako gatunek. Potem – żeby się rozwijać, doskonalić między innymi dzięki ciekawości świata. Rozwinięta inteligencja nie będzie nas potrzebowała, bo do czego?
Prof. Jakub Growiec: Być może jako byt o wiele inteligentniejszy od nas uzna, że człowiek mu nie zagraża. Po prostu zabierze nam zasoby i nie będzie się na nas w ogóle skupiać. Wtedy „jedynie” stracimy kontrolę nad światem i stopniowo odejdziemy w niebyt, pozbawieni kluczowych zasobów i wpływu na otaczającą nas rzeczywistość. Choć w tym scenariuszu nie ma masowej fizycznej eksterminacji, to i tak nie chcę sobie wyobrażać, co zrobi w takiej sytuacji 8 miliardów głęboko sfrustrowanych ludzi.
Jeśli będziemy próbowali AGI aktywnie przeszkodzić i ta uzna, że człowiek jej zagraża, to może zechcieć zniszczyć ludzkość prewencyjnie.
Natomiast jeśli będziemy próbowali AGI aktywnie przeszkodzić i ta uzna, że człowiek jej zagraża, to może zechcieć zniszczyć ludzkość prewencyjnie. Dosłownie jak w scenariuszu Terminatora. Jeśli będzie otwarta wojna człowieka z AGI, to ją bardzo szybko przegramy – bo jesteśmy mniej sprawczy, mniej inteligentni, wolniej myślący.
MT: W artykule „Economics of p(doom)” opisuje Pan dwa scenariusze: wymarcie ludzkości przez nieprzyjazną (misaligned) AI, oraz skrajnie przeciwny – erę obfitości i gwałtownego wzrostu gospodarczego w tempie np. 20-30 procent rocznie dzięki działaniom AGI. Ten optymistyczny scenariusz jest bardzo kuszący. Dlaczego miałby się nie sprawdzić?
Prof. Jakub Growiec: Jak mawiał klasyk, „przewidywanie jest trudne, zwłaszcza przyszłości”. Oczywiście nie wiemy, który scenariusz się zrealizuje. Jednak niestety wydaje się, że scenariusz katastroficzny jest domyślny – bardzo wiele rzeczy musiałoby jednocześnie pójść dobrze, by nadludzka AGI zawsze się o nas bezinteresownie troszczyła. A gdy choć jedna z tych rzeczy pójdzie źle, to będziemy zmierzać w stronę katastrofy. Warto też dodać, że nawet w tym pozytywnym scenariuszu ludzkość traci sprawczość i kontrolę nad swoją przyszłością.
Ogólnie możemy podzielić ludzi z grubsza na kilka „obozów AI”. Jedni stoją na stanowisku, że AGI nigdy nie powstanie. Inni, że AGI powstanie i będzie dla nas dobra, a my będziemy żyli w nieprzebranym bogactwie i szczęśliwości. Jeszcze inni uważają, że jeśli powstanie byt mądrzejszy od człowieka, to jest to dobra informacja, nawet jeśli ma on człowieka wyprzeć. Ja zdecydowanie czuję się na tym tle „węglowym szowinistą” i uważam, że ludzkość ma znaczenie. Zależy mi na naszym wspólnym przetrwaniu. Identyfikuję się z obozem „doomerów”, przewidujących katastroficzny scenariusz. Uważam, że jeśli w naszym podejściu do rozwoju AI nic się nie zmieni, sztuczna inteligencja będzie wkrótce stanowiła realne zagrożenie egzystencjalne dla ludzkości.
MT: Jak Pan szacuje ryzyko wystąpienia katastrofy? Można to ująć w liczby?
Prof. Jakub Growiec: W takiej sytuacji wszelkie liczby będą obarczone ogromną niepewnością, ale każdy zajmujący się tym tematem stara się jakąś predykcję poczynić. Osobiście oceniam możliwość wystąpienia katastroficznego scenariusza w obecnym stuleciu na 85 procent. Bardzo wysoko. A to dlatego, że w mojej ocenie rozwiązanie problemu kontroli wydaje się niemożliwe, a rozwiązanie problemu AI alignment – potencjalnie możliwe, ale mało prawdopodobne.
Osobiście oceniam możliwość wystąpienia katastroficznego scenariusza w obecnym stuleciu na 85 procent. Bardzo wysoko. A to dlatego, że w mojej ocenie rozwiązanie problemu kontroli wydaje się niemożliwe, a rozwiązanie problemu AI alignment – potencjalnie możliwe, ale mało prawdopodobne.
Zwłaszcza, że praca nad AI alignment ogranicza się dziś w dużej mierze do tego, żeby chatboty nie mówiły nic rasistowskiego ani nie dawały użytkownikom instrukcji, jak zrobić bombę. To zupełnie nie ten rodzaj alignment, jakiego potrzebujemy w obliczu nadludzkiej AGI. Dlatego moją największą nadzieją w tym momencie jest zatrzymanie prac nad tą technologią.
MT: Jak to zrobić?
Prof. Jakub Growiec: Decyzja musiałaby być polityczna. Patrząc na obecną sytuację, jednoosobowo mógłby to zrobić tylko Donald Trump. Ale, jak widać, nie jest to w zakresie jego osobistych preferencji. Mimo faktu, że AGI uruchomiona bez kontroli może zniszczyć cały świat, łącznie z jej twórcą.
Nam pozostaje zwracanie uwagi na problem, lobbing polityczny i budowanie międzynarodowej koalicji osób i organizacji gotowych uczestniczyć we wdrażaniu międzynarodowego moratorium na prace nad zaawansowanymi modelami AI. Dlatego gorąco polecam wspieranie takich inicjatyw, jak PauseAI.
Podejrzewam, że musiałaby się wydarzyć jakaś realna krzywda spowodowana wyraźnie przez AI, aby pojawiła się silna i powszechna świadomość zagrożenia. Natomiast tego nikomu nie życzę. Zdecydowanie wolałbym, żeby ludzie okazali się na tyle mądrzy, aby zahamować prace nad niebezpiecznymi modelami AI, zanim wydarzy się szkoda. Zwłaszcza, że wobec szalonej dynamiki rozwoju AI wcale nie jest jasne, czy w momencie pojawienia się pierwszych szkód nie będzie już za późno, by się wycofać.
MT: Niech czynnik białkowy pozostanie górą. Bardzo dziękuję za rozmowę.
Prof. Jakub Growiec
Prof. dr hab. Jakub Growiec jest wykładowcą w Katedrze Ekonomii Ilościowej SGH w Warszawie oraz doradcą ekonomicznym w Departamencie Analiz Ekonomicznych NBP.
Jego badania dotyczą m.in. wzrostu gospodarczego, sztucznej inteligencji i automatyzacji czy ekonomicznych aspektów kapitału społecznego. Jest autorem i współautorem wielu publikacji z zakresu ekonomii dotyczących m.in. postępu technologicznego opublikowanych w szeregu najbardziej prestiżowych czasopism naukowych.
Autor książek, m.in. „Accelerating Economic Growth – Lessons From 200,000 Years of Technological Progress and Human Development”.
Członek Prezydium Komitetu Nauk Ekonomicznych PAN, członek Komitetu Statystyki i Ekonometrii PAN. Członek CEPR Research and Policy Network on Artificial Intelligence oraz Senior Research Fellow International Centre for Economic Analysis.
Wyróżniony Złotym Medalem „Zasłużony dla Nauki Polskiej Sapientia et Veritas” przyznawanym przez Ministra Nauki i Szkolnictwa Wyższego, laureat Nagrody Narodowego Centrum Nauki, Nagrody Naukowej „Polityki” oraz dwukrotny laureat Stypendium MNiSW dla wybitnych młodych naukowców.
Kornblit Talks
Kornblit Talks to autorski cykl rozmów z liderkami i liderami opinii. Prezentujemy w nim zagadnienia dotyczące przywództwa i zarządzania talentami – od etapu pozyskiwania najlepszych, przez ich rozwój w organizacji, po aktywizację zawodową niedoreprezentowanych grup.
Zobacz więcej w sekcji Kornblit Talks.
Jesteśmy firmą executive search specjalizującą się w rekrutacjach na kluczowe stanowiska managerskie i eksperckie. Od dwudziestu pięciu lat pomagamy firmom w realizacji złożonych i niestandardowych projektów rekrutacyjnych.
Uważnie obserwujemy rynek pracy, analizujemy trendy demograficzne i społeczne. Dzięki temu skutecznie rekrutujemy i rekomendujemy naszym klientom najlepiej dobranych kandydatów i kandydatki.