Rewelacja!!! Drodzy Pa艅stwo, przed chwil膮 praca naukowa wsp贸艂autorstwa dw贸ch Polak贸w Micha艂a Bortkiewicza i Tomasza Trzci艅skiego otrzyma艂a od Princeton University tytu艂 najlepszej pracy naukowej konferencji NeurIPS. Aby pokaza膰 Wam skal臋 osi膮gni臋cia. To jedna z najwa偶niejszych konferencji na 艣wiecie w dziedzinie uczenia maszynowego i Sztucznej Inteligencji, kt贸ra co roku przyjmuje ponad 4 tysi膮ce prac naukowych. 4000 prac naukowych z ca艂ego 艣wiata! Praca Polak贸w by艂a najlepsz膮, spo艣r贸d wszystkich tych tysi臋cy prac naukowych z ca艂ego 艣wiata dotycz膮c dyscypliny, w kt贸r膮 wpatrzony jest ca艂y 艣wiat - AI. Ma艂o tego, praca 1000 Layer Networks for Self-Supervised RL bazuje na benchmarku JaxGCRL zaproponowanym przez Micha艂a i wsp贸艂autor贸w w pracy Accelerating Goal-Conditioned RL Algorithms and Research, wyr贸偶nionej na konferencji ICLR 2025 (Spotlight). Praca pokazuje jak zwi臋kszenie g艂臋boko艣ci sieci w uczeniu przez wzmacnianie (RL) z kilku do ponad 1000 warstw pozwala osi膮gn膮膰 nawet 50-krotnie wy偶sz膮 wydajno艣膰 oraz odblokowa膰 nowe, z艂o偶one zachowania. Mo偶emy to chyba powiedzie膰: Polacy s膮 autorami najwa偶niejszej na 艣wiecie pracy naukowej w obszarze uczenia maszynowego w tym roku.
Gratuluj臋 Micha艂 Bortkiewicz, Tomek Trzci艅ski, Kevin Wang , Ishaan Javali, Benjamin Eysenbach tego prze艂omu.