Jakub Krajewski - Pretrening LLMów - jak działa i jak go poprawić? (PyData Bydgoszcz #31)
ฝัง
- เผยแพร่เมื่อ 6 ก.พ. 2025
- PyData Bydgoszcz spotkanie 31
czwartek 09.01.2025
Młyny Rothera (Spichrz Zbożowy, 2. piętro), Mennica 10, Bydgoszcz
Jakub Krajewski
Jestem doktorantem na Uniwersytecie Warszawskim, obecnie na drugim roku studiów. Zajmuję się efektywnością dużych modeli językowych. Swoje prace publikowałem na najważniejszych konferencjach w dziedzinie (NeurIPS, ICML), a ostatnio poszerzyłem doświadczenie podczas stażu w warszawskim biurze NVIDIA.
"Pretrening LLMów - jak działa i jak go poprawić?"
Duże modele językowe zmieniają naszą pracę, a w przyszłości ich wpływ na życie ludzi może stać się jeszcze większy. Jak więc działa trening LLMów i czy da się go poprawić, szczególnie z akademickim budżetem? Podczas mojej prezentacji opowiem trochę o aktualnych trendach i badaniach grupy llm-random na Uniwersytecie Warszawskim.
PyData Bydgoszcz
www.meetup.com...
PyDataBydgoszcz@gmail.com
/ pydatabydgoszcz
/ pydatabydgoszcz
#BydgoszczIT
Nagranie sponsorowane przez firmę STX Next
www.stxnext.com
Realizacja wideo:
Jacek Owczarz
Jack Jack Films
+48 884 391 000