Jakub Krajewski - Pretrening LLMów - jak działa i jak go poprawić? (PyData Bydgoszcz #31)

แชร์
ฝัง
  • เผยแพร่เมื่อ 6 ก.พ. 2025
  • PyData Bydgoszcz spotkanie 31
    czwartek 09.01.2025
    Młyny Rothera (Spichrz Zbożowy, 2. piętro), Mennica 10, Bydgoszcz
    Jakub Krajewski
    Jestem doktorantem na Uniwersytecie Warszawskim, obecnie na drugim roku studiów. Zajmuję się efektywnością dużych modeli językowych. Swoje prace publikowałem na najważniejszych konferencjach w dziedzinie (NeurIPS, ICML), a ostatnio poszerzyłem doświadczenie podczas stażu w warszawskim biurze NVIDIA.
    "Pretrening LLMów - jak działa i jak go poprawić?"
    Duże modele językowe zmieniają naszą pracę, a w przyszłości ich wpływ na życie ludzi może stać się jeszcze większy. Jak więc działa trening LLMów i czy da się go poprawić, szczególnie z akademickim budżetem? Podczas mojej prezentacji opowiem trochę o aktualnych trendach i badaniach grupy llm-random na Uniwersytecie Warszawskim.
    PyData Bydgoszcz
    www.meetup.com...
    PyDataBydgoszcz@gmail.com
    / pydatabydgoszcz
    / pydatabydgoszcz
    #BydgoszczIT
    Nagranie sponsorowane przez firmę STX Next
    www.stxnext.com
    Realizacja wideo:
    Jacek Owczarz
    Jack Jack Films
    +48 884 391 000

ความคิดเห็น •