AI

 0    9 词汇卡    pablojakub
下载mp3 打印 检查自己
 
问题 język polski 答案 język polski
Embedding to proces gdzie najpierw zamieniamy _ z _ a potem _, czyli _
开始学习
tokeny na wektory liczb, macierzy embeddingów, positional encoding, nakładanie wektorów pozycji
Model pipes and filters oznacza że najpierw jest _ czyli _ a potem _
开始学习
atencja czyli wyszukiwanie powiązań między wektorami, FFN czyli pogłębianie rozumienia
Transformery to _ czyli inaczej _ i _ które wykorzystują dwa ważne mechanizmy _ i _
开始学习
serce modelu, enkodery i dekodery, atencji i FFN
Co się dzieje podczas inputu?
开始学习
Dla każdego neuronu najpierw mnożymy inputy * wagi a potem dodajemy biasy
Sieć neuronowa to inaczej _ gdzie krawędzie to _ a węzły to _
开始学习
Graf skierowany, wagi, neurony
Im wyższa temperatura tym model _
开始学习
bardziej zmyśla
Logit to _ modelu przed zastosowaniem _ _
开始学习
końcowy wynik modelu, funkcji aktywacji (softmax)
Vocab size to rozmiar _ tokenów czyli liczba _.
开始学习
słownika, unikalnych słów które tokenizer zapamięta
Vocab size wpływa również na ilość _ macierzy embeddingów
开始学习
wierszy

您必须登录才能发表评论。