Custom models and training with tensorflow Flashcards

1
Q

konwersja w tensorflow

A

nie jest automatyczna,
zeby ograniczyc bledy i przyspieszyc

trzeba uzyc tf.cast()

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

zmienne

A

tf.contant

albo tf.Variable`

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

assing()

A

sluzy do modyfikacji w miejscu\

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

scatter_update

A

sluzy do zmian w miejscu indywidualnych komorek

v.scatter_nd_update(indices=[[0, 0], [1, 2]], updates=[100., 200.])

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

jak uzyc wlasnej funkcji kosztu?

A

model.compile(loss=huber_fn, optimizer

przy wczytywaniu gotowego modelu trzeba zmapowac nazwe funckcji do funkcji

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

tf.where()

A

zwraca te elementy ktore spelniaja warunek

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

metryki

A

powinny miec latwo intepretowalne,
nie musza byc rozniczkowalne i miec gradient rozny od 0
sluza do oceny modelu

mozna zrobic wlasna klase, ktora dziedziczy po keras.metrics.Metric

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

tworzenie wlasnych warstw

A

warstwa bez zadnych wag : keras.layers.Lambda()

customowa warstwa -> dziedziczenie po keras.layers.Layer

build() -> tworzenie zmiennych dla warstwy: wykoprzystanie add_weight()

call->wykonuje operacje

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

jak stworzyc layer z wieloma inputami?

A

call powinien przyjmowac tuple z inputami

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

jak stworzyc layer ktory zachowuje sie inaczej podczas treningu i testowania?

A

trzeba dodac argument training do call()

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

autodif - do czego i jak dziala?

A

zeby nie liczyc przyblizonej pochodnej w punkcie dla kazdego parametru osobno

nalezy wykorzystac tf.GradientTape contex i uzyc f(parametry)

automatycznie sie usuwa po zakonczeniu, mozna wykorzystac tylko raz

jesli trzeba wiecej razy -> parametr persistent

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

jak zatrzymac backpropagation niektorych czesci sieci?

A

tf.stop_gradient

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

niestabilnosc numeryczna gradientu

A

czasami z powodu bledow prezycji funkcja moze dzielic nieskonczonosc przez nieskonczonosc,

mozna wtedy analitycznie obliczyc funkcje i ustawic ja w zamian -> dekorator @tf.custom_gradient

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

jak przeksztalcic funkcje z pythona w funkcje tensorflow>

A

albo dekorator albo tf.function(funkcja)

bedzie dzialac szybciej i zrobi nam graf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly