Quiz 12 Flashcards
[M] Az alábbiak közül melyik jellemzik a homogén többrétegű előrecsatolt hálózatot?
- Az i-dik réteg neuronjának kimenete csak az i+1-dik réteg neuronjának lehet bemeneti értéke.
- A különböző rétegek neuronjainak aktivációs (kimeneti) függvénye eltérhet, de egy réteghez tartozó neuronok esetében nem.
- Az i-edik réteg egy neuronjának kimenete csak az i-1-dik réteg neuronjának lehet bemeneti értéke.
- Az azonos réteghez tartozó neuronok között nincs közvetlen kapcsolat.
- Az i-dik réteg neuronjának kimenete csak az i+1-dik réteg neuronjának lehet bemeneti értéke.
- Az azonos réteghez tartozó neuronok között nincs közvetlen kapcsolat.
[S] Mit jelent az input vektorizálása?
- A megoldandó probléma lineárisan szeparálható feladattá konvertálását.
- Egy inputot a jellemzői (attribútumai) segítségével egy számsorozattal ábrázolunk.
- Az inputok azonos hosszúságú számsorozatok.
- Az inputot egy síkvektorként fogjuk fel, amelynek kiinduló pontja az origó.
- Egy inputot a jellemzői (attribútumai) segítségével egy számsorozattal ábrázolunk.
[S] Jellemezze a szigmoid kimeneti függvényt!
- Folytonos, majdnem mindenhol deriválható, monoton növekedő, ]0,1[ intervallumba képző függvény.
- Egyetlen szakadási ponttal rendelkező, máshol deriválható, monoton növekedő, [0,1] intervallumba képző függvény.
- Folytonos, mindenhol deriválható, monoton növekedő, [0,1] intervallumba képző függvény.
- Folytonos, mindenhol deriválható, szigorúan monoton növekedő, ]0,1[ intervallumba képző függvény.
- Folytonos, mindenhol deriválható, szigorúan monoton növekedő, ]0,1[ intervallumba képző függvény.
[S] Az alábbiak közül melyik hálózatnak NEM lehet több rétegű topológiája?
- Hopfield neurális hálózat.
- Konvolúciós neurális hálózat.
- Backpropagation modell hálózata.
- Rekurrens neurális hálózat.
- Hopfield neurális hálózat.
[S] Mi a delta tanulási szabály?
- Egy súly megváltoztatása a súlyhoz tartozó bemeneti értéknek, és a súlyt tartalmazó neuron számított kimeneti értékének szorzatától függ.
- Egy súly megváltoztatása a súlyhoz tartozó bemeneti értéknek, és a súlyt tartalmazó neuron várt kimeneti értékének szorzatától függ.
- Egy súly megváltoztatása a súlyhoz tartozó bemeneti értéknek, és a súlyt tartalmazó neuron számított és várt kimeneti értékei különbségének szorzatától függ.
- Egy súly megváltoztatása a súlyhoz tartozó bemeneti értéknek, és a súlynak szorzatától függ.
- Egy súly megváltoztatása a súlyhoz tartozó bemeneti értéknek, és a súlyt tartalmazó neuron számított és várt kimeneti értékei különbségének szorzatától függ.
[S] Mire alkalmazzák a lineárisan szeparálható kifejezést?
- Arra, hogy a mintapontokhoz a legkisebb négyzetek módszerével meghatározott egyenes elválasztja egymástól a mintapontokat.
- A Rosenblatt-féle perceptronokból épített neurális hálózatokra.
- Azokra a feladatokra, amelyek lehetséges bemeneti érték n-esei egy hipersíkkal elválaszthatók aszerint, hogy az ezekre elvárt válasz A vagy B.
- Arra, hogy a perceptronnal megoldható problémák két osztályba sorolhatóak be.
- Azokra a feladatokra, amelyek lehetséges bemeneti érték n-esei egy hipersíkkal elválaszthatók aszerint, hogy az ezekre elvárt válasz A vagy B.
[S] A mesterséges neuron hálózatokra felügyelt vagy felügyelet nélküli tanulási módszer alkalmazható?
- Csak felügyelet nélkül.
- Csak felügyelt.
- Egyik sem.
- Mindkettő.
- Mindkettő.
[S] Hogyan lehet Rosenblatt-féle perceptronok felhasználásával koordinátapárokat úgy osztályozni, hogy megmondjuk melyek esnek bele egy megadott háromszögbe, és melyek nem?
- Egy rétegű három neuront tartalmazó hálózattal.
- Nem lehet, mert többrétegű Rosenblatt-féle perceptronokból álló hálózathoz nem ismerünk tanuló algoritmust.
- Olyan kétrétegű előrecsatolt hálózattal, ahol az első rétegben három, a második rétegben egy neuron van.
- Nem lehet, mert a Rosenblatt-féle neuronokkal csak lineárisan szeparálható problémákat lehet megoldani.
- Olyan kétrétegű előrecsatolt hálózattal, ahol az első rétegben három, a második rétegben egy neuron van.
[S] A mesterséges neuronhálózatot egy olyan paraméteres függvénynek tekinthetjük, amellyel a megoldandó problémát reprezentáló leképezést közelítjük. Melyek ebben a paraméterek?
- A neuronok „bias” bemenete.
- A tanító minták száma és a tanulási együttható.
- A neuronokban használt kimeneti függvények.
- A neuronok súlytényzői.
- A neuronok súlytényzői.
[S] Mit értünk a hiba-visszaterjesztés (error-backpropagation) módszere alatt?
- Azt a folyamatot, amellyel a Hopfield modell stabil konfigurációba jut.
- Azt, amikor egy többrétegű előrecsatolt hálózat kimeneti rétegének számított és várt outputjai alapján határozzuk meg, hogy hogyan kell a hálóbeli neuronok súlyait változtatni.
- Azt, amikor egy többrétegű előrecsatolt hálózat kimeneti rétegének elvárt kimenetei alapján határozzuk meg, hogy a hálóbeli neuronoknak milyen elvárt kimenete van.
- Olyan többrétegű hálózat építését, amelyben megengedjük a visszacsatolást a szomszédos rétegek között.
- Azt, amikor egy többrétegű előrecsatolt hálózat kimeneti rétegének számított és várt outputjai alapján határozzuk meg, hogy hogyan kell a hálóbeli neuronok súlyait változtatni.
[M] Mit értünk a Hopfield modell konfigurációs terén?
- A neuronok súlyainak összességét.
- A neuronok kimeneteinek összességét.
- A neuronok bemeneteinek összességét.
- A neuronok által felvett állapotok összességét.
- A neuronok kimeneteinek összességét.
- A neuronok által felvett állapotok összességét.
[M] Az alábbiak közül mely állítások igazak a mesterséges neuronhálózatokra?
- A tanulási idő hosszú.
- Optimális megoldást ad.
- A válaszadási idő rövid.
- A mintákat egyesével el kell tárolni.
- A tanulási idő hosszú.
- A válaszadási idő rövid.