1 - Información, codificación y canales Flashcards

1
Q

La fórmula de cantidad de información es:

A) I(A) = log 1 / P(A)
B) I(A) = ln 1 / P(A)
C) I(A) = lg 1 / P(A)
D) I(A) = - lg P(A)
E) I(A) = - ln P(A)
F) I(A) = - log P(A)

(dos correctas)

A

C) I(A) = lg 1 / P(A)

D) I(A) = - lg P(A)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Para expresar el logaritmo en base dos de un número N, se utiliza lg N. Para calcular dicho logaritmo se utiliza:

A) lg N = log N / log 2
B) lg N = ln N / ln 2
C) Ambas son correctas

A

C) Ambas son correctas:

lg N = log N / log 2 = ln N / ln 2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

La función entropía es:

A) H(x) = Σ P(xi) * lg P(xi)
B) H(x) = - Σ P(xi) * lg P(xi)
C) H(x) = - Σ P(xi) * lg 1/P(xi)
D) H(x) = Σ P(xi) * lg 1/P(xi)

(dos correctas)

A

B) H(x) = - Σ P(xi) * lg P(xi)

D) H(x) = Σ P(xi) * lg 1/P(xi)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

La entropía a priori de un canal binario simétrico es:

A) H(A, B) = Σ P(a) * lg 1/P(a)
B) H(A) = Σ P(a) * lg 1/P(a)
C) H(B, A) = Σ P(b) * lg 1/P(b)

A

B) H(A) = Σ P(a) * lg 1/P(a)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Un canal binario simétrico:

A) Todas sus entradas tienen igual probabilidad que las salidas.
B) Posee dos entradas y las probabilidades de las entradas son iguales.
C) Posee dos entradas y la probabilidad condicional P(b1 | a1) = P(b1 | a2).
D) Posee dos entradas y la probabilidad condicional P(b1 | a2) = P(b2 | a1).
E) Puede tener más de dos entradas y la probabilidad condicional P(b1 | a2) = P(b2 | a1).

A

D) Posee dos entradas y la probabilidad condicional P(b1 | a2) = P(b2 | a1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

La información mutua es:

A) La información tranferida desde el canal al receptor, a través de la fuente.
B) La información tranferida desde la fuente al receptor, a través del canal.
C) La información a la salida del canal con ruido.
D) La información que obtiene el emisor desde el canal, al enviar la información.
E) La información promedio que se pierde al llegar al receptor.
F) La información entre la salida de la fuente y la salida del canal.
G) La información real, en promedio, que llega al receptor.
H) La información real que llega al receptor

(dos correctas)

A

B) La información tranferida desde la fuente al receptor, a través del canal.
G) La información real, en promedio, que llega al receptor.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

La fórmula de la información mutua es:

A) I(A, B) = H(A) - H(B | A)
B) I(A, B) = H(B) - H(A | B)
C) I(A, B) = H(B) - H(B | A)
D) I(A, B) = I(B, A)

(dos correctas)

A

C) I(A, B) = H(B) - H(B | A)

D) I(A, B) = I(B, A)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

La capacidad de un canal es:

A) C = min H(A)
B) C = max H(A)
C) C = P(A | B) * I(A, B)
D) C = P(B | A) * I(A, B)

Para una fuente binaria equiprobable, la capacida también resulta:

E) C = 1/t
E) C = min H(A) / t
F) C = I(A, B) / t
F) C = t * I(B, A) / P(A | B)

A

B) C = max H(A)

E) C = 1/t

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

La eficiencia de transmisión es:

A) EF = I(A, B) / t
B) FF = I(A, B) / t
C) EF = C / t
D) EFI = t / C
E) FF = I(A, B) / C
F) EFI = 1 - RED

Y la redundancia de transmisión es:

G) RED = 1 - EFI
H) RED = 1 + EF
I) RED = 1 - FF
J) RED = 1 - EF
K) RED = 1 - I(A, B) / t
L) RED = 1 * I(A, B) / t
A

E) FF = I(A, B) / C

I) RED = 1 - FF

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

La tasa de dígitos es:

A) La cantidad de binit de información transmitidos por segundo.
B) La cantidad de dígitos de información transmitidos por segundo.
C) La cantidad de dígitos, en promedio, de información, transmitidos en un segundo.
D) La cantidad de dígitos transmitidos por segundo.
E) La cantidad de dígitos de señalización por segundo.

Y se lo denota con:

F) s
G) r
H) R
I) S
J) td
K) d
A

D) La cantidad de dígitos transmitidos por segundo.

G) r

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

La velocidad (o tasa) de información es:

A) R = r H(A)
B) V = H'(A) - H'(A | B)
C) V = H(A) - H(A | B)
D) R = H'(A) - H'(A | B)
E) V = R
F) R = H'(A | B) - H(A)

(dos correctas)

Siendo Tmin el tiempo mínimo que dura un pulso, entonces la velocidad de señalización es:

G) v = 1 / Tmin^2
J) r = s
H) v = r = 1 / Tmin
K) s = Tmin^2
I) s = 1 / Tmin
L) r = v = 1 / Tmin^2
A

A) R = r H(A)
D) R = H’(A) - H’(A | B)
I) s = 1 / Tmin

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

La tasa de información es:

A) La información promedio que emite la fuente por unidad de tiempo.
C) La información que emite la fuente por unidad de tiempo.
D) La información promedio que emite la fuente.
E) La información que emite la fuente.

A

A) La información promedio que emite la fuente por unidad de tiempo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Con respecto a la tasa de velocidad y la capacidad, se desea que:

A) R >= C.
B) R <= C.
C) R > C.
D) R < C.
E) R = C.

¿Qué ocurre en si no se cumple lo deseado?

F) La tasa de errores será muy alta y el canal se saturará.
G) La tasa de errores será muy alta y el canal no funcionará.
H) La tasa de errores será muy alta pero el canal seguirá funcionando.
I) La tasa de errores no será muy alta, aún así, el canal no funcionará.
J) Nada, el canal funcionará de la misma forma.

A

B) R <= C.

Si no se cumple que R < C, entonces:

F) La tasa de errores será muy alta y el canal se saturará.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

¿Cuál es la diferencia entre capacidad y ancho de banda?

A

La capacidad es la cantidad de información por segundo que se puede transmitir en un medio. Se la denota con C y se mide en bps.

El ancho de banda es la diferencia entre la capacidad máxima y mínima (básicamente, el área de trabajo). Se mide en Hz (hertz).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly