Advertisement
Guest User

Untitled

a guest
Dec 12th, 2019
112
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
text 3.95 KB | None | 0 0
  1. A B C D E F G H I J K L M N O P Q R S T U V X Z
  2.  
  3.  
  4. Hamming:
  5. Propriedades do código de Hamming (7,4): minima / detectar / as pala tem comp 7 e 4
  6. Familia Hamming: (15,x) (31,x)
  7. Conta (3,1) c/ 0.19: (1-0.19)^3 + (1-0.19)^2 * 3 * 0.19
  8. Conta (7,4) c/ 0.02: (1-0.02)^7 + (1-0.02)^6 * 7 * 0.02
  9. Códigos de Hamming quantos bits: 2^m -1 - m
  10. Códigos de Hamming total: 2^m-1
  11.  
  12.  
  13. Capacidade de canais:
  14. Propriedades da capacidade de canal: a cap é um num não neg / C <= log |X| /C <= log |Y| / Mede-se em bits, harleys ou nats
  15. Capacidade de um canal calc: se for matrix grande é o pivot se for 2x2 1-(-val1*log2val1 - val2*log2val2)
  16. Definição da capacidade de um canal: C = maxp(x) I(x,y)
  17.  
  18.  
  19. Canais sem memória:
  20. Class. canais: p[0.8 0.2 0.8 0.2] - simétrico
  21. Class. canais: p[0.9 0 0.1 0.1 0 0.9] - canal com perdas (erasure channel)
  22. Concate canais: a conc de canais apenas / Ps todos com Pn...P2P1 / Peq = Pn sem erasure
  23. Caract de um canal OR: p[0.5 0 0.5 1]
  24. Caract de um canal XOR: p[0.75 0.25 0.75 0.25]
  25. Caract de um canal AND: p[1 0.5 0 0.5]
  26. Carac. de um canal discreto sem memória: p(y | x)
  27. Carac. de um canal discreto sem memória c/ matriz 2x3: card entra 3 e saida 2 
  28.  
  29.  
  30. Códificação aritmética:
  31. Teórica: A,N e S (1/2), (1/3) e (1/6) / 10 bits (...) Fx / F(ANANAS) = p(AA) (...)
  32. Teórica: a comp. é superior a do Huffman / O algo. consiste em det.uma unica palavra
  33.  
  34.  
  35. Compressão Shannon-Fano-Elias:
  36. Teórica: l(x) = [-log2p(x)] + 1 / Formula com o somatório
  37.  
  38.  
  39.  
  40.  
  41. Código Lempel-Ziv:
  42. Compressão LZ78 abccba:  (0,a), (0,b), (0,c) (3,b), (1,EOF)
  43.  
  44.  
  45.  
  46.  
  47.  
  48. Compressão de Dados
  49. Códigos instantaneos: C1, nâo-singulares: C1,C2,C3 (instantaneos: 0 10 11, nâo-singulares: Não pode haver nums repetidos)
  50. Comp. médio: p(A) * tam + p(B) * tam + p(C) * tam
  51. Desigualdade de Kraft: E2^-l(x)<=1; Existe (...) 2,3,1,3 e frase grande
  52. Formu. prob. compre: Minimizar Ep(x)l(x) com restricao E2^-l(x)<=1
  53.  
  54. Huffman adap:
  55. Cod. huffman adap: "S0A00LL1111" -> SALAS
  56. Téorica: (...) permite e (...) manipula
  57.  
  58. Cód. Shannon:
  59. Teórica: (...) l(x) (...) F(x) e l(x) = [-log2p(x)] e ordem decrescente e F(x) = Ei<xp(i)
  60.  
  61. Téorica 2: CS não é ótimo (...)  e 2 passagens no ficheiro
  62. Ineficiência: (...) D(p||q), onde q(x) = 2^-l(x) e p(x) é a dist. de prob. real dos simb do alfa.
  63. H(x) <= L(c) < H(x) + 1
  64.  
  65.  
  66.  
  67. Cód Huffman:
  68. Teórica: O cod. huffman é ótimo (...) e Para comprimir um file (...) 2 passagens
  69. H(x) <= L(c) < H(x) + 1
  70. Calc: quando: p(a) = 0.1, p(b) = 0.2, p(c) = 0.7, é o a = 00, b = 01, c = 1 aka C1
  71.  
  72. Cadeias de Markov:
  73. Período de um est. de uma CM: Só pode ser visitado em instantes de tempo multiplos de N
  74. Existência e unicidade da dist. estacio: Ser aperiódica e Ser irredutivel
  75. Entropia cond. de uma CM: a prob trans: 0.6, logo, -0.6log2(0.6)-0.4log2(0.4) = 0.97
  76. Dist. esta. de uma CM c/ uma unica dist.: P=0.5, 0.5, 0.5, 0.5
  77. Dist. esta. de uma CM c/ infinitas dist.: P=1, 0, 0, 1
  78. Dist. esta. de uma CM Não tem dist.: P=0, 1, 1, 0
  79. Dist. esta. de uma CM calc: o val para onde vai / pela soma do val das transicoes
  80. Dist. esta. de uma CM: Em geral uma CM pode ter 0, 1 ou infi. (...) e Formula
  81. CM: on on e processo estocástico e cadeia de markov e binaria independente
  82. CM estado de func de um serv: independente / formula / online, ausencia de mensagem
  83. CM irredutivel: é possivel transitar (...)
  84.  
  85. Entropia e Informação:
  86. Desiguadades: H(x|y) <= H(x) / 0 <= I(x,y) <= min(H(x), H(y)) / 0 <= H(x) <= log2|x|
  87. Desigualdades var indep: I(x,y) = 0 / H(x,y) = H(x) + H(y) / H(x|y) = H(x)
  88. Entropia: bits, harleys ou nats / medida da incerteza associada / moeda 2 faces é 0 bits / num real nao negativo / uma fonta info (...) 0 bits
  89. Entropia cond: H(x,y) - H(y) / H(x) - I(x,y) / H(x,y) - I(x,y) - H(y|x)
  90. Entro. cond e info mutua: H(x) + H(y) - I(x,y) / H(x) + H(y|x)
  91. Informação mutua: I(x,x) (...) H(x) / mede o grau de dependencia / bits, harleys ou nats / num real não negativo
  92. Surpresa alunos: reprovados: -log2(1-p(x)) / aprovados: -log2(p(x))
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement